Energiewende: „Okay, dann eben Planwirtschaft!“

Es handelte sich dabei um die beiden spanischen Unternehmen Iberdrola und Gas Natural , die zwei italienischen Firmen Enel und Eni, die französische GDF Suez, den kleinen  niederländischen  Gashändler und –Versorger GasTerra sowie RWE und E.ON.
Die Überschrift spricht von einem Aufruf zur Wiederbelebung der europäischen Energiepolitik; der Inhalt liest sich allerdings anders.
Zunächst gibt es politisch korrekte Pflichtbekenntnisse: Im 3. und4. Absatz dieses Papiers geht es um „die Umstellung auf eine CO2-arme Wirtschaft“ und ferner darum, dass auch „weiterhin der Kampf gegen den Klimawandel unterstützt“ werden müsse.
Dann folgen Forderungen. Schon im ersten Punkt wird die Katze aus dem Sack gelassen: Gefordert wird „eine verbesserte Marktausgestaltung, einschließlich eines auf europäischer Ebene koordinierten Ansatzes für Kapazitätsmechanismen (!) , die gewährleisten, dass alle zur Versorgungssicherheit der europäischen Kunden beitragenden Anlagen gerecht entlohnt (!) werden.“
Im Klartext: Der Begriff Kapazitätsmechanismus wird seit etwa einem Jahr von Energieversorgern, von Behörden wie der Bundesnetzagentur und auch von Verbänden wie dem BDEW für eine neue Subventionsart für Kraftwerksbetreiber benutzt. Mit dieser sollen die durch die übermäßige Einspeisung von „Grünstrom“ und die dadurch verursachte drastische Verringerung der Volllast-Betriebsstunden unrentabel gewordene Gas- und Kohlekraftwerke unterstützt werden, damit  deren Betreiber sie nicht stilllegen, was sie sonst tun würden. Deren unausgesprochene, aber unüberhörbare Drohung: Wir müssen und werden  das aus wirtschaftlichen Gründen machen – und wenn dann das Netz zusammenbricht, tut es uns leid.
Einen ersten Erfolg hatte die Lobby bereits: Die drohende Stilllegung des hochmodernen Gaskraftwerks Irsching in Bayern konnte kürzlich abgewendet werden, indem jetzt die Betreiber Geld für die Vorhaltung der Anlage als „Kaltreserve“ erhalten.
Es ist die Subventionierung des Stillstands – und genau das wird nun unter der schönen Bezeichnung Kapazitätsmechanismus von den 8 Vorstandschefs gefordert. Bezahlter Stillstand als „Wiederbelebung der Energiepolitik“.
Die Pläne gehen aber noch weiter, wie man es bereits von deutschen Behörden und Verbänden hörte: Das Gleiche soll mit Anlagen geschehen, die wegen des Erreichens ihrer Lebensdauer eigentlich stillgelegt werden sollten. Auch diese alten Kraftwerke mit ihren schlechten Wirkungsgraden müssen unbedingt mit zusätzlichem Geld am Netz gehalten und dafür auch noch teuer aufgerüstet und modernisiert werden – als Reserve.

Wer diese Zusatzkosten aufzubringen hat, dürfte klar sein: Die Verbraucher, wie immer.

Nachdem dieser wichtigste Punkt von den acht CEO´s vorgetragen wurde, kommt anschließend in Punkt 2 wieder der Ruf nach „klimafreundlichen Techniken“ sowie die Bitte, dass doch zwar „ehrgeizige, aber realistische und belastbare Ziele für Treibhausgasemissionen“ vorgegeben werden.
Im Punkt 3 wird gewünscht, dass doch die Kosten für die Bürger sinken mögen – was aber gerade durch die Forderung nach der neuen Subventionsart in Punkt 1 ins Gegenteil verkehrt wird. Denn die Finanzierung eines stillstehenden Kraftwerksparks wird die Bürger sehr viel Geld kosten.

So etwas nennt man gemeinhin Heuchelei.

In Punkt 4 werden Investitionen in „vielversprechende Techniken“ (wörtlich !) gefordert. Diese lächerliche, naive Bezeichnung kommt hier tatsächlich von  Industrieunternehmen. In diesem Zusammenhang wird die CO2-Abtrennung (vielversprechend ?), die Speicherung und sogar Schiefergas genannt. Man beachte, was nicht genannt wird: Die so schön CO2-freie Kernkraft. Und das, obwohl doch zwei der Unterzeichner, RWE und E.ON, durch die Zwangsabschaltung ihrer KKW schwer geschädigt wurden.
Damit erklärt sich auch, weshalb die mächtige französische EDF nicht unterschrieb; auch die deutsche EnBW fehlt. Weiterhin fehlen EVU aus Großbritannien, der Schweiz, aus Östereich, Norwegen, Finnland, Schweden, Dänemark, Tschechien, Polen, Belgien, Ungarn usw.
Es sind also keineswegs die maßgeblichen Energieunternehmen Europas, die hier ideologisch korrekte Bekenntnisse abliefern und dafür dann die Hand aufhalten.  Das Motto scheint zu sein: Wenn die Politiker Stück für Stück die Marktwirtschaft im Energiesektor abschaffen und sie durch Planwirtschaft ersetzen, dann fordern wir hier eben ein weiteres Stück neuer Planwirtschaft, damit wenigstens die Kasse stimmt.
Man sollte sich nicht täuschen: Die hier eingeforderte neue Subvention ist bereits im Gange und wird einen weiteren erheblichen Abfluss an Wirtschaftskraft bei allen Verbrauchern mit sich bringen. Diese Forderung ist im Grunde ein Zeichen von Resignation in der Energiewirtschaft. Bevor es  endgültig kracht, möchte man wenigstens noch etwas verdienen.
Dr. Günter Keil, u.a. Autor des  Buches "Die Energiewende ist schon gescheitert"
(1): http://www.eon.com/de/news/pressemitteilungen/2013/5/22/acht-fuehrende-……html
Sankt Augustin,  15.6.2013




Wie weit steigt CO2 in der Erdatmosphäre noch an und welche Konsequenzen hat dies?

Das UBA schreibt auf seiner Facebook-Seite (hier) "> CO2-Konzentration so hoch wie nie <. Die Konzentration von Kohlendioxid (C02) in der Atmosphäre hat den höchsten Stand seit Millionen von Jahren erreicht. Vergangene Woche haben US-Forscher im Observatorium auf dem Mauna Loa, einem Vulkan auf Hawaii, an einem Tag mehr als 400 ppm (Teilchen CO2 pro 1 Mio. Luftteilchen) gemessen. Vermutlich war seit 3 Mio. Jahren nicht mehr so viel CO2 in der Atmosphäre".
Dies ist nicht einmal falsch. Schaut man sich freilich den maßgebenden Originalaufsatz an [1], wird der Aussagewert von "seit Millionen Jahren höchste Stand" deutlich. Die CO2-Konzentrationen steigen bereits seit 3 Millionen Jahren MONOTON an (Bild 1, links das letzte Stück von 3 bis 0 Jahre vor heute rot eingekreist). Das bedeutet, dass JEDE CO2-Messung zu JEDEM beliebigen Zeitpunkt, der bis zu 3 Millionen Jahre vor heute zurückreichen darf, zu einer entsprechenden Aussage führt (wir danken für den Hinweis auf die UBA-Facebook-Aussage dem Geophysiker Ullrich O. Weber). Die UBA-Meldung ist daher sachlich wertlos und appelliert nur an Emotionen oder Klimaängste. 
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild_PearsonA.jpg
Bild 1: Atmosphärische Konzentrationen von CO2 während der letzten 25 Millionen Jahre, die letzten 6 Millionen Jahre rot eingekreist.

Nun zur spannenden Frage "Wie wird es zukünftig mit dem CO2 weitergehen, wenn insbesondere China und Indien weiter ungebremst Kohle verbrennen"? Was steht der Erdatmosphäre bevor? Bevor wir diese Frage beantworten, sei kurz noch etwas weiter  zurück in die Vergangenheit geschaut. Die Verhältnisse bis vor 600 Millionen Jahren zeigt Bild 2. Es ist vom Autor gemäß den in hier, hier und [2] veröffentlichten Daten nacherstellt und wird von ihm regelmäßig in seinen Klima-Vorträgen gezeigt. Die Datenwerte sind methodischer Probleme wegen mit Unsicherheiten behaftet, ein zuverlässiges Bild der erdhistorischen Realität vermitteln sie aber dennoch.
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/VeizerTCO2.jpg
Bild 2: Mittlere Globaltemperaturen und CO2-Konzentrationen während der letzten 600 Millionen Jahre
Im Bild 2 sollte uns insbesondere die gestrichelt eingezeichnete 800 ppm-Linie interessieren. Sie stellt nämlich die absolute Obergrenze der CO2-Konzentration dar, die menschgemacht NIEMALS überschritten werden kann. Kann man dies begründen? Ja, eine sehr einfache Abschätzungsrechnung und Literaturkenntnisse reichen aus:
Der Menschheit stehen gemäß Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) grob 1300 GtC als (maßgebenden CO2-erzeugende) Brennstoffressourcen in Form von Kohle zur Verfügung. Erdöl darf bei der Abschätzung vernachlässigt werden, Gas ebenfalls. Ferner wird vernachlässigt, dass die aktuelle Airborn Fraction (AF) von 45% in Zukunft unabdingbar weiter abnehmen muss – was AF bedeutet und warum sie weiter abnehmen muss, wird später beschrieben.
Die Autoren Michael Raupach und Josep Canadell geben die Äquivalenz von 1 GtC zu 0,47 ppm CO2 für die Erdatmosphäre an (hier). Das Verfeuern aller 1300 GtC entspricht somit 1300*0,47 = 611 ppm CO2-Konzentrationsanstieg in der Atmosphäre. Die  vorgenommene Schätzung muss allerdings noch die aktuelle AF von 45% – s. Fig. 5 in (hier) – berücksichtigen. Mit AF = 45% gehen von 100% neu erzeugtem anthropogenen CO2 nur 45% in die Atmosphäre, der Rest wird von den Ozeanen und der Biosphäre aufgenommen. Die 611 ppm reduzieren sich daher auf 611*0,47 = etwa 300 ppm. Das wären dann 400 (heute) + 300 = 700 ppm als nicht vom Menschen zu erhöhender Endwert. Fazit: Selbst eine Verdoppelung der heutigen CO2-Konzentration auf 800 ppm ist durch fossile Brennstoffverbrennung nicht erreichbar.
Natürlich wird die Menschheit niemals ihre gesamte Kohle verbrennen, diese ist viel zu wertvoll für die Chemie und wird daher irgendwann zukünftig zu teuer für das Verfeuern werden. In spätestens einem Jahrhundert werden neue Brutreaktoren – so wie beispielsweise der DRL (hier) – als inhärent sicher sind und praktische keinen nuklearen Abfall mehr produzierend die Energieversorgung der Menschheit revolutioniert haben. Die Episode der deutschen "Energiewende" ist dann längst als Entgleisung von ideologisch Verrückten, Profiteuren und der Politik in die Geschichtsbücher eingegangen. Diese unselige Koalition, so werden unsere Enkel klagen, hatte es hierzulande wieder einmal geschafft, eine ganze Nation auf Glatteis zu führen und ein ganzes Land mit überdimensionalen, völlig nutzlosen Windrädern zu verunstalten und schwer zu schädigen. Nur Metallverwertungs- und Windradabbruchunternehmen haben nach dem Ende der Bonanza noch profitiert.
Für die Politik bringt der Autor freilich ein wenig Verständnis auf, denn wie können sich Politiker die Chance auf die Besteuerung der Luft entgehen lassen? Die leider einzige Chance für den Bürger besteht darin, diesen Umweltverbrechern entschieden an der Wahlurne entgegenzutreten, denn Fakten werden bekanntlich von der Politik konsequent ignoriert.
Nun noch zur Erläuterung zur AF: mit AF wird derjenige Anteil von neu erzeugtem anthtropogenem CO2 bezeichnet, der in die Atmosphäre geht. Der Rest wird von den Ozeanen und der Biospäre aufgenommen. Warum sind es heute bereits 45% AF? Die Ozeane enthalten etwa 40 mal so viel CO2 wie die Atmosphäre. Infolgedessen ändert sich infolge zunehmendem anthropogenen CO2 der CO2-Partialdruck im Meer vermittels CO2-Aufnahme aus der Atmosphäre praktisch nicht, wohl aber der CO2-Partialdruck in der Atmosphäre. Mit zunehmenden atmosphärischen CO2-Gehalt wird somit die Partialdruckdifferent immer größer (chemisches Massenwirkungsgesetz oder statistische Mechanik, wie man will). Die AF nimmt infolgedessen immer weiter ab. Irgendwann geht im dynamischen CO2-Austausch Atmosphäre <–> Meer jedes von der Menschheit erzeugte CO2-Molekül schließlich ins Meer oder in die Biosphäre. Dieser Zusammenhang wurde von Prof. Werner Weber (Univ. Dortmund) auf dem gemeinsamen Fachkolloquium EIKE-PIK zum ersten Mal öffentlich vorgetragen (hier). Um nicht gleich wieder die Meeresversauerungs-Propheten auf den Plan zu rufen, sei auf einen sehr fachkundigen und ausführlichen Artikel zu dieser Frage hingewiesen, der im Blog Vahrenholalt/Lüning erschein (hier) – Vahrenholt ist Chemie-Professor. Von Versauerung oder gar Schädigung der Meeresflora und -fauna kann keine Rede sein.
Und weiter: die Klimasensitivität des CO2 ohne zusätzliche Verstärkungs- oder Abschwächungseffekte ist zwischen 0,45 °C (hier) und 1,1 °C (IPCC-Angabe) anzusiedeln. In [3] wird an Hand einer modernen statistischen Untersuchung kein Einfluss des anthropogenen CO2 auf Erdtemperaturen aufgefiunden, den gleichen Schluss könnte man auch aus der jüngsten wissenschaftlichen Publikation des Autors (hier) entnehmen, obwohl das Thema der Arbeit nicht das anthropogene CO2 betraf.
Zusammen mit den unter [4] bis [10] zusammengefassten Arbeiten, die – basierend auf Messdaten – GEGENKOPPELUNGEN an Stelle der in Klimamodelle fiktiv eingebauten, temperaturerhöhenden Rückkoppelungen anzeigen, bleibt dann von der temperaturerhöhenden Eigenschaft des anthropogenen CO2 leider kaum noch etwas übrig. Leider deswegen, weil die Menschheit diese Eigenschaft noch dringend nötig hätte – spätestens in 10.000 bis 20.000 Jahren, wenn es nach der wohl zutreffenden Milankovitch-Theorie wieder mächtig kalt auf unserem Planenten wird und in Europa die Arktisgletscher wieder bis an die Alpen und Pyrenäen vorstoßen. Immerhin hat zunehmendes CO2 jetzt schon den Vorteil, den Pflanzenwuchs antzuregen und daher zur Verbesserung der Wlternährung beizutragen.
In diesem Zusammenhang wirkt das von den politischen Klima-Alarmisten immer wieder propagierte 2 °C Ziel, das natürlich nur mit CO2-Vermeidung erreichbar sein soll, befremdlich. Der Autor befindet sich in guter wissenschaftlicher Gesellschaft (Hans v. Storch) und darf nicht der Polemik bezichtigt werden, wenn auch er dieses Ziel als das bezeichnet, was es ist: BLANKER UNSINN. In der Fachliteratur ist es praktisch ohnehin nicht aufzufinden.
Quellen:
[1] P.N. Pearson and M.R. Palmer: Atmospheric carbon dioxide concentrations over the past 60 million years, nature, 406, 17.August 2000
[2] Came et al., nature, 449, 13 (2007)

[3] M. Beenstock, Y. Reingewertz, and N. Paldor: Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam. 3, 173-188 (2012)

[4] R.P. Allen: Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere, Meteorol. Appl. 18, 324-333 (2011)

[5] R.W. Spencer, and W.D. Braswell: Remote Sensing 3(8) (2011),http://tinyurl.com/9cvuz32

[6] R.W. Spencer, and W.D. Braswell: Journal of Geophysical Research, Vol. 115 (2010), http://tinyurl.com/8kd694d

[7] G. Paltridge et al.: Theor. Appl. Climatol. 98 (2009), http://www.drroyspencer.com/Paltridge-NCEP-vapor-2009.pdf

[8] F. Miskolczi: The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness, E&E, 21, No. 4 (2010)

[9] R.W. Spencer and W.D. Braswell: On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant energy balance, Remote Sens. 3, 1603-1613 (2011)

[10] R.S. Lindzen and Y-S. Choi: On the Observational Determination of Climate Sensitivity and Its Implications, Asia-Pacific J. Atmos. Sci. (47(4), 377-390 (2011), http://tinyurl.com/3mbresk




Besorgnisse eines Naturwissenschaftlers über die deutschen „Vorreiter“

1. Eher politische Vorbemerkung
Ich will nachfolgend aufzeigen, dass die deutschen Meinungseliten sich bei vielen der Themen als Vorreiter verstanden und verstehen, obwohl immer wieder teils schwerwiegende Fehleinschätzungen aufgezählt sind. Neuerdings werden hierzulande gar schwer zu korrigierende Fehlentwicklungen eingeleitet, die dringend Kursänderungen nötig machen. Ich  beobachte mit großer Sorge, dass die politischen und medialen Wortführer eine ungewöhnlich negative Haltung zu Technik, Naturwissenschaft und Industrie einnehmen. Nahezu jede neue wissenschaftlich-technische Entwicklung wird zunächst abgelehnt. Dies steht in krassem Wiederspruch zur selbstverständlichen und ungehemmten Inanspruchnahme technischer Leistungen und technischen Komforts jeder Art, dies gerade auch von ihren Kritikern (z. B. Kommunikationstechnik, Verkehr, Versorgung mit sauberem Trinkwasser, preiswerter Nahrung, Energie, Gesundheitssystem usw.).
Tiefgreifende Entscheidungen der „Vorreiter“ wie z. B. die deutsche Energiewende bleiben aus meiner Sicht fachlich und sachlich völlig unerklärt. Ohne überzeugende Begründung wird von Politikern (= Lehrer, Gesellschaftswissenschaftler, Juristen, Theologen, einige wenige Wirtschaftsfachleute) stattdessen der Auftrag an Naturwissenschaft, Technik, Energieerzeuger erteilt, die Sache schnellstmöglich zu realisieren. Äußern die so Beauftragten Bedenken, werden sie sogleich als „Hintertreiber des an sich Möglichen, und dies natürlich aus Profitgründen“ öffentlich gebrandmarkt. Hier sei Altbundeskanzler Helmut Schmidt zitiert, der kürzlich im ZDF-Interview auf die Frage nach der Ernergiewende präzis wie immer antwortete: “Voreilig!“.
Wichtige Zukunftsbereiche wurden und werden gegen die Erkenntnisse von Wissenschaft und Technik behindert oder verboten, um sich den vorwiegend deutschen Zeitströmungen anzudienen (zunächst die Gentechnik generell, aktuell die grüne Gentechnik). Die politisch Korrekten begründen ihre Entscheidungen, wenn überhaupt, moralisch-ethisch und beanspruchen (fatalerweise) wieder einmal eine Vorreiterrolle für Deutschland. Dies mutet inzwischen recht überheblich und auch ideologisch an. Ob postulierte Risiken tatsächlich existieren und wirtschaftliche Folgen der Entscheidungen tragbar sind, muss offenbar sachlich-fachlich gar nicht mehr begründet werden.
Ich möchte mich mit diesem Beitrag in die Diskussion von Themen einmischen, die für das Industrieland Deutschland immense Bedeutung haben. Ich bin überzeugt, dass ein überwiegender Teil unserer technisch-naturwissenschaftlich Gebildeten eine ähnliche Haltung einnimmt, aber nicht gefragt und nicht gehört wird. Dabei ist dieser Teil unserer Gesellschaft schließlich nicht nur stark involviert in die technisch-naturwissenschaftliche (Weiter-)Entwicklung unseres Landes. In ihren Reihen ist auch ein wesentlicher Teil der Wissens- und Erfahrungsträger versammelt, ohne deren Arbeit der Wohlstand in Deutschland schnell verloren ginge.
2. Mehr inhaltliche Begründung
Ingenieure, Techniker, Naturwissenschaftler und Ärzte sind bisher stille Garanten für die Schaffung und Erhaltung unseres Wohlstandes, für die komfortablen Lebensbedingungen in Deutschland und auch für die stetig wachsende Gesundheit und Lebenserwartung unserer Bevölkerung. Das alles basiert auf der Beherrschung, Anwendung und Verfügbarkeit von Technik und Naturwissenschaft in ihrer ganzen Breite. Das Gleiche gilt für freie Forschungsarbeit und Umsetzung von Forschungsergebnissen. Auch bei uns sind es schließlich Ingenieure, Techniker, Naturwissenschaftler, Ärzte sowie eine vorwiegend mittelständische Unternehmerschaft, die für sauberes Trinkwasser; (bisher) sichere Energieversorgung; reine Luft; klare Gewässer, hohe Hygienestandards sorgen. Die hier erreichten Standards suchen in der Welt ihresgleichen.
Wenn viele dieser Berufsgruppen eher diskreditiert als gefördert werden (Chemie ist Gift, neue Techniken sind gefährlich und unnötig, Industriekonzerne beuten Menschen aus, nur Natur ist gut), werden wir bald an Wohlstand, an Wettbewerbsfähigkeit auf den noch erlaubten Entwicklungsgebieten und auch an Ansehen verlieren, weil der Nachwuchs fehlt. Selbst hohe Umweltstandards sind nicht mit Demonstranten, sondern nur über Spitzentechniken zu realisieren.
Ich möchte auch klar aussprechen, dass die durchweg abschätzige Haltung der politischen und medialen Öffentlichkeit gegenüber modernen technischen Entwicklungen unserem Land große Schäden zugefügt hat und dies gegenwärtig verstärkt fortsetzt. Gefahren, Katastrophen, Risiken für Leib, Leben und besonders gern für die natürliche Umwelt werden hierzulande allzu leicht von solchen gesellschaftlichen Gruppen beschworen, die sich nicht um sachliche Begründungen kümmern, sondern einfacherweise den zuvor selbst erzeugten Zeitgeist dafür heranziehen.
An besonders eklatanten Fehlleistungen aus der Vergangenheit soll aufgezeigt werden, welche deutschen Irrungen und Wirrungen jeweils als unabdingbar dargestellt wurden, sich aber sachlich und fachlich immer als falsch und wirtschaftlich als ruinös herausstellten.
3. Beispiele für unglaubliche Fehlentwicklungen
Die enormen medizinischen Fortschritte der „roten Gentechnik“ wurden zunächst ohne deutsche Beteiligung erreicht, weil solche Forschung und Entwicklung politisch intensiv behindert wurden (z. B. durch Verbot der Produktion von rekombinantem Human-Insulin). Jahre später rief der damalige Bundesforschungsminister Riesenhuber zur „Aufholjagd“ in Deutschland auf, obwohl wir ursprünglich an der Spitze dieser Forschung standen. Der Rückstand war und ist nur mühsam wettzumachen. Eine ähnliche Fehlentwicklung wird die aktuelle Verhinderung von Forschung und Entwicklung auf dem sehr wichtigen Gebiet der grünen Gentechnik zeitigen, wiederum mit vielen Nachteilen für Deutschland (siehe z. B. die empörte Reaktion der Nobelpreisträgerin Nüsslein-Vollhard in dieser Sache ).
Eine weitere sehr kritisch zu bewertende Entscheidung der politischen Vorreiter in Deutschland ist die „Energiewende“. Wissenschaftlich-technisch gesehen ist es barer Unsinn, die Kernenergie als „nicht beherrschbar“ zu verteufeln. Die deutschen Kernkraftwerke belegen seit 50 Jahren das Gegenteil. Und der weltweite Ausbau der Kernenergie ist auch keine Ausgeburt der Dummheit aller Nicht-Deutschen. Wirtschaftlich verursacht der Ausstieg aus der Kernenergie eine kaum zu überschätzende Schwächung der deutschen Industrie, weil elektrische Energie in Deutschland ununterbrochen teurer wird. Die Endlagerfrage wird weltweit immer unwichtiger, weil durch Transmutation abgebrannte Kernbrennstoffe zur weiteren Energiegewinnung genutzt werden können und nur eine ganz geringe Reststrahlung von Kernbrennstoff zurückbleibt. Die nötige Aufbereitungstechnik wird schon bald einsatzbereit sein (wieder ohne deutsche Beteiligung). In unserem Land wird stattdessen von nicht informierten, fanatischen Eiferern demonstriert, die Medien agieren als Verstärker dieses Treibens und setzen die Bevölkerung unsinnig in Angst und Schrecken. All dies kostet viel Volksvermögen, das bei der kontinuierlichen Verbesserung der Lebensbedingungen, der natürlichen und technisch-zivilisatorischen Umwelt, aber auch beim Ausbau der sozialen und kulturellen Errungenschaften unseres Landes weit besser angelegt wäre.
Weiteres Beispiel: Wenn in Deutschland vorhandene Erdgasvorräte durch Fracking gewonnen werden sollen, entsteht sogleich ein medialer und politischer Sturm gegen solches Ansinnen. Deutsches Grundwasser darf auf keinen Fall durch Chemikalien verunreinigt werden! Abgesehen davon, dass hier wieder populistisch argumentiert wird: Dies fordern die gleichen Menschen, die gut beheizte Wohnungen, Flugreisen in warme Urlaubsgebiete, energiesparende Wärmedämmung möglichst vieler Häuser usw. für absolut in Ordnung halten. Sie realisieren dabei nicht, dass die fossilen Energieträger dafür in anderen Ländern aus der Erde geholt werden, deren Grundwasser-Reinheit  offenbar nicht wichtig ist.  (Kann leicht um weitere Beispiele erweitert werden!)
Über den Autor:
Prof. Dr. Hans Hoffmeister wirkte an maßgeblicher Stelle an vielen Programmen und Lehr- sowie Forschungseinrichtungen für das Gesundheitswesen mit. Seine Sorge gilt der Entwicklung und Unabhängigkeit der Wissenschaft, sowie der medial geschürten Technik- und Fortschrittsfeindlichkeit in diesem Lande.
Einige Stationen seines Wirkens waren:
1960 bis Gegenwart        
Umfangreiche wissenschaftliche Tätigkeit auf den Gebieten Biochemie, klinische Chemie, Epidemiologie, Präventivmedizin, Sozialmedizin, Zellbiologie, Biotechnologie. Z. B.: Durchführung der Deutschen Herz-Kreislauf-Präventions-Studie, deren Mitinitiator und Sprecher.
Projektleiter mehrerer Bundesstatistiken und epidemio-logischer Großstudien (Nationale Gesundheits-Surveys, bundesdeutsche Krebsregister, Hessen-Studie, Nordenham-Brake-Studie)
Publikation von über 300 wissenschaftlichen Arbeiten; Autor, Herausgeber oder Mitherausgeber von etwa 30 Büchern
Speziell:
1976:
Programm der Bundesregierung „Forschung und Entwicklung im Dienste der Gesundheit“ wird gestartet/in Kraft gesetzt. Gemeinsames Programm von Gesundheits-, Arbeits- und Forschungsministerium. Inhaltliche Ersterstellung des Programms sowie Texte weitgehend von H. Hoffmeister, als Institutsleiter d. Inst. Soz. Ep. des BGA. Zwei weitere Fortschreibungen des Programms (1979, 1982) werden ebenfalls weitgehend von H. Hoffmeister betreut/verfasst.
1980:
Abkommen zwischen US-Regierung und Bundesregierung zur Zusammenarbeit auf biomedizinischem Gebiet wird geschlossen. Beim ersten Meeting in USA ist  Detlef Ganten Delegationsleiter. Ab dem 2. Treffen in den USA wird diese Funktion von H. Hoffmeister über etwa 10 Meetings in USA und Deutschland wahrgenommen/organisiert. US-Seite: Leiter NHLBI, Dr.Claude Lenfant, Bethesda, NCHS, Dr. Manning Feinlieb, Bethesda
1980:
Vorstudien zur Deutschen Herzkreislauf-Präventionsstudie (DHP) beginnen. Federführung bei der Erstellung des Studienhandbuchs/Texte: H. Hoffmeister.
Nach Start der DHP-Hauptstudie 1983 ab 1984 bis 1996 H. Hoffmeister immer wieder gewählter Sprecher dieser multizentrischen Studie (finanziert mit etwa 100 Mill. DM vom BMFT).
1988:
H. Hoffmeister: Sachverständiger/Berichtersteller Enquete-Komission des Deutschen Bundestages „Demographischer Wandel“
1989:
H. Hoffmeister: Vertreter der Bundesregierung in der Kommission der WHO zur Bekämpfung von Herzkreislaufkrankheiten
1987:
Festakt des Bundesministeriums für Gesundheit im Reichstag, Berlin. „40 Jahre Bundesrepublik Deutschland“. Wissenschaftlicher Festvortrag: H. Hoffmeister. Abendfest im Schloss Bellevue (S. Hoffmeister: Musik), Ministerin U. Lehr.
1995:
Großer Gesundheits-Kongress des Bundesministeriums für Gesundheit, Bonn, mit allen relevanten Institutionen des Deutschen Gesundheitswesens (ÄK, KV, Ärzteorganisationen, Kassen, wiss. Institutionen). Amtsauftakt /Grundsatzrede Minister Seehofer, Reden Staatssektretäre BMA/BMFT. Wissenschaftlicher Eröffnungsvortrag: H. Hoffmeister




Die betrügerische Studie von Cook über den „97%-Konsens“ ist ein Marketing-Trick, auf den einige Journalisten hereinfallen werden.

John Cook, ein Blogger, der die Site mit dem hinterhältigen Titel „SkepticalScience“ betreibt, (der ganz unskeptisch die Mainstream-Position verteidigt), hat versucht, die Schmierenstrategie gegen die Tausende Wissenschaftler wiederzubeleben, die eine abweichende Meinung vertreten. Die neue Studie verwechselt Klimaforschung mit finanziellen Kräften, basiert auf den falschen Hypothesen, benutzt trügerische Schlussfolgerungen, war nicht unabhängig und verwechselt einen Konsens unter Klimawissenschaftlern mit einem wissenschaftlichen Konsens; nicht das ein Konsens irgendetwas beweist, so er überhaupt existiert.
Angesichts der monopolistischen Finanzierung der Klimawissenschaft während der letzten 20 Jahre sind die von ihm gefundenen Resultate vollständig vorhersehbar.
Die zwölf Hinweise, die sich gute Journalisten merken sollten:
1. Tausende Studien unterstützen die vom Menschen verursachte Klimaänderung, aber in keiner einzigen findet sich dafür ein schlüssiger Beweis
Cook mag 3896 Studien gefunden haben, in denen die Theorie, dass menschliche Emissionen das Klima kontrollieren, befürwortet wird, aber er kann keine einzige Studie nennen mit Beobachtungen, die zeigen, dass die Hypothesen der IPCC-Klimamodelle über Wasserdampf und Wolken-Rückkopplungen richtig sind. Diese Hypothesen erzeugen die Hälfte bis zwei Drittel der in den Modellen projizierten Erwärmung. Wenn die Hypothesen falsch sind (und in Dutzenden Studien wird gezeigt, dass genau das der Fall ist), dann ist die vorhergesagte Erwärmung erheblich übertrieben. In vielen der Studien auf seiner Liste geht es um diese falschen Modelle.
Mit anderen Worten, er hat 3896 nicht beweiskräftige und danach gescheiterte bzw. korrekte, aber irrelevante Studien gefunden. Das Wichtigste an seiner Studie ist die Aussage, dass – nachdem Tausende Wissenschaftler die besten Daten, die sie während 20 Jahren finden konnten, ins Spiel brachten – sie immer noch keine schlüssige Unterstützung bekommen haben.
2. Die Studie von Cook zeigt, dass 66% der Studien nicht die vom Menschen verursachte globale Erwärmung befürworten
Cook nennt dies einen „überwältigenden Konsens“.
Sie haben „11944 Klima-Abstracts von 1991 bis 2011 zu den Themen ‚globale Klimaänderung’ oder ‚globale Erwärmung’ untersucht. Wir finden, dass 66,4% der Abstracts keine Haltung zu AGW ausdrückten, 32,6% befürworteten AGW, 0,7% wiesen AGW zurück und 0,3% waren sich über die Ursache der globalen Erwärmung unsicher“.
Vielleicht spiegelt die große Zahl derer, die unsicher waren, einfach folgende Situation: Klimawissenschaft ist kompliziert, und die meisten Wissenschaftler sind sich nicht sicher, von wem oder was das Klima angetrieben wird. Das relative Fehlen skeptischer Studien hier liegt an den in den Punkten 4, 5 und 7 beschriebenen Ursachen. Es ist aber auch in jedem Falle irrelevant. Man braucht nur eine einzige Studie, um zu zeigen, dass seine Theorie falsch ist. Wer zählt?
3. Cooks Methode ist ein logischer Trugschluss: Argument durch Autorität. Das ist nicht Wissenschaft, sondern PR.
Der Unterschied zwischen Wissenschaft und Religion besteht darin, dass nur empirische Beweise zählen und nicht Meinungen. Es gibt keine Götter der Wissenschaft. Daten und nicht Menschen sind die Autorität, die das Sagen hat (es gibt keinen Pabst der Studien). Cook verkehrt das in sein Gegenteil. Das ist Anti-Wissenschaft. Es ist so, als ob sie sagen, dass die Schwerkraft die Erde in ihrem Orbit hält, und sie sagen nicht, dass dies deswegen so sei, weil „97% aller Geophysiker dafür gestimmt haben“.
Cook weiß das (ich erinnere ihn fortwährend daran), aber er tut so, als umgehe er es. Erkennen Sie die Täuschung: „Wissenschaftler müssen ihre Meinungen mit einer auf Beweisen beruhenden Analyse stützen, die die sorgfältige Prüfung durch Experten auf dem Gebiet übersteht. Dies bedeutet, dass begutachtete Literatur ein robuster Indikator des Status’ des wissenschaftlichen Konsens’ sind“. Cook vermutet, dass die Meinungen der Wissenschaftler sofort und akkurat und ausschließlich auf den Beweisen ruhen, als ob Menschen Intel Chips sind. Er vermutet, dass „Begutachtung“ nicht korrupt ist (anders als jede andere menschliche Institution), dass zwei unbezahlte anonyme Begutachter „Sorgfalt“ ist, dass aktivistische Klimawissenschaftler nicht daran arbeiten, Skeptiker aus dem Begutachtungsprozess herauszuhalten und dass Klimagate niemals bekannt gemacht hatte, was wirklich in der Klimawissenschaft los ist.
Müssen Leute, die psychologische Forschungen betreiben, die Grundlagen der menschlichen Natur verstehen? Wissenschaftler können der falschen Ansicht jahrelang anhängen – man schaue nur auf diejenigen, die dachten, dass die Menschen niemals fliegen würden (selbst noch zwei Jahre nach dem ersten Flug der Gebrüder Wright), oder dass Röntgenstrahlen in Schuhgeschäften sicher seien, oder dass Geschwüre nicht infektiös sind oder dass Proteine nicht ansteckend seien (damals BSE genannt).
4. Die Anzahl der Studien ist ein Proxy der Förderung
Mit dem Anwachsen der Förderung dirigierten die Wissenschaftler ihre Arbeiten um auf Felder, die für Zuwendungen attraktiv waren. Das ist keine Konspiration, sondern lediglich Adam Smith [= Adam Riese?] bei der Arbeit. Es gab keine Förderung skeptischer Wissenschaftler, die das IPCC oder die Theorie, dass die vom Menschen durchgeführte Klimawissenschaft die Erwärmung übertreibt, in Frage stellte. Mehr als 79 Milliarden Dollar wurden von 1989 bis 2009 in Forschung und Technologie der Klimawissenschaft gesteckt. Da ist es kein Wunder, das Wissenschaftler sich wiederholende, irrelevante und schwache Ergebnisse hervorbrachten. Die Steuerzahler wurden sogar für Forschungen an klimaresistenten Austern zur Kasse gebeten. Man lasse kein Blatt unumgedreht.

Die schiere Quantität von Abstracts, die die vom Menschen verursachte Klimaänderung befürworten, hat zugenommen, die Förderungen jedoch ebenfalls.

Während des gleichen Zeitraumes wurden 79 Milliarden Dollar in die Klimaforschung und die Entwicklung mit dem Klima zusammenhängender Technologien gesteckt.
Das Problem monopolistisch geförderter Modelle besteht darin, dass es kaum Wettbewerb gibt. Nur wenige Forscher werden dafür bezahlt, Forschungsnischen zu erkunden, die vermutlich mit der Theorie nicht übereinstimmen. Freiwillige, die ihre eigenen Forschungen durchführen wollen, erhalten keinen freien Zugang zu Journalen, haben Schwierigkeiten, an Daten zu kommen (manchmal dauert es Jahre oder es bedarf Gesetzen, sie zu bekommen, und manchmal erhält man sie niemals). Freiwillige verfügen nicht notwendigerweise über die Ausrüstung, die Analysen durchzuführen, und ihnen stehen keine Doktoren oder Ehrenstudenten als Hilfen zur Verfügung. Man bezahlt ihnen auch nicht die Reisen zu Konferenzen, und sie leiden unter der Behinderung, dass sie Zeit aufbringen müssen, um sich unabhängig von ihren Forschungen ihren Lebensunterhalt zu verdienen. Wenn sie wirklich etwas herausfinden, dann stehen keine PR-Teams bereit, ihre Studien zu propagieren oder Presseerklärungen zu formulieren.
In der Finanzwelt gibt es Audits, im Gericht die Verteidigung, im Parlament die Opposition, aber in der Wissenschaft gibt es … was immer die Regierung zu finanzieren gedenkt.
Im Endeffekt gibt es keinerlei Förderung, weder durch eine Zuwendung noch ein Institut, das aktiv die Menschen ermuntert, nach Gründen zu forschen, warum die vom IPVV favorisierte Theorie falsch sein könnte.
5. Die meisten dieser Konsens-Studien vermuten, dass die Theorie korrekt ist, haben dies aber niemals geprüft. Sie sind irrelevant.
Die aufgezählten, die durch den Menschen verursachte globale Erwärmung befürwortenden Studien enthalten auch die „implizite Befürwortung“, was diese Studie mehr zu einer Analyse der Förderung anstatt der Beweise macht. Cook nennt folgendes Beispiel einer Studie mit einer impliziten Befürwortung: …die Sequestrierung von Kohlenstoff in der Erde ist wichtig, um die globale Klimaänderung abzuschwächen. Jeder Forscher, der die Sequestrierung von Kohlenstoff erforscht, hat fast mit Sicherheit die von der oberen Troposphäre ausgehende Strahlung analysiert oder die Hypothesen hinsichtlich der Relativen Feuchtigkeit in Klimasimulationen. Ganz ähnlich wissen Forscher, die Auswirkungen der Klimaänderung an Lemuren, Schmetterlingen oder Eisbären untersuchen, vermutlich wenig über Berechnungen des Wärmegehalts der Ozeane. Diese Forscher sind „ich auch“-Forscher.
Falls eine konservative Regierung Milliarden ausgegeben hat, um die Kosten gescheiterter Klimamodelle und die Auswirkungen desaströser grüner Programme zu analysieren, sind Skeptiker in der Lage, genauso viele ich-auch-Studien wie Cook zu nennen. (Aber wir würden es nicht tun, weil die Analyse des Klimas mit Stichwort-Studien [keyword studies] keine Wissenschaft wäre.
6. An Gläubige wurde 3500 mal mehr Geld gezahlt als an Skeptiker (aus allen Quellen zusammen).
Cook scheint zu glauben, dass es organisierte Bemühungen gibt, die Öffentlichkeit zu verwirren. Handelt es sich hier um eine schändliche Absicht mit konspirativen Vorschlägen mysteriöser Kampagnen?
Kampagnen, die darauf abzielen, die Öffentlichkeit über das Niveau der Übereinstimmung unter den Klimawissenschaftlern zu verwirren, tragen zu dieser ‚Konsens-Lücke’ bei.
Angesichts seiner Verwirrung darüber, was Wissenschaft ist, denkt er möglicherweise, dass die Leute ihn zu verwirren versuchen, wenn sie es ihm direkt sagen.
Sein eigener persönlicher Bias bedeutet, dass er der falsche Mann für diese Studie ist (falls das Ganze wirklich einer Studie wert ist, was es nicht ist).
Sie trägt alle Anzeichen aktivistischer Propaganda, nicht Forschung. Cook versucht zu vermitteln, dass Skeptiker es für Geld tun, und ignoriert völlig, wohin die Gelder wirklich fließen. Die Regierungen haben nicht nur 79 Milliarden Dollar in die Forschung gesteckt, sie geben auch jedes Jahr 70 Milliarden Dollar an Subventionen für Erneuerbare aus (eine Industrie, die davon abhängig ist, dass Forscher einen Zusammenhang finden zwischen Kohlendioxid und einer katastrophalen Klimaänderung). Kohlenstoffmärkte setzen pro Jahr größenordnungsmäßig um 170 Milliarden Dollar um, und Investitionen in Erneuerbare summieren sich zu einer Viertelbillion Dollar [a quarter of a trillion dollars]. Diese persönlichen Interessen hängen vollständig von der Verbindung mit einer Katastrophe ab – wo steckt der Sinn, Kohlenstoffemissionen zu stoppen, wenn der Kohlenstoff nicht zu einer Krise führt? Und gegen all diese Milliarden glaubt Cook, dass eine 20 Jahre alte Zahlung von 150000 Dollar von Western Fuels der Erwähnung wert ist. Was genau war das große Verbrechen von Western Fuels? Ihr primäres Ziel bestand vermutlich in der Sünde zu versuchen, die globale Erwärmung als Theorie, nicht als Faktum zu beschreiben, was zufälligerweise genau stimmt, außer das die „globale Erwärmung“ technisch nicht einmal eine Theorie, sondern eine Hypothese ist, also etwas mit viel geringerem wissenschaftlichen Gewicht.
Spielt Klimageld eine Rolle? Ist ein Monopol gut für einen Markt?
Glauben Sie, dass Sie – im Falle Ihnen stünden 79 Milliarden Dollar zur Verfügung – 3896 Studien veröffentlicht bekommen?
7. Beim Suchen nach Stichworten findet man die wichtigsten skeptischen Studien nicht
Die Suche nach Stichworten fördert mit größerer Wahrscheinlichkeit eher „Konsens“-Studien zutage. In vielen skeptischen Studien kommen die Begriffe „globale Erwärmung“ oder „globale Klimaänderung“ gar nicht vor. Beispiele: Svensmark (1998), Douglass (2007), Christy (2010), Loehle (2009) und Spencer (2011). Waren sie enthalten? Vielleicht, aber sie scheinen nicht zu den Suchbegriffen zu passen. Dies sind lediglich einige wenige grundlegende Studien, die nicht gefunden worden sind.
Aktualisierung: Lucia und JunkPschology bestätigen in Kommentaren, dass diese genannten sechs Studien nicht in Cooks Liste aufgetaucht wären. Also kann ich in lediglich einer halben  Stunde in einer Stichprobensammlung leicht wesentliche Studien von Skeptikern aufrufen, die aus der Liste von Cooks primitiver Stichwortsuchliste herausfallen. Wie viele andere findet er auch nicht?
8. Einige dieser Abstracts sind 20 Jahre alt – ändern zwei Jahrzehnte neuer Beweise irgendetwas?
Vor 20 Jahren hat das IPCC vorhergesagt, dass wir eine Erwärmung um 0,3°C pro Dekade bekommen werden. Der bisherige Erwärmungstrend lag deutlich noch unterhalb ihrer niedrigstmöglichen Abschätzung egal welchen wesentlichen Datensatz man heranzieht. Damals wussten die Wissenschaftler noch nicht, dass es in Eisbohrkernen eine Verzögerung von 800 Jahren gab (wobei die Temperatur Jahrhunderte vor einem Anstieg des Kohlendioxids gestiegen ist). Im Jahr 1992 haben die Wissenschaftler noch nicht mitbekommen, dass die Erwärmung schon bald fünfzehn Jahre lang zum Stillstand kommen würde. Sie wussten nicht, dass 28 Millionen Radiosonden zeigen würden, dass ihre Modelle auf falschen Hypothesen über Wasserdampf beruhen. Sie wussten nicht, dass 3000 ARGO-Bojen schließlich zum ersten Mal adäquat die Ozeane vermessen würden (seit 2003) – und herausfinden würden, dass die Ozeane nicht wie in ihren Modellen simuliert die fehlende Energie speichern oder sich auch nur annähernd so schnell aufheizen wie die Modelle vorhergesagt hatten. Mit anderen Worten, selbst wenn es 1992 einen Konsens gegeben hat, ist das irrelevant.
9. Naomi Oreskes hat 928 Studien gefunden mit Abstracts, die die vom Menschen verursachte globale Erwärmung nicht explizit zurückgewiesen haben. So? Die Skeptiker haben 1100 Studien gefunden, die skeptische Standpunkte stützen.
Skeptiker veröffentlichen keine Presseerklärungen, die behaupten, dass das irgendeine wissenschaftliche Bedeutung hat. Es bedeutet vielmehr, dass die Medien und das IPCC blind und taub gegenüber massenhaften Beweisen sind, und dass der Ausdruck „Leugner“ … nun, Marketing ist, nicht Wissenschaft. Die Leute, die die Existenz dieser 1100 Studien leugnen, sind diejenigen, die die anderen Wissenschaftler mit Ausdrücken verunglimpfen. Wann endlich werden Journalisten das zur Kenntnis nehmen?
Angesichts der Geldsummen, die gezahlt worden sind, um Beweise zu finden – die Frage, die echte Investoren stellen sollten lautet: „ist das alles, was sie gefunden haben?“
10. Wollen Sie Autoritäten? Die Skeptiker können 31500 Wissenschaftler benennen, die deren Standpunkten zustimmen, darunter 9000 mit einem PhD, 45 NASA-Experten (einschließlich zweier Astronauten, die den Mond betreten hatten) und zwei Gewinner des Physik-Nobelpreises.
Skeptiker veröffentlichen keine Presseerklärungen, die behaupten, dass wir den Gläubigen an Zahl überlegen sind, aber Skeptiker bevorzugen es, die Beweise vorzubringen. Cook ignoriert die Autoritäten, die ihm nicht folgen. Skeptiker bekommen Nobelpreise, aber Gläubige scheinen nur Preise für den Frieden zu bekommen. Phil Jones ist einer der größten Experten unter den Klimawissenschaftler-Experten, aber er konnte in Excel keine lineare Trendlinie erzeugen. Andererseits waren einige Skeptiker auf dem Mond.
Kein Wunder, dass die Öffentlichkeit nicht glaubt, dass es einen Konsens gibt. Es gibt unter den Wissenschaftlern keinen Konsens.
Cook glaubt gefunden zu haben, dass die Öffentlichkeit durch eine vorsätzliche Kampagne genarrt worden ist, aber solange verschlagene Skeptiker Kontinente unter Wasser oder mit Schnee überziehen können, kann es sein, dass die Öffentlichkeit das Scheitern der Modelle mit eigenen Augen erkennen kann.
11. Was ist mit den wissenschaftlichen Vereinen? Aber sie bestehen nicht aus Massen von Wissenschaftlern – sondern bilden lediglich ein Komitee mit sechs von ihnen.
Die meisten wissenschaftlichen Vereine fordern ihre Mitglieder niemals zur Abstimmung auf (oder, wenn das doch der Fall ist, legen bizarre Regeln fest, wie es die Royal Society getan hatte, die ihre Mitglieder kürzlich aufforderte, mit Ja oder mit Ja zu stimmen bei der Frage, ob man Prinz Andrew die Mitgliedschaft antragen sollte). Wenn wissenschaftliche Vereine alle ihre Mitglieder befragen, bestehen die meisten Antworten aus einem nachhallenden „nein“. Mit den Milliarden Dollar im Hintergrund – ist es da ein Wunder, dass unermüdlicher Aktivismus seitens Regierungsabteilungen, Erneuerbaren-Unternehmen und andere Akademiker verzweifelt versuchen, den Geldzug am Rollen zu halten, dazu gedacht, die Komitees in den Schatten zu stellen?
12. Cook sagt im Wesentlichen, dass es hier nicht um einen wissenschaftlichen Streit geht – sondern es ist eine Taktik, die öffentliche Meinung durch Wiederholen der Trugschlüsse zu ändern.
Im ersten Satz sowohl im Abstract als auch in den Conclusions heißt es, dass es in dieser Studie um die öffentliche Auffassung und die Regierungspolitik geht. Es geht nicht um Wissenschaft. Sie ist gedacht zu helfen, die öffentliche Meinung zu ändern. Es gab keinen Versuch herauszufinden, ob es einen wissenschaftlichen Konsens gibt – geschweige denn einen Konsens unter allen Wissenschaftlern. Cook erklärt pragmatisch: falls die Menschen glauben, dass es einen Konsens gibt, unterstützen sie bereitwilliger eine Politik zur Abschwächung der globalen Erwärmung. Wir wissen von Cooks früheren Verlautbarungen, dass er persönlich politische Maßnahmen bevorzugt, das Wetter zu ändern. Finanziert der australische Steuerzahler Forschungen, um etwas Neues zu erfahren, oder um die öffentliche Meinung und das Wählerverhalten zu ändern? (wie wurde diese Studie finanziert? In den Danksagungen [acknowledgements] steht davon nichts?)
Cook fährt fort, mit Ausdrücken um sich zu werfen sowie mit dem unwissenschaftlichen Missbrauch der englischen Sprache.
Selbst Cook räumt ein, dass der Ausdruck „Klimaleugner” nicht gerechtfertigt ist, und doch benutzt er diesen Ausdruck weiterhin. Es ist ein Missbrauch der englischen Sprache, der Außenstehende dazu bringt zu glauben, dass Cook hier einen echten Punkt macht. Wenn die Beweise, die sie haben, wirklich so überwältigend sind, warum wollen Cook und andere dann nicht in eine höfliche Diskussion einsteigen? Man zeige uns einfach die fehlenden Beweise! Man zeige uns relevante Modellvorhersagen von vor 20 Jahren, die sich als richtig herausgestellt haben. Der alte Trick mit anschwärzen und beschimpfen funktioniert nicht mehr.
Cook behauptet auch, dass jedes Abstract von „zwei unabhängigen, anonymisierten Bewertern“ kategorisiert worden ist. Und doch kommen die Bewerter aus seinem Partisanen-Blog, haben ihr Rating miteinander besprochen und eingeräumt, dass sie unter sich nicht unabhängig waren. Was also bedeutet „unabhängig“? Können wir stattdessen englisch sprechen?
Wissenschaft hat keine Götter
Willkommen bei den letzten Resten der Großen Angst-Kampagne, wobei die Endzeit-Strategie darin besteht, einfach das zu wiederholen, was zuvor so gut funktioniert hat, was erbärmlich falsch und ausgesprochen unwissenschaftlich ist, bis zu einer Verfügung, dass wir an die Götter der Wissenschaft glauben müssen.
Das Traurige dabei ist, dass einige Umwelt- und „Wissenschafts“-Reporter so geringe Kenntnisse haben, dass sie auf das hereinfallen, was im Wesentlichen Marketing ist, das im wissenschaftlichen Mäntelchen daherkommt.
Wenn nun nur die Überzeugten Beweise für ihre bevorzugte Lieblingstheorie haben? Dann wären Aktivisten wie Cook in der Lage, öffentlich zu diskutieren, höflich zu bleiben und ihre Sache zu erklären anstatt auf billige Schmähungen, fragwürdige Forschungen und irreführende Statements zurückzugreifen.
Link: http://joannenova.com.au/2013/05/cooks-fallacy-97-consensus-study-is-a-marketing-ploy-some-journalists-will-fall-for/
Übersetzt von Chris Frey EIKE




Die Gründe für das Sommerhochwasser 2013

….wenn manch deutsche Journalisten versuchen eigenständig zu denken, möchten wir Ihnen nicht vorenthalten.
So schrieb Herr Harald John jüngst in einem Leitartikel in der LVZ (Leipziger Volkszeitung) folgendes Statement:

“Schuld ist der von vielen immer noch geleugnete Klimawandel, der nicht nur zu kurzen, extrem heißen Sommern und langen, kalten Wintern führt, sondern auch zu stärkeren Stürmen und sehr langen, heftigen Regenfällen. Natürlich wird sich keine Statistik finden, die diesen Anstieg unmittelbar und für jedes Jahr nachweisen kann. Aber in der Tendenz sind sich die Experten einig: Extreme Wetterlagen nehmen deutlich zu.“

Da konnte auch BILD nichts abseits sehen und legte am 12.06. nach:

“Klimawandel schlägt voll zu“.

Die Aussagen unserer sog. Klimaforscher, wie Mojib Latif, zum aktuellen Hochwasser, erinnerten den Autor spontan an eine Comic-Lektüre, die er in seiner Jugend las – “Asterix und der Seher“. Bei Filmproduktionen wird an dieser Stelle immer angegeben. “Ähnlichkeiten mit lebenden Personen sind rein zufällig“.
Da haben wir´s, Schuld ist der Klimawandel und natürlich die Leugner, ohne die gäbe es dann wohl auch keine Flut und damit auch kein Elend – die logische Fortführung solchen Unsinns. Nein, zu dem Elend, den Prüfungen der Betroffenen, kommt das bekannte geistige Elend, nicht zuletzt hervorgerufen durch ideologische Verblendung oder politische Gleichschaltung, der deutschen Mediengesellschaft. Aber was können wir unseren Lesern, den wissenschaftlich interessierten Menschen, denn als Erklärung anbieten, dass sich in der heutigen Zeit solche Naturkatastrophen (scheinbar) häufen. Auf komplexe Themen gibt es meist keine einfache Antwort. Die Gründe sind vielfältig. Mit einem beschworenen, menschengemachten Klimawandel hat dies jedoch wenig zu tun. So ist das einzig „menschengemachte“ der statistische Vergleich, der solch Aussagen wie “Jahrhundertflut“ hervorbringt.
Sowenig wie bei den Temperaturen, können heutige Ereignisse nicht einfach mit früheren verglichen werden, da bekanntlich die Zeit den Raum ändert und wenn der Mensch diesem „Naturgesetz“ auch noch dadurch „Nachhilfe“ erteilt, indem er Flussläufe begradigt, natürliche Überflutungsgebiete, sprich Auen oder Sumpflandschaften entwässert und der Bebauung und/oder Besiedlung zugänglich macht, dann verändert er damit statistische Vergleiche. Mehr noch, er macht sie unmöglich.
So war in den Medien zu hören, dass an der Elbe eine künstliche Aue (Überflutungsgebiet) geschaffen wurde, die den Fluss entlastete und eine Pegelentlastung um 35 cm brachte. In früheren Jahrhunderten hatten unsere Flüsse dutzende solcher möglichen Überflutungsgebiete, die alle dafür sorgten, dass keine großen Flutwellen entstehen konnten und wenn doch, waren diese auf heutige Verhältnisse hochgerechnet, viel gravierender (Abb.1), als die heutige. Nein, wir haben nicht ein mehr an „Jahrhundertfluten“, nur ein mehr an Halbwissenden und leider ein mehr an Hochwasserbetroffenen, denen unser Augenmerk und unsere Hilfe zukommen sollte. Nicht einem Phantom, das es gar nicht gibt.

Abb.1: Flugschrift zum Hochwasserereignis 1651, Quelle: Bayer. Staatsbib. München, Fl.-Nr. 03099 aus “Zur Temperatur- und Hochwasserentwicklung der letzten 1000 Jahre in Deutschland“, R. Glaser, Ch. Beck, H. Stangl.
So befasst sich der DWD, der sicherlich nicht dem Lager der “Klimaleugner“ zugeordnet werden kann, vorrangig mit Erwärmungsauswirkungen (z.B.: Seine Erwärmungsprognose für das Jahr 2100), wie sie dem (menschengemachten) Klimawandel angeheftet werden und kommt zu folgendem Schluss „Langfristig seit Beginn des 20. Jahrhunderts zeigt sich zumindest großräumig kein signifikanter Trend zu mehr Trockenheit in Europa.“ (DWD, Bissolli et al., “Trockenheit in Europa im Frühjahr 2012“).
Während sich der DWD (diesmal) nicht mit Zukunftsdeutungen beschäftigte, gab Herr Prof. Schellnhuber vom PIK einer erstaunten Öffentlichkeit, anhand von Computerprogrammen  im September 2012 zu Protokoll (Fokus, 24.09.2012) ““Ostdeutschland wird durch größere Hitzewellen im Sommer und mehr Niederschläge im Winter wahrscheinlich härter getroffen“, sagte Pik-Direktor Hans Joachim Schellnhuber am Freitag in Berlin.“ (http://www.focus.de/wissen/klima/klimaprognosen/tid-27463/von-hitze-bis-hochwasser-der-klimawandel-trifft-vor-allem-den-osten-deutschlands_aid_825826.html). EIKE berichtete darüber: (http://www.eike-klima-energie.eu/climategate-anzeige/klimafolgenforscher-schellnhuber-ruft-mal-wieder-zum-umdenken-auf-kassandrarufe-statt-fundierte-wissenschaft/).
Von einem Rinnsal kann bei der Elbe nun wahrlich keine Rede sein. In Ostdeutschland sinkt auch nicht der Grundwasserspiegel, wie dies am Beispiel Brandenburgs anhand von Berechnungen bereits eintreten soll, sondern dieser steigt seit Jahren. Bei unseren Freunden aus der Klimaerwärmungsfraktion werden allzuoft Realität und Fiktion miteinander verwechselt.
Da darf natürlich auch der andere Zukunftsseher, Prof. Latif, nicht hinten anstehen. Das ZDF (12.06.) gibt ihm wieder eine Plattform für seine seherischen Statements “Zwar gab es bereits 1613 die Thüringer Sintflut und 1501 ein Extremhochwasser in Passau. Doch diese Jahrhunderthochwasser häufen sich in den letzten Jahren – das sieht man an Beispielen wie dem Oderhochwasser 1997 und 2009, der Elbeflut 2002 und nun dem Jahrhunderthochwasser 2013. Wetterphänomene im Einzelnen könne man nicht auf den Klimawandel zurückführen, erklärt Meteorologe Mojib Latif. Vielmehr müsse man die Häufung und die Intensität der Ereignisse über einen langen Zeitraum betrachten. Denn erst durch die Beobachtung des globalen Klimas über Jahrzehnte ließen sich Trends ausmachen. Steigt die Erwärmung der Erde unverändert weiter, scheint jedoch ein Trend bereits vorgezeichnet: Das Klima in Deutschland wird extremer, Wechselspiele zwischen Hitze und großer Trockenheit sowie sintflutartigen Regenfällen werden keine Seltenheit mehr sein.“
Diese Aussage stammt von demselben Latif, der im Jahr 2000 dem Spiegel (“Winter ade: Nie wieder Schnee?“) folgendes übermittelte: In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif“ Angesichts der eingetretenen Realität und der in unserem Land eingeführten „Winterreifenpflicht“, fürwahr eine Lachnummer. Offensichtlich hat Herr Prof. Latif nichts dazugelernt und bleibt bis zum heutigen Tag bei seinen Lachnummern.
Das „Geschäft mit der Zukunft“ hat indes eine lange Tradition. Bereits unsere Vorfahren versuchten aus den Innereien von Tieren die Zukunft zu ergründen – Gänseleber und Krötenblasen waren sehr beliebt. Die Spätgermanen von heute, wie an den Beispielen Latif und Schellnhuber gezeigt, versuchen wieder aus Innereien in die Zukunft zu sehen, diesmal sind das die Bytes und Flops der Supercomputer – mit demselben Ergebnis. Doch zurück zur Realität.
Bereits bei der „Jahrhundertflut“ an der Elbe in 2002, wurde wissenschaftlich untersucht, ob diese mit einem menschengemachten Klimawandel in Verbindung zu bringen ist, bzw. inwieweit sich eine Tendenz zu höheren Pegelständen zeigt (Abb.2). (Nature, vol. 425 vom 11. September 2003, ”No upward trends in the occurrence of extreme floods in central Europe”,Mudelsee et al.).

Abb.2: Die Untersuchungen von Mudelsee et al. lassen in ihrer Deutlichkeit keinen Zweifel, weder ist eine Tendenz zu höheren Pegelständen zu sehen, noch zu vermehrtem Hochwasser. Darüber hinaus zeigen seine Untersuchungen, dass auch in früheren Zeiten mehrere „Jahrhundertereignisse“ zeitnah auftraten. Anhand seiner Untersuchungen, das letzte mal um 1700 (untere Zeitreihe).
Wie am Beispiel Latif gezeigt, wird von der Klimaerwärmungsfraktion, gern die Vokabel  „Jahrhundertereignisse“ verwendet. Womit dann dem Betrachter signalisiert werden soll, hier liefe etwas „aus dem Ruder“, wenn solche vermehrt auftreten. Die Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin schrieb zu diesem heute so gern verwendetem Begriff bereits am 27.03.1981:
“Jedes Jahr mehrere Ereignisse, die jedes höchstens einmal im Laufe eines Menschenlebens zu erwarten gewesen wären – und das soll normal sein? – Die Antwort lautet: ja.
Um diese Antwort zu geben oder nachzuvollziehen, bedarf es im folgenden einer einfachen Rechnung und einer Portion gesunden Menschenverstands.
Wir machen uns dazu eine (unvollständige) Liste von wichtigen Wetterereignissen der Art, daß sie mit „dies trltt in 100 Jahren genau 1x auf“ umschrieben werden können:
Der kälteste/wärmste Monat m seit 100 Jahren: 24,
der nasseste/trockenste Monat n seit 100 Jahren: 24 ,
der sonnenreichste/-ärmste Monat o seit 100 Jahren: 24,
der stürmischste Monat p seit 100 Jahren: 12,
der kätteste/wärmste m Tag seit 100 Jahren: 24,
der nasseste/sonnenreichste n Tag seit 100 Jahren: 24,
der stürmischste p Tag seit 100 Jahren: 12,
sowie
die k./w., n.It., sr ./sä., st. Jahreszeit z seit 100 Jahren 28,
Dies ergibt nach Ablauf von 100 Jahren summa summarum 172 definierte Jahrhundertereignisse dieser Art allein in Berlin; anders ausgedrückt sind innerhalb von 3 Jahren etwa 5 Jahrhundertereignisse dieser Art allein für Berlin zu erwarten.“
Was zeigt uns die statistische Untersuchung am Institut für Meteorologie der Freien Universität Berlin? Mit diesem Begriff “Jahrhundert..“ soll Panik verbreitet werden, obwohl er lediglich Normalität beinhaltet. Latif und Co. wollen wieder einmal die Bürger für dumm verkaufen. Wen wundert’s, dass ihnen dieses bei den deutschen Journalisten wieder einmal gelungen ist, deren Kenntnisse meist an der Oberfläche enden (EIKE berichtete mehrfach darüber).
Da Latif und Co. also gerne Taschenspielertricks anwenden, um ihrem Publikum Ladenhüter zu verkaufen, soll nicht unerwähnt bleiben, dass die von Latif so geheimnisvoll genannten „Extremereignisse“, die derzeit eintreten und für die nächsten Jahre erwartet werden, für unsere Breiten nach einem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, nichts ungewöhnliches sind, sondern Normalität. In seiner EIKE-Reihe “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels, Teil 8“ hat der Autor bereits darauf hingewiesen. (http://www.eike-klima-energie.eu/lesezeichen-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/) Exemplarisch zeigt die Abb.3, dass in Mitteleuropa in den ersten Jahrzehnten nach einem Hauptsonnenzyklus die Temperaturen (und mit ihnen auch die Wetterereignisse) starken Schwankungen unterliegen. Der Hauptsonnenzyklus hatte übrigens in 2003 sein Maximum, als Europa unter einem Hitzesommer litt. Seither fällt die solare Aktivität stark ab.

Abb.3: Die Abbildung, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von München im Zeitraum von 1781 – 1991. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zu dessen Minimum sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien). Der Grund für die starken Schwankungen nach einem Hauptsonnenzyklus sind nach Ansicht des Autors auf die unterschiedlichen Wärmekapazitäten von Wasser auf der einen und Land/Atmosphäre auf der anderen Seite zurückzuführen. Nach den Untersuchungen von Prof. Solanki (Direktor Max Planck Institut für Sonnenforschung) läuft das irdische Wettersystem der solaren Aktivität etwa 10 Jahre nach. D.h. die im Wasser gespeicherte Energie durch eine starke solare Aktivität, die bis ca. 2005 vorlag, wird verzögert wieder abgegeben – Wasser ist bekanntlich ein guter Wärmespeicher.
Wie dargelegt, bestimmt der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus, maßgeblich unser Klima. Er hatte zu Beginn des Jahrhunderts (2003) sein Maximum. Wie nach jedem Hauptsonnenzyklus gehen seither die Temperaturen deutlich zurück.
Fazit
Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach einem Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem spürbaren Rückgang der Temperaturen zu rechnen. Nach einem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie dies derzeit wieder zu beobachten ist, so dass der Temperaturgang für die nächsten 10 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangsphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau.
Obwohl die Untersuchung anhand eines, bzw. 2 Hauptsonnenzyklen sicherlich zu gering ist, um eine abschließende Aussage der Temperaturentwicklung treffen zu können, zeigt sie jedoch, dass starke Temperaturschwankungen zwischen warmen und kalten Jahren in den ersten Jahrzehnten nach einem Hauptsonnenzyklus, insbesondere in Mitteleuropa, nichts ungewöhnliches darstellen. Die heutigen Schwankungen passen somit in sehr guter Weise zu den historischen.
Was bleibt also von den Beschwörungen Schellnhubers, Latifs und Co., die wieder einmal von einer unwissenden Journalistenschar gedankenlos nachgeplappert wurden. Nichts, als natürliche Ereignisse, statistische Tricks und falsche Vergleiche. Im Comic “Asterix und der Seher“ lassen die Autoren Uderzo und Goscinny ihren Seher Vorsicht walten (dort auf S.13): „Ich muss vorsichtig sein. Aus dem anderen Dorf haben sie mich mit Fußtritten gejagt…die waren gar nicht so dumm da!“ Unsere spätgermanischen Seher brauchen in den Dörfern (Redaktionen) deutscher Journalisten vor Enttarnung keine Angst zu haben. Dort ist offenbar die Dummheit zu Hause und diese müssen sich, mitsamt den spätgermanischen Sehern, die Frage gefallen lassen, wo Realität aufhört und Comic anfängt. Die Grenzen sind dort offenbar zur Unkenntlichkeit verwischt. Lenin nannte Journalisten “Nützliche Idioten“. Eine große deutsche Journalistenschar hat in diesen Tagen wieder einmal diese Aussage grandios bestätigt.
Raimund Leistenschneider – EIKE