Das IPCC gibt zu: die Berichte in der Vergangenheit enthielten viel Müll

Das war die einzige verfügbare Version des IAC-Berichtes, als ich darüber schrieb, also am 31.8.2010. Ich bekenne, ich habe mich auf diesen unveröffentlichten Essay bezogen und ihn modifiziert, als das IPCC vor etwa zwei Wochen seine Presseerklärung bekannt gab. Dies führte zu dem Artikel hier beim American Thinker. Mir war nicht bewusst, dass sich die endgültige Version des Berichtes so stark von der Pre-Publication Version unterscheiden würde.

Mehr: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html#ixzz21T6QIU00

Ich überlasse es Anderen, darüber zu spekulieren, warum das IAC seine Kritik am IPCC bis zu einem Punkt verwässert hat, dass diese Kritik in der endgültigen Version fast unsichtbar war. Ich bemerke auch, dass ich im Essay vom 31.8.2010 den folgenden Vorbehalt geäußert habe, der ebenfalls zu diesem Artikel passt und nicht unerwähnt bleiben sollte:

Der Bericht ist im allgemeinen Stil von Akademikern geschrieben und kommentiert die Mängel in den Berichten von Anderen. Ratschläge mit „verstärken“ oder „verbessern“ versehen Ergebnisse mit einem positiven Beigeschmack, die enthüllen, dass gegenwärtige Management- und Begutachtungssysteme schwach, unangemessen oder sogar korrupt sind. Man muss ein wenig zwischen den Zeilen lesen, um zu bemerken, welche Fehler entdeckt und bekannt gemacht wurden.

Am 27. Juni hat das IPCC ein Statement veröffentlicht des Inhalts, dass man „den Prozess zur Implementierung einer Anzahl von Vorschlägen des IAC vom August 2010 vollendet habe, der von den wissenschaftlichen Akademien der Welt gegründeten Institution, um internationale Agenturen zu beraten“.

Versteckt in dieser scheinbar routinemäßigen Aktualisierung bürokratischer Prozesse ist eine erstaunliche und vollständig unterschlagene Story. Das IPCC ist die prominenteste Quelle alarmistischer Prognosen der Welt sowie von Behauptungen über die vom Menschen verursachte globale Erwärmung. Auf seine vier Zustandsberichte (ein fünfter soll in verschiedenen Teilen 2013 und 2014 veröffentlicht werden) beziehen sich die EPA in den USA und nationale Akademien der Wissenschaft weltweit als „Beweis“, dass die globale Erwärmung der vergangenen etwa fünf Jahrzehnte sowohl vom Menschen verursacht als auch Beleg für eine sich verschärfende Krise ist.

Sollten die IPCC-Berichte ein Betrug sein, wie viele „Skeptiker“ der globalen Erwärmung schon lange behaupten, dann ist die wissenschaftliche Wurzel der Bewegung zur globalen Erwärmung unterminiert – die „Mutter aller Umweltängste“ der Umweltbewegung. Der Krieg von Präsident Obama gegen Kohle könnte unnötig sein. Milliarden Dollar Subventionen für Solar und Wind könnten verschwendet worden sein. Billionen Dollar des persönlichen Einkommens könnten dann weltweit in Kampagnen verschwendet worden sein, um ein „Problem anzugehen“, das in Wirklichkeit gar nicht existiert.

Die vom IAC unterbreiteten  „Vorschläge” bestanden nicht aus kleineren Anpassungen an eine fundamental wissenschaftliche Prozedur. Hier folgen einige der Ergebnisse  aus dem IAC-Bericht aus dem Jahr 2010:

Das IAC berichtete, dass Leitautoren des IPCC es versäumen, „angemessene Überlegungen … zu sorgfältig dokumentierten alternativen Sichtweisen anzustellen“ (S. 20) und dass sie es fehlen lassen an „detaillierten schriftlichen Antworten zu den wichtigsten, von den Herausgebern der Begutachtung erkannten Dingen“ (S. 21), und dass sie „Kommentare der Begutachter nicht sorgfältig bedenken und ihre Antworten nicht dokumentieren“ (S. 22). Vereinfacht gesagt: Die IPCC-Berichte sind nicht wissenschaftlich begutachtet.

Das IAC hat gefunden, dass „das IPCC über keinen formalen Prozess oder über Kriterien verfügt, die Autoren auszuwählen“, und dass die „Auswahlkriterien vielen Antwortenden willkürlich vorkommen“ (S. 18). Regierungsfunktionäre beauftragen Wissenschaftler aus ihren Ländern und „nominieren nicht immer die besten Wissenschaftler unter den Freiwilligen, entweder weil sie nicht wissen, wer diese Wissenschaftler sind oder weil politischen Überlegungen mehr Gewicht verliehen wird als wissenschaftlicher Qualifikation“ (S. 18). Mit anderen Worten: Die Autoren werden von einem „Club“ von Wissenschaftlern und Nicht-Wissenschaftlern ausgesucht, die mit der von den Politikern favorisierten alarmistischen Perspektive übereinstimmen.

Das Umschreiben der Summary for Policy Makers durch Politiker und Umweltaktivisten – ein Problem, auf das die Realisten der globalen Erwärmung seit vielen Jahren hinweisen, jedoch ohne dass dies von Medien oder politischen Entscheidungsträgern beachtet wird – wurde glatt zugegeben, vielleicht zum ersten Mal durch eine Organisation im „Main Stream“ bzgl. der alarmistischen Klimaänderung. „Viele machten sich Sorgen, dass die Neuinterpretationen der Ergebnisse in den Zustandsberichten, wie sie bei der finalen Plenardebatte eingebracht worden sind, politisch motiviert sein könnten“, schrieben die IAC-Auditoren. Die von ihnen interviewten Wissenschaftler fanden ganz allgemein den Synthese-Bericht „zu politisch“ (S. 25).

Wirklich? Zu politisch? Uns wurde doch von jedem gesagt – Umweltaktivisten, Reporter, Politiker und sogar Prominenten – dass die IPCC-Berichte Wissenschaft seien und nicht Politik. Jetzt sagt man uns, dass selbst die in das Verfassen der Berichte involvierten Wissenschaftler – man erinnere sich, sie sind allesamt selbst wirkliche Anhänger der vom Menschen verursachten globalen Erwärmung – fühlten, dass die Zusammenfassungen „zu politisch“ waren.

Das IAC beschreibt folgendermaßen, wie das IPCC zum „Konsens der Wissenschaftler“ kommt:

Plenarsitzungen zur Absegnung der Summary for Policy Makers dauern viele Tage lang und enden üblicherweise mit einem die ganze Nacht dauernden Treffen. Folglich können Individuen mit der größten Ausdauer oder die Länder mit großen Delegationen den größten Einfluss auf den Bericht ausüben (S. 25).

Wie in aller Welt kann von einem solchen Prozess behauptet werden, er umfasse oder repräsentiere einen „echten Konsens der Wissenschaftler“?

Ein anderes, vom IAC dokumentiertes Problem ist der Gebrauch von verlogenen „Vertrauensintervallen“ und Abschätzungen der „Gewissheit“ („certainty“) in der Summary for Policy Makers (Seiten 27 bis 34). Diejenigen von uns, die die IPCC-Berichte unter die Lupe nehmen, wissen, dass dies ein Vorwand ist, als wir es 2007 zum ersten Mal gesehen haben. Arbeiten von J. Scott Armstrong über die Wissenschaft der Vorhersage zeigen eindeutig, dass Wissenschaftler sich nicht einfach um einen Tisch versammeln und darüber abstimmen können, wie sicher sie über einige Vorhersagen sind, und dies dann mit einer Zahl zu versehen wie etwa „zu 80% sicher“. Und doch ist genau dies die Vorgehensweise des IPCC.

Die IAC-Autoren sagen, dass dies „kein geeigneter Weg ist, um Ungewissheit zu charakterisieren“ (S. 34), eine grobe Untertreibung. Unglücklicherweise schlagen die IAC-Autoren ein gleichermaßen betrügerisches Substitut vor, nämlich ein „Level auf der Verständnis-Skala“, was verwaschen für „Konsens“ steht [Original: which is more mush-mouth for „consensus.“]

Ebenfalls auf Seite 34 warnen die IAC-Autoren davor, dass „Schlussfolgerungen vermutlich so vage formuliert werden, dass man sie unmöglich zurückweisen kann. Deswegen haben Statements wie ‚sehr hohes Vertrauen‘ nur einen sehr geringen Aussagewert“. Ja sicher – aber das hält Medien und Umweltaktivisten nicht davon ab, diese Schlussfolgerungen wieder und immer wieder als „Beweis“ anzuführen, dass die globale Erwärmung vom Menschen verursacht ist und eine Krise darstellt … selbst wenn das nicht ganz dem entspricht, was die Autoren sagen.

Schließlich stellt das IAC fest: „das Fehlen [der Darstellung von] Interessenkonflikten und der Verpflichtung zu Auskünften für IPCC-Führer und Leitautoren war eine Sorge, die von einer Anzahl von Personen aufgebracht wurde, die vom Komitee interviewt worden waren oder die es schriftlich eingebracht haben“. Ebenso war man auch besorgt über „die Praxis, dass die für die Kapitel als Autoren verantwortlichen Wissenschaftler ihre eigene Arbeit begutachtet haben. Das Komitee hat die Basis dieser Behauptungen nicht untersucht, weil dies jenseits des Mandats dieser Begutachtung liegt“ (S. 46).

So etwas Dummes, handelt es sich doch bei diesen beiden Themen um große Sachen angesichts kürzlicher Enthüllungen, dass eine Mehrheit der Autoren und Zulieferer zu einigen Kapiteln Umweltaktivisten und keineswegs Wissenschaftler sind. Das ist ein strukturelles Problem im IPCC und könnte die großen Probleme, von denen bisher berichtet worden ist, marginalisieren.

Nun also, am 27. Juni, fast zwei Jahre, nachdem diese Bomben gefallen waren (ohne dass auch nur eine Augenbraue in den US-Medien nach oben gerutscht wäre – man versuche, dies zu googeln), gibt das IPCC zu, dass das alles stimmt und verspricht, es beim nächsten Bericht besser zu machen. Davon ist bisher nichts zu sehen … bleiben Sie dran!

Moment mal!, sage ich hier. Die Nachrichten-Veröffentlichung bedeutet, dass der IAC-Bericht stimmte. Dies wiederum bedeutet, dass die ersten vier IPCC-Berichte tatsächlich unzuverlässig waren. Nicht nur „möglicherweise falsch“ oder „hätten besser sein können“, sondern wahrscheinlich falsch und sogar betrügerisch.

Es bedeutet, dass alle der „Anerkennungen” des Klimakonsens‘ durch die nationalen Wissenschaftsakademien weltweit – die sich ohne Unterschied auf die IPCC-Berichte als ihre wissenschaftliche Basis beziehen – auf falschen oder unzuverlässigen Daten basierte und daher nicht beachtet oder überholt werden sollten. Es bedeutet, dass das „Gefährdungsargument“ [„endangerment finding“] der EPA – nämlich dessen Behauptung, dass Kohlendioxid ein Verschmutzer und eine Bedrohung der menschlichen Gesundheit ist – falsch war und gekippt werden sollte.

Und was ist mit dem nächsten IPCC-Bericht, geplant für 2013 und 2014? Die fast fertigen Entwürfe dieses Berichts zirkulieren bereits seit einigen Monaten. Sie wurden von Wissenschaftlern geschrieben, die von Politikern und nicht auf Basis ihres Rufes ausgewählt worden sind; viele von ihnen haben ihre eigenen Arbeiten begutachtet, und es lag in ihrem Ermessen, Fragen und Kommentare von Personen, mit denen sie nicht übereinstimmten, einfach zu ignorieren. Anstatt „Vertrauen“ werden wir nun „das Niveau auf der Verständnisskala“ bekommen, was genauso bedeutungslos ist.

Und auf dieser Basis sollen wir die Weltwirtschaft dahin transformieren, mit Winden und Sonnenstrahlen zu funktionieren?

Im Jahr 2010 haben wir viel darüber erfahren, dass das, was wir über die globale Erwärmung zu wissen glaubten, kompromittiert und wahrscheinlich falsch ist. Am 27. Juni bekannten sich die Angeklagten schuldig und versprachen Besserung. Aber woher bekommen wir unser Geld zurück?

Joseph L. Bast

Joseph L. Bast (jbast@heartland.org) is president of The Heartland Institute and an editor of Climate Change Reconsidered, a series of reports published by The Heartland Institute for the Nongovernmental International Panel on Climate Change.

Read more: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html#ixzz22bMQFOxp

Link: http://www.americanthinker.com/2012/07/ipcc_admits_its_past_reports_were_junk.html

Übersetzt von Chris Frey EIKE




Eine unbequeme Wahrheit: Während der Kleinen Eiszeit waren die Stürme in Europa stärker als heute

Man malte schaurig-apokalyptische Bilder, welche sich in den Köpfen der verängstigten, unklimatischen Zivilbevölkerung allmählich festsetzen. Nur die wenigsten nahmen sich die Zeit, die ungeheuerlichen Prognosen zu überprüfen. Und diejenigen die es taten, trauten ihren Augen nicht.

Die fachliche Grundlage derartiger Szenarien ist überaus dürftig und wichtige Gegenargumente wurden einfach ausgelassen. Überschattet wurde die ganze Szenerie von möglichen Interessenskonflikten der Protagonisten. Wir haben bereits mehrfach über die verschiedenen Gewerke des Extremwetters berichtet (siehe Artikel-Übersicht und unser Blogbeitrag „Die Versicherungswirtschaft und die Klimakatastrophe: Eine unheimliche Liaison“). 

Heute wollen wir uns einmal die Idee vornehmen, dass Europas Stürme in den kommenden Jahrzehnten immer häufiger und heftiger werden würden. Begründet wird dies mit der zu erwartenden Klimaerwärmung. Hierzu zunächst eine kleine Rückblende in den März 2012, als in Hamburg der „Extremwetterkongress“ stattfand. Die Südwest Presse schrieb damals: 

„Klimaexperten tagen derzeit in Hamburg, um die Entwicklung des Wetters zu diskutieren. Ihre Botschaft ist deutlich: Wetterkatastrophen in Deutschland haben zugenommen – und es wird schlimmer werden. Immer mehr Hagel, Starkregen und Stürme: Analysen des Rückversicherers Munich Re zufolge, die gestern beim “Extremwetterkongress” in Hamburg vorgestellt wurden, müssen wir uns warm anziehen: “Die Daten zeigen eindeutig: Die Zahl wetterbedingter Naturkatastrophen in Deutschland hat sich seit 1970 mehr als verdreifacht”, sagte Peter Höppe, Chef der Munich Re-Georisikoforschung. “Veränderungen in der Atmosphäre tragen einen Anteil daran, dass hier immer mehr Wetterextreme auftreten.” Der Trend setze sich fort. “Für die nächsten 30 Jahre rechnen Klimamodelle in Deutschland vor allem mit einer Zunahme der Sturmintensität und mit mehr Starkniederschlägen, die zu Überschwemmungen führen”, erklärte Höppe.“ 

Und auf Zeit Online war zu lesen: 

„Der [Deutsche Wetterdienst] DWD geht davon aus, dass die Zahl heißer Tage, die Starkniederschläge und die Anzahl der Winterstürme um bis zu 50 Prozent zunehmen.“ 

Auch andere Klimadiskutanten sehen mehr Stürme am Horizont der mittleren Breiten. So veröffentlichte im April 2012 eine britisch-deutsche Forschergruppe um Tim Woolings von der University of Reading in nature geoscience eine neue Studie, in der sie den derzeit schwächelnden Golfstrom als Auslöser von vermehrten Stürmen im östlichen Nordatlantik und in Europa sehen. Durch die Klimaerwärmung würde der Golfstrom allmählich an Kraft verlieren, was dann über Umwege die Sturmtätigkeit befördert, wie Der Standard am 3.4.2012 berichtete (siehe auch Beitrag auf scinexx): 

„Je schwächer die thermohaline Zirkulation ist, desto geringer wird die Zufuhr von warmem Oberflächenwasser in den nördlichen Teil des Nordatlantiks. Dadurch nimmt das Nord-Süd-Gefälle in der Wasseroberflächen-Temperatur zu und beeinflusst somit auch das Temperatur-Gefälle in der unteren Atmosphäre. Dieser so genannte Temperaturgradient ist sehr wichtig für die Entstehung von Tiefdruckgebieten. Je höher der Temperaturgradient, desto mehr potentielle Energie steht für die Entwicklung eines Sturms zur Verfügung. Die Stürme können dadurch extremer werden.“ 

Aber wie kamen die Forscher auf diesen Zusammenhang? Nun, sie verwendeten einen ganzen Strauß der offiziellen IPCC-Klimamodelle. Und eben diese Modelle mussten in der Vergangenheit sehr viel Kritik einstecken (siehe z.B. unser Buch „Die kalte Sonne“). Weder können diese Modelle die Klimageschichte der letzten 10.000 Jahre reproduzieren, noch haben sie den Erwärmungsstop seit 1998/2000 vorhergesagt. Sollten eben diese fehlerhaften Modelle nun wirklich in der Lage sein, die Sturmentwicklung korrekt vorherzusagen? Es dürfen Zweifel angemeldet werden. 

Schon gibt es die ersten, die auf den Sturmangst-Zug aufspringen und das ihnen vermeintlich drohende Leid öffentlich beklagen. Hierzu gehört beispielsweise Christoph Rullmann von der Schutzgemeinschaft Deutscher Wald, der jetzt dringend Hilfe für die Buche fordert. Nachdem das Waldsterben der 1980er Jahre durch den Einsatz von Filtern auf den Kraftwerks- und Fabrikschloten in letzter Sekunde noch einmal abgewendet werden konnte, drohe der Buche nun neues Ungemach, sagte Rullmann am 3.2.2012 im Deutschlandradio

„Aber diese Entwicklung, die sozusagen für den Wald positiv sich gestaltet hat, die wird jetzt überlagert durch die Veränderungen des Klimawandels, der zum Beispiel durch Stürme, durch diese Trockenereignisse, die wir immer stärker haben – wir hatten ja auch wieder dieses Jahr ein sehr trockenes Frühjahr, und das belastet natürlich die Wälder extrem.“ 

Und auf Zeit Online: machte sich bereits Claudia Kemfert Sorgen, ob die Windmühlen mit den von den Modellierern geplanten Stürmen wohl klarkommen werden: 

„Die Zunahme extremer Wettereinflüsse habe auch Auswirkungen auf die Energieversorgung: Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung sagte, dass die Anfälligkeit für Naturkatastrophen steigen werde, weil Deutschland in den kommenden vier Jahrzehnten den Anteil der erneuerbaren Energien auf 80 Prozent erhöhen wolle. Die Windgeschwindigkeit beispielsweise werde zeitweise geringer, dann wieder stärker als bisher. Das sei für die Windkraftanlagen problematisch, sagte Kemfert. Extreme Stürme könnten die Stromleitungen beeinträchtigen. Die Zunahme extremer Wetterphänomene bringe die Energiewende zwar nicht in Gefahr, aber man müsse sich auf eventuelle Ausfälle vorbereiten.“ 

Zeit für einen Faktencheck 

Es wäre also in der Tat nicht ganz unwichtig zu wissen, was da in den kommenden Jahren und Jahrzehnten auf uns zukommt. Also: Zeit für einen Faktencheck. Um es noch einmal zu betonen: Bei fast allen der oben skizzierten Aussagen handelt es sich um theoretische Projektionen für die Zukunft. Da man bei virtuellen Welten aber nie so ganz sicher sein kann, sollte sich ein jeder Modellierer verpflichtet fühlen, die Eckwerte seiner Berechnungen mit der Realität abzugleichen. Wenn man im Artikel des Standard zur oben genannten Golfstrom-Studie schmökert, bekommt man eine erste Ahnung davon, dass ein solcher Arbeitsschritt wohl notwendig ist: 

„Meteorologen und Ozeanologen in aller Welt müssen sich nun Gedanken machen, wie sensitiv ihre Modelle sind. Denn trotz Übereinstimmungen im Verhältnis zwischen den Änderungen im Ozean und in der Atmosphäre weichen die einzelnen Modelle im Ergebnis teilweise stark voneinander ab.“ 

Ganz so toll scheint es also doch nicht zu passen. Eine Grundcharakteristik der theoretischen Rechnungen scheint zu sein, dass ein wärmeres Klima in den Computermodellen auf komplexe Art und Weise eine Steigerung der Sturmtätigkeit in mittleren Breiten hervorruft. Ein durchaus legitimer Ansatz könnte man meinen, warum auch nicht. Bevor man nun jedoch sehr viel Arbeitszeit und riesige Forschungsgelder in die Ausarbeitung dieser Arbeitshypothese steckt, sollte man zuvor noch einen wichtigen Plausibilitäts-Check durchführen. 

Und der liegt eigentlich auf der Hand: Wenn warme Temperaturen mehr Stürme in unserer Region produzieren, dann müsste es zu kälteren Zeiten doch entsprechend windstiller gewesen sein. Dabei mangelt es nicht an geeignetem Fallbeispiel-Material für diese Überprüfung: Während der Kleinen Eiszeit, die von 1400 bis 1850 andauerte, lag die Temperatur um etwa ein Grad unter dem heutigen Niveau. Also eigentlich doch kein Problem. Man nehme ein paar Studien über die Sturmhistorie der letzten 400 Jahre und los geht’s. Man möchte meinen, dass die diversen Sturmintensivierungs-Vertreter diesen simplen Plausibilitäts-Check doch sicher durchgeführt haben. Oder etwa nicht? 

Die traurige Wahrheit: Gerade diesen Arbeitsschritt hat man offenbar ausgelassen. Wir wollen uns daher nützlich machen, und den Check hier nachholen. 

Im Juli 2012 berichteten wir an dieser Stelle über die stürmische Vergangenheit der französischen Mittelmeerküste. Ein französisches Forscherteam um den Geologen Pierre Sabatier hatte untersucht, wie sich Stürme und Erderwärmung in der Region historisch zueinander verhalten haben. Das überraschende Resultat der Studie: Die Stürme traten bevorzugt in Kälteperioden auf. Die Sonnenaktivität spielte dabei eine wichtige Rolle: Immer wenn die Sonne schwächelte, wurde es kalt und stürmisch. Wenn die Sonne wieder aufdrehte, stiegen die Temperaturen und der Wind flaute wieder ab (siehe unseren Blogartikel „Wann gab es die schlimmsten Stürme an der französischen Mittelmeerküste? Immer wenn die Sonne schwächelte und die Temperaturen fielen!“). Hierzu passt eine Studie des Science & Public Policy Institutes (SPPI), das zusammen mit CO2Science Frankreichs Sturmentwicklung während der letzten Jahrhunderte analysierte. Unter anderem nahmen sie dabei auch den Golf von Aigues-Mortes an der Mittelmeerküste unter die Lupe. Die beiden sturmreichsten Phasen ereigneten sich hier 455 n. Chr. sowie 1700-1900 n. Chr., also während der Kälteperioden der Völkerwanderungszeit sowie der Kleinen Eiszeit.

Ganz offensichtlich suggerieren hier die theoretischen Modellierungsbemühungen etwas, was es in der Realität gar nicht gegeben hat. Die Sturmreichen Phasen Europas fielen nämlich die Kältephasen, wohingegen die Stürme in den warmen Zeiten abebbten. 

Eine ähnliche Situation finden wir in den Niederlanden. Auch hier war die Kleine Eiszeit sehr viel sturmreicher als die nachfolgende Wärmephase (siehe unser Blogartikel „Die kräftigsten Stürme gab es in Holland während der Kleinen Eiszeit“). Hiermit kompatibel ist eine neue Studie von Stephen Cusack von Risk Management Solutions, die im Juni 2012 im Fachmagazin Climate Change erschien. Cusack konnte zeigen, dass die Stürme in den Niederlanden einem etwa 50-Jährigen Zyklus folgen und derzeit in einer Rekordflaute stecken, die es in den letzten 100 Jahren in dieser Art noch nicht gegeben hat. Die Studie wurde u.a. auf Spiegel Online und notrickszone besprochen. 

Auch für Großbritannien gibt es einen Überblick zur historischen Sturmentwicklung. Eine entsprechende Studie wurde im Mai 2012 von SPPI und CO2Science veröffentlicht. Während des 20. Jahrhunderts traten in dieser Region zwei besonders sturmreiche Phasen auf, nämlich in den 1920er und 1990er Jahren. Da diese Sturm-Maxima zu ganz unterschiedlichen Temperaturniveaus entstanden, kann die Klimaerwärmung hier offensichtlich keinen Einfluss genommen haben. Schaut man zudem in Großbritannien in Richtung Kleine Eiszeit, so wüteten auch hier die allerschlimmsten Stürme während dieser natürlichen Kältephase. 

 
 

Abbildung 1: Entwicklung von sehr starken Stürmen auf den Britischen Inseln im 20. Jahrhundert. Quelle: SPPI nach Allan et al. (2009) 

Keine Zunahme von Stürmen in Europa 

Aber die Modellierer sind nicht nur in die Warm-Kalt-Falle getappt. Wenn man schlimme Stürme für die Zukunft vorhersagt, müsste man doch auch in den letzten 40 Jahren diesen Trend bereits bemerkt haben, denn dies soll ja die Zeit gewesen sein, wo Treibhausgase angeblich die Temperatur fast im Alleingang ein halbes Grad nach oben gedrückt haben. 

Klaus-Eckart Puls hat sich durch Pressemitteilungen und Medienartikel gewühlt, um herauszufinden, ob die verschiedenen wissenschaftlichen Stellen in Deutschland schon einen solchen Anstieg der Sturmtätigkeit bei uns registriert haben (siehe Berichte auf EIKE und Schmanck). Das Ergebnis fällt deutlich aus: Nein, einen Trend zu stürmischeren Zeiten ist derzeit weit und breit nicht in Sicht. 

Olaf Stampf schrieb im Spiegel 2007 in seinem Artikel „Abschied vom Weltuntergang“:

Unbegründet ist wohl auch die weitverbreitete Befürchtung, dass im Treibhausklima Superstürme mit nie dagewesener Wucht die Dörfer und Häuser verwüsten werden. Aus den gegenwärtigen Langzeitsimulationen lässt sich ein solcher Trend jedenfalls keinesfalls ableiten. “In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen”, versichert Jochem Marotzke, Direktor des Hamburger Max-Planck-Instituts für Meteorologie, eines weltweit führenden Zentrums der Klimaforschung. “Nur die Zugbahnen der Tiefdruckgebiete ändern sich geringfügig – in Skandinavien wird es stürmischer, am Mittelmeer etwas ruhiger.” 

Auf der Webseite der Wirtschaftswoche lesen wir: 

Dass beispielsweise Stürme weltweit zugenommen hätten, kann Hans von Storch vom Meteorologischen Institut der Universität Hamburg und selbst Autor für den Weltklimarat, nicht bestätigen. „Bei der Anzahl von Taifunen in Asien, Polarstürmen und Starkwinden über der Nord- und Ostsee hat unser Team für die vergangenen Jahre keine Zunahme festgestellt“, sagt von Storch. Auch in den nächsten 20 Jahren werde der Anstieg so gering sein, dass er nicht einmal messbar sei. 

Der Deutsche Wetterdienst (DWD) berichtete am 21.12.2009 in einer Pressemitteilung: Insgesamt ist laut DWD im vergangenen Jahrzehnt [2000-2009] aber keine Zunahme der großräumigen Stürme festzustellen. Zwei Jahre zuvor hatte die Organisation am 22.1.2007 in einer Pressemitteilung bereits erklärt: “Betrachtet man die Stürme und Orkane der letzten 30 Jahre, so hat bislang weder deren Häufigkeit noch deren Intensität zugenommen“. 

Zum gleichen Ergebnis kommt eine Untersuchung von Helmut Kraus und Ulrich Ebel: In den letzten 200 Jahren hat es über dem Nordatlantik ein ständiges Auf-und-Ab der Sturm-Aktivitäten gegeben. Selbst die extreme Orkan-Häufigkeit um 1990 wurde schon deutlich früher um 1890 sowie um 1915 übertroffen. Ein Klima-CO2-Signal ist dabei bis heute nicht erkennbar: “…daß die Intensität der Stürme in der Deutschen Bucht einer natürlichen Multidekadenschwankung unterliegt, aber in den letzten 120 Jahren keinerlei mit einer Klimaänderung zusammenhängenden Trend zeigt“. 

Auch das Helmholtz-Zentrum Geesthacht hat Interessantes herausgefunden, wie das Institut in einer Pressemitteilung vom 16.9.2012 verbreitete: 

Wissenschaftler am GKSS-Forschungszentrum Geesthacht haben gezeigt, daß die Häufigkeit von polaren Wirbelstürmen im Nord-Atlantik, so genannten Polartiefs, im Zuge der globalen Erwärmung abnehmen kann. 

Eine Frage an alle Versicherungsmitarbeiter, Extremwetterforscher und Medienschaffende, die weiterhin eine Zunahme der Stürme in Deutschland und dem Rest Europas favorisieren: Wie redlich ist es eigentlich, die in diesem Beitrag angeführten Gegenargumente einfach so zu ignorieren? Wäre es nicht endlich an der Zeit, sich ernsthaft mit den Einwänden zu beschäftigen? 

Mit Dank an Klaus-Eckart Puls für Materialbereitstellung. 

Weitere Papers zur Sturmdiskussion gibt es auf Popular Technology.net

Dr. Sebastian Lüning; zuerst erschienen bei Die Kalte Sonne




Je mehr Sonne, umso teurer der Strom!

Strahlende Sonne, blauer Himmel – das ideale Wetter für die Sommerferien oder auch den Urlaub zu anderer Jahreszeit. Also großes Schwelgen, Bombenstimmung, Erholung pur. Aber wissen Sie auch, dass soviel schöne Sonne zu einer hässlichen Stromrechnung führt? Solarstrom nämlich ist der teuerste Strom überhaupt. Und der wird uns allen zwangsweise geliefert und mit dem allgemeinen Strompreis persönlich in Rechnung gestellt. Ausgerechnet die Kapazität zur Erzeugung dieses teuersten Stroms wird Ende 2012 (mehr als 32 Gigawatt) die von Strom aus Windkraft (voraussichtlich 31 Gigawatt) überflügelt haben. So geht es aus Zahlen der Bundesnetzagentur vom 20. Juli hervor. Sie übersteigt dann auch die Erzeugungskapazität von herkömmlichem Strom aus Steinkohle, Braunkohle, Uran oder Gas.

Der Jubel der Subventionsgewinnler über das Traumwetter im Mai

Wohl noch gut in Erinnerung sind die zehn Tage Traumwetter am Stück im Mai dieses Jahres: wolkenloser Himmel über ganz Deutschland und eine Sonne, die sämtliche Fotovoltaik-Anlagen (und ihre Betreiber) so verwöhnte, wie es diese noch nicht erlebt hatten. Die subventionsgemästete Branche bejubelte besonders den 25. Mai: Erstmals hätten die Solaranlagen zwischen Flensburg und Berchtesgaden mittags eine Gesamtleistung von mehr als 20.000 Megawatt geliefert. Aus dem   Internationalen Wirtschaftsforum Regenerative Energien (IWR) in Münster* verlautete: „Das ist ein Rekord.Es gibt kein anderes Land auf der Erde, in dem Solaranlagen mit einer Leistung von 20 000 Megawatt Strom produzieren.“[KPK2]  Gemeinerweise tun sie das aber nur sehr, sehr gelegentlich. Den ständig nötigen Strom-Grundbedarf kann man mit solchem unzuverlässigen Strom nicht decken, also die sogenannte Grundlast nicht sicherstellen.

Wind und Sonne liefern nur einen Ab-und-zu-Strom

Für die Grundlast taugen auch Windstromanlagen nicht, dafür braucht man Kohle- und Kernkraftwerke. Nur die konventionellen Kraftwerke sind in der Lage, für einen stabilen Netzbetrieb zu sorgen. Wind und Sonne liefern nur einen Ab-und-zu-Strom. Ein Kohle- und Kernkraftwerk gibt die installierte Leistung ganzjährig ab, eine Windstromanlage liefert nur Strom, wenn auch Wind weht, eine Fotovoltaikanlage nur, wenn die Sonne scheint. Nennleistung und tatsächliche Leistung klaffen weit auseinander. Aber ein Industriestaat und eine Wohlstandsgesellschaft braucht nicht nur ab und zu Strom, sondern ständig, ohne Unterbrechung.

Nur herkömmliche Kraftwerke sichern die Stromversorgung

Da aber die  CO2-freien Kernkraftwerke  in Deutschland verschwinden sollen („Energiewende“), müssen stattdessen vor allem mehr Kohle- und Erdgaskraftwerke gebaut werden. Die jedoch stoßen das (nach Lesart der Öko-Bewegten und der Scharlatane in Politik und Wirtschaft abscheuliche) Klimakiller-Gas CO2 aus. Aber den Ausstoß dieses Schreckensgases zu verhindern, ist immerhin die Hauptbegründung für die massive Subventionierung von Strom mittels Wind und Sonne durch das Erneuerbare-Energien-Gesetz EEG. Also müssten doch gerade Kohle- und Erdgaskraftwerke verschwinden und ersetzt werden – ersetzt werden durch Kernkraftwerke. Über diese zwingende Logik gehen die Scharlatane dann gerne hinweg. Doch richten sie mit dieser ihrer Widersprüchlichkeit wenigstens nicht noch mehr Schaden an, sondern tun sogar recht daran, denn nur die herkömmlichen Kraftwerke können die stetige Versorgung mit Strom sicherstellen. Der CO2-Ausstoß ist dabei ohne Belang, denn die Behauptung, CO2 heize das globale Klima auf, ist nicht nur eine Mär, sondern, wie schon oft erläutert, ein groß angelegter Betrug.

Ohne Grundlast-Kraftwerke funktioniert es nicht

So bedeutet also die "Energiewende", dass die (ebenfalls grundlastfähigen) Kernkraftwerke  durch Kraftwerke mit fossilen Brennstoffen ersetzt werden, weil ohne diese Grundlastkraftwerke die Stromversorgung durch Wind und Sonne nicht funktioniert. Grundlastkraftwerke sind solche Stromerzeuger, die möglichst ohne Unterbrechung und möglichst nahe an ihrer vollen Kapazität (also unter „Volllast“) betrieben werden. Dafür prädestiniert sind Kernkraftwerke und Braunkohlekraftwerke, denn  ihre Fixkosten sind hoch und ihre Stromgestehungskosten vergleichsweise niedrig. Zur näheren Erläuterung von Grundlast, Mittellast, Spitzenlast bzw. Volllast habe ich dies gefunden:

Was die Grundlast bedeutet

„Ähnlich wie beim Verkehr gibt es auch beim Verbrauch von Strom Stoßzeiten und Flauten. Morgens, mittags und abends erreicht der Stromverbrauch Spitzenwerte. Nach Mitternacht ist er dagegen besonders niedrig. Unterschiedliche Kraftwerkstypen decken diese Schwankungen ab. Sieht man sich beispielsweise die Kurve der Stromnachfrage eines Tages an, wird schnell deutlich, dass unterhalb des Minimalwertes eine bestimmte Leistung rund um die Uhr nachgefragt wird. Diese Leistung bezeichnet man als Grundlast. Die dafür eingesetzten Kraftwerke, die so genannten Grundlastkraftwerke, sind ständig in Betrieb. Zu diesen Dauerläufern gehören vor allem die Braunkohle- und Kernkraftwerke, aber auch Laufwasserkraftwerke. Aufgrund der „relativ geringen Brennstoffkosten“ sind sie besonders für den Grundlastbereich geeignet. Unter diesen Bedingungen kann aber nur kostengünstig Strom produziert werden, wenn die Anlagen fast ohne Unterbrechung mit voller Leistung betrieben werden.“

Wer die Spitzenlast sichert

„Das Diagramm der Tagesbelastung zeigt, beispielsweise zur Mittagszeit oder am frühen Abend, auch Phasen besonders hoher Netzbelastung, die meist nur kurz andauern. Zur Deckung dieser Spitzenlast werden Kraftwerke eingesetzt, die bei plötzlichem Bedarf in wenigen Minuten ihre volle Leistung bringen. Diese Sprinter unter den Stromerzeugern sind allerdings nicht nur schnell, ihr Strom ist auch besonders teuer. Der Grund: Sie arbeiten immer nur für kurze Zeit, die übrige Zeit stehen sie still und verdienen kein Geld. Zu den Spitzenlasterzeugern zählen zum Beispiel die Pumpspeicherkraftwerke und Gasturbinenkraftwerke.“

Wofür die Mittellast gebraucht wird

„Zwischen der kurzfristig auftretenden Spitzenlast und der andauernden Grundlast liegt im Tagesbelastungsdiagramm der Bereich der Mittellast. Die dafür arbeitenden Mittelleistungskraftwerke werden in Zeiten besonders geringer Belastung, also in der Regel nachts, abgeschaltet oder zumindest auf eine deutlich geringere Leistungsabgabe heruntergefahren. Die stundenweise Belastung des Stromnetzes ist vorhersehbar und wird vor allem von Steinkohle-Kraftwerken abgedeckt. Doch nicht nur im Tagesverlauf ändert sich der Strombedarf. Im Wochenverlauf dominieren die Werktage, und im Winter können niedrige Temperaturen und die langen und dunklen Nächte genauso für eine höhere Stromnachfrage sorgen wie die immer mehr verbreiteten Klimaanlagen an heißen Sommertagen. Die Verbrauchskurve sieht im Jahresverlauf also ganz unterschiedlich aus.“  (Quelle: http://amprion.net/grundlast-mittellast-spitzenlast

Wind- und Sonnenstrom nötigen zum Aufbau einer Doppelkapazität

Die Volllaststunden, die für Windkraft- und Fotovoltaik-Anlagen erreichbar sind, sind sehr gering. Und weil Wind- und Sonnenstrom die stets benötigte Grundlast nicht zu liefern vermögen, aber gesetzlichen Vorrang genießen und vom marktwirtschaftlichen Wettbewerb befreit sind, müssen für zusätzliche Windkraftwerke und Fotovoltaikanlagen stets auch zusätzliche Kraftwerke bereitgehalten werden, die in der Lage sind, die Grund-, Mittel- und Spitzenlast zu tragen, wenn Wind- und Solarkraftwerke das nicht schaffen. Wind und Sonne können also kein herkömmliches Kraftwerk ersetzen. Das bedeutet nichts anderes, als dass Deutschland glaubt, es sich leisten zu können, einen doppelt so großen Stromerzeugungsapparat aufzubauen, als wirklich benötigt wird. Ziemlich töricht, nicht wahr?

Ohne herkömmliche Kraftwerke gäbe es Stromausfälle

Rainer Brüderle, der Vorsitzende der FDP-Bundestagsfraktion, weiß das durchaus. Er nannte es im Mai  „ein überaus ehrgeiziges Ziel“, bis zum völligen Abschalten der Kernkraftwerke 2022 den Anteil der erneuerbaren Energien an der Stromversorgung auf 40 Prozent zu steigern, und fügte hinzu: „Wir werden eine Reihe von Gas- und Kohlekraftwerken bauen müssen – möglicherweise mehr, als wir zunächst dachten.“[KPK3]   Aber im Jahr 2050 soll fast die gesamte Stromversorgung in Deutschland durch „erneuerbare“ Energien bewerkstelligt werden. Dann werden noch mehr Gas- und Kohlekraftwerke gebaut werden müssen, um eine kontinuierliche Stromversorgung aufrechtzuerhalten. Wenn nicht, geht das Licht aus, auch der Kühlschrank, das Fernsehgerät. Und vieles andere mehr.

Dr. Klaus-Peter Krause, zuerst erschienen in "Freie Welt"




Versetzt dem Hype um die globale Erwärmung den Todesstoß: kritisches Denken

Nichts zerschmettert ein Argument schneller als eine Frage, die ein klaffendes Loch in der zugrunde liegenden Voraussetzung für dieses Argument enthüllt. Man beachte die überaus offensichtliche Entgleisung in diesem Beispiel:

„Wir müssen etwas gegen die Ausbreitung von Geistern tun, die in letzter Zeit zu einer noch nie da gewesenen Anzahl von Menschen mit Alpträumen führt. Dieses Problem führt zu weit verbreiteter Schlaflosigkeit, was wiederum zu einem Nachlassen der Arbeitsproduktivität und zu alles in allem wirtschaftlichen Härten führt; und Sie sind ein kaltherziges kapitalistisches Schwein, wenn Sie die Notwendigkeit leugnen, dass die Arbeiter gesund sein müssen“.

Jeder kritische Denker wird schreien: „Was?! Beweisen Sie erst mal, dass Geister überhaupt existieren, bevor Sie mich mit Ausdrücken belegen!“

Die so genannte Krise der globalen Erwärmung ist mit einer gleichermaßen grotesken Voraussetzung davon gekommen – seit nunmehr fast zwei Jahrzehnten, weil diese Voraussetzung zumindest logisch klingt. Schließlich schädigen Menschen tatsächlich die Umwelt in vielfältiger Weise bis zu einem gewissen Ausmaß, und das Wetter scheint ein wenig merkwürdig zu sein in letzter Zeit, also ist es vielleicht möglich, dass unsere Treibhausgasemissionen eine nachteilige Auswirkung haben. Außerdem erzählen uns die Reporter immer wieder, dass Wissenschaftler dies so sagen.

Von Vielen übersehen ist das Nächstliegende, das diese Angelegenheit die ganze Zeit am Leben gehalten hat. Nicht anders als in einem Schneeballsystem darf die Öffentlichkeit niemals das Vertrauen in den Gedanken verlieren, dass diese Angelegenheit einer Lösung bedarf. In dem Moment, in dem eine Mehrheit von Menschen kritische Fragen über skeptische Wissenschaftler stellt, die legitim gegensätzliche Ansichten vertreten, gelangt das Ganze in eine fatale Abwärtsspirale, die all jene hinab zieht, die den Gedanken ohne Gegenfrage verteidigen.

Denken Sie an all die Behauptungen und Beteuerungen, die wir gehört haben, und was passiert, wenn wir kritische Fragen stellen unter Hinweis auf einfacher als je zuvor auffindbare Informationen aus dem Internet.

Selbst zum Höhepunkt des Winters auf der Nordhalbkugel wurde uns gesagt, dass die Arktische Eiskappe schmilzt und dass Eisbären ertrinken, wenn sie zu lange durch offenes Wasser schwimmen müssen. Und doch nimmt die Eisbärpopulation zu, Arktische Wetterstationen in nächster Nähe zur Eiskappe zeigen Temperaturen unter dem Gefrierpunkt außer in der wärmsten Zeit des Sommers, und gerade während des vergangenen Winters im Besonderen näherte sich die Eisausdehnung der Arktis wieder dem Mittel der Jahre 1979 bis 2000.

Die Medien machen uns weis, dass Extremwetter immer häufiger vorkommt, obwohl leicht zu findende schreiende Schlagzeilen von vor langer Zeit darauf hindeuten, dass es damals ähnlich extremes Wetter, wenn nicht noch schlimmer, gegeben hatte.

Uns wurde gesagt, dass der trockene, milde Winter in den USA diesmal ein Indiz für die globale Erwärmung ist, und doch werden entsetzlich kalte Temperaturen in diesem gleichen Winter in Europa nicht als gleichartiges Indiz genannt.

Viele äußern ihre Befürchtungen über die Versauerung der Ozeane, obwohl diese gleichen Leute niemals die unbestreitbare Tatsache erwähnen, dass Ozeane basisch sind und dass es folglich einer herkulischen Anstrengung bedarf, sie nur in ein neutrales pH-Gleichgewicht zu bringen, lange bevor sie auch nur leicht sauer werden.

Von prominenten Mitarbeitern der NASA, die die alarmistischen Verlautbarungen der NASA zur globalen Erwärmung in einem kürzlichen Brief im WSJ [Wall Street Journal] kritisiert hatten, wird gesagt, dass sie politisch getrieben seien, obwohl der NASA-Klimawissenschaftler James Hansen regelmäßig wegen zivilen Ungehorsams auf Veranstaltungen gegen die globale Erwärmung durch linksaußen stehende Umweltaktivisten verhaftet wird.

Der Vorsitzende des IPCC hat gesagt, dass „alles, was wir uns ansehen und was in unsere Zustandsberichte Eingang findet, seine Glaubwürdigkeit aus wissenschaftlich begutachteten Veröffentlichungen bezieht; wir machen es für nichts weniger“. Und doch finden Leute, die sich akribisch genau durch die IPCC-Berichte wühlen, dass allein im Bericht aus dem Jahr 2007 über 5,500 solcher Publikationen nicht begutachtet worden waren.

Und so weiter, und so weiter. Kritisches Denken ist möglicherweise tödlich für den Gedanken der vom Menschen verursachten globalen Erwärmung. Es wäre ein Tod der tausend Schnitte.

Aber es gibt noch ein besonders ungeheuerliches Loch im kritischen Denken hier – nicht hinsichtlich der Wissenschaft, sondern stattdessen vis-à-vis was man die Öffentlichkeit über skeptische Wissenschaftler glauben lässt.

Man hat uns gesagt, dass skeptische Wissenschaftler über den „Tod durch tausend Schnitte“-Beweis lügen. Man hat uns gesagt, dass sie für „Big Oil and Coal“ arbeiten – ganz ähnlich den so genannten Lockvogel-Experten, die dafür bezahlt worden sind, um „Zweifel zu säen“ über die Gefahren des Rauchens.

Und doch hat kein Reporter, der diese Nachrichten verbreitet, sich die Mühe gemacht zu zeigen, welcher in einem begutachteten Wissenschaftsjournal veröffentlichte skeptische Artikel für Geld von der Treibstoffindustrie geschrieben worden ist. Kein Reporter macht sich die Mühe zu zeigen, wie Myriaden von Beispielen kritischen Denkens bereits existierende – und nicht fabrizierte – Zweifel über die Behauptungen von Beweisen für die globale Erwärmung enthüllen. Und bis auf den heutigen Tag hat kein Reporter je versucht, erst einmal zu widerlegen, dass die fadenscheinigen Unterstützungen, die Skeptiker von der Industrie fossiler Treibstoffe erhalten haben sollen, wirklich nur deswegen gezahlt worden sind, weil jene Leute mit dem übereinstimmen, was die Skeptiker sagen.

Der Vorwurf, dass skeptische Wissenschaftler korrupt sind, entbehrt jedes kritischen Denkens. Jeder würde diese Probleme nach einer sorgsamen Untersuchung der Fakten erkennen:

Al Gore sagt, dass der Buchautor und Reporter Ross Gelbspan im Jahr 1991 durchgesickerte Notizen der Kohleindustrie als Beweis dafür entdeckt hat, dass Skeptiker korrupt sind, und doch haben andere Buchautoren und Reporter aus den Notizen vor Gelbspan zitiert, einschließlich Gore selbst.

Unzählig viele Leute zitieren aus jenen Notizen, um zu beweisen, dass Skeptiker korrupt sind, und doch zeigt niemand jemals den gesamten Zusammenhang dieser Notizen.

Im Spätsommer 1997 hat Gelbspan in einem NPR-Radiointerview unter Verwendung der am meisten zitierten fragmentarischen Sätze aus den Notizen behauptet, dass „böse“ Bemühungen unternommen werden, die Öffentlichkeit hinsichtlich der globalen Erwärmung zu verwirren – und doch, wenn man den gesamten Text der Notizen auf den Greenpeace archive scan web pages liest (wo nur ein gewiefter Forscher sie finden würde; mit Hilfe einer normalen Internetsuche kann man sie nicht finden), wird es überaus offensichtlich, dass die Notizen lediglich für die PR-Kampagne für ein sehr kleines Pilotprojekt verfasst worden sind, und Gelbspan hat die fragmentarischen Sequenzen vollständig aus dem Zusammenhang gerissen.

Gelbspan wurde lange Zeit als Gewinner des Pulitzer-Preises gehandelt, was sogar als Titelbild seines 2004 erschienenen Hardcover-Buches Boiling Point gezeigt wurde – und doch hat die Pulitzer-Organisation Gelbspan niemals als einen Preisgewinner in Erwägung gezogen.

Et cetera, et cetera pp, es gibt ein Meer roter Flaggen sowohl in den Vorwürfen selbst als auch bei allen Leuten darum herum.

Stellt man eine Verbindung her zwischen den immer weiter zunehmenden wissenschaftlichen Problemen bzgl. der globalen Erwärmung und den Enthüllungen darüber, wie buchstäblich unerträgliche Vorwürfe an der Grenze zu Beleidigungen und Rufmord gegen die wissenschaftlichen Kritiker angerührt worden sind, würde die ganze Welt erkennen, dass die gesamte Hysterie nichts weiter als ein „Informations“-Schneeballsystem war und ist, die auf konstanten Einwürfen von Desinformation basiert, die als solche bereits vor Jahren enthüllt worden sein könnten. Ein Tod der tausend Schnitte wird zu einem Pfahl durch das Herz.

Russell Cook

Russell Cook’s collection of writings on this issue can be seen at „The ’96-to-present smear of skeptic scientists.“  Follow him at Twitter via @questionAGW.

Read more: http://www.americanthinker.com/2012/06/global_warmings_killer_critical_thinking.html#ixzz1yY1sDTmw

Link: http://www.americanthinker.com/2012/06/global_warmings_killer_critical_thinking.html

Übersetzt von Chris Frey EIKE




Moncktons Erwiderung auf Eos-Vorwürfe zur Klimalüge

*AGU = American Geophysical Union

Recht auf Antwort

Ich bin den Herausgebern von Eos dankbar für dieses Recht auf eine Antwort an Corbin und Katz (Effective Strategies to Counter Campus Presentations on Climate Denial, Eos, 3. Juni 2012) [etwa: Strategien, um Präsentationen der Klimaleugnung auf dem Campus zu begegnen], einer ungerechtfertigten, 1200 Wörter starken Attacke auf Dr. Giaever und mich. … [mangels Ideen zur Übersetzung lautet die fehlende Passage im Original: „…by way of a mélange or smørgasbord of the shop-worn logical fallacies of argument ad populum, ad verecundiam, and, above all, ad hominem.” Diese „logical Fallacies” von Monckton sind in einem anderen Zusammenhang am 7. Mai 2012 schon bei EIKE hier erschienen. A. d. Übers.]

Die Autoren, die ausschließlich mit dem Konsens (ad populum) unter wissenschaftlichen Experten (ad verecundiam) argumentieren, sagen, dass Sprecher wie wir „das Ziel verfolgen, die Gewässer hinsichtlich der Klimawissenschaft zu verschmutzen“ (ad hominem); sie beziehen sich allen Ernstes auf politisierte Websites und tendenziöse, nicht wissenschaftlich begutachtete Präsentationen von Nicht-Klima-Wissenschaftlern, um gegen uns vorzugehen und tun so, als ob sie das Sagen hätten (ad verecundiam), während sie sich der Erwähnung von Zurückweisungen dieser dubiosen Quellen widersetzen (ad hominem); sie klagen uns der falschen Präsentation, Verzerrung und manipulierter Analysen an, ohne ein einziges Beispiel zu nennen (ad hominem); und sie brandmarken uns vier mal als „Klimawandelleugner“ (ad hominem) – einem Hasswort, das implizit der Vergleich mit dem Holocaust enthält. Diese Anschuldigungen sind ernst und erfordern eine Erwiderung.

Die Autoren sagen auch, dass wir versuchen, ihre Forschungen zu diskreditieren, obwohl – wie Wissenschaftsphilosophen von Haytham via Huxley bis zu Popper (1934) klar sagen – die Eliminierung von Fehlern durch Hinterfragen der Hypothesen ein grundlegender Bestandteil der wissenschaftlichen Methode ist. Sie beschreiben „Strategien“, um uns gegenüber zu treten – einschließlich „öffentlicher zur-Schau-Stellung“ und „sozialer Mittel“ – welche sicherlich in die Umgebung politischer Propaganda, aber nicht in die wissenschaftliche Diskussion passen.

Unser Argument gegen die offizielle Linie, die sie so unkritisch vor sich her tragen, lautet, dass eine katastrophale, vom Menschen verursachte globale Erwärmung bisher nicht einmal annähernd die vorhergesagte Größenordnung erreicht hat; dass es keinen ausgeprägten wissenschaftlichen Grund gibt, dass das noch passieren wird; und dass, selbst wenn, eine Anpassung in der Zukunft mindestens eine Größenordnung kostengünstiger sein dürfte als die heutigen gigantischen Ausgaben für eine versuchte Abschwächung.

Vorhersagen des Untergangs sind  gescheitert. Die Daten des Satelliten Envisat zeigen, dass der Anstieg des Meeresspiegels von 2004 bis 2012 mit einer Rate äquivalent zu 3 cm/Jahrhundert erfolgt ist. Das Wachstum der Ausdehnung des Meereises in der Antarktis hat den Rückgang in der Arktis während der letzten 30 Jahre nahezu ausgeglichen. Das grönländische Inlandeis hat von 1993 bis 2008 um 0,5 m an Dicke zugenommen. In der Antarktis ist es 30 Jahre lang kälter geworden, und die Inlandseismasse hat zugenommen. Im Winter 2010/2011 erreichte die Schneebedeckung der Nordhemisphäre ein 30-Jahres-Maximum. Die Aktivität tropischer Zyklone befand sich während der letzten beiden Jahre in einem 30-Jahres-Minimum.

Alles in allem ist die beobachtete Erwärmungsrate seit 1990 weit hinter der geringsten projizierten Erwärmung des IPCC zurückgeblieben. Die Modelle stimmten alle überein, aber die Wirklichkeit hat diesen Konsens als falsch überführt. Trotz der rapide zunehmenden CO2-Konzentration gab es keine statistisch signifikante Erwärmung seit eineinhalb Jahrzehnten. Die Erwärmungsrate nach 1950 in Gestalt des Trends kleinster Quadrate der Hadley/CRU-Temperaturreihe (HadCRUt3, 2011) beträgt lediglich 1,2 K pro Jahrhundert. Und doch sagt das IPCC als das Mittel aller sechs Emissions-Szenarien implizit vorher (2007, Tabelle SPM3 mit Abb. 10.26), dass der Einfluss des Menschen einschließlich einer Zunahme der CO2-Konzentration von 368 ppmv im Jahr 2000 bis 713 ppmv im Jahr 2100 bis zum Jahr 2100 zu einer Erwärmung um 2,8 K führen wird – 0,6 K previously committed*, 1,5 K durch die Emission von CO2 in diesem Jahrhundert und 0,7 K durch andere Treibhausgase. Diese vorhergesagte (obwohl nicht alarmierende) Verdoppelung der Erwärmungsrate nach 1950 hängt von mindestens drei nicht plausiblen Hypothesen ab: Andere Gase erhöhen den Beitrag von CO2 zur Erwärmung um bis zu 43%; bis zur Hälfte der Erwärmung durch unsere Sünden in der Vergangenheit ist bisher noch gar nicht durch die Pipeline gekommen; und, alles in allem, ungemessene und unmessbare Temperatur-Rückkopplungen werden die geringe direkte Erwärmung durch Treibhausgase fast verdreifachen: daraus folgt, dass zwei Drittel des vorhergesagten Konsens’ zur Erwärmung auf raten beruhen.

*Die Wörter sind natürlich bekannt, aber ich finde keine sinnvolle Bedeutung derselben. A. d. Übers.

Der ersten Hypothese fehlt die Glaubwürdigkeit, hat sich doch das Methan, das wichtigste Treibhausgas neben dem CO2, das wir emittieren, stabilisiert: dessen Konzentration hat während des letzten Jahrzehnts nur um 20 parts per Milliarde zugenommen. Die zweite und dritte Hypothese implizieren eine Schwankungsbreite der Temperatur, der die paläoklimatischen Aufzeichnungen widersprechen. Sie deuten darauf hin – wenn auch mit großen Unsicherheiten – dass die absolute Temperatur nicht um mehr als 3% oder 8 K um den Mittelwert der letzten 64 Millionen Jahre geschwankt hat (Scotese 1999, Zachos et al. 2001). Das reicht, um während einer Epoche eine Eiszeit, während einer anderen Epoche eine Warmzeit auszulösen: aber sie ist zu klein, um geschlossene Rückkopplungen [closed-loop feedback gains] bis zu 0,64 (0,42; 0,74) zuzulassen, die implizit in der projizierten Erwärmung von 3,26 (2; 4,5) K pro Verdoppelung des CO2-Gehaltes enthalten sind (IPCC 2007, S. 798, Tafel 10.2). In der Verfahrenstechnik, in der die von der Klimawissenschaft übernommene Rückkopplungs-Mathematik ihre Wurzeln hat (Bode 1945, Roe 2009), wurden elektronische Schaltkreise entwickelt, die stabil genug sein sollten, einen close-loop gain nicht größer als 0,1 zuzulassen. Denn jenseits dieser Singularität, bei einem loop-gain von 1, werden stark positive Rückkopplungen genauso stark negativ: und doch zeigen die Paläo-Temperaturaufzeichnungen keine solche gewaltige Oszillation. Empirische Beweise (z. B. von Lindzen und Choi 2009 und 2011, Spencer und Braswell, 2010 und 2011) legen tatsächlich nahe, was die Theorie der Verfahrenstechnik erwarten lässt: dass nämlich Rückkopplungen in einem temperaturstabilen Klimasystem wie in einem gut konstruierten Kreislauf höchstens geringfügig positiv und wahrscheinlicher in irgendeiner Form negativ sind, obwohl dies hitzig bestritten wird (z. B. Trenberth et al. 2010, Dessler et al. 2010 und 2011) – konsistent mit einer harmlosen Fortsetzung der beobachteten Erwärmungsrate der letzten 60 Jahre, aber inkonsistent mit der substantiell größeren (aber nicht notwendigerweise schlimmen) vom IPCC vorhergesagten Erwärmungsrate.

Selbst wenn wir ad argumentum (und per impossibile) annehmen, dass unsere unverminderten Emissionen die beobachtete Erwärmungsrate erheblich beschleunigen würden, übersteigen die horrenden Kosten der Maßnahmen zur Abschwächung der CO2-Emissionen bei Weitem die wahrscheinlichen Kosten von klimabezogenen Schäden, die aus unserem Nicht-Handeln heute resultieren. Um ein einziges thematisches und typisches Beispiel herauszugreifen: der Kohlenstoffhandel in Australien wird 10,1 Milliarden Dollar pro Jahr betragen, plus 1,6 Milliarden Dollar pro Jahr für die Administration (Wong 2010, S. 5) plus 1,2 Milliarden pro Jahr für Erneuerbare und andere Kosten, insgesamt 13 Milliarden Dollar pro Jahr mit einer Steigerung um 5% pro Jahr oder auf 130 Milliarden Dollar bis zum Jahr 2020 n.p.v. [Net Present Value, Kapitalwert eines Unternehmens]. Dies alles, um eine Abschwächung der gegenwärtigen Emissionen um 5% zu erreichen, die 1,2% der Weltemissionen ausmachen (abgeleitet von Boden et al. 2010ab). Folglich würden die australischen Maßnahmen, wenn sie so erfolgreich sein sollten wie die Befürworter planen, zu einer Abschwächung der globalen Emissionen um nicht mehr als 0,06% innerhalb des veranschlagten Zeitraumes von zehn Jahren führen. Die CO2-Konzentration würde von 410 ppmv bei „Business as usual“ auf einen Wert von 409,988 ppmv bis zum Ende des Zeitraumes der Maßnahmen zurückgehen. Die Abschwächung des Antriebs beträgt 0,0002 W/m², die daraus folgende Abschwächung der Erwärmung beträgt 0,0006 K; die Abschwächung der Kosteneffektivität, also die Kosten dafür, 1 K globale Erwärmung zu vermeiden, belaufen sich auf 2000 Trillionen Dollar/K. Auf der gleichen Basis belaufen sich die Kosten der Vermeidung der gesamten Erwärmung während der Laufzeit von zehn Jahren auf 300 Trillionen Dollar, oder 44000 Dollar pro Kopf oder 58% des globalen BSP während dieses Zeitraums. Die Kosten der Abschwächung durch derartige Maßnahmen würden die Kosten von klimabezogenen Schäden bei der Nicht-Durchführung von Maßnahmen um etwa den Faktor 50 übersteigen.

Die sehr hohen Kosten der Politik zur CO2-Abschwächung und die unmessbare Abschwächung der Erwärmung dadurch implizieren, dass die Konzentration auf Maßnahmen gegen die Konsequenzen einer solchen Erwärmung viel kosteneffektiver ist als die heute versuchte Abschwächung. Bezahlbare Strategien zur Abschwächung von CO2-Emissionen sind ineffektiv; effektive Maßnahmen sind unbezahlbar. Es erhebt sich die Frage, ob man überhaupt noch weiter versuchen soll, die CO2-Emissionen abzuschwächen.

Eos-Leser können jetzt selbst entscheiden, bis zu welchem Ausmaß die unprovozierte Attacke auf unseren Ruf von Corbin und Katz gerechtfertigt war. Wirkliche Wissenschaft gründet sich nicht auf Beschimpfungen und Unlogik, sondern auf Begründungen. Verliert man dies aus den Augen, verliert man alles!

References

Bode, H.W. (1945), Network analysis and feedback amplifier design, Van Nostrand, New York, USA, 551 pp.

Boden and Marland (2010a), Global CO2 Emissions from Fossil-Fuel Burning, Cement Manufacture, and Gas Flaring, 1751-2007, Carbon Dioxide Information and Analysis Center, Oak Ridge, Tennessee, USA.

Boden et al. (2010b), Ranking of the world’s countries by 2007 total CO2 emissions from fossil-fuel burning, cement production, and gas flaring, Carbon Dioxide Information and Analysis Center, Oak Ridge, Tennessee, USA.

Dessler, A.E. (2010), A determination of the cloud feedback from climate variations over the past decade, Science 220, 1523-1527.

Dessler, A.E. (2011), Cloud Variations and the Earth’s energy budget, Geophys. Res. Lett.

HadCRUt3 (2011), Monthly global mean surface temperature anomalies, 1850-2011, http://www.cru.uea.ac.uk/cru/data/temperature/hadcrut3gl.txt.

IPCC (1990), Climate Change: The IPCC Scientific Assessment (1990): Report prepared for Intergovernmental Panel on Climate Change by Working Group I, J. T. Houghton, G.J. Jenkins and J.J. Ephraums (eds.), Cambridge University Press, Cambridge, UK, New York, NY, USA, and Melbourne, Australia.

IPCC (2007), Climate Change 2007: the Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, 2007 [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Avery, M. Tignor and H.L. Miller (eds.)], Cambridge University Press, Cambridge, United Kingdom, and New York, NY, USA.

Lindzen, R.S., and Y.-S. Choi (2009), On the determination of feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705.

Lindzen, R.S., and Y.-S. Choi (2011), On the observational determination of climate sensitivity and its implications, Asia-Pacific J. Atmos. Sci., 47(4), 377-390, doi:10.1007/s13143-011-0023-x.

Monckton of Brenchley, C.W. (2010), Response to John Abraham, SPPI Reprint Series, Science and Public Policy Institute, Washington DC, USA, July 12, http://scienceandpublicpolicy.org/images/stories/papers/reprint/response_to_john_abraham.pdf.

Popper, K (1934), Logik der Forschung, rewritten by the author in English as The Logic of Scientific Discovery, Hutchinson, London, 1959.

Roe, G. ( 2009), Feedbacks, Timescales, and Seeing Red, Ann. Rev. Earth & Planet. Sci. 37, 93-115.

Scotese, C.R., A.J. Boucot, and W.S. McKerrow (1999), Gondwanan paleogeography and paleoclimatology, J. Afr. Earth Sci. 28(1), 99-114.

Spencer, R.W., and W.D. Braswell (2010), On the diagnosis of radiative feedback in the presence of unknown radiative forcing, J. Geophys. Res, 115, D16109.

Spencer, R.W., and W.D. Braswell (2011), On the misdiagnosis of surface temperature feedbacks from variations in Earth’s radiant-energy balance, Remote Sensing 3, 1603-1613, doi:10.3390/rs3081603.

Trenberth, K.E., J.T. Fasullo, C. O’Dell, and T. Wong (2010), Relationships between tropical sea-surface temperature and top-of-atmosphere radiation, Geophys. Res. Lett, 37, L03702.

Wong, P. (2010), Portfolio Budget Statements 2010-11: Budget-Related Paper No. 1.4. Climate Change and Energy Efficiency Portfolio, Commonwealth of Australia, Canberra, Australia.

Zachos, J., M. Pagani, L. Sloan, E. Thomas, and K. Billups (2001), Trends, Rhythms and Aberrations in Global Climate 65 Ma to Present, Science 292, 686-693.

─ CHRISTOPHER MONCKTON OF BRENCHLEY, Chief Policy Advisor, Science and Public Policy Institute, Washington, DC, USA; monckton@mail.com.

Link: http://wattsupwiththat.com/2012/07/12/moncktons-reply-to-eos-on-climate-denial/

Übersetzt von Chris Frey EIKE