Stimmungsumschwung in Sachen Klimamodelle: Das Vertrauen der Fachwelt schwindet

Im August 2014 äußerte sich jetzt ein Leitautor des kürzlichen 5. IPCC-Klimazustandsberichts, Richard Betts, öffentlich in überraschender Weise. Betts leitet die Abteilung Klimafolgen des UK Met Office und auf seiner Webseite führt er als eine seiner Expertisen die Klimamodellierung an. In einem Kommentar auf Bishop Hill schrieb Betts:
Bish, wie immer bin ich etwas verwirrt, warum du glaubst, dass die GCMs so im Mittelpunkt der Klimapolitik stehen. Jeder* stimmt zu, dass der Treibhauseffekt real und das CO2 ein Treibhausgas ist. Jeder* stimmt zu, dass der CO2-Anstieg anthropogenen Ursprungs ist. Jeder** stimmt zu, dass wir die langfristige Reaktion des Klimas bei einem fortgesetzten CO2-Anstieg nicht hinreichend genau vorhersagen können. Sie kann groß sein, sie kann klein sein. Wir wissen es nicht. Das altgediente Energiebilanzmodell hat uns so weit gebracht. Wir können nicht sicher sein hinsichtlich großer Änderungen in der Zukunft, aber wir können sie auch nicht ausschließen.
In einer Fußnote erläutert Betts dann noch die beiden Sterne:
*OK, wohl nicht jeder, aber jeder, der darüber ausreichend nachgedacht hat.
**Mit Ausnahme einiger weniger, die glauben, dass Beobachtungen kleiner Antriebe über eine Dekade oder drei extrapoliert werden können, um die Reaktion auf einen langfristigen größeren Antrieb vertrauensvoll zu ermitteln.
Betts misst den Klimamodellen keine zentrale Rolle mehr in der Klimapolitik zu. Man weiß noch immer viel zu wenig, räumt er ein. Ganz offensichtlich bekommen jetzt sogar die IPCC-Autoren selber kalte Füße und können eine geringe Klimawirkung des CO2 nicht mehr ausschließen.
Einen Monat zuvor, im Juli 2014, hatte im Wall Street Journal der Computermodellierer Robert Caprara zugegeben, dass in den Modellen eine Vielzahl von frei wählbaren Parametern existiert, um ein gewünschtes Resultat zielgenau „hinzumodellieren“. Caprara schreibt [der gesamte Kommentar von ihm in deutscher Übersetzung steht hier]:

Mein erster Job war eine Beratertätigkeit bei der Environmental Protection Agency EPA. Ich wurde eingestellt, um ein Modell zu erstellen, das die Auswirkungen des Construction Grants-Programms der EPA abschätzen sollte, eine landesweite Bemühung in den siebziger und achtziger Jahren, Klärwerke aufzuwerten.

Als ich die Ergebnisse dem EPA-Funktionär vom Dienst präsentierte, sagte dieser, dass ich zurückgehen und gefälligst „meinen Bleistift spitzen“ sollte. Das habe ich getan. Ich habe Hypothesen begutachtet, Koeffizienten überarbeitet und Daten neu kalibriert. Aber nach einem erneuten Modelllauf nach diesen Änderungen hatte sich das Ergebnis nicht wesentlich geändert. Beim nächsten Treffen hieß mich dieser Funktionär die Zahlen noch einmal zu überarbeiten.
Nach drei weiteren Läufen platzte mir der Kragen: „Nach welcher Zahl suchen Sie eigentlich?“ Er zögerte nicht einen Moment: Er sagte mir, dass er Vorteile in Höhe von 2 Milliarden Dollar vorweisen müsse, damit das Programm verlängert wird. Also drehte ich schließlich an genug Knöpfen, um die von ihm gewünschte Antwort zu erzeugen, und alle waren glücklich.
In Richtung Klimadebatte empfiehlt Caprara, die Diskussion offen zu führen und die Argumente der anderen Seite anzuhören, anstatt die andere Seite mit Beschimpfungen abzuqualifizieren:
Hier also kommt mein Vorschlag: Jene, die überzeugt sind, dass die Menschen drastisch das Klima zum Schlechteren verändern, und jene, die das nicht sind, sollten ein dynamisches, robustes Hin und Her akzeptieren. Man lasse jede Seite ihren besten Fall machen und vertraue darauf, dass die Wahrheit auftauchen wird.
Jene, die wirklich glauben, dass die Menschen das Klima treiben, erwidern, dass die Wissenschaft ‚settled‘ ist und das jene, die dem nicht zustimmen, Leugner“ und „Flat-Earthers“ sind. Selbst der Präsident macht sich über diejenigen lustig, die dem nicht zustimmen. Aber ich habe das schon lange getan, und wenn ich eines gelernt habe, dann dies: wie schwer es ist, die Leute mit einem Computermodell zu überzeugen.
Bereits in einer Arbeit aus dem Oktober 2012 hatte eine Forschergruppe um Clara Deser in Nature Climate Change eingeräumt, dass die bislang unterschätzte starke natürliche Klimavariabilität von den Klimamodellen einfach noch zu schlecht abgebildet werden kann, so dass die Modelle die hohen Erwartungen der politischen Entscheider nicht erfüllen können. In der Kurzfassung der Studie heißt es:

Über die Rolle der natürlichen Variabilität im zukünftigen Klima Nordamerikas

Mit der Verbesserung der Klimamodelle wachsen auch die Erwartungen der Entscheidungsträger hinsichtlich akkurater Klimavorhersagen. Die natürliche Klimavariabilität jedoch setzt inhärent der Vorhersagbarkeit des Klimas Grenzen ebenso wie dem damit zusammenhängenden Ziel der Wegweisung in vielen Gebieten wie hier für Nordamerika dargestellt. Andere Stellen mit geringer natürlicher Variabilität zeigen eine besser vorhersagbare Zukunft, in der der anthropogene Antrieb besser identifiziert werden kann, selbst in kleinen Maßstäben. Wir fordern einen konzentrierteren Dialog zwischen Wissenschaftlern, Politikern und der Öffentlichkeit, um die Kommunikation zu verbessern und steigenden Erwartungen für genaue regionale Vorhersagen überall einen Riegel vorzuschieben.

Auch die bekannte Klimawissenschaftlerin Judith Curry hat wenig Vertrauen in die Klimamodelliererei. Im Oktober 2013 schrieb beklagte sich die Forscherin in ihrem Blog über die fehlende Wertschätzung klimahistorischer Untersuchungen zugunsten von Klimamodellen. Unsummen wären bislang in die Modelle investiert worden, ohne richtiges Ergebnis. Der vom IPCC fälschlicherweise behauptete Konsens hätte die Klimawissenschaften mindestens ein Jahrzehnt zurückgeworfen, sagt Curry:
Mein Punkt ist, dass ambitionierte junge Klimawissenschaftler unachtsam in die Richtung einer Analyse der Klimamodellsimulationen getrieben worden sind, und hier besonders Projektionen der Auswirkungen künftiger Klimaänderungen. Viel Geld fließt in dieses Gebiet zusätzlich zu einer hohen Wahrscheinlichkeit, in einem renommierten Journal veröffentlicht zu werden und mit garantierter Aufmerksamkeit seitens der Medien. Und die wahre Bedeutung dieser Forschung hinsichtlich unseres aktuellen Verständnisses der Natur ruht auf der Eignung und Zweckmäßigkeit dieser Klimamodelle. Und warum glauben die Wissenschaftler, dass Klimamodelle für diesen Zweck geeignet sind? Nun, weil das IPCC ihnen das so gesagt hat, und zwar mit sehr großer Sicherheit. Der fabrizierte Konsens des IPCC hat wohl unser wahres Verständnis des Klimasystems um mindestens eine Dekade zurückgeworfen, jedenfalls sehe ich das so. Die wirklich harte Arbeit der fundamentalen Klimadynamik sowie die Entwicklung und Verbesserung von Paläo-Proxys wird von den Klimawissenschaftlern vermieden, da sich dies viel weniger auszahlt (hinsichtlich Belohnungen und Förderung). Die Zeit und die Fördergelder, die hier durch den Gebrauch von Klimamodellen für Ziele verschwendet worden sind, für die sie gar nicht ausgelegt waren, könnte eventuell als kolossal eingestuft werden.
Eine genaue Kenntnis des Paläoklimas ist unverzichtbar und sollte absoluten Vorrang vor Freistil-Klimamodellierungen haben, denn die historischen Daten sind wichtige Kalibrierungs- und Überprüfungsdaten für Klimamodelle. Wenn die Formeln nicht stimmen, nützen auch die größten Supercomputer nichts.

Auch der US-amerikanische Atmosphärenphysiker Richard Lindzen vom Massachusetts Institute of Technology (MIT) hat kein Vertrauen in die Klimamodelle, wie er auf einer Veranstaltung der Sandia National Labs, einer Forschungs- und Entwicklungseinrichtung des US-Energieministeriums, erklärte.
Der ehemaligen deutschen Forschungsministerin Annette Schavan ist es dagegen ziemlich egal, ob die Klimamodelle Recht haben. Sie sieht die Klimakatastrophe als unverhandelbar an und fordert umgehendes Handeln. Kann man mit einer solch unwissenschaftlichen und eher ideologisch geprägten Grundhaltung überhaupt Forschungsministerin sein? Mangelndes Fingerspitzengefühl im Zusammenhang mit dem Verdacht auf Plagiarismus im Rahmen ihrer Doktorarbeit führte dann schließlich auch zur Entfernung von Schavan aus dem Amt. Nun ist sie Botschafterin beim Heiligen Stuhl in Rom, wo sie mit ihrer klimareligiösen Einstellung vermutlich letztendlich auch besser aufgehoben ist.
Ähnlich fragwürdig ist auch ein Ansatz einer US-amerikanisch-französischen Gruppe. Sie behaupteten 2012, ihr Modell hätte angeblich das Klima auf dem Mars korrekt vorhergesagt, und daraus würde folgen, dass das Modell auch für die Erde gültig sein müsse. Eine kuriose Geschichte.
Der Weltklimarat sollte sich endlich alternativen Modellen öffnen. In unserem Buch „Die kalte Sonne“ stellten wir einen semiquantitativen Ansatz vor, in dem Sonnenaktivitätsschwankungen und Ozeanzyklen eine wichtige Rolle spielen. Die schlechte Trefferquote der IPCC-Prognosen spricht eindeutig für einen Wechsel. Es muss eine ernsthafte Überprüfung der Ideen der IPCC-Kritiker geben. Hierzu gehören auch Modelle von Nicola Scafetta und Frank Lemke, die den realen Temperaturverlauf besser abzubilden scheinen als die IPCC-Vorhersagen. Bei den Ozeanzyklen ist man bereits eingeknickt und hat mittlerweile damit begonnen, diese in Modelle mit einzubauen, da die Verlässlichkeit der Klimaprognosen damit nachweislich dramatisch angestiegen ist. Einen entsprechenden Ansatz verfolgten zum Beispiel DelSole et al. 2013 in einer Arbeit in den Geophysical Research Letters.
Dieser Artikel war erstmals auf der „Kalten Sonne“ erschienen. Die englischen Passagen dort wurden hier übersetzt von Chris Frey EIKE
Link: http://www.kaltesonne.de/?p=21053




Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen

Aber wo endet die wissenschaftlich berechtigte „Korrektur“ und wo beginnt die fragwürdige Manipulation? Die Klimawissenschaften haben sich in den letzten Jahrzehnten zu einem hochpolitisierten Fach entwickelt, indem kleine Eingriffe in die Datenbasis eine große politische Wirkung entfalten können. Sollten sich einige „Korrekturen“ bei einer unabhängigen Überprüfung als unnötig und ideologisch getrieben herausstellen, könnte dies durchaus eine Straftat sein. Bereits 1907 hatte der US-amerikanische Wettdienst vor solchen Manipulationen gewarnt (Scan mit Dank an Real Science):
Übersetzung des Textes rechts aus dem Jahr 2007:
Monthly Weather Review
Januar 2007
Ist Ehrlichkeit nicht die klügste Politik?
Es ist falsch, die Aufzeichnungen eines beobachteten Naturphänomens zu verstümmeln oder zu unterdrücken, aber es ist auch falsch, die Aufzeichnung zu missbrauchen. Tatsächlich ist es der Missbrauch meteorologischer Daten, nicht die Beobachtung oder die Veröffentlichung, ein Verbrechen gegen die Gemeisnchaft. Beobachtung und sorgfältige Forschung müssen als nützlich ermutigt werden. Die Independent Press sollte als „Stimme des Volkes“ nicht nur „Vox Populi“ sein, sondern „Vox Dei“ und alle Schummeleien und Betrügereien unterlassen. Sie sollte die Wahrheit und die Interessen zum Wohle der ganzen Nation gegen Eigeninteressen verteidigen
Vor etwa zwei Jahren, Mitte 2012, haben wir an dieser Stelle eine Einführung in das Thema gegeben (siehe unseren Blogartikel „Die wunderbare Welt der Temperaturdaten-Korrekturen: Und plötzlich hatte sich der Trend ins Gegenteil verkehrt…”.). Der Artikel wird auch heute noch regelmäßig über Google gefunden und gelesen und hat bereits vielen Lesern die Augen geöffnet. Nein, es handelt sich leider nicht um eine Verschwörungstheorie der „Klimaskeptiker“, es ist ein reales Problem, das zu lange unter dem Radar geblieben ist. Im Folgenden wollen wir uns anschauen, wie sich die Diskussion zur Temperaturdaten-Korrektur in den letzten 24 Monaten weiterentwickelt hat.
Am 7. Juli 2014 veröffentlichte Zeke Hausfather auf Judith Currys Klimablog Climate Etc. unter dem Titel „Understanding adjustments to temperature data“ einen Rechtfertigungsversuch, weshalb alle Korrekturen als legitim zu betrachten wären. Zeke Hausfather ist ein Energiesystem-Analyst und Umweltökonom, der einst an der BEST-Temperaturstudie der University Berkeley beteiligt war. Hausfather räumt gleich zu Beginn seiner Abhandlung ein, dass die modifizierten US-Temperaturen stark von den ursprünglichen Messwerten abweichen:

Adjustierungen haben große Auswirkungen auf die Temperaturtrends in den USA und auch gewisse Auswirkungen auf globale Festlands-Temperaturtrends. Die große Menge von Adjustierungen auf US-Temperaturtrends im Zeitmaßstab von Jahrhunderten verleiht aus sich selbst heraus das unglückliche Narrativ, dass die „Regierungs-Bürokraten die Bücher fälschen“.

Die Materie ist technisch und schwierig. Bereits zuvor hatten Hausfathers Ansichten auf WUWT Kritik hervorgerufen (Beiträge von Bob Dedekind und Willis Eschenbach im Juni 2014). Wer liegt richtig, wer liegt falsch? Im Mai 2014 hatten Anthony Watts und Hausfather auf WUWT sogar einen gemeinsamen Artikel, der Diskrepanzen im Temperaturdatensatz des United States Historical Climatology Network (USHCN) zum Thema hatte. Im Gegensatz zu Steve Goddard sieht Klimaskeptiker Watts einen Teil der Temperaturkorrekturen durchaus als gerechtfertigt an. Trotzdem gab es im Juni 2014 dann doch einen Vorfall bei dem Watts Goddard Recht gab und USHCN in die Pflicht nahm. Die Fronten in dieser Diskussion sind daher alles andere als klar. Ende Juni 2014 brachte Judith Curry eine gute und wohlgewichtete Bestandsaufnahme der für Außenstehende verworrenen Diskussion.
Grundsätzlich ist es schon etwas verdächtig, wenn stets die Vergangenheit künstlich kälter gemacht wird als ursprünglich gemessen. Ohne „Korrektur“ würden die heutigen Temperaturen der USA lediglich auf dem Niveau der 1930er Jahre liegen. Eine Erwärmung wäre dann für die letzten 80 Jahre nicht erkennbar. Im Gegenteil, es wäre sogar eine Abkühlung eingetreten.

In einem Manuskript bemängelte 2012 auch Frank Lansner die erheblichen Modifikationen, die am US-Temperaturdatensatz durchgeführt wurden:

Temperaturentwicklung in den USA von 1880 bs 2010 aus nicht adjustierten GHCN V2-Daten

Weltweite Temperaturtrends werden verwendet, um ein Erwärmungssignal infolge des zunehmenden CO2-Gehaltes zu schätzen. Sie sind folglich die Schlüsselparameter für die Grundlage einer angemessenen Klimapolitik. Trotz der Tatsache, dass das zusammenhängende Gebiet der USA die beste Verfügbarkeit von Temperaturdaten in der Welt aufweist, gibt es eine große Differenz zwischen jüngst (2) und früher (1) veröffentlichten Temperaturdaten von GISS. Dies wirft die Fragen nach der Robustheit der Daten auf. Der aus den nicht adjustierten Daten des Global Historical Climate Network (GHCN) berechnete Temperaturtrend in den USA zeigt, dass die dreißiger Jahre die wärmste Dekade waren, etwa 0,2 K wärmer als 2000 bis 2009. Der berechnete Temperaturtrend basiert auf Daten von 826 Stationen und ist praktisch identisch mit dem von Hansen et al. (1) berechneten Temperaturtrend. Der berechnete Temperaturtrend von 1930 bis 2010 ist etwa 0,5 K kälter als der aktualisierte GISS-Temperaturtrend in den USA (2) und etwa 0,4 K kälter als der aus den HadCRUT-Stationen berechnete Temperaturtrend. Der in den HadCRUT-Daten gefundene verstärkte Erwärmungstrend scheint mehr auf die Auswahl der Messstationen als auf die Adjustierungen der Stationsdaten zurückzuführen zu sein.

Bereits Balling & Idso hatten 2002 auf das Problem in den Geophysical Research Letters hingewiesen. Eine weitere Betrachtung steuerte 2013 Paul Homewood bei. Jim Steele führt auf Landscapes & Cycles eine ganze Reihe an fragwürdigen Korrekturbeispielen aus den USA an.
Die Diskussion erstreckte sich auch auf die Behandlung einzelner Monate, so etwa den Juli-Wert (Real Science, WUWT). Walter Dnes wies am 23. August 2014 auf WUWT darauf hin, dass die verschiedenen Monate offenbar in unterschiedlicher Weise korrigiert werden. US-Temperaturen der jüngeren Jahre sind offenbar besonders stark nach oben korrigiert worden (hier, hier, hier). Auch wird die Korrektur mit jeder neu eingeführten Datensatzversion auf mysteriöse Weise stärker. Zum Teil scheinen die offiziell mitgeteilten Korrekturen nicht einmal in der hauseigenen Datenbank enthalten zu sein.
Noch Ende der 1980er Jahre hatte man die Wärme der 1930er Jahre klaglos anerkannt. In der New York Times war am 4. Februar 1989 Erstaunliches zu lesen:

Kürzlich haben Wissenschaftler der NOAA gesagt, dass eine Studie von Temperaturmessungen für die 48 Kernstaaten der USA während des vorigen Jahrhunderts gezeigt haben, dass es während dieser Zeit keine signifikante Änderung der mittleren Temperatur gegeben hat. Dr. Phil Jones sagte in einem Telefoninterview, dass seine eigenen Ergebnisse für die 48 Staaten mit diesen Ergebnissen übereinstimmen.

Selbst zehn Jahre später, 1999, konnte James Hansen über die US-Temperaturgeschichte nichts anderes berichten:

Empirische Beweise unterstützen die Aussage nicht, dass sich das Klima plötzlich hin zu extremerer Hitze und Dürre bewegt (…) In den USA gab es während der letzten 50 Jahre, also dem Zeitraum rapide zunehmender Treibhausgas-Konzentrationen, kaum eine Änderung der Temperatur – tatsächlich gab es sogar eine leichte Abkühlung in den meisten Gebieten der Nation.

Mysteriöse Vorgänge auf Island
Ähnlich wie in den USA liegen in Island die heutigen Temperaturen auf dem Niveau der 1930er/40er Jahre. So berichtet es der Isländische Wetterdienst, und der sollte es wissen. Die globalen Datenkorrektoren sehen dies jedoch anders und haben kräftig mit ihrem Zauberstock in der Datensuppe herumgerührt. Schaut man sich die korrigierten Daten des Global Historical Climatology Network (GHCN) an, dann könnte man glauben, Island hätte sich in den letzten 70 Jahren erwärmt. Vormals harte Daten bekommen weiche Knie. Paul Homewood hat im Oktober 2012 auf WUWT die Misere detailliert protokolliert. Kurz darauf meldete sich auch David Stockwell auf der Webplattform zu Wort und zweifelte ebenfalls die Korrekturmethoden an. Wibjörn Karlén, ehemaliges Mitglied Royal Swedish Academy of Sciences, wirft GISS und NASA regelrechte Manipulation vor und geht auf das Island-Beispiel in einem Manuskript auf geoclimate.se ein. Im Tallbloke-Blog beschäftigte sich auch Roger Andrews mit den fragwürdigen Vorgängen auf Island. Zudem erschien im Dezember 2013 auf der Webseite der Swedish Stockholm’s Initiative ein Beitrag von Magnus Cederlöf, in dem die isländische Temperatur-Manipulation Schritt für Schritt enthüllt wurde.
Ganz ähnlich sieht die Situation übrigens in Norwegen aus. Hier eines der bekannten Vorher-Nachher-Charts von Steven Goddard:

Auch in den Niederlanden wurde kräftig korrigiert, wie Frank Lansner 2012 auf WUWT darlegte.
Asien, Ozeanien und Antarktis
In China sind Zhang et al. 2014 ebenfalls auf Korrekturprobleme gestoßen, die die Erwärmung offenbar stärker aussehen lassen, als sie in Wirklichkeit wohl ist. Eine ausführliche Diskussion des Papers gibt es auf WUWT von Anthony Watts. Auszug aus der Kurzfassung der Arbeit:

Auswirkunen der Daten-Homogenisierung auf die Schätzung des Temperaturtrends: Der Fall der Huairou-Station in der Stadt Peking

Unsere Analyse zeigt, dass Daten-Homogenisierungen für Stationen, die aus den Innenstädten an den Stadtrand verlegt wurden, zu signifikanten Überschätzungen steigender Trends der Lufttemperatur führen kann, und dies erfordert eine sorgfältige Evaluierung und Adjustierung der städtischen Verzerrungen, bevor man die Daten für Analysen der lokalen und regionalen Klimaänderung verwendet.

Interessanterweise liegen die Originalmessungen des japanischen Wetterdienstes JMA (hellblaue Kurve) deutlich unter den korrigierten Japan-Werten der internationalen Temperaturdatenbanken:

Gehen wir nun nach Australien. Roger Andrews berichtet aus dem Outback 2012, wie dort per Korrekturformel theoretische Erwärmung herbeigerechnet wurde. Im November 2013 publizierte Alberto Boretti im Fachjournal Theoretical and Applied Climatology eine Untersuchung zur Temperaturentwicklung im Northern Territory für die letzten 130 Jahre. Boretti fand, dass kaum eine Erwärmung feststellbar ist, wenn man die Datenkorrektur solide durchführt. Hier die Kurzfassung (mit Dank an The Hockey Schtick):
Das Nördliche Territorium von Australien befindet sich in der einmaligen Lage, eine Ausdehnung größer als Frankreich zu haben mit einer Bevölkerung von 200.000 und nur drei meteorologischen Stationen, die seit über 40 Jahren in Betrieb sind. Das sind die Stationen Darwin (DW), Alice Springs (AS) und Tennant Creek; und nur zwei davon, nämlich DW und AS, messen seit über 100 Jahren. Diese Stationen liegen 500 km voneinander und über 1000 km von benachbarten Stationen in Australien entfernt. Die Homogenisierung von Daten zwischen unterschiedlichen Messstellen an der gleichen Stelle ebenso wie die Methode, die fehlenden Daten abzuleiten, um mindestens 100 Jahre mit Daten abzudecken, werden detailliert analysiert, und die Auswirkungen auf die Temperaturtrends werden gleich danach untersucht. Die Verwendung ordnungsgemäß homogenisierter Daten aus über 130 Jahren und eine lineare Anpassung (fitting) ergibt hinsichtlich der Maximum- und Minimum-Temperaturen einen Trend von +0,009°C und +0,057°C pro Dekade für Alice Springs sowie -0,025°C und 0,064°C pro Dekade für Darwin. Mit den verfügbaren Daten besteht die einzige Option zur Erzeugung von Erwärmungstrends darin, die kalten Jahre Mitte der siebziger Jahre überzubetonen, was die Rückkehr zu wärmeren Temperaturen erhöht. Die Berechnung von Trends mit Beginn im Jahre 1980 zeigt immer noch eine klare Erwärmung in Alice Springs, aber ebenso klar eine Abkühlung in Tennant Creek, und ein gemischtes Verhalten mit steigenden Höchsttemperaturen und fallenden Tiefsttemperaturen in Darwin.
Schöne australische Vorher-Nachher-Bilder gibt es im Hockey-Schtick Blog zu bewundern. Hier zwei Beispiele:



Am 23. August 2013 griff dann die Tageszeitung The Australian die fragwürdige Datenmanipulation in zwei Artikeln auf (Artikel 1, Artikel 2), was große Wellen schlug:

Heiße Debatten zum Thema ,Wetteramt homogeniesiert Temperaturaufzeichnungen‘

Als im Januar 2011 Brisbane von einer Überschwemmung heimgesucht worden war, haben die Wassermassen in der Tiefgarage eines Gebäudes in dem Vorort St. Lucia am Fluss ein Corvette Sportauto absaufen lassen. Vergleicht man es mit dem Maßstab der Schäden von Dollar in Milliardenhöhe, zu der es in der Stadt durch diese vom Menschen verursachte Flut gekommen ist, scheint der Verlust eines Sportwagens nicht viel zu sein. Aber dieser Verlust fungierte als Katalysator für wachsende Zweifel und ernste Fragen an das staatliche australische Wetteramt hinsichtlich seiner Kompetenz und Integrität, die weit über die Sommerunwetter hinausgehen. Es geht bis ins Herz der Debatte um die Klimaänderung und im Besonderen darum, welche Computermodelle besser sind als reale Daten und ob die Temperaturaufzeichnungen manipuliert worden sind in einer Weise, dass jedes Jahr wärmer erscheint als das voran gegangene.

Wetteramt ,verändert Klimaangaben‘
Dem Wetteramt BOM ist vorgeworfen worden, historische Temperaturaufzeichnungen manipuliert zu haben, so dass sie danach zu einer vorbestimmten Ansicht bzgl. der globalen Erwärmung passen. In einem Streit mit BOM, dessen Anfänge bis zurück zur Brisbane-Flut im Januar 2011 reichen, hat die Forscherin Jennifer Marohashy behauptet, dass die adjustierten Temperaturreihen mehr „Propaganda“ als Wissenschaft seien.
Auszüge aus den nur für Abonnenten zugänglichen Artikeln finden Sie bei JoNova. Auch The Daily Caller griff das Thema auf. Im Laufe der sich daraufhin entwickelnden Diskussion kamen krasse Datenbehandlungsfehler durch den Australischen Wetterdienst ans Licht, so dass der Ruf nach personellen Konsequenzen laut wurde. Unter anderem redet sich der Dienst mit Wetterstationsverlegungen heraus, die er jedoch nicht belegen kann. Wiederum lohnt es sich, die Details bei JoNova nachzulesen.
Auch aus der Antarktis sind beeindruckende und erwärmende Korrekturen zu vermelden. Roger Andrews brachte dazu im Tallbloke-Blog eine schöne Vorher-Nachher-Graphik:

Globaler Korrekturwahn
Wenn man die Vielzahl der lokalen Korrekturen zusammenrechnet, kommt in der globalen Summe ein schöner Batzen zusammen. Ole Humlum von Climate4you zeigte im Juni-2014-Klimarundschreiben eine überraschende Graphik, in der die Entwicklung des Korrekturfaktors im Laufe der letzten 6 Jahre dargestellt wird (Abbildung unten). Während der Januar 2000 stetig künstlich wärmer gemacht wurde, gedachte man dem Januar 1915 das genaue Gegenteil an, nämlich man kühlte ihn immer weiter ab. Das National Climatic Data Center (NCDC) wird sicher eine gute Erklärung dazu haben?

Steven Goddard fand eine ganze Reihe von weiteren Korrekturen bei der NASA, angeregt durch den ehemaligen GISS-Chef und Klimaaktivisten James Hansen (hier, hier). Zum Teil wurden bereits frühere Archivversionen von der NASA vom Netz genommen bzw. gesperrt, damit die Entwicklung des Korrekturfaktors nicht mehr zurückverfolgt werden kann. Auch WUWT fand immer wieder Hinweise auf derlei mysteriöse Datenmodifikationen (hier, hier, hier, hier). Greg Goodman verfasste in Judith Currys Blog eine längere Analyse zur Problematik unter dem Titel „On the adjustments to the HadSST3 data set“. Goodman schlussfolgert, dass mit Ausnahme einiger Korrekturen für Werte aus dem Zweiten Weltkrieg, keine solide Basis für den Korrekturaktivismus vorliegt. Viele Veränderungen der Originaldaten basieren auf reiner Spekulation, die den Datensatz eher verschlechtern als verbessern. Die hinfort korrigierten “Anomalien” stellen vermutlich oftmals reale Temperaturentwicklungen dar. Hier Goodmans Schlußfolgerungen im Orginal:
HadSST3 enthält eine Reihe von Adjustierungen. Mit Ausnahme der Störungen zu Kriegszeiten sind sie auch durch Studien der Reihen nicht offensichtlich. Ihre Existenz basiert auf Spekulation und Hypothesen. Die Berechnung der Verzerrungen involviert eine Umkehrung eines wichtigen Teils der geschriebenen Metadaten der Aufzeichnung während der Periode hauptsächlicher Adjustierungen und ignoriert detaillierte Studien zum Verhältnis und der zeitlichen Abfolge der Änderungen bei der Datensammlung ebenso wie eine Spekulation hinsichtlich der Größenordnung der verschiedenen Effekte. Der hauptsächliche Effekt dieser Adjustierungen ist es, selektiv den größten Teil der langzeitlichen Variation aus den früheren zwei Dritteln der Datenreihe zu entfernen und deutlich in den Daten erkennbare etwa 10 bis 11-jährige Verteilungen zu unterbrechen. Diese Änderungen verändern den Charakter der Originaldaten fundamental. Die große Ähnlichkeit der Form zwischen den Variationen in den originalen ICOADS-Daten und den als notwendig erachteten Korrekturen bei der Stichprobe der Verzerrungen ist bemerkenswert. All dies gilt noch stärker vor dem Hintergrund, dass dokumentarische Informationen über die Grundlage der geschätzten Größenordnung und zeitlichen Abfolge der Adjustierungen fehlen. Die hier präsentierte Analyse zeigt, dass außerhalb der Zeit unmittelbar während des Krieges diese Adjustierungen die Daten verzerren und wertloser machen anstatt sie zu verbessern. Eine Anzahl verschiedener Analysen zeigt, dass eine einfache Korrektur der Kriegszeit (wie sie vor Gründung des Hadley Centers angewendet worden war) ein viel kohärenteres und glaubwürdigeres Ergebnis zeitigt. Ein Vergleich mit Studien von Nicht-Wassertemperatur-Daten [non SST data] zeigt, dass vieles der Variationen in den ICOADS-Daten ziemlich sicher realen Klimasignalen geschuldet sind und nicht Verzerrungen von Instrumenten. Diese Variationen müssen angemessen untersucht werden, anstatt sie a priori aus den Klimaaufzeichnungen zu entfernen.
Quo vadis Temperaturkorrektur? Wann platzt die Blase?
Link bei der „kalten Sonne“: Neues aus der wunderbaren Welt der Temperaturdaten-Korrekturen
Übersetzung der englischen Passagen von Chris Frey EIKE
Hinweis des Übersetzers: Dieser Artikel enthält mehrere Vorher – Nachher – Graphiken. Diese sind im Original einsehbar, ließen sich aber hier nicht übernehmen. Darum habe ich die Abbildungen als Standbilder nach dem Prinzip vorher – nachher dargestellt.
C. F.




Neue Studie: Globaler Temperaturtrend vor 1950 „bedeutungslos“ und „künstlich geglättet“

Die Korrespondenz räumt auf mit der Behauptung von Ji et al, dass „sich das globale Klima im vorigen Jahrhundert in einem beispiellosen Ausmaß erwärmt habe, ebenso wie mit der Zuverlässigkeit der HadCRUT-Datenbasis für die Bestimmung globaler Temperaturtrends der letzten 164 Jahre. Den Autoren zufolge können Schlussfolgerungen hinsichtlich der globalen Temperaturänderung vor den fünfziger Jahren nicht zuverlässig gezogen werden, und zwar wegen unzureichender räumlich-zeitlicher Auflösung vor dieser Zeit. Trends, die mit den frühen HadCRUT-Daten berechnet worden sind, sind „bedeutungslos“ und „künstlich geglättet“.

(Anmerkung der Redaktion:

Zu diesem Schuss kommt auch eine Studie unseres Autors M. Limburg (hier)
Genauso ist daher das „Frisieren“ aller Klimamodelle auf der Grundlage der „bedeutungslosen“ globalen Temperaturtrends vor den fünfziger Jahren ebenso „bedeutungsloser“ GIGO. [GIGO = Garbage In, Garbage Out]

Die Autoren schreiben:

Ji et al präsentieren ein Verfahren, um globale räumlich-zeitliche Verteilungen der Temperaturänderungen zu analysieren (mit Ausnahme der Antarktis). Dabei verwenden sie mittlere monatliche Temperaturwerte aus der aktualisierten hoch aufgelösten Klima-Datenbasis der Climate Research Unit CRU. Ihre Analyse zieht jedoch viele Schlüssel-Charakteristiken der CRU-Datenbasis nicht in Betracht, was die Schlussfolgerungen hinsichtlich der räumlich-zeitlichen Verteilung der globalen Erwärmung im 20. Jahrhundert schwer kompromittiert.

Als Konsequenz ist die zeitliche Auto-Korrelation solcher Zeitreihen künstlich hoch, und die klimatische Variabilität, die sie für die ersten Dekaden der Aufzeichnung darstellen, ist bedeutungslos.

…zeigt in hohem Maße, dass das Fehlen eines Trends während der ersten Hälfte des 20. Jahrhunderts in vielen tropischen und arktischen Gebieten dem Fehlen klimatischer Informationen und der daraus resultierenden geglätteten Zeitreihe zugeordnet werden kann…
…wir zeigen, dass die von Ji et al. gezeigten räumlich-zeitlichen Temperaturverteilungen stark verunreinigt sind durch die räumlichen und zeitlichen Ungleichartigkeiten der CRU-Datenbasis.
…dieses Problem betrifft die gesamte Analyse.
Künstlich geglättete Trends Anfang des 20. Jahrhunderts zeigen geringere Erwärmungstrends als in der zweiten Hälfte des 20.Jahrhunderts beobachtet (das heißt, es wird eine falsche Beschleunigung vorgespiegelt).
Falls das Ziel die globale Abdeckung ist, sollte die optimale Zeitperiode nicht vor den fünfziger Jahren beginnen, obwohl dies die Behauptung der Autoren kompromittiert, langfristige Trends zu zeigen“.
Hinweis des Übersetzers: Im Original folgen jetzt Auszüge aus dem Artikel bei Nature Climate Change, gefolgt von zwei Beiträgen von StevenGoddard wordpress.com. Darin werden die Probleme, die die Autoren dieses Beitrags in den HadCRUT-Aufzeichnungen entdeckt haben, illustriert. Dabei geht es beispielsweise um die merkwürdige Extrapolation von Phil Jones und HadCRUT eines einzelnen Thermometers in Tansania zu Beginn der HadCRUT-Reihe im Jahre 1850. Diese Werte sollten die gesamte südliche Hemisphäre repräsentieren, und das mit einer Präzision von einem Hunderstel Grad!
Link: http://hockeyschtick.blogspot.de/2014/09/new-paper-finds-global-temperature-data.html
Übersetzt von Chris Frey EIKE




Die nächste Schiefer-Revolution: Tiefkühl-Fracking

Bild rechts: Flüssiger Stickstoff wird als Fracking-Fluid getestet
Sogar wenn Umweltaktivisten Bemühungen wiederaufleben lassen, hydraulisches Brechen in dem US-Bundesstaat zu untersagen, arbeiten Petroleum-Ingenieure in Colorado daran, die Schwierigkeiten eines Prozesses zu überwinden, den man Tiefkühl-Fracking [cryogenic fracturing] nennt. Dabei wird Wasser durch extrem kalten flüssigen Stickstoff oder flüssiges Kohlendioxid ersetzt.
Das Fracking mit Wasser hat die USA zu einem der größten Energieerzeuger weltweit gemacht.
Wissenschaftler an der Colorado School of Mines in Golden hoffen, dass die ultrakalten thermalen Schocks, zu denen es kommt, wenn der flüssige Stickstoff mit Schiefergestein in Kontakt kommt, die gleichen Auswirkungen wie Wasser hat, nämlich genug Spannung im Gestein zu erzeugen, die unterirdischen Speicher von Öl und Gas zu sprengen.
Abstand nehmen von Wasser würde einiges der Umweltopposition zu Fracking beruhigen. Und weil der flüssige Stickstoff im Untergrund verdunstet, könnte Tiefkühl-Fracking größere Kanäle für Öl und Gas öffnen als Fracking auf Wasserbasis. Die Öl- und Gaserzeugung würde damit erheblich gesteigert.
„Im Wesentlichen absorbieren einige Schieferformationen sehr schnell Wasser, und die gesamte Formation schwillt an und schließt irgendwelche Kanäle“, sagte Kent Perry, Vizepräsident für Onshore-Programme bei der Research Partnership to Secure Energy for America. Diese Institution hat einen 2,6 Millionen schweren Vertrag mit dem Energieministerium für das Projekt geschlossen. „Wenn man Wasser in Schieferformationen verwendet, ist die Erholung selbst bei einer erfolgreichen Entwicklung immer noch niedrig, und das Einfangen von Wasser ist ein Teil davon“.
Drastischer Unterschied
Im Grunde funktioniert Fracking wie heißes Wasser, das man auf eine gefrorene Windschutzscheibe gießt. Es kommt zu einem scharfen Temperaturkontrast, bei dem das Glas zerspringt.
In der Praxis würden flüssiger Stickstoff oder flüssiges Kohlendioxid durch Rohre aus Stahl oder Fiberglas als Fracking-Flüssigkeit in den Untergrund gepumpt, und zwar an Stelle von Wasser, dass üblicherweise im Untergrund zusammen mit Chemikalien und Sand oder künstlichen Beimengungen den gefrackten Fels offenhalten soll.
Full story
Link: http://www.thegwpf.com/the-next-shale-revolution-cryogenic-fracturing/
Übersetzt von Chris Frey EIKE
Hinweis des Übersetzers: Bei Science Skeptical ist hier ein ausgezeichneter Artikel erschienen, in dem begründet wird, warum der Schiefer-Boom nicht so schnell zu Ende gehen dürfte. Die hier beschriebene ganz neue Technik wird sicher ein Übriges tun!




FAZ: Bauchlandung für die Klimavorhersagen: El Nino flaut früh ab, kein Super-Klimachaos

Starke El-Niño-Ereignisse im tropischen Pazifik können weltweit das Wetter durcheinander bringen – und die Börsen. Viele Anzeichen deuten immer deutlicher darauf hin, dass noch in diesem Sommer oder Herbst ein El Niño eintreten wird. Als Erste vorhergesagt haben dies deutsche Wissenschaftler – schon im September 2013.“
In der kalten Sonne vom am 1. August 2014 mussten wir Rahmstorfs Erwartungen dann aber leider dämpfen (siehe “Australisches Meteorologisches Institut sieht geringe Chancen für El Nino in 2014“). Zehn Tage später stand es dann auch in der FAZ:
El Nino flaut früh ab – Kein Super-Klimachaos
Bauchlandung für die Klimavorhersagen:
Vor wenigen Wochen hatten die Experten noch einen der stärksten El Ninos der letzten Jahre mit globalen Folgen prognostiziert. Jetzt macht sich das Klimaphänomen im Pazifik offenbar voreilig dünne. […] In der Prognose des amerikanischen Wetterdienstes und Klima- und Ozeanforschungszentrums NOAA von Ende vergangener Woche heißt es jetzt im monatlichen Bulletin: Die von den Bojen gemessenen Temperaturen hätten sich beinahe wieder normalisiert, „das Fehlen kohärenter atmosphärischer El-Nino-Muster und die Rückkehr zu durchschnittlichen Oberflächenwasser-Temperaturen im Zentralpazifik spricht für neutrale El-Nino-Bedingungen“.
Der Jahrgang 2014 will den Freunden des IPCC-Alarmgedankens einfach keine Freude bereiten…
———————————–
Im Juli 2014 erschien im Blog von Warren Business Consulting ein Beitrag zum Klimawandel von Sebastian Lüning. In einem ausgezeichneten Kommentar zum Artikel schreibt Keith Martin:
Ich bin froh, dass hier andere Meinungen zu Wort kommen. Dr. Lüning zum Beispiel ist ein bekannter Skeptiker, und die Ausgewogenheit in Gestalt verschiedener Standpunkte schafft Perspektiven. Sie zeigt auch, dass die Debatte im Gegensatz zum herrschenden Dogma alles andere als vorbei ist. Es gibt keinen Konsens hinsichtlich der relativen Stärke eines CO2-getriebenen Klimawandels und der natürlichen Variabilität. Außerdem gab es in der Wissenschaft noch nie Fortschritte, wenn diese einem Konsens gefolgt ist. Das gilt für die Gravitationstheorie von Newton, die Relativitätstheorie von Einstein oder die Plattentektonik. Im letzten Fall lautete der Konsens in den fünfziger Jahren, dass die Kontinente fest seien. Die Protagonisten hatten sogar bis kurz vor seinem Tod 1955 Einstein auf ihrer Seite. Natürlich wurde dies widerlegt durch die Theorie der Plattentektonik und deren Bestätigung durch das GPS-System.
Dies hier soll eine konstruktive Kritik sein. Ich war enttäuscht über die Warren-Befragung. M. E. waren die Fragen zu simplizistisch. Fast alle Skeptiker stimmen wie auch die Warmisten der Ansicht zu, dass CO2 ein Treibhausgas ist. Fast alle stimmen zu, dass die Menschheit eine gewisse Auswirkung hat. Aber nichts davon ist der Punkt, um den es hier geht. Das wirkliche Thema ist das Verhältnis einer CO2-getriebenen Klimaänderung zur natürlichen Variabilität. Außerdem ging es in der Befragung darum, wie es mit der Politik zum Umgang mit der Klimaänderung aussieht. Offensichtlich basieren derartige Fragen auf der Annahme, dass a)die Größenordnung des CO2 als Klimatreiber ein Problem ist, b)wir in der Lage sind die Änderung zu beeinflussen und c), selbst wenn a) und b) zutreffend wären, dass es sich ökonomisch rechnet, den Versuch einer Beeinflussung zu machen. Aus diesen Gründen habe ich dieses Jahr die Befragung nicht ausgefüllt. Das IPCC hat Politiker und die Main Stream Medien davon überzeugt, dass es hier ein Problem gibt. In seinem Bericht vom Oktober 2013 erwähnt das IPCC zwar den Trend zum Eisrückgang in der Arktis, sagt jedoch nichts zu dem Zuwachs in der Antarktis (was in direktem Gegensatz zu ihren Modellen steht). Hierbei sollte man nicht übersehen, dass das Meereis um die Antarktis in diesem Monat das höchste, jemals in der Satelliten-Ära beobachtete Niveau erreicht hat. Das IPCC erwähnt die abnehmende Schneebedeckung auf der Nordhemisphäre im Frühjahr, sagt aber nichts zu der zunehmenden Schneebedeckung im Herbst und Winter.
100% der vom IPCC benutzten Modelle zeigen zunehmende Temperaturen seit den achtziger Jahren, was sich auch in den zehner und zwanziger Jahren dieses Jahrhunderts fortsetzen soll. Die Realität dagegen zeigt, dass sich die Temperaturen seit 12 bzw. 17,7 Jahren nicht mehr verändert haben (abhängig davon, welchen Datensatz man benutzt). Dies impliziert, dass der sogenannte „97%-Konsens“ irrelevant ist angesichts der Tatsache, dass 100% der Klimamodelle falsch sind. Der USHN-Temperaturdatensatz zeigt nur dann eine Temperaturzunahme, wenn Adjustierungen vorgenommen worden sind. Die Rohdaten zeigen ein anderes Bild. Diese Adjustierungen werden nach wie vor angebracht. Sicher bedürfen der wirkliche Effekt der Beobachtungszeit, Auffüllung und Rasterung einer sorgfältigen Begutachtung. Tidenmessungen zeigen, dass der Meeresspiegel um 1,6 mm ,,pro Jahr steigt, während die Adjustierungen von Satellitendaten seitens GIA diesen Wert auf eine Zunahme von 3,2 mm pro Jahr hieven. Die Tidenmessungen zeigen keine Beschleunigung der Rate, was impliziert, dass die natürliche Rate der Zunahme seit 1750 wie normal weitergeht. Eine Beschleunigung wäre unabdingbar bei Vorliegen eines anthropogenen Effektes.
Änderungen in historischem und geologischem Maßstab haben den amtlichen Perspektiven den Boden entzogen. Isotopische und geochemische Daten zeigen, dass das CO2-Niveau, die Temperatur und der Meeresspiegel in der Vergangenheit schon höher gelegen haben. Während der letzten 1 Million Jahre hat der Planet durchweg von selbst zwischen Eis- und Warmzeiten hin und her gependelt, und zwar mit Änderungen bis zu einer Größenordnung von 8 bis 10°C. Heutzutage beträgt die Temperaturänderung hinsichtlich einer „globalen Erwärmung“, über die heute diskutiert wird, weniger als 1°C. Mit anderen Worten, eine Änderung um weniger als 10% der bekannten natürlichen Variabilität wird als CAGW gebrandmarkt. Noch verstörender: Änderungen in unserem Energie-Mix und unserer Energiestrategie wurden auf dieser Grundlage bereits durchgeführt.
Hinsichtlich der Politik zeigt Obiges, dass der Fall CAGW alles andere als in trockenen Tüchern ist. Im Gegenteil, immer mehr Beweise (wie oben ausgeführt) zeigen, dass die natürliche Variabilität viel größer ist als CAGW (anderenfalls gäbe es keinen Stillstand der globalen Temperaturen. Wie es so schön heißt, wenn man den Stillstand nicht erklären kann, weiß man auch nichts über die Ursache). Selbst dann noch haben Studien gezeigt, dass CAGW das zukünftige BIP um 2% senken könnte. Aber die politisch getriebenen Maßnahmen zu diesem Thema können zu einer Reduktion des BIP um 4% führen. Es ist eindeutig keine gute Idee, für die Heilung mehr auszugeben als die negative Auswirkung überhaupt kosten würde.
Best wishes,
Keith Martin
Dieser Artikel war zuerst auf der Website „Die Kalte Sonne“ hier erschienen. Übersetzung des Kommentars von Keith Martin von Chris Frey EIKE