Von Korrelationen, Trends und Anomalien!

Dazu gehört die Klärung der Frage: Wie hängen also – wenn überhaupt- Korrelationen mit Trends zusammen? Wie Trends mit Anomalien? Wie Korrelationen mit Anomalien? Und das noch über längere Zeiträume? Zugegeben kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist. 

Was steuert unser Klima? Oder –genauer- was steuert unsere Temperatur? 

Da Klimatologen es oft nicht unter „Weltklima“ machen –dabei es tunlichst unterlassen diesen Begriff zu definieren- muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!
Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2° Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt, täglich mehrmals genau gemessen und dann aus diesen Werten bestimmt werden.
Nun wissen wir aus vielen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Von genauer Messung erst gar nicht zu reden. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern sehr viel schlechter geworden. Zwar behauptet das britische Metoffice[1] ungerührt auf seiner Website:

„Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“.

Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends- ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.

Abbildung 1: Reale Anzahl und Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung. Deren Verteilung in der Vergangenheit sehen Sie hier.
Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Metoffice zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen[2] ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte. 
In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.
In der Zusammenfassung des Aufsatzes steht:

“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“

In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:

“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“

Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. 
Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert  wurde, schaffte man

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung
das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und  hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen GCM´s wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.
Diese Methode wird vom GISS unter seinem Chef James Hansen bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren[4] angemeldet.
So auch jüngst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.

Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen
Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.

Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.
Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und  deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt?
Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.
wir sehen sie in Abbildung 5
 
Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.
Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:
 
Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen
Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!
Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach [5] folgert daraus:

„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.
In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“
 
Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage
Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).
Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.
Was ergibt sich daraus?
Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffig, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.( http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728)  Denn dort wird so gut wie nirgends gemessen:

Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“

Richtige seriöse Klimaforschung sollte anders aussehen.
Meint
Michael Limburg EIKE, unter Verwendung von Texten von Willis Eschenbach


[1] Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html)…The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.

[2]„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit zweier Datenbestände. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. völlig gleich. Ein negatives Vorzeichen bedeutet Gleichheit, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.

[3] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

[4] Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode

[5] Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728




In Nord NEW BRUNSWICK, Kanada, sind die Windräder eingefroren

Update: 

Umfrage der (britschen) Daily Mail*, ob im Vereinigten Königreich weiterhin in Windenergie investiert werden sollte:

Ja: 39%
Nein: 61 %
Der britische Mainstream ist offensichtlich besser informiert über den tatsächlichen Nutzen (und die Kosten!) der Windkraft als die Deutschen.

GDF SUEZ Energy, die Firma, der die Anlage gehört und die sie betreibt, arbeitet daran, die Windräder wieder in Gang zu setzen, sagte eine Sprecherin des Unternehmens. "Das Wetter können wir nicht machen," sagte Julie Vitek in einem Interview am Firmensitz in Houston, Texas. "Wir bemühen uns, besser damit umzugehen und probieren Einiges aus." Die Wetterbedingungen in Nord NEW BRUNSWICK hätten in diesem Winter verheerende Schäden  in den Windfarmen angerichtet. "Kaltes und trockenes Wetter, wie es normalerweise in jener Region vorherrscht, ist für uns gut. Kaltes und feuchtes Wetter kann problematisch werden, wenn keine wärmeren Tage mit Tauwetter dazwischen sind, wie es in diesem Jahr der Fall war. Diese Wetterlage war eine besondere Herausforderung.
Das Wetter hatte die Anlage auch im vergangenen Winter zeitweilig stillgelegt, nur wenige Monate nach Fertigstellung. Mehrere bis zu allen Turbinen waren für einige Tage wegen besonders schwerer Vereisung abgeschaltet.
Die Vereisung verändert die Aerodynamik der Rotoren und macht sie unwirksam. Zusätzlich führt erhöhtes Gewicht zur Stilllegung.
Die Arbeiter würden nun versuchen, den Eisansatz zukünftig zu verhindern, sagte Vitek. Die Abschaltung hatte keine Auswirkung auf die Beschäftigung in der Anlage. Dort sind 12 feste Dauerarbeitsplätze.
Suez hatte im Februar 2008  einen Vertrag erhalten, um eine Windfarm mit 33 Turbinen auf dem CARIBOU MOUNTAIN zu errichten. NB POWER hat sich vertraglich verpflichtet, 20 Jahre lang die 99 Megawatt Energieerzeugungskapazität abzukaufen. Die Anlage ist im November 2009 in Betrieb gegangen.
Seinerzeit wurde das Projekt dafür gelobt, dass NB POWER im Jahre 2010 sein Ziel einer Windenergiekapaziät von 400 Megawatt erreichen könnte. Die Anlage kann 19 000 Haushalte versorgen.
Melissa Morton, Sprecherin von NB POWER, sagte, der Vertrag würde keine periodenbezogenen Lieferungen vorsehen, stattdessen eine jährliche Menge. "Es gibt Zeiten, wo die Erzeugung geringer ist als erwartet und Zeiten, wo sie höher ist", sagte sie. "Wir zahlen nur für die Energie, die in unser Übertragungsnetz geht. Aber weil sich die Preise am Energiemarkt ständig ändern, haben wir keine Möglichkeit zu erkennen, ob NB POWER viel oder wenig für die Ersatzenergie bezahlt."
"Es kann teurer, kann aber auch billiger sein," sagte sie, aber die Schwankungen in der Erzeugung aus anderen Anlagen könnte das wettmachen. "Wir hoffen, dass es sich über eine 12-Monats-Periode ausgleicht. Das war schon immer so."
Trotz der Probleme mit aufeinanderfolgenden Wintern macht sich NB POWER keine Sorgen wegen der Verläßlichkeit der Versorgung vom CARIBOU MOUNTAIN.
Die Webseite von SUEZ behauptet, dass die Windfarmen jährlich mit etwa 35 Prozent ihrer Kapazität Strom erzeugen, darin wären auch tägliche und jahreszeitliche Schwankungen des Windes berücksichtigt.
David Coon, Geschäftsführer des CONSERVATION COUNCIL von NEW BRUNSWICK, sagte, dass der Winter stärkere Winde in die Provinz brächte, und das würde die Strom-Produktion der Windfarmen erhöhen. Die Probleme mit CARIBOU MOUNTAIN wären überraschend, weil andere Projekte in kalten Klimagegenden keine Schwierigkeiten hätten. "Ich weiss nicht, warum," sagte er, "es gibt viel mehr Windfarmen im Norden von uns in QUEBEC, und ich kann nicht verstehen, warum man Probleme hat."
NB POWER hat auch Verträge zur Stromlieferung von anderen Windfarmen in der Region.
Eine Windfarm der TRANSALTA im Süden von MONCTON hat 18 Turbinen und ist damit die größte Windfarm in ATLANTIC CANADA.
NB POWER hat auch Verträge zur Lieferung von Strom aus dem ACCIONA Windprojekt in LAMÈQUE und einen Vertrag mit einer weiteren SUEZ Windfarm auf der PRINCE EDWARD Insel. Auf der Insel betreibt SUEZ eine zweite Windfarm. SUEZ hat auch Einrichtungen in Mittel- und Südamerika und in Europa.
Von Greg Weston, Telegraph-Journal, 15. 2. 2011
Übersetzt von Helmut Jäger EIKE
Weiterführender Link. Windkraftanlagen liefern nicht bei Kälte
 * Mit Dank an – Wattenpresse – Infodienst des Wattenrates Ost-Friesland 
         




Klimaforscher Eric Steig von RealClimate beerdigt den Peer-Review Prozess endgültig

Wenn Sie nicht merken, was faul mit dieser E-Mail ist, dann machen Sie sich keine Gedanken, Sie sind in guter Gesellschaft. Unter den vielen Koryphäen, die hier nichts merken, befindet sich der Umwelt-Aktivist und Filmemacher Rupert Murray, der Mathematiker-Promi Simon Singh, der berühmte Nobelpreisträger Sir Paul Nurse und der gefeierte Guardian Doktor Ben Goldacre, um nur vier zu nennen. Jedem von ihnen habe ich zu erklären versucht, warum die Korrumpierung der Fachbegutachtung der Punkt ist, auf den es vor allem anderen bei den Klimagate E-Mails ankommt. Leider wollte keiner verstehen.

Ist das nicht zum Verzweifeln?

Ich muss noch eins draufsetzen. In meinem demächst erscheinenden Buch “Watermelons” erkläre ich die “Fachbegutachtung” (Peer review) wie folgt:

Die Fachbegutachtung ist die Probe, welcher der größte Teil der Forschung sich unterziehen und in welcher er bestehen muss  Wenn Forschungsergebnisse von der Wissenschaft ernstgenommen werden sollen, dann müssen sie zur Veröffentlichung in einer recht kleinen Anzahl von akademischen oder quasi-akademischen Journalen angenommen werden, z. B. von Nature, Science, Scientific American.
Die Fachbegutachtung ist kein fehlerloses System. In der Blütezeit der Wissenschaft im 20. Jh. wurde sie noch nicht einmal für notwendig gehalten: weder Watson & Crick noch Einstein ließen sich „fachbegutachten“. In der heutigen undurchsichtigen, zerfledderten Welt aber, wo viele wissenschaftliche Fächer immer unverständlicher und spezialisierter geworden sind, gilt die Fachbegutachtung als die Methode mit den wenigsten Fehlern zur Trennung echter Wissenschaft von Pseudowissenschaft.
Das gilt ganz besonders in der Gemeinde der Klimatologen. Im Vorfeld von Klimagate war eine der Hauptwaffen der Jünger des  “Konsensus” gegen abweichende Wissenschaftler, dass deren zahlreiche Papiere, die Löcher in die AGW-Therie rissen, nicht “fachbegutachtet” und deshalb falsch wären. Wie Phil Jones selbst in einer seiner E-Mails sagte:
“Die Fachbegutachtung ist das eigene System der Wissenschaft zu ihrem Schutz und zur Verhinderung, dass Pseudowissenschaft veröffentlicht wird.”

Das ist doch ganz klar, nicht wahr? Also schauen wir uns mal den Jones/Mann-Gedankenaustausch vor dem Hintergrund dieses Wissens an. Was wir dabei feststellen ist der Niedergang der „Fachbegutachtung“ in etwas, was mehr einer „Kumpelbegutachtung“ ähnelt. Der “Fachbegutachtungs“-prozess wurde korrumpiert – zumindest im heruntergekommenen Fach Klimatologie. Man kann sich nicht mehr darauf verlassen, dass er die Richtung weist zum Wahren oder zum Falschen, zum Richtigen oder zum Unrichtigen, zum Korrekten oder zum Unkorrekten, zum Plausiblen oder zum Nicht-Plausiblen. Und das alles, weil die an den Hebeln des Fachbegutachtungsverfahrens sitzenden Wissenschaftler einen Selbstbedienungsladen betreiben – das haben die Klimagate E-Mails enthüllt –  Wissenschaftler, die mehr an ihren eigenen privaten Interessen interessiert sind als an der objektiven Wahrheit.
Soweit einverstanden? In Ordnung. Dann können wir uns ja einer unglaublich komplizierten Geschichte zuwenden, die derzeit mächtig für Aufregung sorgt bei Watts Up With That?, Climate Audit und Bishop Hill. Einige meinen, dass diese Geschichte genauso viel Schaden für die Klimatologie anrichtet, wie es Klimagate für den „Konsens“ getan hat. Es geht um zwei Leute, deren Namen Sie vermutlich nie gehört haben – Eric Steig und Ryan O’Donnell. (Details dazu hier) 
Eric Steig gehört zu Michael Manns “Hockey Team” – der Gruppe von Wärme-Aposteln, die eine Webseite namens Real Climate betreiben, die ursprünglich gegen McIntyre and McKitrick gerichtet war und deren Behauptung, dass etwas mit Manns Hockey Stick nicht in Ordnung war. Nun dient Real Climate generell der Aufrechterhaltung der Behauptung von der Klimaerwärmung.
Im Jahre 2009 veröffentlichten Steig et al. ein Papier, das für so wichtig gehalten wurde, dass es in Nature zu einer Titelgeschichte wurde. Das Papier wollte eines der Hauptargumente der Skeptiker gegen die globale Erwärmung widerlegen. Dieses lautet: “Wenn der Klimawandel wirklich so katastrophal und universell ist, wie behauptet wird, warum bleibt es dann auf Antarktika seit 30 Jahren fortwährend kalt?“ Steigs Papier bewies das Gegenteil: auch Antarktika erwärme sich.
Oder doch nicht? Unter den Skeptikern, die die Verläßlichkeit von Steigs Papier anzweifelten, war Jeff Id (von der später untergegangenen Air Vent Webseite) und Ryan O’Donnell. Sie zeigten, dass die zum Beweis der Erwärmung benutzten statistischen Methoden auf höchst zweifelhaften Extrapolationen von Datenreihen beruhten, die von einer kleinen Anzahl von Stationen auf der Antarktischen Landzunge und der Küste stammten. (So etwas Ähnliches hat sich auch kürzlich ereignet, als die NASA dramatische “Erwärmung” in der Arktis meldete – und das lustigerweise dort, wo es keine Thermometer gab, um die Verläßlichkeit der NASA-Behauptungen zu überprüfen.)
Steig schlug anstelle einer Diskussion auf der Webseite von O’Donnell vor, Id et al. sollten doch ein fachbegutachtetes Papier veröffentlichen. Das wurde dann auch tatsächlich versucht. Dreimal dürfen Sie raten, wer für die Fachbegutachtung des Papiers von O’Donnell et al. ausgewählt wurde. Raten Sie, wer sich unter dem Pseudonym Reviewer A verbarg – und wer mit 88 Seiten Bemerkungen und Vernebelungen (mehr als das Papier umfaßte) – verhindern wollte, dass das Papier zur Veröffentlichung kam.
Ja. Sie haben’s erraten. Der geheimnisvolle Fachbegutachter war niemand anders als Eric Steig selbst. Das war sogar in der monströs korrupten Welt der “Klimatologie” ganz klar ein Regelverstoß. In keiner anderen wissenschaftlichen Disziplin würde ein Gutachter mit einem derart offensichtlichen Interessenkonflikt zur Revision eines Papiers aufgefordert werden, dessen Hauptzweck die Kritik an einem seiner eigenen Papiere ist.
Lassen wir nun einen gewissen Iapogus zu Wort kommen (ein Kommentator bei Bishop Hill, von dem ich diese Zusammenfassung abgekupfert habe):

Ryan [O’Donnell] vermutete von Anfang an, dass Steig selbst der Reviewer A war. Aber er hielt still. An einer Stelle im Begutachungsprozess schlug Steig vor, dass Ryan und Jeff [Id] eine andere statistische Technik anwenden sollten, was sie auch taten. Doch dann kritisierte Steig das Papier, indem er als Beispiel genau diese statistische Technik anprangerte (die er selbst vorgeschlagen hatte). Steig setzte sich somit selbst dem Vorwurf unprofessionellen Verhaltens aus, ein falsches Spiel betrieben zu haben. Das war’s, was Ryan dazu brachte, alles an die Öffentlichkeit zu bringen. Zwischenzeitlich zogen Gavin und die anderen Teammitglieder auf dem Real Climate (RC) Blog alle Register und unterdrückten jeglichen Kommentar, der auch nur irgendeine Frage zu diesen Vorgängen stellte. Das war nun der gründliche Beweis, dass die Fachbegutachtung in der KLimatologie kaputt ist.

Sie könnten jetzt sagen, dass ich derartige Geschichten nicht schreiben sollte. Das wären doch Haarspaltereien, die in der Klimatologen-Gemeinde (bestehend aus Warmisten und Skeptikern) ungeheuer wichtig sein mögen, in der wirklichen Welt aber kaum jemanden interessierten.
Bis zu einem gewissen Grade gebe ich Ihnen Recht. Die Klimawandeldiskussion – wie ich immer wieder in diesem Blog sage – ist im Wesentlichen eine politische und keine wissenschaftliche.
Unglücklicherweise gibt es in der wirklichen Welt viele Menschen – die Simon Singhs, die Sir Paul Nurses, die Ben Goldacres, die Robin Inces und ihre wachsame Twitter-Meute, die das anders sehen.
Es ist wichtig, diese Menschen zur Einsicht zu bringen, dass es nicht nur keine vernünftigen politischen oder wirtschaftlichen Gründe für ihre Ansichten gibt, sondern dass es auch mit den wenigen wissenschaftlichen Gründen ein Ende hat. Wenn die wissenschaftliche Erkenntnis zur Aufrechterhaltung der AGW-Theorie wirklich so steinhart ist, wie die Warmisten behaupten, warum, zum Teufel, brauchen sie dann diese Art von Korrumpierung und schmutzigen Tricks, die wir seit Klimagate kennen und die wir nun wieder bei RealClimategate feststellen müssen?

Gebt doch endlich auf, Leute, das Spiel ist aus.

PS: Noch was. Unzweifelhaft das Beste, was je dem gewissermaßen zweifelhaften und zweitrangigen Fach der Klimatologie passieren konnte, ist die Watts Up With That? Webseite. Unter ihren vielen Verdiensten ist das Aufzeigen eines Rettungsweges aus dem Disaster mit der Fachbegutachtung (peer review) nicht das kleinste. Die Zukunft gehört der kollegialen Begutachtung (“peer to peer” review), wie sie bei WUWT beispielhaft stattfindet. Dort ist ein Forum für Experten aus allen wissenschaftlichen Disziplinen entstanden, um viele Aspekte der Klimatologie rigoros zu begutachten und ohne die groteske Voreingenommenheit, die wir so häufig bei den Vertretern des „Konsens“ im IPCC bemerken konnten. Zu Recht ist WUWT zur Prämierung bei Best Science Blog in the 2011 Bloggies Awards eingereicht worden. Bitte unterstützen Sie die Wahl, geben Sie ihre Stimme frühzeitig ab, auch mehrfach!
James Delingpole Politics am 8. 2. 2011 Den Originalartikel finden Sie hier
Übersetzt von  Helmut Jäger EIKE
Anmerkung der Redaktion:
Einige der Kommentatoren erregen sich über die Aussage von James Dellingpole dass Steig´s "Review" 88 Seiten umfasste, dies aber nicht wahr wäre. Es wären nur so um die zwanzig gewesen. Interessanterweise sind dies dieselben Leute, die, in der Hoffnung jeweils vom eigentlichen Skandal ablenken zu können,  alles und  jedes Statement hier 2 x umdrehen, um einen Komma oder Rechenfehler zu finden, um sich dann aufzublasend sagend :"Seht her, das stimmt alles nicht!" Das ist best bekannte Praxis von politisierten Leuten denen es allein um Störung und Ablenkung geht.
Der eigentliche Skandal um den es hier geht ist aber: Dass Eric Steig von Nature zum anonymen Reviewer gemacht wurde. Und dass er diese Aufgabe übernahm. Weitere Infos dazu hier
Weiterführender Link: http://wattsupwiththat.com/2011/02/17/the-spectator-on-the-antarctic-ice-capades/
Auch der andere Versuch eines Kommentators diesen schweren Verstoß gegen gute wissenschaftliche Praxis zu entschuldigen, indem man die Einladung McIntyres als Peer Reviewer  zu Amman & Wahls Arbeit zur Verteidigung des Hockeysticks im Journal "Climate Change" mit der Berufung Steigs gleichsetzt, geht ins Leere, weil Amman & Wahl zwar in diesem Aufsatz McIntyre (und McKitrick) kritisierten, aber eben nicht über McIntyres Arbeit schrieben, sondern den fehlgeschlagenen Versuch unternahmen, die Hockeystick Methodik von Mann zu verteidigen. 
(s. The Hockey Stick Illusion von A.W. Montford S 205).




Über den solaren Anteil am kurz- und langfristigen Temperaturverhalten nach 1880 auf der regionalen und globalen Klimaskala

Wie in früheren Beiträgen zur BWK ausgeführt, wird das Klimasystem der Erde sowohl von kurz- als auch von langfristigen Prozessen permanent beeinflusst (angetrieben). Der resultierende Antriebsvektor bestimmt in jeder Klimaphase Richtung und Ausmaß des Klimaverhaltens. Zu den kurzzeitigen Einflussfaktoren zählen u. a. die Auswirkungen von Vulkanausbrüchen auf die solare Einstrahlung, die regelmäßigen atmosphärischen Auswirkungen der ENSO-Kaltphasen (La Niña) bzw. ENSO-Warmphasen (El Niño), aber auch Fluktuationen des solaren Energieflusses.
Zu den langfristigen Klimaprozessen zählte in allen Klimaepochen unseres Planeten der solare Klimaantrieb, d.h. die langfristige Änderung des solaren Energieflusses zur Erde. Der Wechsel von Warm- und Kalt-/Eiszeiten während der letzten rund 2 Mio. Jahre ist ein Beleg für den solaren Effekt. Auch wenn der solare Effekt im Glazial bzw. Interglazial andere zeitliche Dimensionen hatte, so ändert das nichts an der Tatsache, dass unser Klima auf allen Zeitskalen von der Sonne fortlaufend beeinflusst wird. 
Bei der folgenden Analyse geht es zum einen um die Frage, welchen Anteil der integrale (direkte und  indirekte) solare Effekt auf der kurzfristigen, quasi-dekadischen Klimasubskala hat, die durch Überlagerung vielfältiger Prozesse eine große Variabilität aufweist. Zum anderen gilt es zu untersuchen, wie hoch der Anteil des solaren Effekts am wahren, langfristigen Klimawandel ist. Die Antwort auf diese Frage wird zugleich klären, wie sicher die Behauptung von der Dominanz des menschlichen (CO2-) Klimaeinflusses auf die Erwärmung im 20.Jahrhundert ist.

Lange und zuverlässige Klimareihen wie in Europa liegen außerhalb von Europa nur begrenzt vor. Viele Klimastationen sind erst im letzten Drittel des 19. Jahrhunderts eingerichtet worden. Aus diesem Grund beginnt die vorliegende Analyse mit dem Sonnenfleckenzyklus ab 1883. Sie erfasst dabei den Zeitraum der globalen Erwärmung bis zum Ende des 20. Jahrhunderts. Seither fehlt nach den offiziellen Daten ein weiterer globaler Temperaturanstieg. Die Jahresmitteltemperaturen pendeln im letzten Jahrzehnt lediglich im El Niño-/La Niña- Rhythmus leicht auf und ab (Korrelation zu ENSO-Phasen: +0,95).
Lesen Sie den ganzen Beitrag in den Publikationen.
Horst Malberg, Univ.Prof. (A.D.) für Meteorologie und Klimatologie




Wie falsch sind die IPCC Temperaturberechnungen? Gleicht die Bildung von Differenzen (Anomalien) systematische Fehler aus?

aktualisiert am 23.10.18

Die Quelle der ursprünglichen Grafik (hier wird die aktualisierte Version von Juli 2010 gezeigt) ist ein Aufsatz der IPCC Leitautoren Brohan und Jones[1] (hier mit Brohan et al 2006 genannt) indem detailliert beschrieben wird, wie man die unterschiedlichsten Temperaturdaten weltweit zusammenfasst und wie man dabei versucht allfällige Fehler, die diese Daten haben, zu kompensieren. Besonders schwierig ist das mit sog. systematischen Fehlern. Geht eine Uhr z.B. ständig 5 Minuten nach, dann nützt auch ein häufigeres Ablesen der Uhrzeit nicht weiter, die abgelesene Zeit ist immer um 5 Minuten falsch. Erst ein Vergleich mit einer genauen Referenzuhr erlaubt den Fehler zu erkennen und dann – als Korrrektur- von der abgelesenen Zeit einfach 5 Minuten hinzuzählen. Damit wäre der Fehler korrigiert. Diese einfache Methode ist natürlich bei den Temperaturdaten der Vergangenheit so gut wie nie anwendbar. Deswegen versucht man es dort u.a. mit der Bildung von Differenztemperaturen, in der Hoffnung dass sich dadurch die systematischen Fehler gegenseitig zum Verschwinden bringen.

Viele Klimatologen weltweit glauben nämlich fest daran [2], dass, wenn sie für die Trendbestimmung von Temperaturen, Differenzen aus bestimmten Temperatur-Variablen bilden würden, diese Differenzen (Anomalien) von allen systematische Fehlern befreit seien. Ein bekannter IPCC Leitautor gab mir auf Anfrage (wie man denn Seewassertemperaturen mit Lufttemperaturen mischen könne, wo doch beide Medien völlig unterschiedlich auf Wärme reagieren) vor einiger Zeit dazu diesen guten Rat:: „…… Think in ANOMALIES and not absolute temperatures.“ Diesen Rat befolgend, denke ich nun in Anomalien und schaue mir deren Verhalten in den offiziellen Temperaturganglinien an.

Anomalienbildung und Fehlerkorrektur

Das Verfahren der Differenzen- oder Anomalienbildung wird von allen Klimatologen umfassend eingesetzt, um die Trendverläufe stark unterschiedlicher Temperaturgänge vom Äquator bis zu den Polen vergleichbar machen zu können. Nun sind die gemessenen absoluten Temperaturen immer mit zahllosen Fehlern behaftet. Auch die daraus gebildeten  Tages- Monats- oder Jahresmittelwerte enthalten diese Fehler. Und es kommen neue Fehler hinzu, die durch den verwendeten Algorithmus der zur Durchschnittsbildung verwendet wird, entstehen. Näheres dazu hier. Nach der Fehlertheorie unterscheidet man dabei zwischen zufälligen,  groben, und systematischen Fehlern. Für diese Betrachtung sollen uns nur die systematischen Fehler interessieren.

In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahrsmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.

Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[3] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.

Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?

Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast gradlinig, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.

Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!

Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier http://www.anenglishmanscastle.com/HARRY_READ_ME.txt. Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[4])

Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von sehr vielen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht überall bekannt. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.

Michael Limburg EIKE


[1] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[2] Brohan et. al 2006 geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a di?erence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this di?erence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error. Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzwerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter

[3] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[4] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN