Zombie-Wissenschaft: das schlimmste Beispiel der Manipulation von Klimadaten – jemals: der zurückgezogene Beitrag Gergis 2012 wird zu Gergis 2016

Das Wiedererscheinen des Artikels von Gergis im Journal of Climate wurde begleitet von einer unwahren Darstellung zum Zurückziehen der Version aus dem Jahr 2012. Gergis‘ Phantastereien und Fehlinterpretationen riefen übermäßiges Lob von Akademikern und anderen Kommentatoren hervor. Gergis zitierte mich persönlich mit der Aussage aus dem Jahr 2012, dass es „fundamentale Mängel“ in dem Artikel gab – eine Behauptung, die sie (fälschlich) als „unrichtig“ bezeichnete und die ihrer Ansicht nach vermutlich „eine Schmierenkampagne koordinieren sollte, um (ihre) Wissenschaft zu diskreditieren“. Ihre folgenden Schwierigkeiten, den Artikel erneut zu veröffentlichen, wofür sie über vier Jahre brauchten, scheint mir eine so eloquente Bestätigung meiner ursprünglichen Diagnose zu sein wie man nur erwarten kann.

Ich habe einige längere Anmerkungen zu Gergis‘ falschen Statements zu dem Vorfall entworfen, im Besonderen über falsche Behauptungen von Gergis und Karoly, dass die ursprünglichen Autoren den ursprünglichen Fehler unabhängig voneinander entdeckten „zwei Tage“ bevor er bei Climate Audit diagnostiziert worden ist. Diese Behauptungen wurden schon vor vielen Jahren widerlegt in Gestalt von E-Mails, die im Zuge einer Anforderung im Rahmen des FOI herausgegeben werden mussten. Gergis charakterisierte die Anforderungen aus dem FOI als „einen Versuch, Wissenschaftler einzuschüchtern und unsere Bemühungen zu torpedieren, unsere Arbeit zu machen“, aber zu diesen Anforderungen war es nur gekommen infolge der implausiblen Behauptungen von Gergis und Karoly bzgl. Climate Audit.

Obwohl in Gergis et al. 2016 nicht ausdrücklich darauf hingewiesen worden war (um es milde auszudrücken), stellte sich deren Arbeit als identisch mit den australasiatischen Rekonstruktionen in PAGES2K (Nature 2013) heraus, während die Rekonstruktionen selbst nahezu identisch sind. PAGES2K wurde im April 2013 veröffentlicht, und man kann nicht anders als sich zu fragen, warum es über drei Jahre gedauert und es neun Überarbeitungen bedurft hatte, um etwas zu veröffentlichen, das sich so ähnlich ist.

Außerdem war es eine der Erwartungen hinsichtlich des PAGES2K-Programms dass es verfügbare Proxy-Daten identifizieren und ausweiten würde, die die vergangenen zwei Jahrtausende abdecken. In dieser Hinsicht sind Gergis und die AUS2K-Arbeitsgruppe kläglich gescheitert. Das Fehlen jedweder Fortschritte von der AUS2K-Arbeitsgruppe ist sowohl erstaunlich als auch erbärmlich, ein Scheitern, dass in Gergis et al. 2016 nicht erwähnt wird, wo doch in Anspruch genommen wurde, „die regionale Konsolidierung australasiatischer Temperatur-Proxys der AUS2K-Arbeitsgruppe zu evaluieren“.

Trendbereinigtes und nicht trendbereinigtes Sichten [screening]

Die folgende Diskussion über die Datenmanipulation bei Gergis et al. 2016 baut auf meiner ähnlichen Kritik an Datenmanipulationen in PAGES2K auf (hier).

In einer Erwiderung auf damals gerade erfolgte Skandale in Sozialpsychologie hat Wagenmakers (2011 pdf, 2012 pdf) die Skandale in den Zusammenhang mit Akademikern gestellt, die ihre Analyse so frisieren, dass ein „erwünschtes Ergebnis“ herauskommt. Er klassifizierte dies als eine Form von „Datenmanipulation“ [data torture]:

Wir sprechen über eine unbequeme Tatsache, die das Herz der Forschung zu Psychologie an Akademien bedroht: Fast ohne Ausnahme verpflichten sich Psychologen nicht zu einem Verfahren der Datenanalyse, bevor sie die tatsächlichen Daten auf den Tisch bekommen. Die Versuchung ist dann groß, die Analyse einer Feinabstimmung zu unterziehen, um ein erwünschtes Ergebnis zu erhalten – ein Verfahren, dass die Interpretation der allgemeinen statistischen Tests hinfällig macht. Das Ausmaß der Feinabstimmung variiert erheblich bei Experimenten und Experimentierern, aber es ist praktisch unmöglich für Begutachter und Leser, dies aufzudecken…

Einige Forscher erliegen dieser Versuchung leichter als andere, und aus der präsentierten Arbeit geht in keiner Weise hervor, bis zu welchem Ausmaß die Daten manipuliert worden sind, um die berichtete Bestätigung zu erhalten.

Wie ich weiter unten zeigen werde, ist es schwierig, ein noch besseres Beispiel von Datenmanipulation zu finden, wie es von Wagenmakers beschrieben worden ist, als Gergis et al. 2016.

Die Kontroverse um Gergis et al. 2012 entzündete sich um das ex post screening* von Daten, ein bei IPCC-Klimawissenschaftlern sehr populäres Verfahren, aber eines, dass ich seit Jahren scharf kritisiere. Jeff Id und Lucia haben auch etwas Deutliches zu diesem Thema geschrieben (z. B. Lucia hier und im Zusammenhang mit Gergis et al. hier). Ich selbst habe meinen ersten Beitrag zu Gergis et al.2012 am 31. Mai 2012 geschrieben. Eng damit verbundene statistische Dinge tauchen in anderen Bereichen mit anderer Terminologie auf, z. B. Verzerrungen beim Sammeln von Stichproben, Nachbehandlung von Variablen, endogener Bias bei der Auswahl. Das Potential von ex post screening scheint absurd trivial, falls man das Beispiel eines Drogenprozesses betrachtet. Aber aus irgendwelchen Gründen leugnen die IPCC-Klimawissenschaftler den Bias stumpfsinnig immer weiter. (Eine Schwäche ist, dass statistischer Bias von ex post screening nicht automatisch gegenteilige Ergebnisse beweist. Mein Punkt lautet einfach, dass verzerrte Verfahren statistisch nicht durchgeführt werden sollten).

[*Der Terminus ,ex post screening‘ taucht im Folgenden noch öfter auf. Da mir keine vernünftige Übersetzung einfällt, belasse ich es beim Original. Kann jemand einen Vorschlag machen, was gemeint ist? Anm. d. Übers.]

Trotz der öffentlichen Beschränktheit von Klimawissenschaftlern hinsichtlich des Verfahrens hat Karoly kurz nach einer ursprünglichen Kritik an Gergis et al. 2012 privat den Bias erkannt, der verbunden ist mit dem ex post screening, wie aus einer E-Mail an Neukom vom 7. Juni 2012 hervorgeht (FOI K,58):

Falls die Auswahl der Proxys ohne Trendbereinigung erfolgt, d. h. der gesamten Proxy-Aufzeichnungen über das 20.Jahrhundert, dann wird man Aufzeichnungen mit starken Trends wählen, was effektiv zu einem Hockeyschläger-Ergebnis führt. Dann ist die Kritik von Steve McIntyre valid. Ich denke, dass es wirklich wichtig ist, trendbereinigte Proxydaten für die Auswahl heranzuziehen und dann Proxys auszuwählen, die über eine Stichprobenmenge für Korrelationen während des Kalibrierungs-Zeitraumes hinausgehen, entweder für die jährliche oder dekadische Variabilität der trendbereinigten Daten … Die Kritik, dass das Auswahlverfahren zu einem Hockeyschläger-Ergebnis führt, wird valid sein, falls der Trend bei der Auswahl der Proxys nicht außen vor gelassen wird.

Gergis et al. 2012 hatten so getan, als ob sie diesen Bias umgangen hätten mit der Betrachtung trendbereinigter Daten. Sie haben dieses Verfahren sogar beworben als eines, das „die Aufblähung des Korrelations-Koeffizienten umgeht“:

Bei der Auswahl der Prädiktoren wurden Proxy-Klima-Daten als auch instrumentelle Daten linear trendbereinigt über den Zeitraum von 1921 bis 1990, um das Aufblähen des Korrelations-Koeffizienten zu vermeiden, zu der es kommt infolge der Präsenz des Signals der globalen Erwärmung, der sich in den gemessenen Temperaturaufzeichnungen zeigt. Nur Aufzeichnungen, die signifikant (p < 0,05) mit dem trendbereinigten instrumentellen Ziel korrelierten, wurden für die Analyse herangezogen. Dieses Verfahren identifizierte 27 temperatur-sensitive Prädiktoren der warmen Saison von September bis Februar.

Wie inzwischen allgemein bekannt ist, haben sie die behauptete Berechnung tatsächlich nicht durchgeführt. Stattdessen haben sie Korrelations-Koeffizienten mit nicht trendbereinigten Daten durchgeführt. Dieser Fehler wurde zuerst von dem Kommentator Jean S am 5. Juni 2012 bei Climate Audit (CA) angesprochen (hier). Zwei Stunden später (um 2 Uhr nachts Schweizer Zeit) hat Mitautor Raphi Neukom Gergis und Karoly über diesen Fehler informiert (FOI 2G, Seite 77). Obwohl Karoly später (fälschlich) behauptet hatte, dass seine Mitautoren sich der Bedrohung von Climate Audit nicht bewusst waren, zeigen E-Mails, die im Zuge des FOI herausgegeben werden mussten, dass Gergis an seine Mitautoren eine E-Mail gesandt hatte (FOI 2G, Seite 17), in der er auf die Bedrohung bei CA hinwies, dass Karoly selbst an Myles Allen geschrieben hatte (FOI 2K, Seite 11) über Kommentare, die ihm bei dieser Bedrohung zugeordnet wurden und dass Climate Audit und/oder ich selbst in vielen anderen E-Mails erwähnt werden (FOI 2G).

Wenn Korrelations-Koeffizienten nach der beschriebenen Methode neu berechnet werden, kam nur eine Handvoll davon durch die Sichtung, ein Punkt, der von Jean S am 5. Juni bei Climate Audit angesprochen und von mir in einem Beitrag am 6. Juni beschrieben worden war. Meinen Berechnungen zufolge haben nur 6 der 27 Proxys im G12-Netzwerk die trendbereinigte Sichtung passiert. Am 8. Juni (FOI 2G, Seite 112) schrieb Neukom an Karoly und Gergis, dass acht Proxys die trendbereinigte Sichtung passiert hätten (wobei die Differenz zwischen seinen und meinen Ergebnissen vermutlich Unterschieden bei den Algorithmen geschuldet ist). Er sandte ihnen eine Abbildung (gegenwärtig nicht verfügbar), in der die berichtete Rekonstruktion mit der Rekonstruktion nach dem beschriebenen Verfahren verglichen wird:

Die gestrichelte Rekonstruktion verwendet nur 8 von den Proxys, die die trendbereinigte Sichtung passiert hatten. Die durchgezogene Linie ist die ursprüngliche Rekonstruktion.

Leider war diese Abbildung nicht Teil der FOI-Erwiderung. Sie wäre extrem interessant gewesen.

Da immer mehr Menschen online den Fehler bemerkten, beschloss Leitautor Karoly, dass sie das Journal of Nature informieren müssten. Gergis meldete dem Journal am 8. Juni einen „Fehler beim Daten-Processing“, und der Herausgeber hob die Akzeptanz der Studie am nächsten Tag sofort auf, und zwar mit der Feststellung, dass er verstehe, dass sie die Analyse noch einmal durchführen würden, um mit ihrem beschriebenen Verfahren konform zu gehen:

Nach Gesprächen mit dem Chefredakteur über unsere Lage lautet meine Entscheidung, die Akzeptanz Ihres Manuskriptes für die Veröffentlichung aufzuheben. So wie ich es verstehe, werden Sie die Analyse erneut durchführen, um mit ihrer Original-Beschreibung der Auswahl der Prädiktoren konform zu gehen. In diesem Fälle könnten Sie zu einem anderen Ergebnis kommen als im Original-Manuskript. Angesichts dieser Umstände fordere ich Sie auf, das Manuskript zurückzuziehen.

Im Gegensatz zu ihrer kürzlich erschienenen Story bei Conservation versuchte Gergis, die erneute Durchführung der Analyse zu vermeiden. Stattdessen versuchte sie den Herausgeber zu überreden, dass der Fehler rein semantischer Natur war („Irrtum der Worte“) anstatt eines Programmierfehlers, und sie suchte nach Unterstützung der nicht trendbereinigten Sichtung von Michael Mann, der Gergis hinter den Kulissen anfeuerte:

Nur zur Klarstellung – es gab einen Irrtum in den Worten, mit denen das Auswahlverfahren der Proxys beschrieben wurde, und keine Fehler in der Gesamtanalyse, wie es von Amateuren klimaskeptischer Blogger behauptet wurde … Man hat argumentiert, dass trendbereinigte Aufzeichnungen von Proxys, wenn man die Temperatur rekonstruiert, tatsächlich unerwünscht sind.

Die Herausgeber des Journal of Climate ließen sich nicht überreden und forderten Gergis spitz auf, die Differenz zwischen ihrer ersten E-Mail, in der der Fehler als Programmierfehler beschrieben worden war, und ihrer zweiten E-Mail, in der der Fehler als semantisch bezeichnet worden war, aufzuklären:

Ihre jüngste E-Mail an John charakterisiert den Fehler in Ihrem Manuskript als einen der Wortwahl. Aber dies unterscheidet sich von der Charakterisierung in Ihrer ersten E-Mail, in der Sie den Fehler ansprachen. In jener E-Mail (vom 7. Juni) beschrieben Sie es als „einen unglücklichen Fehler beim Daten-Processing“, was Ihre Absicht bekundete, die Daten vom Trend zu bereinigen. Dies würde bedeuten, dass das Problem nicht die Wortwahl war, sondern in der Durchführung des beabsichtigten Verfahrens lag. Würden Sie bitte erklären, warum Ihre beiden E-Mails unterschiedliche Eindrücke von der Natur des Fehlers vermitteln?

Gergis versuchte, von der Frage abzulenken. Sie fuhr fort, das Journal of Climate zu überreden, die Änderung ihrer Beschreibung des Verfahrens zu akzeptieren, war sie doch gegen die Neudurchführung der Analyse nach dem beschriebenen Verfahren. Sie bot lediglich an, die Differenzen in einer Fußnote kurz zu beschreiben:

Die Mail vom 8. Juni war eine rasche Erwiderung, als wir bemerkten, dass es eine Inkonsistenz gab zwischen dem in der Studie beschriebenen Verfahren der Auswahl von Proxys und dem tatsächlichen Verfahren. Die E-Mail wurde überhastet verschickt, da wir Sie so schnell wie möglich informieren wollten, bevor die Studie zum Druck vorbereitet würde. Inzwischen hatten wir jedoch mehr Zeit, uns ausführlich mit Kollegen auszutauschen und die bestehende Literatur zu dem Thema durchzugehen. Es gibt Gründe, warum die Trendbereinigung vor der Proxy-Auswahl ungeeignet sein könnte. Die Unterschiede zwischen den beiden Verfahren werden im Begleitmaterial beschrieben, wie ich in meiner E-Mail vom 14. Juni erklärt habe. Als solche werden die Änderungen im Manuskript vermutlich gering sein, wobei Details der alternativen Proxy-Auswahl im Begleitmaterial umrissen werden.

Der Herausgeber des Journal of Climate widersetzte sich dem, räumte aber Gergis widerstrebend ein kurzes Zeitfenster ein (bis Juli 2012), den Artikel zu überarbeiten, verlangte aber, dass sie direkt die Senistivität der Proy-Auswahl bzgl. der Rekonstruktion ansprechen und die „Robustheit ihrer Schlussfolgerungen zu demonstrieren“ sollte:

In der Überarbeitung fordere ich strikt, dass das Thema Sensitivität der Klima-Rekonstruktion hinsichtlich der Auswahl des Verfahrens zur Proxy-Aufzeichnungen (trendbereinigt oder nicht) angesprochen wird. So wie ich es verstehe, ist dies genau das, was Sie vorhaben, und dies ist eine gute Gelegenheit, die Robustheit Ihrer Schlussfolgerungen zu belegen.

Unter den Umständen war Chiangs Angebot sehr generös. Gergis griff nach dieser Gelegenheit und versprach, am 27. Juli einen überarbeiteten Artikel zu übermitteln, der den Einfluss dieser Entscheidung auf die sich ergebenden Rekonstruktionen zeigte:

Unser Team wäre sehr erfreut, ein überarbeitetes Manuskript einzureichen am oder vor dem 27. Juli 2012 zur Begutachtung. Wie Sie unten gefordert haben, werden wir ausführlich die Proxy-Auswahl ansprechen zu trendbereinigten oder nicht trendbereinigten Daten sowie den Einfluss auf die resultierenden Rekonstruktionen.

Manipulation und Verwässerung der Daten

In der zweiten Hälfte des Jahres 2012 verschrieben sich Gergis und ihre Mitautoren einem bemerkenswerten Programm zur Datenmanipulation mit dem Ziel, ein Netzwerk von 27 Proxys zu retten, während sie immer noch angeblich eine „trendbereinigte“ Sichtung verwendeten. Ihr vermutliches Vorgehen beim ex post screening hatte keine Ähnlichkeit mit der grob vereinfachenden Sichtung von Mann und Jones 2003.

Eines ihrer Kernpunkte bei der Datenmanipulation war es, Proxydaten-Korrelationen nicht einfach mit den Temperaturen im gleichen Jahr zu vergleichen, sondern mit Temperaturen im Vorjahr und im folgenden Jahr.

Um Proxys mit jahreszeitlichem Bezug Rechnung zu tragen zu anderen Jahreszeiten als September bis Februar (d. h. Mittelwerte über das Kalenderjahr) wurden die Vergleiche durchgeführt mittels Verschiebungen von -1, 0 und +1 Jahr für jedes einzelne Proxy.

Hauptsächlich waren hier Baumring-Proxys gemeint. In ihrem Verfahren bedeutete eine Verschiebung um -1 Jahr, dass eine Baumring-Serie ein Jahr früher zugewiesen wird als die Chronologie (+1 Jahr wird ein Jahr später zugeordnet). Für eine Reihe mit einer Verschiebung von -1 Jahr soll also die Ringdicke z. B. im Sommer 1989-90 mit den Sommertemperaturen des Vorjahres korrelieren. Es gibt Präzedenzfälle bzgl. einer Korrelation mit Temperaturen des Vorjahres in speziellen Studien [specialist studies]. Beispielsweise sagen Brookhouse et al. 2008 (Abstract hier), dass die Baumringdaten von Baw Baw (ein Gergis-Proxy) positiv mit Frühjahrstemperaturen des Vorjahres korrelieren. In diesem Falle jedoch ordnete Gergis dieser Reihe eine Null-Verschiebung zu, ebenso wie eine negative Orientierung.

Die Verschiebung um +1 Jahr, wie sie 5 Orten zugeordnet worden ist, ist physikalisch nur sehr schwierig zu interpretieren. Eine solche Verschiebung erfordert (zum Beispiel) Mangawhera-Ringdicken, die dem Sommer 1989-90 zugeordnet sind, mit den Temperaturen des Folgesommers (1990-91) korrelieren – was bedeutet, dass die Dicke der Ringe als ein Prädiktor der Temperatur im nächsten Jahr fungiert. Gergis‘ vermeintliche Rechtfertigung im Text war nichts weiter als Schaumschlägerei, aber den Juroren schien das egal zu sein.

Von den 19 Baumring-Reihen im 51 Reihen umfassenden G16-Netzwerk wurde fünf Reihen eine (unphysikalische) Verschiebung von +1 Jahr, zwei Reihen eine Verschiebung von -1 Jahr und sieben Reihen gar keine Verschiebung zugeordnet. Fünf Reihen wurden aussortiert. Von den sieben Reihen ohne Verschiebung hatten zwei eine inverse Orientierung im PAGES2K. Im Einzelnen gibt es kaum Konsistenz bei Bäumen und Stellen mit der gleichen Spezies. Beispiel: Neuseeland LIBI-Komposit-1 hatte eine +1-Verschiebung, während Neuseeland LIBI-Komposit-2 keine Verschiebung aufwies. Eine andere LIBI-Reihe (Urewara) wird eine inverse Orientierung in der (identischen) PAGES2K-Reihe zugeordnet und folglich vermutlich auch in der CPS-Version von G16. Zwei LIBI-Reihen (Takapari und Flanagan’s Hut) werden in G16 ausgesucht, obwohl Takapari in G12 enthalten war. Weil die Zuordnung von Verschiebungen nichts weiter ist als ein Versuch, das Netzwerk zu retten, ist es unmöglich, den Ergebnissen irgendeine Bedeutung zuzumessen.

[Die Übersetzung des vorstehenden Absatzes war für den Übersetzer ein reiner Blindflug. Weil Fehler in einem solchen Fall kaum zu vermeiden sind, folgt er hier im Original:

Of the 19 tree ring series in the 51-series G16 network, an (unphysical) +1 lag was assigned to five series, a  -1 lag to two series and a 0 lag to seven series, with five series being screened out.  Of the seven series with 0 lag, two had inverse orientation in the PAGES2K. In detail, there is little consistency for trees and sites of the same species. For example, New Zealand LIBI composite-1 had a +1 lag, while New Zealand LIBI composite-2 had 0 lag.  Another LIBI series (Urewara) is assigned an inverse orientation in the (identical) PAGES2K and thus presumably in the CPS version of G16.  Two LIBI series (Takapari and Flanagan’s Hut) are screened out in G16, though Takapari was included in G12.  Because the assignment of lags is nothing more than an ad hoc after-the-fact attempt to rescue the network, it is impossible to assign meaning to the results.

Ende Original.]

Zusätzlich hat sich Gergis auch bei einem Daten-Manipulations-Verfahren von Michael Mann bedient. Mann et al. 2008 waren unzufrieden mit der Anzahl der Proxys, die einen Sichtungstest bestanden hatten, der auf der Grundlage einer lokalen Gitterzelle erfolgt war, ein allgemein verwendetes Kriterium (z. B. Mann and Jones 2003). Stattdessen verglich Mann also Ergebnisse mit den zwei „am nächsten gelegenen Gitterzellen“, pickte die höchste der beiden Korrelationen heraus, jedoch ohne den Signifikanz-Test zu modifizieren, um das „Wähle-Zwei“-Verfahren zu reflektieren. (Eine Diskussion dazu gibt es hier). Anstatt lediglich mit den zwei am nächsten gelegenen Gitterzellen zu vergleichen, weitete Gergis den Vergleich auf alle Gitterzellen aus „innerhalb eines Radius‘ von 500 km um den Ort der Proxys“, ein Verfahren mit erlaubten Vergleichen mit 2 bis 6 Gitterzellen abhängig sowohl von der geogr. Breite und der Nähe des Proxys zur Kante der Gitterzelle:

Wie in Anhang A detailliert ausgeführt, wurden für die weitere Analyse über den Zeitraum 1931 bis 1990 nur Aufzeichnungen ausgewählt, die signifikant mit Temperaturvariationen korrelierten (p < 0,05) in mindestens einer Gitterzelle innerhalb von 500 km um den Ort des Proxys.

Wie im Artikel beschrieben wurden beide Faktoren in den G16-Vergleichen vermischt. Mit der Multiplikation von drei Verschiebungen mit 2 bis 6 Gitterzellen scheint Gergis 6 bis 18 trendbereinigte Vergleiche angestellt zu haben, wobei sie jene Proxys beibehielt, für die eine „statistisch signifikante“ Korrelation bestand. It doesn’t appear that any allowance was made in the benchmark for the multiplicity of tests.* In jedem Falle haben sie es mit diesem „trendbereinigten“ Vergleich fertig gebracht, mit einem Netzwerk von 28 Proxys aufzuwarten, einem mehr als im Netzwerk von Gergis et al. 2012. Die meisten der längeren Proxys sind in beiden Netzwerken die Gleichen mit einer Verschachtelung von etwa sieben kürzeren Proxys. Keine Eisbohrkern-Daten sind im überarbeiteten Netzwerk enthalten und nur eine kurze speläologische Proxy. Es besteht fast ausschließlich aus Baumring- und Korallen-Daten.

[*Ich kapituliere hier. Fachleute wissen sicher, was gemeint ist. Anm. d. Übers.]

Offensichtlich enthielt die ursprüngliche Datenanalyse von Gergis et al. kein verschnörkeltes [baroque] Sichtungs-Verfahren. Es ist klar, dass sie dieses bizarre Sichtungs-Verfahren ausgeheckt haben, um eine Rekonstruktion zu erhalten, die wie die ursprüngliche Rekonstruktion aussah anstatt einer divergenten Version, die sie nicht erwähnt haben. Wer weiß, wie viele Permutationen und Kombinationen und Iterationen getestet worden sind, bevor man zu einem finalen Sichtungs-Verfahren gekommen war.

Es ist unmöglich, ein noch klareres Beispiel von „Datenmanipulation“ zu erhalten (selbst Mann et al. 2008).

Auch werden hierdurch nicht alle Elemente der Datenmanipulation in der Studie offensichtlich, da Manipulations-Verfahren aus Gergis et al.2012 auch in Gergis et al. 2016 zur Anwendung kamen. Mittels originaler und (noch) nicht archivierter Daten hatten Gergis et al. 2012 alle Baumring-Chronologien erneut berechnet mit Ausnahme von zweien. Dabei wendeten sie ein undurchsichtiges, an der University of East Anglia entwickeltes Verfahren an. Die beiden Ausnahmen waren die beiden langen Baumring-Chronologien, die bis ins Mittelalter zurückreichen:

Alle Baumring-Chronologien wurden auf der Grundlage von Roh-Messungen entwickelt mittels des signalfreien Trendbereinigungs-Verfahrens (Melvin et al. 2007; Melvin and Briffa 2008) … Die einzige Ausnahme dieses signalfreien Trendbereinigungs-Verfahrens von Baumringen war das Silver Pine-Baumring-Komposit aus Neuseeland (Oroko Swamp und Ahaura), welches nach 1957 durch Abholzen gestört wurde (D’Arrigo et al., 1998; Cook et al., 2002a; Cook et al., 2006) und die Mount Read Huon Pine-Chronologie aus Tasmanien, welches eine komplexe Ansammlung von Material ist, welches von lebenden Bäumen und sub-fossilem Material stammt. Der Konsistenz mit veröffentlichten Ergebnissen halber verwenden wir die finalen Temperatur-Rekonstruktionen, die von den ursprünglichen Autoren zur Verfügung gestellt worden waren und die störungs-korrigierte Daten für die Silver Pine-Aufzeichnung und die Regional Curve-Standardisierung enthalten für die komplexe Altersstruktur des Holzes, das zur Entwicklung der Mount read-Temperatur-Rekonstruktion verwendet wurde.*

[*Wieder ein Blindflug. Ich verweise auf das Original! Anm. d. Übers.]

Damit erhebt sich die offensichtliche Frage, warum „Konsistenz mit veröffentlichten Ergebnissen“ von so großem Belang ist für Mt Read und Oroko, aber nicht für die anderen Reihen, von denen ebenfalls veröffentlichte Ergebnisse vorliegen. Zum Beispiel zeigen Allen et al. 2001 die Chronologie links in Blue Tier, während Gergis et al. 2016 die Chronologie rechts verwendeten als Kombination von Blue Tier und einer benachbarten Stelle. Mittels der Verfahren von East Anglia zeigt die Chronologie eine scharfe Zunahme im 20.Jahrhundert, und „Konsistenz“ mit den Ergebnissen von Allen et al. 2001 machte den Autoren keine Bedenken. Man vermutet, dass Gergis et al. ähnliche Berechnungen für Mount Read und Oroko durchgeführt haben, sich aber entschlossen haben, diese nicht zu verwenden. Man kommt kaum umhin sich zu fragen, ob die aussortierten Berechnungen die erwünschte Story vielleicht nicht gestützt haben.

Dies ist auch nicht die einzige Ad-Hoc-Auswahl, welche diese beiden wichtigen Proxys involviert. Gergis et al. sagten, dass ihr Proxy-Bestand eine Untermenge von 62 Reihen war, entnommen dem Bestand von Neukom und Gergis 2011. (Es war mir nicht möglich, diese Zahl abzugleichen, und Gergis et al. 2016 geben keine solche Liste). Dann sortierten sie Reihen aus, die „zur Zeit der Analyse noch im Entwicklungsstadium waren“ (obwohl sie an einer anderen Stelle sagen, dass der Datensatz ab Juli 2011 eingefroren war wegen der „Komplexität der extensiven mehrdimensionalen Analyse“).

Von den sich daraus ergebenden 62 Reihen sortieren wir außerdem Reihen aus, die sich zur Zeit der Analyse noch in der Entwicklung befanden … und Reihen mit einem in der Literatur identifizierten Mangel oder durch persönliche Kommunikation.

Allerdings war die Anwendung dieses Kriteriums inkonsistent. Gergis et al. räumen ein, dass die Oroko-Stelle nach 1957 von einer „Störung durch Holzeinschlag“ betroffen war – ein eindeutiges Beispiel für einen „in der Literatur identifizierten Mangel“. Die Daten wurden aber trotzdem verwendet. In einigen populären Oroko-Versionen (bei Climate Audit gibt es dazu eine Diskussion hier) wurden Proxy-Daten nach 1957 sogar ersetzt durch instrumentelle Daten. Gergis et al. 2016 fügten eine Diskussion dieses Problems hinzu, taten jedoch die Einfügung von instrumentellen Daten in die Proxy-Reihe als belanglos ab:

Man beachte, dass die instrumentellen Daten, die den von Störungen betroffenen Zeitraum seit 1957 in der Baumring-Aufzeichnung von Silver Pine (Oroko) ersetzen, die Sichtung der Proxys beeinflusst haben können, ebenso wie die Kalibrierungs-Verfahren in diesem Zeitraum. Angesichts dessen jedoch, dass unsere Rekonstruktionen zu Beginn des Verifikations-Intervall Qualität [skill] zeigen, also außerhalb des Zeitraumes mit den Störungen, und dass unsere Unsicherheits-Schätzungen das Proxy-Resampling einschließen, argumentieren wir, dass diese Unregelmäßigkeit in der Silver Pine-Reihe unsere Schlussfolgerungen nicht verzerrt.

Es gibt eine Art von Blindekuh-Spiel in Gergis‘ Analyse an dieser Stelle. Es sieht für mich so aus, als ob G16 eine Oroko-Version enthalten könnte, die nicht mit instrumentellen Daten versetzt ist. Weil jedoch niemals Messdaten für Oroko archiviert worden waren und eine Schlüsselversion nur als Bestandteil eine Klimagate-E-Mail bekannt geworden ist, ist es schwierig, solche Details zu erkennen.

Schlussfolgerungen

Gergis ist viel vertrauensseliges Lob von Akademikern bei Conversation zuteil geworden, aber keiner von ihnen scheint sich die Mühe gemacht zu haben, den Artikel vor der Belobigung zu evaluieren. Anstatt dass die Version 2016 eine Bestätigung oder Verbesserung der Version 2012 ist, zeigt sie ein Beispiel von Datenmanipulation so klar wie man es sich nur wünschen kann. Wir kennen den ex ante-Plan zur Datenanalyse von Gergis, weil er in Gergis et al. 2012 beschrieben worden ist. Leider machen sie in ihrem Computerskript einen Fehler und waren nicht in der Lage, ihre Ergebnisse zu wiederholen mittels des Sichtungs-Verfahrens, das in Gergis et al. 2012 beschrieben worden ist.

Man fragt sich, ob die Herausgeber und Begutachter des Journal of Climate die extreme Datenmanipulation überhaupt in vollem Umfang verstanden haben, um deren Genehmigung sie aufgefordert waren. Eindeutig scheint es einigen Widerstand von Herausgebern und Begutachtern gegeben zu haben – anderenfalls hätte es nicht neun Runden der Überarbeitung und 21 Begutachtungen gegeben. Da die zahlreichen Begutachtungen das Netzwerk unverändert ließen, ohne auch nur ein Iota vom Netzwerk der Rekonstruktion in PAGES2K abzuweichen (April 2013), kann man nur vermuten, dass Gergis et al. schließlich über ein zögerliches Journal of Climate triumphierten, nach vier Jahren Einreichung und Neu-Einreichung, so dass der Artikel schließlich angenommen wurde.

Wie oben erwähnt, hat Wagenmakers Datenmanipulation definiert als „der Versuchung erliegen, eine Analyse mit den Daten abzustimmen, um ein erwünschtes Ergebnis zu bekommen“. Er diagnostizierte das Phänomen als besonders wahrscheinlich, wenn sich die Autoren nicht selbst „eines Verfahrens der Datenanalyse verpflichtet haben, bevor sie die tatsächlichen Daten gesehen haben“. In diesem Falle hatten Gergis et al. ironischerweise sich selbst einer Methode der Datenanalyse verschrieben nicht privat, sondern im Zusammenhang mit einem angenommenen Artikel, aber offensichtlich haben ihnen die Ergebnisse nicht gefallen.

Es ist verständlich, wie erleichtert Gergis war, nachdem ein derartig manipuliertes Manuskript angenommen worden war. Aber gleichzeitig waren die Probleme vollständig hausgemacht. Gergis nahm besonderen Anstoß an meiner ursprüngliche Behauptung, dass es „fundamentale Probleme“ bei Gergis et al.2012 gebe, was sie „unrichtig“ nannte. Aber da ist nichts „Unrichtiges“ an der tatsächlichen Kritik (hier):

Eines der der Analyse im Gergis-Stil zugrunde liegenden Mysterien ist, dass scheinbar äquivalente Proxys „signifikant“ sein können, andere dagegen nicht. Leider werden diese fundamentalen Dinge in der „begutachteten Literatur“ niemals angesprochen.

Dieser Kommentar ist heute noch genauso treffend wie im jahre 2012.

In ihrem Conversion-Beitrag behauptete Gergis, dass ihr „Team“ die Fehler in Gergis et al. 2012 unabhängig voneinander entdeckt hätten und „zwei Tage“ bevor die Fehler bei Climate Audit beschrieben wurden. Diese Behauptungen sind falsch. Sie haben die Fehler nicht „unabhängig“ von oder vor Climate Audit entdeckt.

—————————————

Anmerkungen von Anthony Watts:

Es ist wieder und immer wieder die Mann’sche Leugnung von Aufsplittung und Zuordnung, nur um den „Hockeyschläger“ zu erhalten.

Das ist keine Wissenschaft, sondern Verteidigung von „The Cause“.

Der ganze Beitrag steht hier.

Es ist verblüffend, dass Derartiges immer weiter geht, und ich bewundere Steve McIntyre für seine Geduld und seine mikroskopische Detail-Verliebtheit, die er an den Tag legen musste, um durch diese Art der – zweimal – total gescheiterten Begutachtung zu waten. Das Journal of Climate sollte Gergis 2016 zurückziehen.

Link: https://wattsupwiththat.com/2016/08/08/zombie-science-the-worst-example-of-climate-data-torturing-ever-withdrawn-gergis-2012-becomes-gergis-2016/

Übersetzt von Chris Frey EIKE




Gavin Schmidt und seine „Trickserei“ mit Referenz-Perioden

Schmidt erhob alle Vorwürfe, die er schon zu oft zuvor erhoben hatte:

@curryja use of Christy’s misleading graph instead is the sign of partisan not a scientist. YMMV. tweet;

@curryja Hey, if you think it’s fine to hide uncertainties, error bars & exaggerate differences to make political points, go right ahead.  tweet.

[Übersetzung extra, weil ich nicht weiß, ob diese links erhalten bleiben: Der Gebrauch von Christys irreführender Graphik ist ein Zeichen dafür, dass er ein Partisan und kein Wissenschaftler ist.

Falls Sie glauben, dass es in Ordnung ist, Unsicherheiten und Fehlerbalken zu verstecken sowie Differenzen zu übertreiben, dann machen Sie einfach weiter.]

Als Folge hiervon hat sich Curry entschlossen, Christys Graphik nicht bei ihrem jüngsten Vortrag vor einem Komitee des Kongresses zu zeigen. Im heutigen Beitrag möchte ich die Validität von Schmidts Kritik untersuchen (oder das Fehlen derselben).

Soweit ich das verstehe, ging es bei Schmidts primärem Streit darum, dass Christy seine Modell- und Beobachtungsdaten so aufbereitet hatte, dass sie beide im Jahre 1979 ihren Ausgang nahmen, also dem Beginn der Satelliten-Ära. Dieses Verfahren zeigt (offensichtlich) eine größere Diskrepanz am Ende des Zeitraumes als als wenn die Daten in der Mitte des Zeitraumes platziert wären. Ich werde die Unterstützung für Christys Verfahren durch seinen vieljährigen Kontrahenten Carl Mears unter die lupe nehmen, dessen eigene Vergleiche zwischen Modell und Beobachtungen eine kurze Periode (1979 bis 1983) überdeckten, „damit die Änderungen mit der Zeit besser erkennbar waren“. Während sowohl Christy als auch Mears rationale Argumente für ihre Grundsatzentscheidung vorbrachten, war Schmidts Argumentation nur wenig mehr als Geschrei.

Hintergrund

Die ganze Geschichte der Kontroverse um die Diskrepanz zwischen Modellen und Beobachtungen in der tropischen Troposphäre ist literaturmäßig voluminös. Während die wesentlichen Protagonisten Christy, Douglass und Spencer auf der einen Seite sowie Santer, Schmidt, Thorne und andere auf der anderen Seite waren, haben auch Ross McKitrick und ich selbst zu diesem Thema bereits Einiges gesagt, und [die Kommentare von] McKitrick et al. (2010) wurden ausführlich im AR 5 diskutiert, allerdings unglücklicherweise wie so oft hinsichtlich der Schlüsselpunkte betrügerisch.

Startzeitpunkte und Referenzperioden

Christy und Spencer haben viele Jahre lang stilistisch ähnliche Graphiken erstellt. Roy Spencer zeigte hier im Jahre 2014 eine ähnliche Graphik um den Zeitraum 1979 bis 1983 (unten). Tatsächlich war es diese frühere Version, die Bart Verheggen zu wüsten Kommentaren veranlasste, Kommentare, die offenbar ihren Ursprung in einigen der vorherrschenden alarmistischen Memes* haben.

[Wer wie ich mit dem Begriff „Meme“ nichts anfangen kann – hier steht eine gute Erklärung. A. d. Übers.].

Abbildung 1: Version 2014 der Graphik von Christy, entnommen dem Blog von Roy Spencer hier. Sie verwendete den Referenzzeitraum 1979 bis 1983. Dies wurde später hier von Bart Verheggen kritisiert.

Christys Vortrag vom Februar 2016 erklärte diesen allgemeinen Ursprung als die geeignetste Referenzperiode, wobei der Start eines Rennens als Metapher angeführt wurde:

Hierzu sage ich im Gegenteil, dass wir die Daten auf bedeutsamste Art und Weise dargestellt haben. Es geht hier um die Rate der Erwärmung des Großteils der Atmosphäre, d. h. den Trend. Diese Metrik sagt uns, wie schnell sich Wärme in der Atmosphäre akkumuliert – die fundamentale Metrik der globalen Erwärmung. Um dies visuell zu verdeutlichen habe ich alle Datensätze adjustiert, so dass sie einen gemeinsamen Startzeitpunkt haben. Man denke an folgende Analogie: Ich habe während der letzten 25 Jahre an über 500 Rennen teilgenommen, und in jedem Falle starten alle Läufer an der gleichen Stelle zur gleichen Zeit. Damit soll einfach festgestellt werden, wer der Schnellste ist und um wie viel schneller an der Ziellinie. Offensichtlich wird die Gesamt-Relativgeschwindigkeit eindeutig bestimmt durch ihre Reihenfolge bei der Überquerung der Ziellinie – aber alle müssen zusammen starten.

Das in der Graphik von 2016 angewendete Verfahren variierte in gewissem Ausmaß vom früheren Stil: sie verwendete den Wert aus dem Jahr 1979 des Trends von 1975 bis 2005 als Referenz für die Zentrierung; also einen Wert, der sehr nahe dem Mittelwert von 1979 bis 1983 lag.

Carl Mears

Ironischerweise hat Christys immerwährender Gegner Carl Mears auf der RSS-Website des Vergleichs zwischen Modell und Beobachtung eine fast identische Referenzperiode herangezogen (1979 bis 1984), damit „die Änderungen mit der Zeit einfacher erkennbar sind“. Mears schrieb: „Falls die Modelle als Ganzes akzeptable Arbeit geleistet hätten bei der Simulation der Vergangenheit, dann würden die Beobachtungen zumeist innerhalb des gelben Bandes liegen“, aber „dies war nicht der Fall“.

Das gelbe Band zeigt die 5% bis 95%-Einhüllende des Ergebnisses von 33 CMIP5-Modellsimulationen (19 verschiedene Modelle, viele davon mit multiplen Erkenntnissen). Sie sollen das Erdklima während des 20. Jahrhunderts simuliert haben. Für die Zeit vor 2005 wurden die Modelle mit historischen Werten von Treibhausgasen gefüttert, mit vulkanischen Aerosolen und solarem Output. Nach 2005 wurden hierfür geschätzte Projektionen dieser Antriebe verwendet. Falls die Modelle als Ganzes einen akzeptablen Job hinsichtlich der Simulation der Vergangenheit geleistet hätten, dann würden die Beobachtungen zumeist im Bereich des gelben Bandes liegen. Für die ersten beiden Plots (Abbildung 1 und 2), welche globale und tropische Mittelwerte zeigen, ist dies nicht der Fall.

Mears illustrierte den Vergleich mit der folgenden Graphik, deren Legende den Referenzzeitraum 1979 bis 1984 und die damit verbundene Erklärung liefert:

Abbildung 2, entnommen von RSS hier: Original-Legende: tropische (30S bis 30N) mittlere TLT-Anomalie, dargestellt als eine Funktion der Zeit. Das blaue Band ist die 5% bis 95%-Einhüllende für das RSS V3.3 MSU/AMSU-Temperatur-Unsicherheitsensemble. Das gelbe Band ist die Bandbreite von 5% bis 95% des Outputs von CMIP5-Klimasimulationen. Der mittlere Wert jeder Zeitreihe von 1979 bis 1984 wurde auf Null gesetzt, so dass die Änderungen mit der Zeit deutlicher erkennbar sind. Erneut liegen die Beobachtungen nach 1998 wahrscheinlich unter den simulierten Werten. Dies zeigt, dass die Simulation als Ganzes mehr Erwärmung prophezeit als von den Satelliten beobachtet.

Die sehr geringe Überlappung zwischen der Einhüllenden der Modelle und derjenigen der Beobachtungen ist ein klarer Beweis – für jeden geübten Beobachter – dass es eine statistisch signifikante Differenz gibt zwischen dem Ensemble-Mittel und den Beobachtungen, und zwar bei Verwendung der T-Statistik von Santer et al. 2008.

Nichtsdestotrotz war Mears nicht der Ansicht, dass die Schuld bei den Modellen zu suchen war. Sondern er argumentierte stattdessen zusammen mit Santer, dass das Phänomen Fehlern der Antriebe geschuldet war, Fehler in den Beobachtungen und der internen Variabilität (siehe hier). Trotz dieser Differenzen bei der Diagnose stimmte Mears mit Christy überein hinsichtlich der Eignung eines gemeinsamen Ursprungs für diese Art von Vergleich.

IPCC AR5

Das IPCC, das sich nach Schmidts Worten nicht scheut, „Differenzen zu übertreiben oder zu minimieren, um politisch zu punkten“, hat eine Referenzperiode inmitten des Satelliten-Intervalls ausgewählt (1986 bis 2005) für seine Graphik im AR 5, Kapitel 11, Abbildung 11.25, in der ein globaler Vergleich von CMIP5-Modellen mit dem Mittel von 4 Datensätzen mit Messungen gezeigt wird.

Abbildung 3: IPCC, AR5, WG1, Abbildung 11.25a

Der effektive Ursprung in dieser Graphik lag daher im Jahre 1995, was die Divergenz zwischen Modellen und Beobachtungen auf etwa die Hälfte der gesamten Divergenz während der Satelliten-Ära hat schrumpfen lassen. Roy Spencer präsentierte das folgende Diagramm, welches die Auswirkung illustriert, wenn man zwei Reihen mit unterschiedlichen Trends um die Mitte des Zeitraumes (oben) und am Beginn des Zeitraumes (unten) einbettet. Falls man die beiden Trendreihen in der Mitte des Zeitraumes einbettet, dann ist die Lücke am Ende des Zeitraumes auf die Hälfte reduziert im Vergleich zur Einbettung am Startzeitpunkt, wenn beide Reihen den gleichen Ursprung haben (wie im Christy-Diagramm).

Abbildung 4: Das Diagramm von Roy Spencer, welches die Differenz zeigt zwischen Einbettung am Beginn und in der Mitte.

Bart Verheggen

Das alarmistische Narrativ über vermeintlich ungeeignete Grundlinien in der Abbildung von Christy scheint seinen Ursprung in einem Blogbeitrag von Bart Verheggen zu haben, in welchem eine oben gezeigte frühere Version der Graphik von Roy Spencers Blog (hier) mit der Einbettung von 1979 bis 1983 verunglimpft wurde, obwohl diese Auswahl fast exakt identisch war mit der Einbettung 1979 bis 1984, die später von RSS/Carl Mears verwendet worden ist.

Verheggen beschimpfte derartige Grundlinien als „teilweise betrügerisch“ und warf Christy und Spencer vor, die Modellläufe nach oben zu „verschieben“, um „die Diskrepanz zu vergrößern“:

Sie verschoben die modellierte Temperaturanomalie nach oben, um die Diskrepanz mit den Beobachtungen um etwa 50% zu vergrößern.

Verheggen behautete, dass die Graphik mit einem Referenzzeitraum von 19867 bis 2005 begonnen hatte (also des im AR5 des IPCC herangezogenen Zeitraumes) und dass Christy und Spencer diesen Zeitraum auf die kürzere Periode von 1979 bis 1983 „umfunktioniert“ hätten, um „die visuelle Erscheinung einer Diskrepanz zu maximieren“:

Der nächste Schritt ist die Umfunktionierung der Abbildung, um die visuelle Präsenz einer Diskrepanz zu maximieren: Man stelle alles auf die Grundlinie des Mittels von 1979 bis 1983 (eine viel zu kurze Periode und, wie es scheint, sehr taktisch ausgewählt) … Dies sieht überraschend ähnlich aus wie Spencers Trickserei-Graphik.

Verheggen hat auch nicht die Spur eines Beweises geliefert, der zeigte, dass Christy und Spencer die Graphik zuerst mit der in der Mitte des Intervall liegenden Referenzperiode erstellt und die Graphik dann „umfunktioniert“ hatten, um die Menschen zu „täuschen“. Angesichts des Umstandes, dass die Referenzperiode von „1979 bis 1983“ klar auf der Y-Achse aufgetragen war, brauchte man auch kaum reverse engineering um zu erkennen, dass Christy und Spencer eine Referenzperiode von 1979 bis 1983 herangezogen hatten. Auch sollte es nicht „überraschend“ gekommen sein, dass eine Nachbildung mittels einer Referenzperiode von 1979 bis 1983 ähnlich aussehen würde. Außerdem hat Verheggen die Mears’sche Verwendung eines Referenzzeitraumes von 1979 bis 1984 verdammt, damit die Änderungen „klarer hervortreten“.

Verheggens Vorwürfe finden in der alarmistischen Blog-Gemeinde immer noch Resonanz. Wenige Tage, nachdem Gavin Schmidt Judy Curry herausgefordert hatte, wurde Verheggens Beitrag bei Climate Crocks als die „bislang beste Analyse von John Christys Zaubergrafik“ bezeichnet, die „in der Leugner-Sphäre [deniosphere] so attraktiv ist“.

Die Trickserei geht jedoch vollständig in die umgekehrte Richtung. Graphische Verfahren, die aus einem Ursprung in der Mitte eines Zeitraumes (~1995) resultieren anstatt zum Startzeitpunkt (1979) reduzieren die Diskrepanz zum Ende um etwa 50%, verschleiern also sozusagen die Divergenz.

Gavin Schmidt

Während sich Schmidt darüber beklagte, dass das Christy-Diagramm keine „vernünftige Grundlinie“ habe, hat er keine Kriterien dafür genannt, aufgrund derer eine Grundlinie „vernünftig“ sein sollte und eine andere nicht. Oder dafür, was falsch daran war, einen gemeinsamen Ursprung zu verwenden (oder einen Referenzzeitraum zum Beginn der Satelliten-Ära), „damit die Änderungen mit der Zeit klarer hervortreten“, wie Mears es getan hatte.

Im März 2016 erzeugte Schmidt seine eigenen Graphiken unter Verwendung zweier unterschiedlicher Grundlinien, um Modelle und Beobachtungen zu vergleichen. Schmidt nahm andere ikonographische Variationen der Graphik vor, aber für diese Analyse sind nur die Referenzperioden von Interesse.

Schmidts erste Graphik (linker Teil der Abbildung unten – leider links und rechts verstümmelt in der Twitter-Version) wurde mit dem folgenden Kommentar vorgestellt:

Hoffentlich endgültige Versionen des Vergleiches von Zeitreihen und Trends zwischen Modellen und Messungen in der tropischen mittleren Troposphäre (bis 2016!)

In dieser Version wurde die Einbettung 1979 bis 1988 verwendet, eine Wahl, die relativ geringe Differenzen im Vergleich zu Christys Einbettung zeigt. Victor Venema hänselte Schmidt wegen seiner Erzeugung von Anomalien, die denen von Christy so ähnlich waren, und fragte sich bzgl. der Referenzperiode:

Haben diese Christy-Anomalien den Bezugszeitraum 1983? Oder ist es Zufall, dass die Beobachtungen zu Beginn so gut passen? (@ClimateOfGavin)

Schmidt hat seine Graphik sofort neu erstellt, diesmal mit der Einbettung 1979 bis 1998, was die Ähnlichkeit zu den „Christy-Anomalien“ verringerte. Diese Überarbeitung (rechter Teil der Abbildung unten) kündigte er folgendermaßen an:

Die Änderung ist ganz einfach vorzunehmen. Hier folgt das Gleiche für den Zeitraum 1979 bis 1998. Vielleicht ist das besser … (@VariabilityBlog)

Nach dieser „Umfunktionierung“ der Graphik, zeigten sich die Beobachtungen jetzt während des gesamten Zeitraumes als innerhalb des Vertrauensintervalls liegend. Es war diese zweite Version, die Schmidt später Curry anbot als das Ergebnis der Auswahl einer „vernünftigeren“ Grundlinie.

Abbildung 5: Zwei Abbildungen aus den Tweets von Gavin Schmidt vom 4. März 2016. Links: aus dem Tweet vom 4. März mit der Einbettung 1979 bis 1988. Man beachte, dass Teile der Graphik am linken und rechten Rand abgeschnitten worden sind, so dass die Graphik nicht bis zum Jahr 2015 reicht. Rechts: zweite Version mit der Einbettung 1979 bis 1998, was den Modellrahmen relativ zu den Beobachtungen verringerte.

Der Vorgang ist mehr als nur etwas ironisch im Zusammenhang mit Verheggens früheren Vorwürfen. Er zeigte eine Sequenz von Graphiken einer Grundlinie von 1986 bis 2005 bis zu einer Grundlinie von 1979 bis 1983. Gleichzeitig warf er Spencer und Christy vor, die Grundlinien „umzufunktionieren“, um das „sichtbare Auftauchen einer Diskrepanz zu maximieren“ – was Verheggen „Trickserei“ nannte. Verheggen stellte diese Behauptungen ohne auch nur die Spur eines Beweises auf, dass Christy und Spencer von einer Referenzperiode 1986 bis 2005 ausgegangen waren – was zunächst einmal ein sehr fragwürdiger Zeitraum ist, wenn man Differenzen zeigen will über die Periode 1979 bis 2012, wie Mears erkannt hat. Andererseits hat Schmidt auf Veranlassung von Venema tatsächlich seine Graphik „umfunktioniert“, um das „sichtbare Auftauchen einer Diskrepanz zu reduzieren“.

Noch einmal zur Christy-Graphik

Judy Curry war sehr reserviert darüber, ob Schmidts „Umfunktionieren“ ausreichend war, um den Änderungen aus der Abbildung von Christy Rechnung zu tragen. Sie beobachtete:

Meine Reaktion war, dass diese Plots in keiner Weise wie der Plot von Christy aussahen, und das ist nicht nur eine Sache der Grundlinie.

Zusätzlich zur Änderung der Referenzperiode nahm Schmidt in seiner Graphik noch viele weitere Änderungen vor:

● Schmidt verwendete Jahresdaten anstatt eines 5-Jahre-Mittelwertes.

● Schmidt zeigte eine graue Einhüllende, welche das Vertrauensintervall 5% bis 95% repräsentieren sollte, anstatt die individuellen Spaghetti-Stränge zu zeigen.

● Anstatt 102 Läufe individuell zu zeigen, zeigte Christy Mittel für 32 Modelle. Schmidt scheint 102 Läufe individuell zu zeigen, basierend auf seiner nicht korrekten Referenz auf 102 Modelle (!) in seiner Legende.

Ich bin derzeit dabei, Schmidts Graphik zu reproduzieren. Um den Effekt von Schmidts Umfunktionieren der Christy-Graphik zu isolieren, habe ich die Christy-Graphik so genau wie möglich nachvollzogen (zweites Paneel), wobei ich das meiner Meinung nach Wesentliche berücksichtigt habe, und habe dann die Graphik mit Schmidts Einbettung reproduziert.

Das dritte Paneel isoliert den Effekt von Schmidts Einbettungs-Periode von 1979 bis 1998. Dies bringt sowohl Modelle als auch Beobachtungen nach unten, die Modelle etwas mehr als die Beobachtungen. Allerdings hat sich m. E. der visuelle Effekt gegenüber Christys Einbettung nicht materiell geändert. Dies scheint die Vermutung von Judy Curry zu bestätigen, dass die Änderungen in Schmidts Graphik auf mehr zurückgehen als nur auf eine Änderung der Grundlinie. Eine Möglichkeit ist, dass die Änderung der visuellen Erscheinung Christys Verwendung von Ensemble-Mitteln für jedes Modell geschuldet ist anstatt individueller Läufe. Um dies zu testen, zeigt das vierte Paneel die Christy-Graphik unter Verwendung der Läufe. Und wieder scheint es mir nicht so, dass die ikonographische Entscheidung grundlegend ist für den visuellen Eindruck. Während der Spaghetti-Graph nicht eindeutig ist, kann der INM-CM4-Modelllauf als Blanko-„Kalt“-Modell in allen vier Paneelen unterschieden werden.


Abbildung 1: Christy-Graphik (links) und Variationen. Siehe Diskussion im Text. Die blaue Linie zeigt das Mittel von UAH 6.0 und RSS 3.3 TLT-tropische Daten.

Schlussfolgerungen

Es ist nichts Mysteriöses an der Lücke zwischen Modellen und Beobachtungen zum Ende des Zeitraumes als eine Maßzahl für differierende Trends. Als Secretariat das Feld von 1973 Belmont um 25 Längen hinter sich ließ, haben sogar heutige Klimawissenschaftler nicht in Frage gestellt, dass Secretariat schneller gerannt ist als die anderen Pferde.

Nicht einmal Ben Santer hat in Frage gestellt, ob es eine „statistisch signifikante Differenz“ gegeben habe zwischen Steph Currys epischem 3-point shooting in 2015-6 und Führern in anderen Jahreszeiten. Kürzlich hat Sports Illustrated der NYT die Lücke zwischen Steph Curry und früheren 3-point leaders mittels einer Spaghetti-Graphik illustriert (siehe unten), die wie die Christy-Graphik den Vergleich begann mit einem gemeinsamen Ursprung. Die visuelle Kraft kommt von der Separierung zum Ende.

[In diesem Absatz konnte ich einige kursiv gesetzte Begriffe nicht vernünftig übersetzen. Anm. d. Übers.]

Falls NYT Sports die Reihe in die Mitte der Jahreszeit eingebettet hätte (nach Art von Bart Verheggen), dann wäre Currys Separierung zum Ende der Jahreszeit nur halb so groß. Falls NYT Sports die Reihe in der ersten Hälfte eingebettet hätte, wäre das Ende der Saison genauso reduziert. Offensichtlich sollte man derartige Versuche, die Separierung zu verringern, als lächerlich zurückweisen.

Es gibt eine wirkliche Diskrepanz zwischen Modellen und Beobachtungen in der tropischen Troposphäre. Falls der aktuelle Punkt die Differenz zu den Trends der Satelliten-Ära (seit 1979) ist, dann ist es vollkommen vernünftig, wie Carl Mears beobachtet hat, die Einbettung der Daten in eine frühe Referenzperiode zu verwenden, so wie der von Mears verwendete Zeitraum 1979 bis 1984 oder der von Christy und Spencer verwendete Zeitraum 1979 bis 1983, damit (Mears) „die Änderungen klarer hervortreten“.

Legt man die Worte von Schmidt aus, heißt das: Wenn man irgendetwas anderes macht, wird es in „verstecken“ hinauslaufen und in „Minimierung von Differenzen, um politisch zu punkten“, was nach Schmidts Worten „einen Partisanen kennzeichnet und nicht einen Wissenschaftler“.

Link: https://climateaudit.org/2016/04/19/gavin-schmidt-and-reference-period-trickery/

Übersetzt von Chris Frey EIKE




Reductio ad Mannium

Die Ergebnisse von Mann und Rahmstorf basieren nicht auf Proxys für die Geschwindigkeit atlantischer Strömungen, sondern auf einem Netzwerk unter Einschluss kontaminierter Tiljander-Sedimente (verkehrt herum oder nicht), Chronologien von entrindeten Grannenkiefern von Graybill, außerdem MXD-Reihen von Briffa, gestutzt um den Rückgang zu verstecken und Hunderte undefinierbarer Baumring-Datenreihen, die statistisch ununterscheidbar sind von weißem Rauschen. Mit anderen Worten, sie verwenden das gleiche viel kritisierte Proxy-Netzwerk wie Mann et al. 2008/2009. Es ist kaum zu verstehen, warum irgendjemand ernsthaft glauben sollte (geschweige denn so etwas in einer begutachteten Zeitschrift zu veröffentlichen), dass Meeresströme im Atlantik durch solchen Dreck* rekonstruiert werden können. Aber Rahmstorf et al. 2015 stehen als Beweis für das Gegenteil.

[*Das Wort ,Dreck‘ steht so als ,dreck‘ im Original]

Nach so viel Kontroverse über Manns vorherige Verwendung kontaminierter Daten ist es nahezu unvorstellbar gewesen, dass er und Rahmstorf das noch einmal getan haben.

Und wenn der National Research Council im Jahre 2006 gefordert hat, dass Grannenkiefer-Chronologien in Temperaturrekonstruktionen zu „vermeiden“ sind, kann man dort kaum genau hingesehen haben (geschweige denn es durchgewunken haben), dass sie bei der Rekonstruktion atlantischer Strömungen doch wieder verwendet wurden.

In ihrem Bemühen, nichts unversucht zu lassen, hat der Datensatz von Rahmstorf und Mann sogar die Briffa-MXD-Chronologien im Jahre 1960 verstümmelt, womit der Rückgang versteckt wurde [hide the decline]. Siehe hier eine Diskussion der MXD-Verstümmelung in Mann et al. 2008 vom September 2008, also lange bevor wir aus den Klimagate-E-Mails erfahren haben, welchen Trick sie für ,hide the decline‘ angewendet haben.

Im Jahre 2002 war sogar Keith Briffa so frustriert von der Mann et al. 1998-Rekonstruktion, dass er schrieb:

Ich habe die Nase gestrichen voll von Mann, wenn er in Anspruch nimmt, dass seine Rekonstruktion nur deswegen das Gebiet der Tropen repräsentiert, weil er einige wenige tropische Reihen kaum repräsentativer tropischer Temperaturen heranzieht. Er ist genauso fähig, diese Daten gegenüber jeder anderen „Ziel“-Reihe zurückzuentwickeln wie dem zunehmenden Trend der sich selbst verstümmelnden Wortwahl [verbage], die er während der letzten Jahre von sich gegeben hat, und… (ich sage lieber nichts weiter).

Aber zumindest das Netzwerk, über das sich Briffa so beschwert, enthielt „wenige und kaum die Temperatur repräsentierenden“ tropischen Reihen. Rahmstorf et al. 2015 haben sogar noch damit Reklame gemacht, die atlantischen Meeresströmungen mit Proxies zu rekonstruieren anstatt auf direkte Messungen der Strömung im Atlantik zurückzugreifen.*

[Diesen Abschnitt habe ich wegen Verständnisschwierigkeiten recht frei übersetzt. Im Original lautet er: „But at least the network that Briffa complained about contained a “few poorly temperature representative” tropical series.  Rahmstorf et al 2015 dispensed with even that meager precaution by purporting to reconstruct Atlantic ocean currents without using any proxies purporting to directly measure Atlantic ocean current.“]

Was soll man im klimawissenschaftlichen Bereich noch dazu sagen, wenn derartige Praktiken unkontrolliert durchgehen? Vielleicht sollten wir einem Wort von Andrew Weaver folgen und sagen:

Sie lassen diese nach Zufall verteilten Hetzreden über diesen absoluten, unrichtigen Unsinn zur Veröffentlichung zu. Sie sind nicht in der Lage festzulegen, ob das, was sie sagen, korrekt ist oder nicht, oder ob es absoluter Quatsch ist.

Man lese auch bei Arthur Smith hier und Atte Korhola hier über die frühere Verwendung kontaminierter Sedimente. Die seriöse klimawissenschaftliche Gemeinde sollte kollektiv mit Empörung schaudern.

Was auch immer mit der AMOC passieren oder nicht passieren wird, auf eines kann man sicher bauen: kontaminierte Sedimente aus einem See in Finnland, entrindete Grannenkiefern und die Hunderte undefinierbaren Baumringreihen von Mann 2008/2009 enthalten keinerlei nützliche Informationen zur Vergangenheit der AMOC.

Nur eines kann man aufgrund der Behauptung von Mann und Rahmstorf vermuten, dass das Netzwerk von Mann et al. 2008/2009 benutzt werden kann nicht nur zur Rekonstruktion der Temperatur auf der Nordhemisphäre, sondern auch auf der Südhemisphäre und jetzt auch zur AMOC: Unter Verwendung der Mann’schen RegEM mit dem Netzwerk von Mann et al. 2008/2009 mit 1209 „Proxys“ kann man möglicherweise fast alles „rekonstruieren“. Sind Sie daran interessiert, den mittelalterlichen Dow Jones Index zu „rekonstruieren“? Oder das Verhalten der NFL [National Football League in den USA, American Football] während des Mittelalters?

Reduction ad mannium.

Nachtrag: Es ist wenig überraschend, dass Rahmstorf et al. viele interessante versteckte Sprengfallen installiert haben. Als Fragen für die Schularbeiten: 1) Warum endet der jüngste Wert der gyre-Rekonstruktion in Rahmstorfs Abbildung 3 (mittlere Graphik) etwa im Jahre 1995, wenn doch die zugrunde liegende genetzte Rekonstruktion von Mann et al. 2009 bis zum Jahre 2006 geht? 2) Warum werden Rekonstruktionen nur bis zurück zum Jahr 900 gezeigt,, wenn doch die zugrunde liegende genetzte Rekonstrukltion von Mann et al. 2009 im Jahre 500 beginnt?

Link: http://climateaudit.org/2015/03/25/reductio-ad-mannium/

Übersetzt von Chris Frey EIKE




Hockeyschläger Erfinder Michael Mann als Repräsentant der EPA eine völlige Fehlbesetzung

In einer der Schlüsselgraphiken im IPCC-Bericht aus dem Jahr 2001 waren abnehmende Werte der Briffa-Rekonstruktion entfernt worden (Christy nannte es treffender „verstümmelt“), was der Abbildung eine erheblich größeren Eindruck der Konsistenz verlieh als wirklich vorhanden. Diese Reduktion der Daten wurde bekannt gemacht (und heftig kritisiert) bei Climate Audit [=Blog des Autors] lange vor Klimagate.
Allerdings erschien dieser Vorgang in einem ganz neuen Licht nach Bekanntwerden der Klimagate-E-Mails, die enthüllten, dass leitende IPCC-Funktionäre sich Gedanken darüber gemacht hatten, dass die Briffa-Rekonstruktion (mit der Temperaturabnahme zum Ende des vorigen Jahrhunderts) „die Botschaft abschwächen“ würde, und dass Mann genauso besorgt war, weil die Briffa-Rekonstruktion „den Skeptikern Futter geben würde“.
Christy hat folgendes verdammendes Urteil  über Manns Verhalten als Leitautor des 3. IPCC-Berichtes abgegeben:
Schaut man auf den Hockeyschläger im IPCC-Bericht des Jahres 2001, zeigen die Beweise meiner Ansicht nach jetzt, dass ein IPCC-Leitautor zusammen mit einer kleinen Gefolgschaft von Wissenschaftlern die Temperaturaufzeichnungen der letzten 1000 Jahre falsch dargestellt hatte, (a) indem er sein eigenes Ergebnis als das Bestmögliche dargestellt hat, (b) indem er Studien mit seinen Erkenntnissen widersprechenden Ergebnissen beiseite geschoben hat und (c) indem er Ergebnisse von Anderen verstümmelt hat, um widersprechende Daten zu entfernen. Auch hat er jeden ernsthaften Versuch unterbunden, die wirklichen Unsicherheiten dieser Daten zu bestimmen.
Dabei hat Christy ein weiteres fundamentales Problem der Verstümmelung außen vor gelassen: es gab keinerlei Hinweise auf die Verstümmelung in IPCC 2001 selbst.
Wie unangebracht es war, ungünstige Daten aus der IPCC-Graphik herauszuhalten, war in der erweiterten Welt der Makler, Buchführer, Anwälte und Fonds-Manager leicht zu verstehen. In dieser Welt ist die Sympathie für Entschuldigungen vernachlässigbar. All dies scheint nicht nur Fehlverhalten zu sein, soweit es die Öffentlichkeit betrifft, sondern die Entfernung missliebiger Daten in der IPCC-Graphik schien auch ein Akt zu sein, „Daten oder Ergebnisse in einer Weise zu manipulieren, dass die Forschung nicht akkurat in den Forschungsaufzeichnungen zum Ausdruck kommt“. Dies erfüllt eine der Definitionen akademischen Fehlverhaltens in der NSF [= National Science Foundation der USA] und andere Definitionen akademischen Fehlverhaltens.  
Außerdem sind die Berichte sowohl von Oxburgh als auch Muir Russell zu dem Ergebnis gekommen, dass die Graphik in IPCC 2001 „irreführend“ sei. Allerdings wurde in KEINER Untersuchung der Vorfall selbst unter die Lupe genommen. In jeder Einzelnen wurde der Vorfall ignoriert oder man ist ihm ausgewichen.
Der heutige Beitrag wird die Betrachtung der EPA-Dokumente einleiten, die Mann in seinen Aussagen erwähnt hat. Dies ist nicht einfach zusammenzufassen. Die heutige Diskussion der EPA-Dokumente wird nur der erste Schritt sein.
Bloßstellung des Vorfalls IPCC 2001
Die Entfernung missliebiger Daten in Manns Abschnitt von IPCC 2001 war einer der zwei oder drei Spitzenthemen hinsichtlich Klimagate bei Climate Audit (CA). Die erste detaillierte Aufklärung hierzu habe ich am 9. Dezember 2009 hier geschrieben. Die Zusammenstellung der Chronologie von „Hiding the Decline“ war eine fortlaufende Arbeit: etwa sechs Monate später habe ich eine deutlich detailliertere Analyse durchgeführt (hier). Inzwischen gibt es weitere Informationen in GC2, denen man nachgehen muss.
Mein Artikel führte zu einer Story an prominenter Stelle in der Daily Mail – mit einem link zu CA hier am 12. Dezember. Die Daily Mail hat diese Graphik neu entworfen. Diese neue Graphik fand später den Weg zum Cover des zweiten Buches von Andrew Montford und wurde unter falscher Zuordnung in einer Petition zur Überarbeitung verwendet (siehe unten).


Oxburgh
Wie früher schon erwähnt war es nicht Aufgabe der Oxburgh-Kommission, Manns Verhalten zu untersuchen, sondern vielmehr eine Liste mit 11 akademischen Veröffentlichungen von Wissenschaftlern an der CRU. Sozusagen im Vorübergehen merkte Oxburgh an, dass es „bedauerlich“ sei, dass das IPCC die Diskrepanz zwischen der Briffa-Rekonstruktion und den tatsächlichen Temperaturen „zu beleuchten abgelehnt“ hat. Aber er fand „keine Mängel“ in den zugrunde liegenden Veröffentlichungen der CRU-Autoren:
Zum Beispiel wurde in den CRU-Veröffentlichungen wiederholt die Diskrepanz betont zwischen instrumentellen Aufzeichnungen und Baumring-Proxy-Rekonstruktionen Ende des 20. Jahrhunderts, aber in Präsentationen dieser Arbeiten durch das IPCC und andere wurde es manchmal abgelehnt, diese Angelegenheit näher zu betrachten. Zwar finden wir das bedauerlich, doch können wir keine solchen Mängel in den von uns untersuchten begutachteten Studien finden.
Ich teile Oxburghs Meinung nicht, wonach es in den akademischen Studien „keine Mängel“ gegeben hatte. Aber ich stimme ihm zu, wenn er sagt, dass der größere Mangel in der IPCC-Präsentation zu finden war. Auch stimme ich nicht seiner Einschätzung zu, dass die Phrase „abgelehnt zu beleuchten“ angemessen die tatsächliche Verstümmelung der Daten beschreibt. Aber selbst mit diesen Einschränkungen war Oxburgh mit der Graphik in IPCC 2001 nicht einverstanden.
Allerdings ist Oxburgh nicht über das Ergebnis hinausgegangen, dass das IPCC-Verhalten „bedauerlich“ war. Dass er den IPCC-Vorfall nicht untersucht hatte, wurde von mir und Anderen zu jener Zeit scharf kritisiert, jedoch vergeblich.
Muir Russell
Der Oxburgh-Bericht war Anfang April 2010  erschienen, viele Monate vor der Muir Russell-Kommission. Genau wie bei der Oxburgh-Kommission gab es auch bei Muir Russell an verschiedenen Stellen Kommentare zu der IPCC-2001-Graphik, jedoch wurde deren Erstellung nicht untersucht. Die Muir-Russell-Kommission hat auch unterschieden zwischen der IPCC-2001-Graphik (die sie „irreführend“ fand) und der Graphik im IPCC-AR4 (eine „deutliche Verbesserung“).
Die Kommentare von Muir Russell über den IPCC-2001-Vorfall (bei dem Mann Leitautor gewesen war) verschmolzen irgendwie mit dem WMO-Vorfall 1999 mit der „Trick“-E-Mail:
Angesichts seiner folgenden kultischen Bedeutung (nicht zuletzt die Verwendung einer ähnlichen Abbildung in IPCC-AR3) finden wir in Beziehung zu „Hide the Decline“, dass die dem WMO-Bericht zugeleitete Abbildung irreführend war in der Hinsicht, dass nicht beschrieben worden ist, dass die Daten nach 1960 abgeschnitten worden waren. Auch ist nicht klargestellt worden, dass Proxy- und Instrumenten-Daten miteinander vermischt worden waren. Wir finden nicht, dass es irreführend ist, Rekonstruktionen an einem bestimmten Punkt per se abzubrechen oder Daten zusammenzuführen, aber wir glauben, dass beide Prozesse deutlich hätten erwähnt werden müssen – idealerweise in der Abbildung, aber auch eindeutig in der Bildunterschrift oder im Text.
Muir Russell kam zu dem Ergebnis, dass die Auslassungen im AR 4 (Briffa – Leitautor) eine „signifikante Verbesserung“ gegenüber Mann waren und dass die Beschreibung und Präsentation nicht mehr irreführend war:
Wir finden nicht, dass die Art und Weise irreführend ist, mit der Daten aus Baumringen abgeleitet sowie im AR 4 beschrieben und in Abbildung 6.10 illustriert worden sind. Im Besonderen fanden wir hinsichtlich der Zusammensetzung der Temperatur-Rekonstruktionen keine Beweise für den Ausschluss anderer veröffentlichter Temperatur-Rekonstruktionen, die ein sehr unterschiedliches Bild zeigen. Die allgemeine Diskussion der Unsicherheits-Quellen im Text ist extensiv einschließlich Querverweisen auf Abweichungen. In dieser Hinsicht stellt es eine signifikante Verbesserung des IPCC-Berichtes 2001 dar.
Zwar stimme ich zu, dass der begleitende Text von Briffa im AR 4 weniger irreführend war als Manns entsprechender Abschnitt im AR 3, doch stimme ich nicht der Aussage zu, dass die Graphik weniger irreführend ist: Nach wie vor wird die Briffa-Rekonstruktion abgeschnitten und damit die tatsächliche Abweichung von der Briffa-Rekonstruktion versteckt.
Ironischerweise wurde der verbesserte Absatz im AR 4, der Briffa schützte, nur sehr widerwillig aufgenommen als Folge meiner Begutachtungs-Kommentare als Begutachter der zweiten Fassung des AR 4. Ich habe Briffa (den Nachfolger von Mann als Leitautor) aufgefordert, den Rückgang in der IPCC-Spaghetti-Graphik zu zeigen und den Unterschied zu erklären. Briffa lehnte es ab, den Rückgang zu zeigen (mit der lapidaren Begründung, dass dies nicht „angebracht“ sei). Dies führte zur Anfrage von David Holland im Rahmen des Gesetzes zur freien Information (FOI) und dem E-Mail-Destruktionsprogramm der CRU. Das ist eine weitere lange Hintergrundgeschichte. Briffa stimmte dann widerwillig zu, den Text mit der Kürzung und eine Diskussion des Divergenz-Problems hinzuzufügen. Obwohl IPCC-Leitautoren auf die Aufforderung nach angemessener Darstellung spöttisch lächelten, waren sie sich nicht zu schade, auf diesen Abschnitt zum eigenen Schutz zurückzugreifen.
Noch einmal sorgfältig beobachtet: während die Muir-Russell-Kommission mit den Ausführungen im AR 4 zufrieden waren (unter Briffas Überwachung), kam sie hinsichtlich derjenigen im AR3 (unter Manns Überwachung) zu dem Ergebnis, dass sie „irreführend“ waren.
Muir Russell in den Plädoyers
Auf Muir Russells oberflächliche Diskussion des „Rückgangs” wurde im Original im National Review Memorandum (14.Dezember 2012) verwiesen und auf Manns Antwort im Januar 2013. Beide Memoranden weisen bedeutende Fehler auf.
Nachdem sie korrekt und genau beobachtet hatten, dass der Muir-Russell-Bericht „keinerlei Meinung zu Mann geäußert hatte“, merkten die Anwälte von National Review an, dass Muir Russell das WMO-Diagramm von Jones als „irreführend“ beschrieben hat, aber unerklärlicherweise jeden Hinweis auf das „ähnliche“ Diagramm (hinsichtlich der Kürzung) in Manns Abschnitt im IPCC-2001 ausgelassen haben:
Auch hat Muir Russell keinerlei Einschätzung zu Mann gegeben, der nicht Teil der CRU war, sondern lediglich ein Mitarbeiter einiger seiner Wissenschaftler … Er fand, dass Jones Verwendung der Phrase „Hide the Decline“ die „irreführende“ Natur der Hockeyschläger-Graphik gezeigt hat, die das Cover des WMO-Berichtes 1999 geziert hatte (Seite 8).
Manns Anwälte stießen auf diese Übersicht und klagten National Review mit absolut ungerechtfertigter Selbstgerechtigkeit an zu versuchen, die „Beweise zu verschleiern“, wobei sie (fälschlich) unterstellten, dass der Kommentar von Muir Russell bzgl. „irreführend“ „absolut nichts mit Dr. Mann zu tun hatte oder mit irgendeiner von ihm erstellten Graphik“:
In ihrem Briefing zeigen die Verteidiger von National Review, dass die Untersuchung der University of East Anglia zu dem Ergebnis gekommen war, dass die Hockeyschläger-Graphik „irreführend“ war. Dieser Vorwurf ist ein weiteres Beispiel der Versuche der Verteidiger, die Beweise in diesem Fall zu verschleiern. Der Kommentar hinsichtlich „irreführend“ in diesem Bericht hatte absolut nichts mit Dr. Mann oder irgendeiner von ihm erstellten Graphik zu tun. Vielmehr war es das Ziel des Berichtes, eine übermäßig vereinfachte und künstliche Darstellung des Hockeyschlägers zu liefern, der auf dem Cover des WMO-Berichtes zum Zustand des Klimas 1999 abgebildet war. Dr. Mann hat diese Darstellung nicht erstellt, und der Versuch zu unterstellen, dass dieser Bericht Bemühungen Dr. Manns zur Irreführung darstellt, ist unaufrichtig.
Wieder einmal war Manns Behauptung falsch. Im Muir-Russell-Bericht waren mit dem Ausdruck „irreführend“ sowohl das WMO-Diagramm 1999 (erstellt von Jones) als auch die Darstellung im IPCC-Bericht (erstellt von Mann) bezeichnet worden. Es war also einfach falsch zu behaupten, dass das Ergebnis von Muir Russell „absolut nichts mit Dr. Mann oder einer von ihm erstellten Graphik zu tun hatte“. (Nebenbei: Während Mann nicht ultimativ für die Abbildung WMO 1999 verantwortlich war, hat Jones ihm diese Graphik zur Begutachtung übermittelt, und Mann hat davon nicht Abstand genommen. Als die CRU später T-Shirts mit der Graphik als Aufdruck hergestellt hatte, hat Mann eines geordert – vermutlich).
Parlamentskomitee, DECC, NOAA OIG
Das Wissenschafts-/Technik-Komitee ging auf die „Trick“-E-Mail ein, erwähnte aber nicht dass Diagramm im IPCC-AR 3. Auch DECC in UK und der Generalsekretär der NOAA haben das nicht getan.
Keine dieser fünf (zuvor begutachteten) Untersuchungen „entlastete“ Mann hinsichtlich IPCC 2001. Tatsächlich wurde in keiner dieser fünf der Vorfall auch nur untersucht, geschweige denn dass man irgendeinen Versuch unternommen hatte, die Verantwortlichkeit zwischen Mann und Briffa hinsichtlich der Verstümmelung der Briffa-Rekonstruktion aufzuschlüsseln.
Penn State Untersuchungskommission
Auch der Bericht der Penn State-Untersuchungskommission hat den IPCC-Vorfall nicht in irgendeiner Form erwähnt. Der diesem am Nächsten kommende Hinweis ist in ihrem Ergebnis enthalten, dass es „keine glaubwürdigen Beweise dafür gibt, dass er (Mann) das jemals getan hat (fälschen) und mit Sicherheit nicht während seiner Zeit bei Penn State“ (Letzteres vielleicht von Relevanz, da IPCC 2001 Manns Berufung an die Penn State vorausgegangen war):
Nach sorgfältiger Abwägung aller Beweise und allen relevanten Materials kommt das Untersuchungskomitee zu dem Ergebnis, dass es keine glaubwürdigen Beweise dafür gibt, dass Dr. Mann sich zu irgendeiner Zeit Bemühungen gewidmet hat oder hatte, direkt oder indirekt Daten zu fälschen oder zu unterdrücken. Während in den Wochen nach Veröffentlichung der Klimagate-E-Mails die Auffassung auftauchte, dass Dr. Mann sich mit der Unterdrückung oder Fälschung von Daten befasst hatte, gibt es keine glaubwürdigen Beweise, dass er das jemals getan hätte, und mit Sicherheit nicht während seiner Zeit bei Penn State. Vielmehr ist das Gegenteil der Fall. Fälle, die Datenfälschungen zum Brennpunkt gemacht haben wie z. B. des „Tricks“, um Daten zu manipulieren, werden als eine Diskussion zwischen Dr. Jones und Anderen einschließlich Dr. Mann erklärt, wie man am Besten eine Graphik für einen Bericht der WMO zusammenstellen könne. Sie haben keine Daten gefälscht; sie haben versucht, eine verständliche Graphik zu konstruieren, die auch jene verstehen würden, die keine Experten auf dem Gebiet sind. Der sogenannte „Trick 1“ war nichts weiter als eine statistische Methode, mit der zwei oder mehr verschiedene Arten von Datensätzen auf legitime Weise durch eine Technik zusammengeführt werden, die von einer breiten Palette von Fachleuten auf diesem Gebiet begutachtet worden sind.
Die Verstümmelung der Daten in IPCC 2001 war fast gleich gelagert dem „Trick“-Vorfall, war aber ein anderer Vorfall mit einer anderen Technik und einer anderen leitenden Verantwortlichkeit. Es war aberwitzig zu behaupten, dass die „Verstümmelung“ der Daten in IPCC 2001 eine „statistische Methode war, um zwei oder mehr unterschiedliche Datensätze auf legitime Weise zusammenzuführen“: Das war nicht der Fall. Tatsächlich hat Christys Aussage vor dem Kongress gezeigt, dass selbst die Mitautoren von Mann im AR 3 sich nicht dem Umstand bewusst waren, dass er die unbequemen Daten von Briffa amputiert hatte.
Mehr noch, selbst die Kommissionen von Oxburgh und Muir Russell stimmten darin überein, dass die Stutzung der Daten in den Graphiken der Berichte WMO 1999 und IPCC 2001 „irreführend“ war. „Die Auslassung von Daten oder Ergebnissen in einer Weise, die die Forschung nicht angemessen repräsentiert“ ist die Definition der Falsifizierung.
Weiter. Die Umstände bei der Erstellung der Graphiken waren unterschiedlich, ein Punkt, den Mann selbst in seinen Aussagen vehement unterstrich. Der Ausdruck „Trick“ wurde nur bei Jones und seiner Konstruktion der WMO-1999-Graphik angewendet, und die Auslegung verschiedener Bedeutungen des Ausdrucks ist irrelevant bei der Frage, ob die IPCC-2001-Graphik irreführend war. (Obwohl ich im Vorübergehen anmerken möchte, dass die IPCC-2001-Graphik wohl nicht „Mikes Trick“ in dem Sinne wie bei Climate Audit definiert verwendet hat bei der Übernahme der Briffa-Rekonstruktion aus dem ersten Entwurf).
Den IPCC-Vorfall hätte von Penn State untersucht werden sollen. Allerdings hat das Untersuchungskomitee von Penn State keinerlei Beweise von Manns Kritikern herangezogen, sondern sich ausschließlich auf Beweise von seinen Unterstützern berufen, von denen mindestens einer (Gerald North) es abgelehnt hat, die E-Mails aus „professioneller Gefälligkeit“ zu lesen. Das Prozedere von Penn State verdient allen Hohn und Spott, den die Universität bekommen hat. (Später hat mich ein Mitglied des Untersuchungskomitees kontaktiert und erklärt, dass das Untersuchungskomitee mich absichtlich und nicht aus Versehen nicht kontaktiert hätte: er sagte, dass Easterling {von dem es heißt, dass er sich selbst „wegen Befangenheit abgelehnt“ hatte} dies nicht getan habe und ihn, das Mitglied, daran gehindert hatte, es zu tun).
Ohne Richtungsvorgabe der Untersuchungskommission hat die Penn State Untersuchungskommission den IPCC-2001-Vorfall nicht untersucht (oder irgendeinen anderen Vorgang zuvor). Das Untersuchungskomitee hat das Erstaunen von Dick Lindzen zu diesem Punkt aufgezeichnet.
Die EPA-Dokumente
Obwohl der IPCC-2001-Vorfall in den Berichten von Penn State nicht einmal erwähnt worden war,  tauchte er in den EPA-Dokumenten auf, die Mann bei seinen Aussagen erwähnt hatte. Diese Dokumente hatten ihren Ursprung nicht in einer Untersuchung akademischen Fehlverhaltens seitens Manns oder anderen, sondern stehen im Zusammenhang mit den vieljährigen EPA-Prozeduren zur Einführung von Vorschriften und im Besonderen im Zusammenhang mit der Ablehnung vieler Petitionen seitens der EPA, noch einmal zu überdenken, ob von den Treibhausgasen wirklich solche Gefahr ausgehe. An diesem Thema dürfte die EPA einiges Interesse gehabt haben. Der Hintergrund dieser Prozeduren ist für sich schon sehr interessant, spielt aber bei dem Thema dieses Beitrags nur peripher eine Rolle.
Das hervorstechende Merkmal in der Diskussion unten ist, dass die EPA sich der Kontroversen um den Hockeyschläger wohl bewusst war und weise darauf geachtet hat, sich selbst mit Vorbehalten zu umgeben. Daher war sie in der Lage zu vermeiden, zu Vorwürfen gegen Manns IPCC-2001-Diagramm Stellung zu beziehen, was für seine Zwecke rein akademisch war. Aber aus der Perspektive von Manns Aussagen bieten die EPA-Dokumente keine „Untersuchung“ oder „Entlastung“ hinsichtlich der Verstümmelung von Daten im IPCC-Bericht 2001.
Das Gefährdungs-Ergebnis – Entwurf und Endfassung
Im April 2009 hat die EPA in einer ihrer ersten Amtshandlungen nach Installierung der neuen Administration ein Dokument der Gefährdungs-Ergebnisse und der technischen Unterstützung ausgegeben.
Darin (wie es scheint) hat die EPA besondere Sorgfalt darauf verwandt, nicht in die Kontroverse um den Hockeyschläger einbezogen zu werden. Sie verließ sich hauptsächlich auf die relativ nuancierten Feststellungen der NAS-Kommission (und nicht auf IPCC 2001 oder selbst den AR 4). Zum Beispiel zitierte sie die NAS-Kommission wie folgt:
Der hemisphärischen oder globalen Mitteltemperatur vor etwa dem Jahr 900 kann nur sehr wenig Vertrauen entgegengebracht werden. Gründe sind die geringe Datendichte und die mit den Proxy-Daten verbundenen Unsicherheiten. Bei den Analysemethoden und der Kombination der Daten sind die Unsicherheiten viel größer als in jüngerer Zeit.
Gezeigt wurde die Spaghetti-Graphik aus dem NAS-Bericht 2006, eine Graphik, die auf konspirative Weise keine der drei Rekonstruktionen von Mann enthielt, die dieser im AR 3 (2001) verwendet hatte (Mann et al. 1999, Jones et al. 1998 oder der gekürzte Briffa et al. 2001). Das Auslassen der Briffa-Rekonstruktion ist wert erwähnt zu werden: Als Folge von Follands ursprünglicher Sorge, dass „die Botschaft verwässert würde“, hatte Mann ursprünglich vorgeschlagen, dass man die Briffa-Rekonstruktion einfach aus der Spaghetti-Graphik heraushalten sollte. Absichtlich oder unabsichtlich war es genau das, was die NAS auch getan hat.

Abbildung 1: Entwurf des EPA-Dokuments (TSD) zur technischen Unterstützung (NAS-Kommission 2006)
[Für Interessierte: Hier die Bildinschriften. Fettdruck oben: Abbildung 4.3: Rekonstruktionen der Variationen der Mitteltemperatur (Nordhemisphäre oder global) von sechs Teams.
Unten: Quelle: NRC 2006b. Rekonstruktionen der Variationen der Mitteltemperatur (hemisphärisch oder global) von sechs Forscherteams zusammen mit der instrumentellen Aufzeichnung der globalen Mitteltemperatur (schwarz). Jede Kurve illustriert die unterschiedliche Natur der Temperaturänderungen mit einer Bandbreite von Unsicherheiten, die immer größer zu werden scheint, je mehr man sich in der Zeit zurückbewegt.]
Die Endfassung des TSD enthielt dann nur noch die folgende kurze Referenz zum AR 4 des IPCC, in dem ebenfalls die Unsicherheit vor dem Jahr 1600 betont wird:
Nach Betrachtung dieser Studie und zusätzlichen Forschungen kam das IPCC im AR 4 zu dem Ergebnis: „Paläoklimatische Informationen stützen die Interpretation, dass die Wärme in der zweiten Hälfte des Jahrhunderts ungewöhnlich seit mindestens 1300 Jahren ist. Allerdings weist das IPCC wie NRC (2006b) warnend darauf hin, dass die Unsicherheiten vor dem Jahr 1600 signifikant sind“.
Das endgültige Gefährdungs-Ergebnis wurde am 7. Dezember 2009 veröffentlicht, einige Wochen nach Klimagate. Es gab eine 60-tägige Periode für Kommentare der Öffentlichkeit (bis zum 24. Juni 2009). Es wurde begleitet von der Synthese der EPA von Kommentaren der Öffentlichkeit und der Reaktionen der Agentur.
Diese Dokumente erregten praktisch keinerlei Aufmerksamkeit in den Klima-Blogs, die zu der Zeit hauptsächlich mit Klimagate selbst beschäftigt waren. Allerdings waren diese Dokumente ein wichtiges Stadium im verworrenen Prozess der US-Vorschriften.
Der nächste Schritt im Regulierungsprozess der USA war an Gegner der EPA-Prozeduren gerichtet, die eine Petition an die EPA richten sollten des Inhalts, dass die EPA ihr Gefährdungs-Ergebnis noch einmal überdenken möge. Organisationen, die gegen das Gefährdungs-Ergebnis waren, hatten nur 60 Tage lang Gelegenheit zu kommentieren. Innerhalb dieses Zeitfensters waren 10 Petitionen mit der Forderung nach einem Überdenken des Gefährdungs-Ergebnisses eingereicht worden (hier).
Unter den Petenten waren die Staaten Texas und Virginia sowie viele andere opponierende Parteien einschließlich einer gemeinsamen Petition vom Competitive Enterprise Institute CEI (zusammen mit dem Science and Environmental Policy Project SEPP und dem NIPCC). …
Die damals gerade bekannt gewordenen Klimagate-Dokumente wurden sehr stark in allen Petitionen beachtet, obwohl die meisten Petitionen meiner Ansicht nach nichts effektiv dazu beigetragen haben, die E-Mails mit potentiellen Gründen in Zusammenhang zu bringen, alles noch einmal zu überdenken. In der Rückschau wurde die Temperaturaufzeichnung überraschend stark überbetont – ein Punkt, der in den E-Mails selbst kaum angesprochen worden war. Hier bei Climate Audit haben wir schon oft darauf hingewiesen, sind aber nur auf taube Ohren gestoßen.
Während des kurzen Zeitfensters, in dem Petitionen zum Überdenken eingereicht werden konnten, waren die Klimagate-E-Mails immer noch sehr frisch, und es gab Missverständnisse bzgl. dieser E-Mails auf beiden Seiten der Debatte. Dabei fiel besonders das weit verbreitete Missverständnis auf, dass die E-Mails die CRU-Temperaturdaten betrafen, die gegen den Hockeyschläger und dessen Behandlung durch das IPCC sprachen.
Fragen zu den Temperaturdaten sind in den Petitionen vorherrschend. Viele der Petenten dachten fälschlich, dass sich die Hinweise auf den Gebrauch der CRUTEM-Aufzeichnungen bezogen, während sie tatsächlich für den wenig benutzten CRUTS-Datensatz standen. Die Kommentare über „zutiefst künstliche Anpassungen“ in Computerprogrammen wurden in ähnlicher Weise den CRU-Temperaturdaten zugeordnet, während sie tatsächlich mit der „Briffa-Gurke“ zusammenhingen (ein CRU-Verfahren, das vor der späteren Prozedur zu Hide the Decline  angewandt wurde).
Die CEI-Petition
Am 12. Februar 2010 hat CEI zusammen mit dem SEPP und dem NIPCC eine Petition zum Überdenken eingereicht. Großenteils ging es in der Petition um die Infragestellung der Temperaturaufzeichnungen. Angeführt wurde auch eine Anzahl gegenwärtiger Studien über fragwürdige IPCC-Hypothesen, die auf Berichten von Nicht-Regierungsorganisationen NGOs beruhen, z. B. Himalayagletscher, Amazonas-Regenwald, afrikanische Landwirtschaft.
Der erste Absatz in Abschnitt IV (A) ihrer Petition sprach das Thema Kürzung der Briffa-Rekonstruktion folgendermaßen an:
Auf dem Jahrestreffen der Geological Society of America im Oktober 2009 hat Prof. Don Easterbrook gezeigt, wie Baumringdaten aus Russland, die nach 1961 eine Abkühlung zeigen, für die vom IPCC gezeigten Graphiken künstlich verstümmelt worden waren. Diese Verstümmelung zeitigte den falschen Eindruck, dass die Baumringdaten zu den gemessenen Temperaturdaten Ende des 20. Jahrhunderts passen, was in Wirklichkeit nicht der Fall war. Dieser jetzt offengelegte Betrug zeigt, dass der AR 4 des IPCC wissenschaftlich fragwürdig ist. Die im November bekannt gewordenen E-Mails bestätigen, dass diese Fälschung reiflich durchdacht worden ist.

Während CEI mit seiner zentralen Behauptung, dass „die Verstümmelung den falschen Eindruck vermittelt, dass die Baumringdaten zu den gemessenen Temperaturdaten Ende des 20. Jahrhunderts passen, was in Wirklichkeit nicht der Fall war“, zu 100% richtig lag, enthielt der weitere Text der Eingabe viele überflüssige Fehler: Das Diagramm in der CEI-Petition stammt nicht von Don Easterbrook im Oktober 2009, sondern aus der Daily Mail im Dezember 2009 nach Klimagate. Schlimmer, das Diagramm steht nicht im AR 4, sondern im AR 3. Die Beschreibung des Diagramms im AR 4 wurde widerwillig von Briffa verbessert, hauptsächlich aufgrund meiner Begutachtungs-Kommentare. Dieser Punkt wurde später von der EPA gegen das CEI verwendet.
Die Ablehnung der Dokumente durch die EPA
Ende Juli 2010 hat die EPA eine Entscheidung veröffentlicht, in der die Petitionen zum nochmaligen Überdenken zurückgewiesen werden. Obwohl zu jener Zeit großes Interesse an Klimagate-Untersuchungen bestand, scheint damals niemand die Behandlung von Klimagate durch die EPA bemerkt oder in Betracht gezogen zu haben, dass die Klimagate-Diskussion der EPA eine „Untersuchung“ über akademisches Fehlverhalten ausgelöst hätte. Zum ersten Mal wurde dies etwa sechs Monate später erwähnt, als SKS als Teil seiner Kampagne  zur „Einrahmung“ von Klimagate dies ihrer Liste vermeintlicher „Entlastungen“ hinzufügte.
Das Dokument mit der Entscheidung ging einher mit einer Website, die nicht Gegenstand der gleichen Begutachtungsprozesse gewesen zu sein scheint wie die formalen Dokumente. Mehr dazu in einem anderen Beitrag.
Der IPCC-Vorfall in den RTP-Dokumenten
Das Dokument mit der Entscheidung wurden begleitet von drei Bänden unterstützender Dokumente (RTP = Antwort auf Petitionen; Links siehe hier), in denen die EPA Antworten auf Kommentare präsentierte, die aus den zahlreichen Petitionen synthetisiert worden waren, auf die die EPA geantwortet hat.
Im ersten Band der RTP ging es hauptsächlich um die Kontroversen bzgl. der Temperaturdaten. Im zweiten Band ging es um Kontroversen hinsichtlich der Irrtümer des IPCC und der Nicht-Objektivität des IPCC, während der dritte Band Einmischungen in die Begutachtungsprozesse und die Nicht-Objektivität bei der Auswahl der Literatur beschrieb. In weniger als 10% der Antworten ging es um paläoklimatische Themen, die eigentlich in den Klimagate-E-Mails das vorherrschende Thema waren.
Die EPA hat nicht die Namen der Autoren und der Beitragenden zu den RTPs veröffentlicht, ebenso wenig wie irgendwelche Informationen zu Prozeduren zur Entwicklung und Begutachtung des Dokuments. Es wäre interessant, die Namen der Autoren und Beitragenden und Begutachter zu dem Bericht zu kennen. Gab es Beitragende oder Begutachter von außerhalb wie z. B. Gavin Schmidt, der ein Begutachter des Dokuments zur technischen Unterstützung für das Gefährdungs-Ergebnis selbst war?
Die Antwort auf die Petitionen enthält auch erweiterte Kommentare zu den Klimagate-E-Mails, obwohl die EPA keine oder höchstens vernachlässigbare Bemühungen an den Tag gelegt hat, die tatsächliche Bedeutung der E-Mails zu beleuchten (z. B. ihre planlose oder nicht existente Analyse der „schmutzigen Wäsche“, „Verwässern der Botschaft“ und „Futter für die Skeptiker“ oder die bizarre Erwähnung der diskreditierten Mann et al. 2008-Rekonstruktion als vermeintlicher Gegenbeweis zum Thema Abweichungen).
Der IPCC-Vorfall wurde in den RTP-Kommentaren 1 bis 5 angesprochen, wobei die CEI-Eingabe wie folgt zitiert wurde:
Kommentare 1 bis 5: Das Competitive Enterprise Institute (CEI) bezieht sich auf eine Präsentation von Don Easterbrook bei der Gelogical Society of America (Easterbrook 2009). Dabei soll Easterbrook „gezeigt haben, dass Baumringdaten aus Russland, die nach 1961 eine Abkühlung zeigen, für die vom IPCC gezeigten Graphiken künstlich verstümmelt worden waren“. Der Petent behauptet weiter: „Diese Verstümmelung zeitigte den falschen Eindruck, dass die Baumringdaten zu den gemessenen Temperaturdaten Ende des 20. Jahrhunderts passen, was in Wirklichkeit nicht der Fall war. Dieser jetzt offengelegte Betrug zeigt, dass der AR 4 des IPCC wissenschaftlich fragwürdig ist. Die im November bekannt gewordenen E-Mails bestätigen, dass diese Fälschung reiflich durchdacht worden ist“.
Die EPA hat diese Eingabe wie folgt zurückgewiesen:
Antwort auf 1 bis 5: Die EPA hat die Informationen des Petenten begutachtet und festgestellt, dass vom Petenten zitierte Graphik nicht aus dem AR 4, sondern aus dem AR 3 stammt, der 2001 veröffentlicht worden war und im jüngsten IPCC-Bericht nicht mehr auftaucht. Im AR 4 wurden die jüngsten Daten hierzu in Abbildung 6.10 gezeigt. In dieser Abbildung enden drei von 12 Rekonstruktionen im Jahre 1960 (wie in Tabelle 6.1 im gleichen Kapitel dargestellt), weil die Rekonstruktionen in den zugrunde liegenden Studien ebenfalls 1960 enden. Sechs der 12 Rekonstruktionen laufen bis zum Jahr 1990 oder länger, wiederum basierend auf dem vom relevanten Datensatz abgedeckten Zeitraum.
Die Antwort der EPA enthält eine Abbildung vom NRC (2006), die sechs Rekonstruktionen zeigt, von denen eine 1960 endet. Weil diese Zustandsberichte die Gesamtheit der in der zugrunde liegenden Literatur präsentierten Daten zeigt, gibt es keine Beweise für irgendeinen „künstlichen Betrug“. Auch ist es kein Beweis, dass der AR 4 „wissenschaftlich fragwürdig“ ist.
Wie immer muss man genau beobachten, was gesagt wurde und was nicht.
Während das CEI auf das IPCC-2001-Diagramm (unter Manns Leit-Autorenschaft) verwiesen hat (wenngleich auch mit nicht korrekter Zuordnung) als Beispiel für einen „künstlichen Betrug“, hat sich die EPA in ihrer Antwort auf die Diagramme im NAS-Bericht 2006 und IPCC-AR 4 bezogen und festgestellt, dass diese Diagramme „keine Beweise für einen künstlichen Betrug“ liefern.
Weil sich die EPA in ihrem Gefährdungs-Ergebnis auf diese beiden Berichte bezogen hatte, war sie eigentlich verpflichtet, die tatsächlich gemeinten Diagramme zu begutachten. Aber nichts in diesem Abschnitt weist auf eine „Untersuchung“ oder „Entlastung“ von Manns Verstümmelung der Briffa-Rekonstruktion im Bericht 2001 hin.
Aus Sicht der EPA sind die Schwächen hinsichtlich des Gefährdungs-Ergebnisses gegen Vorwürfe der Fehlinterpretation des IPCC-2001-Diagramms geschützt. Außerdem hat sich die EPA auf den AR 4 verlassen (mit, wie erwähnt, verbesserter Auskunft) und auf NAS 2006. Deswegen war die EPA in der Lage, eine Untersuchung des Vorwurfs eines Fehlverhaltens in Zusammenhang mit dem IPCC-Bericht 2001 zu vermeiden. (Die irrtümliche Zuordnung des Diagramms seitens des CEI war eine zufällige Hilfe in dieser Hinsicht.)
Nebenbei: Ich bin nicht einverstanden mit anderen Aspekten der EPA-Analyse, obwohl diese Uneinigkeit nicht direkt relevant ist für den Punkt, dass sie Manns Verhalten in dieser Sache nicht „untersucht“ und ihn nicht „entlastet“ haben. Die EPA hat beobachtet, dass „drei von 12 Rekonstruktionen (im AR 4) 1960 enden, weil die Rekonstruktionen in den zugrunde liegenden Studien ebenfalls 1960 enden“.
Allerdings ist dies nicht die ganze Wahrheit oder bereits negativ beeinflusst durch IPCC-Überlegungen. Die originalen Briffa-Studien zur Abweichung zeigten ebenfalls Rekonstruktionen bis in die neunziger Jahre, vollständig samt Rückgang. Tatsächlich hat sich die Oxburgh-Kommission hierauf in ihrer Schlussfolgerung berufen, dass die Abweichung sauber in den zugrunde liegenden Studien gezeigt wird. Das Problem ist, dass es dabei eine nur allzu typische Inkonsistenz in den zugrunde liegenden Studien gibt: In der einen Graphik ist die Rekonstruktion nicht verkürzt (und zeigt) die Abweichung, während in der Spaghetti-Graphik von Briffa et al. 2001 die Briffa-Rekonstruktion still und leise gekürzt worden ist.
Sogar noch problematischer ist – und das geht direkt zurück zu der Klimagate-Korrespondenz 1999 – dass die Zustandsbeschreibungen des IPCC aufgehört haben, von der zugrunde liegenden Literatur unabhängig zu sein. Zu jener Zeit (Herbst 1999), als Mann, Jones, Briffa, Folland und Karl über ihre Sorgen sprachen, dass „die Botschaft verwässert würde“ oder man „den Skeptikern Futter geben“ würde, wurde die im AR 4 (und AR 3) in der Folge verwendete Version der Briffa-Rekonstruktion nicht veröffentlicht, und die Version, die Anfang Oktober 1999 an Mann gesandt wurde, war nicht gekürzt. Die erste Kürzung der Briffa-Rekonstruktion in IPCC-Dokumenten fand sich im ersten Entwurf von AR 3 (Ende Oktober 1999). Dabei wurde eine Version der Briffa-Rekonstruktion gekürzt, die im Archiv nicht gekürzt worden ist.
Link: http://climateaudit.org/2014/05/09/mann-misrepresents-the-epa-part-1/
Übersetzt von Chris Frey EIKE




IPCC vs Realität: Tatsachenfeststellungen 2 zu verschleierten Unterschieden zu früheren IPCC Projektionen

Man kann auch nicht geltend machen, dass das IPCC die Projektionen in Abbildung 1.5 irrtümlich gezeigt hat, wie bei SkepticalScience hier hinsichtlich Abbildung 1.4 im SOD behauptet. Die einhüllende [grau schattierte] Bandbreite in Abbildung 1.5 stammt aus Abbildung 10.26 im AR 4. Als cross-check habe ich die relevanten Einhüllenden der Unsicherheit aus Abbildung 10.26 (AR 4; werde ich weiter unten in diesem Beitrag zeigen) digitalisiert und in die Abbildung hinein geplottet (A1B – red + signs; A1T orange). Sie stimmen fast perfekt überein. Richard Betts hat diese Übereinstimmung hier eingeräumt.

Rechts: Abbildung 1 = Abbildung 1.5 im SOD des AR 5 mit Notierungen von HadCRUT4 (gelb) und Unsicherheits-Bandbreite aus Abbildung 10.26 im AR 4 in 5-Jahres-Schritten (rot + Zeichen).

Abbildung 1.4 im AR 5

Nach der Eliminierung der informativen (vielleicht zu informativen) Abbildung 1.5 aus dem SOD besteht der einzige Vergleich des IPCC zwischen AR 4-Projektionen und den aktuellen Zahlen in der überarbeiteten Abbildung 1.4, eine Abbildung, die offenbar mehr dazu gedacht ist zu verschleiern als zu beleuchten.

In der erläuternden Version unten habe ich die Unsicherheits-Bandbreite aus Abbildung 10.20 A1B aus dem AR 4 in gelb dargestellt. Leider zeigt Abbildung 1.4 nicht mehr eine einhüllende Unsicherheit für AR 4-Projektionen. Hier muss man sorgfältig nach der Nadel im Heuhaufen suchen. Unsicherheits-Bandbreiten werden in den ersten drei Zustandsberichten noch gezeigt, nicht aber im AR 4, obwohl es der letzte ist. Alles, was im AR 4 noch gezeigt wird, sind 2035 Unsicherheits-Bandbreiten [?] bei drei AR 4-Szenarien (einschließlich A1B) im rechten Teil, plus eine Spaghetti-Graphik mit individuellen Modellläufen (ein Spaghetti korrespondiert nicht mit irgendeiner AR 4-Graphik). Aus der Unsicherheits-Bandbreite A1B im rechten Teil kann die fehlende A1B-Unsicherheits-Bandbreite mehr oder weniger interpoliert werden, wie ich es hier mit der roten Einhüllenden getan habe. Ich habe die 2035 Unsicherheiten an den rechten Teil angepasst und bis zum Jahr 2000 zurück interpoliert, basierend auf der Form der anderen Einhüllenden. Diese so gewonnene Einhüllende ist etwa zweimal so breit wie in der Abbildung 10.26 im AR 4 dargestellt, die in Abbildung 1.5 im SOD verwendet worden ist. Selbst mit dieser erheblich erweiterten Einhüllenden liegen die HadCRUT4-Messungen hart am Rand der ausgeweiteten Bandbreite – und deutlich außerhalb der in Abbildung 10.26 (AR 4) gezeigten Bandbreite.


Abbildung 2: Abbildung 1.4 aus dem AR 5 mit Anmerkungen. Der gelbe Keil zeigt die Unsicherheits-Bandbreite der Abbildung 10.26 aus dem AR 4 (A1B). Der rote Keil interpoliert die implizierte Unsicherheits-Bandbreite basierend auf der Unsicherheits-Bandbreite von A1B im rechten Teil.

Abbildung 10.26 aus dem AR 4

Richard Betts erkannte, dass es keinen Zuordnungsfehler in Verbindung mit den AR 4-Projektionen gab, argumentierte aber hier, dass der Vergleich in Abbildung 1.4 im AR 5 „wissenschaftlich besser“ war als der Vergleich in der SOD-Abbildung, welche, wie Betts einräumte, auf einer tatsächlichen AR 4-Graphik „basierte“ (Abbildung 10.26 im AR 4).

Wenn man jedoch AR 4-Projektionen mit Beobachtungen vergleicht, ist das IPCC zum Vergleich mit tatsächlichen AR 4-Graphiken verpflichtet. Abbildung 10.26 wurde im SOD ordnungsgemäß als ein relevanter Vergleich angeführt. Sie wurde auch in der zeitweiligen Diskussion der AR 4-Projektionen (Anfang 2008) erwähnt, durch Pielke Jr (z. B. hier) und durch Lucia (hier und hier).

Die Abbildung 10.26 im AR 4 war ein Diagramm mit Paneelen, dessen untere Reihe Projektionen für globale Mitteltemperaturen zeigte (siehe unten) einschließlich A1B, zusammen mit dem Kommentar, dass die Modelle „positiv“ mit den Beobachtungen vergleichbar sind.


Abbildung 3: Untere Reihe der Abbildung 10.26 im AR 4, die Unsicherheits-Bandbreiten zeigt für globale Mitteltemperaturen bei sechs SRES-Szenarien. Die Originalbeschriftung lautet: CO2-, CH4- und SO2-Emissionen aus der Verbrennung fossiler Treibstoffe in sechs illustrativen SRES-Szenarien ohne Abschwächung der Emissionen … und Projektionen der globalen Mitteltemperatur basierend auf einem SCM angepasst an 10 AOGCMs. Die dunkel schattierten Bereiche im unteren Temperatur-Paneel repräsentieren die ± 1 Standardabweichung für die 19 Modellanpassungen. Die heller schattierten Bereiche zeigen die Änderungen dieser Unsicherheits-Bandbreite, wenn Rückkopplungen des Kohlenstoff-Kreislaufes angenommen höher oder niedriger als im mittleren Bereich liegen … Die globale Mitteltemperatur resultiert aus der SCM für anthropogene und natürliche Antriebe und passt ganz gut zu den Messungen im 20. Jahrhundert (schwarze Linie) wie im unteren linken Paneel gezeigt (Folland et al. 2001; Jones et al. 2001; Jones und Moberg 2003).

Die nächste Graphik zeigt die Auswirkung der „neu gefassten“ [„re-stated“]Unsicherheits-Bandbreite aus der Abbildung 10.26. Die Unsicherheits-Bandbreiten im rechten Teil der Abbildung 1.4 sind an der richtigen Stelle eingefügt worden, wobei die Enden der Bandbreite mit 2035 Werten der roten Einhüllenden korrespondieren, die die neu gefasste Unsicherheits-Bandbreite zeigt. Trotz der Verdoppelung der Unsicherheits-Bandbreite in der Neufassung im AR 5 liegen die jüngsten HadCRUT4-Werte hart am Rand der erweiterten Einhüllenden.


Abbildung 4: Ausschnitt aus Abbildung 10.26 im AR 4 mit Anmerkungen. HadCRUT 4 ist überplottet worden: gelb bis zum Jahr 2005, danach orange. Der Original-Bezugszeitraum ist 1981 bis 2000; die im AR 5 zugrunde gelegte Bezugsperiode 1961 bis 1990 ist auf der rechten Achse gezeigt.

Schlussfolgerung

In der an externe Begutachter gesandten Abschlussversion verglich die Abbildung 1.5 im SOD direkt Projektionen aus der Abbildung 10.26 im AR 4 mit Beobachtungen. Dieser Vergleich zeigte, dass die gegenwärtigen Messungen unterhalb der Unsicherheits-Bandbreite liegen. Die Bezugsperiode der Unsicherheits-Bandbreite im AR 4 war gut spezifiziert (1981 bis 2000), und das IPCC hat die Einhüllende zur Referenzperiode 1961 bis 1990 korrekt transponiert in die Abbildung 1.5 im SOD.

Verteidiger des IPCC haben versucht, Änderungen der Zuordnung von Unsicherheits-Bandbreiten aus den drei ersten Zustandsberichten auf der Grundlage zu rechtfertigen, dass das IPCC diese irrtümlich in die Abbildung 1.4 im SOD platziert habe. Tausende Institutionen auf der ganzen Welt vergleichen Projektionen mit aktuellen Daten, ohne Fehler darüber zu machen, was ihre Projektionen aus der Vergangenheit waren. Solche Vergleiche mehren die Wissenschaft einfach und beschneiden sie nicht. Es ist beunruhigend, dass solche Fehler auch beim dritten Durchlauf dieser Dokumente wieder auftauchten, ebenso wie in der an externe Begutachter gesandten Version.

Aber wie auch immer dem sei, es gab keinen Fehler hinsichtlich der Referenzperiode bzgl. AR 4-Projektionen oder in der Abbildung 1.5 im SOD. Daher ist ein Fehler der Referenzperiode nicht der Grund für die Entfernung dieser Abbildung.

Richard Betts hat die Genauigkeit der Vergleichs in Abbildung 1.5 im SOD nicht in Frage gestellt, aber argumentiert, dass die neue Abbildung 1.4 „wissenschaftlich besser“ war. Aber wie kann der Vergleich „wissenschaftlich besser“ sein, wenn die Unsicherheits-Bandbreite für drei frühere Zustandsberichte gezeigt wird, aber nicht für den AR 4. Auch kann ein Vergleich zwischen Beobachtungen und AR 4-Projektionen nicht „wissenschaftlich besser“ sein, indem man aktuelle AR 4-Dokumente und Graphiken durch eine Spaghetti-Graphik ersetzt, die im AR 4 nicht vorhanden war.

Der neuen Graphik liegt auch kein einziger Artikel in der begutachteten Literatur zugrunde.

Auch hat kein einziger externer Begutachter des SOD die Entfernung der Abbildung 1.5 angeregt, obwohl manch einer (z. B. Ross McKitrick) auf die Inkonsistenz zwischen dem beruhigenden Text und der in den Abbildungen dargestellten Diskrepanz hingewiesen hatte.

Da also kein Irrtum vorliegt, gibt es auch keinerlei Rechtfertigung für solche grundlegenden Veränderungen und Eliminierungen, nachdem die dritte und letzte Ausgabe an externe Begutachter gegangen ist.

In der Vergangenheit haben IPCC-Autoren bekanntermaßen Daten gelöscht, um „den Rückgang zu verstecken“, und zwar in Briffas Temperatur-Rekonstruktion mit dem Ziel, „den Skeptikern kein Futter zu geben“. Ohne diese Vergangenheit hätte man dem IPCC etwas mehr Breite verleihen sollen. Allerdings haben weder das IPCC noch die es unterstützenden Institutionen einem solchen Verhalten abgeschworen oder Schritte unternommen, Ähnliches in Zukunft zu vermeiden. Folglich ist das IPCC anfällig für Verdächtigungen, dass die Entfernung von Abbildung 1.5 ausschließlich der Vermeidung geschuldet war, den „Skeptikern Futter zu reichen“.

Vielleicht gibt es aber einen triftigen Grund, nur ist der bisher nicht präsentiert worden.

Link: http://climateaudit.org/2013/10/08/fixing-the-facts-2/

Übersetzt von Chris Frey EIKE