Offener Brief an Tom Karl vom NOAA/NCEI bzgl. seiner „den Stillstand zerschlagenden“ Daten

Von: Bob Tisdale – unabhängiger Forscher

An: Tom Karl – Direktor NOAA/NCEI

Hallo Tom,

ich schreibe an Sie mit Bezug auf die jüngste Studie, von der Sie der Leitautor waren. Bei der Studie handelt es sich natürlich um Karl et al. (2015) Possible artifacts of data biases in the recent global surface warming hiatus (paywalled.) Darin wurden die Auswirkungen auf den kürzlichen Stillstand des Temperaturanstiegs der noch nicht implementierten Änderungen im globalen Festlands- und ozeanischen NOAA/NCEI-Datensatz präsentiert. Die Änderungen des Teiles der Ozeantemperaturen (the NOAA ERSST.v4 sea surface temperature reconstruction), nicht der Teil der Festlandstemperaturen, spielten bei Ihren Ergebnissen die größere Rolle. Die Änderungen jener Temperaturdaten der Meeresoberfläche werden durch die Studien gestützt:

● Huang et al. (2015) Extended Reconstructed Sea Surface Temperature version 4 (ERSST.v4), Part I. Upgrades and Intercomparisons und

● Liu et al. (2015) Extended Reconstructed Sea Surface Temperature version 4 (ERSST.v4): Part II. Parametric and Structural Uncertainty Estimates.

Absicht dieses Briefes ist es zu zeigen, wann und wie sich die neuen NOAA-Daten der Meeresoberfläche während des Stillstands von den Daten der nächtlichen maritimen Temperatur unterscheiden, auf denen sie basieren und welche verwendet werden für Bias-Adjustierungen während des Datenzeitraumes.

Abbildung 1 ist Abbildung 3 im Beitrag dieses Wochenendes More Curiosities about NOAA’s New “Pause Busting” Sea Surface Temperature Dataset. Die neuen NOAA ERSST.v4-Daten der Wassertemperatur zwischen 60°N und 60°S zeigen eine merklich höhere Erwärmungsrate während des Stillstands als die UKMO HadNMAT2-Daten, welche als Referenz für die Bias-Adjustierungen in Ihren neuen ERSST.v4-Daten herangezogen worden waren.

Von Januar 1998 bis Dezember 2010, dem letzten Monat der HadNMAT2-Daten, hat sich die Erwärmungsrate bei den neuen NOAA ERSST.v4-Daten gegenüber den Referenzdaten von HadNMAT2 im Wesentlichen verdoppelt. Mit anderen Worten, die HadNMAT2-Daten stützen Ihre Behauptungen hinsichtlich eines in Wirklichkeit nicht existierenden Stillstandes nicht.

Nun könnte man versucht sein zu behaupten, dass die höhere Erwärmungsrate der NOAA-ERSST.v4-Daten durch die wachsende Zahl auf Bojen basierender im Vergleich zu von Schiffen gewonnenen Daten verursacht ist. Diese Logik ist natürlich Unsinn (1), weil die HadNMAT2-Daten nicht durch den Bojen-Schiffe-Bias beeinflusst werden. Dies ist auch der Grund, warum NOAA die HadNMAT2-Daten von Anfang an als Referenz herangezogen hat. (2), weil die beiden Datensätze exakt die gleiche Erwärmungsrate zeigen während der meisten Zeit des von Abbildung 1 abgedeckten Zeitraumes. Das heißt, die Trends der beiden Datensätze sind gleich von Juli 1998 bis Dezember 2007, während eines Zeitraumes also, in dem Bojen ausgebracht worden und zur dominanten in situ-Quelle von Temperaturdaten der Ozeanoberfläche geworden sind. Siehe Abbildung 2:

Man beachte jene Magnitude der Trends während jenes Zeitraumes. Damals im Jahre 2008 haben nur wenige Menschen über die Verlangsamung der globalen Erwärmung diskutiert.

In Wirklichkeit basieren die in Abbildung 1 gezeigten Trendunterschiede auf Reaktionen von ENSO-Ereignissen. Man erkennt in Abbildung 1, dass die nächtlichen maritimen Daten der Lufttemperatur (HadNMAT2) stärker auf den El Niño von 1997/98 reagieren und als Folge davon auch stärker zurückgehen während des Übergangs zu La Niña 1998-2001. Wir konnten diese Reaktion der HadNMAT2-Daten erwarten, weil sie nicht ausgefüllt [infilled?] waren, während die größere räumliche Abdeckung der ERSST.v4-Daten dazu tendiert, die Volatilität als Folge von ENSO zu unterdrücken. Man kann die zusätzliche Volatilität der HadNMAT2-Daten in der gesamten Abbildung 2 erkennen. Am anderen Ende des Graphen in Abbildung 1 erkennt man, wie die neuen NOAA ERSST.v4-Daten der Wassertemperatur stärker auf den 2009/10-El Niño reagieren … oder noch wahrscheinlicher, sie sind unnötigerweise nach oben adjustiert worden. Die zusätzliche Auswirkung auf die Daten der Wassertemperatur nach dem El Niño von 2009/10 ist, gelinde gesagt, merkwürdig.

Wie ist dieses ungewöhnliche Verhalten zu erklären, Tom? Kann es vielleicht sein, dass die von Ihnen für die Bias-Adjustierungen gewählte Lowess-Filterung [?] die Ursache ist anstatt die lineare Glättung vorzunehmen wie von Ihnen in den ERSST.v3b-Daten zuvor angewendet? Die unterstützende Studie für die neuen NOAA-Daten der Wassertemperatur, also Huang et al. (2015), stellt hinsichtlich der Filterung fest, wie sie in Abbildung 5 gezeigt wird (Fettdruck von mir):

Die monatlichen Anpassungs-Koeffizienten [fitting coefficients] (graue Linien) werden in Abb. 5 gezeigt, welche alles in allem zur fünften Hypothese passen, dass die Verzerrungen nur sehr langsam mit der Zeit variieren. Um potentiellen Spuren von hoch frequentem Rauschen aus den Anpassungs-Koeffizienten herauszufiltern, wurde ein linear angepasster Koeffizient verwendet bei den ERSST.v3b-Daten (Smith und Reynolds 2002). Nachfolgende wiederholte ERSST.v3b-Analysen haben die wahrscheinliche Existenz einer substantiellen multidekadischen Bias-Variabilität beleuchtet während der gesamten Aufzeichnung (z. B. Kennedy et al. 2011) anstatt einfach die Variabilität während des Übergangs von hauptsächlichen Eimer-Messungen zu ERI-Messungen Anfang der vierziger Jahre. Auf die ERSST.v4-Daten wurde eine Lowess-Filterung angewendet (Cleveland 1981; Abbildung 5), was Bias-Adjustierungen während der gesamten Aufzeichnung erlaubte. Ein Filter-Koeffizient von 0,1 wird an Lowess angebracht, welcher äquivalent ist mit einem Low-Pass-Filter [?] von 16 Jahren, und welcher die Low-Frequency-Natur der erforderlichen Bias-Adjustierung repräsentiert. Grund für die Filterung ist es, die Bias-Adjustierung glatter zu machen, so dass er konsistent ist mit der Hypothese, eine klimatologische SST2NMAT-Verteilung anzubringen. Allerdings betonen wir, dass höher frequente Änderungen der SST-Verzerrungen fast mit Sicherheit existieren, wie von Thompson et al. (2008), Kennedy et al. (2011) und Hirahara et al. (2014) gezeigt. Kürzere Zeitfenster oder der Gebrauch jährlich gemittelter Daten wären aufgrund ihrer Konstruktion stärker rauschend, weil die Schätzung zu jedem gegebenen Punkt auf kleineren Stichproben basieren würde, und es ist nicht klar, an welchem Punkt dies zu einem Risiko wird, das an Randwert-Rauschen anzupassen, oder ob es sich um ein systematisches Bias-Signal handelt. Der Vorzug liegt auf einer robusten Schätzung der multidekadischen Komponente der Bias-Adjustierungen mittels Verwendung eines Koeffizienten von 0,1. Dies könnte jedoch auf Kosten genau porträtierter Verzerrungen zu Zeiten schneller Übergänge gehen (z. B. der Zeitraum 2. Weltkrieg).

Und wie oben illustriert und diskutiert, könnte die von Ihnen gewählte Filterung auch „auf Kosten genau porträtierter Verzerrungen zu Zeiten schneller Übergänge gehen“ als Folge starker jährlicher Durchdringungen von El Nino-Ereignissen während des Stillstands? Irgendwie scheint es so, als seien die Bias-Adjustierungen Bojen – Schiffe unnötig vorgenommen worden in Ihrem neuen Wassertemperatur-Datensatz nach 2007.

I look forward to your reply.

Zum Schluss

Judith Curry hat jüngst in einem Beitrag hier darüber gesprochen, dass die Ergebnisse Ihrer jüngsten Studie Karl et al. (2015) auf Methoden der Rosinenpickerei basieren:

Diese neue Studie ist vor allem interessant im Zusammenhang mit der Studie von Karl et al., in der der Stillstand ,verschwindet‘. Ich vermute, dass die wesentliche Botschaft für die Öffentlichkeit lautet, dass die Daten wirklich, wirklich unsicher sind und es viel Gelegenheit für Wissenschaftler gibt, Methoden herauszupicken, um die gewünschten Ergebnisse zu bekommen.

Ich tendiere dazu, dem zuzustimmen. Die Ergebnisse der auf die frühere Version der NOAA-Daten der Wassertemperatur angewandten statistischen Methoden (ERSST.v3b) hatte nicht die von der NOAA gewünschten Ergebnisse erbracht. Daher wurden die NOAA/NCEI-Daten unter Ihrer Leitung gemischt und mit entsprechenden Methoden behandelt, bis die von Ihnen gewünschten Ergebnisse vorlagen (ERSST.v4).

Ich freue mich auf Ihre Antwort.

Sincerely,

Bob Tisdale

Link: http://wattsupwiththat.com/2015/06/11/open-letter-to-tom-karl-of-noaancei-regarding-hiatus-busting-data/

Übersetzt von Chris Frey EIKE, der mal wieder an die Grenzen seines Wissens geführt worden ist.




Beispiel für Deutschland: Offener Brief an die US-Senatoren Ted Cruz, James Inhofe und Marco Rubio

Ich habe ein paar grundlegende Fragen zur auf Klimamodellen basierenden Wissenschaft, und zwar Folgende:

● Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn diese Modelle gar nicht das Klima der Erde simulieren?

● Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn jede neue Generation von Klimamodellen die gleichen grundlegenden Antworten liefert?

● Redundanz: Warum finanzieren die Steuerzahler 5 Klimamodelle in den USA?

● Warum liefern Klimamodelle nicht die Antworten, die wir brauchen?

●● Beispiel: Warum hat der Konsens regionaler Klimamodelle Timing, Ausmaß und Dauer der Dürre in Kalifornien nicht vorhergesagt?

Ich habe diese Bedenken im Folgenden ausgeführt und erläutert.

Anmerkung: Ich habe mit diesem Brief bereits vor einigen Monaten angefangen, und zwar nach der Ankündigung, dass Sie diesen Komitees vorstehen werden. Zwei von Ihnen bewerben sich jetzt um die Präsidentschaft. Selbst damit im Hinterkopf hoffe ich, dass Sie und ihre Büros diese Fragen beantworten.

Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn diese Modelle gar nicht das Klima der Erde simulieren?

Das IPCC verlässt sich auf Klimamodelle, um die globale Erwärmung und den Klimawandel Emissionen anthropogener Treibhausgase zuzuordnen und für die Simulation des zukünftigen Klimas auf der Grundlage von Schätzungen zukünftiger Emissionen. Aber die Klimamodelle simulieren das Klima der Erde nicht so, wie es derzeit ist, wie es in der Vergangenheit war oder in Zukunft sein könnte. Die Gemeinschaft der Klimawissenschaft weiß das sehr wohl, aber nur wenige Personen außerhalb dieser geschlossenen Gruppe haben auch nur die geringste Ahnung davon, dass die Klimamodelle das Erdklima gar nicht simulieren.

Dr. Kevin Trenberth vom National Center for Atmospheric Research (NCAR) war vor über 7 Jahren sehr offen hinsichtlich dieser simplen Fakten, und es gab keine Weiterentwicklungen seitdem beim Prozess der Klimamodellierung. In Dr. Trenberths Artikel aus dem Jahr 2007 mit dem Titel Predictions of Climate auf dem Blog Nature.com wurden viele kritische Schwächen der Klimamodelle angesprochen, die vom IPCC für die Simulation des Erdklimas in Vergangenheit und Zukunft verwendet worden waren. Dr. Trenberths Artikel war angefüllt mit bemerkenswerten Äußerungen, wie z. B.:

…kein einziger Klimastatus in den Modellen korrespondiert auch nur entfernt mit dem gegenwärtig beobachteten Klima.

Im Besonderen haben der Zustand der Ozeane, Meereis und Bodenfeuchtigkeit keine Beziehung zu den beobachteten Zuständen zu irgendeiner Zeit der jüngeren Vergangenheit in irgendeinem der IPCC-Klimamodelle.

Außerdem kann der Klimastatus zu Beginn der Simulation in vielen der Modelle signifikant vom realen Klima abweichen, was den Weg frei macht für Modellfehler.

Das sind aussagekräftige Feststellungen. Falls Sie Dr. Trenberths Beitrag vollständig lesen würden, werden sie erkennen, dass jene Zitate sich wie ein roter Faden durch den übrigen Text ziehen. Gelegentlich warf Trenberth ein, was man tun könne, damit das Dogma der globalen Erwärmung die kritischen Aspekte abschwächt.

Eines von Dr. Trenberths Statements ragt als Selbstbetrug heraus:

Das gegenwärtige Projektionsverfahren funktioniert bis zu dem Grad, wie es der Fall ist, weil Differenzen von Lauf zu Lauf sowie der Haupt-Modellbias und systematische Fehler sich gegenseitig aufheben. Dies legt Linearität nahe.

Sieben Jahre später, mit der Verlangsamung der Erwärmung und der fehlenden Wärme in den Ozeanen weiß jeder, dass das „gegenwärtige Projektionsverfahren“ nicht funktioniert. Die Gemeinschaft der Klimawissenschaft wusste von Anfang an, dass das Erdklima chaotisch und nichtlinear ist. Tatsächlich hat das IPCC bereits in seinem Dritten Zustandsbericht unter der Überschrift Balancing the need for finer scales and the need for ensembles festgestellt (Fettdruck von mir):

Alles in allem muss eine Strategie berücksichtigen, was möglich ist. Bei der Klimaforschung und -modellierung müssen wir erkennen, dass wir es mit einem gekoppelten, nichtlinearen chaotischen System zu tun haben und dass daher eine langfristige Prognose des zukünftigen Klimazustandes nicht möglich ist.

Auf der gleichen Website fährt das IPCC dann fort, dieses Statement als Begründung für große Ensembles von Modellen heranzieht in der unlogischen Annahme, dass eine Sammlung falscher Modelle richtige Antworten erbringt.

Es war nur eine Frage der Zeit, bis das „gegenwärtige Projektionsverfahren“ des IPCC scheitert. Und es hat nicht lange gedauert. Falls das „gegenwärtige Projektionsverfahren“ funktioniert hätte, müsste sich die klimawissenschaftliche Gemeinschaft jetzt nicht damit herumschlagen, die Verlangsamung der Erwärmung und die fehlende Wärme in den Ozeanen mit einer Entschuldigung nach der anderen zu erklären.

Schauen wir noch, was Dr. Trenberth zur Stützung der oben zitierten Stichworte geschrieben hat:

Keines der vom IPCC benutzten Modelle wurde auf den beobachteten Status initialisiert, und keiner der Klimazustände in den Modellen korrespondiert auch nur entfernt mit dem gegenwärtig beobachteten Klima. Insbesondere der Zustand der Ozeane, Meereis und Bodenfeuchtigkeit haben keine Beziehung zum beobachteten Zustand zu irgendeinem Zeitpunkt der jüngeren Vergangenheit in irgendeinem der IPCC-Modelle. Weder gibt es eine El Niño-Sequenz noch irgendeine Pazifische dekadische Oszillation, welche die jüngere Vergangenheit spiegeln; und doch sind es diese grundlegenden Faktoren der Variabilität, die die Anrainerstaaten des Pazifik und darüber hinaus beeinflussen. Die Atlantische Multidekadische Oszillation, die von der thermohalinen Zirkulation abhängig sein kann und folglich von von den Meeresströmen im Atlantik, wurde nicht mit dem heutigen Zustand abgeglichen, obwohl dies eine wichtige Komponente atlantischer Hurrikane ist und zweifellos Auswirkungen auf die Vorhersage der nächsten Dekade von Brasilien bis nach Europa hat. Außerdem kann der Klimastatus zum Startpunkt vieler der Klimamodelle signifikant vom realen Klimastatus derzeit abweichen, was zu Modellfehlern führt. Ich postuliere, dass es unmöglich ist, regionale Klimaänderungen angemessen vorhersagen zu können, solange die Modelle nicht initialisiert werden.

Es kommt nicht überraschend, dass auf natürliche Weise stattfindende und von Sonnenlicht angetriebene El Niño- und La Niña-Ereignisse sowie längerzeitliche Zustände der natürlichen Variabilität wie die AMO und die PDO jetzt dafür herhalten müssen, die globale Erwärmung zu unterdrücken. Andererseits wird fast nie angesprochen, dass:

● jene Zustände der natürlichen Variabilität die globale Erwärmung auch verstärken können, und

● die Klimamodell-Projektionen des zukünftigen Klimas nur mit der auf natürliche Weise erfolgten Erwärmung von Mitte der siebziger Jahre bis zur Jahrhundertwende einhergehen.

Beide diese Faktoren zeigen, dass Klimamodellprojektionen einer zukünftigen globalen Erwärmung zwei mal zu hoch ausfallen.

Weil die Klimamodelle Zustände der natürlichen Variabilität nicht simulieren können, die die globale Erwärmung verstärken oder abschwächen, ist das Verlassen auf diese Modelle, wie sie heute existieren, für das Studium der globalen Erwärmung und des Klimawandels ähnlich wie bei Physikern, die sich auf Computermodelle des menschlichen Körpers verlassen, die nicht Atmung, Verdauung, Kreislauf usw. simulieren können.

Einfach gesagt, Klimamodelle sind eine virtuelle Realität. Sie sind nicht realer als die mit Computern erzeugten Bilder von King Kong oder Dinosauriern oder Aliens in Kinofilmen.

Schauen wir noch ein mal darauf, was die Klimawissenschaftler uns mit ihren Klimamodell-Projektionen in Wirklichkeit sagen: (1) Falls Emissionen anthropogener Treibhausgase wie in zahlreichen Zukunftsszenarien projiziert zunehmen, und (2) falls das Erdklima auf diese Zunahme anthropogener Treibhausgase reagiert, wie es von den Klimamodellen simuliert wird, dann (3) könnte sich das Klima wie simuliert ändern, aber (4) die klimawissenschaftliche Gemeinde weiß sehr genau, dass das Erdklima NICHT auf jene Zunahmen reagiert, wie es die Klimamodelle projizieren.

Da fragt man sich, warum sie diese Mühen auf sich nehmen … wohl nur, um die Wünsche der politischen Gebilde zu erfüllen, die die Klimawissenschaft finanzieren.

Anmerkung: In einem Postscriptum zu diesem Brief habe ich ein paar Beispiele angeführt mit Vergleichen von Modellen mit Daten aus meinen früheren Blogbeiträgen. Sie zeigen, wie schlecht die Klimamodelle die Temperaturen, Niederschlag und Meereis simulieren.

Warum finanzieren die Steuerzahler auf Klimamodellen basierende Forschungen, wenn jede neue Generation von Klimamodellen die gleichen grundlegenden Antworten liefert?

Die vom IPCC praktizierte, auf Klimamodellen basierende Forschung zeitigt die gleichen grundlegenden Antworten wie bereits vor über zwei Jahrzehnten. Vom Ersten IPCC-Zustandsbericht aus dem Jahr 1990 bis zum Fünften Zustandsbericht 2013 gab es kaum Änderungen von auf Klimamodellen basierenden Projektionen der Temperaturen, verursacht durch vermeintliche zukünftige Zunahmen der Emissionen anthropogener Treibhausgase (hauptsächlich Kohlendioxid). Als zusätzliche Beispiele haben uns alle fünf Zustandsberichte fundamental auch gesagt:

1) Der Meeresspiegel wird weiter steigen, unabhängig davon, ob wir unsere Emissionen von Treibhausgasen reduzieren oder nicht … und es gibt immer noch große Unsicherheits-Bandbreiten von Best-Case-Szenarien, die sich mit Worst-Case-Szenarien überlagern.

2) Gletscher und Eisschilde werden schmelzen, was zum Anstieg des Meeresspiegels beiträgt … aber das ist lediglich eine Fortsetzung des Schmelzprozesses, der seit dem Ende der letzten Eiszeit im Gange ist, als die Temperaturen auf ein Niveau gestiegen sind, bei dem Inlandseis schmilzt. Gletscher und Eisschilde werden weiterhin schmelzen, bis die Temperaturen wieder fallen und wir der nächsten Eiszeit entgegen gehen. Und das fortgesetzte Abschmelzen der Gletscher und Eisschilde wird natürlich zu weiteren Anstiegen des Meeresspiegels beitragen.

3) In einigen Regionen der Erde wird es Dürren, in anderen Überschwemmungen geben … aber selbst die gegenwärtigen „hypermodernen“ Klimamodelle können uns nicht sagen, wo und wann diese Überschwemmungen und Dürren auftreten, weil sie immer noch nicht die jährlichen, dekadischen und multidekadischen Variationen simulieren können in gekoppelten Ozean-Atmosphäre-Prozessen, die den globalen Niederschlag steuern. Hierzu mehr in einem späteren Abschnitt.

Die USA haben während der letzten zwei Jahrzehnte Milliarden Dollar in die auf Klimamodellen basierende Wissenschaft gesteckt. Und doch sagen uns die Berichte immer das Gleiche, wieder und immer wieder: Temperaturen und Meeresspiegel werden steigen, etc. Sie liefern nichts neues von Wert und haben das auch noch nie getan.

Redundanz: Warum finanzieren die Steuerzahler 5 Klimamodelle in den USA?

Von den 26 Klimamodell-Gruppen der Welt, die Modellergebnisse für den 5. IPCC-Zustandsbericht des IPCC liefern, stammen 5 aus den USA:

Das CMIP5-Klimamodellvergleichsprojekt findet sich hier.

● NASA Goddard Institute for Space Studies (GISS)

● NASA Global Modeling and Assimilation Office (GMAO)

● National Center for Atmospheric Research (NCAR)

● NOAA Geophysical Fluid Dynamics Laboratory (GFDL)

● National Science Foundation, Department of Energy, National Center for Atmospheric Research (NSF-DOE-NCAR)

Keines der Modelle simuliert das Klima so, wie es jetzt ist. Brauchen die USA 5 Klimamodelle und den damit verbundenen Mitarbeiterstab für Modelle, die das Klima auf einem virtuellen Planeten simulieren, der wenig Ähnlichkeit mit dem hat, den wir bewohnen?

Warum liefern Klimamodelle nicht die Antworten, die wir brauchen?

Nach vielen Jahrzehnten der Bemühungen, das Klima zu modellieren, hat die klimawissenschaftliche Gemeinschaft keine Modelle bilden können, die in der Lage sind, die Antworten zu liefern, die wir brauchen und die wir verdienen. Dafür gibt es einen ganz einfachen Grund: Den Schwerpunkt der klimawissenschaftlichen Gemeinschaft bei der Klimaforschung.

Unter Führung des IPCC und der politischen Körperschaften, die die Klimawissenschaft finanzieren, lag der Schwerpunkt der Klimaforschung immer auf der vom Menschen verursachten globalen Erwärmung oder des Klimawandels, niemals aber auf der natürlichen Variabilität. Dabei sind es auf natürliche Weise ablaufende gekoppelte Ozean-Atmosphäre-Prozesse, die bestimmen, wann und wo Temperatur und Niederschlagsmenge zunehmen und wo nicht.

Wir müssen uns immer vor Augen führen, dass das IPCC eine politische Institution ist und nicht eine wissenschaftliche. Die einzige Aufgabe dieser Institution ist es, wissenschaftliche Studien zu bewerten, die eine politische Agenda stützen. Nicht mehr und nicht weniger.

Die Website mit der Historie des IPCC beginnt mit den Worten (Fettdruck von mir):

Das IPCC wurde im Jahre 1988 ins Leben gerufen. Es wurde gebildet von der WMO und dem United Nations Environment Program (UNEP), um Zustandsbeschreibungen auf der Grundlage verfügbarer wissenschaftlicher Informationen zu erstellen über alle Aspekte des Klimawandels und deren Auswirkungen, mit einer Meinungsbildung, um realistische Gegenmaßnahmen einzuleiten. Die ureigene Aufgabe des IPCC, wie sie in der Resolution der UN-Vollversammlung 43/53 vom 6. Dezember 1988 umrissen worden war ist es, unter Berücksichtigung des Wissens um die Wissenschaft des Klimawandels umfassende Berichte und Empfehlungen zu erstellen; über die sozialen und ökonomischen Auswirkungen des Klimawandels und mögliche Gegenmaßnahmen sowie Elemente, die Eingang finden könnten in ein mögliches zukünftiges internationales Klimaabkommen.

Folglich wurde das IPCC gegründet, um Berichte zu schreiben. Keine Frage, dass es sich dabei um sehr detaillierte Berichte handelt, so beladen, dass nur sehr wenige Personen sie in Gänze lesen würden. Die meisten Menschen lesen nur die Summaries for Policmakers … auf deren Inhalte sich die Politiker nach jeweils wochenlangen Diskussionen einigen müssen [und deren Wortlaut, wie man inzwischen weiß, auf politischen Druck hin häufig vom Wortlaut in den Originalberichten abweichen. Anm. d. Übers.].

Wie aus obigem Zitat hervorgeht, ist die Sprache der IPCC-Berichte darauf ausgerichtet, ein internationales Klimawandel-Abkommen zu stützen.

Dieser Vertrag ist bekannt unter der Bezeichnung United Nations Framework Convention on Climate Change (UNFCCC). Er wurde im Jahre 1992 unterzeichnet, ein Jahr nach dem ersten IPCC-Zustandsbericht. Dieses Timing ist sehr seltsam, weil die Ergebnisse jenes ersten Berichtes nicht aufschlussreich waren, konnte doch die klimawissenschaftliche Gemeinde darin nicht unterscheiden zwischen natürlichen und anthropogenen Beiträgen. Dies brachte die UN in eine prekäre Lage. Man hatte ein Abkommen zur Stelle, die Emissionen von Treibhausgasen zu reduzieren, jedoch ohne wissenschaftliche Unterstützung. Folglich musste jeder folgende politisch motivierte Bericht unbedingt die Sicherheit des IPCC zunehmen lassen, dass Treibhausgase der primäre Treiber der globalen Erwärmung waren. Anderenfalls wäre das UNFCCC tot.

Ein paar Klarstellungen:

Eine Ausgabe des UNFCCC findet sich hier. Unter der Überschrift von Artikel 2 – Objektive identifiziert das UNFCCC sein Ziel, die Emissionen von Treibhausgasen zu begrenzen (Fettdruck von mir):

Die ultimative Objektive dieser Konvention und jedwedes damit zusammenhängende legale Instrument, das die Konferenz der Teilnehmer übernehmen könnten, ist es, in Übereinstimmung mit den relevanten Provisionen der Konvention die Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau festzuschreiben, dass gefährliche anthropogene Interferenzen mit dem Klimasystem verhindert.

Weil es die Objektive des UNFCCC-Vertrages war, die Emissionen menschlicher Treibhausgase zu begrenzen, und weil es das Ziel des IPCC war, Berichte zu erstellen, die diesen Vertrag stützen, kann man mit Fug und recht sagen, dass es die einzige Rolle des IPCC war, wissenschaftliche Berichte zu schreiben, die eine politisch motivierte Vorgabe zur Begrenzung von Treibhausgasemissionen stützen. Ich habe das Wort Vorgabe aus einem ganz bestimmten Grund unterstrichen: Weil die Klimamodelle das Klima immer noch nicht so simulieren, wie es ist, hat das IPCC niemals wirklich glaubhaft gemacht, dass eine Notwendigkeit zur Begrenzung der Emissionen besteht.

Weiter unten auf der Website mit der IPCC-Historie stellt man fest (Fettdruck von mir):

Die heutige Rolle des IPCC ist definiert in den Prinzipien, der die Arbeit des IPCC zu folgen hat (hier) … nämlich auf einer umfassenden, objektiven, offenen und transparenten Grundlage die wissenschaftlichen, technischen und sozio-ökonomischen Informationen einzuschätzen, die relevant sind für das Verständnis der wissenschaflichen Basis für das Risiko eines von DEN MENSCHEN VERURSACHTEN Klimawandels, deren potentielle Auswirkungen und Optionen für Anpassung an und Abschwächung desselben.

Die Tatsache, dass das IPCC all seine Bemühungen auf das „Verständnis der wissenschaftlichen Basis der Risiken einer vom Menschen verursachten Klimaänderung“ konzentriert hat, ist sehr wichtig. Das IPCC hat niemals wirklich versucht zu untersuchen, ob nicht auch natürliche Faktoren Hauptursache für den größten Teil der Erwärmung während des vorigen Jahrhunderts sein könnten. Jahrzehnte lang haben sie Tomaten auf den Augen gehabt, die ihre Sicht auf alles andere außer den möglichen Auswirkungen von Kohlendioxid verhindert haben. Die Rolle des IPCC war es stets, Berichte zu erstellen, die die Reduktion von Treibhausgasemissionen stützen, die bei der Verbrennung fossiler Treibstoffe anfallen. Als Folge davon fließt das gesamte Forschungsgeld genau dorthin. Die Entscheidung, nur die vom Menschen induzierte globale Erwärmung zu studieren, ist eine politische und keine wissenschaftliche Entscheidung.

Als Folge dieser politischen Entscheidung gibt es kaum wissenschaftliche Forschungen, die versuchen zu bestimmen, wie viel der erfolgten Erwärmung natürlichen Faktoren geschuldet ist. Wir wissen, dass dies eine Tatsache ist, weil die gegenwärtige Generation von Klimamodellen – die komplexesten Klimamodelle bisher – immer noch nicht aus natürlichen Gründen auftretende Ozean-Atmosphäre-Prozesse simulieren können, die dafür sorgen, dass sich die Erdoberfläche (und die Ozeane bis zu einer bestimmten Tiefe) Jahrzehnte lang erwärmen oder abkühlen können.

Beispiel: Warum hat der Konsens regionaler Klimamodelle Timing, Ausmaß und Dauer der Dürre in Kalifornien nicht vorhergesagt?

Klimamodellierer gehen seit einer Reihe von Jahren in eine andere Richtung: regionale Klimamodelle. Siehe hier zu die NASA-Website Regional Climate Models Evaluation System. Natürlich versuchen sie auf dieser Website , ein rosiges Bild zu zeichnen ohne in größerem Umfang offen zu sein hinsichtlich der Unsicherheiten, die durch natürlich auftretende chaotische Faktoren ins Spiel kommen.

Wir haben uns daran gewöhnt, große Unsicherheits-Bandbreiten der globalen Klimamodelle zu erkennen. Mit kürzerfristigen regionalen Klimamodellen werden diese Unsicherheiten sogar noch größer, weil Ozean-Atmosphäre-Prozesse, die über die Möglichkeiten der Klimamodelle hinausgehen, eine so große Bandbreite von Einflüssen auf das regionale Klima haben.

Unabhängig davon, ob es nun regionale oder globale Klimamodelle sind – Klimamodelle im Allgemeinen sind immer noch nicht in der Lage, gekoppelte Ozean-Atmosphäre-Prozesse zu simulieren, die jährliche, vieljährige, dekadische und multidekadische Änderungen von Temperatur und Niederschlag bestimmen, global und regional. Wie oben erwähnt hat Dr. Trenberth festgestellt, dass Klimamodelle keinerlei natürliche Faktoren der Klimavariabilität enthalten: El Niño/La Niña, PDO und AMO. Es gibt viele andere Modi der natürlichen Variabilität, die jenseits der Möglichkeiten von Klimamodellen liegen, und diese Faktoren haben ebenfalls starke Auswirkungen auf das regionale Klima im Kurzfristzeitraum.

Jetzt möchte ich einen Punkt klarstellen. Ich habe oben geschrieben, dass Klimamodelle immer noch keine Modi der natürlichen Variabilität enthalten. Das heißt nicht, dass sie ein Feature ausschließen, das sie einfach aus einem Menü wählen und dem nächsten Modelllauf hinzufügen können. Die Modelle können diese nicht angemessen simulieren. Es gibt zahlreiche begutachtete Studien, die dieses Scheitern dokumentieren.

Selbst die grundlegendsten Beziehungen zwischen den Passatwinden und der Wassertemperatur im tropischen Pazifik (wo die El Niño-Ereignisse stattfinden) liegen jenseits der Möglichkeiten der Klimamodelle. (Seit dieser Entdeckung in den sechziger Jahren nennt man diese Beziehung die Bjerkness-Rückkopplung. Die Studie aus dem Jahr 2012 von Bellenger et al. ENSO representation in climate models: from CMIP3 to CMIP5 bestätigt diese traurige Tatsache).

Warum hat uns ein Konsens regionaler Klimamodelle nicht gesagt, dass in Kalifornien den Daten zufolge seit 25 Jahren (von 1986 bis 2011) keinerlei Erwärmung mehr aufgetreten ist (hier)? Warum haben sie uns nicht gesagt, dass sich vor ein paar Jahren nordwestlich von Kalifornien über dem östlichen Nordpazifik ein stabiles Hochdruckgebiet gebildet hat … das bis heute Bestand hat? Dass ein Gebiet mit warmem Wasser sich ebenfalls in jenem Gebiet der Nordpazifik bildet … ein Gebiet mit so hohen Wassertemperaturen, dass sie der dominante Grund sind für die rekordhohen globalen Temperaturen im Jahre 2014 (hier)? Dass die Hochdruckzone (jetzt bekannt unter der Bezeichnung „the Blob“) im nordöstlichen Nordpazifik Ursache für die jüngsten rekordhohen Temperaturen in Kalifornien war, zusammen mit einer unter dem Durchschnitt liegenden Niederschlagsmenge? Dass das „lächerlich beständige Hochdruckgebiet“ und „the Blob“ rekordniedrige Temperaturen im Nordosten [der USA] während des vergangenen Winters zur Folge hatte?

(Siehe Bond et al. 2015 Causes and Impacts of the 2014 Warm Anomaly in the NE Pacific und Hartmann (2015) Pacific sea surface temperature and the winter of 2014 sowie deren Presseerklärung ‘Warm blob’ in Pacific Ocean linked to weird weather across the U.S. Auch hier: Johnstone and Mantua (2014) Atmospheric controls on northeast Pacific temperature variability and change, 1900–2012.)

Es gibt einen ganz einfachen Grund, warum uns regionale Klimamodelle nicht gesagt haben, dass es zu all dem kommen würde. Klimamodelle sagen nicht das Wetter vorher, und die die Dürre und die hohen Temperaturen in Kalifornien treibenden Faktoren sind Wetterereignisse … beständige zwar, aber nichtsdestotrotz Wetterereignisse. Andererseits haben Wettermodelle nur begrenzten Wert für ein paar Tage im Voraus…im besten Falle eine Woche im Voraus.

Gibt es regionale Klimamodelle, die zuverlässig vorhersagen können:

●Wie lange die Dürre in Kalifornien noch andauert?

●Wann es erneut zu einer Dürre kommen könnte?

●welche Gebiete des Landes als Nächstens von einer Dürren heimgesucht werden?

Nein!

Werden es kurzfristige regionale Klimamodelle in Zukunft irgendwann etwas bringen?

Nicht, solange sie nicht gekoppelte Ozean-Atmosphäre-Prozesse im Pazifik und dem Nordatlantik vorhersagen können nebst den damit verbundenen und sogar noch chaotischeren Luftdruck-Phänomenen wie dem Nordpazifik-Index, der Nordatlantischen Oszillation und der Arktischen Oszillation usw.

Nehmen wir weiter Kalifornien als Beispiel. Bis die regionalen Klimamodelle chaotische Ozean-Atmosphäre-Prozesse auf Jahre im Voraus vorhersagen können in Gebieten, die von Kalifornien weit entfernt sind, können diese Modelle uns lediglich sagen, was in Kalifornien passieren könnte, falls La Niña-Ereignisse dominieren oder auftreten könnten, falls es eine Verschiebung der damit verbundenen PDO oder des Nordpazifik-Index‘ oder der Arktischen Oszillation gibt. Mit all diesen „es könnte passieren“ sind große Bandbreiten von Unsicherheiten verbunden infolge deren Verstärkungseffekte. Die Unsicherheiten sind so groß, dass sie kaum für die zukünftige Planung verwendet werden können.

Und dann wird es, wie wir jüngst erleben mussten, total unerwartete Ereignisse geben wie die „lächerlich beständige Hochdruckzone“ und „the Blob“, um diese Vorhersagen zunichte zu machen.

Klimamodelle sind nicht einmal nahe daran, die Fragen beantworten zu können, die Antworten brauchen, und es ist unwahrscheinlich, dass sie diese Fähigkeiten aufweisen, bis sie irgendwann Chaos vorhersagen können … Jahre und Jahrzehnte in der Zukunft. Die Wahrscheinlichkeit dafür ist einfach Null.

Zum Schluss

Unter Führung des IPCC und der diesen finanzierenden politischen Institutionen hat sich die Klimawissenschaft allein auf die Stützung internationaler Verträge konzentriert, die Emissionen anthropogener Treibhausgase zu begrenzen. Die Klimamodellierung ist durch diesen Brennpunkt behindert worden, was uns Modelle hinterlassen hat, die keine Beziehung haben zu der Welt, in der wir leben. Es ist an der Zeit, diesen Brennpunkt zu verlagern, um es den Klimamodellierern zu ermöglichen, den wirklichen Beitrag der natürlichen Variabilität zu globaler Erwärmung und Klimawandel zu untersuchen, ohne befürchten zu müssen, dass die Finanzquellen dafür versiegen. Falls wir in der Lage sein wollen, uns an den Klimawandel anzupassen, egal ob vom Menschen verursacht oder natürlichen Ursprungs, braucht die Klimawissenschaft einen viel besserten Zugriff darauf, wie das Klima der Erde tatsächlich funktioniert und nicht, wie es in den Modellen funktioniert.

Ich hoffe, dass Sie und Ihre Büros in der Lage sein werden, sich dieser und anderer Fragen anzunehmen während Ihrer Zeit als Vorsitzende der Komitees und Subkomitees mit Bezug zur Klimawissenschaft.

Falls Sie irgendwelche Fragen haben oder irgendwelche weiteren Informationen brauchen, dann schreiben Sie oder Ihre Mitarbeiter bitte einen Kommentar zu irgendeinem Beitrag auf meinem Blog ClimateObservations.

Sincerely,

Bob Tisdale

P. S. Folgende Beiträge sind eine Sammlung, die illustriert, wie schlecht Klimamodelle Temperatur Niederschlag und Meereis simulieren:

Satellite-Era Sea Surface Temperatures as anomalies

Satellite-Era Sea Surface Temperatures in absolute form

Global Surface Temperatures (Land+Ocean) Since 1880 as anomalies

Global Surface Temperatures (Land+Ocean) Since 1880 in absolute form

Global Precipitation

Global Land Precipitation & Global Ocean Precipitation

Sea Ice

Wie ich schon früher wiederholt gesagt habe, Klimamodelle lassen gegenwärtig keine andere Aussage zu als zu illustrieren, wie schlecht sie sind.

Link: http://wattsupwiththat.com/2015/04/14/open-letter-to-u-s-senators-ted-cruz-james-inhofe-and-marco-rubio/

Übersetzt von Chris Frey EIKE




Über die Verzerrungen durch Auslassungen im NOAA-Bericht zum Klimastatus 2014

Die globalen Höhepunkte 2014 des NOAA-SOTC-Berichtes
Hinsichtlich der Temperaturen an der Erdoberfläche heißt es bzgl. der globalen Höhepunkte im NOAA-Klimastatusbericht (Fettdruck von mir):
Globale Höhepunkte:
Das Jahr 2014 war das wärmste Jahr bzgl. der globalen Temperatur über Land und Wasser seit Beginn von Aufzeichnungen im Jahre 1880. Die jährlich gemittelte Temperatur lag um 0,69°C über dem Mittel des 20.Jahrhundert von 13,9°C. Dies bricht deutlich die Rekorde der Jahre 2005 und 2010 um 0,04°C. Dies markiert auch das 38. Jahr in Folge (seit 1977), dass die globale mittlere Temperatur über dem Mittelwert lag. Einschließlich 2014 liegen 9 der 10 wärmsten Jahre in der 135 Jahre langen Periode im 21.Jahrhundert. 1998 rangiert gegenwärtig an vierter Stelle der wärmsten Jahre jemals.
● Die globale mittlere Wassertemperatur der Ozeane erreichte ebenfalls einen rekordhohen Wert, der 0,57°C über dem Mittel des 20.Jahrhunderts von 16,1°C lag. Damit wurde der bisherige Rekord der Jahre 1998 und 2003 um 0,05°C gebrochen. Bemerkenswerterweise waren im gesamten Jahr 2014 ENSO-neutrale Bedingungen vorherrschend.
● Die globale mittlere Temperatur auf dem Festland lag um 1,00°C über dem Mittel des 20. Jahrhunderts von 8,5°C und erreichte damit den vierthöchsten jährlichen Wert jemals.
Natürlich waren diese globalen Höhepunkte das, was in den Mainstream-Medien und den Alarmisten-Blogs nachgeplappert wurde. Eine mögen sogar über globale Temperaturen und solche in regionalen Gebieten berichten. Nur wenige werden es wagen darüber hinauszugehen.
Verzerrung von Auslassung 1
Erst wenn die Leser bis zu der Tabelle im SOTC-Bericht herunterscrollen, nennt die NOAA Unsicherheiten. Siehe meine Abbildung 1. Der NOAA zufolge „lag die jährlich gemittelte Temperatur um 0,69°C über dem Mittel des 20.Jahrhundert von 13,9°C. Dies bricht deutlich die Rekorde der Jahre 2005 und 2010 um 0,04°C“. Aber dann beschreibt die NOAA ihre globalen Temperaturanomalien mit „+0.69 ± 0.09°C“. Oh weh, wir entdecken, dass der neue Rekordwert von 0,04°C innerhalb der Unsicherheit von ± 0.09°C des Datensatzes liegt.

Abbildung 1
Noch weiter unten auf der Website stoßen wir auf die Links zu ergänzenden Informationen der NOAA:

Probabilities related to 2014’s historical ranking

Year-to-date temperature evolution

Global temperature trend maps

Various time series of annual temperature data

Der erste Link führt zur Website Calculating the Probability of Rankings for 2014. Dort schreiben sie nach einer initialen Diskussion (Fettdruck von mir):
Mittels eines Monte Carlo-Verfahrens (Arguez et al, 2013) betrachtete NCDC die bekannte Unsicherheit der globalen Festlands- und Ozeantemperatur bzgl. des Ranges der Temperatur 2014. Bezieht man die Unsicherheit ein und betrachtet man alle Jahre (1880 bis 2014) in der Zeitreihe als unabhängig, beträgt die Chance, dass das Jahr
das Wärmste jemals ist: 48%
eines der fünf wärmsten Jahre ist: 90,4%
eines der zehn wärmsten Jahre ist: 99,2%
eines der 20 wärmsten Jahre ist: 100,0%
wärmer als das Mittel des 20.Jahrhunderts ist: 100,0%
wärmer als das Mittel der Jahre 1981 bis 2010 ist: 100%.
NCDC folgt diesen Konventionen, um das Vertrauen in Verbindung mit den vorgenommenen Vermutungen zu kategorisieren im Hinblick auf die im Bericht genannte Rangfolge.
Meine Abbildung 2 zeigt die Tabelle der „Konventionen zur Kategorisierung“, die der Diskussion folgt, mit meinem Höhepunkt:

Abbildung 2
Das heißt, der NOAA zufolge liegt die Chance, dass 2014 das wärmste Jahr jemals war, bei 48,0%. Außerdem scheinen ihrer Tabelle zufolge die globalen Temperaturanomalien 2014 im Bereich „eher unwahrscheinlich als wahrscheinlich“ zu liegen.
Komischerweise hat die NOAA die wichtigste Aussage „eher unwahrscheinlich als wahrscheinlich“ auf der Startseite des Klimastatusberichtes weggelassen. Man muss auf die Links unter Supplemental Information klicken, um herauszufinden, dass 2014 „mehr unwahrscheinlich als wahrscheinlich“ das wärmste Jahr jemals war.
Daher hat die NOAA die „Globalen Höhepunkte“ ihres Klimastatusberichtes verzerrt dargestellt, weil man ,vergessen‘ hat, die Wahrscheinlichkeit oder eher die Unwahrscheinlichkeit der höchsten globalen Temperaturen jemals im Jahre 2014 anzumerken.
Verzerrung durch Auslassung 2
Das nächste Thema ist das El Niño-Ereignis im Jahr 2014.
Unter der Überschrift Globale Temperaturen auf der Startseite des SOTC-Berichtes der NOAA stellt man fest:
Dies ist das erste Mal seit 1990, dass der Wärme-Temperaturrekord gebrochen worden ist bei Abwesenheit von El Niño-Bedingungen zu irgendeiner des Jahres im zentralen und östlichen tropischen Pazifik, wie sie durch den CPC Oceanic Niño Index der NOAA definiert werden. Dieses Phänomen tendiert allgemein dazu, die Temperaturen weltweit zunehmen zu lassen. Doch blieben die Bedingungen während des ganzen Jahres diesmal neutral, und der global erreichte Wärmerekord wurde trotzdem erreicht.
Der ozeanische NINO-Index der NOAA basiert auf der NINO3.4-Region (5°S-5°N, 170°W-120°W) des äquatorialen Pazifiks. Siehe die Karte der NOAA mit den NINO-Regionen hier. Und einem Hovmoller-Diagramm der Wassertemperatur-Anomalien von der NOAA GODAS website zufolge bestanden El Niño-Bedingungen (Wassertemperatur-Anomalien gleich oder größer als +0,5°C) im äquatorialen Pazifik östlich und westlich der NINO3.4-Region fast das gesamte Jahr 2014 über.

Abbildung 3
Mit anderen Worten, die Daten der Wassertemperatur zeigen, dass während der meisten Monate im Jahr 2014 sehr wohl El Niño-Bedingungen vorlagen, aber eben nicht in der Region, die die NOAA als Definition eines El Niño festgelegt hatte. Unabhängig davon hat die Japan Meteorological Agency JMA angemerkt, dass seit Juni El Niño-Bedingungen herrschten (hier). Dies haben wir bereits im Rahmen der jüngsten ENSO-Aktualisierung diskutiert (hier) sowie in dem Beitrag mit dem Titel [übersetzt] „Der kleine El Niño, den es gegeben oder nicht gegeben haben könnte (abhängig von Agentur und Index)“ (hier).
Im Dezember 2014 lag die NINO.3-Wassertemperatur (SST) über dem Normalwert mit einer Abweichung von +0,9°C und über einem über fünf Monate gleitend geglätteten Mittelwert der mittleren NINO.3-SST-Abweichung von +0,5°C, und zwar fünf aufeinanderfolgende Monate lang, nämlich von Juni bis November (Tabelle und Abbildung 1). Die Wassertemperatur lag in den meisten Gebieten vom westlichen zum östlichen äquatorialen Pazifik über dem Normalwert (Abbildungen 2 und 4). Die Wassertemperatur unter der Oberfläche lag über dem Normalwert im östlichen äquatorialen Pazifik (Abbildungen 3 und 5).Diese ozeanischen Bedingungen zeigen, dass im äquatorialen Pazifik sehr wohl El Niño-Bedingungen vorlagen…
Und der Grund für diese Behauptungen der JMA ist, dass man dort die NINO3-Region betrachtet (5°S-5°N, 150°W-90°W), welche sich bis östlich des NINO3.4-Gebietes erstreckt und dieses überlappt.
Also hat die NOAA die Tatsache verschwiegen, dass den Daten zufolge El Niño-Bedingungen im äquatorialen Pazifik präsent waren, außerhalb des für einen ENSO-Index betrachteten Gebietes. Damit konnten sie dann behaupten, dass „die Bedingungen während des ganzen Jahres diesmal neutral waren und der global erreichte Wärmerekord trotzdem erreicht wurde“.
Natürlich war es die Absicht des NOAA-Statements, den Eindruck zu vermitteln, dass es alles in allem eine generelle Erwärmung gegeben hatte, die nicht El Niño-Bedingungen zugeordnet werden kann, obwohl in Wirklichkeit tatsächlich El Niño-Bedingungen im Jahre 2014 vorlagen.
Verzerrung durch Auslassen 3
Jetzt folgt eine Diskussion des zusätzlichen Grundes für erhöhte Wassertemperaturen.
Die NOAA schreibt unter ihren „Globalen Höhepunkten“ (Fettdruck von mir):
Ein großer Anteil der Rekordwärme auf dem Globus kann der Rekordwärme in den globalen Ozeanen zugeordnet werden. Die jährlich gemittelte Temperatur für die Wasseroberfläche der Ozeane der Welt lag um 0,57°C über dem Mittelwert des 20. Jahrhunderts, was lässig die bisherigen Rekorde der Jahre 1998 und 2003 brach, die um 0,05°C über diesem Wert lagen. Die ersten vier Monate (Januar bis April) lagen jeweils unter deren sieben wärmsten Monaten hinsichtlich des jeweiligen Vergleichsmonats, und die folgenden sieben aufeinanderfolgenden Monate (Mai bis November) zeigten Rekordwärme. Das Jahr endete mit dem Dezember als dem drittwärmsten Dezembermonat jemals.
Im Jahre 2014 hatte die Wärme ihre Ursache in großen Gebieten mit viel höheren Wassertemperaturen als normal in Teilen eines jeden größeren Ozeanbeckens. Rekordwärme wurde besonders im nordöstlichen Pazifik und um den Golf von Alaska verzeichnet sowie in weiten Gebieten des westlichen äquatorialen Pazifiks, Teilen des jeweils westlichen Nord- und Südatlantiks und in den meisten Gebieten der Norwegischen und der Barents-See. Fast der gesamte Indische Ozean war viel wärmer als im Mittel mit einem breiten Band zwischen Madagaskar und Australien. Teile des Atlantiks südlich von Grönland und die Gewässer südlich von Kap Hoorn waren viel kälter als im Mittel mit einem nahe der Antarktis lokalisierten Gebiet mit Rekordkälte.
Im Vorbeigehen erwähnte die NOAA die erhöhten Wassertemperaturen im östlichen außertropischen Nordpazifik. Ein ungewöhnliches Wetterereignis dort (zusammen mit El Niño-Bedingungen) war in Wirklichkeit die primäre Tatsache für die erhöhte Wassertemperatur des Jahres 2014. Das heißt nicht, dass erhöhte Wassertemperaturen auch in bestimmten Gebieten anderer Ozeanbecken aufgetreten waren, aber allgemein hatten jene erhöhten Temperaturen in Becken außerhalb des Nordpazifiks keinen Einfluss auf die Rekordwerte. Folge davon: Falls wir die Anomalien der Wassertemperatur seit 1997 für die Ozeane außerhalb des Nordpazifiks plotten, erscheint 2014 nicht als ein außerordentlich warmes Jahr … nirgendwo in der Nähe rekordhoher Werte … es rangiert in etwa dort, wo man es als Reaktion auf einen schwachen El Niño erwarten würde. Siehe obere Graphik in Abbildung 4. Die untere Graphik steht für die globalen Ozeane einschließlich des Nordpazifiks. Offensichtlich waren die Vorgänge im Nordpazifik der Hauptgrund für die global erhöhten Werte der Wassertemperatur.

Abbildung 4
Es gab zwei „Wetter“-Ereignisse, die die Temperaturen im Nordpazifik 2014 beeinflusst haben: 1) die El Niño-Bedingungen im tropischen Pazifik, welche direkt die Temperaturen im tropischen Nordpazifik beeinflussen und 2) das ungewöhnliche Warmwetter-Ereignis im östlichen außertropischen Pazifik, welches so gut bekannt ist, dass Klimawissenschaftler dafür den dadurch erzeugten Hotspot „die Blase“ nennen. Wegen dieser beiden Wetterereignisse im Pazifik, und nicht wegen der vom Menschen verursachten globalen Erwärmung, waren die Wassertemperaturen im Jahre 2014 global erhöht. Weil die Temperaturen über dem Festland keine Rekordwerte erreichten, ist es wiederum logisch zu sagen, dass jene beiden Wetterereignisse verantwortlich waren für die rekordhohen Temperaturen (Festland und Ozeane kombiniert), die 2014 „eher unwahrscheinlich als wahrscheinlich“ bestanden haben.
Wir haben in zahlreichen Beiträgen die Gründe für die erhöhten Wassertemperaturen im östlichen extratropischen Pazifik erörtert, und zwar unter Anderem hier:
On The Recent Record-High Global Sea Surface Temperatures – The Wheres and Whys
Axel Timmermann and Kevin Trenberth Highlight the Importance of Natural Variability in Global Warming…
Alarmists Bizarrely Claim “Just what AGW predicts” about the Record High Global Sea Surface Temperatures in 2014
Researchers Find Northeast Pacific Surface Warming (1900-2012) Caused By Changes in Atmospheric Circulation, NOT Manmade Forcings
Did ENSO and the “Monster” Kelvin Wave Contribute to the Record High Global Sea Surface Temperatures in 2014?
Wie wir im zweiten verlinkten Beitrag oben geschrieben haben, dauerte das ungewöhnliche Wetterereignis im östlichen außertropischen Nordpazifik zwei Jahre lang. Es trug auch zu der Dürre in Kalifornien bei. Und das Folgende haben wir im ersten oben verlinkten Beitrag gezeigt:
Falls wir unsere Analyse im Jahr 2012 beginnen lassen und uns dann in der Zeit zurückbewegen – wie lange zeigten die Wassertemperaturen im Nordpazifik keine Erwärmung? Die Antwort lautet unter Verwendung der ERSST.v3b-Daten der NOAA 23 Jahre. Und doch sollte sich das Wasser den IPCC-Klimamodellen zufolge während dieser Zeit um 0,5°C erwärmt haben.

Abbildung 5
Anmerkung: Falls man auf den Link des ersten Beitrags klickt, wird man bemerken, dass man diesen Zeitraum bei Verwendung des durch Satelliten gestützten Datensatzes der Wassertemperatur auf 24 Jahre ausweiten kann. Ende der Anmerkung.
Es ist unrealistisch anzunehmen, dass die Erwärmung der Oberflächen im Nordpazifik der Jahre 2013 und 2014 den menschlichen Treibhausgasen geschuldet ist, wenn doch in den mindestens 23 Jahren zuvor keinerlei Erwärmung aufgetreten war.
Abschließende Bemerkungen
Den NOAA-Definitionen zufolge waren die globalen Temperaturen 2014 „eher unwahrscheinlich als wahrscheinlich“ die höchsten jemals, aber man hat seitens der NOAA diese Tatsachen auf der Hauptseite ihres Klimastatusberichtes verschwiegen. Die NOAA benutzte einen speziellen ENSO-Index für die Behauptung, dass 2014 keine El Niño-Bedingungen vorlagen, obwohl mindestens ein anderer Index das Gegenteil zeigte. Und die NOAA hat es versäumt, die tatsächlichen Gründe der erhöhten Wassertemperaturen des Jahres 2014 anzusprechen, während sie es so hat aussehen lassen, als ob sich die globalen Ozeane generell erwärmt hätten.
Die NOAA hat an keiner Stelle spezifisch festgestellt, dass die rekordhohen Temperaturen 2014 eine Folge der vom Menschen verursachten globalen Erwärmung waren, aber sie haben es impliziert … darum all dieses große Tamtam. Die NOAA hat grundlegende Diskussionen innerhalb jenes Berichtes verschwiegen, so dass er hin zu einer anthropgenen globalen Erwärmung verzerrt worden ist. Mit anderen Worten, der NOAA-Klimazustandsbericht war irreführend. Die NOAA hat wieder einmal gezeigt, dass es ein politisches Gebilde ist und nicht ein wissenschaftliches. Und das ist eine verdammte Schande. Die Öffentlichkeit braucht Offenheit von der NOAA bzgl. des Klimas; wir dürfen nicht durch politisch motivierte Fehlinformationen in die Irre geführt werden.
Link: http://wattsupwiththat.com/2015/01/17/on-the-biases-caused-by-omissions-in-the-2014-noaa-state-of-the-climate-report/
Übersetzt von Chris Frey EIKE




Absolut erstaunlich! Ein Klimakatastrophen-Wissenschaftler schreibt einen Blogbeitrag über…

Ich schaue dort nach, um zu sehen, was dem alarmistischen Flügel der klimawissenschaftlichen Gemeinschaft wichtig genug ist, um darüber Beiträge zu schreiben. Sehr zu meinem Erstaunen fand ich vor einigen Tagen oben auf der Homepage von RealClimate einen Blogbeitrag über…
Sind Sie bereit?
…über ein Widget. Wirklich, ein Widget?*
[Eigentlich wollte ich „widget“ mit dem Begriff „Mätzchen“ übersetzen, aber ich bin nicht sicher, ob das wirklich trifft. Der Link zeigt, was bei Wikipedia dazu steht. Im Folgenden wird der Begriff unübersetzt übernommen. Anm. d. Übers.]
Jawoll, ein Widget. Nicht einfach nur ein Widget, sondern ein Widget über WUWT.
Der Beitrag von Stefan Rahmstorf auf RealClimate hier beginnt so (Fettdruck im Original):
Das „Weltklima-Widget“ von Tony Watts Blog ist möglicherweise die populärste Mogelpackung unter den Klima-„Skeptikern“. Wir legen das mal unter das Mikroskop und zeigen, wie es aussieht, wenn man es ordentlich macht.
Sehen Sie, sagte ich es doch… ein Widget.
Stellen Sie sich vor, Sie sind ein Klimawissenschaftler; Sie sind einer der Gründungsmitglieder der Website RealClimate; aber noch wichtiger, stellen Sie sich vor, Sie sind Professor der Physik der Ozeane am PIK.
Verstehen Sie das? Jetzt stellen Sie sich vor, ganz oben auf ihrer täglichen Prioritätenliste finden Sie NICHT etwas, das hilft, die Klimamodelle zu stützen, die die Erwärmungsrate der globalen Ozeanoberfläche während der letzten 33 Jahre verdoppelt haben. Siehe Abbildung 1. Nein, man findet das nicht oben auf der Prioritätenliste:

Abbildung 1 (aus diesem Blogbeitrag)
Und man findet NICHTS, das hilft, die räumliche Verteilung der Erwärmung der Ozeane in den Klimamodellen festzumachen, so dass die Modelle nützlich sein könnten, zukünftige Klimaabläufe auf dem Festland zu simulieren (Temperatur und Niederschlag). Siehe Abbildung 2:

Abbildung 2 (aus diesem Blogbeitrag)
Stellen Sie sich vor … was Sie an oberster Stelle Ihrer täglichen Prioritätenliste finden, ist man schreibe einen Blogbeitrag über das WUWT-Widget.
Es ist irre!
Habe ich schon mal einen Blogbeitrag über ein Widget geschrieben? Aber natürlich, und zwar hier. Und falls man auf diesen Link klickt, wird man sehen, dass ich sogar ein Video über ein Widget produziert habe. Und es gibt dort einen Grund, warum ich über ein Widget einen Artikel geschrieben und ein Video erzeugt habe. Meine Rolle in der Debatte um die Klimawissenschaft ist die eines Wissenschafts-Reporters für WUWT, der weltweit meistbesuchten Website zu globaler Erwärmung und Klimawandel. Ich bin kein Klimawissenschaftler wie Stefan Rahmstorf. Klimawissenschaftler sind damit betraut, wissenschaftliche Beweise für etwas zu liefern, was seinerzeit als die derzeit größte Bedrohung der Welt bezeichnet worden ist. So hoch auf der Prioritätenliste kann das aber nicht stehen, wenn jemand seine wertvolle Zeit damit zubringt, einen Blogbeitrag über ein Widget zu schreiben … und andere sich die Zeit nehmen, zu diesem Widget Kommentare bei RealClimate abzugeben.
Einige weitere Gedanken zum Beitrag von Stefan, bevor wir übernehmen:
Stefan schreibt in seinem ersten Absatz (Fettdruck von ihm):
Es ist besser, die Lufttemperatur an der Oberfläche zu plotten. Dass nämlich ist das, was für uns Menschen relevant ist: wir leben nicht hoch in der Troposphäre, ebenso wenig wie natürliche Ökosysteme. Und wir bauen dort auch nicht unsere Nahrungsmittel an…
Ich glaube, dass Stefan Rahmstorf dieses Statement bereuen wird, weil er wahrscheinlich jedes Mal daran erinnert wird, wenn er behaupten will, dass der ozeanische Wärmegehalt wichtig ist. (Stefan, wir leben nicht in einer Tiefe von 2000 Metern in den Ozeanen. Erinnern Sie sich daran, was Sie gesagt haben…)
Den gleichen Absatz beschließt er so:
…Verwenden wir also die jährliche Temperaturaufzeichnung GISTEMP vom NASA-Institut GISS (alle Daten von der Oberfläche stimmen besser als 0,1°C überein, siehe Vergleichsgraphik).
Unglücklicherweise für Stefan bestehen die Daten von GISS LOTI hauptsächlich aus Daten der Wassertemperatur an der Wasseroberfläche der Ozeane und nicht aus den „Lufttemperaturdaten über der Ozeanoberfläche“, welche unter der Bezeichnung Marine Air Temperature bekannt ist. Und die meisten von uns leben nicht auf dem Ozean … obwohl ich mir manchmal wünsche, dass ich es doch tue.
Man wird auch bemerken, dass Rahmstorf sehr viel Zeit damit zugebracht hat, auf eine ältere Version des WUWT-Widgets zu reagieren. Siehe Abbildung 3. Sie endet 2009.

Abbildung 3
Warum hat er sich nicht mit einem aktuelleres Widget befasst wie in Abbildung 4 gezeigt? Das überlasse ich der Spekulation.

Abbildung 4
Und jetzt kommt das wirklich Bizarre:
Der Beitrag auf RealClimate enthält einen Link zu einem WUWT-Beitrag vom Oktober 2009: New WUWT feature: World Climate Widget. Dieser einführende Beitrag auf WUWT erschien kurz vor Klimagate, als die Popularität von WUWT rasant zu steigen begann. Anthony musste das Widget auf Eis legen und hat es niemals wirklich hervorgehoben. Man kann sich durch die Kommentare zu dem Widgetbeitrag von WUWT wühlen (hier) oder die Suchfunktion bei WUWT nutzen um zu sehen, ob er sich Mühe gegeben hat, das Widget bekannt zu machen. Aber als er das WordPress-Thema bei WUWT um den 1. September zu „Das Problem-Thema“ geändert hatte (hier), schien das Widget von der Seitenleisten verschwunden zu sein. (Hat Stefan das übersehen?). Anthony hat also das Widget niemals vorangetrieben, und es hätte von der Seitenleiste vor drei Monaten verschwinden können, aber Stefan Rahmstorf nennt es „die populärste Mogel-Graphik“, womit er sie wiederbelebt. Ich glaube, dass Stefan dabei ist zu entdecken, dass das WUWT-Widget jetzt sehr viel populärer wird im Zuge seines Blogbeitrags. Ich habe den Verdacht, dass Anthony es jetzt voranbringen will – und ich habe ein paar Gründe, dies zu glauben.
Goggle-Trends zeigt, dass die Anzahl der Klicks auf den Blog „RealClimate“ weiterhin zurückgeht, während die Anzahl der Klicks auf „WUWT“ weiterhin steigt. Wie schlimm ist es für RealClimate inzwischen geworden? Siehe Abbildung 5. Gelegentlich schafft es sogar der Blog Hot Whopper, betrieben von dem ehemaligen WUWT-Troll SOU (Miriam O’Brien (hier), mit RealClimate gleichzuziehen.

Abbildung 5
Falls man bei RealClimate damit weitermacht, Blogbeiträge über WUWT-Widget zu schreiben und nachahmt, was Sou bei Hot Whopper macht – wer weiß, wie weit das Interesse an RealClimate noch sinken wird!
Schlussbemerkungen
Ich bin sicher, dass es eine Menge Spaß machen wird, über den restlichen Beitrag Rahmstorfs über ein Widget (hier) zu sprechen. Danach, wenn man mag, ziehe man bitte in Betracht, das WUWT-Widget seinem Blog hinzuzufügen. Das dauert nur ein paar Minuten. Anthony hat hier beschrieben, wie das geht. Ich habe das WUWT-Widget der Seitenleiste meines Blogs ClimateObservations hinzugefügt. Es ist für mich ein gutes Gefühl, dass es dort steht – wohl wissend, dass es gewisse Mitglieder des alarmistischen Flügels der klimawissenschaftlichen Gemeinschaft zwickt.
Stefan Rahmstorf (und die anderen bei RealClimate) andererseits dürften nicht allzu sehr beeindruckt gewesen sein hinsichtlich des von ihm angesprochenen Widgets. Bis zur Fertigstellung dieses Beitrags ist es nicht auf der Seitenleiste von RealClimate erschienen.
Link: http://wattsupwiththat.com/2014/12/10/absolutely-amazing-a-climate-scientist-writes-a-blog-post-about/
Übersetzt von Chris Frey EIKE




Über die schwer fassbare Absolute Globale Mittlere Temperatur – ein Vergleich von Daten mit Modellen

Selten werden Modelle und Vergleiche zwischen Modellen und Daten in absoluten Termen gezeigt. Dies wird mit diesem Beitrag nachgeholt, und zwar nach einer Diskussion der absoluten mittleren Oberflächen-Temperatur der Erde von den Datensammlern: GISS, NCDC und BEST. Danach wenden wir uns wieder den Anomalien zu.
Die folgenden Abbildungen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung umformuliert. Diese Präsentation zeigt eine total andere Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen Werten der globalen mittleren Temperatur. Ich glaube, dass es Ihnen gefallen wird… anderen aber vielleicht nicht.
Vorab aus meinem demnächst erscheinenden Buch:
Die schwer fassbare absolute globale mittlere Temperatur und die Diskussion darüber beim GISS
Einige werden bereits den Ursprung dieser Kapitelüberschrift kennen. Sie stammt von der Surface Temperature Analysis Q&A-Website The Elusive Absolute Surface Air Temperature (SAT). Der einführende Text zu dieser Website lautet:
Die GISTEMP-Analyse betrifft ausschließlich Temperaturanomalien, nicht die absolute Temperatur. Temperaturanomalien sind berechnet relativ zur Referenzperiode 1951 bis 1980. Der Grund, eher Anomalien denn die absolute Temperatur zu betrachten ist, dass sich die absolute Temperatur auf kurze Distanzen markant ändert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien bis zu räumlichen Distanzen von 1000 km stark korrelieren.
Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in der Studie Global trends of measured surface air temperature hat GISS einen Datensatz erzeugt, der Temperaturanomalien auf dem Festland an Stelle der Wassertemperatur setzte. Das heißt, GISS hat einfach die Festlands-Temperaturdaten auf die Ozeane ausgedehnt. Dann hat GISS jenen älteren Temperatur-Datensatz mit dem Land-Ozean-Temperaturindex ausgetauscht, welcher die Wassertemperatur für die meisten Ozeangebiete nutzt und als ihr primäres Produkt dient. Sie benutzen immer noch die 1200 km-Extrapolation, um Landgebiete und mit Meereis bedeckte Ozeangebiete, von wo keine Messdaten vorliegen, mit Daten zu füllen.
Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):
Frage: Was mache ich, wenn ich absolute Temperaturwerte brauche und nicht Anomalien?
Antwort: In 99,9% aller Fälle wird man sehen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturwerte. In den übrigen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien hinzufügen (mit Rücksicht auf die geeignete Referenzperiode). Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von etwa 14°C, aber er kann leicht auch zwischen etwa 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlechter.
Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders auf die „vertrauenswürdigsten Modelle“. Und sie sagen auf der Grundlage dieser „vertrauenswürdigsten“ Klimamodelle, dass die mittlere globale Temperatur während ihrer Referenzperiode von 1951 bis 1980 (deren Klimatologie) etwa 14°C +/- 0,6°C beträgt.
Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) gelistet ist. Die Werte dieser Website basieren auf Hansen und Lebedeff 1987. Unten auf der Website schreiben sie:
Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine absolute Skala benutzen möchte (diese Anmerkung bezieht sich ausschließlich auf globale jährliche Mittelwerte, J-D und D-N!)
Das ist die gleiche Adjustierung der absoluten globalen Temperatur, die GISS für seinen Land-Ozean-Temperaturindex fordert. Siehe hier auf der Website unten.
ANMERKUNG: Mancher könnte es seltsam finden, wenn GISS den gleichen Korrekturfaktor für beide Datensätze verwendet. Einer der GISS-Datensätze erstreckt sich über Lufttemperaturen entlang von Küsten und auf Inseln mit einem Umkreis von 1200 km, während der andere GISS-Datensatz (GISS LOTI) für die meisten globalen Ozeangebiete die Wassertemperatur verwendet. (Bei den LOTI-Daten ersetzt GISS die Daten der Wassertemperatur durch Daten der Temperatur auf dem Festland nur in den polaren Ozeanen, wo jemals Meereis lag). Falls wir annehmen, dass küstennahe Temperaturen und solche auf Inseln ähnlich der Lufttemperatur über marinen Gebieten sind, dann beträgt die Verzerrung höchstens 0,2°C, vielleicht etwas mehr. Die mittlere globale absolute ICOADS-Wassertemperatur der letzten 30 Jahre (1984 bis 2013) beträgt 19,5°C, während die absolute globale mittlere Lufttemperatur über Ozeanen 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Messungen der Wassertemperatur von Schiffen aus ebenfalls durch den „Wärmeinseleffekt“ beeinflusst sein können, und die ICOADS-Daten sind um diesen Wärmeinseleffekt nicht korrigiert worden. (Ende der Anmerkung).
Die NCDC-Schätzung ist ähnlich, obwohl sie anders hergeleitet worden ist
NCDC bietet ebenfalls eine Schätzung der absoluten globalen mittleren Temperatur. Siehe hier. Dort schreiben sie unter der Überschrift „globale Höhepunkte“ (Fettdruck von mir):
Das Jahr 2013 zieht mit 2003 als dem global wärmsten Jahr gleich seit Beginn von Aufzeichnungen im Jahre 1880. Die jährliche kombinierte Land- und Wassertemperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von 13,9°C.
Und nicht rein zufällig stimmen diese 13,9°C von NCDC (aus Daten abgeleitet, wie wir gleich sehen werden) mit dem GISS-Wert von 14,0°C überein. Dies könnte zeigen, dass die „vertrauenswürdigsten Modelle“ nach GISS mit dem datenbasierten Wert getunt worden sind.
Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf den NOAA-Websites zu globalen Temperaturanomalien (hier) identifiziert, besonders unter der Überschrift von globalen langfristigen mittleren Land- und Wassertemperaturen (hier). Sie wurden im Jahre 2000 geschrieben, sind also 14 Jahre alt. Auch kann man auf der Website bemerken, dass die absoluten Temperatur-Mittelwerte für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwendet. Das ist kein Problem, das ist Haarspalterei. Es gibt nur einen Unterschied von 0,03°C in den mittleren Anomalien dieser beiden Zeiträume.
Genau wie GISS beschreibt auch die NOAA Probleme bei der Abschätzung einer absoluten globalen Mitteltemperatur:
Absolute Schätzungen der globalen mittleren Temperatur sind aus einer Reihe von Gründen schwierig zu erstellen. Da es in einigen Gebieten der Welt nur sehr wenige Temperatur-Messstationen gibt (z. B. in der Sahara), muss über riesige, kaum mit Daten besetzte Gebiete interpoliert werden. Im Gebirge stammen die meisten Messungen aus Tälern, wo die Menschen leben, so dass man die Auswirkungen der Höhenlage auf das Mittel der Region berücksichtigen muss ebenso wie andere Faktoren, die die Oberflächen-Temperatur beeinflussen. Die Konsequenz ist, dass die unten stehenden Schätzungen immer noch Approximationen sind, die die inhärenten Hypothesen hinsichtlich Interpolation und Datenverarbeitung enthalten, obwohl sie als die besten derzeit verfügbaren Werte angesehen werden. Zeitreihen monatlicher Temperaturaufzeichnungen werden viel öfter als Abweichungen von einer Referenzperiode ausgedrückt (z. B. 1961 bis 1990, 1880 bis 2000), da diese Aufzeichnungen einfacher interpretiert werden können und man einige Probleme umgeht, die bei der Schätzung der absoluten Temperatur in großen Gebieten auftreten.
Es scheint, dass der NCDC-Wert auf Messdaten beruht, wenngleich es auch alte Daten sind, während der GISS-Wert für einen anderen Zeitraum und basierend auf Klimamodellen ähnlich ist. Das wollen wir jetzt mal in absoluten Zahlen vergleichen.
Vergleich von GISS- und NCDC-Daten in absoluter Form
Die globalen Land- und Wassertemperaturen von NCDC sind verfügbar, indem man auf den Link „Anomalies and Index Data“ klickt, der sich oben auf der NCDC-Website der Global Surface Temperature Anomalies befindet. Und die GISS LOTI-Daten sind hier verfügbar.
Verwendet man die oben beschriebenen Faktoren, zeigt Abbildung 2 die jährlichen mittleren globalen Temperaturen in absoluter Form von GISS und NCDC seit Beginn im Jahre 1880 bis zum jüngsten vollständigen Jahr 2013. Die GISS-Daten sind ein wenig wärmer als die NCDC-Daten, im Mittel etwa 0,065°C, aber alles in allem passen sie zusammen. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v3b der NOAA), und auch die meisten Daten der Festlandstemperatur sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen einfach Datenlücken unterschiedlich (das gilt vor allem für die Arktis und die Südlichen Ozeane), und GISS verwendet ein paar Datensätze mehr in Gebieten, wo GHCN nur sehr wenige Daten enthält.

Abbildung 2
Hinzu kommt der globale Land- und Wassertemperatur-Datensatz von BEST mit einem unterschiedlichen Faktor
Und das ist der BEST-Datensatz (Berkeley Earth Surface Temperature), also das Produkt von Berkeley Earth. Die ihren Festlands-Temperaturdaten zugrunde liegende Studie stammt von Rhode et al. (2013) mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin findet man, dass man die BEST-Festlandstemperaturen in absoluter Form illustriert hat.
Ihre Klimatologie (Referenztemperaturen für Anomalien) wurde in der Studie von Rhode et al. (2013) Berkeley Earth Temperature Process über Verfahren gezeigt. Sie enthielt auch diesen Anhang. Zum Thema Klimatologie schreiben Rhode et al. in dieser Studie:
Das globale Festlands-Mittel von 1900 bis 2000 beträgt 9,35°C ± 1.45°C, was im Ganzen konsistent ist mit der Schätzung von Peterson von 8,5°C. Diese große Unsicherheit bei der Normalisierung ist in den schattierten Bändern nicht enthalten, die wir in unsere Tavg-Plots gelegt haben, da sie nur die absolute Skala beeinflussen und nicht relative Vergleiche. Außerdem stammt vieles dieser Unsicherheit aus der Existenz von nur drei GHCN-Messpunkten im Inneren der Antarktis. Dies bringt den Algorithmus dazu, die absolute Normalisierung für große Gebiete der Antarktis als erzwungen zu betrachten. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und von anderswoher zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheiten um Größenordnungen reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Analyseprozess von Berkeley Average ist irgendwie einmalig dahingehend, dass eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen erzeugt wird.
Interessant, dass der Mittelungsprozess der Berkeley-Temperatur sie mit einer Schätzung der globalen mittleren Festlandstemperatur in absoluter Form ausstattet, während es GISS und NCDC schwierig finden, hierzu eine Schätzung zu finden.
Der Bezug auf Peterson in obigem Zitat von Rhode et al. geht zurück auf die Studie Observed Changes in Surface Atmospheric Energy over Land von Peterson et al. (2011). Der Wert von 8,5°C von Peterson et al. als absolute Lufttemperatur auf dem Festland ist der gleiche Wert, der in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den Websites von NOAA Global Surface Temperature Anomalies gelistet ist.
Berkeley Earth hat auch Daten veröffentlicht für zwei globale Festlands- + Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund für zwei. Lufttemperatur-Produkte für das Festland enthalten keine mit Meereis bedeckten Ozeanflächen, und Wassertemperaturen enthalten keine Lufttemperaturen über polarem Meereis, falls und wo es existiert. Von den 361,9 Millionen km² Gesamtfläche der globalen Ozeane bedeckt polares Meereis im Mittel nur 18,1 Millionen km² jährlich im Zeitraum von 2000 bis 2013. Während polares Meereis nur etwa 5% der Oberfläche der globalen Ozeane und nur etwa 3,5% der gesamten Erdoberfläche überdeckt, bemüht sich die klimawissenschaftliche Gemeinschaft, dort die Lufttemperatur zu bestimmen. Das gilt vor allem für die Arktis, wo der natürlich auftretende Prozess polarer Verstärkung dafür sorgt, dass die Arktis mit verstärkten Erwärmungsraten aufwartet, wenn sich die Nordhemisphäre erwärmt (und sich entsprechend mit erhöhten Raten abkühlt in Perioden einer nordhemisphärischen Abkühlung).
(Siehe auch die Beiträge Notes On Polar Amplification und Polar Amplification: Observations versus IPCC Climate Models.)
Während ich dies schreibe, ist keine stützende Studie für die BEST Land + Ozean-Temperaturdaten von der Website der Berkeley Earth Papers verfügbar, ebensowenig wie auf ihrer Poster-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datensite für ihr kombiniertes Produkt. Die BEST Land- + Ozeandaten sind ihre Lufttemperaturen, die mit einer modifizierten Version der HadSST3-Wassertemperaturen zusammengeführt werden. Eingefügt haben sie das mit einer als Kriging bezeichneten Methode. (Siehe Kriging, geschrieben von Geoff Bohling vom Kansas Geological Survey.)
Die jährlichen Berkeley Land + Ozeantemperatur-Anomalien finden sich hier und ihre monatlichen Daten hier. Die Begründung für die Präsentation der beiden Land + Ozeanprodukte stützt meine Ausführungen oben. Berkeley Earth schreibt:
Zwei Versionen dieses Mittelwertes sind im Umlauf. Sie unterscheiden sich darin, wie sie mit mit Meereis bedeckten Stellen umgehen. In der ersten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Lufttemperatur-Anomalien über dem Festland. In der zweiten Version werden Temperaturanomalien bei vorhandenem Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen in Gebieten mit offenem Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich sind der Lufttemperatur unmittelbar darüber; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittelwertes zeigt größere Änderungen in jüngster Zeit, teils weil Änderungen der Wassertemperatur begrenzt sind durch den Gefrierpunkt von Meerwasser. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis eine natürlichere Beschreibung der Änderungen der Temperatur auf der Erde bietet.
Die Verwendung von Lufttemperaturen über Meereis kann eine realistischere Repräsentation der arktischen Temperaturen im Winter bieten, wenn das Meereis die Landmassen erreicht und wenn diese Landmassen schneebedeckt sind, so dass sie die gleichen Albedo-Werte aufweisen. Während der Sommermonate jedoch kann die Albedo von Meereis verglichen mit den Landmassen unterschiedlich sein (Schneeschmelze legt die Temperatursensoren der Umgebung frei und die Albedo von Landflächen unterscheidet sich von der über Meereis). Offenes Wasser separiert auch das Festland von Meereis an vielen Stellen, was das Problem noch komplizierter macht. Da gibt es keine einfachen Verfahren.
Berkeley Earth listet auch die geschätzten absoluten Lufttemperaturen während der Referenzperiode für beide Produkte:
Geschätzte globale Mittlere Temperatur I von Januar 1951 bis Dezember 1980:
* Unter Verwendung der Lufttemperatur über Meereis: 14,774 +/- 0,046
* Unter Verwendung der Wassertemperatur unter dem Meereis: 15,313 +/- 0,046
Die geschätzte absolute globale mittlere Temperatur unter Verwendung der Lufttemperatur über Meereis liegt um 0,5°C unter den Daten, für die sie die Wassertemperatur unter dem Meereis verwendeten. Die Modelle, die weiter unten in diesem Beitrag gezeigt werden, repräsentieren Lufttemperaturen, und darum werden wir die Berkeley-Daten nutzen, bei denen die Lufttemperatur über dem Meereis eingeht. Dies stimmt auch mit den Verfahren bei den GISS LOTI-Daten überein.
Der Wassertemperatur-Datensatz wird bei Berkeley Earth) HadSST3) nur in Form der Anomalien angeboten. Und ohne eine stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earth diese Anomaliewerte in absolute Werte konvertiert hat. Die Datenquellen ICOADS sowie die Daten von HadISST und ERSST.v3b werden in absoluter Form gezeigt, so dass einer davon wahrscheinlich als Referenz gedient hat.
Vergleich von BEST, GISS und NCDC-Daten in absoluter Form
Die Daten der jährlichen mittleren globalen Temperatur in absoluter Form seit dem Startjahr 1880 bis zum letzten vollständigen Jahr 2013 von BEST, GISS und NCDC zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber wie zu erwarten war, verlaufen die Kurven ähnlich.

Abbildung 3
In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem geglättet mit einem gleitenden 10-Jahres-Filter (rote Kurve). Die meiste Zeit liegen die BEST-Daten in absoluter Form um etwa 0,8°C über der NCDC-Schätzung. Die Spitzenabweichung, die etwa 1940 beginnt und um 1950 ihren Höhepunkt erreicht, sollte verursacht sein durch die Adjustierungen, die das UK Met.-Office an den HadSST3-Daten vorgenommen hat, die an die Daten von NOAA ERSST.v3b nicht angebracht worden sind (die sowohl von GISS als auch von NCDC verwendet werden). Über diese Adjustierungen werde ich später etwas schreiben. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch damit zusammenhängt, wie die Wassertemperaturdaten behandelt worden sind, aber es gibt keine Möglichkeit, dazu sicher etwas zu sagen, solange man keinen Zugang zu den von BEST modifizierten HadSST3-Daten hat. Der jüngste Anstieg sollte verursacht sein durch die Differenz, wie die beiden Anbieter (BEST und NCDC) mit den Daten des Arktischen Ozeans umgehen. Berkeley Earth weitet die Lufttemperatur-Daten über dem Festland bis über die Ozeane aus, während NCDC Wassertemperaturen im Arktischen Ozean ausklammert, wenn dort Meereis schwimmt, und man dabei nicht landbasierte Daten auf die Gebiete über dem Eis ausweitet.

Abbildung 4
Und nun zu den Modellen.
CMIP5-Modellsimulationen der absoluten Lufttemperatur der Erde, beginnend im Jahre 1880
Wie wir schon oft besprochen haben, werden die Ergebnisse der im 5. IPCC-Zustandsbericht verwendeten Modelle im Climate Model Intercomparison Project Phase 5 archive gespeichert, und jene Ergebnisse sind öffentlich zugänglich und können in leicht handhabbaren Formaten durch den KNMI Climate Explorer heruntergeladen werden. Die Ergebnisse bzgl. der Lufttemperatur im KNMI Climate Explorer können eingesehen werden auf der Website der Monthly CMIP5 scenario runs und werden als „TAS“ bezeichnet.
Die Modellergebnisse beim KNMI Climate Explorer sind verfügbar für die historischen Antriebe mit Übergängen zu den unterschiedlichen zukünftigen RCP-Szenarien (Siehe das Kapitel Emissions-Szenarien). Für dieses Kapitel präsentieren wir das historische und das Worst-Case-Zukunftsszenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz dafür, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Treibhausgas-Emissionen so weitergehen wie für dieses Szenario projiziert. Die Verwendung des Worst-Case-Szenarios hat wenig Auswirkung auf die Vergleiche zwischen Modell und Daten von 1880 bis 2013. Man erinnere sich, die Zukunfts-Szenarien beginnen in den meisten Modellen nach 2005, bei anderen noch später, so dass es nur sehr kleine Unterschiede gibt zwischen den Modellergebnissen der verschiedenen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich für dieses Kapitel die Ergebnisse separat für alle individuellen Modelle und ihre Ensemble-Mitglieder heruntergeladen. Es gibt insgesamt 81 Ensemble-Mitglieder aus 39 Klimamodellen.
Anmerkung: Die Modellergebnisse liegen in absoluter Form in Grad Celsius vor (auch in K), so dass ich sie in keiner Weise adjustiert habe.
Damit im Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die von CMIP5 archivierten Ergebnisse der Klimamodellsimulationen der globalen Lufttemperatur von 1880 bis 2100 zeigen, mit historischen und RCP8.5-Antrieben. Eine größere Version der Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5
Wie auch immer der Wert der globalen mittleren Temperatur derzeit aussieht oder in Zukunft oder in der Vergangenheit – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit überholt.
Einige Leute könnten jetzt argumentieren wollen, dass absolute Temperaturwerte unwichtig sind – und dass wir uns wegen der Erwärmungsraten in Vergangenheit und Zukunft Sorgen machen. Wir können diesem Argument auf zwei Wegen begegnen: Erstens haben wir in den Kapiteln CMC-1 und CMC-2 schon gesehen, dass Klimamodelle sich sehr schwer tun mit der Simulation der Temperaturen von 1880 bis 1980 und von 1980 bis heute. Später werde ich die Modellfehler noch sehr viel detaillierter beschreiben. Zweitens, absolute Temperaturen sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen von der Infrarotstrahlung ab, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum abgestrahlten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.
Wie oben in Abbildung 5 gezeigt, starten die Modelle bei einer absoluten globalen mittleren Temperatur, die zwischen fast 12,2°C bis etwa 14,0°C reichen. Aber mit den Ausreißern erweitert sich die Bandbreite auf Werte zwischen 12,0°C und 15,0°C. Die Bandbreite der modellierten absoluten globalen Mitteltemperatur ist einfacher zu erkennen, falls wir die Modellergebnisse mit 10-Jahres-Filtern glätten. Siehe Abbildung 6:

Abbildung 6
Wir könnten die Bandbreite durch die Entfernung der Ausreißer reduzieren, aber ein Problem beim Entfernen der Ausreißer ist, dass die warmen Ausreißer relativ dicht bei der jüngeren (besseren?) Berkeley-Earth-Schätzung der absoluten Temperatur der Erde liegen. Siehe Abbildung 7, in der ich zu den jährlichen, nicht den geglätteten, Ergebnissen zurückkehre.

Abbildung 7
Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische Institution ist, nicht eine wissenschaftliche. Als Ergebnis verwendet diese politische Institution auch Modelle von Agenturen rund um den Globus, selbst solche, die noch schlechtere Ergebnisse liefern als die (schlechte Leistung der) anderen, was die Gruppe als Ganzes noch weiter hinabzieht.
Mit Berücksichtigung dieser beiden Dinge werden wir alles von den Modellen in dieser Präsentation beibehalten, selbst die offensichtlichsten Ausreißer.
Schaut man noch einmal auf die große Bandbreite der Modellsimulationen der globalen mittleren Temperaturen in Abbildung 5, scheint es eine Spanne von mindestens 3°C zwischen den kältesten und den wärmsten zu geben. Das wollen wir mal festklopfen.
In Abbildung 8 habe ich die kältesten modellierten Temperaturen von den wärmsten modellierten Temperaturen in jedem Jahr subtrahiert, von 1800 bis 2100. Im größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spanne zwischen den kältesten und den wärmsten modellierten Temperaturen größer als 3°C.

Abbildung 8
Diese Spanne hilft, etwas hervorzuheben, dass wir schon ein paarmal angesprochen haben: Der Gebrauch von Modell-Mittelwerten aus den multimodellierten Ensemble-Mitgliedern, das Mittel aller Läufe aller Klimamodelle. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wo auch immer der Wert liegt. Gibt uns die Mittelung der Modellergebnisse eine gute Antwort? Nein.
Aber der Mittelwert, das Mittel aller Modelle, gibt uns tatsächlich etwas von Wert. Er zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturen und wie diese Temperaturen variieren würden, falls (großes falls) sie auf die Antriebe reagieren würden, die die Klimamodelle treiben. Und wie wir sehen werden, die gemessenen Temperaturen reagieren nicht auf die von den Modellen simulierten Antriebe.
Vergleich Modell mit Daten
Infolge der Unterschiede zwischen den neueren (BEST) und den älteren (GISS und NCDC) Schätzungen der absoluten globalen Mitteltemperatur, werden sie separat präsentiert. Und weil die GISS- und NCDC-Daten so ähnlich sind, verwenden wir deren Mittelwert. Außerdem werden wir für die Vergleiche nicht alle der Ensemble-Mitglieder als Spaghetti-Graphik präsentieren. Wir zeigen das Maximum, den Mittelwert und das Minimum.
Mit diesen Festlegungen werden in Abbildung 9 das Mittel der Schätzungen der absoluten globalen Mitteltemperatur aus GISS und NCDC mit den Maxima, Minima und Mittelwerten der modellierten Temperaturen verglichen. Der Modellmittelwert liegt ausreichend nahe bei den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modell im Mittel etwa 0,37°C niedriger liegt als die Daten im Zeitraum von 1880 bis 2013.

Abbildung 9
Abbildung 10 zeigt die BEST-Schätzung (neuer = besser?) der absoluten globalen Mitteltemperaturen von 1880 bis 2013 im Vergleich zu Maximum, Minimum und Mittelwert der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher am Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel liegt etwa 1,14°C niedriger als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung10
Differenz zwischen Modell und Daten
In den nächsten beiden Graphiken werden wir die datenbasierten Schätzungen der absoluten globalen Mitteltemperaturen der Erde vom Mittelwert der CMIP5-Modellsimulationen subtrahieren. Man beachte dies bei der Betrachtung der folgenden beiden Graphiken: Falls das Modellmittel die dekadischen und multidekadischen Variationen der Temperatur auf der Erde angemessen simuliert und einfach nur die Marke des absoluten Wertes verfehlt worden ist, wäre der Unterschied zwischen den Modellen und den Daten eine gerade horizontale Linie, bestimmt durch die Differenz.
Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Temperatursimulationen und das Mittel der Schätzungen von GISS und NCDC, wobei die Daten von den Modellwerten subtrahiert worden sind. Bei der folgenden Diskussion dreht es sich um das 10-Jahres-Mittel, das in rot ebenfalls eingezeichnet ist.

Abbildung 11
Der größte Unterschied zwischen Modellen und Daten tritt in den achtziger Jahren des 19. Jahrhunderts auf. Der Unterschied verringert sich drastisch während der folgenden rund 30 Jahre. Grund: Die Modelle simulieren nicht angemessen die zu jener Zeit stattgefunden habende Abkühlung. Die Differenz zwischen Modell und Daten nimmt dann von 1910 bis 1940 wieder zu. Dies zeigt, dass die Modelle nicht nur die Abkühlung zuvor, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Der Unterschied durchläuft einen Zyklus bis zu den neunziger Jahren, wobei der Unterschied graduell wieder zunimmt. Und von den neunziger Jahren bis heute hat der Unterschied wegen des Stillstands zum geringsten Wert seit 1880 abgenommen.
Abbildung 12 zeigt den Unterschied zwischen der BEST-Schätzung der Temperatur und das Modellmittel der Simulationen. Die Kurve verläuft ähnlich der in Abbildung 11 bzgl. der GISS- und NCDC-Daten. Die BEST-Daten der globalen Temperatur zeigen weniger Abkühlung von 1880 bis 1910, und als Folge ist der Unterschied nicht so groß zwischen Modellen und Daten. Aber es gibt immer noch eine starke Zunahme der Differenz von 1910 bis etwa 1940 mit dem Scheitern der Modelle bei der angemessenen Simulation der damals eingetretenen Erwärmung. Und natürlich hat auch hier der jüngste Stillstand zu einer weiteren Abnahme der Temperaturdifferenz geführt.

Abbildung 12
Zusammenfassung dieses Kapitels
Es gibt eine Spanne von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die wärmere Schätzung von der neueren Schätzung stammt auf der Grundlage einer aktuelleren Datenbasis der globalen Temperatur. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die GISS- und NCDC-Werte.
Die Klimamodellsimulationen der absoluten globalen Temperaturen zeigen eine viel größere Spanne, die von 1880 bis 2013 im Mittel bei etwa 3,15°C liegt. Um das in die richtige Perspektive zu rücken, haben Politiker vorgeschlagen, dass wir die Erwärmung der globalen Temperatur auf 2,0°C begrenzen. Ein anderer Weg, jene 3,15°C Modellspanne in die richtige Perspektive zu setzen: Man betrachte, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet hat, dass die gesamte Erwärmung von 1975 bis 2005 anthropogenen Treibhausgasen geschuldet ist. Diese Behauptung basierte auf Klimamodellen, die die natürliche Variabilität nicht angemessen simulieren können. Also war die Behauptung bedeutungslos. Unabhängig davon, die globalen Temperaturen sind zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, basierend auf dem Mittel der linearen Trends in den Daten von BEST, GISS und NCDC.
Und der Unterschied zwischen der modellierten und der gemessenen absoluten globalen mittleren Temperatur war nur ein anderer Weg zu zeigen, wie schlecht die globalen Temperaturen von den jüngsten und größten Klimamodellen simuliert werden können, die das IPCC in seinem 5. Zustandsbericht herangezogen hat.
ABER
Manchmal können wir etwas anderes erkennen, wenn wir Daten als Anomalien zeigen. In den Abbildungen 13 und 14 habe ich die Differenzen zwischen Modellen und Daten ersetzt durch ihre jeweiligen Mittelwerte von 1880 bis 2013. Das konvertiert die absoluten Differenzen in Anomalien. Wir verwenden die Gesamtmenge der Daten als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht verzerren durch die Wahl des Zeitraumes. Mit anderen Worten, niemand kann sich darüber beschweren, dass wir hinsichtlich der Referenzjahre Rosinenpickerei betrieben haben. Die Konzentration auf 10-Jahres-Mittel (rote Kurven) hilft, die Auswirkungen des gegenwärtigen Stillstands in die richtige Perspektive zu setzen.
Man behalte im Hinterkopf: Falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen der Erde angemessen simulieren würden, wäre die Differenz eine flache Linie, und in den folgenden beiden Fällen würde jene flache Linie bei der Null-Anomalie liegen.
Für die Mittelwerte der GISS und NCDC-Daten: Abbildung 13 zeigt, dass die Divergenz zwischen Modellen und Daten heute wegen des derzeitigen Stillstands die größte (und schlimmste) ist seit etwa 1890 ist.

Abbildung 13
Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und der BEST-Daten, ist das Modellverhalten wegen des Stillstands das schlechteste jemals während der jüngsten 10-Jahres-Periode, seit man globale Temperaturen simuliert, wie Abbildung 14 zeigt.

Abbildung 14
Falls man al zu Abbildung 7 zurückgeht, erkennt man, dass es eine kleine Untermenge von Modellläufen gibt, die der Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur zugrunde liegt. Sie liegen so dicht beieinander, dass es sehr wahrscheinlich so aussieht, als wären jene Modelle am jene Temperaturen angepasst worden.
Nun dachte ich mir, dass man daran interessiert sein könnte zu wissen, um welche Modelle es sich handelt. Siehe Abbildung 15. Sie sind 3 Ensemble-Mitglieder des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Mitglieder des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15
Das heißt nicht, dass die Modelle MIROC5 und GISS-E2-R besser sind als irgendwelche anderen Modelle. So weit ich weiß, können auch diese Modelle wie alle anderen immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die dazu führen können, dass sich die globalen Temperaturen über multidekadische Zeiträume erwärmen oder diese Erwärmung zum Stillstand bringen können wie die AMO und ENSO. Wie oben schon erwähnt, dass sie näher an der aktualisierten Schätzung der absoluten Temperatur der Erde liegen, zeigt einfach, dass jene Modelle dahingehend getunt worden sind. Vielleicht sollte man beim GISS in Betracht ziehen, ihre Schätzung von 14,0°C als absolute globale Temperatur für ihre Basisperiode zu aktualisieren.
Wir haben die vielfältigen Fehlleistungen der Modelle während der letzten Jahre gezeigt. Unter den besprochenen Themen waren:
* Global Precipitation
* Satellite-Era Sea Surface Temperatures
* Global Surface Temperatures (Land+Ocean) Since 1880
* Global Land Precipitation & Global Ocean Precipitation
Alle Beiträge waren auch bei WattsUpWithThat gepostet.
Link: http://wattsupwiththat.com/2014/11/10/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/
Übersetzt von Chris Frey EIKE