Über die schwer fassbare globale mittlere Temperatur – ein Vergleich Modell ? Daten

Abbildung 1

Selten werden Modellergebnisse bzw. Vergleiche zwischen Modellen und Messungen in absoluten Zahlen angegeben. Diese werden in diesem Beitrag präsentiert nach einer Diskussion der Schätzungen der absoluten mittleren Temperatur der Erde von Daten-Lieferanten: GISS, NCDC und BEST. Danach wenden wir uns den Anomalien zu.

Die folgenden Illustrationen und der größte Teil des Textes wurden für mein demnächst erscheinendes Buch aufbereitet. Ich habe die Nummerierung der Abbildungen für diesen Beitrag geändert und die Einführung neu geschrieben. Diese Präsentation offeriert eine gänzlich unterschiedliche Perspektive bzgl. der Differenzen zwischen modellierten und gemessenen globalen Temperaturen. Man wird es begrüßen … aber Einige werden es absolut nicht begrüßen.

Dieses Kapitel erscheint weiter unten in dem Buch, nach den einleitenden Abschnitten über 1) die Grundlagen von globaler Erwärmung und Klimawandel, 2)der Übersicht über Klimamodelle, 3)den einführenden Diskussionen über die atmosphärische und ozeanische Zirkulation und natürlichen Zustände der Variabilität und 4) den detaillierten Beschreibungen der Datensätze. Es wird eines von vielen Kapiteln sein, in denen es um den Vergleich Modelle ↔ Daten geht.

Die Diskussion über die schwer fassbare globale mittlere Temperatur beim GISS

Einige werden den Ursprung der Überschrift dieses Kapitels bereits kennen. Sie stammt von der GISS Surface Temperature Analysis Q&A webpage The Elusive Absolute Surface Air Temperature (SAT). Im Einleitungstext zu der Website heißt es:

Bei der GISTEMP-Analyse geht es nur um Temperaturanomalien, nicht um die absolute Temperatur. Temperaturanomalien werden berechnet relativ zum Referenzzeitraum 1951 bis 1980. Der Grund, Anomalien anstatt absoluter Temperaturen zu betrachten ist, dass die absolute Temperatur schon auf kurze Distanzen markant variiert, während monatliche oder jährliche Temperaturanomalien repräsentativ für ein viel größeres Gebiet sind. Tatsächlich haben wir gezeigt (Hansen und Lebedeff 1987), dass Temperaturanomalien stark korreliert sind mit Distanzen bis zu 1000 km.

Auf der Grundlage der Ergebnisse von Hansen und Lebedeff (1987) in ihrer Studie Global trends of measured surface air temperature erzeugte GISS einen Datensatz mit Temperaturanomalien auf dem Festland anstelle von Daten der Wassertemperatur. Das heißt, GISS hat die Festlandstemperaturen einfach auf die Ozeane hinaus ausgedehnt. GISS hat diesen älteren Datensatz ersetzt durch den GISS Land-Ocean Temperature Index, welcher Wassertemperaturdaten für die meisten Gebiete der Ozeane heranzieht. Dieser Index ist ihr primäres Produkt. Sie extrapolieren immer noch mit 1200 km, um Festlands- und Ozeangebiete ohne gemessene Daten zu füllen.

Aber zurück zur GISS Q&A-Website: Nach Beantwortung einiger Zwischenfragen schließt GISS mit (Fettdruck von mir):

Frage: Was mache ich, wenn ich Absolut-Temperaturen anstatt Anomalien brauche?

Antwort: In 99,9% aller Fälle wird man feststellen, dass Anomalien genau das sind, was man braucht, nicht absolute Temperaturen. In den restlichen Fällen muss man sich eine der verfügbaren Klimatologien heraussuchen und die Anomalien dazu addieren (unter Berücksichtigung einer geeigneten Basisperiode). Für das globale Mittel erzeugen die Modelle, denen man am meisten vertraut, einen Wert von ungefähr 14°C, aber genauso kann der Wert zwischen 13°C und 15°C liegen. Regional und vor allem lokal ist die Lage sogar noch schlimmer.

Mit anderen Worten, GISS stellt sein Verständnis der globalen Temperaturen auf die Grundlage von Klimamodellen, besonders von denen, denen „man am meisten vertraut“. Und sie sagen, dass die mittlere globale Temperatur auf der Grundlage dieser Klimamodelle während des Referenzzeitraumes von 1951 bis 1980 (ihre Klimatologie) grob etwa 14°C ±0,6°C beträgt.

Der Wert von 14°C auf jener GISS-Website deckt sich mit dem Wert, der unten auf der GISS-Website Land-Surface Air Temperature Anomalies Only (Meteorological Station Data, dTs) genannt wird. Dieser geht auf Hansen und Lebedeff (1987) zurück. Ganz unten auf der Website schreibt GISS:

Die Best Estimate des absoluten globalen Mittels von 1951 bis 1980 beträgt 14,0°C. Man addiere dies also zu der Temperaturänderung, falls man eine Absolut-Skala benutzen möchte (diese Anmerkung gilt nur für globale Jahresmittel, Januar bis Dezember und Dezember bis November).

Das ist die gleiche Adjustierung der absoluten Temperaturen, wie sie GISS für ihren Land-Ocean-Temperature-Index verlangt. Siehe am Ende der Daten-Website hier.

ANMERKUNG: Einige Leute könnten denken, dass es seltsam ist, dass man beim GISS für beide Datensätze den gleichen Adjustierungs-Faktor verwendet. Einer der GISS-Datensätze (GISS dTs) weitet Lufttemperaturen von küstennahen Gebieten und Inseln auf die Ozeane bis zu einer Entfernung von 1200 km aus, während der andere GISS-Datensatz (GISS LOTI) Wassertemperaturdaten für die meisten der globalen Ozeane enthält. Mit den LOTI-Daten ersetzt GISS Daten der Wassertemperatur mit Daten der Festlandstemperatur nur in den polaren Ozeanen, wo immer Meereis lag. Falls wir annehmen, dass die küstennahen und von Inseln stammenden Landtemperaturen ähnlich sind den Lufttemperaturen über dem Meer, dann beträgt der Bias lediglich 0,2°C, vielleicht etwas mehr. Die mittlere absolute globale Wassertemperatur ICOADS beträgt während der letzten 30 Jahre (1984 bis 2013) 19,5°C, während deren absolute globale Wassertemperatur 19,3°C beträgt. Der Grund für „vielleicht etwas mehr“ ist, dass Lufttemperaturmessungen auf Schiffen auch durch den „Wärmeinseleffekt“ beeinflusst werden können, und die ICOADS-Daten sind in dieser Hinsicht nicht korrigiert worden. (Ende der Anmerkung).

Die NCDC-Schätzung ist ähnlich, obwohl anders abgeleitet

NCDC gibt ebenfalls eine Schätzung der absoluten globalen Mitteltemperatur an; siehe hier. Unter der Überschrift ,Globale Höhepunkte‘ schreiben sie (Fettdruck von mir)

Das Jahr 2013 zieht mit dem Jahr 2003 gleich als das viertwärmste Jahr global seit Beginn von Aufzeichnungen im Jahre 1880. Die kombinierte jährliche globale Festlands- und Ozean-Temperatur lag um 0,62°C über dem Mittel des 20. Jahrhunderts von etwa 13,9°C.

Und nicht rein zufällig stimmen jene 13,9°C vom NCDC (gewonnen aus Daten von … werden wir gleich sehen), mit dem GISS-Wert von 14,0°C weitgehend überein. Dies könnte zeigen, dass die GISS-Modelle, denen man „am meisten vertraut“, an den datenbasierten Wert angepasst wurden.

Die Quelle jener 13,9°C-Schätzung der globalen Temperatur wird auf der NOAA Global Surface Temperature Anomalies-Website genannt, speziell unter der Überschrift Global Longterm Mean Land and Sea Surface Temperatures, welche im Jahre 2000 erstellt wurde, so dass sie jetzt 14 Jahre alt ist [der Beitrag datiert bereits aus dem Jahr 2014; Anm. d. Übers.]. Während dieser 14 Jahre haben sich Daten drastisch verändert. Man wird auf jener Website auch bemerkt haben, dass die Mittelwerte der absoluten Temperatur für den Zeitraum 1880 bis 2000 gelten und dass NCDC die gleichen 13,9°C als Absolutwert für das 20. Jahrhundert verwenden. Das ist kein Thema, sondern Haarspalterei. Es gibt nur eine Differenz von 0,03°C zwischen den mittleren Anomalien jener beiden Zeiträume.

Genau wie GISS beschreibt NOAA das Problem bei der Abschätzung einer absoluten globalen Mitteltemperatur:

Absolute Schätzungen der globalen Mitteltemperatur sind aus einer ganzen Reihe von Gründen schwierig anzustellen. Da einige Regionen der Welt kaum Temperatur-Messstationen aufweisen (z. B. die Sahara), muss über große datenarme Gebiete interpoliert werden. In Bergregionen stammen die meisten Messungen aus Tälern, wo die Menschen wohnen, so dass man die Auswirkungen der Seehöhe eines Gebietes beim Mittel dieser Region berücksichtigen muss, ebenso wie andere Faktoren, die die Temperatur beeinflussen. Als Konsequenz sind die Schätzungen unten – wenngleich auch als die besten betrachtet, die derzeit zur Verfügung stehen – immer noch Approximationen, die Hypothesen reflektieren, die inhärent bei der Interpolation und der Datenaufbereitung vorhanden sind. Zeitreihen monatlicher Temperaturaufzeichnungen sind öfter als Abweichungen von einer Referenzperiode angegeben (z. B. 1961 bis 1990 oder 1880 bis 2000), weil diese Aufzeichnungen leichter interpretiert werden können und einige Probleme umgangen werden, die mit der Schätzung absoluter Temperaturen in großen Gebieten auftreten.

Es scheint, dass der NCDC-Wert auf beobachtungsgestützten Daten beruht, obschon auf älteren Daten, während der GISS-Wert eines anderen Zeitraumes auf der Grundlage von Klimamodellen sehr ähnlich ist.

Vergleiche zwischen GISS- und NCDC-Daten in absoluter Form

NCDC Global Land + Ocean Surface Temperature-Daten sind verfügbar mittels eines Klicks auf den Link oben auf der NCDC-Website Global Surface Temperature Anomalies. Und die GISS LOTI-Daten stehen hier.

Unter Verwendung der oben beschriebenen Faktoren zeigt Abbildung 2 die jährlichen globalen Mitteltemperaturen von GISS und NCDC in absoluter Form, und zwar vom Beginn im Jahre 1880 bis zum letzten vollen Jahr vor diesem Beitrag 2013. Die GISS-Daten sind ein bisschen wärmer als die NCDC-Daten, im Mittel um etwa 0,065°C. Aber alles in allem folgen sie einander. Und das sollten sie auch. Sie verwenden den gleichen Wassertemperatur-Datensatz (ERSST.v.3b von NOAA), und die meisten Lufttemperaturen auf dem Festland sind die gleichen (aus der GHCN-Datenbasis der NOAA). GISS und NCDC füllen lediglich die Datenlücken unterschiedlich aus (vor allem im arktischen und dem subantarktischen Ozean), und GISS verwendet ein paar Datensätze mehr, um Regionen abzudecken, aus denen kaum GHCN-Daten vorliegen.

Abbildung 2

Es ergibt sich der beste globale Festlands-+Wassertemperatur-Datensatz mit einem unterschiedlichen Faktor.

Das sind die BEST-Daten (Berkeley Earth Surface Temperature), welche ein Erzeugnis von Berkeley Earth sind. Die ihre Temperaturdaten stützende Studie stammt von Rohde et al. 2013 mit dem Titel A New Estimate of the Average Earth Surface Land Temperature Spanning 1753 to 2011. Darin wird man erkennen, dass man die BEST-Lufttemperaturen auf dem Festland in absoluter Form dargestellt hat. Siehe Abbildung 1 in jener Studie (hier nicht gezeigt).

Deren Klimatologie (Referenz-Temperaturen zur Bildung von Anomalien) wurde in der Verfahrens-Studie von Rhode et al. (2013) Berkeley Earth Temperature Process präsentiert mit dem Anhang hier. Unter der Überschrift Climatology schreiben Rhode et al. in ihrer „Verfahrens“-Studie:

Die globale Festlands-Mitteltemperatur von 1900 bis 2000 beträgt 9,35°C ±1,45°C, was grob übereinstimmend ist mit der Schätzung von 8,5°C durch Peterson (29). Diese große Unsicherheit in der Normalisierung ist nicht in den schattierten Bändern enthalten, die wir über unsere Tavg-Plots gelegt haben, weil sie nur die absolute Skala beeinflusst und für Relativ-Vergleiche keine Bedeutung hat. Außerdem ist der größte Teil dieser Unsicherheit der Präsenz von nur drei GHCN-Sites im Inneren der Antarktis geschuldet, was den Algorithmus dazu bringt, die Absolut-Normalisierung für den größten Teil der Antarktis als poorly constrained anzusehen. Vorangegangene Arbeiten mit vollständigeren Daten aus der Antarktis und anderswo zeigen, dass zusätzliche Daten diese Normalisierungs-Unsicherheit um eine Größenordnung reduzieren können, ohne den zugrunde liegenden Algorithmus zu ändern. Der Berkeley Average-Analyse-Prozess ist in gewisser Weise eindeutig, erzeugt er doch eine globale Klimatologie und eine Schätzung der globalen mittleren Temperatur als Teil seiner natürlichen Operationen.

Es ist interessant, dass der Mittelungsprozess der Temperatur bei Berkeley sie mit einer Schätzung der globalen mittleren Festlands-Temperaturen in absoluter Form ausstattet, während man bei GISS und NCDC geschrieben hat, dass eben diese Schätzung sehr schwierig ist.

Der Bezug auf Peterson in der Studie von Rhode et al. stammt von Peterson et al. 2011 mit dem Titel Observed Changes in Surface Atmospheric Energy over Land. Die 8,5°C von Peterson et al. als absolute Festlands-Lufttemperaturen ist der gleiche Wert, der gelistet ist in der Tabelle unter der Überschrift Global Long-term Mean Land and Sea Surface Temperatures auf den NOAA Global Surface Temperature Anomalies-Websites.

Berkeley Earth hat auch Daten veröffentlicht für zwei globale Land-+Ozean-Temperaturprodukte. Die Existenz von Meereis ist der Grund, dass es zwei sind. Festlands-Temperaturdaten enthalten offensichtlich keine Ozeanoberflächen-Temperaturdaten, wo sich Meereis befindet, und Wassertemperaturdaten enthalten nicht die Lufttemperaturen über polarem Meereis, wo und wann sich dieses befindet. Von den 361,9 Millionen km² der Gesamtfläche der globalen Ozeane bedeckt polares Meereis nur im Mittel etwa 18,1 Millionen km² jährlich im Zeitraum 2000 bis 2013. Während polares Meereis nur etwa 5% der globalen Ozeane und nur etwa 3,5% der Oberfläche des Globus‘ überdeckt, ist die klimawissenschaftliche Gemeinde bestrebt, dort die Lufttemperatur zu berechnen. Dies gilt besonders für die Arktis, wo der natürlich auftretende Prozess der polaren Verstärkung zu übertriebenen Erwärmungsraten führt in Zeiten, in denen sich die Nordhemisphäre erwärmt (und sich auch mit verstärkten Raten abkühlt, wenn sich die Nordhemisphäre abkühlt).

Während dies geschrieben wird, gibt es keine stützende Studie für die Land- und Wassertemperaturdaten von BEST, die verfügbar sind auf der Berkeley Earth Papers-Website, und es wird nichts dazu gezeigt auf ihrer Posters-Website. Es gibt jedoch eine einführende Diskussion auf der BEST-Datenseite über ihr Kombinations-Produkt. Die BEST-Land- und Wassertemperaturdaten sind zusammengeführt mit einer modifizierten Version von HadSST3-Wassertemperaturdaten, welche man mittels eines statistischen Verfahrens namens Kriging aufgefüllt hatte.

Die jährlichen Berkeley-Anomalien der Land-+Wassertemperaturen sind hier und die monatlichen Daten hier. Ihre Begründung der Präsentation der beiden Land-+Wassertemperatur-Produkte stützt meine Ausführungen oben. Berkeley Earth schreibt:

Zwei Versionen dieses Mittels werden gezeigt. Diese unterscheiden sich dahingehend, wie sie mit von Meereis bedeckten Gebieten umgehen. In der ersten Version werden Temperaturanomalien bei der Gegenwart von Meereis extrapoliert von Anomalien der Festlandstemperatur. In der zweiten Version werden Temperaturanomalien bei der Gegenwart von Meereis extrapoliert aus Anomalien der Wassertemperatur (normalerweise gemessen im offenen Wasser an der Peripherie des Meereises). Für die meisten Ozeangebiete gilt, dass die Wassertemperaturen ähnlich der Lufttemperaturen darüber sind; allerdings können Lufttemperaturen über Meereis substantiell von der Wassertemperatur unter dem Eis abweichen. Die Lufttemperatur-Version dieses Mittels zeigt größere Änderungen in jüngster Zeit, teilweise weil Änderungen der Wassertemperatur durch den Gefrierpunkt von Meerwasser beeinflusst werden. Wir glauben, dass die Verwendung von Lufttemperaturen über Meereis ein natürlicheres Mittel darstellt zur Beschreibung von Änderungen der Temperaturen auf der Erde.

Der Gebrauch von Lufttemperaturen über Meereis kann eine realistischere Repräsentation arktischer Temperaturen während der Wintermonate anbieten, wenn das Meereis sich an den Landmassen auftürmt und wenn jene Landmassen mit Schnee bedeckt sind und Eis und Festland ähnliche Albedos aufweisen. Allerdings kann die Albedo von Meereis während der Sommermonate anders sein als die Albedo von Landmassen (Schnee schmilzt und legt die Landoberfläche um die Temperatur-Sensoren frei, und die Albedo von Landoberflächen ist eine ganz andere als die von Meereis). Der offene Ozean trennt außerdem Festland und Meereis an vielen Stellen, was das Problem weiter kompliziert. Dem ist nicht so einfach abzuhelfen.

Berkeley Earth listet auch die geschätzten absoluten Oberflächen-Temperaturen während ihres Referenzzeitraumes für beide Produkte:

Geschätzte globale Mitteltemperatur I von Januar 1951 bis Dezember 1980

mittels Lufttemperatur über Meereis: 14.774 ±0.046

mittels Wassertemperatur unter Meereis: 15.313 ±0.046

Die geschätzte absolute globale Mitteltemperatur unter Verwendung der Lufttemperatur über Meereis ist um 0,5°C kälter als die Daten unter Verwendung der Wassertemperaturdaten unter dem Meereis. Die später in diesem Beitrag präsentierten Modelle zeigen Lufttemperaturen, darum werden wir die Berkeley-Daten verwenden, die die Lufttemperatur über Meereis zeigen. Dies stimmt auch mit den Verfahren bzgl. der GISS LOTI-Daten überein.

Der von Berkeley Earth verwendete Wassertemperatur-Datensatz (HadSST3) existiert nur in Anomalie-Form. Und ohne stützende Studie gibt es keine Dokumentation darüber, wie Berkeley Earths diese Anomalien in absolute Werte konvertiert hat. Die Quelle ICOADS-Daten sowie die HadISST und ERSST.v3b-Endprodukte werden in absoluter Form gezeigt, so dass vermutlich eine davon als Referenz herangezogen worden war.

Vergleich der Daten von BEST, GISS und NCDC in absoluter Form

Die jährlichen globalen Mitteltemperaturen der drei Institutionen in absoluter Form vom Anfangsjahr 1880 bis zum letzten vollständigen Jahr 2013 zeigt Abbildung 3. Die BEST-Daten sind wärmer als die anderen beiden, aber der Kurvenverlauf ist ähnlich, wie man es auch erwarten würde.

Abbildung 3

In Abbildung 4 habe ich den kältesten Datensatz (NCDC) vom wärmsten Datensatz (BEST) subtrahiert. Die Differenz wurde außerdem mit einem zehnjährigen gleitenden Mittel geglättet (rote Kurve). Zumeist sind die BEST-Daten in absoluten Werten um etwa 0,8°C wärmer als die NCDC-Schätzung. Der 1940 beginnende Buckel, der um 1950 seinen Spitzenwert erreicht, sollte den Adjustierungen geschuldet sein, die UKMO an den HadSST3-Daten vorgenommen hatte, nicht aber an die Daten von NOAA ERSST.v3b, die sowohl von GISS als auch von NCDC herangezogen worden waren. Diese Diskussionen werden in einem anderen Kapitel geführt. Ich habe den Verdacht, dass die geringere Differenz zu Beginn der Datenreihe auch mit der Handhabung der Wassertemperaturdaten zusammenhängt, aber es gibt keine Möglichkeit, dies ohne Zugang zu den von BEST modifizierten HadSST3-Daten sicher zu sagen. Der jüngste Aufwärts-Tick sollte dem Unterschied geschuldet sein, wie BEST und NCDC mit den Daten aus dem Arktischen Ozean umgehen. Berkeley Earth extrapoliert Festlands-Temperaturdaten einfach hinaus auf die Ozeane, während NCDC Wassertemperaturdaten im Arktischen Ozean außen vor lassen, sofern dort Meereis liegt, und man extrapoliert landbasierte Daten nicht auf Flächen über Eis zu jenen Zeiten.

Abbildung 4

Und jetzt zu den Modellen:

Simulationen der absoluten Lufttemperatur seit 1880 seitens des Klimamodells CMIP5

Wie in diesem Buch schon an verschiedenen Stellen erwähnt, werden die Ergebnisse der Klimamodelle, die vom IPCC für ihren 5. Zustandsbericht herangezogen worden waren, im Climate Model Intercomparison Project Phase 5 archive gespeichert, und diese Ergebnisse sind öffentlich verfügbar und aufbereitet zum Download in leicht nutzbaren Formaten via KNMI Climate Explorer. Die Ergebnisse von CMIP5 der Lufttemperatur auf dem KNMI Climate Explorer stehen auf der Monthly CMIP5 scenario runs-Website und werden als „TAS“ bezeichnet.

Die Modellergebnisse auf dem KNMI Climate Explorer sind für die historischen Antriebe verfügbar mit Übergängen zu den unterschiedlichen RCP-Zukunfts-Szenarien. Hier zeigen wir das historische und das Worst-Case-Zukunfts-Szenario RCP8.5. Wir verwenden das Worst-Case-Szenario allein als Referenz, wie hoch die Temperaturen den Modellen zufolge steigen könnten, falls die Emissionen von Treibhausgasen wie projiziert unter diesem Szenario erfolgen. Die Verwendung des Worst-Case-Szenarios wird kaum Auswirkungen auf den Vergleich zwischen Modell und Daten von 1880 bis 2013 haben. Wie man sich erinnert, beginnen die Zukunftsszenarien in den meisten Modellen nach 2005, bei anderen später, und deswegen gibt es nur sehr geringe Unterschiede zwischen den Modellergebnisse für die unterschiedlichen Modell-Szenarien während der ersten paar Jahre. Außerdem habe ich die Outputs separat heruntergeladen für alle Modelle individuell sowie deren Ensemble-Mitgliedern. Es gibt insgesamt 81 Ensemble-Mitglieder von 39 Klimamodellen.

Anmerkung: Die Modellergebnisse sind verfügbar in absoluter Form in Grad Celsius, darum habe ich sie nicht auf irgendeine Weise adjustiert.

Hiermit als Hintergrund ist Abbildung 5 eine Spaghetti-Graphik, die die archivierten Ergebnisse der CMIP5-Klimamodell-Simulationen zeigt der globalen Lufttemperatur von 1880 bis 2100 mit historischen und RCP8.5-Antrieben. Eine größere Version dieser Graphik mit einer Auflistung aller Ensemble-Mitglieder steht hier.

Abbildung 5

Welchen Wert die globale mittlere Temperatur derzeit auch immer haben mag oder in der Vergangenheit hatte oder in Zukunft haben wird – die im 5. IPCC-Zustandsbericht verwendeten Modelle haben ihn mit Sicherheit umgeben [surrounded].

Einige könnten nun argumentieren, dass absolute Temperaturwerte unwichtig sind – dass wir uns viel eher mit Vergangenheit und Zukunft der Erwärmungsraten befassen sollten. Wir können dieses Argument auf zwei Wegen widerlegen: Erstens haben wir bereits in den Kapiteln CMC-1 und -2 gesehen, dass Klimamodelle bei der Simulation der Temperaturen von 1880 bis in die achtziger Jahre und dann wieder von den achtziger Jahren bis heute sehr schlecht abgeschnitten haben. Außerdem werden wir später das Scheitern der Modelle noch sehr viel detaillierter ausführen. Zweitens, absolute Temperaturwerte sind aus einem anderen Grund wichtig. Natürliche und verstärkte Treibhauseffekte hängen ab von der Infrarotstrahlung, die von der Erdoberfläche emittiert wird, und die Menge der von unserem Planeten in den Weltraum emittierten Infrarotstrahlung ist eine Funktion der absoluten Temperatur und nicht von Anomalien.

Wie in Abbildung 5 oben gezeigt beginnt die Mehrheit der Modelle mit Absolutwerten der globalen mittleren Temperatur, die eine Bandbreite von 12,2°C bis etwa 14,0°C aufweisen. Aber unter Einschluss der Ausreißer reicht die Bandbreite von 12,0°C bis 15,0°C. Die Bandbreite der modellierten globalen Mitteltemperatur ist einfacher erkennbar, falls wir die Modellergebnisse mit 10-Jahre-Filtern glätten. Siehe Abbildung 6.

Abbildung 6

Wir könnten diese Bandbreite enger machen mittels Entfernen der Ausreißer, aber ein Problem hiervon ist, dass die Warm-Ausreißer relativ nahe der jüngeren (besseren?) Schätzung der absoluten Temperatur der Erde von Berkeley Earth liegen. Siehe Abbildung 7, in der wir zu den jährlichen, nicht geglätteten Ergebnissen zurückkehren.

Abbildung 7

Das andere Problem bei der Entfernung der Ausreißer ist, dass das IPCC eine politische und keine wissenschaftliche Institution ist. Als Folge hiervon werden in dieser politischen Institution Modelle anderer Agenturen aus der ganzen Welt verwendet, selbst solche, die noch schlechtere Ergebnisse liefern als die auch schon schlechten Ergebnisse der anderen Modelle, was die gesamte Gruppe hinabzieht.

Mit diesen beiden Dingen im Hinterkopf werden wir alle Modelle in dieser Präsentation beibehalten, selbst die offensichtlichen Ausreißer.

Betrachtet man noch einmal die große Bandbreite der Modellsimulationen der globalen mittleren Temperatur in Abbildung 5 oben, scheint es eine Spannweite von mindestens 3°C zwischen dem kältesten und dem wärmsten zu geben. Schauen wir mal, ob sich das bestätigt.

In Abbildung 8 habe ich die kälteste modellierte globale mittlere Temperatur von der wärmsten in jedem Jahr subtrahiert, und zwar von 1880 bis 2100. Für den größten Teil des Zeitraumes zwischen 1880 und 2030 ist die Spannweite zwischen dem kältesten und dem wärmsten größer als 3°C.

Abbildung 8

Diese Spannbreite hilft uns, etwas zu beleuchten, was wir schon einige Male angesprochen haben: die Verwendung vom Multi-Modell Ensemble-Member Modellmittel, also das Mittel aller Läufe von allen Klimamodellen. Es gibt nur eine globale mittlere Temperatur, und deren Schätzungen variieren. Es gibt offensichtlich bessere und schlechtere Simulationen davon, wie immer er beschaffen ist. Liefert uns die Mittelung der Modellsimulationen eine gute Antwort? Nein!

Aber das Mittel, das Multi-Modell-Mittel, liefert uns doch etwas von Wert. Es zeigt uns den Konsens, das Gruppendenken, hinter den modellierten globalen mittleren Temperaturwerten und wie diese Werte variieren, falls (großes falls) sie auf die Antriebe reagieren, die auch in den Klimamodellen stecken. Und wie wir sehen werden, reagieren die gemessenen Temperaturen nicht auf jene Antriebe, wie sie von den Modellen simuliert werden.

Vergleiche Modell ↔ Daten

Wegen der Differenzen zwischen den neuesten (BEST) und den älteren (NCDC und GISS) Schätzungen der absoluten globalen Mitteltemperatur werden sie separat präsentiert. Und weil die GISS- und die NCDC-Daten einander so ähnlich sind, verwenden wir deren Mittelwert. Und schließlich werden wir für die Vergleiche nicht alle Ensemble-Member als Spaghetti-Graphik zeigen. Wir zeigen das Maximum, das Mittel und die Minima.

Mit diesen Bedingungen vergleicht Abbildung 9 das Mittel der GISS und NCDC-Schätzungen der absoluten mittleren globalen Temperaturen mit dem Maximum, dem Mittel und dem Minimum der modellierten Temperaturen. Das Modellmittel liegt nahe den GISS- und NCDC-Schätzungen der absoluten globalen Mitteltemperaturen, wobei das Modellmittel etwa 0,37°C kälter ist als die Daten im Zeitraum 1880 bis 2013.

Abbildung 9

In Abbildung 10 wird die BEST-Schätzung (neuer = besser?) der absoluten mittleren globalen Temperaturen von 1880 bis 2013 verglichen mit Maximum, Mittel und Minimum der modellierten Temperaturen. In diesem Falle liegt die BEST-Schätzung näher dem Maximum und weiter vom Modellmittel entfernt als bei den Schätzungen von GISS und NCDC. Das Modellmittel zeigt sich etwa 1,14°C kälter als die BEST-Schätzung für den Zeitraum 1880 bis 2013.

Abbildung 10

Differenz Modell ↔ Daten

In den nächsten beiden Graphiken subtrahieren wir die datenbasierten Schätzungen der absoluten globalen mittleren Temperatur der Erde vom Modellmittel der CMIP5-Simulationen. Man berücksichtige dies bei der Betrachtung der nächsten beiden Graphiken: Falls das Mittel der Modelle die dekadischen und multidekadischen Schwankungen der Temperatur auf der Erde angemessen simulieren würde und lediglich einfach den absoluten Wert verfehlt haben, wäre die Differenz zwischen Modellen und Daten eine flache horizontale Linie, die sich aus der Differenz ergibt.

Abbildung 11 zeigt die Differenz zwischen dem Modellmittel der Simulationen der Temperaturen auf der Erde und den GISS- und NCDC-Schätzungen, wobei die Daten von den Modellen subtrahiert werden. In der folgenden Diskussion geht es um das 10-Jahre-Mittel […keys off the 10-year average], welches ebenfalls in rot eingezeichnet ist.

Abbildung 11

Die größte Differenz zwischen Modellen und Daten zeigt sich in den achtziger Jahren des 19. Jahrhunderts. Die Differenz nimmt drastisch ab von den achtziger Jahren bis zu den Zehner-Jahren des 20. Jahrhunderts. Der Grund: Die Modelle simulieren nicht angemessen die beobachtete Abkühlung, zu der es zu jener Zeit gekommen war. Die Differenz Modell ↔ Daten wächst dann wieder von 1910 bis etwa 1940. Dies zeigt, dass sie nicht nur jene Abkühlung, sondern auch die Erwärmung von 1910 bis 1940 nicht angemessen simulieren konnten. Die Differenz verläuft zyklisch bis zu den neunziger Jahren, nach welchem Zeitpunkt die Differenz wieder graduell zunimmt. Und von 1990 bis heute ist die Differenz infolge des Stillstands auf den niedrigsten Wert seit 1880 gesunken.

Abbildung 12 zeigt die Differenz zwischen der BEST-Schätzung der Temperatur der Erde und dem Modellmittel der Simulationen. Die Kurve ist ähnlich der oben gezeigten Kurve für die GISS- und NCDC-Daten. Die BEST-Daten zeigen von Ende des 19. Jahrhunderts bis zu den Zehnerjahren des 20. Jahrhunderts geringere Abkühlung, und als Folge davon zeigt sich eine kleinere Abnahme der Temperaturdifferenz zwischen Modellen und Daten. Aber es gibt immer noch eine große Zunahme der Differenz von den Zehnerjahren bis etwa 1940, als die Modelle nicht imstande waren, die damals stattfindende Erwärmung angemessen zu simulieren. Und natürlich hat der jüngste Stillstand eine erneute Abnahme der Temperaturdifferenz verursacht.

Abbildung 12

Zusammenfassung dieses Kapitels

Es gibt eine Spannbreite von etwa 0,8°C bei den Schätzungen der absoluten globalen Mitteltemperatur, wobei die höhere Schätzung von einer Schätzung aus jüngerer Zeit stammt, die auf einer aktuelleren Datenbasis der globalen Temperaturen beruht. Mit anderen Worten, die BEST-Schätzung scheint wahrscheinlicher zu sein als die veralteten GISS- und NCDC-Werte.

In den Klimamodellsimulationen der absoluten globalen Temperaturen gibt es eine erheblich größere Spannbreite, die im Mittel etwa 3,15°C von 1880 bis 2013 ausmacht. Um das ins Verhältnis zu stellen: Mit Beginn in den neunziger Jahren haben Politiker suggeriert, dass wir die Steigerung der globalen Temperaturen auf 2,0°C begrenzen. Eine andere Möglichkeit, jene 3,15°C-Modellspannbreite ins Verhältnis zu setzen ist es, dass das IPCC in seinem 4. Zustandsbericht im Grunde behauptet, dass die gesamte globale Erwärmung von 1975 bis 2005 durch anthropogene Treibhausgase verursacht worden ist. Diese Behauptung beruhte auf Klimamodell-Ergebnissen, die die natürliche Variabilität nicht simulieren können, und darum war die Behauptung bedeutungslos. Unabhängig davon sind die globalen Temperaturen zwischen 1975 und 2005 nur um etwa 0,55°C gestiegen, jedenfalls dem Mittel der linearen Trends in den BEST-, GISS- und NCDC-Daten zufolge.

Und die Differenz zwischen der modellierten und der gemessenen absoluten globalen Mitteltemperatur war lediglich eine weitere Möglichkeit zu zeigen, wie schlecht globale Temperaturen in den jüngsten und besten Klimamodellen simuliert wurden, die das IPCC für seinen 5. Zustandsbericht herangezogen hatte.

Aber

Manchmal erfahren wir etwas Anderes, wenn wir Daten als Anomalien präsentieren. In den Abbildungen 13 und 14 habe ich die Modelle↔Daten-Differenz durch ihre jeweiligen Mittel von 1880 bis 2013 ersetzt. Dies konvertiert die absoluten Differenzen in Anomalien. Wir benutzen den vollen Datensatz als eine Referenz um sicherzustellen, dass wir die Ergebnisse nicht durch eine entsprechende Auswahl der Zeiträume verzerren. Mit anderen Worten, niemand kann uns vorwerfen, dass wir bzgl. der Referenzjahre Rosinenpickerei betrieben hätten. Die 10-Jahre-Mittelkurven (rot) helfen, die Auswirkungen des jüngsten Stillstandes ins Verhältnis zu setzen.

Man vergesse nicht, falls die Modelle die dekadischen und multidekadischen Variationen der Temperaturen auf der Erde angemessen simulieren, wäre die Differenz eine gerade Linie, und in den folgenden beiden Fällen wäre jene gerade Linie eine Null-Anomalie.

Für das Mittel der GISS- und NCDC-Daten (Abbildung 13) gilt, dass die Divergenz zwischen Modellen und Daten infolge des jüngsten Stillstandes heute die größte (schlechteste) seit etwa 1890 ist.

Abbildung 13

Und betrachtet man die Differenz zwischen den Modellsimulationen der globalen mittleren Temperatur und den BEST-Daten (Abbildung 14) als Folge des Stillstandes, ist die Modell-Performance während des jüngsten Zehn-Jahre-Zeitraumes die schlechteste jemals bei der Simulation der globalen Temperaturen.

Abbildung 14

Falls man noch einmal zurück zu Abbildung 7 geht, wird man feststellen, dass es eine kleine Untermenge von Modellläufen gibt, die die Berkeley Earth-Schätzung der absoluten globalen Mitteltemperatur unterstreicht. Sie liegen so eng beieinander, dass es sehr wahrscheinlich zu sein scheint, dass jene Modelle an jene Temperaturen angepasst worden sind.

Nun kann ich mir vorstellen, dass man daran interessiert ist, um welche Modelle es sich dabei handelt. Siehe Abbildung 15. Es handelt sich um die 3 Ensemble-Member des MIROC5-Modells von der International Centre for Earth Simulation (ICES Foundation) und die 3 Ensemble-Member des GISS ModelE2 with Russell Ocean (GISS-E2-R).

Abbildung 15

Das bedeutet nicht, dass die Modelle MIROC5 und GISS-E2-R irgendwie besser sind als alle anderen Modelle. Soweit ich weiß, können diese beiden immer noch nicht die gekoppelten Ozean-Atmosphäre-Prozesse simulieren, die zu einer Erwärmung der globalen Temperaturen über multidekadische Zeiträume führen oder die diese Erwärmung stoppen können, wie AMO und ENSO. Wie oben erwähnt zeigt ihre größere Nähe zu den aktualisierten Schätzungen der absoluten Temperatur auf der Erde, dass jene beiden Modelle an diese angepasst worden sind. GISS sollte in Betracht ziehen, ihre Schätzung von 14,0°C der absoluten globalen Temperatur für ihre Referenzperiode zu aktualisieren.

Schließlich haben wir während der letzten paar Jahre auf zahlreichen Wegen gezeigt, wie schlecht die Modelle abgeschnitten haben. Darunter waren:

Global Precipitation

Satellite-Era Sea Surface Temperatures

Global Surface Temperatures (Land+Ocean) Since 1880

Global Land Precipitation & Global Ocean Precipitation

Alle diese Beiträge waren auch bei WattsUpWithThat gepostet.

Link: https://bobtisdale.wordpress.com/2014/11/09/on-the-elusive-absolute-global-mean-surface-temperature-a-model-data-comparison/

Übersetzt von Chris Frey EIKE




Klimamodelle simulieren NICHT das Klima der Erde

Einführung

Die vom IPCC verwendeten Klimamodelle simulieren das Klima nicht so, wie es auf der Erde besteht. Diese Realität der Klimamodelle wird wahrscheinlich für viele Laien in punkto Klima überraschend sein.

Im ersten Teil dieser Reihe zeigten wir, wie die räumliche Verteilung der modellierten Erwärmungsraten der Oberflächen der globalen Ozeane von 1982 bis 2015 (also der Ära mit satellitengestützten Temperaturmessungen) keine Ähnlichkeiten aufweist mit der räumlichen Verteilung der gemessenen, auf Daten basierenden Erwärmung und Abkühlung. Und wir haben besprochen, warum es wichtig ist, dass die vom IPCC verwendeten Modelle in der Lage sind zu simulieren, wann und wo und warum die Temperaturen der Ozeanoberflächen variieren. Das ist relativ leicht zu verstehen. Wo und wann sich die Oberflächen der Ozeane erwärmen, nicht erwärmen oder sich gar aus natürlichen abkühlen und um welchen Betrag – zusammen mit anderen natürlich auftretenden Faktoren – diktiert, wo und wann Landtemperaturen steigen und fallen und wo der Niederschlag zunimmt oder abnimmt – auf jährlicher dekadischer oder multidekadischer Grundlage.

In diesem Teil zeigen wir die Vergleiche zwischen Modellen und Daten in Gestalt von Zeitreihen-Graphiken global und für eine Anzahl von Regionen. Wie schon erwähnt handelt es sich dabei um Darstellungen in absoluter Form anstatt von Anomalien. Damit sollen Additionsprobleme der Modelle illustriert werden.

Warum absolute Temperaturen?

Die tatsächlichen Temperaturen der Ozeanoberfläche bestimmen zusammen mit zahlreichen anderen Faktoren, wie viel Feuchtigkeit aus den Ozeanen verdunstet und daraus folgend, wie viel Feuchtigkeit sich in der Atmosphäre befindet … was die Feuchtevariable (1) für Niederschlag, (2) für den auf Wasserdampf bezogenen Treibhauseffekt und (3) für die negativen Rückkopplungen durch die Wolkenbedeckung diktiert. Mit anderen Worten, die Meeresoberflächen-Temperaturen nicht angemessen zu simulieren bedeutet, dass auch die atmosphärischen Komponenten der gekoppelten Ozean-Atmosphäre-Modelle nicht stimmen können.

Einleitende Information

Der in diesem Beitrag verwendete Datensatz der Ozean-Oberflächentemperatur [sea surface temperature] ist die wöchentliche und monatliche Version von NOAA’s Optimum Interpolation (OI) Sea Surface Temperature (SST) v2 (a.k.a. Reynolds OI.v2). Wir verwenden ihn, weil (1) es der längste verfügbare Datensatz mit satellitengestützten Wasseroberflächen-Temperaturen ist, (2) weil dessen Satellitendaten bias-adjustiert sind auf der Grundlage von Temperaturmessungen von in Schiffe einströmendem Kühlwasser und von Bojen (sowohl treibend als auch fest) und (3) – und das ist am wichtigsten – weil die NOAA-Reynolds OI.v2-Daten „eine gute Schätzung der Wahrheit“ genannt worden sind. Siehe hier. Die Autoren stellten hinsichtlich der Reynolds OI.v2-Daten fest (Hervorhebung von mir):

Obwohl die NOAA OI-Analyse einiges Rauschen enthält infolge deren Verwendung unterschiedlicher Datentypen und Bias-Korrekturen für Satellitendaten, wird sie von den Satellitendaten dominiert und zeigt eine gute Schätzung der Wahrheit.

Dies ist nicht die (übermäßig aufgeblähte und eine extrem hohe Erwärmungsrate zeigende) hoch aufgelöste tägliche Version der NOAA’s Reynolds OI.v2-Daten, welche wir illustriert und diskutiert haben in dem Beitrag mit dem Titel [übersetzt] „Über die monumentalen Differenzen zwischen den Datensätzen der globalen Meeresoberflächentemperatur während der von der NOAA herausgepickten Stillstandsperiode der globalen Erwärmung von 2000 bis 2014“ (hier). Auf der Grundlage jenes Beitrags verwenden wir auch nicht die den „Stillstand zerschlagenden“ [pause buster] Daten von NOAA ERSST.v4, aus welchen der Ozean-Anteil der von NOAA und GISS kombinierten Temperaturprodukte von Land + Wasser besteht. Die NOAA hat die zahlreichen Parameter in ihrem ERSST.v4-Modell adjustiert, so dass die Erwärmungsraten für die von der NOAA gewählten Zeiträume von 1951 bis 2012 und 2000 bis 2014 am extremen oberen Rand der Unsicherheits-Bandbreite für jene Perioden liegen. Und wie wir in jenem Beitrag gezeigt und illustriert haben, weist die originale Version (wöchentlich, monatlich, auf 1°C aufgelöst) der Reynolds OI.v2-Daten, die wir hier zeigen, im Wesentlichen die gleiche Erwärmungsrate auf wie die UKMO HADSST3-Daten der von der NOAA gewählten Stillstandsperiode von 2000 bis 2014.

Die in diesem Beitrag präsentierten Klimamodelle sind diejenigen, die im CMIP5-Archiv gespeichert sind, welcher vom IPCC für dessen 5.Zustandsbericht verwendet worden ist. Die CMIP5-Klimamodell-Ergebnisse der Wasseroberflächentemperatur sind verfügbar über den KNMI Climate Explorer, spezifiziert auf dieser Website unter der Überschrift Ocean, ice and upper air variables. Die Wasseroberflächentemperatur wird als TOS bezeichnet. Um mit vorherigen Beiträgen konsistent zu sein werden das „CMIP5-Mittel“ und das Historic/RCP6.0-Szenario verwendet. Das RCP6.0-Szenario liegt A1B am nächsten, welches in den CMIP3-Modellen verwendet wurde (also für den 4. IPCC-Zustandsbericht). Und wieder benutzen wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle repräsentiert. Im Wesentlichen repräsentiert das Modellmittel den Konsens der das Klima modellierenden Gruppen darüber, wie sich die Oberflächen der Ozeane erwärmen sollten, falls sie durch anthropogene Treibhausgase und die anderen in den Modellen verwendeten Treiberfaktoren in den Modellen getrieben werden würden. Für weitere Diskussionen siehe hier.

Weil die Vergleiche zwischen Modell und Daten absolut vorgenommen werden, werden jährliche Daten gezeigt. Die Reynolds OI.v2-Daten beginnen im November 1981, so dass sich die Vergleiche über 34 Jahre erstrecken, von 1982 bis 2015.

Die in die Graphiken eingezeichneten linearen Trends wurden mittels EXCEL berechnet (hier).

Globale Zeitreihen

Abbildung 1 zeigt zwei Modelle-Daten-Vergleiche der Oberflächentemperaturen während der Satellitenära, keine Anomalien. Die obere Graphik für die Breiten zwischen 90N und 90S umfasst auch die polaren Ozeane. Die untere Graphik zeigt den Bereich zwischen 60N und 60S, also ohne die polaren Ozeane. Es macht kaum einen Unterschied, ob wir die polaren Ozeane in diesen Modelle-Daten-Vergleich einbeziehen oder nicht. Die Disparität zwischen den Modellen und den Daten ist ohne die polaren Ozeane etwas größer, aber unter dem Strich zeigen die Modelle zu viel Erwärmung.

Abbildung 1

Die Differenzen zwischen Modellen und Daten auf globaler Basis beleuchten ein sehr grundlegendes Problem mit den Modellen. Die Modellierer müssen sich allein auf anthropogene Treibhausgase und andere anthropogene Faktoren konzentrieren, um die Klimamodelle zu treiben, weil die Klimamodelle Timing, Größenordnung und Dauer natürlich auftretender Prozesse nicht angemessen simulieren, die zur Erwärmung der Ozeanoberfläche führen können. Auf der Grundlage jener Modelle (die keinerlei Bezug zur realen Welt haben), wurde erwartet, dass sich die Oberflächen der Ozeane grob mit einer Raten von 0,17°C pro Dekade während der letzten 34 Jahre erwärmt haben müssten. Aber in der realen Welt zeigten sich beobachtete Erwärmungsraten infolge der Kombination der natürlichen Variabilität und Treibhausgasen von lediglich 0,10°C pro Dekade. Das ist eine monumentale Differenz zwischen Hypothese und Realität.

Ein weiteres Faktum muss berücksichtigt werden: Die Daten existierten, während die Modellierer ihre Klimamodelle für das CMIP5-Archiv vorbereitet haben. Mit anderen Worten, die Modellierer kannten ihre Ziele. Und das beste, was die Modellierer tun konnten war, die Erwärmungsrate der Oberfläche der globalen Ozeane fast zu verdoppeln. Das ist eine grauenhafte Modellierungsmaßnahme … selbst mit der jüngsten leichten Erwärmung primär durch The Blob und durch den El Nino 2015/2016.

Man beachte auch, dass von Klimamodellen simulierten Ozeanoberflächen etwas wärmer sind als beobachtet. Für den Bereich zwischen 60N und 60S liegen die mittleren simulierten Temperaturen der Ozeanoberfläche im Zeitraum 1982 bis 2015 um etwa 0,2°C höher als beobachtet. Vielleicht ist das der Grund, warum die Modelle global zu viel Niederschlag simulieren. Siehe Abbildung 2, was in meinem E-Buch On Global Warming and the Illusion of Control die Abbildung Intro-10 ist.

Abbildung 2

Tropische Wasseroberflächen-Temperaturen

Die Modelle überschätzten die Erwärmung der Wasseroberflächen-Temperaturen der tropischen Ozeane (24N bis 24S) während der letzten 34 Jahre … keine Überraschung. Überraschend ist, wie ähnlich die modellierten und die beobachteten Wasseroberflächen-Temperaturen in den Tropen sind. Siehe Abbildung 3. In den tropischen Ozeanen liegt die mittlere simulierte Wasseroberflächentemperatur im Zeitraum 1982 bis 2015 um lediglich etwa 0,02°C über den beobachteten Werten.

Abbildung 3

Während die absoluten Temperaturen sich ziemlich ähnlich sind, haben die Modelle die Erwärmung drastisch überschätzt. Den Daten zufolge hat sich die Oberfläche der tropischen Ozeane mit einer nicht gerade alarmierenden Rate von +0,08°C erwärmt. Die Modelle hingegen zeigen, dass sie sich im Falle der Erwärmung durch anthropogene Treibhausgase um etwa +0,19°C erwärmt haben müssten. Jetzt berücksichtige man, dass die tropischen Ozeane (24N bis 24S) 76% der Tropen und 46% der globalen Ozeane ausmachen.

Diese Disparität zwischen Modellen und Daten stützt die Vergleiche zwischen Modellen und Daten bzgl. der tropischen mittleren Troposphäre von John Christy im Juni 2013. Siehe die Beiträge von Roy Spencer dazu hier und hier. Die Modelle haben die Erwärmungsraten der mittleren Troposphäre über den Tropen gewaltig übertrieben.

Kommen wir zu den tropischen Ozeanen. Wie Abbildung 4 zeigt, beträgt die Differenz zwischen den simulierten und den beobachteten Erwärmungsraten für die tropischen Seegebiete des Atlantischen und des Indischen Ozeans (24S bis 24N; 80W bis 120E) etwa 0,08°C pro Dekade, wobei natürlich die Modelle zu viel Erwärmung zeigen.

Abbildung 4

Im tropischen Pazifik (24S bis 24N; 120E bis 80W) zeigen die Modelle sogar eine Erwärmung mit einer Rate, die fast 0,14°C über der beobachteten Rate liegt (siehe Abbildung 5).

Abbildung 5

El Nino- und La Nina-Ereignisse wirken sich im östlichen tropischen Pazifik am stärksten aus. Während eines El Nino fließt warmes Oberflächen- und oberflächennahes Wasser entlang des Äquators in den tropischen Ostpazifik, wobei das oberflächennahe Wasser, wärmer als normal, an die Oberfläche aufquillt. Während einer neutralen ENSO-Phase (weder El Nino noch La Nina) und während La Nina-Ereignissen quillt kühles Wasser unter der Oberfläche nach oben. Offensichtlich haben die Klimamodellierer nicht einmal ansatzweise Aspekte des tropischen Pazifiks erfasst. Während es den Daten zufolge im östlichen tropischen Pazifik (24N bis 24S; 180W bis 80W) während der letzten Jahre keine Erwärmung der Oberfläche gegeben hat, zeigt der Konsens der Modelle, dass die Oberfläche sich mit einer Rate von 0,18°C erwärmt haben sollte. Siehe Abbildung 6.

Abbildung 6

Außertropische Wasseroberflächen-Temperaturen

Für die außertropischen Ozeane der Südhemisphäre (90S bis 24S), Abbildung 7, ist die beobachtete Erwärmungsrate ebenfalls mit etwa 0,06°C pro Dekade extrem niedrig. Andererseits zeigen die Klimamodelle, dass sich die Ozeane mit einer fast doppelt so hohen Rate, nämlich 0,12°C pro Dekade erwärmt haben müssten, falls anthropogene Treibhausgase für die Erwärmung in dieser Region verantwortlich wären. Jetzt führe man sich vor Augen, dass die außertropischen Ozeane der Südhemisphäre etwa 33% der globalen Ozeane ausmachen (etwa 23% der gesamten Planetenoberfläche).

Abbildung 7

Andererseits scheinen die Klimamodelle die Erwärmungsrate der Wasseroberflächen ziemlich richtig gezeigt haben im kleinsten Teil der globalen Ozeane, nämlich in den außertropischen Ozeanen der Nordhemisphäre (24N bis 90N). Siehe Abbildung 8. Die außertropischen Ozeane der Nordhemisphäre machen lediglich 21% der globalen Ozeanoberfläche aus (etwa 15% der gesamten Planetenoberfläche).

Abbildung 8

Unglücklicherweise für die Modellierer haben die Modelle die Erwärmung der Oberfläche des außertropischen Nordatlantik (Abbildung 9) unter- und die Erwärmung im außertropischen Nordpazifik überschätzt (Abbildung 10), so dass sie die Erwärmung insgesamt der außertropischen Nordhemisphäre unrichtig dargestellt haben. Keine Überraschung.

Abbildung 9

———————————————-

Abbildung 10

Jetzt beachte man die Ähnlichkeiten zwischen den modellierten und den beobachteten Oberflächentemperaturen (nicht Trends) der tropischen Ozeane (Abbildung 9). Die mittlere beobachtete tropische Wasseroberflächentemperatur für den Zeitraum 1982 bis 2015 liegt nur um 0,02°C unter den Modellwerten. Dann ist da noch die Differenz zwischen den Modellen und den Beobachtungen in den außertropischen Regionen der Südhemisphäre (Abbildung 7) und der Nordhemisphäre (Abbildung 8). Für den Zeitraum 1982 bis 2015 liegen die modellierten Wasseroberflächentemperaturen der Südhemisphäre um etwa 0,8°C über den beobachteten Werten. Auf der Nordhemisphäre beträgt dieser Unterschied +0,4°C. All dies sind weitere Hinweise darauf, dass die ozeanischen Zirkulationen in den Klimamodellen falsch abgebildet sind.

Diese Disparitäten in absoluten Temperaturwerten können helfen zu erklären, warum die Klimamodellierer nicht den Meereisverlust der Nordhemisphäre und den Meereiszuwachs der Südhemisphäre erklären können. Siehe die Abbildungen 11 und 12, in welchen das modellierte und das beobachtete Gebiet mit Meereis in der Nord- und Südhemisphäre verglichen wird. Hierbei handelt es sich um die Abbildungen Intro-8 und Intro-9 in einem E-Book On Global Warming and the Illusion of Control.

———————————————-

Abbildung 12

Individuelle Ozeanbecken

Jetzt folgen vergleiche Modelle vs. Daten für die individuellen Ozeanbecken … ohne Kommentar:

Abbildung 13

———————————————-

Abbildung 14

———————————————-

Abbildung 15

———————————————-

Abbildung 16

———————————————-

Abbildung 17

———————————————-

Abbildung 18

———————————————-

Abbildung 19

———————————————-

Abbildung 20

———————————————-

Abbildung 21

Atlantische multidekadische Oszillation

Die Atlantische Multidekadische Oszillation wird oft beschrieben als die Variationen der Oberflächentemperaturen im Nordatlantik, die mit einer Periode von 50 bis 80 Jahren schwingen. In dieser Hinsicht wird diese AMO typischerweise mittels Trendbereinigung der langzeitlichen Wasseroberflächen-Temperaturanomalien des Nordatlantiks dargestellt. Das Argument gegen die Trendbereinigung lautet, dass sie nicht die „globale Erwärmung“ berücksichtigt.

Falls jemand mit der AMO nicht vertraut ist, siehe man bei der NOAA hier sowie die folgenden beiden Beiträge:

An Introduction To ENSO, AMO, and PDO — Part 2

Multidecadal Variations and Sea Surface Temperature Reconstructions

Über einige multidekadische Zeiträume erwärmt sich die Wasseroberfläche des Nordatlantiks schneller als die übrigen globalen Ozeane, und während anderer multidekadischer Perioden erwärmt sich die Wasseroberfläche langsamer als die übrigen globalen Ozeane und kann sich auch dramatisch abkühlen. Im längsten Teil des Zeitraumes von November 1981 bis Dezember 2014 befanden sich die Wasseroberflächentemperaturen des Nordatlantiks in einer ihrer natürlichen Erwärmungsphasen.

Wie früher schon erwähnt zählen die Daten aus dem Nordatlantik nicht für die Erwärmung der globalen Ozeane. Daher sind die zusätzlichen langzeitlichen Variationen der Wasseroberflächentemperaturen des Nordatlantiks eine bessere Darstellung der AMO, über jene der globalen Ozeane hinaus. Um das zu bewerkstelligen, haben Trenberth and Shea (2006) die globalen Wasseroberflächen-Temperaturanomalien (60S bis 60N) von den Wasseroberflächen-Temperaturanomalien des Nordatlantiks (0 bis 60N; 80W bis 0) subtrahiert. Dieses Verfahren trägt der zusätzlichen Variabilität der Daten aus dem Nordatlantik über die Variationen der globalen Daten hinaus Rechnung. Aber für diesen Beitrag fügen wir diesem Verfahren eine kleine Änderung zu. Wir präsentieren die Differenz zwischen den globalen Daten und denen aus dem Nordatlantik in absoluten Zahlen, nicht als Anomalien.

Trenberth und Shea (2006) arbeiteten mit HadISST-Daten. Darum verwendete ich jenen Datensatz für diese Diskussion in vorherigen Aktualisierungen. Siehe Abbildung 22. Sie ist Abbildung 25 aus diesem Beitrag. Sie zeigt die modellierten und beobachteten Differenzen zwischen den globalen Wasseroberflächentemperaturen und denen des Nordatlantiks, und zwar für den Zeitraum 1870 bis 2014, d. h. das Porträt der AMO nach Trenberth and Shea (2006).

Abbildung 22

Offensichtlich zeigen die Daten, dass es keine merklichen multidekadischen Variationen der Wasseroberflächentemperaturen des Nordatlantiks gibt, die über jene in den globalen Daten hinausgehen. Dies zeigt natürlich, dass die natürlichen Variationen der Oberflächentemperaturen des Nordatlantiks eine globale Erwärmung verstärken oder unterdrücken können. Oder wie es die NOAA am Ende ihrer Website zur AMO schreibt:

Im 20. Jahrhundert haben die Klimaschwingungen der AMO alternierend die globale Erwärmung kompensiert oder übertrieben, was die Gründe für globale Erwärmung schwieriger zu finden macht.

Unglücklicherweise zeigt das Modellmittel der Klimamodelle nicht jene zusätzliche Variabilität in den Wasseroberflächentemperaturen des Nordatlantiks. Dies zeigt, dass die AMO durch die Faktoren getrieben wird (primär anthropogene Treibhausgase), die die globale Erwärmung in den Klimamodellen erzeugen.

Wollen wir also jene Graphik mit Hilfe der Reynolds OI.v2-daten aktualisieren, was unsere Sichtweite auf die letzten 34 Jahre limitiert. Zunächst die Komponenten:

Abbildung 23

Die obere Graphik in Abbildung 23 zeigt die modellierten Wasseroberflächentemperaturen der globalen Ozeane (60S bis 60N) und des Nordatlantiks (0 bis 60N; 80W bis 0) für den Zeitraum 1982 bis 2015. Der modellierte Trend des Nordatlantiks ist der Erwärmungsrate der globalen Ozeane sehr ähnlich, beträgt doch die Differenz lediglich 0,02°C pro Dekade. Die untere Graphik zeigt die gemessenen Wasseroberflächentemperaturen des Nordatlantiks und global. Die Daten zeigen, dass die Erwärmungsrate des Nordatlantiks fast 0,1°C pro Dekade höher ist als der der globalen Ozeane.

Abbildung 24 enthält den Modell-Daten-Vergleich der AMO während der Satellitenära mittels des Verfahrens von Trenberth und Shea (2006), außer dass wir wieder mit absoluten Temperaturwerten arbeiten. Dem Modellmittel zufolge sollte sich die Wasseroberfläche des Nordatlantiks lediglich mit einer Rate erwärmt haben, die etwas höher liegt als die der globalen Ozeane. Aber die Daten zeigen, dass die Oberfläche des Nordatlantiks in der Lage ist, sich mit einer Rate zu erwärmen, die um fast 0,1°C höher ist als die der globalen Ozeane, ohne von den Faktoren getrieben zu werden, die die Modelle treiben (primär Treibhausgase).

Abbildung 24

Abbildung 24 zeigt noch ein anderes Problem: Die Differenz zwischen der Oberflächentemperatur des Nordatlantiks und der globalen Ozeane ist zu klein … was erneut darauf hinweist, dass die Ozean-Zirkulationen in den Modellen falsch dargestellt sind.

Schlussbemerkungen

Wir leben auf einem mit Ozeanen bedeckten Planeten. Man könnte denken, dass es eine der obersten Prioritäten der Klimamodellierer ist, die Prozesse zu simulieren, die dazu führen, dass die Wasseroberflächentemperaturen jährlich, dekadisch und multidekadisch variieren. Traurigerweise haben die Modellierer einen anderen Weg gewählt … sie haben sich entschlossen, Modelle eines Planeten zu erzeugen, der keinerlei Beziehung aufweist zu dem, auf dem wir leben.

Klimamodell-Simulationen der Wasseroberflächentemperaturen liegen weit von jeder Realität entfernt. Das heißt, sie modellieren einen virtuellen Planeten – einen Science-Fiction-Planeten – der keinerlei Ähnlichkeit mit der Erde aufweist. Spezifischer: die vom IPCC herangezogenen Klimamodelle simulieren nicht (1) die tatsächlichen Erwärmungs- und Abkühlungsraten der Ozeanoberfläche, (2) die räumliche Verteilung dieser Trends und (3) die absoluten Temperaturen. Es wäre nett, wenn die Klimamodellierungs-Agenturen versuchen würden, die Oberflächentemperaturen dieses Planeten zu simulieren, und nicht diejenigen irgendeines Phantasie-Planeten. Dann könnten ihre Modelle einen gewissen Wert haben. Derzeit jedenfalls dienen sie keinem Zweck … außer zu demonstrieren, wie schlecht sie das Klima der Erde simulieren.

Link: http://wattsupwiththat.com/2016/02/12/climate-models-are-not-simulating-earths-climate-part-2/

Übersetzt von Chris Frey EIKE




Den Stillstand zerschlagende SST-Daten: Hat die NOAA eine Beziehung zwischen NMAT und SST hinweg adjustiert, die laut Konsens der CMIP5-Klimamodelle existieren sollte?

Bild rechts: © Chris Frey 2015

Hintergrund

Die NOAA hat ihr globales Temperatur-Erzeugnis Anfang dieses Jahres überarbeitet, um eine größere globale Erwärmung zu zeigen im Zeitraum nach 1998. Diese Datenmanipulationen haben vermeintlich die Verlangsamung der globalen Erwärmung in jenem Zeitraum beendet. Die von der NOAA durchgeführten Änderungen der globalen Temperatur wurden in drei Studien präsentiert. Die größten Änderungen wurden im Anteil der Wassertemperatur vorgenommen, und diese Änderungen waren Thema in den Studien von Huang et al. (2015) und Liu et al. (2015). Diese beiden Studien waren im Februar 2015 veröffentlicht worden – und von den Mainstream-Medien nicht zur Kenntnis genommen worden. Die Alarmisten jedoch haben nicht die Studie von Karl et al. (2015) übersehen Possible Artifacts of Data Biases in the Recent Global Warming Hiatus (Zahlschranke; gesamte Studie hier). Während sich die Überarbeitung auf den gesamten Zeitraum der globalen NOAA-Temperaturen seit dessen Beginn in den 1850-er Jahren erstreckte, haben sich Karl et al. (2015) auf die Zeiträume 1998 bis 2014 und 2000 bis 2014… konzentriert, während derer die NOAA den Anteil der Wassertemperatur bis zu einem Ausmaß adjustiert hatte, dass sie behaupten konnten, die Verlangsamung der globalen Erwärmung hatte es nie gegeben.
Natürlich waren diese Behauptungen irreführend. Grund: Selbst mit den NOAA-Änderungen an den Temperaturaufzeichnungen gibt es immer noch die sich unverändert erweiternde Diskrepanz zwischen Beobachtungen und der aufgrund von Klimamodellen prophezeiten globalen Erwärmung. Mit anderen Worten, die Manipulationen der NOAA an den globalen Temperaturaufzeichnungen haben diese Diskrepanz zwischen Modellen und Daten etwas kleiner gemacht, sie aber nicht eliminiert.
Der US-Kongress-Abgeordnete Lamar Smith ist Vorsitzender des Committee on Science, Space and Technology des Repräsentantenhauses. Wie viele andere Menschen auch hat Repräsentant Smith die NOAA-Änderungen bzgl. ihrer Temperaturaufzeichnung hinterfragt. Kürzlich hat Repräsentant Smith formell die NOAA-E-Mails angefordert, in denen es um die Änderungen der globalen Temperaturaufzeichnungen geht, und bis jetzt ist Dr. Kathryn Sullivan von der NOAA dieser Anforderung nicht gefolgt. Es gibt eine Fülle von Nachrichten-Artikeln über den Streit zwischen Smith und der NOAA, aber dieser ist nicht Gegenstand dieses Beitrags.
In diesem Beitrag geht es um die primäre Adjustierung, die die größte Auswirkung hat auf die den Stillstand zerschlagende [„pause busting“] Natur der neuen NOAA-Rekonstruktion der globalen Wassertemperatur an der Ozeanoberfläche. Ich komme zu dem Ergebnis, dass die NOAA einen Unterschied zwischen Messungen der Wassertemperatur durch Schiffe und der nächtlichen Lufttemperatur über Ozeanen hinweg adjustiert haben könnte. Diesen sollte es jedoch dem Konsens der im jüngsten IPCC-Bericht 5 verwendeten Klimamodelle zufolge geben. Wieder einmal legt dies die Vermutung nahe, dass eine weitere NOAA-Hypothese korrekt ist.

Zusätzlicher Hintergrund: Korrekturen eines Bias‘ der Wassertemperatur der Ozeane

Verschiedene Verfahren waren zur Anwendung gekommen, um Wassertemperaturen zu erhalten seit dem Beginn von Temperaturaufzeichnungen Mitte des 19. Jahrhunderts: Eimer aus unterschiedlichen Materialien (Holz, Segeltuch, isoliert); in Maschinen einströmendes Kühlwasser und Bojen (fest und treibend). Zusätzlich wurde die Lufttemperatur über der Wasseroberfläche von Schiffen gemessen … eine Größe, die maritime Lufttemperatur genannt wird. Jedes Verfahren enthält ihre eigenen Messfehler, Unsicherheiten und Verzerrungen. (Für Neulinge auf diesem Gebiet: Kent et al. (2010) Effects of instrumentation changes on ocean surface temperature measured in situ. Darin findet sich eine detaillierte und leicht verständliche Übersicht. Oder Kennedy (2014) A review of uncertainty in in situ measurements and data sets of sea-surface temperature. Eine Kopie der eingereichten Studie findet sich hier).
Mit Beginn Mitte des 20. Jahrhunderts haben die Datensammler den Verzerrungen Rechnung getragen, die sich aus den unterschiedlichen Eimer-Typen ergeben sowie durch den Übergang von Eimern zu einströmendem Wasser in Schiffsmotoren. Zusätzlich wurde der Bias zwischen Schiffs- und Bojenmessungen in der Studie seit Anfang dieses Jahrhunderts diskutiert. Die im einströmenden Kühlwasser gemessenen Wassertemperaturen (ERI) sind etwas wärmer als die von Bojen gemessenen Temperaturen. Aber die Datensammler haben bis vor Kurzem nicht versucht, dem Schiffs-Bojen-Bias Rechnung zu tragen infolge der großen Unsicherheit der Messungen im einströmenden Wasser bzw. von Bojen und infolge der massiven Unsicherheiten bzgl. des Schiffs-Bojen-Bias‘. (Siehe Reynolds et al. 2002. Also see Kennedy et al. (2011) Part 1 und Part 2 als Dokumentation jener Unsicherheiten).
Für ihre neuen, den „Stillstand zerschlagenden“ Daten hat die NOAA:
● die Schiffsdaten adjustiert mittels der HadNMAT2-Daten der nächtlichen Lufttemperatur vom UKMO als Referenz. Dies setzt natürlich die Hypothese voraus, dass sich die nächtlichen maritimen Lufttemperatur-Daten mit der gleichen Rate ändern wie die Wassertemperatur (sowohl tagsüber als auch nachts),
● die Bojen-Daten adjustiert, um der Temperaturdifferenz Rechnung zu tragen zwischen in Schiffen einströmendem Wasser und Bojen in Gebieten, in denen es beides gibt. Die Auswirkungen hiervon würden über die letzten Jahrzehnte hinweg variieren, weil sich das Verhältnis von Bojen zu Schiffsmessungen mit der Zeit verändert hat. Es gab zunehmende Bojen-Messungen und abnehmende Schiffsmessungen,
● die Bojendaten stärker gewichtet als die Schiffsdaten in Perioden, in denen es sowohl Schiffs- als auch Bojendaten gibt. Dies wurde gemacht, um den unterschiedlichen Genauigkeiten der Schiffs- und Bojen-Temperaturmessungen Rechnung zu tragen … Bojendaten haben sich als genauer erwiesen als Schiffsdaten.
Karl et al. (2015) zufolge hatten die Adjustierungen der Schiffsdaten die größte Auswirkung auf die Trends von 2000 bis 2014:
Von den 11 Verbesserungen in der ERSST-Version 4 (13) hatte die Fortsetzung der Schiffs-Korrekturen die größte Auswirkung auf die Trends des Zeitraumes 2000 bis 2014. Sie machte 0,030°C der Trenddifferenz von 0,064°C zu Version 3b aus. (Die Korrektur der Bojenwerte trug 0,014°C pro Dekade zum Unterschied bei, und das zusätzliche Gewicht, das man den Bojendaten wegen deren größerer Genauigkeit zugewiesen hat, macht 0,012°C pro Dekade aus).
In diesem Beitrag werden wir die Adjustierungen des Bias‘ zwischen Schiffen und Bojen umreißen sowie die Wichtung der Daten von Bojen und dem in Schiffe einströmendem Wasser. Dies wurde schon in zahlreichen anderen Blogbeiträgen diskutiert. Wir hier wollen aus konzentrieren auf…

Die Hypothesen der NOAA bei der Verwendung von NMAT-Daten*, um schiffsbasierte Messungen der Wassertemperatur zu adjustieren

[*Wie oben erwähnt: NMAT = Night Marine Air Temperature. Ich weiß nicht, ob das ein fester Begriff ist, der etwas anderes meint als die direkte Übersetzung aussagt. Im Folgenden gehe ich aber von der direkten Übersetzung als dem aus, was gemeint ist. Anm. d. Übers.]
Die NOAA hat zahlreiche Annahmen gemacht, um die Verwendung von NMAT-Daten zur Adjustierung der schiffsbasierten Messungen der Wassertemperatur zu rechtfertigen. Sie sind gelistet in der Studie von Huang et al. (2015) mit dem Titel Extended Reconstructed Sea Surface Temperature Version 4 (ERSST.v4) – Part I: Upgrades and Intercomparisons. Dort schreiben sie auf Seite 919:
Die Bias-Adjustierung von Wassertemperaturdaten von Schiffen wurde ursprünglich von Smith und Reynolds (2002) ins Spiel gebracht, was die NMAT-Daten als Referenz involvierte. NMAT wurde gewählt, weil die Differenzen der Wassertemperatur stabiler sind als maritime Lufttemperaturen tagsüber, die eine große Bandbreite haben können infolge der solaren Aufheizung der Schiffsdecks und der Instrumente selbst. Um die Bias-Adjustierung vorzunehmen ist es jedoch notwendig anzunehmen, dass
1) die Differenzen zwischen SST und NMAT nahezu konstant sind während des klimatologischen Zeitraumes (1971 bis 2000);
2) die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist;
3) die NMAT-Daten einen geringeren Bias aufweisen (homogener sind) als die SST-Daten, mit denen sie verglichen werden;
4) der Mix verschiedener SST-Messmethoden (Eimer oder ERI) invariant ist über alle globalen Ozeane, und die räumliche Verteilung von Verzerrungen folgt der klimatologischen Differenz zwischen SST und NMAT in neuer Zeit (1971 bis 2000); und
5) der Bias relativ langsam und gleichmäßig mit der Zeit variiert.
Wir brauchen nur die ersten beiden NOAA-Hypothesen zu untersuchen.
NOAA fuhr dann fort mit der Beschreibung, wie sie ihre ersten beiden Hypothesen getestet hatte:
Um die ersten beiden Hypothesen zu testen, welche eine grobe physikalische Kohärenz zwischen zwei stark korrelierenden, aber physisch unterschiedlichen Messgrößen nahelegen, wurde die mittlere Differenz zwischen SST- und Lufttemperatur-Daten bei Tag und Nacht (SAT) in 2 m Höhe berechnet durch Untermengen der monatlichen Outputs der GFDL CM2.1-Modelle mit monatlichen Beobachtungs-Masken von 1875 bis 2000 (Abbildung 4). Die Modell-SAT wird herangezogen, weil der Modellbias hypothetisch tagsüber und nachts gleich ist. Es zeigt sich, dass die ersten beiden Hypothesen gültig sind, da die Modellsimulationen zeigen, dass die Differenz zwischen SAT und SST nahezu konstant ist und dessen lineare Trends in allen vier unterschiedlichen Zonen geographischer Breite schwach sind.
Huang et al. führen nicht näher aus, was sie mit „monatlichen Beobachtungs-Masken“ meinen. Meinen sie, dass die NOAA alle Gitterpunkte maskiert hat, die keine Schiffsdaten enthalten? Ich habe den Verdacht, dass genau das der Fall ist.
Wichtiger Hinweis: Im Folgenden habe ich nicht den Schritt unternommen, die Gitternetze ohne Schiffsdaten zu maskieren, weil ich versuche, die globale (ohne polare Ozeane), von den Klimamodellen erwartete Beziehung zwischen der maritimen Lufttemperatur und der Wassertemperatur zu illustrieren. (Ende Hinweis).
Komischerweise geht die NOAA davon aus, dass die modellierte Beziehung zwischen Wassertemperatur und der Lufttemperatur darüber (sowohl tagsüber als auch nachts) die gleiche ist wie die Beziehung zwischen NMAT und Wassertemperatur, wobei Letztere Tages- und Nachtwerte enthält. Das heißt, dass die NOAA nächtliche maritime Lufttemperaturen (und nicht maritime Lufttemperaturen tagsüber und nachts) heranzieht, um die Wassertemperatur zu adjustieren. Trotzdem aber präsentieren sie modellierte Wassertemperaturen und maritime Lufttemperaturen (tagsüber und nachts) als Rechtfertigung. Ist das gemeint, wenn es heißt „Die Modell-SAT wird verwendet, da der Modellbias vermutlich der Gleiche ist tagsüber und nachts“? Genau so scheint es zu sein.
Meine Abbildung 1 ist Abbildung 4 bei Huang et al. (2015)

Abbildung 1
Erstens, man beachte, dass der auf Klimamodellen basierende Graph in ihrer Abbildung 1 im Jahre 2000 endet. Das ist komisch, sind wir doch am Zeitraum 2000 bis 2014 interessiert. Zweitens, sie haben die Trends von 1875 bis 2000 gelistet in der Bildunterschrift zu Abbildung 4, aber sie haben es versäumt, den Trend zu zeigen für ihre klimatologische Periode von 1971 bis 2014 (siehe deren Hypothese 1 oben).
Drittens, und sehr wichtig: Das gekoppelte Ozean-Atmosphäre-GFDL CM2.1-Klimamodell aus dem NOAA Geophysical Fluid Dynamics Laboratory (GFDL) ist eine seltsame Wahl als Verwendung in einer Studie des Jahres 2015. Zu Beginn der GFDL-Website über das neue und verbesserte GFDL CM3 model heißt es:
Das erfolgreiche Modell von GFDL, CM2.1 (Delworth et al. 2006) wurde als Startzeitpunkt gewählt, um die nächste Generation der gekoppelten CM3-Modelle zu entwickeln.
Mit anderen Worten, das 10 Jahre alte GFDL CM2.1-Klimamodell kann man als obsolet ansehen, soweit es durch das GFDL CM3-Modell ersetzt worden ist. Das GFDL CM2.1-Modell wurde von Delworth et al. (2006) unterstützt GFDL’s CM2 Global Coupled Climate Models. Part I: Formulation and Simulation Characteristics. Im Abstract wird angegeben, dass es für den 4. IPCC-Zustandsbericht 2007 aktuell war.
Wir wissen aus Erfahrungen der Vergangenheit, dass es weite Bandbreiten geben kann bei den absoluten Werten der Temperatur von Modell zu Modell ebenso wie eine große Bandbreite von Trends. Die Verwendung eines Klimamodells einer früheren Generation seitens der NOAA könnte jeden dazu führen zu glauben, dass die NOAA genau jenes GFDL CM2.1-Modell aus früherer Generation gewählt hat (nach Art von Rosinenpickerei), weil es genau das Ergebnis lieferte, das man sich gewünscht hatte.
Schauen wir also mal auf das Multimodell-Mittel aller neuen und verbesserten Klimamodelle, die im IPCC-Bericht #5 (2013) herangezogen worden waren. Diese Modelle sind gespeichert im CMIP5 archive, und deren Multimodell-Mittel (zusammen mit den Ergebnissen der individuellen Modelle) sind verfügbar im KNMI Climate Explorer. Das Multimodell-Mittel (das Mittel aller Modelle) repräsentiert im Grunde den Konsens (das Gruppendenken) der Klimamodellierungs-Gruppen, wie die Wassertemperatur und die maritime Lufttemperatur (in diesem Beispiel) auf die Klima-Antriebe reagieren, die man als Antrieb für die Modelle verwendet hat. Infolge der großen Bandbreite der Klimamodell-Ergebnisse stellt die Verwendung des Mittelwertes aller Modelle im CMIP5-Archiv sicher, dass man uns keine Rosinenpickerei vorwerfen kann dergestalt, dass wir ein bestimmtes Modell herausgreifen, das eine Agenda unterstützt. Und wir brauchen nur die Klimamodell-Ergebnisse für die globalen Ozeane untersuchen mit Ausnahme der polaren Ozeane (60°S bis 60°N); das heißt wir brauchen nicht die zusätzlichen Unterabteilungen untersuchen, wie sie in Abbildung 4 von Huang et al. (2015) zum Ausdruck kamen (= meine Abbildung 1).
Wir beginnen mit dem Zeitraum von 1875 bis 2000, der in Abbildung 4 von Huang gezeigt wird. Die obere Graphik in Abbildung 2 zeigt die Modelldifferenz zwischen den simulierten globalen Wassertemperaturen (60°S bis 60°N) und den maritimen Lufttemperaturen während der von der NOAA gewählten Periode von 1875 bis 2000, wobei die maritime Lufttemperatur (TAS, Landoberflächen maskiert) von den Wassertemperaturen subtrahiert werden. Während dieses Zeitraumes wurden nur die historischen Klimaantriebe von den Modellierungsgruppen verwendet. Für den von der NOAA gewählten Zeitraum von 1875 bis 2000 zeigt der Konsens der jüngsten Generation die modellierte Differenz zwischen der globalen Wasser- und maritimen Lufttemperaturen, die mit einer Rate von -0,008°C pro Dekade abnimmt … also mit genau der gleichen Rate wie die -0,008°C pro Dekade, die die NOAA für den Zeitraum 1875 bis 2000 geltend macht. Auf den ersten Blick scheint dies die Ergebnisse von Huang et al. (2015) zu bestätigen. Die untere Graphik in Abbildung 2 illustriert im gleichen Zeitrahmen das Multimodell-Mittel der simulierten Wassertemperaturen und der maritimen Lufttemperaturen, die für die Grundlagen der oberen Graphik stehen. Ich habe die Modellergebnisse des Zeitraumes 2000 bis 2014 hinzugefügt (gestrichelte Kurven) in beiden Graphiken als Referenz.

Abbildung 2
Man beachte jedoch, dass sich in der oberen Graphik der Abbildung 2 eine deutliche Trendänderung zeigt, die etwa Mitte der siebziger Jahre begonnen hat und von einem nachfolgenden starken Rückgang gefolgt wurde.
Untersuchen wir also den Trend der von der NOAA herangezogenen klimatologischen Periode von 1971 bis 2010. Siehe Abbildung 3. Für diese NOAA-Periode zeigt der Konsens der jüngsten Klimamodell-Generation die modellierte Differenz zwischen der globalen Wasser- und der maritimen Lufttemperatur, die mit einer stärkeren Rate von -0,021°C pro Dekade abnimmtn … weit größer als die -0,008°C pro Dekade, die von der NOAA für den Zeitraum 1875 bis 2000 propagiert wird.

Abbildung 3
Was die untere Graphik der Abbildung 3 betrifft: die modellierte maritime Lufttemperatur steigt etwas rascher als die modellierte Wassertemperatur während des klimatologischen NOAA-Zeitraumes. Mit anderen Worten, der Konsens der neuen und verbesserten Klimamodelle widerspricht dem NOAA-Ergebnis (Huang et al.) hinsichtlich ihrer ersten Hypothese zur Verwendung maritimer Lufttemperaturen, um die Verzerrungen der mit Schiffen gemessenen Wassertemperaturen zu adjustieren … oder irgendwelche Daten der Wassertemperatur.
Aber am Zeitraum 1971 bis 2000 sind wir nun wirklich nicht interessiert. Interessanter für uns ist der Zeitraum 2000 bis 2014, weil es genau der Zeitraum war, den die NOAA (Karl et al. 2015) für die Behauptung herangezogen hatte, dass die „Fortsetzung der Schiffsdaten-Korrekturen den größte Auswirkung auf die Trends von 2000 bis 2014 hatte; verantwortlich für 0,030°C pro Jahrzehnt der 0,064°C-Trenddifferenz zu Version 3b“.
Abbildung 4 gleicht den Abbildungen 2 und 3, außer dass wir in Abbildung 4 die Modellergebnisse illustrieren für den Zeitraum 2000 bis 2014. Der einzige Unterschied ist, dass Modelle jetzt auch die projizierten Antriebe enthalten, zusätzlich zu den historischen Antrieben. Der Übergang von historischen zu projizierten Antrieben erfolgt laut den meisten Modelle 2005/2006. Es ist kein von mir ausgesuchtes Feature. Aber ich habe das RCP6.0-Antriebsszenario gewählt, weil ich mich nicht dem Vorwurf aussetzen wollte, das Worst-Case-RCP8.5-Szenario herauszupicken.
Es ist keine große Überraschung, dass das Multimodell-Mittel in der oberen Graphik der Abbildung 4 einen Rückgang der Temperaturdifferenz zeigen zwischen den Wasser- und den maritimen Lufttemperaturen. Tatsächlich ist der Trend von -0,027°C pro Dekade der modellierten Temperaturdifferenz vergleichbar mit der Adjustierung der Schiffsdaten von 0,030°C pro Dekade seitens der NOAA (die nächtliche maritime Lufttemperaturdaten verwendet hatte) für den Zeitraum 2000 bis 2014.

Abbildung 4
Das heißt, mit Verwendung der neueren Modelle ist es Konsens unter den Modellierer-Gruppen zu erwarten, dass sich maritime Luft im Zeitraum 2000 bis 2014 rascher erwärmt als die Oberflächen der Ozeane … mit einer Rate, die vergleichbar ist mit der „Korrektur“, die man mittels der nächtlichen maritimen Lufttemperatur an die Schiffsdaten angebracht hatte. Dies widerspricht der zweiten der NASA-Hypothesen, der zufolge „die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist“. Das ist eindeutig nicht der Fall.
Einfach gesagt, die NASA scheint eine Differenz zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur hinweg adjustiert zu haben. Diese Differenz sollte es dem Konsens der neueren Klimamodelle zufolge jedoch geben. Dies legt die Vermutung nahe, dass die andere Große Hypothese der NOAA, nämlich dass „die Modell-SAT verwendet wird, da der Modell-Bias vermutlich tagsüber und nachts gleich ist“ korrekt ist.
Stellen wir das mal in einen größeren Zusammenhang. Die NOAA scheint anzunehmen, dass sich die NMAT mit der gleichen Rate erwärmt wie die MAT sowohl tagsüber als auch nachts. Sie hat maritime Lufttemperaturen anstatt die nächtlichen maritimen Lufttemperaturen herangezogen, um ihre ersten beiden Hypothesen zu verifizieren. Man beachte auch, dass der Konsens der jüngsten Generation von Klimamodellen zeigt, dass sich die maritimen Lufttemperaturen mit einer höheren Rate erwärmen sollten als die Wassertemperaturen seit etwa Mitte der siebziger Jahre. Und doch, zieht man diese Überlegungen in Betracht, zeigt das Enderzeugnis der NOAA, also ihr neuer „Stillstands-Vernichter“, nämlich die ERSST.v4-Daten, die gegenteilige Beziehung. Ihre neuen Wassertemperatur-Daten zeigen eine merklich höhere Erwärmungsrate als die nächtlichen maritimen Lufttemperaturen (HadNMAT2), die man als Referenz herangezogen hatte. Siehe Abbildung 5, welches Abbildung 1 im Beitrag Open Letter to Tom Karl of NOAA/NCEI Regarding “Hiatus Busting” Paper ist.

Abbildung 5
Bemerkung: Diese Graphik endet im Jahre 2010, weil da die HadNMAT2-Daten aufhören. Dies wirft natürlich folgende Frage auf: Wie adjustiert die NOAA (ungerechtfertigterweise) die Schiffsdaten nach dem Jahr 2010?
Unter dem Strich: Der jüngsten Generation von Klimamodellen zufolge sollte sich die maritime Lufttemperatur schneller erwärmen als die Wassertemperaturen, aber nicht in der NOAA-Welt, an der so viel herumgedoktert wurde.

Zum Schluss

Noch einmal, meine Illustrationen zeigen die erwartete globale Beziehung zwischen maritimen Lufttemperaturen (tagsüber und nachts) und der Wassertemperaturen, weil die NOAA diese heranzieht, um eine Beziehung zu verifizieren zwischen der nächtlichen maritimen Lufttemperatur und der Wassertemperatur.
Auch habe ich die Modellergebnisse nicht maskiert, so dass sie nur das Netz mit schiffsbasierten Wassertemperaturen enthalten, wie es die NOAA getan zu haben scheint. Aber dem Konsens der im IPCC-Bericht 5 verwendeten Klimamodelle zufolge ist die Beziehung global (60°S – 60°N) dergestalt, dass sich die maritime Lufttemperatur seit Mitte der siebziger Jahre rascher erwärmt hat als die Wassertemperatur.
Ich habe folgenden Verdacht: Wenn die Whistleblower von Kongressmann Lamar Smith besorgt sind hinsichtlich des Hypes um die Studie von Karl et al. (2015) „vor einer angemessenen Begutachtung der zugrunde liegenden Wissenschaft und der angewandten neuen Verfahren“, diskutieren sie über:
● Die Unsicherheiten der Bias-Adjustierungen,
● Die Unsicherheiten in den Daten,
● natürlich über die grundlegenden Verfahren einschließlich der Art und Weise, mit der die NOAA jene Adjustierungen über die Ozeane verteilt hatte, und
● am wichtigsten bzgl. der „zugrunde liegenden Wissenschaft“: wie die NOAA eine Differenz hinweg adjustiert zu haben scheint zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur, die es dem Konsens der neuen Klimamodelle zufolge geben sollte.
Vielleicht wird Dr. Sullivan von der NOAA die von Repräsentant Smith angeforderten E-Mails noch rechtzeitig zur Verfügung stellen, so dass wir meinen Verdacht sowie den Verdacht auch vieler Anderer bestätigt sehen können.
Link: http://wattsupwiththat.com/2015/11/30/pause-buster-sst-data-has-noaa-adjusted-away-a-relationship-between-nmat-and-sst-that-the-consensus-of-cmip5-climate-models-indicate-should-exist/
Übersetzt von Chris Frey EIKE




Auf halbem Weg zur Hölle? – Alarmisten werden immer verzweifelter in ihren Bemühungen, die öffentliche Meinung zu beeinflussen

Politiker aus der ganzen Welt werden in diesem Jahr erneut zusammenkommen in dem aussichtslosen Versuch, ein Abkommen zu erzielen darüber, wie man jenes Ziel der Begrenzung der globalen Erwärmung auf das von Ökonomen gesetzte Limit erreichen kann. Um die Aufmerksamkeit der Öffentlichkeit für dieses Spektakel sicherzustellen, wird diese folglich wöchentlich bombardiert mit Spekulationen des bevorstehenden Untergangs infolge der globalen Erwärmung. Ein Beispiel hierfür war ein kürzlich erschienener Artikel mit der Schlagzeile [übersetzt] „Erde jetzt auf halbem Weg zur von den UN gesetzten Grenze der globalen Erwärmung“ (hier) im New Scientist. Darin fand sich auch eine Graphik mit dem Titel „Halfway to Hell“, meine Abbildung 1, erstellt von dem Chemiker Kevin Cowtan. Die Graphik zeigte, dass die Werte der meisten Temperatur-Rekonstruktionen im Jahre 2015 wahrscheinlich über eine Anomalie von 1,0°C hinaus steigen würden.

Abbildung 1

Eine Bemühung, Newcomern beim Verständnis zu helfen

Was ist so neu an dieser Graphik? Die Anomalien (Ableitungen vom „Normalen“) werden auf vorindustrielle Zeiten bezogen. Die Erzeuger globaler Temperatur-Rekonstruktionen beziehen ihre Anomalien normalerweise eher auf jüngere Bezugszeiträume. GISS verwendet 1951 bis 1980, das UKMO 1961 bis 1990 und die NOAA oftmals den Zeitraum 1901 bis 2000. Die WMO schreibt einen Bezugszeitraum von 1981 bis 2010 vor. Der Blogger Rob Honeycutt hat jene Cowtan-Graphik in seinem Beitrag The 1C Milestone bei SkepticalScience angeführt und forderte, präindustrielle Zeiten zu verwenden als Bezugszeit für Anomalien, weil dies die besten Möglichkeit sei, Personen, für die die globale Erwärmung etwas Neues ist, davon zu überzeugen, dass „wir gegenwärtig relativ zu präindustriellen Zeiten bei einer Erwärmung um 2°C liegen“.

Offensichtlich übersehen Cowtan und Honeycutt etwas sehr Wichtiges. Ihre Graphik zeigt, dass es deutlich länger als ein Jahrhundert dauern wird, bis die Temperatur die halbe Strecke von 1.0°C geschafft hat. Viele Newcomer werden die Graphik betrachten und sich fragen, worum es bei dem ganzen Tamtam eigentlich geht.

Cowtan und Honeycutt mussten etwas präsentieren, das stärker ins Auge fällt, das noch alarmierender ist, falls sie ihre Botschaft an den Mann bringen wollten, aber das haben sie nicht. Die „Halfway to Hell“-Graphik war die einzige Graphik im Artikel des New Scientist, und Honeycutt fügte seinem Blogbeitrag lediglich eine Graphik der CO2-Emissionen hinzu für unterschiedliche Szenarien, was für die meisten Neulinge bedeutungslos ist.

Der einzige Weg für sie zu zeigen, dass wir uns rasch dem Limit nähern, wäre die Präsentation von Klimamodell-Simulationen der globalen Temperaturen. Aber komischerweise erscheinen die Outputs von Klimamodellen nicht in jenen Artikeln.

Die Präsentation von Klimamodell-Outputs mit Bezug auf vorindustrielle Zeiten würde wahrscheinlich bei den Newcomern Skeptizismus hervorrufen.

Die Zeitreihen-Graphik in Abbildung 2 enthält 81 Klimamodell-Simulationen der globalen Temperaturanomalien in einem Zeitraum, der im Jahre 1880 beginnt und im Jahre 2059 endet, wobei die modellierten globalen Temperaturanomalien auf die vorindustrielle Zeit von 1880 bis 1899 bezogen werden. Langzeitliche Temperatur-Rekonstruktionen von GISS und NOAA beginnen 1880, und 2059 ist das Jahr, wenn das letzte Klimamodell das 2°C-Limit erreicht hat, jenseits dessen imaginäre schlimme Dinge passieren sollen. Die Modelle werden durch historische Antriebe bis 2005 getrieben, und die Antriebe für das projizierte Worst-Case-Szenario (RCP8.5) beginnend im Jahre 2006. Enthalten sind 81 unabhängige Läufe der Klimamodelle von einer Vielzahl von Modellierer-Gruppen rund um den Globus. (Die Auflistung der 81 Klimamodell-Läufe werden in der Legende der erweiterten Fassung der Abbildung 2 hier gezeigt).

Abbildung 2

Das Hervorstechende in dieser Abbildung ist die 40-Jahres-Streuung zu der Zeit, zu der die Klimamodell-Simulationen der globalen Temperaturanomalien die auf Phantasie basierende 2,0°C-Grenze erreichen, jenseits derer schlimme Dinge passieren sollen. Das langsamste Modell erreicht diese Grenze im Jahre 2059 und das schnellste Modell bereits in 5 Jahren von heute an. Klimamodelle sind nicht sehr hilfreich, wenn es darum geht, uns zu sagen, wann dieses 2.0°C-Limit erreicht wird.

Vielleicht ist das der Grund, warum der New Scientist und SkepticalScience die Klimamodelle den Newcomern nicht gezeigt haben mit Bezug der Modellergebnisse auf die vorindustrielle Zeit. Während es mehr als ein Jahrhundert dauerte, bis die gemessene globale Temperatur um 1.0°C gestiegen war, sagen uns die Klimamodelle, dass der nächste Anstieg um 1.0°C innerhalb von 5 bis 44 Jahren vonstatten gehen soll. Das könnte verwirrend sein für jemanden, der sich bislang nicht um die globale Erwärmung gekümmert hat. Dann müsste jemand wie ich den Newcomern erklären, dass Klimamodelle nicht das Erdklima so simulieren, wie es in der Vergangenheit war, im Moment existiert oder in Zukunft existieren wird.

Die Newcomer könnten ihre Aufmerksamkeit dann auf das Jahr 2005 richten, weil es das letzte Jahr der ,Nachhersage‘ war. Es scheint eine sehr große Streuung zu geben bei den modellierten Temperaturen im Jahre 2005, wenn man die Modell-Outputs mit der vorindustriellen Zeit in Beziehung setzt. Und das können wir in Abbildung 3 bestätigen.

Abbildung 3

Dann würden die Newcomer zur globalen Erwärmung erkennen, dass das Verhalten der Klimamodelle ziemlich schlecht ist, wenn sie Temperaturen der Vergangenheit simulieren sollten. Die globale Temperaturanomalie im Jahre 2005 ist in einem Modell um 1,17°C größer als in einem anderen. Mit anderen Worten, es gibt eine Streuung von 1,17°C bei der simulierten Temperaturänderung von vorindustrieller Zeit bis 2005. Diese ist größer als der gemessene Anstieg von 1,0°C, die in der Graphik von Kevin Cowtan gezeigt wird (meine Abbildung 1).

Und falls ein Newcomer so neugierig wäre, wie ich es war … und nichts Besseres zu tun hätte … hätte sie oder er alle über 80 Klimamodell-Outputs der globalen Temperaturen herunterladen können mit den historischen und den Worst-Case-Antrieben (RCP8.5) in der Absicht, die Modelle mit den höchsten und den geringsten Erwärmungsraten zu finden. Dann könnte jener Newcomer einfach jene Modelle mit der Erwärmungsrate des von Alarmisten bevorzugten GISS Land-Ocean Temperature Index vergleichen mit der neuesten new NOAA ERSST.v4 pause-buster sea surface temperature reconstruction (siehe Abbildung 4). Man beachte, dass ich die GISS LOTI-Rekonstruktion und die Klimamodell-Outputs so verschoben habe, dass die Trendlinien allesamt im Jahre 1880 beginnen.

Abbildung 4

Die Streuung von 0,079°C pro Dekade in den Erwärmungsraten der Nachhersage-Modellergebnisse von 1880 bis 2005 ist ebenfalls größer als die gemessene Erwärmungsrate von 0,06°C pro Dekade.

Ein letzter Punkt

Während die Präsentation der Temperaturänderung nach Art von Kevin Cowtan in Ordnung ist (siehe Abbildung 1), verlässt sich die klimawissenschaftliche Gemeinschaft normalerweise auf lineare Trends, um Änderungen einer Maßzahl mit der Zeit auszudrücken. Auf der Grundlage der Rekonstruktion des linearen Trends von GISS LOTI sind die globalen Temperaturen seit 1880 lediglich um 0,9°C gestiegen, siehe Abbildung 5. Es wird noch etwas länger dauern (vielleicht ein weiteres Jahrzehnt auf der Grundlage des linearen Trends von 1880 bis 2014), bis wir den Halbzeitwert des 2°C-Limits erreicht haben.

Abbildung 5

Nur falls Sie sich fragen – schauen wir mal auf die Rekonstruktionen der linearen Trends der globalen Temperatur von Berkeley Earth (BEST), Cowtan und Way, NOAA NCEI und UKMO HadCRUT4. Nur der Wert der Trendlinie im Jahre 2014 von Berkeley Earth kommt dem Wert von 1,0°C nahe. Die anderen zeigen Erwärmungen im Bereich zwischen 0,9°C bis 0,85°C (auf der Grundlage ihrer Erwärmungsraten von 1880 bis 2014).

Abbildung 6

Schlussbemerkungen

Verwendet man vorindustrielle Zeiten als die Grundlagen für Anomalien, kann man Newcomern hinsichtlich der globalen Erwärmung etwas sehr Wichtiges zeigen: Klimamodelle können die globale Erwärmung der Vergangenheit nur sehr unzulänglich simulieren, wenn überhaupt. Warum sollten Newcomer dann den von der politischen Agenda finanzierten Klimamodell-Prophezeiungen einer zukünftigen globalen Erwärmung glauben, die auf Spekulationen beruhen über noch zu erwartende auftretende Emissionen von Treibhausgasen?

Quellen

Die folgenden Links führen zu den Daten der langzeitlichen globalen Temperaturrekonstruktionen:

* Berkeley Earth

*Cowtan and Way

*GISS LOTI

* HADCRUT4

*NOAA NCEI (Click on the “Anomalies and Index Data” link)

Die Outputs der Klimamodelle gibt es hier: KNMI Climate Explorer.

Link: http://wattsupwiththat.com/2015/08/14/halfway-to-hell-alarmists-are-growing-desperate-in-their-efforts-to-influence-public-opinion/

Übersetzt von Chris Frey EIKE




Fundamentale Unterschiede zwischen den globalen Temperatur-Aktualisierungen von der NOAA und UAH

Einige Leute, zum Beispiel Tamino (a.k.a. Grant Foster) glauben, dass die Diskussionen zu den jüngsten Änderungen der Produkte zur globalen Temperatur bei der NOAA und der UAH von meiner Seite aus einen Bias zeigen. Er sagt, dass ich mich einer beleidigenden Ausdrucksweise bediene, wenn ich von den NOAA-Änderungen rede und dass ich dagegen schmeichelnde Worte für die UAH-Daten finde. Tamino schließt seinen Beitrag mit dieser Bemerkung über mich:

Die offensichtliche Schlussfolgerung lautet, dass bei einer Revision nach seinen Wünschen „viel korrigiert“ und „verbessert“ wird, während sie wenn es nicht nach seinen Wünschen geht „ungerechtfertigt“ und „überdreht“ sind.

Danke, Tamino, für die Gelegenheit, einmal mehr zu zeigen, warum ich feststelle (und auch in Zukunft feststellen werde), dass die neuen NOAA-ERSST.v4-Daten ungerechtfertigterweise überdreht sind.

Man erkennt sehr leicht, dass die NOAA ihre Adjustierungen während des Stillstands nicht rechtfertigen kann (Das Wort ,Hiatus‘ [Stillstand] hat die NOAA kreiert].

Die größte Änderung der NOAA NCEI (zuvor NCDC)-Daten wurde im Bereich der Ozean-Wassertemperaturen vorgenommen (die Änderung vom ERSST.v3-Datensatz zum ERSST.v4-Datensatz) im kombinierten Datensatz der Temperaturen auf dem Festland und über den Ozeanen. Siehe Karl et al. (2015) hier (paywalled). Die NOAA benutzte den Datensatz der nächtlichen maritimen Lufttemperatur (HADNMAT2) vom UK Met.-Office als Referenz für ihren neuen ERSST.v4-Datensatz. Aber die Erwärmungsrate im Kurzfristzeitraum des neuen NOAA ERSST.v4-Datensatzes während der Zeit der Verlangsamung der globalen Erwärmung ist viel größer als in den HADNMAT2-Daten. Siehe Abbildung 1, die ich zum ersten Mal in meinem offenen Brief an Tom Karl präsentiert habe. Diese Graphik bildet die Grundlage für meine Aussagen, 1) dass die jüngste Aktualisierung der NOAA-Wassertemperaturdaten nicht durch den Datensatz gerechtfertigt werden, der als Referenz für jene Adjustierungen verwendet worden ist, und 2) dass wiederum aus diesem Grunde die NOAA-Adjustierungen überdreht waren.

Abbildung 1

Unter dem Strich die NOAA-Adjustierungen betreffend: Ich kann meine Feststellungen, dass die im NOAA ERSST.v4-Datensatz mit den globalen Temperaturprodukten auf der Grundlage der Wassertemperaturen vorgenommenen Änderungen ungerechtfertigt überdreht sind, mit Daten untermauern.

Was ist mit den Änderungen der UAH-Temperaturdaten aus der unteren Troposphäre mit der Abnahme des Trends?

Die Änderungen der UAH-Temperaturdaten aus der unteren Troposphäre brachten die Kurzfrist-Trends auf eine Linie mit dem Produkt von RSS. Einfach. Nichts Kontroverses. Die Kurzfrist-Trends der UAH-Daten sind NICHT niedriger als bei den RSS-Daten. Tatsächlich zeigen die UAH-Temperaturdaten etwas weniger Abkühlung als die RSS-Daten (siehe Abbildungen 2 und 3).

Abbildung 2

# # #

Abbildung 3

Die Abbildungen 2 und 3 sind die Abbildungen 7 und 8 aus der jüngsten Aktualisierung der globalen Oberflächen-Temperatur (hier) ohne die Oberflächen-Temperaturprodukte.

Unter dem Strich die UAH-Änderungen betreffend: Anders als bei den NOAA-Daten können wir hier nicht sagen, dass die Änderungen der UAH-Daten ungerechtfertigt sind, weil sie denen von RSS so ähnlich sind; und als Folge können wir auch nicht sagen, dass die UAH-Daten überdreht sind.

Zusätzliche Beiträge:

Wir haben die ungerechtfertigten und überdrehten Änderungen bei den neuen Daten der Wassertemperatur hier, hier und hier diskutiert.

Und weil sich GISS jüngst dem neuen NOAA ERSST.v4-Datensatz zugewendet hat siehe hier.

Die Aktualisierung der UAH-Temperaturdaten aus der unteren Troposphäre habe ich in dem Beitrag hier besprochen.

Zum Schluss:

Ich habe diesen Beitrag geöffnet mit einem fundamentalen Unterschied zwischen den Änderungen der NOAA und von UAH bei den jeweiligen Temperaturprodukten: die NOAA-Aktualisierung hat den Erwärmungstrend ihres Datensatzes seit dem Jahr 1998 zunehmen lassen. Der andere fundamentale Unterschied: Die Änderungen im UAH-Datensatz können offensichtlich gerechtfertigt werden, während dies bei den Änderungen der NOAA-Daten genauso offensichtlich nicht der Fall ist.

Noch einmal: Dank an Tamino für die Gelegenheit, einmal mehr zu illustrieren, wie die NOAA ungerechtfertigterweise ihre Adjustierungen ihrer Daten auf Grundlage der ERSST.v4-Daten überdreht hat. Es hat immer Spaß gemacht, ihm zu entgegnen.

[Ist das bei den Forentrollen beim EIKE auch so? Anm. d. Übers.]

Link: http://wattsupwiththat.com/2015/07/20/fundamental-differences-between-the-noaa-and-uah-global-temperature-updates/

Übersetzt von Chris Frey EIKE