Klimamodelle simulieren NICHT das Klima der Erde

Einführung

Die vom IPCC verwendeten Klimamodelle simulieren das Klima nicht so, wie es auf der Erde besteht. Diese Realität der Klimamodelle wird wahrscheinlich für viele Laien in punkto Klima überraschend sein.

Im ersten Teil dieser Reihe zeigten wir, wie die räumliche Verteilung der modellierten Erwärmungsraten der Oberflächen der globalen Ozeane von 1982 bis 2015 (also der Ära mit satellitengestützten Temperaturmessungen) keine Ähnlichkeiten aufweist mit der räumlichen Verteilung der gemessenen, auf Daten basierenden Erwärmung und Abkühlung. Und wir haben besprochen, warum es wichtig ist, dass die vom IPCC verwendeten Modelle in der Lage sind zu simulieren, wann und wo und warum die Temperaturen der Ozeanoberflächen variieren. Das ist relativ leicht zu verstehen. Wo und wann sich die Oberflächen der Ozeane erwärmen, nicht erwärmen oder sich gar aus natürlichen abkühlen und um welchen Betrag – zusammen mit anderen natürlich auftretenden Faktoren – diktiert, wo und wann Landtemperaturen steigen und fallen und wo der Niederschlag zunimmt oder abnimmt – auf jährlicher dekadischer oder multidekadischer Grundlage.

In diesem Teil zeigen wir die Vergleiche zwischen Modellen und Daten in Gestalt von Zeitreihen-Graphiken global und für eine Anzahl von Regionen. Wie schon erwähnt handelt es sich dabei um Darstellungen in absoluter Form anstatt von Anomalien. Damit sollen Additionsprobleme der Modelle illustriert werden.

Warum absolute Temperaturen?

Die tatsächlichen Temperaturen der Ozeanoberfläche bestimmen zusammen mit zahlreichen anderen Faktoren, wie viel Feuchtigkeit aus den Ozeanen verdunstet und daraus folgend, wie viel Feuchtigkeit sich in der Atmosphäre befindet … was die Feuchtevariable (1) für Niederschlag, (2) für den auf Wasserdampf bezogenen Treibhauseffekt und (3) für die negativen Rückkopplungen durch die Wolkenbedeckung diktiert. Mit anderen Worten, die Meeresoberflächen-Temperaturen nicht angemessen zu simulieren bedeutet, dass auch die atmosphärischen Komponenten der gekoppelten Ozean-Atmosphäre-Modelle nicht stimmen können.

Einleitende Information

Der in diesem Beitrag verwendete Datensatz der Ozean-Oberflächentemperatur [sea surface temperature] ist die wöchentliche und monatliche Version von NOAA’s Optimum Interpolation (OI) Sea Surface Temperature (SST) v2 (a.k.a. Reynolds OI.v2). Wir verwenden ihn, weil (1) es der längste verfügbare Datensatz mit satellitengestützten Wasseroberflächen-Temperaturen ist, (2) weil dessen Satellitendaten bias-adjustiert sind auf der Grundlage von Temperaturmessungen von in Schiffe einströmendem Kühlwasser und von Bojen (sowohl treibend als auch fest) und (3) – und das ist am wichtigsten – weil die NOAA-Reynolds OI.v2-Daten „eine gute Schätzung der Wahrheit“ genannt worden sind. Siehe hier. Die Autoren stellten hinsichtlich der Reynolds OI.v2-Daten fest (Hervorhebung von mir):

Obwohl die NOAA OI-Analyse einiges Rauschen enthält infolge deren Verwendung unterschiedlicher Datentypen und Bias-Korrekturen für Satellitendaten, wird sie von den Satellitendaten dominiert und zeigt eine gute Schätzung der Wahrheit.

Dies ist nicht die (übermäßig aufgeblähte und eine extrem hohe Erwärmungsrate zeigende) hoch aufgelöste tägliche Version der NOAA’s Reynolds OI.v2-Daten, welche wir illustriert und diskutiert haben in dem Beitrag mit dem Titel [übersetzt] „Über die monumentalen Differenzen zwischen den Datensätzen der globalen Meeresoberflächentemperatur während der von der NOAA herausgepickten Stillstandsperiode der globalen Erwärmung von 2000 bis 2014“ (hier). Auf der Grundlage jenes Beitrags verwenden wir auch nicht die den „Stillstand zerschlagenden“ [pause buster] Daten von NOAA ERSST.v4, aus welchen der Ozean-Anteil der von NOAA und GISS kombinierten Temperaturprodukte von Land + Wasser besteht. Die NOAA hat die zahlreichen Parameter in ihrem ERSST.v4-Modell adjustiert, so dass die Erwärmungsraten für die von der NOAA gewählten Zeiträume von 1951 bis 2012 und 2000 bis 2014 am extremen oberen Rand der Unsicherheits-Bandbreite für jene Perioden liegen. Und wie wir in jenem Beitrag gezeigt und illustriert haben, weist die originale Version (wöchentlich, monatlich, auf 1°C aufgelöst) der Reynolds OI.v2-Daten, die wir hier zeigen, im Wesentlichen die gleiche Erwärmungsrate auf wie die UKMO HADSST3-Daten der von der NOAA gewählten Stillstandsperiode von 2000 bis 2014.

Die in diesem Beitrag präsentierten Klimamodelle sind diejenigen, die im CMIP5-Archiv gespeichert sind, welcher vom IPCC für dessen 5.Zustandsbericht verwendet worden ist. Die CMIP5-Klimamodell-Ergebnisse der Wasseroberflächentemperatur sind verfügbar über den KNMI Climate Explorer, spezifiziert auf dieser Website unter der Überschrift Ocean, ice and upper air variables. Die Wasseroberflächentemperatur wird als TOS bezeichnet. Um mit vorherigen Beiträgen konsistent zu sein werden das „CMIP5-Mittel“ und das Historic/RCP6.0-Szenario verwendet. Das RCP6.0-Szenario liegt A1B am nächsten, welches in den CMIP3-Modellen verwendet wurde (also für den 4. IPCC-Zustandsbericht). Und wieder benutzen wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle repräsentiert. Im Wesentlichen repräsentiert das Modellmittel den Konsens der das Klima modellierenden Gruppen darüber, wie sich die Oberflächen der Ozeane erwärmen sollten, falls sie durch anthropogene Treibhausgase und die anderen in den Modellen verwendeten Treiberfaktoren in den Modellen getrieben werden würden. Für weitere Diskussionen siehe hier.

Weil die Vergleiche zwischen Modell und Daten absolut vorgenommen werden, werden jährliche Daten gezeigt. Die Reynolds OI.v2-Daten beginnen im November 1981, so dass sich die Vergleiche über 34 Jahre erstrecken, von 1982 bis 2015.

Die in die Graphiken eingezeichneten linearen Trends wurden mittels EXCEL berechnet (hier).

Globale Zeitreihen

Abbildung 1 zeigt zwei Modelle-Daten-Vergleiche der Oberflächentemperaturen während der Satellitenära, keine Anomalien. Die obere Graphik für die Breiten zwischen 90N und 90S umfasst auch die polaren Ozeane. Die untere Graphik zeigt den Bereich zwischen 60N und 60S, also ohne die polaren Ozeane. Es macht kaum einen Unterschied, ob wir die polaren Ozeane in diesen Modelle-Daten-Vergleich einbeziehen oder nicht. Die Disparität zwischen den Modellen und den Daten ist ohne die polaren Ozeane etwas größer, aber unter dem Strich zeigen die Modelle zu viel Erwärmung.

Abbildung 1

Die Differenzen zwischen Modellen und Daten auf globaler Basis beleuchten ein sehr grundlegendes Problem mit den Modellen. Die Modellierer müssen sich allein auf anthropogene Treibhausgase und andere anthropogene Faktoren konzentrieren, um die Klimamodelle zu treiben, weil die Klimamodelle Timing, Größenordnung und Dauer natürlich auftretender Prozesse nicht angemessen simulieren, die zur Erwärmung der Ozeanoberfläche führen können. Auf der Grundlage jener Modelle (die keinerlei Bezug zur realen Welt haben), wurde erwartet, dass sich die Oberflächen der Ozeane grob mit einer Raten von 0,17°C pro Dekade während der letzten 34 Jahre erwärmt haben müssten. Aber in der realen Welt zeigten sich beobachtete Erwärmungsraten infolge der Kombination der natürlichen Variabilität und Treibhausgasen von lediglich 0,10°C pro Dekade. Das ist eine monumentale Differenz zwischen Hypothese und Realität.

Ein weiteres Faktum muss berücksichtigt werden: Die Daten existierten, während die Modellierer ihre Klimamodelle für das CMIP5-Archiv vorbereitet haben. Mit anderen Worten, die Modellierer kannten ihre Ziele. Und das beste, was die Modellierer tun konnten war, die Erwärmungsrate der Oberfläche der globalen Ozeane fast zu verdoppeln. Das ist eine grauenhafte Modellierungsmaßnahme … selbst mit der jüngsten leichten Erwärmung primär durch The Blob und durch den El Nino 2015/2016.

Man beachte auch, dass von Klimamodellen simulierten Ozeanoberflächen etwas wärmer sind als beobachtet. Für den Bereich zwischen 60N und 60S liegen die mittleren simulierten Temperaturen der Ozeanoberfläche im Zeitraum 1982 bis 2015 um etwa 0,2°C höher als beobachtet. Vielleicht ist das der Grund, warum die Modelle global zu viel Niederschlag simulieren. Siehe Abbildung 2, was in meinem E-Buch On Global Warming and the Illusion of Control die Abbildung Intro-10 ist.

Abbildung 2

Tropische Wasseroberflächen-Temperaturen

Die Modelle überschätzten die Erwärmung der Wasseroberflächen-Temperaturen der tropischen Ozeane (24N bis 24S) während der letzten 34 Jahre … keine Überraschung. Überraschend ist, wie ähnlich die modellierten und die beobachteten Wasseroberflächen-Temperaturen in den Tropen sind. Siehe Abbildung 3. In den tropischen Ozeanen liegt die mittlere simulierte Wasseroberflächentemperatur im Zeitraum 1982 bis 2015 um lediglich etwa 0,02°C über den beobachteten Werten.

Abbildung 3

Während die absoluten Temperaturen sich ziemlich ähnlich sind, haben die Modelle die Erwärmung drastisch überschätzt. Den Daten zufolge hat sich die Oberfläche der tropischen Ozeane mit einer nicht gerade alarmierenden Rate von +0,08°C erwärmt. Die Modelle hingegen zeigen, dass sie sich im Falle der Erwärmung durch anthropogene Treibhausgase um etwa +0,19°C erwärmt haben müssten. Jetzt berücksichtige man, dass die tropischen Ozeane (24N bis 24S) 76% der Tropen und 46% der globalen Ozeane ausmachen.

Diese Disparität zwischen Modellen und Daten stützt die Vergleiche zwischen Modellen und Daten bzgl. der tropischen mittleren Troposphäre von John Christy im Juni 2013. Siehe die Beiträge von Roy Spencer dazu hier und hier. Die Modelle haben die Erwärmungsraten der mittleren Troposphäre über den Tropen gewaltig übertrieben.

Kommen wir zu den tropischen Ozeanen. Wie Abbildung 4 zeigt, beträgt die Differenz zwischen den simulierten und den beobachteten Erwärmungsraten für die tropischen Seegebiete des Atlantischen und des Indischen Ozeans (24S bis 24N; 80W bis 120E) etwa 0,08°C pro Dekade, wobei natürlich die Modelle zu viel Erwärmung zeigen.

Abbildung 4

Im tropischen Pazifik (24S bis 24N; 120E bis 80W) zeigen die Modelle sogar eine Erwärmung mit einer Rate, die fast 0,14°C über der beobachteten Rate liegt (siehe Abbildung 5).

Abbildung 5

El Nino- und La Nina-Ereignisse wirken sich im östlichen tropischen Pazifik am stärksten aus. Während eines El Nino fließt warmes Oberflächen- und oberflächennahes Wasser entlang des Äquators in den tropischen Ostpazifik, wobei das oberflächennahe Wasser, wärmer als normal, an die Oberfläche aufquillt. Während einer neutralen ENSO-Phase (weder El Nino noch La Nina) und während La Nina-Ereignissen quillt kühles Wasser unter der Oberfläche nach oben. Offensichtlich haben die Klimamodellierer nicht einmal ansatzweise Aspekte des tropischen Pazifiks erfasst. Während es den Daten zufolge im östlichen tropischen Pazifik (24N bis 24S; 180W bis 80W) während der letzten Jahre keine Erwärmung der Oberfläche gegeben hat, zeigt der Konsens der Modelle, dass die Oberfläche sich mit einer Rate von 0,18°C erwärmt haben sollte. Siehe Abbildung 6.

Abbildung 6

Außertropische Wasseroberflächen-Temperaturen

Für die außertropischen Ozeane der Südhemisphäre (90S bis 24S), Abbildung 7, ist die beobachtete Erwärmungsrate ebenfalls mit etwa 0,06°C pro Dekade extrem niedrig. Andererseits zeigen die Klimamodelle, dass sich die Ozeane mit einer fast doppelt so hohen Rate, nämlich 0,12°C pro Dekade erwärmt haben müssten, falls anthropogene Treibhausgase für die Erwärmung in dieser Region verantwortlich wären. Jetzt führe man sich vor Augen, dass die außertropischen Ozeane der Südhemisphäre etwa 33% der globalen Ozeane ausmachen (etwa 23% der gesamten Planetenoberfläche).

Abbildung 7

Andererseits scheinen die Klimamodelle die Erwärmungsrate der Wasseroberflächen ziemlich richtig gezeigt haben im kleinsten Teil der globalen Ozeane, nämlich in den außertropischen Ozeanen der Nordhemisphäre (24N bis 90N). Siehe Abbildung 8. Die außertropischen Ozeane der Nordhemisphäre machen lediglich 21% der globalen Ozeanoberfläche aus (etwa 15% der gesamten Planetenoberfläche).

Abbildung 8

Unglücklicherweise für die Modellierer haben die Modelle die Erwärmung der Oberfläche des außertropischen Nordatlantik (Abbildung 9) unter- und die Erwärmung im außertropischen Nordpazifik überschätzt (Abbildung 10), so dass sie die Erwärmung insgesamt der außertropischen Nordhemisphäre unrichtig dargestellt haben. Keine Überraschung.

Abbildung 9

———————————————-

Abbildung 10

Jetzt beachte man die Ähnlichkeiten zwischen den modellierten und den beobachteten Oberflächentemperaturen (nicht Trends) der tropischen Ozeane (Abbildung 9). Die mittlere beobachtete tropische Wasseroberflächentemperatur für den Zeitraum 1982 bis 2015 liegt nur um 0,02°C unter den Modellwerten. Dann ist da noch die Differenz zwischen den Modellen und den Beobachtungen in den außertropischen Regionen der Südhemisphäre (Abbildung 7) und der Nordhemisphäre (Abbildung 8). Für den Zeitraum 1982 bis 2015 liegen die modellierten Wasseroberflächentemperaturen der Südhemisphäre um etwa 0,8°C über den beobachteten Werten. Auf der Nordhemisphäre beträgt dieser Unterschied +0,4°C. All dies sind weitere Hinweise darauf, dass die ozeanischen Zirkulationen in den Klimamodellen falsch abgebildet sind.

Diese Disparitäten in absoluten Temperaturwerten können helfen zu erklären, warum die Klimamodellierer nicht den Meereisverlust der Nordhemisphäre und den Meereiszuwachs der Südhemisphäre erklären können. Siehe die Abbildungen 11 und 12, in welchen das modellierte und das beobachtete Gebiet mit Meereis in der Nord- und Südhemisphäre verglichen wird. Hierbei handelt es sich um die Abbildungen Intro-8 und Intro-9 in einem E-Book On Global Warming and the Illusion of Control.

———————————————-

Abbildung 12

Individuelle Ozeanbecken

Jetzt folgen vergleiche Modelle vs. Daten für die individuellen Ozeanbecken … ohne Kommentar:

Abbildung 13

———————————————-

Abbildung 14

———————————————-

Abbildung 15

———————————————-

Abbildung 16

———————————————-

Abbildung 17

———————————————-

Abbildung 18

———————————————-

Abbildung 19

———————————————-

Abbildung 20

———————————————-

Abbildung 21

Atlantische multidekadische Oszillation

Die Atlantische Multidekadische Oszillation wird oft beschrieben als die Variationen der Oberflächentemperaturen im Nordatlantik, die mit einer Periode von 50 bis 80 Jahren schwingen. In dieser Hinsicht wird diese AMO typischerweise mittels Trendbereinigung der langzeitlichen Wasseroberflächen-Temperaturanomalien des Nordatlantiks dargestellt. Das Argument gegen die Trendbereinigung lautet, dass sie nicht die „globale Erwärmung“ berücksichtigt.

Falls jemand mit der AMO nicht vertraut ist, siehe man bei der NOAA hier sowie die folgenden beiden Beiträge:

An Introduction To ENSO, AMO, and PDO — Part 2

Multidecadal Variations and Sea Surface Temperature Reconstructions

Über einige multidekadische Zeiträume erwärmt sich die Wasseroberfläche des Nordatlantiks schneller als die übrigen globalen Ozeane, und während anderer multidekadischer Perioden erwärmt sich die Wasseroberfläche langsamer als die übrigen globalen Ozeane und kann sich auch dramatisch abkühlen. Im längsten Teil des Zeitraumes von November 1981 bis Dezember 2014 befanden sich die Wasseroberflächentemperaturen des Nordatlantiks in einer ihrer natürlichen Erwärmungsphasen.

Wie früher schon erwähnt zählen die Daten aus dem Nordatlantik nicht für die Erwärmung der globalen Ozeane. Daher sind die zusätzlichen langzeitlichen Variationen der Wasseroberflächentemperaturen des Nordatlantiks eine bessere Darstellung der AMO, über jene der globalen Ozeane hinaus. Um das zu bewerkstelligen, haben Trenberth and Shea (2006) die globalen Wasseroberflächen-Temperaturanomalien (60S bis 60N) von den Wasseroberflächen-Temperaturanomalien des Nordatlantiks (0 bis 60N; 80W bis 0) subtrahiert. Dieses Verfahren trägt der zusätzlichen Variabilität der Daten aus dem Nordatlantik über die Variationen der globalen Daten hinaus Rechnung. Aber für diesen Beitrag fügen wir diesem Verfahren eine kleine Änderung zu. Wir präsentieren die Differenz zwischen den globalen Daten und denen aus dem Nordatlantik in absoluten Zahlen, nicht als Anomalien.

Trenberth und Shea (2006) arbeiteten mit HadISST-Daten. Darum verwendete ich jenen Datensatz für diese Diskussion in vorherigen Aktualisierungen. Siehe Abbildung 22. Sie ist Abbildung 25 aus diesem Beitrag. Sie zeigt die modellierten und beobachteten Differenzen zwischen den globalen Wasseroberflächentemperaturen und denen des Nordatlantiks, und zwar für den Zeitraum 1870 bis 2014, d. h. das Porträt der AMO nach Trenberth and Shea (2006).

Abbildung 22

Offensichtlich zeigen die Daten, dass es keine merklichen multidekadischen Variationen der Wasseroberflächentemperaturen des Nordatlantiks gibt, die über jene in den globalen Daten hinausgehen. Dies zeigt natürlich, dass die natürlichen Variationen der Oberflächentemperaturen des Nordatlantiks eine globale Erwärmung verstärken oder unterdrücken können. Oder wie es die NOAA am Ende ihrer Website zur AMO schreibt:

Im 20. Jahrhundert haben die Klimaschwingungen der AMO alternierend die globale Erwärmung kompensiert oder übertrieben, was die Gründe für globale Erwärmung schwieriger zu finden macht.

Unglücklicherweise zeigt das Modellmittel der Klimamodelle nicht jene zusätzliche Variabilität in den Wasseroberflächentemperaturen des Nordatlantiks. Dies zeigt, dass die AMO durch die Faktoren getrieben wird (primär anthropogene Treibhausgase), die die globale Erwärmung in den Klimamodellen erzeugen.

Wollen wir also jene Graphik mit Hilfe der Reynolds OI.v2-daten aktualisieren, was unsere Sichtweite auf die letzten 34 Jahre limitiert. Zunächst die Komponenten:

Abbildung 23

Die obere Graphik in Abbildung 23 zeigt die modellierten Wasseroberflächentemperaturen der globalen Ozeane (60S bis 60N) und des Nordatlantiks (0 bis 60N; 80W bis 0) für den Zeitraum 1982 bis 2015. Der modellierte Trend des Nordatlantiks ist der Erwärmungsrate der globalen Ozeane sehr ähnlich, beträgt doch die Differenz lediglich 0,02°C pro Dekade. Die untere Graphik zeigt die gemessenen Wasseroberflächentemperaturen des Nordatlantiks und global. Die Daten zeigen, dass die Erwärmungsrate des Nordatlantiks fast 0,1°C pro Dekade höher ist als der der globalen Ozeane.

Abbildung 24 enthält den Modell-Daten-Vergleich der AMO während der Satellitenära mittels des Verfahrens von Trenberth und Shea (2006), außer dass wir wieder mit absoluten Temperaturwerten arbeiten. Dem Modellmittel zufolge sollte sich die Wasseroberfläche des Nordatlantiks lediglich mit einer Rate erwärmt haben, die etwas höher liegt als die der globalen Ozeane. Aber die Daten zeigen, dass die Oberfläche des Nordatlantiks in der Lage ist, sich mit einer Rate zu erwärmen, die um fast 0,1°C höher ist als die der globalen Ozeane, ohne von den Faktoren getrieben zu werden, die die Modelle treiben (primär Treibhausgase).

Abbildung 24

Abbildung 24 zeigt noch ein anderes Problem: Die Differenz zwischen der Oberflächentemperatur des Nordatlantiks und der globalen Ozeane ist zu klein … was erneut darauf hinweist, dass die Ozean-Zirkulationen in den Modellen falsch dargestellt sind.

Schlussbemerkungen

Wir leben auf einem mit Ozeanen bedeckten Planeten. Man könnte denken, dass es eine der obersten Prioritäten der Klimamodellierer ist, die Prozesse zu simulieren, die dazu führen, dass die Wasseroberflächentemperaturen jährlich, dekadisch und multidekadisch variieren. Traurigerweise haben die Modellierer einen anderen Weg gewählt … sie haben sich entschlossen, Modelle eines Planeten zu erzeugen, der keinerlei Beziehung aufweist zu dem, auf dem wir leben.

Klimamodell-Simulationen der Wasseroberflächentemperaturen liegen weit von jeder Realität entfernt. Das heißt, sie modellieren einen virtuellen Planeten – einen Science-Fiction-Planeten – der keinerlei Ähnlichkeit mit der Erde aufweist. Spezifischer: die vom IPCC herangezogenen Klimamodelle simulieren nicht (1) die tatsächlichen Erwärmungs- und Abkühlungsraten der Ozeanoberfläche, (2) die räumliche Verteilung dieser Trends und (3) die absoluten Temperaturen. Es wäre nett, wenn die Klimamodellierungs-Agenturen versuchen würden, die Oberflächentemperaturen dieses Planeten zu simulieren, und nicht diejenigen irgendeines Phantasie-Planeten. Dann könnten ihre Modelle einen gewissen Wert haben. Derzeit jedenfalls dienen sie keinem Zweck … außer zu demonstrieren, wie schlecht sie das Klima der Erde simulieren.

Link: http://wattsupwiththat.com/2016/02/12/climate-models-are-not-simulating-earths-climate-part-2/

Übersetzt von Chris Frey EIKE




Langfristiger Klimawandel: Was ist eine angemessene Datenmenge?

Die Irreführung basiert auf der falschen Hypothese, dass nur wenige Variable und Prozesse beim Klimawandel eine wichtige Rolle spielen und dass diese während jener 4,54 Milliarden Jahre konstant geblieben seien. Es begann mit der Hypothese der Solarkonstante, die Astronomen definieren als einen Stern mittlerer Variabilität. Die AGW-Befürworter haben es erfolgreich geschafft, die Aufmerksamkeit der Welt nur auf das CO2 zu lenken, welches gerade mal 0,04% aller atmosphärischen Gase ausmacht und deutlich zeitlich und räumlich variiert. Ich ziehe gerne den Vergleich, dass dies so ist, als ob man Charakter, Aufbau und Verhalten eines Menschen lediglich durch die Messung einer Warze am linken Arm festlegen kann. Tatsächlich schauen sie nur auf eine Zelle dieser Warze für ihre Berechnung.

Der Grad, bis zu dem Promoter der AGW-Hypothese des IPCC ablenken und täuschen wollen, wurde erneut in einem Artikel von Quang M. Nguyen unterstrichen. Nahezu sämtliche Aktivitäten der Promoter involvieren den Beweis, dass alles während des Zeitraumes instrumenteller Aufzeichnungen Rekorde bricht. Dies umfasst auch die Veränderung von Paläo-Aufzeichnungen, wie sie es bei dem ,Hockeyschläger‘ und mit der Adjustierung der Neigung des Gradienten in der instrumentellen Aufzeichnung gemacht haben. Wenn man die 120-jährige Periode instrumenteller Aufzeichnungen als repräsentativ für irgendwas ansieht, ist das lächerlich. In dem unsäglichen IPCC-Bericht 2001 erfuhren wir von Phil Jones, dass der Temperaturanstieg in den instrumentellen Aufzeichnungen, der zum Blatt des ,Hockeyschlägers‘ geworden war, 0,6°C betrug mit einer Fehler-Bandbreite von ±0.2°C oder ±33%. Aber das ist nur die Spitze des Eisbergs.

Zwei Hauptthemen der AGW-Behauptungen sind, dass die Temperaturänderung größer und schneller vor sich geht als zu irgendeiner Zeit in der Vergangenheit. Dies ist Unsinn, wie schon ein flüchtiger Blick auf jedwede längere Aufzeichnung zeigt. Falls das nicht der Fall ist, sind alle Maßnahmen, die zu einer Veränderung der Aufzeichnung führen sollen, unnötig. Sowohl der antarktische als auch der grönländische Eisbohrkern illustrieren das Ausmaß von Temperaturänderungen während kurzfristiger Zeiträume. Abbildung 1 zeigt eine modifizierte antarktische Eisbohrkern-Aufzeichnung.

Abbildung 1

Die gesamte Bandbreite der Temperatur beträgt etwa 12°C (-9°C bis +3°C). Die Variabilität ist dramatisch, selbst wenn man eine 70-jährige Glättung anwendet. Das Diagramm vergleicht die Spitzen-Temperaturwerte der gegenwärtigen Zwischeneiszeit mit jenen während der vier Zwischeneiszeiten zuvor. Der horizontale Maßstab auf der X-Achse ist zu klein, um die Periode mit instrumentellen Aufzeichnungen überhaupt zu erkennen.

Steve Goreham zeigt, wie gering dieser Abschnitt ist im folgenden Diagramm der letzten 10.000 Jahre (Abbildung 2):

Abbildung 2

Eine weitere Graphik zeigt den gleichen Zeitraum, das Optimum des Holozäns, in unterschiedlicher Form (Abbildung 3):

Abbildung 3

Die Bandbreite der Temperatur während dieses Zeitraumes beträgt etwa 3,75°C (von 28,75°C bis 32,5°C), liegt jedoch während des größten Teils der letzten 10.000 Jahre über der gegenwärtigen globalen mittleren Temperatur. Man verlege einfach gedanklich die 120 Jahre der instrumentellen Aufzeichnungen in irgendeinen Abschnitt der Graphik, und man erkennt, um wieviel es derzeit kühler ist als im größten Teil des Zeitraumes, und dass die Werte mitten innerhalb der natürlichen Variabilität liegen.

Das IPCC behauptet, dass der Strahlungsantrieb (RF) vor 1750 relativ stabil war. Seitdem, so behauptet es, gab es einen stetigen Anstieg hauptsächlich infolge der Hinzufügung von menschlichem CO2 (Abbildung 4). Die NOAA erklärt dazu:

Seit 1750 haben anthropogen verursachte Klimatreiber zugenommen, und deren Auswirkungen dominieren alle natürlichen Klimatreiber.

Abbildung 4

Die Behauptung lautet also, dass eine Zunahme des Strahlungsantriebs um 2,29 W/m² fast die gesamte Temperaturänderung seit 1750 erklärt. Man vergleiche diese Zunahme mit der Variation des RF von ein paar natürlichen Klimatreibern, die in den IPCC-Modellen gar nicht berücksichtigt werden. Wie zuverlässig sind diese Daten? Wie groß sind die Fehlerbandbreiten? Wir wissen, dass die Klimasensitivität, das ist der RF-Einfluss auf die Temperatur, signifikant abgenommen hat (Abbildung 5).Man beachte dass das IPCC einen Ausreißer in dieser Bandbreite von Schätzungen der Klimasensitivität ausmacht. Diese Schätzungen liegen innerhalb oder sehr nahe bei dem Fehler der Schätzung. Eine Definition des RF lautet:

Der Strahlungsantrieb durch eine Klimavariable ist eine Änderung der Energiebilanz zwischen einfallender Solarstrahlung und ausgehender thermischen IR-Strahlung, wenn diese Variable sich ändert und alle anderen Faktoren konstant gehalten werden.

Abbildung 5

Die Phrase „alle anderen Faktoren werden konstant gehalten“ wird traditionell abgedeckt durch den lateinischen Terminus ceteris paribus. Unglücklicherweise ist dies in der Realität niemals der Fall und kann niemals auf ein dynamisches System wie Klimawandel angewendet werden, kommen doch dabei nur bedeutungslose Ergebnisse zustande. Das ist genauso wie die Phrase ,rein akademisch‘, was bedeutet, dass es in der realen Welt keinerlei Relevanz hat. Die Neigung in Abbildung 5 zeigt einen Trend, der jene stützt, die argumentieren, dass CO2 keine Klimasensitivität besitzt. Unabhängig davon ist die Stärke der Sensitivität viel zu gering, um signifikant zu sein.

Das Problem sind die Schätzungen von nur einer Seite jenes Gleichgewichtes, die „einfallende Solarstrahlung“, die deutlich variiert. Abbildung 6 zeigt die Variation der geschätzten Einstrahlungswerte aus verschiedenen Computermodellen. In einer Studie aus dem Jahr 2005 mit dem Titel [übersetzt] „wie gut können wir die Einstrahlung an der Obergrenze der Atmosphäre TOA in der Strahlungs-Klimatologie und in den GCMs berechnen?“ schreibt Ehrhard Raschke:

Der in 20 Modellen des Atmospheric Model Intercomparison Project (AMIP-2) verwendete solare Antrieb wurde verglichen mit der gleichen Quantität, die für das ISCCP [?] berechnet worden ist, und die Klimatologie sollte zumindest in dieser Quantität übereinstimmen. Allerdings zeigt die Abbildung auf Seite 1 unten (Abbildung 6 in diesem Beitrag) eine große Nicht-Übereinstimmung.

Man kann darüber spekulieren, dass derartige unterschiedlichen meridionalen Profile des solaren Strahlungsantriebs an der TOA auch einen Einfluss auf die berechnete Verteilung der atmosphärischen Zirkulation haben sollte, vor allem, wenn Simulationen über Zeiträume von mehreren Jahrzehnten bis mehreren Jahrhunderten durchgeführt werden. Daher sollten damit in Verbindung stehende Projekte innerhalb des World Climate Research Program angemessene Schritte unternehmen, um systematische Diskrepanzen wie oben gezeigt zu vermeiden und deren mögliche Auswirkung auf die resultierenden Klima- und Zirkulationsänderungen zu schätzen“.

Abbildung 6

Die mittlere Variation ist am Äquator gering, aber in höheren Breiten merklich größer. Die Vermutung liegt nahe, dass ein Gesamtfehler von mindestens 5 W/m² anzunehmen, was die vom IPCC behauptete Sensitivität von CO2 mehr als überschreitet.

Eine größere Frage ist, welche das Klima treibende Variablen ignoriert worden sind, vor allem in den IPCC-Modellen. Dazu gibt es eine große Vielfalt von Antworten. Dabei gilt, dass der größte Teil der Variabilität und die Fehler bei den Schätzungen den behaupteten RF komplett ertränken.

Der Milankovitch-Effekt ist in den IPCC-Computermodellen nicht enthalten mit der Begründung, dass die Änderungen zu langsam erfolgen und zu gering sind, um in einem Zeitraum von 120 Jahren Auswirkungen zu zeigen.

Abbildung 7 zeigt die Variation des RF auf 40°N während eines Zeitraumes von 1 Million Jahren.

Abbildung 7

Willis Eschenbach untersuchte die Beziehung zwischen dem Verlauf der Einstrahlung und dem 100.000 Jahre langen Milankovitch-Zyklus. Er fand keinen Zusammenhang mit der Temperaturanomalie im EPICA-Eisbohrkern aus der Antarktis. Darum geht es mir hier nicht, sondern um die Schwingung der Einstrahlung von 100 W/m² im Vergleich zur IPCC-Behauptung von 2,29 W/m².

Eschenbach verglich Milankovitch mit Schwingungen zwischen Eiszeit und Zwischeneiszeit während des Pleistozäns. Viele Menschen wissen nicht, dass es vor dem Pleistozän mindestens vier Vereisungen gegeben hatte, zusammen mit Spekulationen über deren Ursache, jedoch ohne diesbezügliche Übereinstimmung. Die verbreitetste Spekulation involviert den Orbit der Sonne um das Zentrum der Milchstraße und Wechselwirkungen mit galaktischem Staub auf dieser Reise. Wie wirkt sich dies auf den RF aus?

Die Liste von Variablen und Prozessen, die verantwortlich sind für kurz- und langfristige Variationen des RF und weit über die behaupteten anthropogen 2,29 W/m² hinausgehen, ist extensiv. Lamb zeigte im 2. Band von Climate Present, Past and Future die hier mit Abbildung 8 bezeichnete Graphik:

Abbildung 8

Dann ist da noch die Wasserdampf-Frage. Jeder sagt, dass es bei weitem das wichtigste Treibhausgas ist, man streitet nur darüber, wie wichtig. Wasserdampf ist 95% und CO2 4% durch Volumen. Darum haben AGWler behauptet, dass CO2 „effektiver“ hinsichtlich seiner Fähigkeit war, ausgehende thermische Strahlung zu blockieren. Die große Bandbreite aller Schätzungen dieses Effektes ist ein Beweis, dass es niemand weiß. Schlimmer noch, es gibt einen Widerspruch zwischen der NASA-Behauptung und dem IPCC. In der Studie wollte die NASA zu beweisen versuchen, dass die Rückkopplung von Wasserdampf positiv ist und Konsequenzen hat.

Diese Studie bestätigt, dass das, was von den Modellen prophezeit worden ist, in der Atmosphäre tatsächlich passiert“, sagte Eric Fetzer, ein Atmosphärenwissenschaftler, der mit AIRS-Daten arbeitet, am Jet Propulsion Laboratory der NASA in Pasadena. „Wasserdampf ist der große Player in der Atmosphäre, soweit es das Klima betrifft“.

Also bestimmt die Zunahme des anthropogenen CO2 in der Atmosphäre die Menge atmosphärischen Wasserdampfes. Der IPCC-Bericht 2007 belehrte uns:

Wasserdampf ist das häufigste und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge atmosphärischen Wasserdampfes“.

Es gibt kaum Zweifel daran, dass die Variation des atmosphärischen Wasserdampfes und der Fehler in den Schätzungen allein über die 2,29 W/m² hinausgeht, die dem menschlichen CO2 zugeordnet werden. Das gilt auch für die meisten Variablen, vor allem für jene, die das IPCC ausgelassen hat.

Es ist der Missbrauch der Wissenschaft, der die Irreführung erzeugt hat, die die AGW-Behauptung zu Ablenkung, Übertreibung und selektive Wahrheiten zwang. Aldous Huxley jedoch sagte mal: „Fakten sind durch Ignorieren nicht aus der Welt zu schaffen“. [Das habe ich auch gesagt, ohne von Huxley zu wissen, und zwar hier. Anm. d. Übers.]

Link: http://wattsupwiththat.com/2016/02/07/long-term-climate-change-what-is-a-reasonable-sample-size/

Übersetzt von Chris Frey EIKE




Leserbrief als Hilfestellung für die Berliner Umwelt-Politiker ?

================================================================  

Leserbrief – Betr.: Argumentationshilfe in Sachen Tempo-30-Zone

     Tempo-30-Zone:  Ein Traumreich  

     Die verordnete Geschwindigkeitsbegrenzung auf 30 km/h für die wichtige Ausfallstraße in Berlin-Weißensee, und zwar 900m der großen Bundesstraße 2 und Autobahnzubringer, solle die Schadstoffbelastung senken helfen. 

     Hier dazu eine einfache Milchmädchen-Gegenrechnung; denn rechnen wir einmal nach und gehen – der leichteren Verständlichkeit wegen – großzügig von 60 km/h aus und lassen mit 30 km/h die Kraftfahrzeuge 900 m lang nur noch halb so schnell fahren: Dadurch verdoppelt sich dort ihre Aufenthaltsdauer, verdoppelt sich ihre Anzahl auf gleicher Strecke, also verdichtet sich der Verkehr, und halbiert sich ihr gegenseitiger Wagenabstand. Für einen Anwohner dauert es doppelt so lang, bis ein Fahrzeug vorbeigefahren ist, wenn auch die Zeit zum Durchqueren der Fahrzeugkolonne dabei nur gleichbleibt. Der Treibstoffverbrauch und auch mittlere Ausstoß der unterschiedlichen Abgaskomponenten – insbesondere unter der Mitwirkung der Dieselfahrzeuge – beginnt mit dem langsameren Fahren im Mittel markant zu steigen, um so mehr bei aufkommendem Stau. Wieviel auch immer: im Schnitt nimmt das Gemisch der belastenden Schadstoffe zu!

Weiterhin geht bei der Einfahrt meist infolge Abbremsung Energie verloren; und bei der Ausfahrt wird bei der Wiederbeschleunigung neue Energie aufgewendet und so vermehrt Schadstoff emittiert. Auch nehmen bei größerem Verkehrsaufkommen die Stillstandanteile zu. Keine Streitfrage, sondern Faktum: Zusammengenommen erhöht sich zwangsweise die Schadstoff-Immission daher eindeutig! Da wo nicht, liegt es am überproportionalen Verzicht auf die Nutzung der Tempo-30-Straße durch deren Umfahrung.  

     "Verkehrsberuhigung"? Mag zumindest so empfunden sein. Abgasminderung? Gewiss nicht; vielmehr resultiert meist das Gegenteil! – Wer also mehr Verkehr und mehr Abgase haben will, braucht nur die Tempo-30-Zonen auszuweiten. So einfach ist das. 

     Die einzuhaltenden EG-Grenzwerte sind im ozeannäheren und damit windigeren Brüssel gesetzt worden. Im kontinentaleren und daher öfter viel windstilleren Berlin hat man sie rein bürokratisch übernommen, ohne vorher die Meteorologen zu fragen oder gar mitentscheiden zu lassen. Das haben wir nun davon und sitzen in der juristischen Falle. 

    Der tiefere Grund:  Das träumerische Ökobewusstsein wittert zeitgemäß Gefahren, lässt sich unbewusst von gesundheitlichen Placebo-Effekten aktivieren und bemüht jetzt erfolgreich den paragraphengebundenen Amtsschimmel. Dazu ließ das Gericht nicht einmal eine Berufung zu (VG 11 K 132.15)! – Es ist zum Wiehern!

=========================================================================

Auch nach über einem Monat (Stand 09.02.1016) wurde dieser Leserbrief jedoch nicht  abgedruckt, auch nicht auszugsweise. Wie ist das nun zu deuten? Sollten die Leser mit dem doch an vorderster Stelle heraushobenen Artikel warnend mit den weiter auf sie zukommenden Einschränkungen, Zumutungen und Unbequemlichkeiten aufgeschreckt werden? Oder frohlockt die Redaktion eher mit dem ökologischen Sieg des kleinen Mannes für eine bessere Welt? Im lezteren Falle würde der Leserbrief ja ungewünscht kontraproduktiv wirken. Und das darf natürlich nicht sein (?).

Das Nichterscheinenlassen des Leserbriefes läßt zwangsläufig auf die letztgenannte redaktionelle Einstellung schließen. Sollte eventuell im letzten Moment ein "grüner" Redakteur in seinem Sinne bremsend eingegriffen haben? Das würde dann nichts anderes als eine (umwelt)politische Meinungs-Manipulation bedeuteten.

*) Walter Fett; Apl. Prof. FU Berlin; bis 1990 Dir. u. Prof. am Inst. f. Wasser-, Boden- u. Lufthygiene des Bundesgesundheitsamts Berlin




Sind Festlands- und Ozean-Temperaturmittel von Bedeutung?

Temperaturen addieren sich nicht!

Technisch gesehen ist Temperatur keine extensive Quantität. Dies wird illustriert durch die Tatsache, dass wenn man einen Eimer Wasser mit einer Temperatur von 30°C hat und dem Wasser den Inhalt eines anderen Eimers von Wasser mit 30°C hinzufügt, man keine Wassertemperatur von 60°C bekommt.

Energie ist eine extensive Sache: Falls man ein Volumen Wasser mit einer thermischen Energie von 4000 Megajoule hat und ein gleich großes Volumen hinzufügt, wird man zweimal die thermische Energie haben. Die mittlere Energie pro Einheit kann verglichen werden mit dem Strahlungsenergie-Budget pro Einheit.

Das Verhältnis von Temperatur zu thermischer Energie ist nicht für alle Materialien gleich, sondern hoch variabel, abhängig von den physikalischen Eigenschaften der Substanz. Es hängt ebenso von der Menge einer Substanz ab, d. h. der Masse. In der Physik und der Materialwissenschaft ist es oft am bequemsten, die „spezifische Wärmekapazität“ zu studieren, das ist die Änderung des Energiegehalts pro Einheit der Masse pro Grad Temperaturänderung. Folglich ist es eine Eigenschaft für jede Art von Material, unabhängig von einem bestimmten Objekt.

Im internationalen Standard-System (S.I.) wird dies gemessen in joule / kilogram / kelvin oder J/kg/K . Kelvin hat die gleiche Größenordnung wie Grad Celsius und ist in diesem Zusammenhang austauschbar. Einige Beispiele für allgemeine Materialien:

Tabelle 1: Spezifische Wärmekapazität verschiedener Materialien in J/kg/K. Datenquelle

Also könnte man Temperaturänderung als ein „Proxy“ für eine Änderung der thermischen Energie für äquivalente VOLUMINA des GLEICHEN Materials betrachten. In diesem Zusammenhang könnte man eine ,mittlere Temperaturänderung‘ berechnen für jenes Medium und auf die Änderung der thermischen Energie rückschließen, welche beispielsweise mit einfallender und ausgehender Strahlung in Bezug gesetzt wird. Falls dies eine Oberflächentemperatur ist, impliziert dies die Hypothese, dass die Erdoberfläche die Temperatur bis zu einer gewissen Wassertiefe repräsentiert und diese repräsentative Tiefe die Gleiche bleibt in den Gebieten, über die gemittelt wird, um den „Volumen“-Zustand oben zu berücksichtigen. Das ist für die ,durchmischte Schicht‘ des Ozeans einigermaßen fragwürdig, kann aber als grobe Energie-Proxy durchgehen.

Allerdings ist sofort klar, dass man nicht beginnen kann, Luft und Wassertemperatur zusammenzufügen oder zu mitteln; oder Temperaturen über Land und Wasser. Das sind keine kompatiblen Medien. Das ist wie die Frage, was das Mittel ist zwischen einem Apfel und einer Orange: Es hat keinerlei physikalische Bedeutung. Es kann mit Sicherheit nicht die Grundlage sein für eine Berechnung des Energiehaushaltes, da es nicht mehr eine Maßzahl für die Änderung der thermischen Energie ist.

Wie aus der Tabelle oben ersichtlich: Luft, Felsgestein und Erde werden eine viermal so hohe Temperaturänderung aufweisen als Wasser als Folge der gleichen einfallenden Energiemenge.

Niemand wird auf den Gedanken kommen, Temperaturaufzeichnungen in Grad Fahrenheit mit solchen in Grad Celsius zu mitteln. Trotzdem scheint es aus irgendwelchen Gründen so, als ob die Vermischung von Land- und Ozeandaten (SST Sea Surface Data) bei niemandem ein Heben der Augenbrauen auslöst.

Änderungsrate in den globalen Temperatur-Datensätzen


Abbildung 1: Vergleich von Änderungsraten in Temperatur-Datensätzen über dem Festland und über dem Ozean (30 Monate Gaussian low-pass filter). Quelle der Daten.

Abbildung 1 zeigt die Änderungsrate in zwei Datensätzen der Wassertemperatur und dem BEST-Datensatz vom Festland, mit einer Verkleinerung um einen Faktor zwei. Mit diesem Skalierungsfaktor sehen sie alle ziemlich eng beieinander liegend aus. Die große Spitze in den ICOADS-Daten liegt an einer erkannten Änderung der Datenmenge infolge Änderungen der Schiffsrouten und der Daten-Sammelverfahren während und nach WW II. Das UKMO bearbeitete den HadISST-Datensatz mit dem Ziel, diesen Bias zu entfernen.

Die Änderungsrate der Festlands-Lufttemperatur, wie sie vom „BEST“-Datensatz Berkeley geschätzt worden ist, ist sehr ähnlich der Änderungsrate der Wassertemperatur, außer dass die Änderungsrate doppelt so hoch ist.*

[*Original: The rate of change of near surface land air temperature as estimated in the Berkeley “BEST” dataset is very similar to the rate of change in the sea surface temperature record, except that it shows twice the rate of change. Ändert sich nicht die Landtemperatur viel stärker als die Wassertemperatur? Was verstehe ich an diesem Satz nicht? Anm. d. Übers.]

Meerwasser besitzt eine spezifische Wärmekapazität, die viermal so groß ist wie Felsgestein. Dies bedeutet, dass sich die Temperatur des Gesteins vier mal stärker ändert als Wasser bei der gleichen Änderung der thermischen Energie, beispielsweise durch einfallende Solarstrahlung.

Erde ist im Allgemeinen eine Mixtur feiner Gesteinspartikel und organischem Material mit einem signifikanten Wassergehalt. Die beiden Temperatur-Datensätze sind konsistent, wenn man Land als ,nasse Felsen‘ betrachtet. Auch erklärt dies teilweise die viel größeren Temperaturschwankungen in Wüstengebieten: Die Temperatur trockenen Sandes wird sich viermal schneller ändern als die von Meerwasser und ist zweimal so volatil wie in Nicht-Wüstengebieten.

Dies unterstreicht auch, warum es unangemessen ist, Land- und Wassertemperaturen zusammen zu mitteln, wie es in vielen anerkannten globalen Temperaturaufzeichnungen gemacht worden ist, beispielsweise bei HadCRUT4 (eine abartige Mischung von HadSST3 und CRUTem4) ebenso wie bei GISS-LOTI und bei den neuen BEST Land- und Wasser-Mittelwerten.

Es ist ein klassischer Fall von ,Äpfeln und Orangen‘. Falls man das Mittel zwischen einem Apfel und einer Orange nimmt, ist das Ergebnis ein Obstsalat. Das ist keine brauchbare Gemengelage für Berechnungen auf physikalischer Grundlage wie etwa dem Energiehaushalt der Erde und der Auswirkung von Strahlungs-„Antrieben“.

Die unterschiedliche Wärmekapazität wird die Daten zugunsten der Lufttemperaturen über Land verdrehen, welche viel schneller variieren und folglich eine irrige Grundlage liefern, um energie-basierte Berechnungen vorzunehmen. Außerdem sind die Landtemperaturen auch durch den Wärmeinseleffekt und andere Verzerrungen beeinträchtigt. Daher werden diese effektiv verdoppelt, bevor sie die globale Land- + Wasseraufzeichnung kontaminieren.

In disem Sinne bieten die Satellitendaten ein physikalisch konsistenteres globales Mittel, weil sie ein konsistenteres Medium messen. Falls man Energie-Berechnungen auf der Grundlage von Strahlung durchführen möchte, ist es wahrscheinlich bedeutsamer, SST-Daten als Kalorimeter zu nutzen.

Klimasensitivität ist definiert als das ∆rad , ∆T-Verhältnis, gewöhnlich im Zusammenhang mit einer linearen Approximation zur Planck-Rückkopplung, welche über relativ kleine Abweichungen in der etwa 300 K umfassenden Temperatur-Bandbreite gültig sind. Andere Rückkopplungen werden als Störungen gesehen, die von der dominanten Planck’schen Strahlungs-Rückkopplung addiert oder subtrahiert werden. All dies und sogar die weitaus komplexeren globalen Zirkulationsmodelle sind im Grunde Berechnungen des Energie-Gleichgewichtes. Der Energie-Erhaltungssatz ist eines der solidesten Axiome der Physik. Ein fundamentaler Test jedweder Theorie oder Gleichung ist, ob der Energie-Erhaltungssatz berücksichtigt ist.

Horizontaler Wärmetransport stellt sicher, dass die Festlandstemperatur durch die ozeanische Wärmekapazität beeinflusst wird: der thermische Anker des Klimasystems. Es ist bekannt, dass Temperaturen in Küstengebieten stabilisiert werden durch die Nachbarschaft von Land und Wasser und dass die zentralen Gebiete der Kontinente eine viel größere tägliche und jährliche Variation zeigen. Allerdings bleibt die Landtemperatur nahe der Oberfläche volatiler als die SST, und Analysen von Klimamodellen zeigen, dass sie über Land eine größere Klimasensitivität aufweisen und einen unterschiedlichen vertikalen Temperaturgradienten zeigen (1). FALLS man das als zuverlässig nehmen kann (die meisten Modelle nehmen eine konstante Relative Feuchtigkeit an).

In diesem Zusammenhang ist ein Temperaturanstieg die finale Folge aller Inputs, „Antriebe“ und Rückkopplungen, von denen viele über Land unterschiedlich sein können. Zieht man eine nicht-thermodynamisch relevante „mittlere“ Temperatur von zwei unterschiedlichen Ökologien mit unterschiedlicher Klimasensitivität heran, um ein ,Mittel‘ zu erzeugen, scheint auch die Klimasensitivität offen für Bias.

Schlussfolgerungen

Temperaturen sind keine abstrakten Statistiken; deren physikalische Bedeutung muss berücksichtigt werden bei der Auswahl, was man mit ihnen macht. Die Verwendung von Mittelwerten von Land- + Wassertemperaturen, verzerrt durch übertriebene Wichtung der volatileren landbasierten Temperaturen, wird physikalisch fehlerhafte Ergebnisse zeitigen.

Die meisten Klimadaten sind nicht einfach dimensionslose Zahlen. Jedes Processing sollte im Zusammenhang mit den physikalischen Größen betrachtet werden, die sie repräsentieren. Falls Temperaturen oder Temperaturanomalien als Energie-Proxy betrachtet werden für Berechnungen auf Energiegrundlage, sollte dies explizit erwähnt werden, und jedwede Verzerrungen, die sich hieraus ergeben, müssen angesprochen werden.

Die physikalische Signifikanz, Validität und Grenzen von „mittleren“ Land- + Wassertemperaturen sollte man berücksichtigen, wenn man sie verwendet. Dies ist jedoch nur sehr selten der Fall, wenn überhaupt.

(1) Geoffroy et al 2015 : “Land-sea warming contrast: the role of the horizontal energy transport” [ paywalled ] http://link.springer.com/article/10.1007/s00382-015-2552-y

Link: https://climategrog.wordpress.com/2016/02/09/are-land-sea-averages-meaningful-2/

Übersetzt von Chris Frey EIKE

Der (anonyme) Autor ClimateCrog hat einen Abschluss in Physik, Berufserfahrung in der Spektroskopie , Elektronik und Software-Engineering , einschließlich 3-D- Computer-Modellierung der Streuung von E- m -Strahlung in die Erdatmosphäre .




Unsere früher ermittelten WI-Werte stimmen auch über einen kürzeren Zeitraum gut mit der fast WI-freien Station Amtsberg überein

Bild rechts: Landschaft um Amtsberg im Erzgebirge. Quelle

Grafik 1: Die von uns berechneten WI-bereinigten Deutschlandtemperaturen der letzten 125 Jahre

Aufgrund der statistischen Abschätzungen von R. Leistenschneider haben wir auch kürzere Zeiträume als 120 Jahre WI-bereinigt dargestellt. Hier http://www.eike-klima-energie.eu/news-cache/klimawandel-in-deutschland-teil-2-real-sinken-seit-25-jahren-die-temperaturen/:

Aus den 25 Jahren sind nun drei Jahre später 28 Jahre geworden. Kürzere Zeiträume sind natürlich weniger aussagekräftig, da ein dazukommendes Ausnahmejahr die Trendlinien stark verzerren kann. Auch die nachfolgende Grafik haben wir in früheren Artikeln vorgestellt, um zu zeigen, dass die WI-bereinigten Deutschlandtemperaturen schon seit 28 Jahren stagnieren. Es wird nur in den Wärmeinseln weiter wärmer, dort, wo meist auch die Messstationen stehen. Mit einer allgemeinen Klimaerwärmung aufgrund zunehmender C02-Konzentrationen hat diese Wärmeinselerwärmung, die sich in den letzten 50 Jahren über ganze Regionen ausgedehnt hat, aber auch gar nichts zu tun.

Grafik 2: Der rote Temperaturverlauf ist nach den Originaldaten des Deutschen Wetterdienstes in Offenbach gezeichnet. Seit 1988 zeigt die Trendlinie einen leicht ansteigenden Temperaturverlauf. Es wurde wärmer seit 1988. Die grüne Trendlinie zeigt unsere WI-Bereinigung der Deutschlanddaten.

Wäre Deutschland genauso geblieben wie 1988, die gleiche Einwohnerzahl, die gleiche Bebauung, derselbe Energieverbrauch und keinerlei Urbanisierung der Landschaft, dann wäre auch keine Zusatzwärme in die Landschaft eingetragen worden. Die Aufzeichnungen des Deutschen Wetterdienstes würden sich an der grünen Trendlinie orientieren, haben wir stets behauptet.

Die interessierten Leser unserer Artikel haben immer wieder nach Beweisen gefragt und die von Herrn Leistenschneider entwickelte statistische Abschätzungsmethode kritisiert. Grundsätzlich aber wurde dieser flächendeckende historisch sich entwickelnde WI-effekt anerkannt, nur mit der Höhe war man nicht einverstanden. Auch der DWD gibt auf Nachfrage zu, dass seine erhobenen Daten nicht flächendeckend wärmeinselbereinigt sind. Man erhebe die Daten vom heutigen Deutschland und vergleiche mit früher und da gäbe es nun mal eine Erwärmung, meinte der DWD. Die Interpretation der Erwärmung überlasse man anderen.

Gefunden: Vor kurzem haben wir die fast WI-freie Klimastation Amtsberg im Erzgebirge näher vorgestellt: http://www.eike-klima-energie.eu/news-cache/gefunden-es-gibt-eine-fast-waermeinselfreie-wetterstation-in-deutschland/

Diese Station und deren Umgebung haben sich laut Aussagen des ortskundigen Betreibers seit 1982, dem Bestehen der Messstation, kaum verändert. Wir können nun die theoretischen Werte unserer Grafik 2 mit der Realität Amtsberg überprüfen

Grafik 3: In die roten vom DWD gemessenen und nicht WI- bereinigtenTemperaturen der letzten 28 Jahre haben wir die Daten der Wetterstation Amtsberg in blauer Farbe eingeblendet. Die Trendlinie fällt sogar etwas stärker als die von uns in Grafik 4 theoretisch ermittelte Trendlinie, was wir aber nicht überbewerten wollen.

Wir können jedoch feststellen: Im fast WI-freien Amtsberg wurde es in den letzten 28 Jahren leicht kälter und in Deutschland stagnieren seit 28 Jahren die Jahrestemperaturen. Nur in den großflächigen Wärmeinseln, dort wo die Menschen wohnen und auch die meisten Messstationen des Deutschen Wetterdienstes stehen, wurde es wärmer.

Aus unserer Grafik 1 ist ersichtlich dass in Deutschland zwischen 1950 und 1975 ein kleines „Kälteloch“ vorlag, bzw. die Wiedererwärmung nach 1850 eine längere Pause einlegte. Und das ausgerechnet zu einer Zeit, in welcher durch den Wiederaufschwung nach dem Kriege (die Schornsteine rauchen wieder) der CO2-Ausstoß besonders zugenommen hat. Zunehmende CO2-Konzentration, aber leicht abnehmende Temperaturen, das widerspricht der Logik einer konstanten CO2 bedingten Erwärmung. Uns Klimarealisten ist das nicht neu, wir erklären die ständigen kleinen und größeren Klimaschwankungen mit vielerlei Gründen, die zusammenspielen, meistens aber mit der Sonne, der kosmischen Strahlung und dem dadurch hervorgerufen Bewölkungsgrad, bzw. der Sonnenscheindauer.

Unsere Grafik 1 zeigt, dass in diesem Zeitraum WI-bereinigt die Temperaturen sogar leicht abgenommen hätten, bevor nach 1975 die Erwärmung aus vielerlei Gründen sich wieder fortsetzte. Wenn wir unseren Betrachtungszeitraum über 28 Jahre hinaus verlängern und in kühlere Bereiche gelangen wird logischerweise die Trendlinie von einer unmerklich fallenden in eine Gerade und dann in einen leichten Anstieg übergehen. Somit stellen wir uns der Frage, auf welchem Temperaturniveau befinden wir uns derzeit, wenn wir mit früher vergleichen. Bei einer Betrachtungszeit über 20 Jahre hinaus ist eine WI-Bereinigung notwendig. Wir verwenden deshalb gleich den fast WI-freien Standort Amtsberg am Fuße des Erzgebirges.

Grafik 4: Erweitern wir die Grafik auf 30 Jahre, dann geht die fallende Trendlinie auch von Amtsberg verloren, denn die Temperaturen kommen aus einem kleinen „Kälteloch“. In der Grafik sind zwei kalte Jahre links dazugekommen.

CO2-Erwärmungsgläubige und auch der DWD argumentieren deshalb gerne mit längeren Betrachtungszeitraumen und behaupten, der Trend zur weiteren Erwärmung sei doch ungebrochen. Die Trendlinie der Jahrestemperaturen würde schon bei 30 Jahren weiter nach oben zeigen. Wie lange noch?

Ist die Station Amtsberg etwa eine Ausnahme und bestätigt nur zufällig unsere theoretisch ermittelten WI-Bereinungswerte? Um den häufig geäußerten Kritiken zu begegnen, die Messwerte von Privatstationen seien erstens fehlerhaft, und zweitens seien die Untersuchungszeiträume von um oder unter 30 Jahren zu kurz für statistisch signifikante Aussagen, haben wir uns auf die Suche nach geeigneten DWD- Stationen begeben. Dabei interessierten uns sowohl besonders ländliche, WI- arme Orte, aber auch solche mit starker Verstädterungstendenz, um anhand direkter Stationsvergleiche einen wesentlichen Teil der WI- Effekte, nämlich den „Urban Heat Island Effect“ (UHI, städtischer Wärmeinseleffekt) nachweisen zu können. Fündig wurden wir bei Frankfurt/Main (Flughafen) als Beispiel für eine stark WI- belastete Station, hauptsächlich durch UHI- Effekte, und Schneifelforsthaus in der Eifel (sehr ländlich, geringe WI- und überhaupt keine UHI- Effekte). Die Werte waren bis 1953 und damit über 63 Jahre verfügbar; der Vergleich der Jahresmittelwerte beider Stationen sieht so aus:

Grafik 5: Die viel stärkere Erwärmung in Frankfurt/Main ist hauptsächlich auf verstädterungsbedingte WI- Effekte (Flughafenausbau, starkes Wachstum bei Einwohnerzahlen und Verkehr) zurückzuführen.

Nun könnten freilich Vertreter der CO2- Erwärmungstheorie argumentieren, der Temperaturanstieg im sehr WI- armen Schneifelforsthaus mit fast 1,5 Kelvin sei ja ebenfalls beträchtlich. Doch welche Ursachen er im Wesentlichen hatte, zeigt unsere letzte Grafik (wir griffen hierbei auf die DWD- Deutschlandmittel zurück, weil für Schneifelforsthaus keine Daten der Sonnenscheindauer verfügbar waren):

Grafik 6: Entwicklung der Deutschland- Mittelwerte der Lufttemperatur, der Sonnenscheindauer und der Häufigkeit aller Großwetterlagen mit südlichem Strömungsanteil (jeweils Jahreswerte). Deutschland erwärmte sich insgesamt also etwas schneller, als die WI- arme Station Schneifelforsthaus. Bei jahreszeitbezogener Betrachtung (hier nicht gezeigt) wirkten außer den WI- Effekten im Winter besonders die Häufigkeitszunahme westlicher bis südwestlicher Lagen, im Frühling und Sommer mehr Sonnenschein und südliche Lagen, im Herbst mehr Süd- und Südwestlagen, besonders erwärmend.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher