Genauigkeit von globalen Temperaturmessungen und deren „Anomalien“

von Michael Limburg

Abstract

Bestehende Unsicherheitsbewertungen und mathematische Modelle, die zur Fehlerabschätzung globaler durchschnittlicher Temperaturabweichungen verwendet werden, werden untersucht. Das Fehlerbewertungsmodell von Brohan et al. 06 [1] wurde als nicht umfassend und präzise genug befunden, um die Realität abzubilden. Dies wurde bereits für bestimmte Arten von zufälligen und systemischen Fehlern von Frank [2] [3], im Folgenden als F 10 und F 11 bezeichnet. Gleiches gilt für die vereinfachte behauptete Aufhebung zufälliger SST-Fehler durch CRU1, selbst für frühe Zeiten um 1850, als nur wenige Datensätze verfügbar waren. Diese Behauptung basiert lediglich auf der fast sicheren Annahme, dass die zufälligen Fehler früherer Messungen einen Mittelwert von Null haben und dass diese Fehler gleichmäßig verteilt sind.

Zur Verdeutlichung erläutere ich das allgemeine Verhalten der Anomalieberechnung in Bezug auf die Fehlerfortpflanzung. Es zeigt sich, dass die weithin angenommenen Fehlerreduktionsfähigkeiten eines Anomalie-Modells nur in einem Sonderfall gültig sind, aber im Allgemeinen den endgültigen systematischen Fehler – insbesondere in Zeitreihen – nicht reduzieren, sondern in den meisten Fällen sogar erhöhen. Darüber hinaus werden hier eine Vielzahl weiterer potenzieller systematischer Fehler genannt, von denen nur sehr wenige in der Literatur quantifiziert und korrigiert werden konnten, und das bisher auch nur teilweise. Dies wird ebenfalls aufgezeigt. In Anbetracht dessen sollte die minimale Unsicherheit für jede jährliche globale Durchschnittstemperatur nicht nur auf den hier beschriebenen Wert, d. h. mit einem 95-prozentigen Konfidenzintervall von ± 1,084 °C, erweitert werden, sondern mindestens um das 3- bis 5-fache. Somit löst sich die durchschnittliche globale Temperaturabweichung der letzten 150 Jahre in einem breiten, verrauschten Unsicherheitsband auf, das viel breiter ist als die gesamte angenommene Schwankungsbreite des 20. Jahrhunderts. Dieser Bericht zeigt, dass es aufgrund der Art der verfügbaren Daten, ihrer Quantität, Qualität und Methodik, wie es bei der Temperatur der Fall ist, nicht möglich ist, globale Zeitreihen mit der behaupteten Genauigkeit zu bestimmen. Das Ergebnis ist daher, dass alle auf diesen Daten basierenden Schlussfolgerungen und Korrelationen, die möglicherweise auf als wichtig erachteten Ursachen beruhen, innerhalb des Unsicherheitsbereichs liegen und daher nur als sehr grobe Schätzungen angesehen werden können. Daher bleibt jeder Versuch, diese Schwankung auf einen möglichen Antrieb zurückzuführen, reine wissenschaftliche Spekulation.

Vorwort

Diese Studie ist als Bericht verfasst und basiert auf verschiedenen früheren Arbeiten des Autors sowie zahlreichen anderen Veröffentlichungen über die Bemühungen zur Messung meteorologischer Temperaturdaten. Damit soll eher eine Literaturstudie vorgelegt werden als eigene Forschungsergebnisse. Dennoch sind alle in dieser Zusammenstellung enthaltenen Informationen und die daraus gezogenen Schlussfolgerungen neu und wurden nach bestem Wissen des Autors bisher (2014) noch nicht veröffentlicht.

Einführung

Die Mittelwertbildung geeigneter Messdaten und die Berechnung ihrer Anomalien zur Erkennung sonst verborgener Signale sind Standardwerkzeuge in wissenschaftlichen Verfahren unter Verwendung statistischer Verfahren. Diese Verfahren haben sich ebenso bewährt wie die von C.F. Gauß eingeführte Theorie der Fehlerfortpflanzung. Für globale Klima-Beobachtungen ist der Hauptindikator die lokale tägliche Lufttemperatur, die zu festen Zeiten oder durch Messung der Höchst- und Tiefsttemperatur an festen Standorten nebst anderen Parametern gemessen wird. Die so gesammelten Daten dienen als Grundlage für die Berechnung eines aussagekräftigen lokalen und später globalen Durchschnitts dieser Temperatur. Man möchte bestimmen:

a. einen absoluten Mittelwert dieser Daten, um Schätzungen der globalen mittleren Lufttemperatur zu ermöglichen, die z. B. zur Abschätzung von Energieübertragungsprozessen verwendet werden, und

b. eine Anomalie dieser Werte, d. h. die Differenz zwischen einem monatlichen oder jährlichen Mittelwert der lokalen Temperatur und einem Mittelwert der gleichen Station, der über einen Zeitraum von 360 Monaten bzw. 30 Jahren erfasst wurde. Der gewählte Referenzzeitraum wird meist anhand des WMO-Standardintervalls von 1961 bis 1990 festgelegt. Der gewählte Referenzzeitraum wird meist anhand des WMO-Standardintervalls von 1961 bis 1990 festgelegt.

Für beide berechneten Mittelwerte ist die Entwicklung im Zeitverlauf von großem Interesse, wobei z. B. die x-Achse die Jahre von 1850 bis 2011 und die y-Achse entweder den absoluten Mittelwert in °C oder die Differenz (Anomalie) zwischen dem tatsächlichen Jahres- oder Monatsmittelwert und einem ausgewählten geeigneten Referenzwert zeigt.

Durch die Anwendung dieser Verfahren konnten mehrere Klimaforschungsinstitute (GISS, NCDC, CRU) nachweisen, dass der berechnete Mittelwert der gesamten globalen Temperaturabweichung im letzten Jahrhundert um ca. 0,7 °C ± 0,1 °C gestiegen ist (siehe Abbildung 1). Da die Erdoberfläche zu 71 % mit Wasser bedeckt ist, wo Messungen der Lufttemperatur wesentlich schwieriger sind, ziehen es Klimawissenschaftler vor, stattdessen die Meerestemperatur (SST) zu messen und zu verwenden. Diese Daten variieren aufgrund der viel größeren Wärmeträgheit von Wasser viel weniger über die Fläche und nur wenig über den Tag hinweg. Da die Anomalien der SST recht gut mit den Anomalien der LAT (Landlufttemperatur) zu korrelieren scheinen, erscheint eine Vermischung der beiden einfach und möglich.

Um kleinste Schwankungen der Durchschnittstemperaturen innerhalb weniger Zehntelgrad Celsius zu ermitteln, sollten die Daten selbst und ihre statistische Unsicherheitsbehandlung eine endgültige Unsicherheit von ± 0,1 °C zulassen. Das Problem, mit dem die Experten konfrontiert waren, lag jedoch in der oft schlechten Qualität der häufig spärlichen historischen meteorologischen Daten. Daher scheint diese Aufgabe eher schwierig, wenn nicht sogar unmöglich zu bewältigen zu sein. Denn generell unterscheiden sich Unsicherheiten in meteorologischen Daten weder in ihrer Art noch in ihrer Klasse von denen in anderen Bereichen der wissenschaftlichen Arbeit sowie im Ingenieurwesen und Bauwesen, weshalb die üblichen Unsicherheitsalgorithmen und mathematischen Verfahren zur Behandlung von Unsicherheiten auf sie angewendet werden müssen. Wie oben erwähnt, zeigen die Studien, die sich mit dem genannten Problem befassen (die später in diesem Artikel zitiert werden), dass dies nur teilweise und bei wichtigen Daten nur auf eher selektive Weise geschehen ist. In dieser Studie wird versucht, einen Überblick über die wichtigsten Fehlerklassen zu geben, die berücksichtigt werden müssen, und es wird eine grobe Schätzung ihrer potenziellen Größenordnung gegeben. Schließlich wird ein weiterer Versuch unternommen, die mit jedem Mittelwert einhergehende Gesamtunsicherheit kurz zu quantifizieren.

Problemstellung, Beispiele

Die lokalen Lufttemperaturen werden seit mehr als 300 Jahren an einigen Orten der Welt zu meteorologischen Zwecken beobachtet (z. B. in Berlin seit 1701). Die täglichen Lufttemperaturen an Land werden meist durch mehrmalige Messungen zu festgelegten Zeiten an bestimmten Orten erfasst. In anderen Regionen wurden nur die Höchst- und Tiefsttemperaturen ohne Zeitangabe ermittelt.

Abbildung 1: Globale durchschnittliche Temperaturabweichung von 1850 bis 2010, veröffentlicht auf der Website des MetOffice. Die roten Balken zeigen die globalen jährlichen durchschnittlichen Temperaturabweichungen in Bodennähe von 1850 bis 2009. Die Unsicherheitsbalken zeigen den 95-prozentigen Unsicherheitsbereich der Jahresdurchschnittswerte. Die dicke blaue Linie zeigt die Jahreswerte nach Glättung mit einem 21-Punkt-Binomialfilter. Der gestrichelte Teil der geglätteten Linie zeigt an, wo sie durch die Behandlung der Endpunkte beeinflusst wird. Die dünnen blauen Linien zeigen die 95 %ige Unsicherheit der geglätteten Kurve. Quelle: http://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html

Um störende Einflüsse durch direkte Sonneneinstrahlung, Wind und andere Störungen zu vermeiden, wird das verwendete Thermometer gegen seine Umgebung abgeschirmt und in einem Wetterschirm oder einer Wetterschutzwand untergebracht. Es ist seit jeher bekannt, dass diese Abschirmung eigene Eigenschaften hat, welche die gemessene Temperatur beeinflussen und somit keine direkte Messung der tatsächlichen Lufttemperatur ermöglichen, an der Meteorologen wirklich interessiert sind. Die Notwendigkeit eines akzeptablen Kompromisses führt jedoch dazu, dass diese Konstruktionen an den Standort angepasst werden, indem die durch diesen Kompromiss entstehenden Fehler akzeptiert werden. Zusätzlich zu diesen bekannten, aber nicht korrigierten Fehlern, die durch den Einsatz von Abschirmungen weltweit und im Laufe der Zeit entstanden sind, wurden unterschiedliche Verfahren (zur Ermöglichung der Algorithmen zur Berechnung einer Durchschnittstemperatur) zur Datenerfassung sowie unterschiedliche Konstruktionen der Abschirmungen verwendet.

Da das Ziel darin besteht, klimarelevante Signale zu extrahieren, die in lokal gemessenen Daten enthalten sein dürften, ist es für eine Temperaturmessstation erforderlich, dass längere statt kürzere Zeitreihen verwendet werden und dass diese Daten möglichst kontinuierlich gemessen werden. Zur besseren Erkennung und zum besseren Vergleich dieser Signale werden Anomalien berechnet. Das heißt, dass von den beobachteten Daten ein geeigneter Referenzwert abgezogen wird.

Wenn eine solche Station schon länger existiert, z. B. seit 50 oder besser 120 bis 150 Jahren mit kontinuierlichen Messungen, dann ist eine Zeitreihe und Anomalieberechnung für jeden einzelnen Monat oder jedes einzelne Jahr sinnvoll. Das Ergebnis kann zusammen mit allen anderen zu einer globalen mittleren Temperatur-Zeitreihe zusammengefasst werden wie in Abb. 1 dargestellt. Wie dort gezeigt, beinhaltet jede Anomalie auch ihre eigene Unsicherheit, wie durch den grauen Konfidenzbereich in Abbildung 1 (2) angezeigt, abgerufen am 21. April 2012 von http://www.cru.uea.ac.uk/cru/data/temperature/#sciref. Das Verfahren zur Berechnung dieser Anomalien wird vom britischen Met Office und anderen Organisationen beschrieben.

(2) Quelle: http://www.cru.uea.ac.uk/cru/data/temperature/#sciref Brohan , P., J.J. Kennedy, I. Harris, S.F.B. Tett und P.D. Jones, 2006: Unsicherheitsschätzungen bei regionalen und globalen beobachteten Temperaturänderungen: ein neuer Datensatz aus dem Jahr 1850. J. Geophysical Research 111, D12106, — Jones, P.D.,

New, M., Parker, D.E., Martin, S. und Rigor, I.G., 1999: Lufttemperatur und ihre Schwankungen in den letzten 150 Jahren. Reviews of Geophysics 37, 173-199. Rayner, N.A., P. Brohan, D.E. Parker, C.K. Folland, J.J. Kennedy, M. Vanicek, T. Ansell und S.F.B. Tett, 2006: Verbesserte Analysen der Veränderungen und Unsicherheiten der seit Mitte des 19. Jahrhunderts vor Ort gemessenen Meerestemperaturen: der HadSST2-Datensatz. J. Climate, 19, 446-469.

Rayner, N.A., Parker, D.E., Horton, E.B., Folland, C.K., Alexander, L.V, Rowell, D.P., Kent, E.C. und Kaplan, A., 2003: Global vollständige Analysen der Meerestemperatur, des Meereises und der nächtlichen Meereslufttemperatur, 1871-2000. J. Geophysical Research 108, 4407.

In den Daten, die beispielsweise auf der Website des Met Office (1) verfügbar sind, sind eine Reihe dieser Fehler oder Unsicherheiten definiert.

Das Ergebnis dieser Auswertung wie in Abbildung 1 dargestellt ist, dass die angegebene Gesamt-Unsicherheit der globalen Temperaturabweichung über den gesamten Zeitraum etwa ±0,15 °C bis ±0,1 °C beträgt. Diese kombinierte Unsicherheit entspricht einer Genauigkeit bis zur Grenze der instrumentellen Präzision (±0,1 °C) für die Lufttemperatur an Land (LAT) sowie für die Meerestemperatur (SST). Sie entspricht jedoch den Werten, die nur von geschultem Personal mit gut gewarteten und präzise kalibrierten Instrumenten für lokale Messungen erzielt werden können, oder übertrifft diese sogar. Da Temperaturdaten erfasst werden, die teils mehr als 100 Jahre zurückreichen und in verschiedenen Klimazonen mit Jahresmittelwerten zwischen etwa + 30 °C und etwa -35 °C gemessen wurden, wodurch ein Bereich von 65 °C abgedeckt wird, bedeutet diese Aussage, dass man bei der Bestimmung der globalen mittleren Temperaturabweichung eine Gesamtgenauigkeit von ±0,23 % bzw. ±0,15 % erreichen konnte. Normale Temperaturmessungen sind jedoch in der Regel viel ungenauer, oder, um es mit dem Begriff „Unsicherheit” zu sagen, ihre Unsicherheiten sind viel höher.

Darüber hinaus unterliegen die Rohdaten der lokalen Temperaturen einer Vielzahl von Einflüssen und weisen daher inhärente Fehler oder Abweichungen auf (3). Nur ein kleiner Teil davon, nämlich die echten Zufallsfehler, für die ein ausreichend großer Datenmenge zur Verfügung steht, kann durch die Anwendung statistischer Methoden der bekannten Fehlerfortpflanzungstheorie bestimmt und minimiert oder aufgehoben werden. Dabei handelt es sich in erster Linie und zum Teil nur um Ablesungs- und Messgerätefehler. Der größte Teil, die systematischen und groben Fehler müssen entweder sorgfältig korrigiert oder mit entsprechenden Fehlerbereichen versehen werden. Die Korrekturversuche der beteiligten Wissenschaftler zum Ausgleich systematischer Fehler, beispielsweise aufgrund des städtischen Wärmeinseleffekts (UHI) durch veränderte Landnutzung, sind aufgrund der enormen und oft unvollständigen Datenmengen nach bestimmten und wenigen Kriterien automatisiert und unflexibel. „Unflexibel” bedeutet, dass sie nur wenigen und starren Anforderungen folgen, die aufgrund mangelnder Kenntnisse über die Randbedingungen keine echten Korrekturen zulassen. Darüber hinaus sind die wenigen Korrektur-Algorithmen zwangsläufig schematisch angelegt. Die Korrektur erfolgt oft am Schreibtisch, ohne Vor-Ort-Besichtigung. Die erforderlichen Metadaten, welche die Randbedingungen der Rohdaten beschreiben, sind selten verfügbar. Daher führen die vorgenommenen Korrekturen oft zu falschen Ergebnissen. Andere wesentliche Kriterien werden nicht erfasst oder einfach wegdefiniert.

(3) Um die Art solcher Unsicherheiten zu beschreiben, verweisen Brohan et al. 2006 auf die philosophische Definition dieses Begriffs durch den ehemaligen Verteidigungsminister Donald Rumsfeld und machen sie sich zu eigen:

„Eine endgültige Bewertung von Unsicherheiten ist unmöglich, da es immer möglich ist, dass ein unbekannter Fehler die Daten verfälscht hat, und für solche Unbekannten kann keine quantitative Berücksichtigung vorgenommen werden. Es gibt jedoch mehrere bekannte Einschränkungen in den Daten, und es können Schätzungen der wahrscheinlichen Auswirkungen dieser Einschränkungen vorgenommen werden“ (Verteidigungsminister Rumsfeld, Pressekonferenz am 6. Juni 2002, London). Rumsfeld definiert dies wie folgt: „Es gibt bekannte Bekannte. Das sind Dinge, von denen wir wissen, dass wir sie wissen. Es gibt bekannte Unbekannte. Das heißt, es gibt Dinge, von denen wir jetzt wissen, dass wir sie nicht wissen. Aber es gibt auch unbekannte Unbekannte. Das sind Dinge, von denen wir nicht wissen, dass wir sie nicht wissen.”

Abbildung 2 Das linke Bild (Quelle [8]) zeigt verschiedene Screen-Designs des letzten Jahrhunderts – von links nach rechts: den französischen Screen, zum Vergleich einen Mann, dann den ursprünglichen Stevenson-Screen und die hohe Wild’sche Hütte, die in Russland verwendet wird. Das rechte Bild (Quelle [7]) zeigt von links nach rechts zwei neuere Stevenson-Screens [Wetterhütten; siehe Eingangsbild], die etwas größer sind als das Original, sowie eine Vielzahl runder moderner Gehäuse für elektronische Sensoren. Dabei ist zu beachten, dass nicht nur die Größe unterschiedlich ist, sondern auch die Höhe der Sensoren, die beim Stevenson-Screen zwischen etwa 1 m und 2 m und bei der russischen Hütte bis zu 3,2 m variiert.

Dies führt zu unterschiedlichen Ergebnissen, die jedoch nur auf die Messbedingungen zurückzuführen sind und nicht auf die Daten selbst. Aus diesem Grund enthalten die historischen Werte verschiedene Fehler, die darauf zurückzuführen sind. In der vorliegenden Studie untersuchen wir:

a. ob die angegebenen Fehlergrößen und Bandbreiten der Realität entsprechen und

b. ob und wie sie sich auf die Gesamtunsicherheit der globalen Temperaturabweichung auf der Grundlage der offiziellen IPCC-Bewertung auswirken.

Dabei verfolge ich einen Bottom-up-Ansatz, um beide oben genannten Punkte anzugehen: vom lokalen Messgerät bis zum endgültigen Durchschnittswert. Es beschreibt kurz die Probleme im Zusammenhang mit der Messung der Lufttemperatur an Land (LAT) und über der Meeresoberfläche (MAT, NMAT und SST). Anschließend werden die meisten möglichen Fehler ausführlich erörtert, die bei der Auslesung und weiteren Verarbeitung auftreten können. Es beschreibt außerdem die Verfahren und Algorithmen, die von der Wissenschaftsgemeinschaft zur Bearbeitung dieser Themen verwendet werden, und erwähnt die behaupteten Unsicherheiten.

Fehlerquellen und -arten

Meteorologische Messungen enthalten eine Vielzahl potenzieller und tatsächlicher Fehler. Es lohnt sich, dem Leser deren Definitionen in Erinnerung zu rufen. Man kann sie in zufällige Fehler und systematische Fehler oder Unsicherheiten einteilen.

Zufällige Fehler

Gemäß den deutschen VDI-Richtlinien (siehe VDI 2048 S. 36 und [9]) zu „Messunsicherheiten“ … werden zufällige Messfehler typischerweise als Schwankungen in der Größe definiert, die eine Gauß’sche Verteilung und einen Mittelwert von Null haben müssen. (Hervorhebung hinzugefügt) Mit anderen Worten: Die zufällige Unsicherheit wird durch die Populationsmerkmale der Unsicherheit selbst definiert und nicht durch ihre Auswirkungen auf die Messungen. Fehler, die sich anders verhalten, werden als nicht zufällig definiert. Und all diese Definitionen gelten nur, wenn mehrere bis viele wiederholte Messungen des gleichen Wertes vorgenommen werden – um den „wahren“ Wert μ herum, der in unserem Fall ti genannt wird. Die letztere Bedingung trifft bei meteorologischen Messungen so gut wie nie zu.

Systematische Fehler

Systematische Unsicherheiten unterscheiden sich von zufälligen Unsicherheiten, treten jedoch ebenfalls bei fast jeder Messung auf.

Gemäß den zuvor zitierten VDI-Richtlinien ((VDI 2048 S. 36) „… ist eine systematische Messunsicherheit es (siehe DIN 1319-1[1]) der Begriff für den Teil der Unsicherheit eines Messwerts x* vom wahren Wert μ, der aufgrund der Unvollkommenheit der Sensoren und des Messverfahrens durch konstante Einflüsse und Ursachen entsteht. Die systematische Messunsicherheit es würde den gleichen Wert annehmen. Die systematische Messunsicherheit es setzt sich aus der bekannten und messbaren systematischen Messunsicherheit es,b und der unbekannten und nicht messbaren Messunsicherheit es,u zusammen. Der Messwert wird wie folgt beschrieben:

x*=µ+er +es =µ+er +es,b +es,u

Mit anderen Worten, es handelt sich um Messabweichungen, die dazu führen, dass der Mittelwert vieler einzelner Messungen erheblich vom tatsächlichen Wert des gemessenen Merkmals abweicht. Wenn sie bekannt sind oder ausreichend genau und eindeutig geschätzt werden können, lassen sie sich korrigieren, indem die erforderliche Korrektur auf den Messwert angewendet wird. Ein sehr einfaches Beispiel für einen systematischen Fehler ist eine Uhr, die immer 5 Minuten nachgeht, wobei man einfach 5 Minuten zur angezeigten Zeit hinzufügen kann, um die genaue Zeit zu erhalten. Ist dies nicht möglich, müssen die Abweichungen ordnungsgemäß beschrieben, in Richtung und Größe geschätzt und als Unsicherheitsspanne zum Messwert addiert werden.

Dieses Uhrenbeispiel zeigt jedoch auch ganz einfach, dass sich Fehler in den zur Erstellung von Zeitreihen verwendeten Daten ganz anders verhalten als einzelne Daten. Um sie zu korrigieren, muss man nicht nur die Größe und Richtung des einzelnen systematischen Fehlers kennen, sondern auch den Zeitpunkt, zu dem er auftritt, und wie lange er wirkt. Nur dann kann er durch Anomalieberechnung ausgeglichen werden, da er sonst die Zeitreihe und ihren Trend 1:1 verzerrt.

Leider sind die systematischen Unsicherheiten in der Klimatologie nicht so einfach wie im obigen Uhrenbeispiel. Darüber hinaus kommen sie in verschiedenen Formen zur Variablen hinzu und lassen sich kaum vom wahren Wert unterscheiden. Betrachtet man insbesondere Zeitreihen, wie es in der Klimatologie der Fall ist, können sie sich auch als Funktion der Zeit entwickeln, wie dies beispielsweise typischerweise durch den UHI (Urban Heat Island Effect) angezeigt wird.

Die systematischen Unsicherheiten bei meteorologischen Messungen lassen sich in verschiedene Klassen einteilen, von denen oft alle oder einige bei der Messung lokaler Temperaturen auftreten. Sie stehen in Zusammenhang mit oder hängen ab von:

1. Thermometer oder Sensor

1.1. Bauweise

1.2. Anzeige

1.3. Alter

1.4. Austausch von Sensoren. Wie, was?

1.5. Schutz/Gehäuse/Abschirmung von Thermometer oder Sensor. Unterteilt in:

1.6. Die Konstruktion des Gehäuses selbst

1.7. Sein Zustand, Lackierung, Struktur usw.

1.8. Messhöhe über dem Boden

1.9. Lage in der umgebenden Landschaft gemäß z. B. CRN-Klimareferenznetz Klasse 1 bis 5 (5)

(5) US NOAA für CRN Climate Reference Network NOAAs National Climatic Data Center: Climate Reference Network (CRN). Abschnitt 2.2. des Climate Reference Network CRN. Standortinformationshandbuch: „Die idealste lokale Umgebung ist ein relativ großes und flaches offenes Gebiet mit niedriger lokaler Vegetation, damit der Blick auf den Himmel in alle Richtungen außer in den unteren Höhenwinkeln über dem Horizont ungehindert ist.“ Es werden fünf Standortklassen definiert – von der zuverlässigsten bis zur am wenigsten zuverlässigen.

2. Die Abdeckung der Stationen über Land und Meer. Unterteilt in:

2.1. Abdeckung über Land

2.2. Abdeckung über Meer

3. Verteilung der Messstationen über Land und Meer.

3.1. Nach Standort

3.2. Nach Höhe über Normal

4. Für Messungen der Meerestemperatur (SST) gibt es eigene Klassen. Diese lassen sich grob in folgende Gruppen einteilen:

4.1. Wasseraufnahme mit Eimer (siehe Abb. 3)

4.2. ERI (Engine Rear Intake) von Wasser

4.3. Differenz zwischen SST und MAT (Marine Air Temperature)

4.4. Messfehler zwischen verschiedenen Temperaturen und verschiedenen Sensoren

5. Zeitpunkt der Beobachtung. Unterteilt in:

5.1. Zeitpunkt der Beobachtung aufgrund des verwendeten Mittelwertalgorithmus

5.1.1. Max-Min-Methode

5.1.2. Mannheimer Methode

5.1.3. Sowjetische oder Wild-Methode

5.1.4. Sonstige

6. Dauer der kontinuierlichen Beobachtung

6.1. Mit oder ohne Unterbrechung 5US NOAA für CRN Climate Reference Network NOAAs National Climatic Data Center: Climate Reference Network (CRN). Abschnitt 2.2. des Climate Reference Network CRN.

Aus dem Standortinformationshandbuch: „Die wünschenswerteste lokale Umgebung ist ein relativ großes und flaches offenes Gebiet mit niedriger lokaler Vegetation, damit der Blick auf den Himmel in alle Richtungen außer in den unteren Höhenwinkeln über dem Horizont ungehindert ist.“ Es werden fünf Standortklassen definiert – von der zuverlässigsten bis zur unzuverlässigsten.

Abbildung 3 Verschiedene Arten von Eimern zur Messung der Oberflächentemperatur des Meereswassers, die bis zum Ende des 20. Jahrhunderts verwendet worden waren, um an Bord eines Schiffes Proben von Meerwasser zu entnehmen. Ein Beispiel für einen Messsensor (LIG-Thermometer; Quelle [10]) ist ebenfalls abgebildet.

Fehlererkennung und mögliche Behandlung

Die Qualität einzelner Bodenmessstationen wird in den USA vielleicht am besten durch die ausgezeichneten und unabhängigen Bewertungen erfasst, die 2009 von Anthony Watts [11] und seiner Gruppe von Freiwilligen durchgeführt wurden.(., Is the U.S. Surface Temperature Record Reliable?, The Heartland Institute, Chicago, IL 2009) Sie ist öffentlich zugänglich, d. h. bei Watts, und deckt das gesamte USHCN-Netzwerk von Bodenmessstationen ab. Aufgrund dieser umfassenden Studie wurden etwa 69 % der USHCN-Stationen mit einer Standortbewertung von „schlecht” und weitere 20 % mit „nur befriedigend” bewertet (6). „Schlecht” bedeutet, dass sie gemäß der Klassifizierung des US Climate Reference Network Rating Guide (CRN) eine Abweichung von der tatsächlichen Temperatur von >2 bis >5 °C aufweisen können. „Befriedigend” bedeutet gemäß der gleichen Klassifizierung eine Abweichung von > 1 °C. Diese und andere (7), weniger umfassende veröffentlichte Untersuchungen zu Mängeln der Stationen haben gezeigt, dass die Bedingungen für die Messungen der Bodenmessstationen in den USA alles andere als ideal sind. Wie F10 berichtet, gilt dies jedoch auch für Europa. Zitat: „Eine kürzlich durchgeführte großflächige Analyse der Qualität von Stationsreihen im Rahmen der Europäischen Klimabewertung [JCOMM 2006] zitierte keine Untersuchung zur Stationarität der Varianz einzelner Sensoren und stellte fest, dass „noch nicht garantiert werden kann, dass alle Temperatur- und Niederschlagsreihen in der Version vom Dezember 2001 hinsichtlich des Tagesmittelwerts und der Varianz für jede Anwendung ausreichend homogen sind”.

(6) Weitere Informationen hier: Watts, A., Is the U.S. Surface Temperature Record Reliable?, The Heartland Institute, Chicago, IL 2009

(7) Alle Studien, die von Frank abgeleitet wurden, sind dort aufgeführt:

Pielke Sr., R., Nielsen-Gammon, J., Davey, C., Angel, J., Bliss, O., Doesken, N., Cai, M., Fall, S., Niyogi, D., Gallo, K., Hale, R., Hubbard, K.G., Lin, X., Li, H. and Raman, S., Documentation of Uncertainties and Biases Associated with Surface Temperature Measurement Sites for Climate Change Assessment, Bull. Amer. Met. Soc., 2007, 913- 928; doi: 10.1175/BAMS-88-6-913.;

Davey, C.A. and Pielke Sr., R.A., Microclimate Exposures of Surface-Based Weather Stations, Bull. Amer. Met. Soc., 2005, 86(4), 497-504; doi: 10.1175/BAMS-86-4-497.

Runnalls, K.E. and Oke, T.R., A Technique to Detect Microclimatic Inhomogeneities in Historical Records of Screen-Level Air Temperature, J. Climate, 2006, 19(6), 959-978.

Pielke Sr., R.A., Davey, C.A., Niyogi, D., Fall, S., Steinweg-Woods, J., Hubbard, K., Lin, X., Cai, M., Lim, Y.-K., Li, H., Nielsen-Gammon, J., Gallo, K., Hale, R., Mahmood, R., Foster, S., McNider, R.T. and Blanken, P., Unresolved issues with the assessment of multidecadal global land surface temperature trends, J. Geophys. Res., 2007, 112 D24S08 1-26; doi: 10.1029/2006JD008229.

Jede der oben genannten Fehlergruppen weist eine Reihe von zufälligen und systematischen Fehlern auf, die sehr sorgfältig untersucht werden müssen. Allerdings konnten nur wenige davon berücksichtigt werden. Die Arbeiten von B 06, Karl 1994 et al [12] , Jones et al [13] ; [14] nennen nur die am häufigsten zitierten und untersuchen nur einige davon.

Laut Karl et al. lassen sich die zu korrigierenden Unsicherheiten wie folgt zusammenfassen:

1) städtische Wärmeinseln,

2) Änderungen der Beobachtungszeiten,

3) Änderungen der Instrumentierung,

4) Standortverlegungen und

5) unzureichende räumliche und zeitliche Stichproben.

Wie oben gezeigt, wurden mit dieser Liste jedoch nur wenige der potenziellen Unsicherheiten identifiziert. Darüber hinaus beschränken diese Autoren ihre Korrekturmaßnahmen auf die letzte Unsicherheit: unzureichende räumliche und zeitliche Stichproben.

Sie erklären:

„Unsere Analyse konzentriert sich auf diesen letzten Punkt, da bis vor wenigen Jahrzehnten der größte Teil der Erde nicht erfasst worden war. Wir betrachten zwei Arten von Fehlern: Fehler, die aufgrund fehlender Beobachtungen entstehen (Fehler vom Typ I aufgrund unvollständiger geografischer Abdeckung), und Fehler, die aufgrund unvollständiger Stichproben innerhalb von Gitterzellen (oder Mittelungsbereichen) mit Beobachtungen entstehen (Fehler vom Typ 2 innerhalb von Gitterzellen).

… Es ist klar, dass dies nur ein Teil aller Fehler und Verzerrungen ist, die die Berechnung der hemisphärischen und globalen Temperaturtrends beeinflussen und die in jeder umfassenden Fehleranalyse berücksichtigt werden müssen.“

Diese Aussage ist sehr zutreffend, denn auf Seite 1162 heißt es:

„Leider wird es niemals möglich sein, Gewissheit über das Ausmaß der Fehler zu erlangen, die aufgrund unvollständiger räumlicher Stichproben in die historischen Aufzeichnungen eingeflossen sein könnten, da wir niemals die tatsächliche Entwicklung der räumlichen Muster der Temperaturänderung kennen werden.“

B 06 Die andere wichtige Studie untersuchte die folgenden Unsicherheitsquellen:

Stationsfehler: Die Unsicherheit einzelner Stationsanomalien.

Stichprobenfehler: Die Unsicherheit eines Gitterfeldmittelwerts, die durch die Schätzung des Mittelwerts aus einer kleinen Anzahl von Punktwerten verursacht wird.

Verzerrungsfehler: Die Unsicherheit bei großräumigen Temperaturen, die durch systematische Änderungen der Messmethoden verursacht wird.

Ungeachtet dieser Aussage sind die einzigen von den Autoren untersuchten systematischen Unsicherheiten der städtische Wärmeinseleffekt (Urban Heat Island Effect, UHI) und eine mögliche Veränderung der Sensoren. In Bezug auf den UHI folgen sie Jones [13] (8) und Folland [15] (9).

(8) Nature 347 , S. 169 ff.

(9) Zitiert aus „Die Unsicherheiten bei der Bias-Korrektur werden nach (Folland et al., 2001) geschätzt, die zwei Verzerrungen in den Landdaten berücksichtigten: Urbanisierungseffekte (Jones et al., 1990) und Änderungen der Thermometerbelichtung (Parker, 1994). Urbanisierungseffekte: Die vorherige Analyse der Urbanisierungseffekte im HadCRUT-Datensatz (Folland et al., 2001) empfahl eine 1σ-Unsicherheit, die von 0 im Jahr 1900 auf 0,05 °C im Jahr 1990 stieg (linear extrapoliert nach 1990) (Jones et al., 1990). Seitdem wurden Forschungsergebnisse veröffentlicht, die darauf hindeuten, dass der Urbanisierungseffekt sowohl zu gering ist, um nachgewiesen zu werden (Parker, 2004, Peterson, 2004), als auch, dass der Effekt bis zu ≈ 0,3 °C pro Jahrhundert beträgt (Kalnay & Cai, 2003, Zhou et al., 2004).

Lufttemperatur über dem Meer (MAT) und Meerestemperatur

Die Erdoberfläche ist zu 71 % von Ozeanen bedeckt, etwa 80 % der südlichen Hemisphäre und etwa 60 % der nördlichen Hemisphäre. Darüber hinaus sind die Ozeane mit ihren Strömungen und Winden die Hauptquelle für unser Wetter, sowohl kurzfristig als auch langfristig. Noch wichtiger wäre eine kontinuierliche Überwachung der Lufttemperatur auf See, die geografisch gleichmäßig verteilt sein sollte. Dies ist jedoch nicht möglich. Es müssten zahlreiche Instrumente installiert, gewartet und überwacht werden, aber dies auf Schiffen zu tun (abgesehen von den wenigen Inseln mit ihrem eigenen Mikroklima) bedeutet, dass man unbequeme Kompromisse eingehen muss.

Abbildung 4: Die Karte mit kleinen Punkten zeigt die Anzahl und Verteilung der in der ersten Januarwoche 2000 gesammelten SST-Daten [16]. Man sollte bedenken, dass der Verkehr auf allen Ozeanen noch nie zuvor so intensiv war. Das Bild oben rechts zeigt ein Containerschiff mit einer Brückenhöhe von etwa 25 m und einer Tiefe von 10 bis 15 m. Das Bild unten rechts zeigt ein deutsches Segelschiff aus der Zeit um 1900, die Atalanta, mit einer geringen Deckshöhe von etwa 1,5 m.

Schiffe sind für die Fahrt gebaut, abgesehen von Ausnahmen wie Feuerschiffen. Daher ändern sich ihre Abmessungen sowie ihre Höhe ständig, wenn Schiffe beladen oder unbeladen fahren. Darüber hinaus ändern sich die Geschwindigkeit relativ zur ruhigen Luft und der Zeitpunkt der Beobachtung.

Daher bevorzugen die meisten Klimatologen die SST gegenüber der MAT oder NMAT, obwohl sie sich der sehr unterschiedlichen Eigenschaften von Meerwasser und Luft voll bewusst sind. Sie gehen jedoch davon aus, dass sich die Anomalien beider Temperaturen in Zeitreihen ziemlich gleich verhalten.

Abbildung 5: Von links oben nach rechts unten. Eines der letzten Handelssegelschiffe, das um 1900 in Hamburg gebaut wurde, um in den Nordatlantik zu fahren, mit niedriger Deckshöhe. Unten: Zwei Messungen in ruhigem Wasser, die die Schwankungen der Meerestemperatur in Abhängigkeit von der Tiefe zeigen. Oben rechts: Vier verschiedene Eimer, die von einem Seemann ausgeworfen und nach Berührung der Meeresoberfläche wieder eingeholt wurden [10]. Sie sollten Wasser in einer Tiefe von etwa 1 m auffangen. Die tatsächliche Tiefe bleibt unbekannt. Unten links: Schwankung der Wassertemperatur, gemessen in ruhigem Wasser in Abhängigkeit von der Tiefe [17]. Unten rechts: Zeitliche Reaktion eines Thermometers, das im Herbst im Skagerrak in einen Eimer mit Wasser getaucht wurde [18]. Nach 10 Minuten ist ein Gleichgewicht erreicht, und diese Temperatur sollte aufgezeichnet werden.

Jones geht daher davon aus, dass sich die SST wie die MAT in 10 m Höhe verhalten könnte (Jones et al. 1990, S. 174 und 175). Es werden jedoch keine Belege für diese Annahme angeführt. Stattdessen gibt es einige Studien, die genau das Gegenteil zeigen. So zeigten beispielsweise Christy et al. [19] anhand von Daten von festen Bojen in tropischen Gebieten ab 1979, dass deren SST einen leicht negativen Trend von -0,06 °C pro Jahrzehnt aufweisen, während die gleichzeitig gemessene MAT (und NMAT) einen Trend von +0,13 °C pro Jahrzehnt aufwiesen. Auch Kent et al. [20] haben zu diesem Thema geforscht und berichtet, dass die MAT in höheren nördlichen Breiten im Nordatlantik typischerweise um 1,5 °C (S. 11) über der SST liegt.

In Bezug auf die beobachteten oder angenommenen Unsicherheiten schrieb der Wissenschaftler John Kennedy vom Met Office(10):

Eine einzelne SST-Messung von einem Schiff hat eine typische Unsicherheit von etwa 1–1,5 K. (Kent und Challenor (2006), 1,2 ± 0,4 K oder 1,3 ± 0,3 K; Kent et al. (1999), 1,5 ± 0,1 K; Kent und Berry (2005), 1,3 ± 0,1 K und 1,2 ± 0,1 K; Reynolds et al. (2002), 1,3 K; Kennedy et al. (2011a), 1,0 K; Kent und Berry (2008) 1,1 K. Diese Analysen basieren auf dem moderneren Teil der Aufzeichnungen. Es wurden keine Studien durchgeführt, um festzustellen, ob sich die Größe dieser Fehler im Laufe der Zeit systematisch verändert hat. Es sollte auch beachtet werden, dass nicht alle Messungen von identischer Qualität sind. Einige Schiffe und Bojen nehmen Messungen von viel höherer Qualität vor als andere…und weiter unten: .…

(10) Quelle: Met Office Hadley Centre observations datasets „Uncertainty in historical SST data sets“ http://www.metoffice.gov.uk/hadobs/hadsst3/uncertainty.html

Für Schiffe stellten Kent und Berry fest, dass die zufällige Fehlerkomponente bei etwa 0,7 K und die systematische Beobachtungsfehlerkomponente bei etwa 0,8 K lag. Kennedy et al. (2011a) stellten fest, dass die zufällige Fehlerkomponente bei etwa 0,74 K und die systematische Beobachtungs-Fehlerkomponente bei etwa 0,71 K lag. Addiert man die Fehler quadratisch, ergibt sich eine kombinierte Beobachtungs-Unsicherheit von etwas mehr als 1 K, was mit früheren Schätzungen übereinstimmt. Für Treibbojen schätzten Kennedy et al. (2011a) die zufällige Fehlerkomponente auf etwa 0,26 K und die systematische Beobachtungs-Fehlerkomponente auf etwa 0,29 K. Die entsprechenden Werte von Kent und Berry lagen bei 0,6 bzw. 0,3 K. Es wurde angenommen, dass die systematische Fehlerkomponente für jedes Schiff unterschiedlich ist, sodass dieses Modell allein die Auswirkungen weit verbreiteter systematischer Fehler nicht erfasst.

Sie gingen ferner davon aus, dass die systematische Verzerrung modernerer ERI-Daten (Engine Rear Intake, d. h. Kühlwasser, das zur Kühlung der Motoren verwendet wird) gegenüber Bucket-Daten (Buckets sammeln Wasser manuell von Seeleuten an Bord ihrer Schiffe) im Allgemeinen -0,3 °C (bezogen auf den Monatsdurchschnitt) betragen könnte. Dies wäre insbesondere dann der Fall, wenn die Lufttemperatur deutlich niedriger ist als die Wassertemperatur. Darüber hinaus merkten sie an, dass sie Eimer-Daten gegenüber ERI-Daten bevorzugen, da sie zuverlässiger zu sein scheinen. Das Problem dabei ist, dass weitgehend unbekannt ist, welches Verfahren in den letzten 150 Jahren verwendet wurde. Während Parker, Jones und Reynolds davon ausgehen, dass bis 1941 überwiegend Eimer-Daten verwendet wurden und danach die Verwendung von Eimern ziemlich schnell eingestellt wurde, zeigen andere Beobachtungen eine solide Mischung aus beiden Verfahren bis Ende der 1980er Jahre, die sogar bis zum Jahr 2005 zunahm. Aber z. B. [21] Folland 2005 stützte sein gesamtes Korrekturprogramm auf diese Annahme. Zwar wurde die Eimer-Verfahren im Laufe der Zeit durch die ERI-Verfahren und die aufkommende Bojen-Verfahren ersetzt, aber wie Abbildung 3 – insbesondere das untere Bild – zeigt, gab es bis in die letzten Jahre einen relativ großen Anteil an Eimer-Daten.

Ergebnisse und implantierte Korrekturmethoden

Mittelwertbildung absoluter Daten, Vorteile und Grenze

Verhalten von Anomalien und Fehlern in Zeitreihen und deren Grenzen

Der Grund, warum Zeitreihen von Anomalien bevorzugt werden, liegt darin, dass in vielen Wissenschaften Anomalien unabhängiger Größen berechnet werden, um gemeinsame Trends, Korrelationen oder allgemein „Signale” zu ermitteln, die möglicherweise leichter zu finden und zu quantifizieren sind als der Vergleich absoluter Zeitreihen einzelner Daten. Dies gilt insbesondere für die Klimatologie, wo man es mit sehr unterschiedlichen Original-Temperaturdaten zu tun hat. Aus diesem Grund schreiben die Autoren von NCDC-NOAA [22] in einer Erklärung, warum sie Anomalien bevorzugen (in Absatz 3) (Quelle: http://www.ncdc.noaa.gov/cmb-faq/anomalies.php, Absatz 3) …. Referenzwerte, die auf kleineren [lokaleren] Skalen über denselben Zeitraum berechnet werden, bilden eine Basislinie, von der aus Anomalien berechnet werden. Dadurch werden die Daten effektiv normalisiert, sodass sie verglichen und kombiniert werden können, um Temperaturmuster in Bezug auf das, was für verschiedene Orte innerhalb einer Region normal ist, genauer darzustellen. Und in Absatz 4 liest man:

Anomalien beschreiben die Klimavariabilität über größere Gebiete genauer als absolute Temperaturen und bieten einen Bezugsrahmen, der aussagekräftigere Vergleiche zwischen Standorten und genauere Berechnungen von Temperaturtrends ermöglicht.(Fettdruck hinzugefügt)

Der erste Teil des Satzes in Absatz 3 erklärt genau, warum Anomalien bevorzugt werden, aber der fettgedruckte Teil von Absatz 4 ist im Allgemeinen falsch. Anomalien sind in den meisten Fällen weniger genau als die absoluten Temperaturen. Denn beide Werte enthalten zufällige und systematische Messfehler, wobei letztere in Zeit, Richtung und Größe variieren. Es gibt keinen Grund anzunehmen, dass diese Fehler während des Referenzzeitraums (Normalzeitraum) mit den Fehlern in anderen täglichen Daten oder deren Tages-, Monats- oder Jahresmittelwerten identisch oder auch nur ähnlich sind. Dies mag zwar der Fall sein, bleibt jedoch eine Ausnahme. Darüber hinaus verleiht die Berechnung der oft geringen Unterschiede jedem Fehler ein viel größeres Gewicht, als dies bei einem Vergleich mit den absoluten Daten allein der Fall wäre.

Daher lohnt es sich zu untersuchen, ob die Berechnung der Unterschiede (Anomalien) zwischen zwei Messdaten deren potenzielle Fehler aufhebt, insbesondere deren systematische Fehler. Diese Frage wird oft mit einem klaren „Ja” beantwortet, unabhängig davon, wer in der Welt der Wissenschaft oder Technik gefragt wird. Aber ist diese Antwort wirklich so zutreffend, wie viele Menschen glauben? Es ist hilfreich, sich die folgende einfache Formel anzusehen:

Da der Mess- oder Referenzwert t vom Messwert t abgezogen wird und sowohl t als auch t aus ihrem „tatsächlichen“ Wert 𝜏 bzw. 𝜏 plus einem Fehler von ε bzw. ε bestehen, kann man sagen, dass

t1 =𝜏1 ±e1 and t2=𝜏2 ±e2. (1)

Die Differenz zwischen den beiden Werten kann berechnet werden als

𝛥t= t1– t2 und daher 𝛥t= (𝜏1 ±e1)- (𝜏2 ±e2)

𝛥t= 𝜏1 𝜏2 + (e1 e2) (2)

wobei (±e1)- (±e2) = ±σ (2a)

Wenn e = e, was häufig bei Messdaten gleichen Ursprungs und gemessen mit dem gleichen Instrument der Fall sein kann, gilt ±σ = 0, d. h. ε hebt ε auf. Das bedeutet, dass die Anomalie

𝛥t= 𝜏1 𝜏2. (3)

die Differenz zwischen der jeweiligen Quantität ohne Fehler darstellt.

Um dieses Ergebnis zu erhalten, muss man jedoch sicher sein, dass der Fehler εx (genauer gesagt der systematische Fehler εx) in Größe und Richtung konstant bleibt. Dies ist sehr oft der Fall, wenn man die gleiche Größe mit dem gleichen Instrument in kurzen Zeitabständen misst. Die Gleichung (3) zeigt uns jedoch auch die Grenzen dieses Ansatzes auf. Was passiert, wenn ε ≠ ε?

Noch interessanter ist die Frage, was passiert, wenn man Zeitreihen von Anomalien zeichnen muss, wenn e ≠ e. Um dies zu veranschaulichen, werde ich das Verhalten von Anomalien in Zeitreihen für die Temperatur untersuchen, aber zuvor will ich uns eine der meist zitierten Studien der jüngeren Klimatologie genauer ansehen. B 06 stellte fest (S. 2 und 4):

(1) „Die Stationsnormale (Monatsdurchschnitte über den Normalzeitraum 1961–90) werden nach Möglichkeit aus den Stationsdaten für diesen Zeitraum generiert…. Die in einem Raster dargestellten Werte sind Anomalien, die durch Subtraktion der Stationsnormale von den beobachteten Temperaturen berechnet werden, sodass auch Fehler in den Stationsnormalen berücksichtigt werden müssen.“ In der folgenden Aussage wird dann eine Reihe von Fehlern definiert, und etwas später wird für einen bestimmten Fehlertyp (S. 6) Folgendes angegeben:

(2) „Es wird einen Unterschied zwischen der tatsächlichen mittleren Monatstemperatur (d. h. aus 1-Minuten-Durchschnittswerten) und dem von jeder Station aus weniger häufigen Messungen berechneten Durchschnitt geben; dieser Unterschied wird jedoch auch in der Stationsnormale vorhanden sein und sich in der Anomalie aufheben. Dies trägt also nicht zum Messfehler bei.“

Um zu überprüfen, ob dies zutrifft und was passieren könnte, und um die Auswirkungen von Fehlern in anomalen Zeitreihen weiter zu vereinfachen, verwende ich künstliche Sinuskurven anstelle von realen Temperaturdaten und belasten diese mit genau definierten systematischen Fehlern, die überall innerhalb des Zeitraums auftreten. Dazu wurde die Excel-Formel für einen Sinus mit einem zusätzlichen Mittelwert von 14,5 °C verwendet. Die Sinuskurve hat eine Amplitude von ± 0,25 °C mit einer Zykluszeit von etwa 70 Jahren. Abbildung 6 zeigt die ursprüngliche „Temperatur”-Zeitreihe mit einem leicht negativen Trend aufgrund der gewählten Start- und Endbedingungen, obwohl die Sinuskurve einen Trend von Null aufweist.

Abbildung 6 zeigt eine künstlich berechnete Zeitreihe der „globalen Durchschnittstemperatur” mit einer Amplitude von ± 0,25 °C und einem Zyklus von etwa 70 Jahren. Excel berechnet aufgrund der unausgeglichenen Zyklen korrekt einen negativen Trend, obwohl der Trend für eine vollständige Sinuswelle Null ist.

Auf diese Sinuswelle wurden zwischen 1860 und 2010, d. h. zwischen der Dauer der Beobachtungszeit, zwei verschiedene systematische Fehler überlagert. Die Ergebnisse sind in Abbildung 7 dargestellt.

Der erste angewendete Fehler war ein Sprung von + 1 °C, und das Ergebnis wird für verschiedene Zeitpunkte des Auftretens gezeigt. Die blaue Kurve zeigt die Anomalie (1) aus Abb. 2, noch ohne Fehler. Die rote Kurve (Anomalie 2) zeigt den Fehler, der 1940 auftrat, z. B. verursacht durch einen Umzug der Station an einen neuen Standort. Das könnte die Situation sein, die BO 06 im Sinn hatte, als sie davon ausgingen, dass sich der Fehler aufheben würde. Die grüne Kurve (Anomalie 2) zeigt den Fehler, der 1980 auftrat, d. h. innerhalb der Referenzzeit, und f. e. durch eine andere Lackierung der Station verursacht wurde, wie es in den USA geschehen ist, als alle Lackierungen bestehender Wetterhütten von Kalkfarbe auf Latexfarbe umgestellt worden sind. Dies wurde von Watts [11] in seinem umfassenden Bericht über die Qualität der Stationsdaten in den USA berichtet. Und die violette Kurve (Anomalie 4) zeigt die Auswirkungen eines „schleichenden” Fehlers von 0 bis 1 Grad über 100 Jahre, wie er durch den Einfluss des UHI (Urban Heat Island Effect) entstanden ist. Dies bezieht sich auf die langsamen Veränderungen der Umgebung durch die Errichtung von Parkplätzen, Gebäuden, Abfallverarbeitungsanlagen oder anderen vom Menschen verursachten Aktivitäten.

Abbildung 7: Blau (Anomalie 1) zeigt eine fehlerfreie, künstlich berechnete Zeitreihenanomalie einer „globalen Mitteltemperatur” mit einer Amplitude von ± 0,25 °C und einem Zyklus von etwa 70 Jahren. Der Referenzwert wurde anhand des Mittelwerts dieses Sinus‘ innerhalb des Zeitraums von 1961 bis 1990 berechnet. Darauf sind separat zwei verschiedene Fehler überlagert. Die rote Kurve (Anomalie 2) zeigt die Auswirkung eines systematischen Fehlers von 1 °C, der vor dem Referenzzeitraum von 1960 bis 1991 auftritt und seitdem kontinuierlich wirkt. Die grüne Kurve (Anomalie 3) zeigt den Einfluss eines systematischen Fehlers von 1 °C, der innerhalb des Referenzzeitraums von 1960 bis 1991 auftritt und seitdem kontinuierlich wirkt. Die violette Kurve (Anomalie 4) zeigt die Auswirkungen eines (linearen) „schleichenden” Fehlers von 0 bis 1 °C systematischem Fehler, der als UHI-Effekt auftreten kann, der langsam zunimmt, wenn immer mehr verschiedene Gebäude, Parkplätze und andere Einflüsse die Temperatur der lokalen Wetterstation beeinflussen. In jedem Fall sehe ich eine signifikante Veränderung des Trends (nur zwei dargestellt) und der Form der Anomalie-Zeitreihen, abhängig vom Ausgangspunkt des Fehlers und seiner Art. Es zeigt sich auch, dass sich Fehler nicht gegenseitig aufheben, unabhängig davon, wann sie auftreten, solange sie innerhalb des beobachteten Zeitraums auftreten.

Ich sehe in allen Fällen, dass der Fehler vollständig aktiv bleibt und sich im Verhältnis 1:1 auf die Zeitreihe des Anomaliewertes selbst auswirkt. Die Trendänderung ist ebenfalls in jedem Fall sichtbar. Es gibt nur eine Ausnahme: Wenn der Fehler vor Beginn des Untersuchungszeitraums auftritt, hebt er sich auf. Dies ist der einzige Fall, in dem die Anomalien die Fehler innerhalb der Daten aufheben.

In allen anderen Fällen heben Anomalien die Fehler ihrer Komponente nicht auf. Die Berechnung von Anomalien erfordert die Kombination der Unsicherheiten in der gemessenen Temperatur sowie der Unsicherheiten in der berechneten Durchschnittstemperatur, die sich aus dem Durchschnitt aller gemessenen Temperaturen innerhalb der Referenzzeit zusammensetzt. Dieses Hindernis wird oft nicht erwähnt. Denn die Anomalie selbst wird berechnet, indem von der absoluten monatlichen oder jährlichen lokalen Durchschnittstemperatur eine Referenz-Durchschnittstemperatur der gleichen Station abgezogen wird. Das heißt, jede lokale Durchschnittstemperatur ist ± ei , wobei „ei “ der Gesamtfehler in der i-ten gemittelten Temperatur ist.

Die Normaltemperatur ist , wobei der durchschnittliche Fehler aus den dreißig Jahren gemessener Monatstemperaturen ist, die zu gemittelt werden. Jede Anomalietemperatur ist , und der Fehler in der Anomalie Δti kann in der Regel durch Anwendung der Formel für den Fehler in der Differenz zwischen zwei i-Messungen, dem quadratischen Mittelwert (r.m.s.) der Fehler in Messungen, dem quadratischen Mittelwert (r.m.s.) der Fehler in f1 und T bestimmt werden, jedoch nur solange der Fehler als ziemlich normalverteilt angesehen werden kann. Dies ist nicht nur bei zufälligen Fehlern der Fall, sondern oft auch bei systematischen Fehlern. Sollte diese Bedingung jedoch nicht gegeben sein oder kann man sich nicht sicher genug sein, dann ist die einfache lineare Addition der genannten systematischen Fehler die richtige Vorgehensweise für die Fehlerfortpflanzung (siehe z. B. 1988; Miller S. 1353) [23] solcher Fehler.

Im ersten Fall ergibt sich der Fehler in Δti aus Er besteht also mindestens aus allen Fehlern seiner Komponenten.

BO6 hatte einen solchen Fall erwähnt, da im gleichen Absatz geschrieben stand:

(3) „Wenn eine Station die Art und Weise ändert, wie die monatliche Durchschnittstemperatur berechnet wird, führt dies zu einer Inhomogenität in der Temperaturreihe der Station, und Unsicherheiten aufgrund solcher Änderungen werden Teil des Homogenisierungs-Anpassungsfehlers. (Hervorhebung durch den Autor)“.

Dass dies für alle Änderungen gilt, die während des Beobachtungszeitraums vorgenommen werden, haben die Autoren nicht erwähnt. Aber es ist so. Darüber hinaus wurden keine Angaben gemacht, um den erwarteten „Homogenisierungsprozess“ zu identifizieren, wie er durchgeführt wurde und wie erfolgreich er die Unsicherheiten beseitigt, mit Ausnahme der wenigen oben genannten. Es bleibt also eine Hoffnung, aber keine Tatsache. Dazu müssen die Unsicherheiten definiert und ihre Größe abgeschätzt werden. Dies werde ich als Nächstes tun.

Ergebnisse und Diskussion

Aus früheren Arbeiten der Autoren wurde eine Reihe von Fehlern definiert, und es wurde ein sorgfältiger Versuch unternommen, diese sehr vorsichtig zu quantifizieren. Die folgende Tabelle zeigt die wichtigsten Fehler und deren wahrscheinliche Größenordnung sowie Richtung:

Es muss darauf hingewiesen werden, dass die meisten der oben genannten Fehler nur auf sorgfältigen Schätzungen beruhen. Dies gilt jedoch auch für alle Versuche, Fehler zu schätzen und zu korrigieren, die in der Literatur zu finden sind, soweit der Autor nach Durchsicht zahlreicher Literaturquellen weiß. Aus diesem Grund und aufgrund ihres hohen Ausmaßes ist der Autor der festen Überzeugung, dass die angegebenen Gesamtunsicherheiten eher konservativ als überschätzt sind.

Schlussfolgerungen

Der Hauptgrund für die Verwendung einer Anomalie liegt darin, dass die Abweichungen von der Durchschnittstemperatur in kohärenter Weise auftreten. So können Temperaturabweichungen von sehr vielen lokalen Durchschnittstemperaturen kombiniert werden, um die Trends des Klimawandels über ein großes Gebiet hinweg hervorzuheben.

Abbildung 8: Geschätzte Unsicherheiten der Hauptfehlerklassen aus Tabelle 1 um eine beliebige Trendlinie. Die Basisdaten sind die gleichen wie in Abbildung 1. Die Unsicherheit ist jedoch deutlich größer als dort dargestellt. Da zudem nicht alle systematischen Fehler symmetrisch über die Zeit verlaufen, verläuft die Trendlinie nicht symmetrisch zu den Hüllkurvengrenzen. Da alle Fehler entweder zeitlich stabil sind oder langsam voranschreiten, sind Frequenzsignale die einzigen Signale, die präzise genug extrahiert werden können.

Anomalien werden berechnet, um die Nettotemperaturtrends der großen Vielfalt lokaler Klimazonen zu vergleichen oder zusammenzustellen. Der Preis für diesen Komfort besteht jedoch darin, dass die Anomalien, wie oben gezeigt, mit einer größeren Unsicherheit behaftet sind als die ursprünglichen Temperaturmessungen. Die einzige Ausnahme besteht darin, dass sich die Fehler aufgrund der Subtraktion von Daten verringern oder sogar aufheben können, wenn sie die gleiche Richtung und Größenordnung haben. Um dies zu erkennen, muss man diese Fehler jedoch im Voraus relativ genau bestimmen.

Man könnte argumentieren, dass der Mittelungsprozess selbst die Auswirkungen eines oder mehrerer Stationsfehler reduziert, unabhängig davon, ob dieser in den absoluten Daten oder in ihren Anomalien auftritt. Das ist richtig und einer der Vorteile der Mittelung. In der Meteorologie sind jedoch zahlreiche potenzielle Fehler bekannt, die an einer großen Anzahl von Stationen oder an allen Stationen nahezu gleichzeitig aufgetreten sind. Beispiele finden sich in der Literatur; ich nenne hier nur einige:

1. Änderung des Rasterdesigns, z. B. Wechsel vom hohen Wildtyp-Raster zum kleineren englischen Raster in Russland. Berichten zufolge geschah dies um 1914.

2. Einführung anderer Skalen von Réaumur (bis Ende des 19. Jahrhunderts auch in Deutschland) bis Celsius.

3. Einführung anderer Algorithmen zur Berechnung des Tagesmittelwerts. Dies geschieht sowohl in Europa als auch im Ausland sehr häufig.

Wie aus den USA, aber auch aus anderen Teilen der Welt berichtet wird, verschwindet der Wechsel der Lackierung von Tünche zu Latexweiß. Diese Liste lässt sich leicht erweitern.

Referenzen

[1] [1] P. Brohan, J. J. Kennedy, I. Harris, S. F. B. Tett, and P. D. . Jones “Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850,” Journal of Geophysical Research, vol. 111, pp. 2006.

[2] P. Frank, “UNCERTAINTY IN THE GLOBAL AVERAGE SURFACE AIR TEMPERATURE INDEX: A REPRESENTATIVE LOWER LIMIT,” Energy & Environment, vol. 21 , no. 8, pp. 969989, 2010.

[3] P. Frank, “IMPOSED AND NEGLECTED UNCERTAINTY IN THE GLOBAL AVERAGE SURFACE AIR TEMPERATURE INDEX,” Energy & Environment · , vol. Vol. 22, N, pp. 407424, 2011.

[4] M. Anderson, “A Field Test of Thermometer Screens,” SHMI RMK, vol. 62, 1991.

[5] W. Köppen, “Einheitliche Thermometeraufstellungen für meteorologische Stationen zur Bestimmung der Lufttemperatur und der Luftfeuchtigkeit,” Meteorologische Zeitschrift, vol. 30, 1913.

[6] R. W. SPARKS, “THE EFFECT OF THERMOMETER SCREEN DESIGN ON THE OBSERVED TEMPERATURE,” vol. 315, 1972.

[7] P. van der M. Jitze, “A Thermometer Screen Intercomparison,” WMO Instruments and Observing Methods Reports , 1998.

[8] A. Sprung, “Bericht über vergleichende Beobachtungen verschiedenen Thermometer Aufstellungen zu Gr. Lichterfelde bei Berlin,” Abhandlungen des Königlich Preussischen Meteorologischen Instituts. , vol. Bd. 1. No., 1890.

[9] VDI, “Uncertainties of measurement during acceptance tests on energy-conversion and power plants Fundamentals,” 2000.

[10] C. K. P. FOLLAND D. E., “Correction of instrumental biases in historical sea surface temperature data,” Q. J. R. Meteorol. Soc., vol. 121. , pp. pp. 319367 , 1995.

[11] A. Watts, Is the U.S. Surface Temperature Record Reliable?, vol. 1. THE HEARTLAND INSTITUTE 19 South LaSalle Street #903 Chicago, Illinois 60603 www.heartland.org, 2009.

[12] J. R. Karl, T.R., Knight, R.W. & Christy, “Global and Hemispheric Temperature Trends: Uncertainties Related to Inadequate Spatial Sampling,” JOURNAL OF CLIMATE, vol. 7, p. 1144 bis 1163, 1994.

[13] P. D. G. Jones P. Ya Coughlan, M; , Plummer, M. C; Wang W-C, Karl, T.R, “Assessment of urbanization effects in time series of surface air temperature over land,” ature., vol. 347, p. 169 ff, 1990.

[14] P. D. N. Jones M; Parker, D. E. S.Martin, Rigor, I. G., “SURFACE AIR TEMPERATURE AND ITS CHANGES OVER THE PAST 150 YEARS,” Reviews of Geophysics, vol. 37, pp. 173199, 1999.

[15] C. K. R. Folland N. A. Brown,S. J. Smith3, T. M. P. Shen, S. S. Parker1, D. E. and I. J. Macadam P. D. Jones, R. N. Nicholls, N. and Sexton, D. M. H., “Global temperature change and its uncertainties since 1861 ,” Hadcrut 2, HadCRUT2 error analysis , 2001.

[16] R. W. R. REYNOLDS SMITH, NICKA.STOKES, THOMASM. WANG, DIANEC. WANQIU, “An Improved In Situ and Satellite SST Analysis for Climate,” J O U R N A L O F C L I M A T E, vol. 15, pp. 16091625, 2002.

[17] R. W. Reynolds, “Sea Surface Temperature (SST) Analyses for Climate.” National Oceanic and Atmospheric Administration National Environmental Satellite, Data & Information Service National Climatic Data Center, 2002.

[18] G. Dietrich, “Über systematische Fehler in den beobachteten Wasser- und Lufttemperaturen auf dem Meere und über ihre Auswirkung auf die Bestimmung des Wärmeumsatzes zwischen Ozean und Atmosphäre,” Deutsche Hydrographische Zeitschrift, vol. 3 5/6, 1950.

[19] J. R. P. Christy David E. Brown,Simon Macadam, Ian Stendel,Martin and Norris, William B., “Differential Trends in Tropical Sea Surface and Atmospheric Temperatures Since 1979,” Geophysical Research Letters,, vol. 28, no.1 , pp. 183186., 2001.

[20] E. C. K. A. and B. Kent David I., “Assessing Biases in Recent in situ SST andMarine Air Temperature,” 1998.

[21] C. Folland, “Assessing bias corrections in historical sea surface temperature using a climate model,” International Journal of Climatology, vol. 25, no. 7, pp. 895911, 2005.

[22] E. R. Long, “CONTIGUOUS U. S. TEMPERATURE TRENDS USING NCDC RAW AND ADJUSTED DATA FOR ONE-PER-STATE RURAL AND URBAN STATION SETS,” SPPI ORIGINAL PAPER , 2010.

[23] J. C. M. and J. H. Miller, “Basic Statistical Methods for Analytical Chemistry Part I; Statistics of Repeated Measurements,” Analyst, vol. 113, pp. 13511356, 1988.

Eine pdf Version des Artikel (in englisch) kann hier heruntergeladen werden.historical temperature data - quality and treatment 1-Michaels iMac

Ein Vorläufer dieses Artikel erschien im Jahr 2014 im Energy & Environment hier

 

 




Die New York Times veröffentlicht falsche Informationen zu Energie und Klima und weigert sich, diese zu korrigieren.

Howard Gruenspecht

Artikel zu Energie- und Klimathemen in der New York Times (NYT) enthalten zunehmend ungenaue Daten und falsche Informationen. Das Problem wird dadurch verschärft, dass die Zeitung ihre eigenen Korrekturrichtlinien nicht befolgt, wenn sie auf Fehler hingewiesen wird.

Die Leser erwarten von der NYT fundierte und faktengeprüfte Informationen und Analysen zu Themen, in denen sie selbst keine Experten sind. Aufgrund meiner 45-jährigen beruflichen Tätigkeit im Bereich Daten und Analysen zu Energie- und Umweltfragen, darunter in leitenden Positionen im Weißen Haus und im Energieministerium unter den Regierungen Carter, Bush 41, Clinton, Bush 43, Obama und Trump 45 sowie an führenden Universitäten und Thinktanks, muss ich jedoch feststellen, dass die Berichterstattung der NYT zu diesen Themen allzu oft ihren eigenen Standards hinsichtlich Genauigkeit und journalistischer Integrität nicht gerecht wird.

Als langjähriger Leser der NYT wecken die Häufigkeit der Fehler und die Weigerung, diese zu korrigieren, Zweifel an der Richtigkeit der Informationen zu anderen Themen. Unabhängig davon, ob das Problem über Energie und Klima hinausgeht, verdienen die Leser der NYT eindeutig Besseres.

Drei aktuelle Artikel der NYT veranschaulichen das Problem: ein Artikel von Max Bearak vom 22. Juli, der angeblich über Äußerungen von UN-Generalsekretär Guterres zu erneuerbaren Energien berichtet; ein Artikel von Ivan Penn vom 26. Mai über den Wettbewerb zwischen Elektrofahrzeugen (EVs) und Fahrzeugen mit Verbrennungsmotor (ICEVs); und eine Kolumne von David Wallace-Wells vom 23. April über den Verlust des kulturellen und politischen Impulses für Maßnahmen zur Reduzierung der Treibhausgas-Emissionen. Diese werden im Folgenden nacheinander betrachtet, gefolgt von einigen zusammenfassenden Schlussfolgerungen.

1. Max Bearaks Artikel vom 22. Juli 2025 „Die USA verpassen die ‚größte wirtschaftliche Chance‘ des Jahrhunderts, sagt UN-Chef“ (Print-Ausgabe vom 23. Juli).

Der Artikel beginnt mit einer Zusammenfassung der Äußerungen von UN-Generalsekretär Guterres, in denen er Investitionen in erneuerbare Energien sowohl als wirtschaftliche Chance als auch als ökologische Notwendigkeit befürwortet. Mit einer geschickten Mischung aus zitierten und nicht zitierten Worten berichtet Bearak, dass Guterres die USA und andere Länder, die deren Politik in Bezug auf fossile Brennstoffe folgen, ausdrücklich kritisiert habe. Auch wenn dies durchaus die Meinung des Generalsekretärs sein mag, wird diese Ansicht in der Mitschrift seiner Äußerungen nicht bestätigt.

Der Großteil des Artikels befasst sich mit einer Diskussion über Energiedaten und Klimapolitik, die zu erklären versucht, warum es zur aktuellen Situation gekommen ist, und dabei wird angemerkt, dass diese Informationen von Herrn Guterres „unausgesprochen” geblieben sind. Ab diesem Punkt versucht der Reporter mit seiner eigenen Analyse zu belegen, dass China im Gegensatz zu den USA konstruktiv eine Energiewende hin zu grüner Energie verfolgt. Leider enthält der Artikel fehlerhafte und irreführende Daten.

Um die konstruktive Rolle Chinas hervorzuheben, heißt es in dem Artikel: „In den letzten zehn Jahren hat sich China von einer weitgehend kohlebasierten Wirtschaft zu einer Wirtschaft entwickelt, die mehr erneuerbare Energien einsetzt als jedes andere Land.“ Das Wachstum Chinas bei der Produktion und dem Einsatz einer Vielzahl von Technologien für erneuerbare Energien ist in der Tat sehr beeindruckend. Daten aus dem „2025 Statistical Review of Word Energy“ (eine weithin anerkannte Quelle für Energiedaten, die hier online verfügbar ist) zeigen jedoch, dass China nach wie vor weitgehend mit Kohle-Energie betrieben wird. Im Jahr 2024 deckte Kohle 58,1 % des gesamten Energieverbrauchs Chinas (92,2 von 158,9 Exajoule), während sie 2014 noch 69,8 % des Energieverbrauchs Chinas ausmachte (82,1 von 117,6 Exajoule). (Zur Information: 1 Exajoule = 947,8 Billionen British Thermal Units). Somit dominiert Kohle nach wie vor den Energiemix Chinas, obwohl der Kohleverbrauch in den letzten zehn Jahren langsamer gewachsen ist als der Gesamtenergieverbrauch.

Nach der Erörterung der Fortschritte Chinas im Bereich der erneuerbaren Energien wendet sich der Artikel dem Energieverbrauch und der Energieerzeugung in den USA und anderen reichen Ländern zu. Er stellt fälschlicherweise fest: „Relativ wohlhabende Länder wie die USA, Kanada, Australien und Saudi-Arabien sind auch die weltweit größten Produzenten fossiler Treibstoffe.“ Daten aus dem Statistical Review 2025 zeigen, dass Chinas Gesamt-Erzeugung von Kohle, Öl und Erdgas im Jahr 2024 112,3 Exajoule betrug, 32 % mehr als die der zweitgrößten Erzeuger, der USA, mit insgesamt 85,0 Exajoule. Tatsächlich übersteigt allein Chinas Kohleproduktion (94,5 Exajoule) die gesamte Erzeugung fossiler Treibstoffe aller anderen Länder. Darüber hinaus sind die Daten für 2024 keine Ausnahme: Seit 2005 ist China jedes Jahr mit Abstand der weltweit größte Produzent fossiler Treibstoffe.

Obwohl wir das Korrekturteam der NYT und den Autor kontaktiert haben, um auf diese Fehler sowie auf die falsche Darstellung des temperaturbezogenen Ziels des Pariser Abkommens von 2015 in dem Artikel hinzuweisen, wurden bis heute keine Korrekturen vorgenommen.

2. Ivan Penns Artikel vom 26. Mai 2025 „Elektrofahrzeuge starben vor einem Jahrhundert: Könnte das wieder passieren?“ (Print-Ausgabe vom 27. Mai).

Der Artikel zieht eine Parallele zwischen dem aktuellen Wettbewerb zwischen Elektrofahrzeugen (EVs) und Fahrzeugen mit Verbrennungsmotoren (ICEVs) und dem Wettbewerb zwischen denselben zu Beginn des Automobilzeitalters. Dem Artikel zufolge „sehen Wissenschaftler, die sich mit der frühen Ära der Elektrofahrzeuge befasst haben, Parallelen zwischen ihrem Niedergang in den ersten Jahrzehnten des 20. Jahrhunderts und den Angriffen, denen sie heute ausgesetzt sind. In beiden Epochen hatten Elektroautos Schwierigkeiten, sich auf dem Markt durchzusetzen, und wurden durch die Politik untergraben.“

Die seit Beginn der Trump-Regierung ergriffenen Maßnahmen zur Abschaffung von EV-Subventionen und zur Änderung von Vorschriften und Regelungen, die eine sehr schnelle Verbreitung von EVs erzwungen hätten, sind von Bedeutung. Es wird allgemein erwartet, dass diese Maßnahmen das Wachstum des EV-Marktanteils verlangsamen, aber nicht stoppen werden, verglichen mit den Aussichten, die von einer Fortsetzung der Politik der Biden-Ära ausgehen. Die verfügbaren Daten und Forschungsergebnisse widerlegen jedoch eindeutig die Behauptung, dass das Verschwinden von Elektrofahrzeugen vom Markt vor hundert Jahren darauf zurückzuführen sei, dass die Gesetzgeber jener Zeit „ihren Daumen auf die Waage gelegt und sich auf die Seite der Ölindustrie gestellt“ hätten, indem sie 1926 eine sehr großzügige Ölförderungszulage verabschiedeten.

Die in dem Artikel diskutierten Änderungen der Ölpolitik können keine wesentliche Rolle beim Niedergang der Elektrofahrzeuge vor einem Jahrhundert gespielt haben, da diese bereits vor deren Eintreten am Ende standen. Daten zur Fahrzeugherstellung und -zulassung zeigen, dass mindestens 98 % und möglicherweise mehr als 99 % der 17,5 Millionen Fahrzeuge, die 1925 für den Betrieb zugelassen waren, bereits Verbrennungsmotoren hatten. Der Artikel vermeidet es, dieser Realität Rechnung zu tragen, was seine Argumentation direkt untergräbt.

Das während der Obama-Regierung erstellte Studie „History of Electric Cars“ (Geschichte der Elektroautos) des Energieministeriums stellt ausdrücklich fest, dass der Marktanteil der EV-Verkäufe 1899 und 1900 seinen Höhepunkt erreichte und danach zurückging, während die absolute EV-Produktion 1912 ihren Höhepunkt erreichte und danach zurückging. Der frühe Höhepunkt sowohl des EV-Marktanteils als auch der Produktion erfolgte vor dem Hintergrund eines explosiven Wachstums sowohl der jährlichen Fahrzeugverkäufe (von 4.200 im Jahr 1900 auf 181.000 im Jahr 1910 und 3,74 Millionen im Jahr 1925) und der Gesamtzahl der Fahrzeugzulassungen (von 8.000 im Jahr 1900 auf 459.000 im Jahr 1910 und 17,5 Millionen im Jahr 1925). Der Artikel „The History of Electric Cars” nennt auch die vier Hauptgründe für den Rückgang der Elektroautos zu Beginn des 20. Jahrhunderts: verbesserte Straßen, die ICEVs mit großer Reichweite begünstigten; Ölfunde in Texas, die zu niedrigeren Benzinpreisen führten; die Erfindung des Elektrostarters, der das Starten von ICEVs mit einer Handkurbel überflüssig machte; und die Massenproduktion von ICEVs, die deren Kosten drastisch senkte. Die Änderung der Ölsteuerpolitik von 1926 ist in dieser Liste nicht enthalten. Tatsächlich wird sie in der Studie nicht einmal erwähnt.

Die Politik der US-Bundesregierung kann manchmal ein wichtiger Treiber für die Entwicklung des Energiemarktes sein, wie dies wohl beim Price-Anderson-Gesetz der Fall war, das die kommerzielle Nutzung der Kernenergie ermöglichte, sowie beim Erdgasgesetz und den Vorschriften zum Anteil erneuerbarer Kraftstoffe. Allerdings zeigt das Schicksal der Elektrofahrzeuge vor einem Jahrhundert, dass diese Politik nicht immer einen wesentlichen Einfluss auf die Marktentwicklung hat. Die heutigen Befürworter von Elektrofahrzeugen können aus dieser Tatsache Trost schöpfen, da moderne Elektrofahrzeuge viele positive Eigenschaften aufweisen, die ein weiteres Wachstum des Marktanteils von Elektrofahrzeugen und vielleicht sogar eine zukünftige Marktführerschaft begünstigen dürften, selbst wenn einige politische Anreize kürzlich weggefallen sind.

3. David Wallace-Wells‘ Artikel vom 23. April 2025 mit dem Titel „The World Seems to Be Surrendering to Climate Change“ [etwa: Die Welt scheint sich dem Klimawandel zu ergeben] (anschließend zweimal überarbeitet).

Wallace-Wells erörtert den Rückgang des kulturellen und politischen Impulses für ehrgeizige Maßnahmen zur Begrenzung der Treibhausgas-Emissionen in den letzten Jahren und stellt fest, dass dieser Trend sowohl auf nationaler als auch auf globaler Ebene zu beobachten ist.

Abschließend stellt der Artikel fest, dass Klimaschützer, wenn sie sich mit dem Verlust des kulturellen und politischen Impulses auseinandersetzen, oft auf die jedes Jahr aufgestellten grünen Rekorde verweisen. Nach einer Überprüfung einiger dieser jüngsten Rekorde und dem Hinweis, dass ein erstaunlicher Teil des globalen Fortschritts in China stattfindet, stellt Wallace-Wells fest, dass der Fortschritt in den USA ähnlich atemberaubend sein kann. An dieser Stelle werden die Probleme sowohl in den zitierten Daten als auch im Korrekturprozess der NYT deutlich.

Bei der Beschreibung der Fortschritte der USA im Bereich der grünen Energie hieß es in der ursprünglichen Fassung des Artikels, dass die Stromerzeugung aus erneuerbaren Energien im Jahr 2024 die aus fossilen Treibstoffen übersteigen würde, was leider falsch ist. Aus den auf der Website der US-Energieinformationsbehörde (EIA) und vielen anderen Quellen mit frei verfügbaren Daten geht hervor, dass erneuerbare Energien im Jahr 2024 20 % der Stromerzeugung in den USA ausmachten, während fossiler Treibstoff 60 % beitrug.

Die NYT veröffentlichte zwar eine Korrektur, aber in der ersten Korrektur vom 25. April wurde behauptet, dass die monatlich aus erneuerbaren Energien erzeugte Strommenge in den USA im März erstmals die Menge aus fossilem Treibstoff überstieg. Auch diese aktualisierte Behauptung war falsch, da die Stromerzeugung aus fossilem Treibstoff sowohl im März 2024 als auch im März 2025 die Stromerzeugung aus erneuerbaren Energien deutlich überstieg. Als die Zeitung auf diesen neuen Fehler aufmerksam gemacht wurde, veröffentlichte sie eine weitere Korrektur, ebenfalls datiert auf den 25. April, die nun auf ihrer Website zu finden ist. Die endgültige Korrektur verfolgt einen Ansatz, der für die Leser irreführend ist, aber gleichzeitig aufschlussreich darüber, wie sehr sich die NYT bemüht, klare, substanzielle Korrekturen zu vermeiden, die ihre Autoren in Verlegenheit bringen oder Zweifel an ihren bevorzugten Narrativen aufkommen lassen könnten. Anstatt einfach den ursprünglichen fehlerhaften Punkt oder dessen fehlerhafte Ersetzung zu streichen, die für den Schwerpunkt des Artikels überhaupt nicht von zentraler Bedeutung sind, formuliert die zweite Korrektur ihn neu als Vergleich zwischen der Stromerzeugung aus sauberen Quellen und fossilen Treibstoffen. Der Trick dabei ist, dass „saubere Quellen” offensichtlich auch die Kernenergie umfasst, die etwa 20 % der Stromerzeugung in den USA ausmacht, um den Vergleich schließlich gültig zu machen. Allerdings wird die Kernenergie weder im Artikel noch in der abschließenden Korrekturnotiz erwähnt, was sogar den Eindruck erweckt, dass auch der ursprüngliche Artikel die Stromerzeugung aus sauberen Quellen und fossilen Treibstoffen verglichen habe. Die Verlierer sind hier die allgemeinen Leser, die wahrscheinlich davon ausgehen, dass „saubere Quellen” einfach ein Synonym für „erneuerbare Energien” ist, und nie erfahren, dass sie schwerwiegend in die Irre geführt wurden.

Schlussfolgerung

Leider könnte ich noch weitermachen – die drei oben besprochenen Artikel sind nur Beispiele für ein größeres Problem, das schon seit einiger Zeit offensichtlich ist.

Die NYT, die über einen sehr großen Stab von Mitarbeitern verfügt, die sich auf Energie- und Klimafragen spezialisiert haben, darunter auch die Autoren dieser Artikel, muss sich verbessern. Bearak sollte in der Lage sein, den weltweit größten Produzenten fossiler Brennstoffe und die anhaltende Rolle der Kohle als dominierende Energiequelle in China richtig zu identifizieren. Penn sollte erkennen können, dass die Geschichte die Vorstellung nicht stützt, dass sich die Entwicklungen bei Elektrofahrzeugen heute wiederholen oder auch nur annähernd mit der Geschichte der Elektrofahrzeuge vor einem Jahrhundert übereinstimmen. Die Versuchung, eine ordentliche Moralgeschichte zu erfinden oder die zweifelhafte Politik der Ölverknappung wieder aufzunehmen, die Mitte der 1920er Jahre eingeführt wurde und der Ölindustrie einen enormen Gewinn bescherte, gibt kein Recht, eine eindeutig ungültige Parallele zu ziehen. Auch die Redakteure, die diese Artikel betreuen, tragen Verantwortung.

Selbst wenn sich sachliche Fehler in Artikel einschleichen, kann eine solide und gut umgesetzte Korrekturpolitik den Schaden erheblich mindern. Die erklärte Korrekturpolitik der NYT, dass „wir Fehler, sobald wir davon erfahren, mit einer Korrektur anerkennen“, ist solide, aber ihre derzeitige Umsetzung ist katastrophal. Die sogenannte „Grey Lady“ des Journalismus‘ sollte sich schämen. Die Zeitung korrigiert schnell Fehler, die für die meisten Leser von untergeordneter Bedeutung sind, wie falsch geschriebene Namen, falsche Berufsbezeichnungen oder ungenaue Veranstaltungsdaten. Wenn jedoch wesentliche sachliche Fehler festgestellt und der Zeitung gemeldet werden, wie in den oben genannten Beispielen, reagiert sie entweder mit Ausflüchten, wie im Fall des Bearak-Artikels, oder mit Verschleierung und Ausweichen, wie bei ihrer Korrektur des Vergleichs zwischen der Erzeugung erneuerbarer Energien und des fossilierten Treibstoffs im Wallace-Wells-Artikel. Im letzteren Fall trifft die allgemeine Beobachtung zu, dass die Vertuschung oft schlimmer ist als das Vergehen selbst.

Die NYT muss sich stets vor Augen halten, dass der Zweck von Korrekturen darin besteht, den Leser über die tatsächlichen Fakten zu informieren, und nicht darin, ihre Autoren vor Blamagen zu schützen oder bevorzugte Darstellungen zu verteidigen, die einer genauen Prüfung nicht standhalten.

Howard Gruenspecht served in senior White House positions in the Carter and Bush 41 Administrations, in Deputy Assistant Secretary and Office Director roles in the Department of Energy policy office during the Bush 41 and Clinton Administrations, and as the Deputy Administrator (top non-political position) of the U.S. Energy Information Administration, which provides independent energy data and analysis, during the Bush 43, Obama, and Trump 45 Administrations. 

This article was originally published by RealClearEnergy and made available via RealClearWire.

Link: https://climaterealism.com/2025/08/the-new-york-times-publishes-false-energy-and-climate-information-and-refuses-to-correct-its-errors/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Warum eigentlich habe ich bei der gesamten Übersetzung dieses Beitrags an die Zeitungen hierzulande gedacht – allen voran die „Süddeutsche Zeitung“?

 




Die CO₂-Regulierung hat zu globalen Ungleichgewichten geführt

Duggan Flanakin

Der weltweite Vorstoß zur Regulierung von Kohlendioxid als Schadstoff, der auf der fragwürdigen Prämisse beruht, dass steigende CO₂-Konzentrationen in der Atmosphäre eine globale Klimakatastrophe auszulösen drohen, hat die Energie- und Wirtschaftsentwicklung in den Vereinigten Staaten, Europa und Afrika stark beeinträchtigt, während sogenannte „Schwellenländer“ wie China und Indien quasi einen Freifahrtschein erhielten.

Die Europäer und Amerikaner beginnen gerade erst, aus dem tiefen Schlummer zu erwachen, der zu einer chinesischen Übernahme der weltweiten Automobilverkäufe führen sollte dank ihrer preisgünstigen (subventionierten) Elektrofahrzeuge, die von in China hergestellten Batterien mit in China verarbeitetem Lithium und anderen wichtigen Mineralien angetrieben werden. Diese hatten sie jahrzehntelang gehortet, während der Westen schlief.

Im Gegensatz dazu hatte die Entscheidung der westlichen Mächte, China und Indien als „Entwicklungsländer“ zu betrachten, die von den frühen Emissionsbeschränkungen ausgenommen sind, gefährliche geopolitische Auswirkungen – und ermöglichte es Russland sogar, die westlichen Volkswirtschaften weiter zu stören.

Im Juli 2025 gab es in China 1.195 Kohlekraftwerke, in Indien 290 – weit mehr als in den Vereinigten Staaten oder irgendeinem anderen Land – und die meisten davon wurden im 21. Jahrhundert errichtet, während fast alle Kohlekraftwerke in den USA und Europa viel älter sind.

Die chinesische Kohleproduktion und der chinesische Kohleverbrauch beliefen sich im Jahr 2024 auf etwa 4,78 Milliarden Tonnen und damit auf mehr als die Hälfte des weltweiten Gesamtvolumens, wobei Indien (mit 1,09 Milliarden Tonnen) und Indonesien (mit 836 Millionen Tonnen) an zweiter und dritter Stelle lagen. Australien und die USA kommen jeweils auf etwa 464 Millionen Tonnen, und Russland liegt mit 427 Millionen Tonnen nicht weit dahinter.

Die Absurdität der Bevorzugung Chinas – einer Nation mit einem riesigen Militärapparat, die ihre Vorteile in Bezug auf natürliche Ressourcen und erneuerbare Energien nutzt, um ihre globale Vormachtstellung auszubauen – gegenüber den von Armut geplagten Nationen Afrikas ist nicht nur grausam und ungewöhnlich. Es ist selbstmörderisch für Afrika und extrem kostspielig für die USA, die sich an vorderster Front gegen die chinesische Expansion wehren.

Das Konzept der Schadstoffkriterien wurde in die 1990 vorgenommenen Änderungen des Clean Air Act von 1970 aufgenommen. Diese Schadstoffe waren Feinstaub, Ozon, Schwefeldioxid, Stickoxide, Kohlenmonoxid und Blei. Kohlendioxid – der so genannte Schadstoff, der 2009 vom Obersten Gerichtshof hinzugefügt wurde – wird in dem Gesetz nicht erwähnt.

Bis 2009 hatte das Gesetz über saubere Luft (Clean Air Act) den Ausstoß von Kriterienschadstoffen aus Kohlekraftwerken recht erfolgreich reduziert – zu erheblichen Kosten für die Betreiber. Die Schwefeldioxid-Emissionen von Kraftwerken sanken zwischen 1990 und 2009 von 16 Millionen Tonnen pro Jahr auf nur noch 6 Millionen Tonnen pro Jahr und bis 2019 auf etwa 1 Million Tonnen pro Jahr.

Diese Verringerung erforderte von den Stromversorgern die Umstellung auf schwefelärmere Kohle, den Einbau von Wäschern zur Beseitigung von Schwefeldioxid-Emissionen und die Suche nach anderen Möglichkeiten zur Einhaltung der Vorschriften (einschließlich der Abschaltung weniger rentabler Anlagen) – oder einfach die Umstellung auf eine andere Brennstoffquelle.

Auch die Smog verursachenden Stickstoffoxid-Emissionen aus Kohlekraftwerken während der „Ozonsaison“ gingen von 2,75 Millionen Tonnen im Jahr 1990 auf 800.000 tpy im Jahr 2009 und auf unter 200.000 tpy im Jahr 2019 zurück. Die gesamten Stickstoffdioxid-Emissionen fielen von 6,5 Millionen Tonnen im Jahr 1990 auf 2 Millionen Tonnen im Jahr 2009 und auf nur 400.000 Tonnen im Jahr 2019. Kurz gesagt, die Nation war auf dem besten Weg, den Kampf um die Kontrolle der Kriterienschadstoffe bis 2009 zu gewinnen – und diese Erfolge sind heute fast vollständig.

Die Gesamtemissionen der sechs Kriterienschadstoffe gingen zwischen 1990 und 2005 um 42 Prozent zurück und sanken auch bei immer strengeren Normen weiter. Aber bis dahin hatte die EPA „entdeckt“, dass die Kohlendioxid-Regulierung ihren Bürokratien neues Leben einhauchen könnte – und eine neue Aufgabe, um ihre Bürokraten zu beschäftigen.

Die Einschüchterung ganzer Nationen – ganz zu schweigen von Industriegiganten und Haushalten der Mittelklasse – basierte auf der wackeligen, sich ständig ändernden „Wissenschaft“ des ‚Klimawandels‘ und wurde durch die Manipulation computergenerierter „Schreckensszenarien“ noch verstärkt.

Doch 2015 ließ Christiana Figueres, Exekutivsekretärin der UN-Klimarahmenkonvention, die Katze aus dem Sack. Auf einer Pressekonferenz in Brüssel sagte Figueres: „Dies ist das erste Mal in der Geschichte der Menschheit, dass wir uns die Aufgabe stellen, das seit mindestens 150 Jahren, seit der industriellen Revolution, herrschende wirtschaftliche Entwicklungsmodell innerhalb eines bestimmten Zeitraums absichtlich zu ändern.“

Kurzum, das Ziel von Figueres und ganzer Kader von Umweltaktivisten auf höchster Ebene war nicht, die Welt vor einer ökologischen Katastrophe zu retten. Es ging darum, das kapitalistische System zu zerstören, das eine moderne Gesellschaft aufgebaut hatte, die Milliarden von Menschen aus Schufterei und Armut befreit hat und selbst heute noch den Armen der Welt Hoffnung gibt.

Natürlich fanden diejenigen, die den „Krieg gegen den Klimawandel“ erklärten (wie Al Gore und John Kerry in den Vereinigten Staaten), Mittel und Wege, um ihre eigenen Taschen zu füllen und ihren Ruf zu verbessern.

Diese Lobeshymnen auf den Anstand und die Tugendhaftigkeit ignorierten die nackte Realität, dass ihr kurzsichtiger Ansatz zur „Rettung des Planeten“ China in die Lage versetzte, die Welt mit Kohlendioxid-„Emissionen“ von insgesamt 13,26 Milliarden Tonnen oder 34 Prozent der weltweiten Gesamtmenge anzuführen.

Im Gegensatz dazu war Afrika mit 17 Prozent der Weltbevölkerung im Jahr 2021 nur für 4 Prozent der globalen Gesamtemissionen verantwortlich. Dieser Anteil konnte vor allem deshalb nicht wachsen, weil den Afrikanern systematisch die Finanzierung von Kraftwerken für fossile Brennstoffe verweigert wurde – und das auf einem Kontinent, auf dem mindestens 600 Millionen Menschen keinen Zugang zu Strom haben.

Allein diese Zahlen bestätigen, dass das Ziel der UN und anderer „Klima-Eiferer“ nie die Reduzierung der weltweiten Kohlendioxidemissionen war, sondern die Lähmung der westlichen Industrie. Die massiven Bemühungen, die Entwicklung afrikanischer Energie zu unterdrücken (oder afrikanische Nationen zu zwingen, sich so zu entwickeln, dass europäische Industrien durch den Kauf von „Kohlenstoffgutschriften“ davon profitieren), waren bestenfalls ein vorübergehendes Ablenkungsmanöver, um diese Industrien von dem längerfristigen Ziel abzulenken – der globalen Kontrolle.

Seltsamerweise sind die gleichen Unternehmen, die einst die Kampagnen für „saubere Energie“ im Namen der Rettung des Planeten unterstützten, heute verzweifelt auf der Suche nach neuen Quellen für zuverlässige, erschwingliche Energie. Rechenzentren, Blockchains und andere Spitzenstromverbraucher hoffen, dass ein Wiederaufleben der Kernenergie in Verbindung mit Kraftwerken vor Ort ihre Maschinen am Laufen halten wird, auch wenn der Wettbewerb um Kühlwasser mit dem Durst der wachsenden Stadtbevölkerung kollidiert.

Einem aktuellen Bericht der Energy Information Administration zufolge steigt der Stromverbrauch in den USA nach mehr als einem Jahrzehnt der Stagnation wieder. Wie erwartet, ist der Anstieg vor allem auf Rechenzentren und Produktionsbetriebe zurückzuführen. Dieser Nachfrageanstieg hat den Ausbau der Stromerzeugungskapazitäten und der Stromspeicherung vorangetrieben (die bestenfalls eine sich entwickelnde neue Technologie ist, die noch einen langen Weg vor sich hat).

Die weltweite Nachfrage ist dramatisch gestiegen, auch wenn viele Länder immer noch mit den von der UNO auferlegten Beschränkungen ihrer Fähigkeit zu kämpfen haben, diese Nachfrage zu decken. Der Vorstoß der Biden-Ära, alles in den USA mit Solar-, Wind- und geothermisch erzeugtem Strom zu versorgen, hat die Engpässe bei der Stromerzeugung noch vergrößert – und die Stromkosten steigen, vor allem in denjenigen US-Bundesstaaten, die einen Kotau vor der „Klimakatastrophen“-Hysterie gemacht haben.

In dem Maße, in dem die afrikanischen Staaten die neokolonialistischen Zwänge abschütteln und ihre eigenen Mittel für den Ausbau ihrer Stromnetze verwenden, und in dem Maße, in dem die USA und in geringerem Maße auch viele europäische Staaten zur energetischen Vernunft zurückkehren (und in dem Maße, in dem mehr Unternehmen ihre Produktion von China weg verlagern), könnten sich die globalen Ungleichgewichte allmählich verringern – aber es ist schon viel Schaden angerichtet worden, und gleiche Wettbewerbsbedingungen sind noch in weiter Ferne.

Link: https://www.cfact.org/2025/08/20/regulating-CO₂-has-led-to-global-imbalances/

Übersetzt von Christian Freuer für das EIKE

 




Neue Meldung: Weltweit keine Beschleunigung des Meeresspiegel-Anstiegs festgestellt

CLINTEL Foundation

Eine neue begutachtete Studie, die im Journal of Marine Science and Engineering veröffentlicht wurde, stellt eine zentrale Behauptung der Klimawissenschaft infrage: nämlich dass sich der globale Meeresspiegelanstieg beschleunigt. Eine Analyse von mehr als 200 Langzeitaufzeichnungen von Pegelmessern zeigt keine Anzeichen für eine solche Beschleunigung, während die Modelle des IPCC den lokalen Meeresspiegelanstieg systematisch überschätzen.

Eine Analyse von mehr als 200 Gezeitenstationen weltweit zeigt, dass es keine Anzeichen für eine globale Beschleunigung des Meeresspiegelanstiegs gibt. Zu diesem überraschenden Ergebnis kommt die Studie „A Global Perspective on Local Sea Level Changes” (Eine globale Perspektive auf lokale Veränderungen des Meeresspiegels), diese Woche veröffentlicht im Journal of Marine Science and Engineering. Es handelt sich um eine einzigartige Studie der beiden niederländischen Forscher Hessel Voortman und Rob de Vos.

Der Artikel zeigt auch, dass die IPCC-Modelle den lokalen Meeresspiegel-Anstieg im Jahr 2020 deutlich überschätzen. Diese neue Veröffentlichung ist eine Fortsetzung eines früheren Artikels aus dem Jahr 2023, in dem der Erstautor Hessel Voortman nachwies, dass sich der Meeresspiegel-Anstieg entlang der niederländischen Küste nicht beschleunigte.

Diese beiden Absätze sind der Anfang einer Pressemitteilung, die am 29. August vom Ingenieur Hessel Voortman verschickt worden ist. Voortman hat auf der Clintel-Konferenz im letzten Jahr über seine Forschung zum Meeresspiegel gesprochen. Zusammen mit Rob de Vos (Blogger bei klimaatgek.nl) hat er jetzt eine wissenschaftliche Arbeit veröffentlicht, in der sie zeigen, dass der Meeresspiegel-Anstieg weltweit nicht schneller erfolgt. Dies ist ein spektakuläres Ergebnis, da Klimawissenschaftler in den letzten Jahren immer wieder vor einem beschleunigten Meeresspiegel-Anstieg gewarnt haben. Es bleibt abzuwarten, ob diese Arbeit in den Medien ebenso viel Beachtung finden wird wie die Modellrechnungen der Universität Utrecht Anfang dieser Woche, die als Grundlage für Behauptungen über die Stagnation der Atlantischen Meridionalen Umwälzströmung (Atlantic Meridional Overturning Circulation AMOC) dienten.

Nachfolgend der Artikel, den Rob de Vos über die von ihm und Voortman veröffentlichte Arbeit geschrieben hat:

Das Klima ist ein sensibles Thema. Seitdem sich der Weltklimarat (IPCC) das Thema „Klimawandel” zu eigen gemacht hat, scheint das, was einst eine Hypothese war, nun eine unumstößliche „Tatsache” zu sein: Das Klima verändert sich, CO₂ ist der Übeltäter, und die Menschen sind schuld daran. Die Tatsache, dass alles etwas komplizierter ist und dass ein Konsens (wenn es ihn überhaupt gibt) in der Wissenschaft bedeutungslos ist, setzt sich langsam durch. Das ist schwierig, weil die gegnerischen Kräfte stark sind (einseitige wissenschaftliche Forschung, politischer Druck, ständige einseitige Berichterstattung usw.). Seit dem Ende der letzten Eiszeit (vor etwa 15.000 Jahren) ist der Meeresspiegel um etwa 120 Meter gestiegen. Es ist noch gar nicht so lange her, dass „wir” England zu Fuß erreichen konnten (über den heutigen Grund der Nordsee). Ein dicker Mantel war wünschenswert, denn am Ende der letzten Eiszeit, der Weichsel-Kaltzeit, herrschte in unserer Region ein Klima wie in der Tundra.

Abb. 2: Quelle: Wikipedia

Der Temperaturanstieg vor etwa 15.000 Jahren führte zu einem Anstieg des Meeresspiegels, zunächst rapide, dann langsamer, wie in Abbildung 2 dargestellt. Die Grafik basiert auf Daten aus drei Veröffentlichungen von Fleming et al. 1998 und Milne et al. 2005. Die Hauptursachen für diesen Meeresspiegel-Anstieg waren das Abschmelzen zweier Eiskappen in Skandinavien und Nordamerika sowie die Ausdehnung des Meerwassers infolge der Erwärmung.

In der heutigen Zeit steigt der Meeresspiegel weiterhin, zwischen 1901 und 2022 um durchschnittlich 1,7 ± 0,4 mm/Jahr (Deltares). In den letzten Jahren gab es Berichte über eine Beschleunigung des Meeresspiegel-Anstiegs aufgrund des verstärkten Treibhauseffekts. In seinem jüngsten Bericht aus dem Jahr 2021 stellte der Weltklimarat (IPCC) fest, dass der Meeresspiegel seit 1900 mit zunehmender Geschwindigkeit ansteigt, d. h., dass es weltweit zu einer Beschleunigung des Meeresspiegel-Anstiegs gekommen ist.

Abb. 3, Quelle: KNMI

Auf dieser Grundlage wurden Meeresspiegelmodelle entwickelt, die für das Jahr 2100 recht extreme Meeresspiegelwerte simulierten. Abbildung 3 zeigt die Prognose des KNMI für den Meeresspiegel an der niederländischen Küste bis zum Jahr 2100. Nach Angaben des KNMI könnte dieser bis 2100 um mehr als 120 cm steigen (im Vergleich zum Durchschnitt der Jahre 1995–2014). In einem Artikel aus dem Jahr 2024 habe ich für die fünf niederländischen Küstenstationen berechnet, dass der relative Meeresspiegel-Anstieg von 1900 bis 2022 1,92 mm/Jahr betrug. Zieht man davon die durchschnittliche Landabsenkung entlang der Küste ab, ergibt sich ein absoluter Meeresspiegel-Anstieg an der niederländischen Küste von 1,45 mm/Jahr.

Abbildung 3 deutet darauf hin, dass es bereits am Ende der gemessenen (blauen) Reihe zu einer Beschleunigung kommt. Hessel Voortman hat in einer früheren Veröffentlichung aus dem Jahr 2023 gezeigt, dass dies nicht zutrifft. Was jedoch für niederländische Gezeitenstationen gilt, muss nicht unbedingt auch für andere Stationen weltweit gelten. Aus diesem Grund haben Hessel Voortman und ich beschlossen, eine neue Studie zu Gezeitenstationen weltweit durchzuführen. Das Ergebnis ist ein Artikel, der diese Woche veröffentlicht worden ist:

Abb4, Quelle: MDPI 

Die Studie verwendete unter anderem Meeresspiegeldaten von PSMSL. Von den mehr als 1.500 Stationen erfüllten 204 die Kriterien. Diese Kriterien waren: Zeitreihen von mindestens 60 Jahren, mindestens 80 % der Daten vollständig und kontinuierlich bis mindestens 2015.

Abb. 5, Quelle: Voortman et al 2025

Abbildung 5 zeigt, dass diese Mindestreihenlänge von 60 Jahren wichtig ist. Die durchgezogene rote Wellenlinie zeigt die Schwankung, die sich aus dem Zyklus von 18,61 Jahren ergibt. Wenn man einen Trend von einem Tiefpunkt zu einem Höchstpunkt misst, gibt es immer einen höheren Trend. Allerdings beeinflussen auch andere langfristige Schwankungen der Höhe des Meeresspiegels den Trend, wie ich kürzlich in einem Artikel gezeigt habe:

Abb. 6, Daten: PSMSL

Abb. 7, Quelle: Klimaatgek

Die blauen Punkte stellen den gleitenden 19-Jahres-Trend dar, d. h. den Trend von 1900–1918, 1901–1919 usw. bis 2005–2023. Die Grafik zeigt deutlich, dass die Verwendung langfristiger Gezeitenreihen absolut unerlässlich ist.

Von den mehr als 1.500 Gezeitenstationen in der PSMSL-Datenbank blieben aufgrund der verwendeten Kriterien 204 Stationen übrig. Für diese Zeitreihen haben wir einen statistischen Test verwendet, um festzustellen, ob eine quadratische Linie (d. h. mit Beschleunigung) die Messungen besser beschreibt als eine gerade Linie (ohne Beschleunigung). Für die überwiegende Mehrheit der Stationen (genauer gesagt 195) war der Unterschied zwischen der quadratischen und der linearen Linie nicht signifikant. Für 195 Stationen ist die Beschleunigung statistisch nicht nachweisbar.

Abb. 8, Quelle: Voortman et al 2025

Vierundzwanzig Stationen zeigten ein abnormales Muster, wobei neun Stationen eine Beschleunigung und die übrigen 15 Stationen eine bemerkenswert steile Neigung ohne Beschleunigung aufwiesen. In der letzteren Kategorie waren GIA und kurzfristige lokale Anstiege die Hauptursachen. GIA (Glacial Isostatic Adjustment) ist der langfristige Prozess, bei dem die Erdkruste und der Erdmantel als Reaktion auf die verringerte Masse der geschmolzenen Eiskappen aus der letzten Eiszeit ein neues Gleichgewicht suchen. Diese Suche nach einem neuen Gleichgewicht bedeutet, dass sich die Erdoberfläche hebt, was sich auf lokale Gezeitenmessungen auswirkt.

Abb. 9, Quelle: Voortman et al 2025

Allerdings zeigten neun Stationen eine Beschleunigung des Meeresspiegelanstiegs. Diese Stationen befinden sich meist in der Nähe von Stationen, die keine Beschleunigung des Meeresspiegelanstiegs zeigen, so dass es unwahrscheinlich ist, dass ein globales Phänomen wie die durch CO₂ verursachte globale Erwärmung die Ursache dafür ist. Wir haben jede dieser neun Stationen untersucht und festgestellt, dass fast immer lokale Faktoren wie Erdbeben (Japan), Bodensenkungen aufgrund von Grundwasserentnahme oder massive Bautätigkeit (wie in Bangkok oder Mumbai) eine Rolle bei der Beschleunigung spielen. Abbildung 9 zeigt die extreme Veränderung des Meeresspiegels an der japanischen Station Ayukawa, die durch das schwere Tohoku-Seebeben im Jahr 2011 verursacht worden ist. Nach dem verheerenden Tsunami, der darauf folgte, lag der Meeresspiegel an der japanischen Station 80 cm höher als zuvor. Seit 2011 sinkt der Meeresspiegel in Ayukawa statt zu steigen (wie es bis 2011 der Fall war).

In seinem jüngsten Bericht aus dem Jahr 2021 veröffentlichte der IPCC Prognosen zum künftigen Meeresspiegel für viele Orte auf der ganzen Welt. Dies war eine lobenswerte Ergänzung zu früheren Berichten, die nur globale Aussagen zum Meeresspiegel enthielten. Schließlich sind lokale Informationen für praktische Zwecke (Schutz vor Hochwasser) von entscheidender Bedeutung.

Abb. 10, Quelle: Voortman et al 2025

Wir haben den simulierten Meeresspiegelanstieg in den vom IPCC für das Jahr 2020 verwendeten Klimamodellen mit dem gemessenen Meeresspiegelanstieg verglichen. Es hat sich herausgestellt, dass die vom IPCC simulierten Meeresspiegelwerte systematisch zu hoch sind, im Durchschnitt etwa 2 mm/Jahr höher als die gemessenen Werte, mit großen regionalen Unterschieden (Abbildung 10).

Fazit: Unsere Analyse von mehr als 200 Pegelmessstationen weltweit zeigt, dass es keine globale Beschleunigung des Meeresspiegel-Anstiegs gibt. Die Untersuchung zeigt auch, dass die IPCC-Modelle den lokalen Meeresspiegel-Anstieg im Jahr 2020 überschätzen.

Link: https://clintel.org/breaking-no-acceleration-in-sea-level-rise-detected-worldwide/




„Grüne“ Jobs machen uns ärmer

David Turver, THE DAILY SCEPTIC

Vor kurzem habe ich einen Artikel veröffentlicht, der eine Aktualisierung der Kosten für grüne Arbeitsplätze enthielt. Inzwischen hat das ONS jedoch neuere Daten veröffentlicht. Ed Miliband [Energieminister UK; A. d. Übers.] brüstet sich immer noch mit der Schaffung von guten Arbeitsplätzen im Bereich der sauberen erneuerbaren Energien, daher lohnt es sich, von Zeit zu Zeit nachzuschauen, wie viel diese Arbeitsplätze den Rest von uns tatsächlich kosten. Die detaillierten Ergebnisse der neueren Daten rechtfertigen einen eigenen Artikel.

Wie viele grüne Jobs gibt es?

Von Zeit zu Zeit veröffentlicht das ONS Daten über die Zahl der grünen Arbeitsplätze in der Wirtschaft. Die jüngsten Daten wurden am 18. Juli 2025 veröffentlicht und enthalten Daten für das Jahr 2023.

Die Gesamtzahl der grünen Arbeitsplätze im Jahr 2023 soll sich von 513.300 im Jahr 2015 auf 690.900 erhöhen. Davon waren 45.200 Menschen in Umwelt-Wohltätigkeitsorganisationen beschäftigt, 17.700 in der Umweltberatung und unglaubliche 19.400 in „leitenden Tätigkeiten von Regierungsstellen“. Die Lanyard-Klasse in Aktion.

Im Sektor der erneuerbaren Energien belief sich die Zahl der Arbeitsplätze in Vollzeitäquivalenten in UK für Offshore-Windkraft, Onshore-Windkraft und Solarenergie auf 16.400; 5.900 bzw. 20.300. Wie aus Abbildung 1 hervorgeht, steigt die Zahl der Arbeitsplätze in diesen Sektoren bis 2023 erheblich:

Dieser Anstieg ist darauf zurückzuführen, dass sich die Zahl der Arbeitsplätze im Bereich der Solarenergie mehr als verdoppelt hat und gleichzeitig die Zahl der Arbeitsplätze im Bereich der Offshore-Windenergie erheblich gestiegen ist. Natürlich bedeutet ein solch erheblicher Anstieg der Arbeitsplätze im Bereich der erneuerbaren Energien, dass der Energiesektor weniger produktiv wird, und natürlich wird die erzeugte Energie wahrscheinlich teurer sein.

Wie viele Subventionen erhalten Wind- und Solarenergie?

There are three subsidy regimes for renewable energy in the UK. These are Feed-in-Tariffs (FiTs), Renewables Obligation Certificates (ROCs) and Contracts for Difference (CfDs).

In UK gibt es drei Subventionsregelungen für erneuerbare Energien. Dabei handelt es sich um Einspeisetarife (FiTs), Renewables Obligation Certificates (ROCs) und Contracts for Difference (CfDs).

Jedes Jahr veröffentlicht Ofgem den FiT-Bericht und einen Datensatz, der die Gesamtmenge des erzeugten Stroms, die Gesamtzahlungen und die installierte Kapazität nach Technologien aufschlüsselt. Im Jahr 14 der Regelung, das von April 2023 bis März 2024 läuft, beliefen sich die Gesamtzahlungen im Rahmen der FiT-Regelung auf 1,840 Milliarden Pfund. Wenn wir diese Zahlungen nach der installierten Kapazität aufteilen, stellen wir fest, dass die Solarenergie 1.460 Millionen Pfund an FiT-Zahlungen erhielt und die Windenergie (unter der Annahme, dass es sich um Onshore-Anlagen handelt) 218 Millionen Pfund.

Einzelheiten zu den ausgegebenen ROCs sind auf dem Ofgem-Portal zu finden. Der Wert der ROCs, die sich auf den Produktionszeitraum 2023/24 beziehen, beträgt 2.618 Mio. £ für Offshore-Windkraft, 1.555 Mio. £ für Onshore-Windkraft und 561 Mio. £ für Solarenergie. Die Low Carbon Contracts Company veröffentlicht eine Datenbank der CfD-Zahlungen, die auch nach Technologien aufgeteilt werden können. Im Zeitraum 2023/24 sind die Subventionen gestiegen, weil die Gaspreise nach der Energiekrise gesunken sind. Offshore-Windkraft erhielt 2023/24 1,721 Millionen Pfund. Da die Ausübungspreise für Onshore-Windkraft und Solarenergie tendenziell niedriger sind als für Offshore-Windkraft, erhielten diese beiden Technologien 55 Mio. GBP bzw. 0,5 Mio. GBP.

Die Gesamtsubventionen für diese drei Sektoren belaufen sich im Jahr 2023/24 auf rund 8,1 Milliarden Pfund. Wir können davon ausgehen, dass die Subventionen im laufenden Jahr höher ausfallen werden, da alle Subventionsregelungen indexgebunden sind, was den Wert der ROCs und FiT-Zahlungen in die Höhe treibt. Auch die CfD-Ausgangspreise wurden nach oben indexiert, und da der Gaspreis gesunken ist, sind auch die Referenzpreise gefallen, was zu einem weiteren Anstieg der Subventionen führt.

Was kosten grüne Jobs?

Wenn wir all dies zusammennehmen, können wir die Gesamtsubventionen für diese Technologien addieren und sie mit der Zahl der Arbeitsplätze in jedem Sektor vergleichen:

Es zeigt sich, dass jeder Offshore-Windjob 264.000 £ an Subventionen kostet, jeder Onshore-Windjob über 309.000 £ und jeder Solarjob fast 100.000 £. Der Durchschnitt für alle drei Sektoren liegt bei über 192.000 Pfund pro Arbeitsplatz.

Denken Sie daran, dass es sich hierbei nicht um eine einmalige Zahlung handelt, um eine neue Branche in Gang zu bringen, sondern um eine laufende jährliche Zahlung. Das ONS veröffentlicht keine Schätzung der Gehälter in diesem Sektor, aber die jährlichen Subventionen sind weit höher als jede vernünftige Schätzung der in diesem Sektor gezahlten Durchschnittsgehälter.

Schlussfolgerungen

Es ist völlig klar, dass alles Gerede von einer „grünen Revolution“ nur ein Hirngespinst ist. Diese grünen Arbeitsplätze sind nur eine Fassade, Potemkinsche Arbeitsplätze, die Politikern und Entscheidungsträgern einen guten Klang verleihen und ihnen ein gutes Gefühl vermitteln. Die Vorstellung, dass wir zu „grünem Wohlstand“ gelangen können, indem wir jeden Arbeitsplatz mit 192.000 Pfund pro Jahr subventionieren, ist schlichtweg absurd. Diese Arbeitsplätze sind eine Belastung für die übrige Wirtschaft und wirken wie eine Energiesteuer. Wir müssen diese wirtschaftliche Phantasterei beenden.

David Turver writes the Eigen Values Substack page, where this article first appeared.

Link: https://wattsupwiththat.com/2025/08/25/green-jobs-make-us-poorer/

Übersetzt von Christian Freuer für das EIKE