Schock-Meldung von der NASA: Fast die gesamte jüngste globale Erwärmung wird durch grüne Politik zur Luftreinhaltung verursacht

Chris Morrison, DAILY SCEPTIC

Die Welt der Klimawissenschaft steht unter Schock, nachdem ein Team hochrangiger NASA-Wissenschaftler zu dem außergewöhnlichen Ergebnis gekommen ist, dass der größte Teil des jüngsten globalen Temperaturanstiegs auf die Einführung drakonischer Vorschriften für den Treibstofftransport zurückzuführen ist, mit denen die globale Erwärmung verhindert werden soll. Die Fantasiewelt von Net Zero ist natürlich voller unbeabsichtigter Folgen, aber es wird behauptet, dass die abrupte Senkung der Schwefeldioxid-Emissionen im internationalen Schiffsverkehr um 80 % bis 2020 für 80 % der globalen Erwärmung seit der Jahrtausendwende verantwortlich ist. Obwohl die zusätzliche Wärme als „vorübergehend“ beschrieben wird, ist die Erwärmung außergewöhnlich und wird in den 2020er Jahren voraussichtlich um 0,24 °C pro Jahrzehnt steigen, was 20 % über dem behaupteten Erwärmungstrend seit 1980 liegt.

Diese Nachricht dürfte bei den Mainstream-Klimaschwindlern in Medien, Wissenschaft und Politik große Besorgnis auslösen. Sie haben in letzter Zeit viel Erfolg gehabt, indem sie auf den Temperaturanstieg als Beweis für ihre beweisfreie Vorhersage verwiesen, dass das Klima vom baldigen Zusammenbruch bedroht ist. Die am Goddard Space Flight Centre beschäftigten NASA-Wissenschaftler sagen jedoch einen Trend zu steigenden Temperaturen aufgrund der IMO2020-Regelungen voraus und stellen fest, dass die Rekordtemperaturen von 2023 „im Rahmen der von uns erwarteten Entwicklung liegen“.

Die wissenschaftliche Grundlage für die in Nature veröffentlichten NASA-Ergebnisse ist einfach. Weniger in die Atmosphäre eingebrachte Treibstoffpartikel verringern die Dichte der Wolkentröpfchen, was zu Wolken führt, die weniger Sonnenstrahlung in den Weltraum zurückwerfen. Die Wissenschaftler stellen fest: „IMO2020 stellt effektiv einen Abbruchschock für das unbeabsichtigte Geoengineering-Experiment durch eine umgekehrte marine Wolkenverdunkelung infolge der Verringerung der Konzentration der Wolkentröpfchen dar.“ Im Zuge ihrer Arbeit berechnete das Team eine starke Verringerung der Partikel in den wichtigsten Schifffahrtsrouten im Nordatlantik, im Karibischen Meer und im Südchinesischen Meer.

Die NASA-Studie dürfte heftig umstritten sein, nicht zuletzt, weil sie alle pseudowissenschaftlichen Zuschreibungsversuche durchlöchert, die den jüngsten Temperaturanstieg und einzelne Wetterereignisse auf den vom Menschen verursachten Anstieg des Kohlendioxids zurückführen wollen. Schon jetzt sagen die Klimaaktivisten des Potsdam-Instituts für Klimafolgenforschung, dass der Beobachtungszeitraum zu kurz ist und dass die vom Menschen verursachten Treibhausgase weiterhin die entscheidende Rolle beim Klimawandel spielen. Ein Großteil dieser Denkweise, die die „gefestigte“ wissenschaftliche Grundlage für die geplante Net Zero-Kollektivierung bildet, wird vom IPCC unterstützt. Dieser vertritt die Ansicht, dass fast der gesamte Klimawandel seit etwa 1900 durch menschliche Aktivitäten verursacht wurde. Diese unbewiesene Meinung scheint von Tag zu Tag wackliger zu werden. Die NASA-Wissenschaftler haben die Frage der Partikel oder Aerosole in den Mittelpunkt der Klimadebatte gerückt, obwohl es andere Erklärungen für den jüngsten Temperaturanstieg gibt. Dazu gehören ein nun abklingender starker El Niño und mögliche Veränderungen in der oberen Atmosphäre, die durch den gewaltigen Wassereinbruch bei der Unterwassereruption Hunga Tonga Anfang 2022 verursacht worden waren.

Der El-Niño-Effekt ist wohlbekannt, und starke frühere Oszillationen, bei denen es zu globalen Wärmeübertragungen von den Ozeanen in die Atmosphäre kommt, haben zu kurzfristigen Temperaturspitzen geführt. Da der derzeitige El Niño nachlässt und wahrscheinlich in Kürze durch die kühlenden Auswirkungen eines La Niña ersetzt wird, gibt es Anzeichen für einen Rückgang der Meerestemperaturen. Die Wissenschaftler werden sich darüber streiten müssen, was beim jüngsten Temperaturanstieg eine größere Rolle gespielt hat – Aerosole oder El Niño – wobei der drittplatzierte Hunga Tonga eine gewisse Unterstützung erfährt. Weiter hinten in der Rangliste – die Chancen werden immer größer – steht die erfinderische Idee, dass der Mensch das Gesamtklima durch die Verbrennung von Kohlenwasserstoffen steuert. Klar ist natürlich, dass sich das Klima nicht vorhersagen lässt. Der jüngste Temperaturanstieg ist winzig und liegt im Rahmen der natürlichen Schwankungen, die in allen bekannten und zuverlässigen Aufzeichnungen zu finden sind. Wenn es darum geht, politische Entscheidungen über die menschliche Gesellschaft zu treffen, müssen Computermodelle, die behaupten, künftige Klimatrends zu reproduzieren und vorherzusagen, sorgfältig geprüft werden, während sie in den Händen mächtiger Leute mit falschen oder sogar bösen Absichten potenziell gefährlich sind.

Die Auswirkungen des Hunga-Tonga-Ausbruchs sind für einige Wissenschaftler nach wie vor von Interesse, auch wenn ihre Neugier von den Befürwortern der CO-Emissionen im Mainstream nicht erwidert wird. Kürzlich nutzte ein Team australischer Klimaforscher den Ausbruch, der die Wasserdampfmenge in der Stratosphäre bis zu 10 % erhöhte, als Basisfall für weitere wissenschaftliche Arbeiten. Von der University of New South Wales aus berichteten sie, dass Vulkane, die Wasserdampf – ein starkes, wenn auch kurzlebiges „Treibhausgas“ – in die hohe Atmosphäre schleudern, „erhebliche Auswirkungen auf das Klimasystem haben können“. Tatsächlich fanden sie heraus, dass die Temperaturen in weiten Teilen der Welt mehrere Jahre lang um mehr als 1,5 °C steigen könnten, obwohl sich einige Gebiete um bis zu 1 °C abkühlen könnten.

Noch mehr faszinierende, widersprüchliche und umstrittene Klimawissenschaft, die unter keinen Umständen der Öffentlichkeit zugänglich gemacht werden sollte.

Chris Morrison is the Daily Sceptic’s Environment Editor.

Link: https://wattsupwiththat.com/2024/06/04/almost-all-recent-global-warming-caused-by-green-air-policies-shock-revelation-from-nasa/

Übersetzt von Christian Freuer für das EIKE

 




UN-Lobbyisten halten uns zum Narren bzgl. Klima und Energie

John McLean PhD

Die meisten Menschen glauben wahrscheinlich, dass der IPCC und das UNFCCC ehrliche UN-Organisationen mit großer Integrität sind. In Wirklichkeit ist der IPCC ein Lobby-Koordinator und Publizist, und das UNFCCC übernimmt die Lobbyarbeit des IPCC und versucht, Regierungen zu politischen Entscheidungen zu drängen, wobei beide Organisationen die Macht der UN-Medienmaschinerie nutzen, um ihre Ziele zu erreichen.

Der IPCC beschreibt seine Rolle als … „Bewertung … von Informationen, die für das Verständnis der wissenschaftlichen Grundlage des Risikos des vom Menschen verursachten Klimawandels, seiner potenziellen Auswirkungen und der Optionen für Anpassung und Abschwächung relevant sind.“

Das Ergebnis ist, dass wir eine Lobbyistenorganisation haben, die sich auf einen einzigen Schwerpunkt konzentriert, in diesem Fall auf den vom Menschen verursachten Klimawandel, und nicht auf das größere Bild, warum sich das Klima verändern könnte.

Lobbyorganisationen stellen oft verzerrte oder irreführende Behauptungen auf und verschweigen andere wichtige Informationen. Der IPCC bildet da keine Ausnahme; seine Berichte weisen die Merkmale einer unehrlichen Lobbyarbeit auf:

  • Die Behauptung, dass das Thema besonders wichtig ist

Im jüngsten IPCC-Bericht heißt es, dass die globale Durchschnittstemperatur zwischen 2011 und 2020 nur 1,1 °C über der globalen Durchschnittstemperatur zwischen 1850 und 1900 lag, was, wenn wir die Mitte jedes Zeitraums nehmen, mehr als 140 Jahre entspricht. Das sind weniger als 0,8 °C/Jahrhundert, was überhaupt keine Bedrohung darstellt (und wohl auch übertrieben ist). Die Beweise, dass eine Bedrohung besteht, sind schwach bis nicht vorhanden.

  • Falsche Behauptung, die einschlägige Literatur gründlich ausgewertet zu haben

Es gibt keinen Hinweis darauf, dass die IPCC-Berichte die einschlägige Literatur in irgendeiner anderen Weise bewerten als danach, ob sie die Grundannahme des IPCC vom vom Menschen verursachten Klimawandel unterstützt. Dies zeigt sich, um nur zwei Beispiele zu nennen, an der „Hockeyschläger“-Temperaturkurve, die im IPCC-Bericht von 2001 achtmal zitiert, aber einige Jahre später von MacIntyre und McKittrick als falsch nachgewiesen wurde, und an seinem zweiten Bericht (1995), in dem eine unveröffentlichte Studie zitiert wurde, die hauptsächlich von den Autoren des IPCC-Berichts verfasst worden war und die stark kritisiert wurde, nachdem sie schließlich veröffentlicht worden war.

  • Ignorieren von Material, das die Behauptungen der Lobbyisten widerlegt …

Das IPCC ignoriert Studien, die feststellen, dass natürliche Kräfte eine große Rolle beim Klimawandel spielen und der menschliche Einfluss demzufolge gering ist. Dies sind wichtige Erkenntnisse in Bezug auf die mit dem vom Menschen verursachten Klima verbundenen Risiken, denn sie zeigen, dass dieses Risiko vernachlässigbar ist. [1]

  • … und das willkürliche Herauspicken von Material, das sie unterstützt

So wurde im sechsten Bericht des IPCC (AR6, 2021) eine einzige Studie zitiert, die eine zunehmende Tendenz bei den Hurrikanen in den USA unterstellte, während acht andere Studien ignoriert worden waren, in denen keine Zunahme festgestellt wurde. [2]

  • Versäumnis der Überprüfung von Daten, die für die Lobbyarbeit wesentlich sind

Der IPCC hat dies in einer Antwort auf meine Kommentare zugegeben, als ich den IPCC-Bericht von 2013 überprüfte. Meine Doktorarbeit aus dem Jahr 2017 und meine Überprüfung des HadCRUT4-Temperaturdatensatzes im Jahr 2018 haben mehr als 70 Probleme aufgedeckt. Dies bedeutet, dass frühere, sehr einflussreiche IPCC-Berichte auf falschen Temperaturdaten beruhten.

  • Ignorieren der potenziellen Vorteile dessen, wogegen die Lobbyisten sind

In den IPCC-Berichten werden die vielfältigen Vorteile der Erwärmung nur sehr wenig diskutiert. Dazu gehören die Verringerung der Zahl der Todesfälle durch extreme Kälte, die Vergrößerung der für die Landwirtschaft geeigneten Fläche und die Förderung des Wachstums der Vegetation.

  • Verwendung ungeeigneter Verfahren zur Untermauerung der eigenen Behauptungen

Der IPCC zitiert zahlreiche Studien, in denen Klimamodelle für eine oder mehrere der folgenden Aufgaben verwendet wurden:

– Schätzung vergangener Temperaturen

– Schätzung des menschlichen Einflusses auf die Temperaturen

– Vorhersage künftiger Temperaturen (im fünften IPCC-Bericht nach wiederholten Misserfolgen eingestellt)

Keines der Klimamodelle wurde formell validiert (d. h. in einer Reihe von Situationen als korrekt nachgewiesen), und die Ergebnisse der Modelle sind schlecht. Schlimmer noch: Die meisten Klimamodelle, die im IPCC-Bericht von 2013 verwendet wurden, haben die Erwärmung im Zeitraum 1998-2012 übertrieben [3], und die jüngste Generation von Klimamodellen, die CMIP6-Reihe, produziert eine größere Bandbreite an Ergebnissen als die früheren CMIP5-Modelle. [4]

  • Darstellung falscher oder verzerrter Wissenschaft

Die IPCC-Berichte enthalten üblicherweise falsche oder verzerrte wissenschaftliche Informationen. Das Konzept des globalen Erwärmungspotenzials (GWP) ist falsch, weil es jedes Gas für sich betrachtet und nicht mit anderen vermischt, wie sie in der Atmosphäre vorkommen. Manchmal absorbieren diese Gase in Kombination bereits 100 % der Infrarotstrahlung bei einer bestimmten Wellenlänge, so dass die Hinzufügung weiterer dieser Gase nichts mehr absorbieren kann.

In den IPCC-Berichten wird auch fälschlicherweise behauptet, dass Treibhausgase Energie absorbieren, aber alles, was sie tun, ist, das Entweichen der Energie in den Weltraum zu verlangsamen, und die Diagramme zum Energiehaushalt in jedem IPCC-Bericht vereinfachen die Vorgänge in der Atmosphäre irreführend und haben wenig Wert.

  • Falsche Behauptungen über die Richtigkeit und Anwendbarkeit bestimmter Daten

In den Berichten des IPCC wird behauptet, dass die globale vorindustrielle Durchschnittstemperatur bis auf Bruchteile eines Grades bekannt sei, aber nur vier Wetterstationen, alle in Europa, haben die Temperatur vor Beginn der industriellen Revolution aufgezeichnet. In ähnlicher Weise wird in den Berichten unterstellt, dass die Jahresringe von nur wenigen Bäumen die Durchschnittstemperatur auf der gesamten Nordhalbkugel genau wiedergeben.

  • Falsche Behauptungen über die Stärke der eigenen „Beweise“ aufstellen

In vielen IPCC-Berichten wird behauptet, dass es mehrere Beweise für eine vom Menschen verursachte Erwärmung gibt, aber diese Beweise sind eine Mischung aus oberflächlichen Behauptungen (z. B. dass eine Erwärmung stattgefunden hat), Behauptungen, die auf den Ergebnissen von Klimamodellen beruhen, und Korrelationen, die für sich genommen keine Ursache beweisen oder nur Spekulation sind.

  • die Annahme, dass das von ihr zitierte Material der Wahrheit entspricht

In den Berichten des IPCC werden Erkenntnisse aus Berichten, Büchern und veröffentlichten Studien (manchmal auch aus einzelnen Studien) so zitiert, als seien sie bewiesene Wahrheiten. Eine bemerkenswerte Anzahl wissenschaftlicher Studien kommt zu Ergebnissen, die nicht repliziert werden können, und einige, wahrscheinlich nur ein kleiner Teil, werden zurückgezogen. [5]

Nachdem der Haupttext der Berichte verfasst und im Rahmen des Überprüfungsprozesses verfeinert wurde, legt der IPCC Regierungsvertretern den Entwurf einer Zusammenfassung für politische Entscheidungsträger (SPM) vor, die von ausgewählten Autoren von Kapiteln des Haupttextes verfasst wurde. Diese Vertreter, von denen einige möglicherweise wenig über das Thema wissen, verhandeln über den Wortlaut der SPM innerhalb des ihnen vorgelegten Rahmens und genehmigen das Dokument schließlich formell. [6] Für die Regierungen wäre es schwierig, die Behauptungen des IPCC zurückzuweisen, nachdem ihre Vertreter gezwungen worden sind, das Dokument zu billigen.

Ungefähr zu diesem Zeitpunkt übertreibt das UNFCCC die Behauptungen des IPCC noch weiter, indem es von der „Bedrohung durch den Klimawandel“, dem dringenden Handlungsbedarf und einem „Klimanotstand“ spricht. Nichts davon ist wahr, aber die UNFCCC übt Druck auf die Regierungen aus, damit sie den Forderungen nach internationalen Abkommen wie dem Pariser Klimaabkommen und Net Zero nachkommen.

Lobbyarbeit ist einfach, wenn die Opposition stark behindert wird. Sowohl der IPCC als auch das UNFCCC nutzen den riesigen Medienapparat der Vereinten Nationen, um ihre Behauptungen in einer Vielzahl von Sprachen in der ganzen Welt zu verbreiten. Studien, die Gegenargumente und Gegenbehauptungen zu den Berichten des IPCC aufstellen, haben nicht diese Reichweite und nicht die gleichen Möglichkeiten, Erkenntnisse in den lokalen Medien zu platzieren. Diese alternativen Ansichten haben es schwer, bekannt zu werden, und werden wahrscheinlich nur selten von Regierungen oder der Öffentlichkeit wahrgenommen.

Die Regierungen wurden unter Druck gesetzt, Klimaforschung zu finanzieren, welche die Überzeugungen des IPCC unterstützt, und durch Subventionen an bestimmte Einrichtungen den unbegründeten Vorstoß des UNFCCC in Richtung erneuerbare Energien und Netto-Nullenergie zu unterstützen.

Der IPCC hat wahrscheinlich von einer seiner mitfinanzierenden UN-Einrichtungen gelernt, dem UNEP, Lobbyarbeit zu betreiben. Von 1975 bis 1992, also in einem Zeitraum, in dem es viele umstrittene Umweltthemen gab, wurde das UNEP von dem Mikrobiologen Mustafa Tolba geleitet. Es ist überliefert, dass er sagte, dass der Erfolg einer der Lobbying-Aktionen des UNEP auf folgende Faktoren zurückzuführen ist:

– Eine Kerngruppe von Ländern, die das Verbot wollten

– Starke Persönlichkeiten – Wissenschaftler und andere – welche die Forderungen und das Verbot befürworten

– Mobilisierung der öffentlichen Meinung, die die Regierungen zum Handeln zwingt

(Der zweite und dritte Punkt sind besonders relevant für die Lobbyarbeit des IPCC und des UNFCCC).

Doch was geschah mit den strittigen Themen, für die das UNEP während Tolbas Amtszeit hartnäckig Lobbyarbeit betrieb?

– Die in den 1970er Jahren aufgestellte Behauptung, dass der saure Regen die Bäume tötet, hat sich überall als falsch erwiesen, mit Ausnahme einer kleinen, sehr stark verschmutzten Region in Osteuropa.

– Die Lobbyarbeit des UNEP, um von der Verwendung von DDT abzuraten als Auftakt zu einem völligen Verbot, hat wahrscheinlich dazu geführt, dass etwa 20 Millionen Menschen an Malaria gestorben sind [7]. Nur durch den Einsatz von über 300 Ärzten in letzter Minute, die darauf hinwiesen, dass DDT ein billiges und wirksames Mittel gegen Malaria ist, konnte dieses Verbot verhindert werden.

– Die auf einer einzigen wissenschaftlichen Studie basierende Behauptung, FCKW würden die Ozonschicht schädigen, erscheint höchst unwahrscheinlich. Nach fast 30 Jahren und Milliarden von Dollar, die für die Umstellung auf Alternativen ausgegeben wurden, gibt es keine Anzeichen dafür, dass sich das Ozonloch verkleinert. Viele Wissenschaftler haben darauf hingewiesen, dass Auftreten und Ausmaß des Ozonlochs nicht mit den Behauptungen des UNEP übereinstimmen. [8].

Die Lobbyarbeit des UNEP mit falschen Behauptungen hat bestimmte Informationen so tief in den Köpfen der Öffentlichkeit und der Regierungen verankert, dass Gegenbehauptungen nur sehr selten in Betracht gezogen werden. Selbst heute noch unterstützen einige Medien die Überzeugungen des UNEP und manipulieren so die öffentliche Meinung.

In jeder Angelegenheit zog das UNEP voreilige Schlüsse, lange bevor Wissenschaftler die Themen richtig untersucht hatten, und zwang dann der Welt diese Annahmen auf. Auch die Gründung des IPCC wurde durch Annahmen und Schlussfolgerungen vorangetrieben, bevor Wissenschaftler die Möglichkeit hatten, alle Fragen und möglichen Ursachen der Erwärmung zu prüfen. (Der IPCC wurde zum Teil als Folge der Erwärmung in den 1980er Jahren gegründet, aber die plötzliche Zunahme von El-Nino-Ereignissen nach 1977 kann diese Erwärmung zumindest teilweise erklären).

UN-Generalsekretär Guterres könnte man als starke Persönlichkeit bezeichnen, die die Lobby-Behauptungen des IPCC und des UNFCCC unterstützt. Sein jüngster Unsinn über die kochende Erde ist einfach nur eine wilde Übertreibung, die nicht mit der Aussage des IPCC über eine Erwärmung von etwa 1,1 Grad Celsius in etwa 140 Jahren übereinstimmt.

Leider wurde Guterres von verschiedenen so genannten Wissenschaftlern unterstützt, die vielleicht nicht so sehr für den IPCC, sondern vielmehr zum Schutz ihres Einkommens und ihres Rufs Lobbyarbeit betreiben.

Letztlich beruht die Angst vor der vom Menschen verursachten Erwärmung nicht auf wissenschaftlichen Erkenntnissen, sondern auf der Lobbyarbeit des IPCC und der UNFCCC, und zwar auf einer fehlerhaften Lobbyarbeit. Das Pariser Klimaabkommen und der Vorstoß für Net-Zero und die damit zusammenhängenden Themen wie das Aufzwingen von Elektrofahrzeugen sind wissenschaftlich kaum zu begründen, sondern das Ergebnis von Lobbyarbeit, die globale Medien manipuliert und Regierungen unter Druck setzt.

[Hervorhebung vom Übersetzer]

Anmerkungen:

[1] Roger Pielke Jr. bringt einen ähnlichen Punkt vor, wenn er sagt: „Der IPCC soll die wissenschaftliche Literatur überprüfen. Und zwar die gesamte – das bedeutet, dass er mehr als nur eine Teilmenge der Studien einbeziehen muss, die seine Autoren verwenden wollen, um ein Narrativ zu konstruieren. Es bedeutet auch, dass der IPCC nicht die Forschung derjenigen ignorieren kann, die seinen Autoren unbequem sein könnten.“ (siehe hier)

[2] Wie oben

[3] IPCC AR5 2013, WGI SPM, S. 5 und im synthesis report S. SYR-6p

[4] Siehe IPCC AR6, Abb. 3.4, S. 435. Außerdem wurden mehrere Vergleiche zwischen Modellen und den entsprechenden Beobachtungsdaten angestellt, insbesondere von John Christy und Roy Spencer. Für einen der jüngsten Vergleiche von Spencer siehe hier.

[5] Siehe hier, wo eine Datenbanksuche mit dem Themenfeld „(ENV) Climate Change“ 131 Einträge ergibt

[6] Diese Vertreter hatten nur eine Stunde Zeit, um den endgültigen Entwurf des SPM für den Teil der Arbeitsgruppe I des IPCC-Berichts AR6 zu lesen, bevor sie für dessen Annahme stimmten. Siehe hier S. 2

[7] Ich habe Schätzungen von 8 Millionen und 40 Millionen gesehen, sowie eine Zahl zwischen diesen beiden Extremen, also habe ich einen ungefähren Mittelwert genommen. Im Jahr 2006 erklärte die WHO DDT für sicher, wenn die grundlegenden Richtlinien befolgt werden, und die Zahl der Todesfälle ging drastisch zurück (siehe den Artikel im UNEP-Magazin für Afrika).

[8] Siehe „New clues to ozone depletion”, online hier ebenso wie hier und hier.

Link: https://wattsupwiththat.com/2024/06/03/fooled-on-climate-and-energy-by-un-lobbyists/

Übersetzt von Christian Freuer für das EIKE

 




Temperaturvergleich: Vergangenheit und Gegenwart

von Untitled (call me Stephen)

Wie genau sind unsere historischen Temperatur-Aufzeichnungen?

Im Jahr 2021 brachte Bugatti den Chiron Super Sport 300+ auf den Markt. Die Bezeichnung „300+“ kommt daher, dass es sich um das erste Auto mit Straßenzulassung handelt, das Geschwindigkeiten über 300 km/h erreicht, obwohl die Serienmodelle elektronisch auf 271 km/h begrenzt sind.

Der Wagen kann in rund 40 Sekunden auf seine Höchstgeschwindigkeit von 490 km/h beschleunigen und in weniger als 15 Sekunden aus dieser Geschwindigkeit zum Stillstand kommen.

Der Tunnel im Dubliner Hafen wurde am 20. Dezember 2006 eröffnet. Technisch gesehen handelt es sich um zwei 4,5 km lange Tunnel, einen für jede Verkehrsrichtung.

Die Wände des Tunnels sind hart, im Gegensatz zu oberirdischen Autobahnen, die flexible Sicherheitsbarrieren haben. Ein Aufprall auf die Wände bei hohen Geschwindigkeiten wäre nicht nur für die Unfallbeteiligten tödlich, sondern könnte auch die strukturelle Integrität des Tunnels beschädigen.

Um die Verkehrsteilnehmer dazu zu bewegen, sich an die Geschwindigkeitsbegrenzung von 80 km/h zu halten, wurden Kameras zur Überwachung der Durchschnittsgeschwindigkeit installiert. Ein solches Kamerasystem besteht aus mindestens zwei Kameras (idealerweise aber mehr), die über die Region verteilt sind, in der die Geschwindigkeitsbegrenzung durchgesetzt werden soll.

Die billigste Variante wären zwei Kameras an jedem Tunnel, eine am Anfang und eine am Ende. Wenn der Zeitstempel Ihres Fahrzeugs beim Passieren der zweiten Kamera weniger als 202,5 Sekunden nach dem Passieren der ersten Kamera liegt, haben Sie die 4,5 km mit einer Durchschnittsgeschwindigkeit von mehr als 80 km/h zurückgelegt, was einen Strafzettel und Punkte für Ihren Führerschein zur Folge hat.

Besser wäre es, wenn mehr als zwei Kameras entlang des Tunnels verteilt wären, um zu verhindern, dass ein rücksichtsloser und idiotischer Chiron Super Sport 300+ Fahrer folgendes versucht…

– Fahren Sie mit einer rollenden Startgeschwindigkeit von 80 km/h in den Tunnel ein.

– Geben Sie Gas und erreichen Sie die Höchstgeschwindigkeit von 490km/h nach etwa 33,5s

– Halten Sie die Höchstgeschwindigkeit für etwa 1,5s.

– Bremse hart auf 30km/h über 3,5s

– Halten Sie die Geschwindigkeit von 30km/h für die restlichen 164 Sekunden der Fahrt.

Da dies genau 202,5 Sekunden dauert, ergibt sich bei nur zwei installierten Kameras pro Tunnel im Dubliner Hafentunnel eine Durchschnittsgeschwindigkeit von 80 km/h, obwohl die Geschwindigkeit des Autos zwischen 30 km/h und 490 km/h schwankte!

„Stephen, was genau haben der Bugatti Chiron Super Sport 300+ und der Dubliner Hafentunnel mit dem Vergleich der Temperaturen von gestern und heute zu tun“, höre ich Sie fragen. Bitte bleiben Sie dran. Ich hoffe, dass es Sinn macht, wenn Sie das Ende erreichen.

Das Thermometer ist eine relativ junge Erfindung. Während Galilei bereits 1603 mit Thermoskopen herumspielte, dauerte es bis 1724, als Daniel Gabriel Fahrenheit seine Thermometerskala vorschlug, bevor sich die Idee einer standardisierten Temperaturskala durchsetzte. Dass René-Antoine Ferchault de Réaumur und Anders Celsius 1732 und 1742 unterschiedliche und konkurrierende Normen vorschlugen, dürfte niemanden überraschen, der mit der Funktionsweise von Normen vertraut ist.

Leider konnte sich Réaumur mit seiner Wahl von 80 Grad zwischen Gefrier- und Siedepunkt von Wasser nicht durchsetzen.

Der größte Teil der Welt verwendet heute die Celsius-Skala, allerdings mit umgekehrten 0°C- und 100°C-Punkten gegenüber Anders‘ ursprünglichem Vorschlag. Nur die Vereinigten Staaten, die Bahamas, die Kaimaninseln, Palau, die Föderierten Staaten von Mikronesien und die Marshallinseln verwenden noch Fahrenheit.

Unsere frühesten tatsächlichen Temperaturmessungen, vor allem die aus der Zeit vor 1732, beruhen darauf, dass die Menschen entweder die ursprünglich verwendeten Thermometer später durch andere ersetzt oder ihre eigene Wahl der Referenz dokumentiert haben.

Es dauerte auch eine Weile, bis die Menschen herausfanden, wie sie die Temperatur messen konnten. Bei den meisten frühen Messungen handelte es sich um Innenraummessungen in unbeheizten Räumen, die einmal pro Tag aufgezeichnet wurden. Schließlich fand man heraus, dass das Thermometer zur Messung der Außentemperatur im Freien und im Schatten stehen musste.

Erst 1864 schlug Thomas Stevenson einen standardisierten Instrumentenschutz vor, und nach Vergleichen mit anderen Schutzvorrichtungen wurde 1884 sein endgültiger Entwurf für die Stevenson-Wetterhütte veröffentlicht.

Auch wenn wir heute über Leute lachen, welche die Außentemperatur mit einem Thermometer in einem unbeheizten Raum gemessen haben, weil der Raum eine große Wärmekapazität hat, d. h. es eine Weile dauert, bis er sich aufheizt und abkühlt, ist eine Messung in einem Raum pro Tag gar nicht so schlecht, um die durchschnittliche Außentemperatur zu messen.

Wenn man das Thermometer an einem gut belüfteten Ort im Freien aufstellt, z. B. in einer Stevenson-Wetterhütte, ändert sich die Temperatur sehr viel schneller. Wenn Sie die Durchschnittstemperatur messen wollen, muss man über den Tag und die Nacht verteilt mehrere Messungen vornehmen.

1780 erfand James Six ein Thermometer, das die Höchst- und Tiefsttemperaturen seit der Rückstellung festhielt. Da es jedoch auf Quecksilber zur Bewegung der Markierungen angewiesen war, konnte es bei niedrigen Temperaturen Probleme geben. Um 1790 hatte Daniel Rutherford Entwürfe für getrennte Minimum- und Maximum-Thermometer entwickelt, die mit Alkohol bzw. Quecksilber arbeiteten und eine größere Genauigkeit der beiden Messwerte ermöglichten.

Es sollte bis in die 1870er Jahre dauern, bis Minimum- und Maximumthermometer in großem Umfang zur Erfassung der Temperaturschwankungen eingesetzt wurden. Die längste Temperaturaufzeichnung, die Central England Temperature History, basiert zum Beispiel auf Beobachtungen für eine Vielzahl von Stunden vor 1877, wobei danach tägliche Tiefst- und Höchsttemperaturen verwendet wurden.

Meteorologen verwenden die täglichen Minimal- und Maximaltemperaturen, um die tägliche Durchschnittstemperatur zu schätzen, indem sie einfach den Durchschnitt der Minimal- und Maximaltemperaturen bilden. Dies wird als Taxn bezeichnet und die Formel lautet: Taxn=(Tmax+Tmin)/2.*

[*Anmerkung des Übersetzers: Das ist so nicht ganz richtig. Zumindest in Deutschland wurde die Mitteltemperatur steit den 1950er Jahren nach der Formel T07 + T13 + 2xT21/4 ermittelt. Mit der Einführung automatischer Sensoren wurden dann die stündlichen Temperaturwerte durch 24 geteilt. Am Institut für Meteorologie der Freien Universität Berlin wurden diese Mittelwerte mehrere Jahre lang parallel ermittelt. Die entsprechende Veröffentlichung war jedoch nicht mehr auffindbar. – Ende Anmerkung]

Verstehen Sie mich nicht falsch, wenn Sie nur die täglichen Minimal- und Maximaltemperaturen haben, ist die Mittelung der beiden die beste Schätzung, die Sie machen können, aber es ist nicht die tägliche Durchschnittstemperatur, die Tavg genannt wird, die Sie erhalten, wenn Sie die Temperatur idealerweise mehr als 20 Mal in gleichmäßigen Abständen über den 24-Stunden-Zeitraum messen und alle diese Ergebnisse mitteln.

Hier kommen der Bugatti Chiron Super Sport 300+ und der Dubliner Hafentunnel wieder ins Spiel. Wenn ich Ihnen sage, dass die Höchstgeschwindigkeit des Bugatti im Tunnel 490 km/h betrug und er nie langsamer als 30 km/h fuhr, würden wir bei Anwendung des Algorithmus der Meteorologen zu dem Schluss kommen, dass er im Durchschnitt mit (490+30)/2=260 km/h unterwegs war. Wir wissen jedoch von früher, dass es möglich ist, dass diese beiden Grenzwerte eine Durchschnittsgeschwindigkeit von 80 km/h ergeben.

Wenn man die Minimal- und Maximalgeschwindigkeiten im Tunnel bei 30km/h und 490km/h belässt, kann man eine Durchschnittsgeschwindigkeit zwischen 71km/h und 332km/h erreichen. Die von den Meteorologen ermittelte Durchschnittsgeschwindigkeit von 260 km/h liegt zwar in diesem Bereich, aber die Spanne ist recht groß.

Um ein weiteres Beispiel dafür zu geben, wie das Verfahren der Meteorologen zu einer Schätzung führen kann, die ein ganzes Stück daneben liegt: Nach Angaben des Irish Central Statistics Office [CSO] verdienten die obersten 1 % der Arbeitnehmer im Jahr 2022 mindestens 3 867 € pro Woche. Dagegen verdiente das untere 1 % der Arbeitnehmer höchstens 92 € pro Woche. Der durchschnittliche Wochenverdienst lag bei 856 € pro Woche, und nur 27 % der Arbeitnehmer verdienten mindestens diesen Betrag, wobei der mittlere Wochenverdienst 671 € betrug.

Quelle: CSO

Wenn wir den Durchschnitt von 3867 € und 92 € nehmen, sind das 1980 € pro Woche. Weniger als 6 % der Erwerbstätigen erhielten mindestens 1980 € pro Woche, so dass der Durchschnitt der Meteorologen bei der Schätzung des Einkommens oder der Durchschnittsgeschwindigkeit eines Bugatti im Hafentunnel ziemlich weit daneben liegt.

In den 1970er Jahren wurde es mit dem Aufkommen billiger Computer möglich, die Temperaturmessung zu automatisieren. Ein Computer hat keine Wahl: Wenn wir ihm sagen, er soll die Temperatur jede Stunde oder alle 5 Minuten messen, egal ob es regnet oder schneit, wird die Messung aufgezeichnet. Da die meisten Wetterstationen zwischen 1990 und 2010 auf automatische Messungen umgestellt haben, können wir jetzt die tatsächliche Durchschnittstemperatur, Tavg, messen.

Das Valentia Observatory liegt 1 km westlich von Cahirciveen, Co Kerry, und in diesem Gebiet wurde eine Wetterstation betrieben, die einige Temperaturaufzeichnungen für 1850-51 und kontinuierliche tägliche Min-Max-Aufzeichnungen seit Mitte Januar 1872 enthält. Die historischen Datensätze wurden sorgfältig transkribiert und sind bei Met Éireann erhältlich: 1850-1920 und 1921-1943. Im Jahr 1944 unternahm Met Éireann etwas Ungewöhnliches: Sie begannen, die Temperatur stündlich zu messen. Ob Regen oder Sonnenschein, Schneeregen oder Schnee, die fleißigen Mitarbeiter von Met Éireann gingen zur Wetterstation und zeichneten die Temperatur auf. Zwischen Januar 1944 und April 2012, als die Station durch eine automatische Station ersetzt wurde, wurden nur 2 Stunden ausgelassen. Der Datensatz ab 1944 ist auf der Website der irischen Regierung verfügbar: tägliche Zusammenfassung (einschließlich Mindest- und Höchsttemperatur) und stündliche Messungen.

Da sich die Messungen der Minimum- und Maximum-Thermometer und die 24 stündlichen Messungen für Valentia überschneiden, können wir überprüfen, wie groß die Differenz zwischen Tavg und Taxn ist, um zu sehen, wie genau das Verfahren der Meteorologen zur Schätzung der Durchschnittstemperatur aus Tmin und Tmax ist.

Das erste Diagramm zeigt die Differenz Tavg-Taxn für jeden Tag seit dem 14. Januar 1944 in Form von blauen Punkten. Überlagert wird der gleitende 1-Jahres-Durchschnitt durch eine rote Linie. Wenn Sie sich für die Statistik interessieren, ist Tavg in Valentia im Durchschnitt um 0,17ºC höher als Taxn (Standardabweichung 0,53, N=29339, min=-2,20, max=3,20).

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Wenn wir nur den gleitenden Durchschnitt betrachten, sehen wir, dass die Beziehung nicht konstant ist. In den 1970er Jahren war die Durchschnittstemperatur zum Beispiel durchschnittlich 0,35 ºC höher als die meteorologische Schätzung, während es in den späten 1940er, 1990er und 2000er Jahren Gelegenheiten gab, bei denen die meteorologische Schätzung etwas höher war als die tatsächliche tägliche Durchschnittstemperatur.

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Es ist wichtig zu betonen, dass diese mehrjährige Variabilität sowohl unerwartet als auch faszinierend ist, insbesondere für diejenigen, die Temperaturanomalien untersuchen. Abgesehen von der mehrjährigen Variabilität haben wir jedoch durch das Auftragen von fast 30.000 Datenpunkten auf die x-Achse vielleicht eine mögliche Erklärung dafür versteckt, warum die blauen Punkte typischerweise eine Streuung von etwa ±1ºC aufweisen… Ist die Streuung von ±1°C eine saisonale Variabilität?

Der kürzeste Tag des Jahres auf Valentia ist der 21. Dezember mit einer Tageslänge von etwa 7h55m. Der längste Tag des Jahres ist der 21. Juni mit einer Tageslänge von 16h57m. Am kürzesten Tag des Jahres hat die Sonne nur wenig Zeit, um die Luft aufzuheizen, und die meiste Zeit ist es dunkel, so dass wir davon ausgehen, dass Wärme verloren geht. Daher erwarten wir, dass die Durchschnittstemperatur im Winter näher an der Tiefsttemperatur liegt als im Sommer.

Wir können die jahreszeitlichen Auswirkungen auf die Differenz zwischen Tavg und Taxn überprüfen, indem wir uns eine zeitabhängige Korrelation ansehen. Da nicht jeder mit dieser Art der Analyse vertraut ist, zeige ich Ihnen zunächst die zeitabhängige Korrelation von Tavg mit sich selbst:

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Die x-Achse gibt an, wie viele Tage zwischen den Messungen liegen, und die y-Achse ist der Pearson-Korrelationskoeffizient, bekannt als r, der misst, wie ähnlich die Messungen im Durchschnitt aller Daten sind. Ein Pearson-Korrelationskoeffizient von +1 bedeutet, dass die Veränderungen in der einen Variable genau mit den Veränderungen in der anderen übereinstimmen, ein Koeffizient von -1 bedeutet, dass die Veränderungen genau entgegengesetzt sind, und ein Korrelationskoeffizient von 0 bedeutet, dass die beiden Variablen keine Beziehung zueinander haben.

Der erste Punkt auf der x-Achse steht für einen Abstand von 1 Tag zwischen den durchschnittlichen Temperaturmessungen.

Die einfachste Wettervorhersage ist die folgende:

Morgen wird das Wetter im Wesentlichen so wie heute“

Der r-Wert von +0,91 für den Abstand von einem Tag veranschaulicht die Genauigkeit der trägsten Wettervorhersage und deutet darauf hin, dass sie für die Durchschnittstemperatur zu etwa 82 % richtig ist.

Bei einem Abstand von einem halben Jahr ergibt sich ein r-Wert von -0,64, der besagt, dass in sechs Monaten 41 % der durchschnittlichen Tagestemperatur als das Gegenteil der heutigen Temperatur erklärt werden können.

Im Abstand von einem Jahr beträgt der r-Wert 0,67, was bedeutet, dass 44 % der heutigen Durchschnittstemperatur als saisonal für diese Jahreszeit erklärt werden können. Das bedeutet, dass die einfachste Wettervorhersage nur 38 % besser erklärt als die saisonale Vorhersage.

Sie sehen sehr ähnliche Graphen, wenn Sie die zeitabhängige Korrelation von Tmax, Tmin oder Taxn betrachten, wobei die 1-Tages-r-Werte bei 0,90, 0,81 bzw. 0,90 liegen und die saisonale Schwankung etwa -0,6 bis +0,6 für 6 Monate und 1 Jahr beträgt.

Das obige Schaubild zeigt uns im Grunde, was zu erwarten ist, wenn etwas stark saisonabhängig ist.

Was passiert, wenn wir die zeitabhängige Korrelation von Tavg-Taxn darstellen? Nun, man erhält dies:

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Die 1-Tages-Korrelation beträgt 0,19, was bedeutet, dass etwa 4 % des heutigen Korrekturfaktors zwischen Tavg und Taxn vorhergesagt werden können, wenn wir den gestrigen Korrekturfaktor kennen. Die Saisonalität ist sogar noch schlechter, der Korrelationskoeffizient für 6 Monate beträgt -0,02 und der Korrelationskoeffizient für 1 Jahr +0,07.

Dies beantwortet unsere frühere Frage… Die Streuung von ±1°C ist keine saisonale Variabilität.

Das bedeutet, dass, wenn wir nur Taxn kennen, Tavg überall ±1°C betragen könnte.

Hier ist ein weiteres Diagramm, um dies zu veranschaulichen. Die x-Achse ist Tavg und die y-Achse ist Taxn. Wenn die durchschnittliche Tagestemperatur höher ist, ist natürlich auch die durchschnittliche Tiefst- und Höchsttemperatur höher und wir erhalten eine gerade Linie mit der Steigung 1, aber die Dicke der Linie stellt die Unsicherheit der Beziehung dar. Wenn wir also wissen, dass Taxn bei 15°C liegt, können wir aus diesem Diagramm schließen, dass Tavg wahrscheinlich zwischen 13,5°C und 16,5°C liegt.

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Da die meisten Wetterstationen bis vor kurzem nicht stündlich aufzeichneten, sind die meisten unserer historischen Temperaturdaten in der Taxn-Form und nicht in der Tavg-Form. Das bedeutet, dass, wenn Valentia repräsentativ ist, die vergangenen Temperaturaufzeichnungen nur auf ±1°C genau sind. Wenn Ihnen jemand sagt, dass die Durchschnittstemperatur in Valentia am 31. Mai 1872 11,7 °C betrug, dann wissen wir das einfach nicht. Mit 95-prozentiger Wahrscheinlichkeit lag sie irgendwo zwischen 10,6ºC und 12,7ºC, und wir haben keine Möglichkeit, den genauen Wert herauszufinden, so wie die Kenntnis der Höchst- und Mindestgeschwindigkeiten des Bugatti im Hafentunnel nicht wirklich viel über seine durchschnittliche Geschwindigkeit aussagt.

In diesem letzten Diagramm zeigen die blauen Punkte den durchschnittlichen Taxn jedes Jahres in Valentia seit 1873 mit vertikalen Fehlerbalken, die das 95%-Konfidenzintervall anzeigen. Die roten Punkte zeigen den durchschnittlichen Tavg-Wert für jedes Jahr ab 1944, wobei die Fehlerbalken die jährlichen Schwankungen anzeigen. Das Blau, das unter dem Rot hervorsticht, zeigt den Unterschied zwischen der von den Meteorologen geschätzten Durchschnittstemperatur und der tatsächlichen Durchschnittstemperatur, selbst auf der Skala eines Jahresdurchschnitts:

Quelldaten Copyright © Met Éireann und lizenziert zur Wiederverwendung unter CC-BY-4.0. Mathematische Analyse, Transformationen und visuelle Darstellung von Stephen Connolly.

Das Valentia Observatory ist eine der besten Wetterstationen der Welt. Seit der Umstellung auf automatisierte Stationen in den 1990er Jahren können wir nun genaue Durchschnittstemperaturen ermitteln.

Dank der akribischen Arbeit der früheren und heutigen Mitarbeiter des Valentia Observatory und von Met Éireann verfügen wir über 80 Jahre an Daten, die einen Vergleich der alten Schätzmethoden mit den tatsächlichen Durchschnittswerten ermöglichen.

Die Schlussfolgerung?

Unsere historischen Temperaturaufzeichnungen sind weit weniger genau, als wir einst glaubten.

Link: https://wattsupwiththat.com/2024/06/01/comparing-temperatures-past-and-present/

Übersetzt von Christian Freuer für das EIKE

 




Die Maitemperaturreihe des Deutschen Wetterdienstes: Keine CO₂-Erwärmungswirkung erkennbar. Teil 2

Teil 2: Der unterschiedliche Verlauf der Tageshöchst- und Nachttiefsttemperaturen beim Monat Mai (T-max/T-min)

 

Von Matthias Baritz, Josef Kowatsch

Teil 1 steht hier.

Der diesjährigen Mai 2023 mit 14,9°C soll laut DWD der fünftwärmste seit Messbeginn gewesen sein. Angeblich 2 Grad über dem Schnitt der letzten 30 Jahre, festgestellt mit den heutigen Messstationen, die an ganz anderen Plätzen stehen wie vor 30 Jahren, aber vor allem wie vor 140 Jahren und mit ganz anderen Messmethoden erfasst werden. Wir hatten damals ein ganz anderes, weniger dicht besiedeltes Deutschland mit einer geradezu mickrigen Wärmefreisetzung pro Person. Doch diese Unterschiede des zweifelhaften Temperaurvergleichs sind nicht Hauptbestandteil des Artikels. Wir arbeiten im Artikel mit den Maitemperaturreihen wie der Deutsche Wetterdienst (DWD) sie ins Internet stellt und führen keine Korrektur zur besseren (richtigen) Vergleichbarkeit von heute und früher durch.

Abb.1: 31 Tagesmessungen ergeben den Mai-Schnitt für 1 Jahr. In früheren Jahrzehnten wurde diese Tagesmessung nach einer anderen Methode und analog in der englischen Wetterhütte ermittelt, die auch noch meist an einem anderen Platz stand als die heutige Ermittlung nach DWD-Norm.

Ergebnis: Die Daten des Deutschen Wetterdienstes zeigen: Es gibt keine Korrelation zwischen dem Temperaturverhalten des Monats Mai und der steten Zunahme der CO₂-Konzentrationen in der Atmosphäre.

Abb. 2: Steiler und stetiger CO₂-Anstieg in der Atmosphäre, vor allem seit 1970, Daten vor 1958 nach NOAA

Nun die Grafik 1, Maiverlauf von Deutschland mit Tmax und Tmin

Noch eindeutiger wird die Nichtkorrelation zwischen CO₂-Anstieg und Maitemperaturen, wenn man die Tageshöchst- und die Nachttiefsttemperaturen mitzeichnet. Die liegen allerdings beim DWD erst zuverlässig nach dem Kriege vor.

Abb.3: Die obere Reihe zeigt die Tageshöchst- die untere Reihe die nächtlichen T-min Verläufe, die mittlere Grafikreihe den Tagesmittelverlauf. Mehr als etwa 537 Stationen gibt es nicht, die durchgehend alle drei Reihen messen. Allerdings wurden die Standorte der Messstationen im Zeitraum oftmals verändert. Wir arbeiten hier mit den Original-DWD Temperaturen wie der DWD diese in Netz stellt.

Ergebnis: Ein gänzlich anderer Verlauf vor und nach dem Temperatursprung

Tmax: bis 1987 deutlich fallend, Temperatursprung, seitdem ebene Trendlinie

Schnitt: bis 1987 fallend, Temperatursprung, danach leicht fallend.

Tmin: ab 1947 unbedeutend fallend, Temperatursprung, seit 1988 werden die Nächte kälter.

Erkenntnis: vor dem Temperatursprung hat sich die Schere zwischen T-max und T-min leicht verringert, nach dem Temperatursprung geht die Schere zwischen T-max und T-min auseinander. Vor allem die Mainächte werden kälter, die Tage bleiben gleich.

Wo ist der angeblich stark und stetig wirkende CO₂-Treibhauseffekt in den beiden Maitemperaturgrafiken erkennbar? Antwort: Nirgendwo.

Beachte: Der DWD stellt zwar die Daten für die Grafik 3 ins Netz, aber die dazugehörige Grafik veröffentlicht er nirgendwo. Die Grafikauswertung findet man nur bei uns. Aus dem Grund kann der politische Vorstand des DWD alles gegenüber den Medien behaupten, die Redakteure überprüfen eh nichts. Recherche heißt lediglich, dass sie überprüfen, ob der Betreffende etwas so gesagt hat wie wiedergegeben. Recherche heißt nicht, ob er auch die Wahrheit gesagt hat. Vor allem Politiker wissen das und verbreiten Halbwahrheiten.

.

CO₂ kann nicht über 40 Jahre lang bis 1987 abkühlend wirken, dann mit der Gründung des Weltklimarates plötzlich aufgeschreckt werden und einen Temperatursprung verursachen und dann wieder einschlafen, bzw. nur noch nachts abkühlend wirken.

Dabei sollte doch laut dem RTL-Klimaexperten Christian Häckl der Treibhauseffekt nachts stärker wirken als tagsüber, hier seine Theorie ausführlich und verständlich beschrieben. Es gibt nur einen Nachteil: die Vorhersagen sind grottenfalsch, weil die Realität der DWD-Temperaturreihen das Gegenteil von dem zeigt, was Härtl schreibt. Es ist aber auch zu dumm, wenn der DWD zwar die T-min/T-max erhebt, aber selbst nirgendwo eine Grafik anbietet und überzeugte Treibhausexperten dann ohne Beweis irgendwas behaupten dürfen. Doch raten wir Herrn Häckl, sich wenigstens die Daten der in der RTL-Nähe befindlichen Wetterstation Düsseldorf geben zu lassen.

Deswegen ist auch die mainstream-Definition für Klimawandel grottenfalsch, die behauptet, dass in der Neuzeit hauptsächlich das vom Menschen ausgestoßene CO₂ zu der neuzeitlichen Klimaerwärmung geführt hat.

Dabei bestreitet das Autorenteam nicht, dass CO₂ und andere Moleküle im IR-Bereich absorbieren. Aber die daraus abgeleitete Hypothese einer starken Atmosphärenerwärmung ist nicht nachweisbar. CO₂ wirkt allerhöchstens unscheinbar in homöopathischen Dosen.

Erkenntnis: Das Treibhauserwärmungsmodell der bezahlten Wissenschaft und der Politik ist ein Geschäftsmodell. Es handelt sich um eine bewusst geplante Panikmache, eine Wissenschaft des finsteren Mittelalters, die vor allem Kinder und Jugendliche in Angst und Schrecken versetzen will. Da geht’s nur ums Geld und einen CO₂-Ablaßhandel. Diesem Vorhaben müssen wir energisch entgegentreten.

Außer den Maitemperaturreihen des Deutschen Wetterdienstes gibt es noch weitere Gründe, die zeigen, dass Kohlendioxid keine oder nur eine minimale Erwärmungswirkung hat: So gibt es keinen Versuchsnachweis, der die behaupteten 2 bis 5 Grad Klimasensitivität nachweisen kann. Es gibt auch keinerlei technischen Anwendungen dieses behaupteten Treibhauseffektes. Und es gibt keinerlei Freibeobachtungen, wo eine dauerhaft erhöhte CO₂-Konzentration für ein wärmeres Gebiet sorgt.

Schlussfolgerungen der seriösen Naturwissenschaft aus den DWD-Datenreihen:

Kohlendioxid kann nicht über 140 Jahre gar nicht wirken, dann im Jahre 1987 auf 1988 just zur Gründung des Weltklimarates aufschrecken und eine plötzliche Erwärmungswirkung von einem Grad hinzaubern, um dann wieder in den Dornröschenschlaf zu verfallen. Solche physikalischen Gaseigenschaften gibt es nicht.

Entweder wirkt CO₂ überhaupt nicht erwärmend oder nur in unbedeutendem Maße oder sogar unbedeutend abkühlend. Auch dafür gibt es plausible Begründungen und mathematische Herleitungen.

Und: Eine Klimapanik vor einer angeblichen Erderhitzung durch Treibhausgase ist völlig unbegründet. Sie ist ein raffiniertes Geschäftsmodell, das über Angst- und Panikmache unser Geld will in Form einer CO₂-Abzockesteuer oder überhöhten Energiepreisen.

Bitte nicht vergessen. Es handelt sich bei unseren Grafiken um Original-DWD-Angaben, die wachsenden Wärmeinseleffekte der Messstationen von früher zu heute sind nicht rauskorrigiert. Allerdings findet sich der Temperatursprung 87/88 auch bei WI-armen Stationen und in ganz Mittel-und Westeuropa!!, siehe hier. Bei WI-armen Stationen ist die leichte Abkühlungsphase auf dem letzten Temperaturplateau zudem stärker ausgeprägt.

Der Temperatursprung 87/88 in jeder Temperaturreihe ist natürlichen Ursprungs, denn CO₂ ist nicht für die Zunahme der Sonnenstunden und die plötzliche Änderung der Großwetterlagen verantwortlich, was allerdings auch niemand der CO₂-Treibhausgläubigen behauptet. Ihre Taktik ist: Der Temperatursprung wird verleugnet. Die bezahlten CO₂-Angstmacher erwähnen diesen Temperatursprung überhaupt nicht, sondern sie zeichnen eine durchgehende Linie und behaupten, der Anstieg sei einzig durch CO₂-verursacht.

Merke: Die DWD-Grafiken kann man nicht mit einem imaginären, stetig zunehmendem Treibhausgas CO₂ erklären. Der Begriff „Treibhausgas“ ist somit ein Fantasiebegriff aus der Werbebranche, der uns Angst einflößen soll, genauso wie diese völlig falsche UN-Definition von Klimawandel: Der Begriff „Klimawandel“ bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe.

Richtig bleibt aber die Feststellung: Der Klimawandel, d.h. die Erwärmung begann in Mitteleuropa erst 1987 auf 1988 mit einem Temperatursprung und nicht seit der Industrialisierung!!!!

Die Klimaerwärmung begann erst 1987 auf 1988 mit dem Sprung auf ein höheres Temperaturplateau, wann registrieren das der DWD und die Treibhauskirche endlich?

Damit haben wir aber ein Problem. Wenn nicht Kohlendioxid den Temperatursprung verursacht hat, wer oder was dann?

Die richtige Erklärung, wir finden mindestens 5 Gründe des höheren Wärmeplateaus seit 1988:

1. Natürliche Ursachen: Die Änderung der Großwetterlagen. Rein statistisch haben die Südwestwetterlagen im Mai wie in allen Monaten zugenommen und die kälteren nördlichen und östlichen Wetterlagen abgenommen. Das zeigt u.a. die Zunahme des Saharastaubes, der mit den Süd- und Südwestwinden zu uns getragen wird. Doch es gibt viele andere Gründe für natürliche Ursachen von Klimaänderungen. Hier sei auf die ausführlichen Artikel von Stefan Kämpfe verwiesen: hier und hier.

2. Die Sonnenstunden: Mit der plötzlichen Drehung der Windrichtung auf mehr südliche Wetterlagen haben die Maisonnenstunden ab 1988 im Schnitt schlagartig zugenommen, ebenfalls auf ein höheres Stundenplateau. Mehr Sonnenstunden bedingt tagsüber eine natürliche Erwärmung, andererseits wird dadurch auch die Höhe des menschenverursachten Wärmeinseleffektes gesteigert. Der WI-effekt ist deshalb seit 1988 stärker angewachsen, als im Zeitraum bis 1987

Leider erfasst der DWD die Sonnenstunden für Deutschland erst seit 1951. Trotzdem ergibt sich bereits ein eindeutiger und erstaunlicher Zusammenhang zwischen Sonnenstunden und Temperaturverlauf. Der Sprung auf ein höheres Niveau ist deutlich erkennbar. Ebenso die anschließende Abnahme der Stunden.

Grafik 4: Die Sonne schien keinesfalls gleichmäßig im Monat Mai der letzten 74 Jahre. Neben den jährlichen Differenzen sind die beiden Trendlinien bemerkenswert. Man beachte 87/88

Ergebnis: Auch die Sonnenstunden zeigen den Temperatursprung. Die Sonnenstunden sind ab 1951 bis 1987 stark gefallen, das hat den Mai damals kälter gemacht. Aufgrund der Änderung der Großwetterlagen erfolgte ab 1987 auf 1988 plötzlich ein starker Anstieg der Sonnenstunden auf ein höheres Niveau. Das hat den Mai plötzlich wärmer gemacht. Auf diesem höheren Wärmeplateau mit mehr südlichen Wetterlagen befindet sich der Mai noch heute, allerdings mit absteigender Tendenz, da auch die Sonnenstunden sich verringern.

3. Der Wärmeinseleffekt: Die Standorte der DWD-Stationen sind aufgrund der Bebauung und Bevölkerungszunahme wärmer geworden, und sie werden weiter wärmer. Dazu nimmt die Flächenversiegelung in Deutschland laufend zu, was den Wärmeinseleffekt des letzten Frühlingsmonats ständig erhöht, (derzeit ist ein Siebtel der Gesamtfläche Deutschlands versiegelt) siehe Flächenversiegelungszähler. Aktueller Stand: 50 787 km²

4. Niederschläge im Monat Mai. Sie sind leicht zunehmend seit 1988. Die südlichen und SW-Strömungen seit 1988 brachten auch mehr Niederschläge und damit eine höhere Verdunstungskälte in Bodennähe, vor allem bei ländlichen Wetterstationen. In der Stadt fließt der Regen sofort in die Kanalisation, es verdunstet viel weniger Wasser. Insgesamt wird der zunehmende Mairegen auch ein Grund sein, dass der Mai im Gegensatz zu anderen Monaten, seit 1988 bis heute nicht wärmer wird, sondern sogar leicht abkühlt, obwohl die wärmende Flächenversiegelung und Trockenlegung Deutschlands zunimmt.

Grafik 5: Der Niederschlag im Monat Mai hat seit 1988 zugenommen. 2024 lag weit über dem Schnitt der deutlich steigenden Trendlinie

5. Eine statistische Erwärmung. Die Erfassung der Tagestemperaturen durch Flüssigkeitsthermometer in der Wetterhütte wurde abgeschafft, ebenso die Abschaffung der Tagesmittelerrechnung mittels Mannheimer Stunden durch eine rundum digitale Tageserfassung. Zudem wurden auch Wetterstationen durch Tausch an wärmere Plätze verlegt. Also eine statistische Erwärmung vor allem in den letzten 3 Jahrzehnten.

Zu diesem Thema haben wir vor kurzem eine vierteilige Reihe aufgelegt, siehe hier:

1

2

3

4

Nebenbei: Die Windhäufigkeit hat allgemein seit 1988 abgenommen wie Stefan Kämpfe in seiner acht Artikeln lange Reihe beschrieben hat. Schlecht für die Windräder bzw. für die alternative Stromerzeugung.

Sicherlich gibt es noch eine Vielzahl an weiteren Gründen, weshalb es in Mittel- und Westeuropa 1987/88 zu einem plötzlichen Temperatursprung auf ein höheres Niveau gab. Wir rufen die Leser auf, noch weitere mögliche Gründe zu nennen und zur Diskussion zu stellen. So funktioniert Wissenserwerb in der Wissenschaft.

Halten wir fest: Die Änderung der Großwetterlagen in Mittel-und Westeuropa brachten ab 1988 die zusätzliche Maiwärme für das höhere Wärmeplateau, auf dem wir uns heute noch befinden. Vor allem im letzten Maidrittel, nach den Eisheiligen nahmen Südwetterlagen zu.

Wir wissen, dass CO₂ allerhöchstens in homöopathischen Dosen wirkt, d.h. nur durch andere Gründe (wie oben genannt) können diese nun folgenden leicht vom DWD-Schnitt der 537 Stationen abweichenden Trendlinien einzelner Stationen erklärt werden.

Buchen im Odenwald, eher ländlich

Abb. 6: Vor dem Temperatursprung schließt sich die Schere zwischen Tages- und Nachttemperaturen. Nach dem Temperatursprung öffnet sie sich deutlich. Vor allem die Nächte werden bei der Station Buchen im Odenwald seit 1988 deutlich kälter.

Wir betrachten nun den Zeitraum nach dem letzten Temperatursprung bis heute bei einzelnen ausgewählten städtischen DWD-Stationen

DWD-Wetterstation Düsseldorf

Zuerst wollen wir dem RTL CO₂-Treibhausexperten Christian Häckl zeigen, dass seine dahingeschwätzte Theorie von der stärkeren nächtlichen CO₂-Erwärmungswirkung falsch ist, und zwar mittels den Temperaturreihen der Landeshauptstadt des Privatsenders

Grafik 7: Die nächtlichen T-min Temperaturen fallen deutlich stärker als die Tagestemperaturen. Die Schere zwischen T-max und T-min öffnet sich seit dem Klimasprung 1988

Frage an die Treibhausleute: Wirkt CO₂ nachts kühlend und tagsüber gar nicht? Oder macht das wärmende Treibhausgas einfach um Düsseldorf einen großen Bogen?

DWD-Wetterstation Leipzig

Abb. 8: Man beachte vor allem die Steigungsunterschiede zwischen Tag- und Nachttemperaturen. Mit über 0,04 C/jährlich geht die Schere der beiden Trendlinien seit 1988 am stärksten von den drei Großstädten auseinander.

München, mitten in der Stadt

Abb. 9: Geringere Steigungsunterschiede in der Innenstadt zwischen Tag/Nacht. Aber auch hier ist deutlich erkennbar, dass die Mainächte stärker abkühlen als Tmax.

  1. Wir erkennen, wäre CO₂ der alleinige Temperaturtreiber, dann müssten alle Wetterstationen identisch bei den Steigungslinien sein
  2. Es dürfte keine Abkühlung (negative Steigungsformeln) geben

Die leicht unterschiedlichen Steigungsformeln unserer Beispiele führen wir auf örtliche Klimaunterschiede, hauptsächlich Sonnenstunden und Mainiederschläge zurück. Die CO₂-Konzentrationen sind jedoch überall gleich hoch, derzeit 424 ppm=0,04%

Wir halten fest:

Die globalen CO₂-Konzentrationen steigen, der Mai wird nicht wärmer. Zwischen den Temperaturverläufen des Monats Mai und dem CO₂-Anstieg besteht keinerlei erkennbarer Zusammenhang, sondern nur Zufallskorrelationen für kurze Zeitabschnitte.

Die Verfasser leugnen jedoch nicht die physikalischen Eigenschaften des Moleküls CO₂, übrigens ein lineares Molekül und nicht gewinkelt, das im IR-Bereich absorbiert und sofort wieder emittiert. Dazu haben Sie im Studium selbst Versuche durchgeführt. Aber die von einigen Physikern daraus abgeleitete Erwärmung der Atmosphäre konnte bislang nicht nachgewiesen werden. Es gibt lediglich theoretische Berechnungen, aber genauso viele theoretischen Gegenrechnungen von namhaften Physikern. Es gibt auch keinerlei technische Erfindungen, die auf einem CO₂-Erwärmungseffekt beruhen würden. Eine CO₂-Wärmepumpe wäre nämlich toll, die Heizungsprobleme wären gelöst.

Auch der Monat Mai zeigt anhand der Originaldaten des Deutschen Wetterdienstes: Die CO₂-Erwärmungslehre ist eine Irrlehre. Ihr einziger Sinn ist, unter der Bevölkerung eine Klimaangst zu erzeugen, ähnlich der Sündenangst im Mittelalter mit ewiger Verdamnis. Leider ist diese Angstmache bei Kindern und Jugendlichen schon vielfach gelungen. Die angeblichen CO₂ Klimawandel-Beweise anhand Katastrophenmeldungen wie Hochwasser, Taifune sind eine Folge diverser Ursachen, meist ein Behördenversagen, oftmals jedoch einfach nach bekannter Medienart übertrieben. Bei der CO₂-Treibhaustheorie handelt sich um einen wissenschaftlichen Irrtum. Ein gewollter Irrtum. Es ist ein Geschäftsmodell auf falschen naturwissenschaftlichen Denk- und Rechengrundlagen aufgebaut. Die daraus abgeleitete Klimapanik, siehe Terrororganisation „letzte Generation“ ist gewollt und will unser Geld. Das Geld soll unser Gewissen beruhigen. Ein Loskauf von der erfundenen CO₂-Schuld. Das CO₂-Geschäftsmodell ist dem Sündenablasshandelsmodell der Kirche im Mittelalter nachempfunden. Panische Gewissensangst erzeugen, von der man sich freikaufen kann. Die CO₂-Steuer macht uns arm, sie ist eine nimmer versiegende Geldeinnahmequelle der Interessengruppen, hilft jedoch überhaupt keinem Klima.

Die Erde braucht mehr CO₂ in der Atmosphäre und nicht weniger. Der derzeitige Gehalt an 0,044% liegt an der untersten Grenze. Das Leben der Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das notwendige Transportmittel, welches den Kohlenstoff dorthin bringt, wo er zum Lebenserhalt benötigt wird. Wer CO₂ verteufelt, handelt gegen die Schöpfung.

Natur- und Umweltschutz ist wichtig, Natur- und Umweltschutz ist was ganz anderes als der politische grünsozialistische Klimaschutz: Gerade dieser Mai hat gezeigt, der Niederschlag muss dort gehalten werden, wo er niedergeht, nämlich in der freien Versickerungsfläche. Das ist eine alte Forderung von uns aktiven Naturschützern. Keinesfalls darf er schneller durch den Ort geleitet werden durch irgendwelche Barrikaden, Schutzmauern oder Sandsäcke. Aber nach diesem Prinzip wird immer noch der HWS der Städte und Gemeinden betrieben, ein absolutes Behörden- und Politikversagen.

Richtiger Hochwasserschutz ist umgesetzter Naturschutz und bedeutet in der Realität: ein Rückhalt des Niederschlages in der Landschaft, wo der Regen wieder versickern darf, um unsere Grundwasservorräte aufzufüllen. Hierfür sind Gesetzesvorgaben nötig. Angewandter Naturschutz heißt, es müssen freie Rückhalteflächen in der Landschaft geschaffen werden, großflächige Bach- Flussauen und Versickerungsauen, die zur ökologischen Vielfalt und damit zum Erhalt der Schöpfung beitragen. Die großflächige Trockenlegung der Landböden bis in größere Tiefen lässt automatisch den Meeresspiegel steigen. Das bisschen Gletscherschmelze ist dagegen kaum erwähnenswert.

Eine CO₂-Einsparung ist fortgesetzter, jedoch politisch gewollter Blödsinn, ein Teil des Geschäftsmodelles Klimapanik und CO₂-Abzockesteuern. Die teuren CO₂-Reduzierungsmaßnahmen helfen weder dem Klima noch der Natur noch dem Hochwasserschutz. Sie sind eine Sünde an der Schöpfung Erde.

Matthias Baritz, Naturschützer und Naturwissenschaftler Josef Kowatsch, Naturbeobachter, Naturschützer und unabhängiger, weil unbezahlter Klimaforscher.

 




Der Kampf der Klimahypothesen: Treibhausgas-Antrieb vs. Winter-Gatekeeper-Hypothese: Klimaverschiebungen – gibt es sie wirklich?

Gabriel Oxenstierna

Das Klimasystem versucht ständig, Strahlungs-Ungleichgewichte durch den meridionalen Wärmetransport über atmosphärische und ozeanische Zirkulationssysteme auszugleichen, die den polwärts gerichteten Fluss latenter und fühlbarer Wärme kontrollieren (siehe den ersten Artikel dieser Reihe hier).

Die „Winter-Gate-Keeper-Hypothese“ [WGH] besagt, dass das Klima jahrzehntelange Wärmetransport-Regimes aufweist, die durch mehr oder weniger abrupte Verschiebungen getrennt sind: „… Klimaregimes sind unterschiedliche Zustände der atmosphärischen Zirkulation mit unterschiedlich starkem polwärts gerichteten Wärmetransport. Diese Regimes ändern sich nicht allmählich, sondern können abrupt von einem Zustand in einen anderen übergehen.“[2, S. 337]

Klimaregimes, die durch Klimaverschiebungen beendet werden, sind ein grundlegendes Merkmal der WGH, da sie ein Ausdruck der natürlichen, für sie wesentlichen Zyklen sind [2, Kap. 32-33]. Diese Regimes manifestieren sich als Trends in ozeanischen und atmosphärischen Oszillationen, in variierenden Wärmetransportintensitäten und in veränderten Temperaturtrends.

Wichtig ist die These der WGH, dass die Änderungen des Flusses ausreichen, die zu Klimaverschiebungen führen, um die Strahlungsbilanz so zu verändern, dass sich der Planet Erde entweder abkühlt oder erwärmt. Die sich verändernden Transportregimes von Wärme und Feuchtigkeit sind die grundlegende Erklärung für den Klimawandel, so die WGH.

Die Klimahypothese der Treibhausgas-Befürworter erkennt die natürlichen Klimaveränderungen auf globaler Ebene nicht an, da sie nicht zur Hypothese eines sich verändernden Klimas passen, das auf allmählich steigende Treibhausgaskonzentrationen reagiert. Selbst wenn einige Klimaverschiebungen nachgewiesen werden können, wird davon ausgegangen, dass sie nicht signifikant genug sind, um das globale Strahlungsgleichgewicht zu verändern. Das IPCC erwähnt auch keine Klimaverschiebungen oder Klimaregimes als Konzepte an sich.[3] Klimaverschiebungen werden unter der Kategorie „interne Variabilität“ eingeordnet, deren Auswirkungen auf Null gesetzt werden:

Abbildung 1. Geschätzte Beiträge zur beobachteten Erwärmung in den Jahren 2010-2019 im Vergleich zu 1850-1900. Die Abbildung ist dem jüngsten IPCC-Klimabericht entnommen, in dem heroisch behauptet wird, dass natürliche Schwankungen zum ersten Mal in der Geschichte keinen Einfluss mehr auf das Klima haben: Der gesamte Klimawandel wird heute ausschließlich auf den Menschen zurückgeführt. Skala in Grad K. Quelle: [3, Abb. 2b]

Die einzige Klimaverschiebung der Neuzeit, die in der Klimawissenschaft einigermaßen anerkannt ist, fand 1976 statt. Sie wurde umfassend untersucht und ist in vielen klimabezogenen Variablen erkennbar. Sie hatte zahlreiche Auswirkungen, z. B. auf die Meeresökologie.[4][5][6] In der WGH-Literatur wird die Klimaverschiebung von 1976 folgendermaßen beschrieben:

„Die jüngste globale Erwärmung begann 1976 mit einer plötzlichen Klimaverschiebung im Pazifischen Ozean, welche die zonale atmosphärische Zirkulation verstärkte und den polwärts gerichteten Wärmetransport verringerte, wodurch der globale Temperaturtrend beeinflusst wurde. Infolgedessen wechselten die multidekadischen ozeanischen Oszillationen von einer kalten Phase, die zu der Abkühlungsperiode von 1945-1975 geführt hatte, in eine warme Phase.

Der abrupte Klimawandel von 1976 hat gezeigt, dass es multidekadische Klimaregimes gibt, die durch abrupte Übergänge getrennt sind. Sie sind das Ergebnis von Veränderungen in der globalen atmosphärischen Zirkulation, die unterschiedliche polwärts gerichtete Wärmetransportregimes etablieren.“ [2, S.342, Hervorhebung von mir].

Die Verschiebung von 1976 ist somit der Ausgangspunkt für die Betrachtung von mutmaßlichen Klimaverschiebungen mit entgegengesetzten Auswirkungen auf die vorherrschenden Windmuster, den polwärts gerichteten Wärmetransport und die Erwärmung. Eine solche Verschiebung fand um 1944/45 statt und eine jüngere wird von der WGH um 1997 behauptet.

Was treibt die Klimaveränderungen an?

Das Grundkonzept der WGH besteht darin, dass der polwärts gerichtete meridionale Transport (MT) von Wärme und Feuchtigkeit den Klimawandel steuert. Eine Zunahme des MT beschleunigt den Energietransport in die Polarregionen, verstärkt die Abstrahlung in den Weltraum, insbesondere in der Arktis, und wirkt folglich als negative Rückkopplung.

Die treibende Kraft hinter dem MT ist der steile latitudinale Temperaturgradient (LTG; oder kurz „Gradient“) zwischen den Tropen und den Polarregionen. „Der LTG ist eine zentrale Eigenschaft des Klimasystems der Erde auf allen Zeitskalen. Sie treibt die atmosphärisch-ozeanische Zirkulation an und hilft, die Ausbreitung orbitaler Signaturen durch das Klimasystem zu erklären, einschließlich des Monsuns, der arktischen Oszillation und der Ozeanzirkulation.“[1, S.86][10]

Der Gradient ergibt sich aus der unterschiedlichen Strahlungserwärmung zwischen tropischen und polaren Breiten und treibt den polwärts gerichteten Wärmetransport an. Er fungiert somit als thermodynamischer Motor für das Klima des Planeten: „MT ist der Klimaregler, und er reagiert in erster Linie auf den LTG“. [1, S.542] Dieser Gradient weist nun eine mehrdekadische Variation auf:

Abbildung 2. Der beobachtete Temperaturgradient in Breitengraden zwischen der Arktis und den Tropen. Er wird durch Subtraktion der Temperaturanomalien in Breitengraden zwischen 64-90N und 0-24N berechnet. Positive Werte zeigen einen schwächeren Gradienten im Vergleich zum Basiszeitraum 1951-1980 an. Die gelben Balken zeigen den schwachen Gradienten um 1940/45 und in jüngerer Zeit ab 2000, d. h. die Zeiträume, in denen der Temperaturunterschied zwischen der Arktis und den Tropen am geringsten war. Dies sind auch die Zeiträume, in denen die polaren und subpolaren Breiten eine stärkere Erwärmung erfahren. Die Buchstaben A-D stehen für verschiedene Klimaregimes, und die vertikalen orangefarbenen Linien wurden hinzugefügt, um die postulierten Klimaverschiebungen zu verdeutlichen. Quelle: [8, Abb. 4]

Ein höherer Temperaturgradient verstärkt den polwärts gerichteten Wärmetransport und umgekehrt. Während des Klimawandels um 1945 erreichten die globalen Temperaturen ihren Höhepunkt, als der Gradient seinen schwächsten Wert erreichte und sich der Wärmetransport verlangsamte (Periode „A“/gelber Balken in Abbildung 2). Von da an nahm der Gradient zu, der Wärmetransport gewann an Fahrt und trug dazu bei, dass sich das Klima in den folgenden Jahrzehnten abkühlte (Zeitraum „B“):

Abbildung 3. Die mehrdekadischen Temperaturtrends zeigen mehrdekadische Klimaregimes A-D mit Verschiebungen um 1910, 1945 und 1976, aber nicht 1997.

In den 1960er und frühen 70er Jahren wurde der Gradient größer, der polwärts gerichtete Wärmetransport verbesserte sich und die globalen Temperaturen sanken etwas. Aber wieder verschob sich das Klima. In den Jahrzehnten nach der Klimaverschiebung 1976 ist der Gradient immer kleiner geworden (‚C‘ und ‚D‘ in Abb. 2). Dies hat den Wärmetransport seit 1976 negativ beeinflusst und zu einer Erwärmung des Klimas beigetragen, insbesondere im hohen Norden.

Die Advektion von Wärme und Feuchtigkeit

MT ist ein polwärts gerichteter Transport von Wärme und Feuchtigkeit. Die fühlbare Wärme wird in allen Schichten der Atmosphäre bis zur Obergrenze der Atmosphäre (ToA) transportiert, während die latente Wärme als Feuchtigkeit (Wasserdampf) in der unteren Atmosphäre transportiert wird. Der Wasserdampf in der Atmosphäre dient als Wärmespeicher, der später wieder abgegeben werden kann. (Weitere Erklärungen finden Sie im Anhang.)

Das gesamte niederschlagbare Wasser (TPW) in der Luftsäule kann als Indikator für die Menge an Feuchtigkeit, die für MT zur Verfügung steht, und für die Geschwindigkeit der atmosphärischen Umwälzung verwendet werden. Die Klimaregimes und -verschiebungen (A-D) stimmen gut mit den TPW-Entwicklungen überein:

Abbildung 4. Gesamtes niederschlagbares Wasser (TPW), gemessen und reanalysiert durch ECMWF ERA5 (0,5×0,5 Grad) von 1940 und ERA20C von 1900-1940. Der letztgenannte Datensatz wurde an das höhere Niveau von ERA5 angepasst. Klimaregimes und Verschiebungen wie in den Abbildungen 2 und 3. Datenquelle: ECMWF.

Der TPW nimmt infolge der globalen Erwärmung langfristig zu, und es befindet sich heute fast 10 % mehr Wasser in der Atmosphäre als vor 120 Jahren. Wärmere Luft enthält mehr Wasser, wodurch die Konvektions- und Advektionsprozesse im Wasserkreislauf verstärkt werden. Es ist bekannt, dass die Intensität der tropischen Hadley-Zellen zugenommen hat, und sie haben sich seit 1997 auch deutlich polwärts ausgedehnt. Auch die Ferrel-Zellen zeigen eine ähnliche Zunahme. Als Ergebnis dieser Verschiebungen haben wir seit etwa 2000 einen positiven Trend beim polwärts gerichteten Export von Nettoenergie aus den Tropen, der die MT antreibt, siehe vorheriger Beitrag (Abb. 4).

Gab es im Jahre 1997 eine Klimaverschiebung?

Die Schwankungen im Gradienten (Abb. 2) und im TPW bestätigen die Behauptungen über die Klimaverschiebungen von 1945 und 1976. Aber was ist mit der Klimaverschiebung 1997, die von WGH vorgeschlagen wurde? [1, Kap. 11.4] Wir hatten einen Höhepunkt der globalen Temperaturen während des starken El Niño 1997/98, gefolgt von einem Temperatur-Hiatus bis 2015. Dennoch ist der längerfristige globale Erwärmungstrend seit 1976 intakt, ohne Anzeichen einer klimatologisch relevanten Klimaverschiebung in den globalen Temperaturdaten (Abb. 3). Auch der Gradient in Abbildung 2 zeigt keine Anzeichen einer Verschiebung nach 1997. Auch in den Daten zum Energieungleichgewicht der Erde (EEI) und zum Wärmeinhalt des Ozeans (OHC) gibt es keine Anzeichen für eine Klimaverschiebung 1997. Allerdings gibt es andere Anzeichen für eine Verschiebung im Jahr 1997, z.B. im Wasserkreislauf (Abb. 4) und in verschiedenen Klimaindizes in der Arktis.

Das globale Wärmetransportsystem befindet sich in einem ständigen Wandel, der dazu geführt hat, dass der polwärts gerichtete Transport seit 1997 zugenommen hat, obwohl der LTG immer kleiner wurde. Offensichtlich waren einige ausgleichende Faktoren wichtiger, wie zum Beispiel die Verschiebung des TPW. In der Arktis kam es in diesem Zeitraum zu einer dramatischen Erwärmung, der „arktischen Verstärkung“, die durch einen verstärkten Wärmetransport in der Atmosphäre und den Ozeanen verursacht wurde. Dadurch hat sich der Temperaturgradient verringert, und andere Faktoren wie die TPW-Verschiebung haben offenbar an Bedeutung gewonnen.

Die Veränderungen im Wasserkreislauf stehen im Einklang mit allen behaupteten Klimaverschiebungen, einschließlich 1997. Dies impliziert, dass Veränderungen im Wasserkreislauf für MT von wesentlicher Bedeutung sind, wie die signifikanten Entwicklungen des TPW in Abbildung 4 zeigen. Es gibt auch viele Belege für die Verschiebung von 1997 in der Arktis sowie in den kumulativen Indizes verschiedener mehrdekadischer Klimaschwankungen wie AMO, ENSO und PDO[1, Abb. 11.10].

Antwort auf die Frage in der Überschrift: Ja, aus den Daten und der Literatur geht eindeutig hervor, dass Klimaregimes und Klimaverschiebungen real sind, die durch den Transport von Wärme und Feuchtigkeit angetrieben werden. Das gilt nicht nur für die Neuzeit, sondern hat das Klima während des gesamten Holozäns und darüber hinaus geprägt.[10] Klar ist aber auch, dass es keine regelmäßigen Wechselwirkungen oder Zyklen gibt: Einige grundlegende globale Klimavariablen, die an der Verschiebung von 1976 beteiligt waren, wurden 1997 nicht beeinflusst.

Schließlich spielt der Treibhausgasantrieb durch CO₂ bei den Klimaverschiebungen in der Neuzeit keine Rolle. Erstens nimmt CO₂ bei allen genannten Klimaverschiebungen monoton zu, und zweitens wird sein Einfluss auf den Wärmetransport als „vernachlässigbar“[10] eingestuft.

Anhang: Anmerkungen zu fühlbarer und latenter Wärme

Im Wasserkreislauf ist der vertikale Nettowärmetransport als latenter Fluss etwa zehnmal größer als der Transport fühlbarer Wärme. Betrachtet man jedoch den meridionalen Wärmetransport jenseits der Tropen, so wird weniger als die Hälfte als latente Energie im Vergleich zur fühlbaren Wärme horizontal befördert.

Der meridionale Wärmetransport im Klimasystem kann durch drei Komponenten aufrechterhalten werden: den Wärmetransport der trockenen Luft AHTDSE, den Wärmetransport der Ozeane und den Latentwärmetransport AHTLE.[7] In den polaren Breiten dominiert der Wärmetransport der trockenen Luft gegenüber dem Transport latenter Wärme:

Abbildung 5. Der mittlere atmosphärische Wärmetransport, berechnet direkt aus der Geschwindigkeit und der Temperatur (AHTVT; Einheit der y-Achse: PW). Der gesamte AHTVT (durchgezogen Schwarz) umfasst den trockenen statischen Energietransport fühlbarer Wärme (AHTDSE, rot) und den latenten Energietransport (AHTLE, durchgezogen Blau). Der latente Wärmetransport (HTEMP), der sich aus der Verdunstung abzüglich des Niederschlags (EMP) an der Meeresoberfläche ergibt, ist als gestrichelte blaue Linie aufgetragen. Weitere Erläuterungen finden Sie in den Abschnitten 4.5-4.7 und den Abbildungen 9-12 in [7].

References

[1] Vinós, Javier, Climate of the Past, Present and Future: A scientific debate, 2nd ed., Critical Science Press, 2022.

[2] Vinós, Javier. Solving the Climate Puzzle: The Sun’s Surprising Role, Critical Science Press, 2023.

[3] IPCC AR6 WG1, Summary for Policymakers (SPM), figure SPM.2, https://www.ipcc.ch/report/ar6/wg1/chapter/summary-for-policymakers/

[4] Recent observed interdecadal climate changes in the northern-hemisphere. Trenberth, AMS 1990, https://doi.org/doi:10.1175/1520-0477(1990)071<0988:ROICCI>2.0.CO;2

[5] From Anchovies to Sardines and Back: Multidecadal Change in the Pacific Ocean, Chavez and 3 co-authors, Science 2003, https://doi.org/10.1126/science.1075880

[6] Global Variations in Oceanic Evaporation (1958–2005): The Role of the Changing Wind Speed, Lisan Yu, J.of Cl. 2007, https://doi.org/10.1175/2007JCLI1714.1

[7] Decomposing the meridional heat transport in the climate system, Yang and 4 co-authors, Clim Dyn 2015, https://doi.org/10.1007/s00382-014-2380-5

[8] Ocean-atmosphere climate shift during the mid-to-late Holocene transition, Morley and 2 co-authors, 2014, https://doi.org/10.1016/j.epsl.2013.11.039

[9] A new dynamical mechanism for major climate shifts, Tsonis and 4 co-authors, https://doi.org/10.1029/2007GL030288

[10] Heat Transport Compensation in Atmosphere and Ocean over the Past 22 000 Years, Yang and 5 co-authors, Nature 2015, https://doi.org/10.1038/srep16661

Link: https://wattsupwiththat.com/2024/05/31/the-green-house-gas-forcer-vs-the-winter-gatekeeper-round-2-climate-shifts-are-they-for-real/

Übersetzt von Christian Freuer für das EIKE