In Grönland wird es seit 2010 kälter!

Fortsetzung des Artikels vom 22.07.2022

Matthias Baritz, Josef Kowatsch

In der Klimaschau 115 wurde die Temperaturentwicklung in Grönland thematisiert. Hierbei zeigte die Arbeit Shinji Matsumura et al. 2021, dass die Temperaturen der Grafik in den letzten ca. 10 Jahren stagnieren, bzw. leicht sinken. Dies ist erst einmal verwunderlich und steht im krassen Widerspruch zu dem Klima-Alarmismus. Wie im Video von 2021 erwähnt, wird diese Entwicklung in den Medien seit einem Jahrzehnt totgeschwiegen.

Screenshot Klimaschau 115 (Ausschnitt)

Betrachten wir nun obige Swiss Camp-Grafik. Die ersten 17 Jahre stiegen die Temperaturen auch noch, so dass SwissInfo 2007 eine erste Zwischenbilanz zog: „Die Eisdecke von Grönland schmilzt rapide und fließt ins Meer“. Wo allerdings die im Artikel behaupteten 5 Grad Erwärmung in diesem Zeitraum sein sollen, ist aus der obigen Grafik nicht zu erkennen. Und leider konnte auch eine 2.te Bilanz nicht mehr gezogen werden, denn das Swiss Camp existiert nicht mehr. „..Völlig zerstört und begraben unter einer meterhohen Schneedecke…“ schreibt das polarjournal.ch am 1.10.2021, ‘wurde mit dem Abbau des Camps begonnen‘. Vielleicht spricht es sich auch bei den Alarmisten einmal herum, dass es in Grönland zeitweise kräftig schneien könnte.

Interessant ist es nun, die weitere Temperaturentwicklung in Grönland, d. h. im 21. Jahrhundert zu untersuchen. Teil 1.

In Grönland handelt es sich offensichtlich um eine langfristige Entwicklung, die periodisch zu Erwärmungen und Abkühlungen führt. Zur Bestätigung o.a. Ergebnisse sollen nun weitere Stationen in Grönland herangezogen werden und dessen Entwicklung im Vergleich zu 2022 zu sehen. Grönland ist deshalb wichtig, weil es sich um Festlandeis handelt und ein Abschmelzen bei einer Erwärmung würde zum Anstieg des Meeresspiegels führen. Wir wissen: Eine mögliche Meereisschmelze wie im Nordpolbereich behauptet, um uns zu ängstigen, ändert eh nichts am Meeresspiegel

Wir betrachten deshalb den Temperaturverlauf bei weiteren Stationen, und zwar in den Gegenden um Nuuk (Godthaab) an der Westküste Grönlands, Tasiilaq an der Ostküste Grönlands, die Humboldt Station sowie Summit Camp im Hochland von Grönland, also mittendrin im Land. Unsere Daten sind von KNMI Climate Explorer WMO, GC NET. GitHub sowie GISS-Daten. Betrachtet wurden die Sommer- und die Jahreswerte.

Abb. 1 a,b: Sommertemperaturen (blau) der gesamten Grönlandinsel, 10jähriges, gleitendes Mittel. Speziell für unseren Freund und Kritiker Cohnen wurde dieses Mittel zentriert, was er ja bei einem der letzten Kommentare kritisierte.

Man sieht: Grünland zeigt keine Erwärmung, ganz im Gegenteil: Sowohl das 10jährige Mittel (ab 2007) als auch die Temperaturtrendgerade (ab 2003) zeigen einen fallenden Verlauf! Es hat sich ausgewärmt um Grönland. Hat CO₂ seine Wirkung eingestellt?

Nehmen wir nun zwei Stationen, die an den Küsten Grönlands liegen: Nuuk an der Westküste und Tasiilaq an der Ostküste

Abb. 2 a,b: Die Sommertemperatur der Monate Juni, Juli, August liegen an der Westküste Grönlands, in der Hauptstadt deutlich im Plus. Beim 10-jährigen gleitenden Mittel steigt diese bis 2007, danach fällt sie. Beim linearen Trend ist die Temperaturtrendgerade schon ab 1999 fallend.

Fazit: Seit 2 Jahrzehnten werden die Sommer an der Westküste Grönlands wieder kälter.

Nun zur Ostküste: Wetterstation Tasiilaq, Sommer

Abb. 3 a,b: An der Ostküste sind die Sommertemperaturen auch im Plus, zeigen aber auch keine Erwärmung. Der lineare Trend ist seit 20 Jahren leicht fallend.

Eine Station in der geographischen Mitte Grönlands: Summit Camp

Abb. 4 a,b: Mitten im Land, auf 3000 m Höhe gibt es in den letzten 3 Jahren einen leichten Anstieg. Man beachte die Höhe, bzw. Tiefe der Sommertemperaturen: auch bei Rekord-Höchsttemperaturen von -12°C kann kein Inlandeis schmelzen. Von 2007 bis 2017 fällt das 10jährige gleitende Mittel. Der lineare Trend zeigt eine leicht fallende Tendenz ab 2003.

Als letztes nehmen wir die Station Humboldt im Nordwesten Grönlands auf fast 2000 m Höhe.

Abb. 5 a,b: Auch hoch im Norden Grönlands gibt es selbst im Sommer keine Erwärmung. Man beachte die Höchsttemperaturen, auch konstant im Sommer deutlich unter Nulll-Grad

Was soll man nun von Aussagen wie diesen halten, die in dieser oder ähnlichen Art ständig auf uns hereinprasseln?

..Untersuchungen zeigen, dass der grönländische Eisschild sich im Vergleich zum 20. Jahrhundert um 1,5 Grad erwärmt hat und die Arktis viermal schneller als der Rest der Welt aufheizt. Diese Erwärmung führt zu einem verstärkten Schmelzen des Eises, was wiederum den Meeresspiegel ansteigen lässt…z. Bsp. hier (oder einfach mal selbst googeln)

Wir stellen fest: Unsere Untersuchungen beweisen das Gegenteil!

Selbst bei einem Temperaturanstieg, wie es zum Beispiel bei Summit Camp in den letzten 3 Jahren der Fall ist, wird bei einer Rekord-Höchsttemperatur im Sommer von -12 ° C kein Eis schmelzen. Im Frühling, Herbst und Winter schon gar nicht. Und seit den letzten ca. 15 Jahren haben wir in Grönland sogar fallende Temperaturtrends. Wo ist denn hier das ‚verstärkte Schmelzen des Eises‘?

Betrachten wir nun die Jahrestemperaturen: Hier wurde jetzt das gleitende 10jährige Mittel und der lineare Trend in einer Grafik dargestellt.

Abb. 6,7,8,9,10: Selbst die Jahrestemperaturen zeigen kaum eine signifikante Erwärmung, ganz im Gegenteil: An den Küsten haben wir einen leucht fallenden Trend der Temperaturtrendgeraden. Für die komplette Insel gibt es seit über 20 Jahren eine konstante Trendgerade bzw. ein konstantes 10jähriges gleíetendes Mittel. Nur innerhalb Grönlands, auf 2000- 3000 m Höhe gibt es eine leichte Erwärmung.

Der Jahrestemperaturverlauf ist natürlich noch um einiges kälter als die Jahreszeit Sommer. Aber auch die Jahrestemperaturen steigen mitten im Land seit 15 Jahren nur leicht, was für die Eisschmelze nicht relevant ist, da die Temperaturen im Minusbereich sind.

Fazit: Auch bei den Jahresdurchschnittstemperaturen ist die gleiche Tendenz zu erkennen: Bis ins Jahr, etwa, 2005 steigt die Temperatur, danach nicht mehr bzw. kaum noch

Fakt ist: Der neuzeitliche obere Temperaturwendepunkt ist überschritten. Grönland kühlt seit ca. 15 Jahren leicht ab! Der Trend ist aber noch nicht signifikant.

Was ist nun die Ursache dieser Erwärmungsstagnation bzw. der leichten Abkühlung seit 2010?

In der Arbeit von Matsumura wurde ja schon gezeigt, dass der zentralpazifische El Nino das arktische Klima beeinflusst. Sicherlich gibt es noch weitere erhebliche, aber auch weniger relevante Einflüsse. Wir wollten in diesem Artikel nur zeigen, dass seit über einem Jahrzehnt keine Eisschmelzgefahr von Grönland mehr ausgehen kann und damit auch kein Meeresspiegelanstieg.

Was sind die Gründe dieser leichten Abkühlung bei den aufgezeigten Wetterstationen? Das zu ergründen wäre jetzt Aufgabe der Forschung, hier Klarheit hinein zu bringen. Aber das passt ja nicht in unsere CO₂-Klimaerwärmung/erhitzung/katastrophe.

Vielleicht wissen die Leser noch mehr Gründe, weshalb die Temperaturen seit 2010 in Grönland leicht sinken

Unser Fazit: Wir werden von alimentierten Wissenschaftlern, die sich als seriös bezeichnen und den Medien grob angelogen, seit 15 Jahren ist die Eisschmelze in Grönland beendet, weil es dort im Sommer nicht mehr wärmer wird. Und die Tage mit der geringsten Meeres-Eisausdehnung der Arktis haben sich nach vorne verschoben. Vor 20 Jahren lagen die Jahrestiefpunkte des Meereseises noch in der Septembermitte, nun wie 2025 eine Woche früher. Auch ein Anzeichen, dass die Sommer in der gesamten Arktis und nicht nur in Grönland kälter werden.

Und eine weitere Tatsache sollte der Leser aus unserem Artikel mitnehmen: Es handelt sich um natürlichen Klimaschwankungen.

CO₂ ist unschuldig: Durch CO₂ hat sich Grönland bis etwa 2005 nicht erwärmt. Und natürlich danach auch nicht abgekühlt.

Das Leben auf diesem Planeten Erde ist auf Kohlenstoff aufgebaut, CO₂ ist das notwendige Transportvehikel. Wir brauchen mehr CO₂ in der Atmosphäre und nicht weniger.

An dieser Stelle möchten wir insbesondere auf den Artikel von Herrn Wähner hinweisen, der die globale Abkühlung (NH), also auch Grönland, und die Erwärmung (SH) ab dem Zeitpunkt 10/2023 erwartet.. Wir werden die Entwicklung unter diesem Aspekt weiter verfolgen.

Matthias Baritz, Naturwissenschaftler und Naturschützer

Josef Kowatsch, Naturbeobachter und Klimaforscher.

 




Graphik der Woche

Anthony Watts via Peter Clack on Twitter

Die rote Linie für das Absterben von Pflanzen auf der Erde liegt bei etwa 150 ppm (unterhalb dieser Grenze können Pflanzen keine Photosynthese mehr betreiben), was eine kritische Untergrenze für die CO₂-Konzentration bedeutet, unterhalb derer Leben nur noch schwer möglich wäre. Der optimale CO₂-Gehalt für photosynthetische Pflanzen und Algen liegt bei etwa 1000 ppm, was zuletzt zu Zeiten der ersten Primaten der Fall war. Seitdem ist der CO₂-Gehalt stetig gesunken.

Dennoch war er immer noch deutlich höher als die heutigen 400 ppm, nachdem er sich von einem Tiefpunkt von 180 ppm während des glazialen Optimums vor 26.000 bis 20.000 Jahren erholt hatte. Der CO₂-Gehalt ist seit 160 Millionen Jahren von 2750 ppm rückläufig, als es zu einer Explosion der Korallenvielfalt kam und der CO₂-Gehalt deutlich höher war.

Dies relativiert Behauptungen, dass höhere CO₂-Werte Korallenriffe schädigen würden.

Hintergrund

Auf der Erde liegt der Kohlendioxidgehalt (CO₂) in der Atmosphäre, unterhalb dessen die meisten Pflanzen keine Photosynthese mehr betreiben können, bei etwa 150 ppm (Teile pro Million). Ein Absinken unter diesen Schwellenwert würde zu einem katastrophalen Zusammenbruch der Biosphäre führen, würden doch Landpflanzen und die von ihnen abhängigen Tiere dann sterben.

Schwellenwerte für verschiedene Arten der Photosynthese

Die für die Photosynthese erforderliche Mindestkonzentration an CO₂ variiert je nach Art der Photosynthese der Pflanzen.

C3-Photosynthese: Dies ist die häufigste Form der Photosynthese, die von etwa 85 % aller Pflanzenarten genutzt wird. Pflanzen mit diesem Stoffwechselweg reagieren am empfindlichsten auf sinkende CO₂-Konzentrationen und stellen bei etwa 150 ppm die Photosynthese effektiv ein, was auch ihre Fortpflanzung verhindert. Der CO₂-Kompensationspunkt für C3-Pflanzen – die Konzentration, bei der die Kohlenstoffaufnahme der Kohlenstofffreisetzung durch die Atmung entspricht – liegt bei etwa 50 ppm.

C4-Photosynthese: Dieser effizientere Art der Photosynthese, der von Pflanzen wie Mais und Gräsern genutzt wird, ist an viel niedrigere CO₂-Konzentrationen angepasst. C4-Pflanzen können bei Werten unter 10 ppm weiterhin effektiv Photosynthese betreiben, sodass eine C4-basierte Biosphäre unter sehr niedrigen CO₂-Bedingungen länger bestehen bleiben kann.

Implikationen für die Geschichte der Erde

Historische Daten aus Eiskernen zeigen, dass während der Eiszeiten der atmosphärische CO₂-Gehalt auf gefährlich niedrige Werte von 180 ppm CO₂ gesunken ist.

Beinahe-Aussterben: Der CO₂-Gehalt von 180 ppm liegt nur 30 ppm über der theoretischen Aussterbungsgrenze für die meisten Pflanzenarten. Dies zeigt, wie nahe die Biosphäre der Erde während dieser natürlichen Planetenzyklen einem Massensterben gekommen ist.

Glaziale Maxima: Die niedrigste während der letzten Glazialzyklen gemessene CO₂-Konzentration lag bei etwa 180 ppm. Bei diesem Wert wären viele Pflanzen, insbesondere C3-Arten, stark gestresst gewesen, was zu Wachstums- und Fortpflanzungsstörungen geführt hätte.

Link: https://wattsupwiththat.com/2025/09/16/graph-of-the-week-2-in-a-series/

Übersetzt von Christian Freuer für das EIKE

 




Zuverlässigkeit der ermittelten Global-Temperaturen der letzten 170 Jahre (1850-2020)

Von Andreas Karl

Anmerkung der EIKE-Redaktion: Dieser Beitrag datiert zwar schon aus dem Jahr 2020, doch sind aus unerfindlichen Gründen sämtliche Graphiken und Bilder daraus verschwunden. Daher wird dieser Beitrag hier noch einmal gepostet. Die hier angesprochene Problematik hat sich während dieser Zeit eher noch verschlimmert. – Ende Anmerkung

1.) Einleitung

1.1.) Richtiges Messen

Messungen sind die grundlegende Basis für alle Naturwissenschaften und Ingenieurs-Wissenschaften. Experimente liefern Daten, die gemessen und verarbeitet werden müssen. Das „Messen“ wird definiert als einen experimentellen Vorgang, durch den ein spezieller Wert einer physikalischen Größe (der Messgröße) als Vielfaches ihrer Maßeinheit oder eines Bezugswertes ermittelt wird. Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt?
Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Abb. 1a: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0

Abb. 1b Digital-Personenwaage (Bild ohne Lizenz)

Zu den Abbildungen 1a und 1b: Welchem Gerät vertrauen wir mehr, der Analogwaage oder der Digitalwaage?

1.2.) Kalibrieren und Eichen

Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein.
Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten
nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.
Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess
bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich.
Deutlich ausgedrückt:
Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen

Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinierter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen

Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.) Definition der Temperaturmessung

Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer.
Hierfür können im Prinzip jegliche physikalischen Größen (z.B.
 Länge, elektrischer Widerstand, Strahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.) Arten von Thermometer

Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.) Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2: DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

4.2.) Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

Zuverlässigkeit der Temperatur- Daten

5.1.) Zuverlässigkeit der Proxy-Daten

Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt. Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

Abb. 3: Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker 1;2 NTNU Vitenskapsmuseet, verkleinert von Dr. Andreas Karl, CC BY 2.0

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

6.1.1.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.2.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.3.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Abb. 3a: Thermometer (17.Jhdt) und modernes Infrarot-Thermometer Links: Ferdinand II de‘ Medici [attr.] Museo Galileo, Termometri cinquantigradi inv 85 IF 46774, CC BY-SA 4.0 Rechts: Hedwig Storch, 1024 Pyrometer-8445, CC BY-SA 3.0

6.1.4.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 4: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. 3;4

Abb. 5: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) 3;4

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 4 als auch in Abbildung 5 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden.
Abbildung 6 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 6: Meteorologische Mess-Stationen von 1885-1985 3;4

6.1.5.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte.

Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 7: Veröffentlichung von Patrica Adams 5

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb.8, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 8, rechts).

Abb.8 Freeman Dyson (2007) am Institute of Advanced Study Monroem,  CC BY-SA 3.0

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar: 1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt. 2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 9) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürme und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger. Professionelle Gärtnereien verbessern das Pflanzenwachstum und Fruchtausbeute durch künstliche Anhebung der CO2-Konzentration in Gewächshäusern. Ebenso gebräuchlich ist der Einsatz von CO2 bei Aquarianern, um das Wachstum der Wasserpflanzen zu erhöhen.

Abb.9 Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

Abb.10 Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ 6

Einee NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb.10) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit fest in der Hand der Mainstream-Medien.

Abb.11 Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.11).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 11) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb.12: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. 7

Abb.12: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. 7
Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 12). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

1 Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012
2 Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

3  Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

4  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surface

5 Patricia Adams in GWPF, 2020 https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

6 https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

7 Metoffice: https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html




Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 33 / 2025

Meldungen vom 15. September 2025:

La Niña hält an, Abkühlung verstärkt sich

Der Niño-3.4-Index ist auf -0,95°C (14. September) gefallen, wobei der Pazifik in den La Niña-Bereich abgerutscht ist.

Die Anomalien sind seit Juli stetig zurückgegangen und liegen nun fast 1 °C unter dem Durchschnitt der Jahre 1981–2010:

Die neuesten NMME-Modellläufe zeigen eine zunehmende Abkühlung im Laufe des Winters, wobei die meisten Ensembles deutlich in den La Niña-Bereich (unterhalb der Schwelle von -0,5 °C) abfallen.

La Niña-Winter bringen oft kältere Bedingungen in Nordamerika, stärkere Monsune in Asien und können Europa zu schneereicheren, Blockierungs-Wetterlagen führen – insbesondere bei geringer Sonnenaktivität (und die Sonnenaktivität ist in den letzten Monaten stark zurückgegangen).

Ein starkes La Niña hätte derzeit schwerwiegende Auswirkungen auf das Winterwetter, die Nahrungsmittelproduktion und den Energiebedarf.

Hinweis: Das CPC der NOAA wird La Niña erst dann offiziell ausrufen, wenn die Abkühlung über mehrere Monate anhält und mit den entsprechenden atmosphärischen Signalen einhergeht (wie stärkere Passatwinde und unterdrückte Konvektion in der Nähe der Datumsgrenze). Derzeit bleiben die Bedingungen neutral, obwohl sich der Pazifik stark abgekühlt hat und die NOAA die Wahrscheinlichkeit für die Entwicklung von La Niña bis Oktober–Dezember 2025 auf 71 % erhöht hat.

————————————–

Aktualisierung zur Polverschiebung

Anhand von Sandsteinen, die durch Magmadämme in Hainan in China gebacken wurden, haben Forscher das alte Feld während der Kreidezeit-Normal-Superchron (~105 Millionen Jahre vor heute) gemessen. Diese Gesteine wirken wie in einem Brennofen gebrannte Keramik und schließen das damalige Magnetfeld ein.

Die Ergebnisse zeigen eine Feldstärke von 40–50 Mikrotesla, was einem Dipolmoment von ~95 ZAm² entspricht – etwa 40 % stärker als die heutigen ~80 ZAm².*

Der Übersetzer bekennt seine fachliche Unkenntnis hierzu!

Und dennoch brach die Stabilität zusammen. Die Kreidezeit-Normal-Superchron behielt etwa 37 Millionen Jahre lang eine einzige Polarität bei, aber als sie endete, kehrten die Umkehrungen abrupt zurück. Das zeigt, dass ein starker Dipol keine Garantie für Stabilität ist: Das Feld kann kurz vor seinem Zusammenbruch am stärksten sein.

Die Autoren merken an: „Dieser kombinierte Datensatz lässt die Frage nach der Abhängigkeit zwischen der Stärke des geomagnetischen Dipols und der Häufigkeit der Umkehrungen offen.“

Das reicht aus, um Beobachter von Polverschiebungen zu begeistern, denn eine der letzten beruhigenden Aussagen der Mainstream-Wissenschaft lautete: „Keine Sorge, das Feld ist heute noch stark.“ Die neuen Daten zeigen, dass Stärke keinen Schutz bietet.

Unterdessen schwächt sich das moderne Feld der Erde weiter ab – seit dem 19. Jahrhundert um etwa 10 bis 15 %, wobei sich die Südatlantik-Anomalie ausdehnt und die Pole schneller über den Globus driften.

Unabhängig davon, ob es zu einer vollständigen Umkehrung oder einer kürzeren Abweichung kommt, kann der Geo-Dynamo selbst aus einer Position der Stärke heraus ins Chaos stürzen.

Hier kann man nicht ausschließen, dass Cap Allon selbst sich ein wenig des Alarmisten-Slang befleißigt. A. d. Übers.

————————————–

Und hier eine Meldung, deren Eintreffen hierzulande immer noch auf sich warten lässt (A. d. Übers.):

Der Klimawandel-Hype bricht zusammen!

Die große grüne Maschine der EU gerät ins Stocken. Pläne, ein neues Klimaziel durchzusetzen – eine rechtlich bindende Emissionsreduktion um 90 % bis 2040 – wurden nach Widerstand von einflussreichen Regierungen wie Frankreich und Deutschland auf Eis gelegt.

Trotz aller Diskussionen über „Sicherheit für Investoren“ und „Netto-Null bis 2050“ kann sich Europa dies in Wirklichkeit nicht leisten. Die Industrie bricht unter den steigenden Kosten zusammen, die Landwirte revoltieren. Selbst Regierungen, die einst gerne jedes Klimakommuniqué unterzeichneten, zögern plötzlich aufgrund des wachsenden Drucks (der kochenden Wut) der Bevölkerung. Sie können keine Revolution riskieren.

Das Ziel für 2040 sollte eigentlich am 18. September verabschiedet werden, also noch vor Ablauf der Frist für die Einreichung der Klimavorschläge bei der UNO. Stattdessen wurde es an die EU-Staats- und Regierungschefs weitergereicht, wo eine einstimmige Zustimmung erforderlich ist – ein politisches Todesurteil. Frankreich, Italien und Polen sträuben sich. Deutschland besteht darauf, dass die Staats- und Regierungschefs sich zuerst einigen müssen. Der Plan bricht auseinander.

Hinter den Schlagworten (Europa ist der „am schnellsten sich erwärmende Kontinent“, der Klimawandel hat „tödliche Hitzewellen und Waldbrände ausgelöst“) stimmen die Zahlen nicht überein. Außerdem verursacht Europa nur knapp 7 % der weltweiten CO₂-Emissionen, besteht aber dennoch auf einseitigem wirtschaftlichem Selbstmord.

Der Klimawandel-Hype ist politisch und wirtschaftlich unhaltbar und wissenschaftlich unbegründet.

Und er scheitert.

Endlich.

Link: https://electroverse.substack.com/p/biting-cold-in-canadas-far-north?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Eine Meldung vom 16. September 2025:

Neue Studie: Hunga Tonga – und nicht CO₂

Eine neue Studie kommt zu dem Ergebnis, dass nicht der Anstieg des CO₂-Gehalts, sondern der Ausbruch des Hunga Tonga im Jahr 2022 für die kurzfristige Erwärmung in den Jahren 2023–24 verantwortlich war.

Lightfoot und Ratzer (2025) verwenden den UAH-Satellitendatensatz, die zuverlässigste globale Aufzeichnung ohne Verzerrungen durch städtische Wärmequellen. Diese Aufzeichnungen zeigen, dass sich die Erde zwischen Januar 2019 und Januar 2023 um etwa 0,5 °C abgekühlt hat, was mit den Prognosen von Sonnenphysikern wie Valentina Zharkova übereinstimmt, die argumentieren, dass die abnehmende Sonnenaktivität die Temperaturen in den kommenden Jahrzehnten wieder auf das vorindustrielle Niveau zurückbringen wird.

Die plötzliche Erwärmung nach 2022 wurde nicht durch CO₂, sondern durch ein einzelnes Naturereignis verursacht.

Am 15. Januar 2022 explodierte der Unterwasservulkan Hunga Tonga mit rekordverdächtiger Kraft und schleuderte 146 Millionen Tonnen (146 Tg H₂O) Wasserdampf in die Stratosphäre – eine Zunahme des Feuchtigkeitsgehalts um mindestens 10 %. Normalerweise enthält die Stratosphäre nur wenige Teile pro Million Wasserdampf, typischerweise ~4–6 ppm, aber die Eruption fügte mindestens 10 % zu diesem Ausgangswert hinzu – eine starke Anomalie, die von NOAA-Ballonstarts und dem Aura-Satelliten der NASA erfasst wurde. Der zusätzliche Wasserdampf hielt die austretende Wärme zurück und verursachte einen messbaren kurzfristigen Anstieg.

Im April 2024 erreichten die Satellitenmessungen einen Höchstwert von etwa 0,45 °C über der 1,5 °C-Grenze des IPCC. Die monatlichen Anomalien bewegten sich einige Zeit lang nahe oder über diesem Schwellenwert, was die Medien dazu nutzten, um Fantasien über ein „neues Wärmeparadigma” zu verbreiten. Der Anstieg des CO₂-Gehalts betrug im gleichen Zeitraum jedoch weniger als 1 %. Die Korrelation bestand nicht mit Treibhausgasen, sondern mit der vulkanischen Einleitung von Wasserdampf.

Bis Juli 2025 war der Temperaturanstieg um mehr als ein halbes Grad Celsius zurückgegangen, wodurch sich der Abkühlungstrend wieder einstellte.

Die Autoren betonen, dass die Erde kurzzeitig über der 1,5-Grad-Marke lag, ohne dass dies katastrophale Auswirkungen hatte. Hunga Tonga zeigt, wie Naturereignisse den langsamen Anstieg des CO₂-Gehalts überlagern und kurzzeitige Schwankungen der globalen Temperatur verursachen können, die von Klimamodellen nicht erfasst werden.

Nun richtet sich der Fokus auf die Zukunft. Mit dem Abklingen des vulkanischen Wasserdampfs kehrt die vor 2022 zu beobachtende Abkühlung zurück. Die Sonne bleibt der dominierende Regulator, wobei Prognosen auf eine geringere Aktivität und damit kältere Bedingungen bis in die 2030er Jahre hindeuten. Die Landwirtschaft, so warnt die Studie, sollte sich auf kürzere Vegetationsperioden, frühe Fröste und die reale Möglichkeit sinkender Erträge in den kommenden Jahrzehnten einstellen.

Die ganze Studie steht hier (PDF).

Link: https://electroverse.substack.com/p/concordia-to-1028f-more-polar-vortex?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Meldungen vom 17. September 2025:

Arktisches Meereis-Minimum 2025 erneut höher

Die minimale Ausdehnung des arktischen Meereises für 2025 liegt bei 4,602 Millionen km² – das sind 350.000 km² mehr Eis als 2024 und 180.000 km² mehr als der Durchschnitt der Jahre 2011–2020. Die Behauptungen, das Meer würde „eisfrei” werden, haben sich einen weiteren Sommer lang nicht bewahrheitet.

Tatsächlich basiert jeder Rückgang auf einer wackeligen Grundlage. Wie kürzlich berichtet wurde, führten ein Wechsel der Sensoren und ein überarbeiteter Algorithmus in den Jahren 2006–07 zu einem künstlichen Rückgang in den Daten. Seitdem gab es keinen anhaltenden Rückgang des Meereises – was die Behauptung weiter untermauert, dass der Rückgang ein Produkt der Vorgehensweise und nicht der Realität war.

Einschub des Übersetzers hierzu:

Diese Graphik zeigt die o. g. Eisausdehnung der Jahre 2006 in orange und 2007 in grün. Eingezeichnet ist außerdem das Minimum des Jahres 2012 (rot gestrichelt) und dieses Jahr 2025 (blau).

Interpretation: Wenn man davon ausgeht, dass die Messmethodik nach 2007 nicht mehr verändert worden ist, kann man die Jahre 2007, 2012 und 2025 miteinander vergleichen. Dabei bleibt festzuhalten: Die Eisausdehnung (immer zum jahreszeitlichen Minimum!) war seit 2012 immer größer als in jenem Jahr. Von einem beschleunigten Abschmelzen kann also keine Rede sein. In diesem Jahr ist die minimale Eisausdehnung erheblich größer, wie es Cap Allon ja auch beschreibt – sogar noch größer als im Jahre 2007.

Aber Cap Allon fügt noch das hier hinzu:

Selbst in der Mainstream-Literatur wird dieses Problem thematisiert.

Die Wahrscheinlichkeit einer 18-jährigen Pause beim Abschmelzen des arktischen Meereises bei anhaltenden Emissionen wurde von Swart et al. (2015) auf weniger als 10 % berechnet (siehe Grafik unten) – das bedeutet, dass Experten eine Wahrscheinlichkeit von mehr als 90 % für das Gegenteil dessen angenommen haben, was tatsächlich eingetreten ist.

Das arktische Meereis verschwindet nicht, und die Modelle sowie ihre Entwickler haben sich als völlig falsch liegend erwiesen.

————————————–

Die NOAA schreibt die Vergangenheit um – immer und immer wieder

Die offiziellen Temperaturaufzeichnungen der USA (USHCN) sind nicht in Stein gemeißelt. Sie werden Tag für Tag stillschweigend neu geschrieben.

Nehmen wir die Daten aus Brewton, Alabama (Station Nr. 011084) für die Jahre 1940 bis 1950 (Tabelle unten).

Am 25. Juni 2025 listete die NOAA-Datenbank einen Satz monatlicher Temperaturen für diese elf Jahre auf, aber als die gleiche Station nur einen Monat später, am 25. Juli, erneut überprüft wurde, war jede einzelne Zahl geändert worden. Die „offizielle” historische Temperaturaufzeichnung war im Juni eine Sache, im Juli dann aber etwas völlig anderes.

NOAA USHCN Station 011084 (Brewton, Alabama). Monatliche Durchschnittstemperaturen (Celsius × 100, z. B. 1020 = 10,20 °C) für 1940–1950. Oberes Feld: Datensatz abgerufen am 25.06.2025. Unteres Feld: die gleichen Jahre, erneut abgerufen am 25.07.2025. Alle 132 Monatswerte unterscheiden sich zwischen den Abrufen.

Das Gleiche gilt für alle anderen Monate. Über alle anderen Jahre hinweg. Kein einziger Monatswert bleibt gleich.

„Die Daten werden jeden Tag geändert“, schreibt der Atmosphärenwissenschaftler Wei Zhang.

Die NOAA bezeichnet diesen Prozess als „Homogenisierung“, ein statistisches Verfahren, das angeblich dazu dient, Dinge wie Standortveränderungen oder Instrumentenwechsel zu korrigieren. In der Praxis bedeutet dies jedoch, dass die Vergangenheit niemals feststeht. Sie kann so sein, wie es die Regierungsbehörde will.

Das U.S. Historical Climatology Network (USHCN) wird als Goldstandard für die Temperaturen in den USA verkauft, wobei Politiker und Medien seine Grafiken als soliden Beweis für eine „beispiellose Erwärmung“ präsentieren. Wenn jedoch die Basiswerte aus den 1940er- und 1950er-Jahren – oder aus jedem anderen Jahrzehnt – von Monat zu Monat umgeschrieben werden können, dann ist die Grundlage für diese Behauptungen alles andere als solide.

Wenn man dann noch Politik und Agenden hinzufügt, besteht ein hohes Risiko für systemische Verrottung.

Link: https://electroverse.substack.com/p/antarcticas-late-season-freeze-arctic?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Signale für einen kalten bevorstehenden Winter

Cap Allon

Vorbemerkung des Übersetzers: Hier wird ein Ansatz vorgestellt, der einfach mal zur Diskussion gestellt werden soll. Es ist von einer nördlicher als normal gelegenen Innertropischen Konvergenzzone die Rede mit der Folge ergiebiger Niederschläge in der Sahel-Zone. Tatsächlich ist mir bei der täglichen Betrachtung des Wetter-Radars bei wetteronline.de die in diesem Sommer ungewöhnlich rege Gewittertätigkeit in allen westlichen Gebieten der Sahara aufgefallen.

Den Implikationen, die Autor Cap Allon daraus und aus anderen Phänomenen ableitet, möchte mich mich aber nicht vorbehaltlos anschließen. Keine Vorhersage dieser Art (so es überhaupt eine solche ist) ist mit 100% Eintritts-Wahrscheinlichkeit zu bewerten, nicht einmal annähernd.

Dennoch, ein interessanter Ansatz ist es allemal. Man darf auf Kommentare gespannt sein.

Ende Vorbemerkung

Die Innertropische Konvergenzzone – der Klima-Äquator – verschob sich in diesem Sommer nach Norden und lag in Afrika durchschnittlich 2,4 Grad nördlicher als im saisonalen Durchschnitt. Diese Verschiebung führte zu weitreichenden Niederschlägen in der Sahelzone, deutet aber auch auf etwas Größeres hin: einen veränderten Energietransport in der Hemisphäre.

Wenn sich die ITC nach Norden verschiebt, speichern die Tropen und die südliche Hemisphäre mehr Wärme und Feuchtigkeit des Planeten. Weniger davon wird über den Äquator in die nördliche Hemisphäre transportiert. Mit weniger eingehender Energie entsteht im Norden ein Defizit, das in den Winter hineinreicht – eine Konstellation, die kältere Jahreszeiten wahrscheinlicher macht. Die feuchtere Sahelzone ist ein sichtbares Zeichen für dieses Ungleichgewicht.

Und dieses Jahr agiert die ITC nicht allein.

Die Weltmeere kühlen sich tendenziell ab, wobei große Teile unter der WMO-Basislinie von 1991–2020 liegen (siehe unten). Und ein sich entwickelndes La Niña-Phänomen im Pazifik verstärkt diesen Trend noch: La Niña-Winter bringen oft mehr Blockierungs-Wetterlagen und eine erhöhte Schneedecken-Ausdehnung in Eurasien und Nordamerika mit sich.

Darüber hinaus zeigen sowohl die Nordatlantische Oszillation (NAO) als auch die Arktische Oszillation (AO) einen Abwärtstrend. Wenn diese Indizes negativ sind, schwächen sie die Westwinde und lassen arktische Luft nach Süden in die mittleren Breiten strömen. Genau dieses Muster ist mit einigen der härtesten Winter seit Beginn der Aufzeichnungen verbunden.

Die Daten für den Beginn der Saison stimmen bereits überein. Der Schnee hat sich im September schnell über Nordsibirien ausgebreitet, und die Vorhersagen sagen für Ende des Monats die ersten Flocken in höheren Lagen in Mitteleuropa voraus. Wenn sich diese Schneedecke frühzeitig aufbaut, wird dies die Blockierungshochs und die Kaltluftansammlungen über dem Kontinent verstärken.

Zusammengenommen – ITC nach Norden, kühlere Ozeane, La Niña, fallende NAO/AO und früher Schneefall – deuten die Signale auf eine Kälteperiode hin. Die gängigen Mittelwertmodelle simulieren weiterhin milde Witterung, aber die meteorologisch-statistischen Faktoren deuten in die andere Richtung.

—————————————————-

Im gleichen Bulletin bringt Cap Allon in diesem Zusammenhang noch etwas anderes:

Zunehmender Herbst-Schnee

Das Rutgers Global Snow Lab zeigt große, frühe Schneemengen in Nordsibirien zum Stand vom 17. September (Link):

Dieser Schnee fällt zwar früh und reichlich, folgt aber einem Trend.

Seit Beginn der Aufzeichnungen (1967) nimmt die Schneebedeckung im Herbst auf der Nordhalbkugel zu. Daten der Rutgers University zeigen, dass die Schneebedeckung im Herbst von etwa 18 Millionen km² in den späten 1960er Jahren auf regelmäßig über 20 Millionen km² in den letzten Jahrzehnten gestiegen ist.

Eine solide Schneedecke über Sibirien führt oft zu einem kalten, schneereichen Winter in Europa. Die neuesten WO/GFS-Prognosen deuten bereits darauf hin, dass der Kontinent schon früh davon betroffen sein wird.

Link: https://electroverse.substack.com/p/autumn-snow-increasing-signals-of?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

———————————————–

Und noch etwas von Cap Allon hierzu, hauptsächlich wegen der interessanten Graphik:

Stratosphären-Erwärmung (SSW) und der Winter 2025/26

Der stratosphärische Polarwirbel bildet sich über der Arktis neu. Frühe Indikatoren zeigen, dass er schwächer als durchschnittlich ist, was das Risiko von Störungen im weiteren Verlauf dieses Winters erhöht.

Ein plötzliches stratosphärisches Erwärmungsereignis (SSW) – ein schneller Anstieg der stratosphärischen Temperaturen, der den Wirbel destabilisiert – kann arktische Luft nach Süden in Richtung Sibirien, Nordamerika und Europa drücken. Etwa zwei Drittel der stärkeren SSWs haben Auswirkungen auf die Erdoberfläche, nämlich längere Kälteperioden, starke Schneefälle und eine allgemeine Störung des Jetstreams.

Die Grafik (unten) zeigt den zonalen mittleren Wind bei 60° N und 10 hPa, dem Standardmaß für die Stärke des Wirbels. Während die Windgeschwindigkeiten derzeit von ihrem Sommertief steigen, zeigt die Prognose, dass sich die Zirkulation unter dem langfristigen ERA5-Durchschnitt entwickelt.

Zonaler Mittelwind bei 60° N im 10 hPa-Niveau: Frühe Prognosen deuten auf einen unterdurchschnittlichen, schwachen Polarwirbel zu Beginn des Winters hin.

Störungen im Herbst oder zu Beginn der Saison, nämlich eine ungewöhnlich starke Aufwärtsausbreitung von Planeten- und Gravitationswellen, können den stratosphärischen Polarwirbel „vorbereiten“, indem sie ihn schwächen und seine Widerstandsfähigkeit verringern. Dadurch wird der Wirbel anfälliger, sodass spätere Einflüsse in der Mitte/am Ende des Winters mit höherer Wahrscheinlichkeit eine vollständige plötzliche stratosphärische Erwärmung auslösen.

Kurz gesagt: Ein schwächerer Wirbel zu Beginn des Herbstes ist anfälliger für Störungen im weiteren Verlauf der Saison. (Yang et al. 2023)

Der Zeitrahmen und die Schwere bleiben ungewiss, und nicht jede SSW setzt sich nbis zur Erdoberfläche durch. Wenn der Wirbel jedoch zusammenbricht – und die letzten Winter deuten darauf hin, dass dies immer häufiger vorkommt –, könnten große Teile der nördlichen Hemisphäre Anfang 2026 mit anhaltender Kälte konfrontiert sein.

Link: https://electroverse.substack.com/p/saudi-arabia-chills-early-snow-hits?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE