Zuverlässigkeit der ermittelten Global-Temperaturen der letzten 170 Jahre (1850-2020)

Von Andreas Karl

Anmerkung der EIKE-Redaktion: Dieser Beitrag datiert zwar schon aus dem Jahr 2020, doch sind aus unerfindlichen Gründen sämtliche Graphiken und Bilder daraus verschwunden. Daher wird dieser Beitrag hier noch einmal gepostet. Die hier angesprochene Problematik hat sich während dieser Zeit eher noch verschlimmert. – Ende Anmerkung

1.) Einleitung

1.1.) Richtiges Messen

Messungen sind die grundlegende Basis für alle Naturwissenschaften und Ingenieurs-Wissenschaften. Experimente liefern Daten, die gemessen und verarbeitet werden müssen. Das „Messen“ wird definiert als einen experimentellen Vorgang, durch den ein spezieller Wert einer physikalischen Größe (der Messgröße) als Vielfaches ihrer Maßeinheit oder eines Bezugswertes ermittelt wird. Jedes Messergebnis wird unter speziellen Messbedingungen erzielt. Diese sind möglichst konstant zu halten und stets anzugeben. Das Messresultat ist immer mit einer Messunsicherheit (Messabweichung, veraltet: Fehler) behaftet.

Die für Messungen verwendeten Messgeräte wurden im Laufe der Zeit immer genauer.
Problematisch war in der 2. Hälfte des 20. Jahrhunderts der Übergang von Analog-Anzeigen auf Digitalanzeigen. Die digitale Anzeige von Messergebnissen gaukelt oft dem ungeschulten Anwender eine Genauigkeit vor, die nicht vorhanden ist. Liegt beispielsweise die abgelesene Spannung von 12,62V an den Messpunkten an, die wir ablesen? Oder fahren wir tatsächlich die 88 km/h, die uns der Digital-Tacho anzeigt?
Nein, Messungen sind immer mit Messabweichungen behaftet. Im allgemeinen Sprachgebrauch wird für eine Messabweichung meist (noch) der Begriff Messfehler oder kurz Fehler verwendet. Jedoch empfehlt z.B. die DIN-Norm 1319, diesen Begriff durch den der
(Mess-)Abweichung zu ersetzen.

Abb. 1a: Frank C. Müller, Personenwaage fcmCC BY-SA 4.0

Abb. 1b Digital-Personenwaage (Bild ohne Lizenz)

Zu den Abbildungen 1a und 1b: Welchem Gerät vertrauen wir mehr, der Analogwaage oder der Digitalwaage?

1.2.) Kalibrieren und Eichen

Kalibrieren bzw. Eichen (Eichamt) ist der Vergleich einer bezifferten Skala mit einem Normal. Jedes Messgerät (Messeinrichtung), das auf einem physikalischen Messprinzip beruht, muss an ein Sekundär- oder Primär-Normal mit geringerer Messunsicherheit gekoppelt sein.
Kalibrierte bzw. geeichte Messgeräte sind somit mit geringeren Messunsicherheiten behaftet. Trotzdem sind Messungen mit diesen Geräten
nicht fehlerfrei. Es verbleibt die Messunsicherheit des Gerätes und die Fehleranfälligkeit durch die messende Person.
Als Erkenntnis dieser Einleitung sollte erreicht werden, dass der Leser an fremde Messergebisse kritisch herangehen sollte. Informationen zu den Messgeräten, den Mess
bedingungen, Anzahl der Messungen, u.s.w. sind unerlässlich.
Deutlich ausgedrückt:
Ohne Zusatzinformationen sind Messergebisse wertlos! Weitere Informationen in den nächsten Kapiteln. Diese grundlegenden Voraussetzungen werden in den folgenden Kapiteln auf die Zuverlässigkeit der Global-Temperatur-Daten angewendet.

2.) Art der Messabweichungen

2.1.) Zufällige Messabweichungen

Zufällige Messabweichungen entstehen aufgrund nicht beherrschbarer, nicht determinierter Einflüsse. Sie sind nicht vorausbestimmbar. Werden die Messungen am selben Messobjekt unter gleichen Bedingungen wiederholt, führen sie zur Streuung der Messwerte. Deshalb lassen sich diese zufälligen Messabweichungen sehr gut mit mathematisch statistischen Methoden ermitteln und eingrenzen. Diese Methode soll jedoch nicht innerhalb dieses Aufsatzes behandelt werden. Es gibt hierzu genügend gute Fachliteratur.

2.2.) Systematische Messabweichungen

Systematische Messabweichungen haben einen konstanten Betrag mit einem bestimmten Vorzeichen oder unterliegen nur einer sehr langsamen Veränderung aufgrund einer Ursache, die die Messgröße nur in eine Richtung verändert. Sie führen zu einer immer gleichen, zeitlich konstanten Differenz des Messwerts vom wahren Wert, d. h. zu einem „falschen“ Messergebnis. Systematische Messabweichungen sind durch Wiederholungen der Messungen unter gleichen Bedingungen nicht erkennbar!

3.) Temperatur-Messungen

Die Bestimmung der genauen Temperatur eines Systems ist trotz der alltäglichen Anwendungen keine triviale Sache – jedenfalls nicht, wenn man es genau nimmt. Im Gegenteil, die genaue Temperatur-Messung ist eine besondere Herausforderung. Eine Vielzahl von Unwägbarkeiten beeinflussen eine exakte Messung: Richtiges Thermometer für die jeweilige Anwendung, Genauigkeit des Thermometers, Sorgfältigkeit der Messung, äußere Einflüsse wie Licht oder Wärmestrahlung, u.s.w.. Einfach formuliert, die möglichen systematischen Fehler sind zahllos. Temperaturmessungen sind häufig falsch.

3.1.) Definition der Temperaturmessung

Sämtliche Verfahren zur Bestimmung der Temperatur eines thermodynamischen Systems durch Vergleich mit einer Temperaturreferenz, z.B. dem Thermometer.
Hierfür können im Prinzip jegliche physikalischen Größen (z.B.
 Länge, elektrischer Widerstand, Strahlungsgrößen) oder chemischen Eigenschaften (z.B. Temperatur-Messfarben) verwendet werden, die sich mit der Temperatur gesetzmäßig ändern.

3.2.) Arten von Thermometer

Die Zahl der unterschiedlichen Arten von Thermometern ist nahezu unüberschaubar. Prinzipiell wird unterschieden zwischen Berührungs-Thermometern und Thermometern, die auf berührungslosen Verfahren beruhen. Die Diskussion zu den unterschiedlichen Arten von Thermometern würde den Rahmen dieses Aufsatzes sprengen.

4.) Temperatur-Messung in der Meteorologie / Klimatologie

Inzwischen nähern wir uns der eigentlichen Fragestellung zur „Zuverlässigkeit der Temperatur-Messdaten der letzten 170 Jahre“. Betrachten wir die Fakten zur Ermittlung der mittleren Global-Temperaturen in diesem Zeitraum. Doch zunächst 2 entscheidende Begriffs-Definitionen.

4.1.) Direkte Messung durch Thermometer
Viel Menschen haben schon eine meteorologische Mess-Station gesehen. Seit dem 17. Jahrhundert (England) werden weltweit regelmäßig verschiedene Parameter des Wetters gemessen. Insbesondere ab dem 19. Jahrhundert sind Mess-Stationen in vielen Ländern weit verbreitet. Hauptzweck ist es, die Daten-Grundlage für die lokale Wetter-Vorhersage zu erlangen. Nicht zu vergessen die Einsätze von Wetter-Ballonen oder Flugzeugen durch Meteorologen. Dadurch wird es möglich, auch Daten von unterschiedlichen Luftschichten der Atmosphäre zu erhalten.

Abb. 2: DWD-Wetterwarte bei Weiden/Opf. (Bild: ohne Lizenz)

4.2.) Indirekte Messung durch Proxy-Daten

Die meisten Leute werden sich bei der aktuellen Klimawandel-Diskussion fragen: Woher kommen eigentlich die Temperatur-Daten aus dem Mittelalter, aus dem Römischen Zeitalter, viele Jahrtausende oder 100 Tausende oder sogar Millionen Jahre zurück? Da gab es keine Thermometer bzw. gar keine Menschen! Wie ist das möglich?

Natürlich wurden die Temperaturen bei den Römern nicht direkt gemessen, sie hatten definitiv noch keine Thermometer. Hier sprechen die Forscher von so genannten Proxy-Daten. Das sind Temperatur-Daten, die durch indirekte Messungen erhalten werden. „Proxy-Daten“ ist ein Sammelbegriff für Informationen, die indirekt Auskunft über vergangene Klimaverhältnisse geben. Proxydaten erhalten wir aus Baumringen und Wachstumsringen in anderen Organismen (wie Korallen), Isotopenmessungen in Eisbohrkernen oder Sedimenten, oder biologische Proben wie etwa Pollenanalysen.

Zuverlässigkeit der Temperatur- Daten

5.1.) Zuverlässigkeit der Proxy-Daten

Proxy-Daten werden grundsätzlich über längere Zeiträume der Erd-Vergangenheit ermittelt. Zum Beispiel bei Baumringen hunderte von Jahren oder Eisbohrkerne 10 Tausende von Jahren. Die große Stärke der Proxy-Daten-Ermittlung liegt in der in sich abgeschlossenen Methodik, der Konsistenz der Daten. Nehmen wir als Beispiel die zeitliche Abfolge der Schichten in Eisbohr-Kernen. Alle Proben werden an einer Stelle eines Gletschers bzw. eines Inlandeis-Panzers entnommen, gleich aufbereitet und mit derselben Methode gemessen. Vorausgesetzt, es werden keine groben Fehler gemacht, sind die Ergebnisse in sich konsistent und zuverlässig. Die besondere Stärke liegt in der guten Genauigkeit der relativen Änderungen innerhalb der jeweiligen Messreihen. Die Ermittlung der absoluten Temperatur im betrachteten Zeitraum ist kaum möglich.

5.2.) Zuverlässigkeit der direkt gemessenen Temperaturen seit 1850

Somit sind wir beim Hauptpunkt dieses Aufsatzes. Die gesamte Diskussion zum Thema „Klimawandel“ und „Erderwärmung“ basiert auf den Temperaturdaten der letzten 170 Jahre. Warum wird immer auf das Jahr 1850 referenziert? Der Zeitraum rund um das Jahr 1850 gilt als der Startpunkt der industriellen Revolution. Sozusagen der Beginn allen Übels bei vielen Protagonisten. Doch wie zuverlässig sind die weltweit direkt gemessenen Daten der letzten 170 Jahre? Das soll in den folgenden Kapiteln behandelt werden.

6.) Pseudo-Wissenschaft. „Gefahr“ durch Klima-Erwärmung.

Eine verbreitete Aussage bei den Physikern lautet Wer viel misst, misst Mist“. Die Physik legt höchste Maßstäbe in die Ermittlung und Verarbeitung von Mess-Ergebnissen. Deshalb sind Physiker auch besonders kritisch, wenn sie Messungen in anderen Fachgebieten der Naturwissenschaft und Ingenieurs-Wissenschaften beurteilen.

6.1.) Ivar Giaever bezeichnet die Klimawissenschaft als Pseudo-Wissenschaft.

Der hoch angesehene norwegisch amerikanische Physiker und Nobelpreis-Träger Ivar Giaever bezeichnete in dem viel beachteten Gast-Vortrag während des Nobelpreisträger-Treffens von 2012 in Lindau die Klimawissenschaft, basierend auf den seit 1850 ermittelten jährlichen Durchschnitts-Temperaturen der Erde, als Pseudo-Wissenschaft. Die Begründung ist nicht von der Hand zu weisen. Selbstverständlich verunglimpfen die „Klima-Alarmisten“ diese Position und versuchen die Argumente und Beweise von Giaever klein zu reden. Es sei betont, dass die nachfolgend beschriebenen Giaever-Kritikpunkte grundsätzlichen wissenschaftstheoretischen Prinzipien entsprechen. Andere Schlussfolgerungen wurden von ihm durch konsequent logische Denkweise erarbeitet.

Abb. 3: Ivar Giaever, Physik-Nobelpreisträger und Klima-Kritiker 1;2 NTNU Vitenskapsmuseet, verkleinert von Dr. Andreas Karl, CC BY 2.0

Giaevers Hinweise und Kritikpunkte sind vielschichtig, gleichzeitig typisch für einen Physiker, der über den eigenen Tellerrand hinausschaut.

6.1.1.) Ivar Giaevers Argumente und Beweise.

Außerordentlich bemerkenswert ist die Grundposition, mit der Giaever an die Thematik heran geht. Eigentlich interessierte ihn das Thema Klimawandel nicht. Er wurde gebeten dazu einen Gast-Vortrag in Lindau zu halten. Alleine diese Haltung, den Sachverhalt von außen als neutrale Person zu analysieren, spricht Giaever von Parteilichkeit frei. Er betrachtet die Fakten und Daten als kritischer Physiker, der sein gesamtes Wissenschaftler-Leben seine eigenen und fremde Mess-Ergebnisse bewerten musste. Sein Urteil ist vernichtend. Der Umgang und die Bewertung der gemessenen Temperaturen der Klimaforschung sei eindeutig eine Pseudowissenschaft.

6.1.2.) Grundsätzliche Kritik an der Genauigkeit

Giaevers Grundkritik besteht zunächst in der Angabe von zehntel Graden bei den Temperaturen zur Erderwärmung im Betrachtungs-Zeitraum. Eine angebliche Erwärmung von weniger als 1,5°C in 170 Jahren sei eine höchst erstaunliche Kontinuität des Klimas, völlig unabhängig von den Ursachen der Erwärmung. Die Temperatur-Angabe mit einer Auflösung von 0,1°C ist messtechnischer und physikalischer Unsinn.

Dazu ein treffendes Zitat des Mathematik-Genies Carl Friedrich Gauß: „Durch nichts zeigt sich mathematischer Unverstand deutlicher als durch ein Übermaß an Genauigkeit im Zahlenrechnen.“ Die Naturwissenschaft spricht bei der Verwendung von Messwerten von „Signifikanten Stellen“. Der korrekte Umgang mit Messwerten bezüglich der signifikanten Stellen wird sogar in der DIN 1333 beschrieben. Der Autor dieses Aufsatzes hatte in seinem Studium ein prägendes Erlebnis zu diesem Thema. Der damalige Physik-Professor kündigte im Vorfeld der Physik-Vordiplom-Klausur an: „Prüflinge, die den Rechenweg und das Ergebnis einer Aufgabe korrekt erarbeitet haben, jedoch das Ergebnis mit zu vielen signifikanten Stellen angeben, bekommen Punktabzug.

6.1.3.) Unterschiedliche Thermometer vor Ort und im Laufe der Zeit

Giaever kritisiert zu Recht, es sei mehr als naiv zu glauben, die auf der Welt verteilten Thermometer (Abb. 3) seien alle von gleicher Qualität und zeigen alle die korrekte Temperatur an. Dazu kommt die technische Entwicklung der letzten 170 Jahre. Selbst die optimistischste Phantasie reicht nicht aus zu glauben, all die weltweit über viele Jahrzehnte tausende Thermometer seien im Laufe der Zeit gleich genau und gleich zuverlässig gewesen.

Abb. 3a: Thermometer (17.Jhdt) und modernes Infrarot-Thermometer Links: Ferdinand II de‘ Medici [attr.] Museo Galileo, Termometri cinquantigradi inv 85 IF 46774, CC BY-SA 4.0 Rechts: Hedwig Storch, 1024 Pyrometer-8445, CC BY-SA 3.0

6.1.4.) Ungleiche Verteilung der Thermometer auf der Erde

Alleine die Tatsache der ungleichmäßigen Verteilung der meteorologischen Mess-Stationen über die Erdoberfläche reicht aus, die Berechnung einer fiktiven Durchschnitts-Temperatur der Erde als unrealistisch bzw. unmöglich zurückzuweisen. Abbildung 4 zeigt die Häufung der Mess-Stationen auf der nördlichen Erdhalbkugel und den Industrie-staaten. Weite Bereiche Afrikas, Südamerikas, Kanadas, Grönlands und von Sibirien werden nicht abgedeckt. In der Antarktis, die einen großen Einfluss auf das Erdklima hat, gibt es nur wenige Stationen an der Küste.

Abb. 4: Verteilung meteorologischer Mess-Stationen auf der Erde im 21. Jhdt. 3;4

Abb. 5: Gemeldete Wetterwerte für die Woche vom 2. bis 8. Januar 2000 (Schiffe) 3;4

Ca. 70% der Erde sind mit Wasser bedeckt. Wie die Forschungen der letzten Jahrzehnte ergeben haben, spielen die Ozeane eine entscheidende Rolle für das Klima der Erde. Entgegen der meteorologischen Bedeutung der Ozeane ist die dort die Abdeckung der Mess-Stationen nur mangelhaft. Sowohl in Abbildung 4 als auch in Abbildung 5 ist zu erkennen, welche riesigen Lücken nicht durch Messungen abgedeckt werden.
Abbildung 6 zeigt die zeitliche Entwicklung der über die Erde verteilten Mess-Stationen über einen Zeitraum von 100 Jahren.

Abb. 6: Meteorologische Mess-Stationen von 1885-1985 3;4

6.1.5.) Veränderungen im Umfeld von Mess-Stationen und deren Einfluss auf die gemessenen Temperaturen.

Beispiele: Eine Mess-Station lag 100 Jahre außerhalb einer Stadt, inzwischen ist die Stadt um die Station herum gewachsen. Nahe einer Mess-Station gab es keinen nennenswerten Bewuchs, dann wurde in der Nähe ein Wald aufgeforstet. In 30m Entfernung einer Mess-Station wurde ein Gebäude errichtet. Die Liste solcher Beispiele kann beliebig verlängert werden. Niemand ist in der Lage, die veränderten Einflüsse aus der unmittelbaren Umgebung der Mess-Stationen zu bewerten und einzurechnen. Ein Argument Giaevers, das sicherlich einen großen Einfluss auf den Fehler in der zeitlichen Betrachtung hat.

6.2.) Giaevers philosophische Grundsatz-Kritik zur Klima-Diskussion

Ivar Giaever begnügt sich nicht mit den reinen Sachargumenten oder den Beweisen, die er vorgelegt hat. Er blickt tiefer, macht sich grundsätzliche Gedanken zur Klima-Debatte.

Seine im Folgenden beschriebenen Überlegungen haben den Autor dieses Aufsatzes am meisten beeindruckt und gleichzeitig überzeugt.

Giaever blickt auf die Welt als Gesamtes und auf sich als Person. Alles und jeder ist betroffen von Veränderung und Alterung, das kann niemand bestreiten. Er fragt, warum in den meisten Bereichen der politischen und gesellschaftlichen Diskussion die Dinge sich nur zum Negativen bewegen, immer wieder negativ, negativ. Niemand kann bestreiten, dass die Entwicklung der Menschheit seit 1850 einen positiven Weg genommen hat. Die Menschen leben angenehmer, sicherer, Hungern weniger und werden älter. Was soll so negativ an der Temperatur-Entwicklung sein? Wer sagt uns, was die „Optimale Temperatur auf der Erde ist? Wie bereits gesagt, alle Klimaforscher referenzieren auf die Temperatur um 1850. Es ist absolut unwahrscheinlich, dass ausgerechnet diese Temperatur optimal gewesen sein soll. Im Gegenteil, die Klimatologen sprechen vom Römischen Temperatur-Optimum und dem Mittelalterlichen Temperatur-Optimum.

6.3.) Ergänzende Informationen zur Klimaerwärmung (CO2-Einfluss)

Die Zeit um 1850 gilt als das Ende der „Kleinen Eiszeit“, eine Kaltperiode über ca. 400 Jahre innerhalb der aktuellen Eiszeit. Anders formuliert: Um 1850 begann eine Warmphase innerhalb der aktuellen Eiszeit. Gleichzeitig begann um das Jahr 1850 auch die industrielle Revolution (s. unter 5.2.). Folgt nach einer Kaltperiode eine Warmzeit, so muss sich die Erde auch ohne Zutun des Menschen erwärmen. Eine einfache und logische Schlussfolgerung. Schließlich wurde die kleine Eiszeit ja nicht vom Menschen verursacht. Das IPCC (Klimawandel-Organisation der UNO) behauptet jedoch seit 2016, dass die gesamte Erderwärmung seit 1850 ausschließlich auf die Wirkung des anthropogenen CO2 zurückzuführen ist. Mit massiven Auswirkungen auf die Wirtschaft und Energie-Politik der jeweiligen Staaten. Leider ist ausgerechnet Deutschland der Protagonist dieser unsäglichen Ideologie.

Abb. 7: Veröffentlichung von Patrica Adams 5

Was die „Klima-Alarmisten“ der religiös anmutenden Glaubensgemeinschaft übersehen, ist die Entwicklung in den entscheidenden Ländern Indien und China. Beide haben dem Pariser Klima-Abkommen zugestimmt, sind jedoch berechtigt bis 2050 soviel CO2 auszustoßen, wie sie wollen. Patricia Adams hat kürzlich einen Aufsatz mit dem treffenden Titel „THE RED AND THE GREEN CHINA´S USEFUL IDIOTS“ veröffentlicht.

Mit der von der Politik ausgerufenen Energiewende in Deutschland zerstören wir unsere sichere und unabhängige Energie-Versorgung. Hierzu gibt es viele Veröffentlichungen von unabhängigen Wissenschaftlern, Ökonomen und Ingenieuren. Am bekanntesten ist wohl der ehemalige Chef des ifo-Instituts Prof. Hans-Werner Sinn. Er warnt seit vielen Jahren vor dem Umbau der deutschen Strom-Versorgung hin zu einem Übermaß an regenerativer Stromerzeugung.

6.4.) Stimmen anderer Wissenschaftler

Es gibt auch Wissenschaftler, die sich in Veröffentlichungen kritisch zur Problematik der Ermittlung der mittleren Lufttemperatur der Erde in den letzten 170 Jahren geäußert haben. Verstärkt wird diese Kritik durch geachtete wissenschaftliche Stimmen, welche die Methodik der Temperatur-Ermittlung, das Verständnis des Klimas und den Ausblick auf die Zukunft des Klimas durch die Klimawissenschaftler mit ihren aufwändigen Computer-Modellen in Frage stellen. Dazu 2 ausgewählte Bespiele.

6.4.1.) Fundamentalkritik durch das Genie Freeman Dyson

Freeman Dyson (s. Abb.8, links), der geniale Mathematiker und Physiker lehrte über 40 Jahre Jahre lang an der Princeton University am Lehrstuhl für Theoretische Physik. Sein Vorgänger auf diese Position war Albert Einstein. Leider ist Freeman Dyson am 28.02.2020 im Alter von 96 Jahren verstorben. In Amerika, sowie in naturwissen-schaftlichen Kreisen, galt Freeman Dyson als Genie. Wegen seiner freundlichen und humorvollen Art war er ein „Wissenschafts-Superstar“. In Interviews wusste er immer zu überraschen und sorgte für Heiterkeit. Andererseits war er kein Mensch, der gemütlich auf der Mainstream-Welle schwamm (s. Abb. 8, rechts).

Abb.8 Freeman Dyson (2007) am Institute of Advanced Study Monroem,  CC BY-SA 3.0

Bereits Ende der 60er-Jahre und Anfang der 70er-Jahre war Dyson an den ersten Computer-Modellrechnungen zur Darstellung und Voraussage des Wetters beteiligt. Kein Wissenschaftler auf der Welt kann diese jahrzehntelange Erfahrung auf diesem Gebiet vorweisen. Kaum jemand kennt die Stärken und Schwächen der Klima-Vorhersage besser als er. In vielen Interviews der letzten 15 Jahre wurde er zu seiner Position in der Diskussion zum Klimawandel befragt. Seine Haupt-Thesen stellte er folgendermaßen (hier vereinfacht) dar: 1.) Die Wissenschaft ist noch nicht annähernd in der Lage die Komplexität des Wetters und des Klimas zu verstehen. Viele Fragen zur Wolkenbildung, der Rolle der Ozeane, Einflüsse der Sonne, usw. sind ungeklärt. 2.) Versuche, das Klima über längere Zeiträume vorauszusagen, müssen zwangsläufig scheitern. 3.) Der Einfluss des anthropogenen CO2 zur Erderwärmung der letzten 170 Jahre wird überbewertet. Dagegen werden die positiven Effekte der gestiegenen CO2-Konzentration in der Atmosphäre nicht ausreichend berücksichtigt.

6.4.2.) Positive Auswirkungen der erhöhten CO2-Konzentration

Die USDA (U.S. Department of Agriculture) meldet seit vielen Jahren eine stetig steigende weltweite Getreideernte. Diese Meldungen beschränken sich nicht auf nur auf die weltweite Weizenernte (s. Abb. 9) sondern sind für alle wichtigen Getreidearten wie Reis, Gerste, Mais oder Soja zu beobachten. Wo sind die Auswirkungen der Hitzeperioden, Trockenperioden, Stürme und Hochwasser, wie sie von den Klima-Alarmisten propagiert werden? Fakt ist, CO2 ist der mit Abstand beste Pflanzendünger. Professionelle Gärtnereien verbessern das Pflanzenwachstum und Fruchtausbeute durch künstliche Anhebung der CO2-Konzentration in Gewächshäusern. Ebenso gebräuchlich ist der Einsatz von CO2 bei Aquarianern, um das Wachstum der Wasserpflanzen zu erhöhen.

Abb.9 Weltweite Weizenernte der letzten 20 Jahre (Quelle: USDA)

Abb.10 Bild aus einer NASA-Studie von 2016 „Carbon Dixoide Fertilisation, Greening Earth“ 6

Einee NASA-Studie aus 2016 belegt eindeutig den Düngungs-Effekt durch vermehrtes CO2 in der Atmosphäre. Die Satelliten-Daten (s. Abb.10) zeigen einen unerwarteten und höchst erstaunlichen Effekt. Die Erde wird grüner! Dank der erhöhten CO2-Konzentration wachsen die Pflanzen besser und schneller, die Wüsten der Erde werden kleiner.

Die Weltbevölkerung steuert bald auf 8 Mrd. Menschen zu. Deshalb sollte die Welternährungs-Organisation der UNO (FAO) eine Studie in Auftrag geben, wieviel Menschen die Erde im Jahr 1850 mit einer CO2-Konzentration von 280 ppm im Vergleich zu heute mit einer CO2-Konzentration von 410 ppm hätte ernähren können. Eine spannende Frage, zumal das Jahr 1850 als „gute“ vorindustrielle Zeit gilt. Die Klima-Alarmisten fordern doch die Rückkehr zu den CO2-Werten der Atmosphäre vor 170 Jahren.

6.4.3.) Bewertung der Temperaturdaten durch Pat Frank

Unterhalb des Radars der Öffentlichkeit wird der der Druck im „Schnellkochtopf“ der Klimawandel-Diskussion immer größer. Die klimakritischen, nicht IPCC-konformen wissenschaftlichen Papers sind von Jahr zu Jahr in größerer Anzahl zu vermelden. Bisher schaffen es jedoch die gleichgeschalteten Medien, besonders in Deutschland, diese Informationen gut unter den Teppich zu kehren. Nur Leute, die bewusst nach nicht klima-alarmistischen Informationen suchen, werden fündig. Ansonsten ist die Meinungs-Hoheit fest in der Hand der Mainstream-Medien.

Abb.11 Bewertung der Messfehler bei den durchschnittlichen weltweiten Temperaturen nach Pat Frank

Was in diesem Aufsatz eher qualitativ bewertet wurde, hat Pat Frank bereits 2010 und 2011 in 2 interessanten Veröffentlichungen quantifiziert. Er untersuchte die vorliegenden Temperaturdaten nach mathematisch physikalisch Prinzipien auf Zuverlässigkeit. Seine Ergebnisse sind in einem Diagramm zusammengefasst (s. Abb.11).

Quellen: Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surf

Die Schlussfolgerungen von Pat Frank zu den Fehlergrößen der Temperatur-Messungen in den letzten 170 Jahren sind logisch und nachvollziehbar. Dabei kommt es nicht darauf an, ob der Fehlerbalken 0,46K (s. Abb. 11) groß ist, etwas größer oder kleiner. Entscheidend ist die Erkenntnis, dass die Darstellungen in allen wissenschaftlichen Veröffentlichungen und in den Medien deutlich fehlerbehaftet sind.

Abb.12: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. 7

Abb.12: The black line shows the global annual average land-surface air temperature anomalies from 1856 to 2013 from the CRUTEM4 dataset (data here in this format). The grey area shows the 95% confidence range on the annual averages. 7
Mit großer Wahrscheinlichkeit sind die einheitlichen Fehlerbalken von Pat Frank über den gesamten Zeitraum von 170 Jahren nicht durchgehend realistisch. Die messtechnischen Entwicklungen und bessere Verteilung der Mess-Stationen über die Erde im Laufe der Zeit werden von ihm nicht berücksichtigt. Realistischer dürfte die Abschätzung des englischen Metoffice-Instituts sein (Abb. 12). Die Fehlerbalken sind im 19. Jahrhundert groß und werden im Laufe der Zeit kleiner. Eine Darstellung, die wesentlich besser die Argumente in den vorhergehenden Kapiteln dieses Aufsatzes berücksichtigen.

7.) Schlussfolgerungen

Die Grundlage aller Argumente und Schlussfolgerungen des IPCC, der Klima-wissenschaftler und Klima-Alarmisten sind die verfügbaren weltweiten Durchschnitts-Temperaturen seit 1850. Die Zeit zu Beginn der Industrialisierung ist sozusagen der „Absolute Nullpunkt“ für die Temperatur-Entwicklung auf unserer Erde. Dieser Bezugspunkt wurde gewählt, weil ab dort die Menschheit relevant zum Anstieg der CO2-Konzentration in der Atmosphäre beigetragen hat. Der so genannte anthropogene CO2-Anteil. Was nützten starke Mauern, massive Zwischendecken und ein festes Dach, wenn das Fundament eines Gebäudes zu schwach ausgelegt ist? Fakt ist, die verfügbaren Temperaturdaten (Fundament) sind fehlerbehaftet. Die Fehlergröße bewegt sich in einem Bereich, wo eine Referenzierung auf diese Daten wissenschaftlich keinen Sinn macht. Alle noch so großen Anstrengungen der Klimawissenschaftler mit ihren immer leistungsfähigeren Großcomputer werden die Simulationen zur Zukunft des Erdklimas nicht verbessern. Die Datenbasis ist schlecht, die Kenntnisse über das hoch komplexe Klima immer noch gering (Freeman Dyson). Deshalb bleibt die Klimawissenschaft, die einzig auf die Wirkung des anthropogenen CO2 abzielt, eine Pseudo-Wissenschaft.

Referenzen:

1 Ivar Giaever, The Strange Case of Global Warming, 2012 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012
2 Ivar Giaever, Global Warming Revisited, 2015 in Lindau (DE)
https://www.mediatheque.lindau-nobel.org/videos/31259/the-strange-case-of-global-warming-2012

3  Energy & Environment · Vol. 21, No. 8, 2010; Pat Frank; Uncertainty in the global average surface air temperature index: representative lower limit

4  Energy & Environment · Energy & Environment · Vol. 22, No. 4, 2011; Pat Frank „Imposed and Neglected Uncertainty in the Global Average Surface

5 Patricia Adams in GWPF, 2020 https://www.thegwpf.org/content/uploads/2020/12/Green-reds.pdf?utm_source=CCNet+Newsletter&utm_campaign=ac7e32fda3-EMAIL_CAMPAIGN_2020_12_11_10_30_COPY_01&utm_medium=email&utm_term=0_fe4b2f45ef-ac7e32fda3-36485917&mc_cid=ac7e32fda3&mc_eid=a769d95777

6 https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

7 Metoffice: https://www.metoffice.gov.uk/hadobs/hadcrut3/diagnostics/comparison.html




Offshore-Windenergie in den USA: Politik gibt und nimmt

MasterResource, Von Allen Brooks – 25. August 2025

Anmerkung der Redaktion: Die staatlich geförderte On-Grid-Wind- und Solarindustrie befindet sich in einer Abwärtsspirale politischer Konjunkturzyklen. Die Lehre für nachhaltiges Unternehmertum besteht darin, die Verbrauchernachfrage zu befriedigen und sich nicht auf die Gunst vorübergehender politischer Mehrheiten zu verlassen.

[Hier noch ein Meinungsbeitrag zu dem o.g. Thema. Über die Vorgänge an sich, haben Sie auch auf Eike bereits gelesen – s.u.]

Die Daily Caller News Foundation brachte einen Artikel, in dem es um die Anordnung der USA zum Baustopp des Offshore-Windparks Revolution ging. Der Vorgang Trump-Regierung stoppt riesiges Offshore-Windprojekt “ wurde vom Bureau of Ocean Energy Management (Innenministerium) veröffentlicht.

Standorte: https://www.boem.gov/renewable-energy/state-activities/vineyard-mid-atlantic

Das Offshore-Windprojekt Vineyard Mid-Atlantic befindet sich in einem von sechs Pachtgebieten innerhalb der New York Bight Wind Energy Area und soll laut Projektvorschlag mit bis zu 117 Windturbinen über 2.000 Megawatt Strom erzeugen – genug, um mehr als 700.000 Haushalte mit Strom zu versorgen. Der Vorschlag sieht bis zu zwei potenzielle Exportkabelkorridore vor, die in Rockaway Beach, Atlantic Beach oder Jones Beach, New York, an Land gehen würden.

Revolution Wind ist ein 704 Megawatt (MW) starkes Windkraftprojekt mit 65 Turbinen, das 24 Kilometer südlich des Hafens Point Judith in Rhode Island und 51 Kilometer südwestlich von Martha’s Vineyard liegt. Die Kapazität wurde im Rahmen von Stromabnahmeverträgen mit einer Laufzeit von 20 Jahren an Energieversorger in Massachusetts (304 MW) und Rhode Island (400 MW) vergeben.

Ein zweites Projekt ( Revolution Wind 2 ) wurde von Rhode Island Energy (PPL Corporation) und der Public Utilities Commission von Rhode Island sowie dem US-Energieministerium als zu teuer abgelehnt .

Das Projekt befindet sich auf dem bundesstaatlichen Pachtgebiet (OCS-A 0486), das der Entwickler Ørsted Ende 2018 mit dem Kauf von Deepwater Wind LLC, dem Entwickler des Block Island Windparks und Inhaber verschiedener Offshore-Windpachtverträge, für 510 Millionen US-Dollar erworben hat.

Vorgeschichte

Revolution Wind [Ørsteds Tochtergesellschaft] begann 2023 mit dem Bau, die Installation der ersten Offshore-Windkraftanlage erfolgte im September 2024. Die Fertigstellung und Inbetriebnahme des Projekts ist für Anfang 2026 geplant. Ørsted berichtete am 22. August, dass das Projekt zu 80 Prozent fertiggestellt sei und 45 der 65 Windkraftanlagen installiert seien. Das Projekt wurde als erstes Offshore-Windprojekt in mehreren US-Bundesstaaten gefeiert.

Die Anordnung des DOI-Direktors wurde von Matthew Giacona , dem kommissarischen Direktor, erlassen. Vergleichen Sie seinen Brief mit dem von Walter Cruickshank vom 16. April 2025, in dem er die Stilllegung von Empire Wind anordnete.

DOI-Briefe: Empire State vs. Revolution Wind

In der Anordnung zur Arbeitsunterbrechung bei Empire Wind nannte das DOI als Grund für die Arbeitsunterbrechung

um dem Ministerium Zeit zu geben, auf die Rückmeldungen zu den Umweltanalysen für dieses Projekt einzugehen, die es unter anderem von der National Oceanic and Atmospheric Administration (NOAA) erhalten hat. BOEM erhielt diese und andere Rückmeldungen zu Empire Wind als Ergebnis der Überprüfung, die das Ministerium im Zusammenhang mit Offshore-Windprojekten durchführt.

Im Gegensatz dazu hieß es in der Revolution Wind-Anordnung:

… BOEM versucht, Bedenken im Zusammenhang mit dem Schutz der nationalen Sicherheitsinteressen der Vereinigten Staaten und der Verhinderung von Eingriffen in die angemessene Nutzung der ausschließlichen Wirtschaftszone, der Hohen See und der Küstenmeere auszuräumen, wie in diesem Unterabschnitt des OCSLA beschrieben.

Es gibt zwei relevante Fakten und eine Vermutung.

Fakt 1: Was wir über die Arbeitseinstellung bei Empire Wind wissen, ist, dass das Innenministerium als Reaktion auf eine Anfrage nach dem Freedom of Information Act eine 36-seitige Studie zu seiner Entscheidung zur Arbeitseinstellung veröffentlichte. Der Bericht trug den Titel „Screening-Analyse: Zusammenfassung der Aufzeichnungen zum Empire Wind-Projekt – NMFS-Fischereiressourcen“.  27 Seiten wurden vollständig redigiert, ein Privileg aufgrund des beratenden Charakters des Berichts und seiner Rolle im laufenden Überprüfungsprozess. Die Öffentlichkeit hat erfahren, dass Regierungsbehörden das Recht haben, interne Studien vor der Veröffentlichung zu schützen, bis die endgültigen Überprüfungen abgeschlossen sind.

Fakt 2: Bei der vom Innenministerium angeordneten Einstellung der Arbeiten für Revolution Wind geht es um die Einhaltung der Bestimmungen des Outer Continental Shelf Lands Act (OCSLA). Das Beratungsunternehmen PLANET A* STRATEGIES℠ untersuchte die Einhaltung der gesetzlichen Bestimmungen zur Nutzung der Meere unseres Landes durch das Bureau of Ocean Energy Management (BOEM). Der Bericht trug den Titel Aufhebung von Offshore-Windpachtverträgen  und den Untertitel „Nichteinhaltung des Outer Continental Shelf Lands Act bei Leasing- und Genehmigungsprogrammen für Offshore-Windkraftanlagen“.  Der Bericht wurde Anfang Mai fertiggestellt und die Ergebnisse dem Innenministerium vorgelegt.

Vermutung: Die Vermutung bezieht sich auf die gemeldete Vereinbarung zwischen der Trump-Regierung und der Gouverneurin des Staates New York, Kathy Hochul, die die Erteilung zuvor blockierter Genehmigungen für den Bau zweier Erdgaspipelines in den Bundesstaat unterstützt. Dies würde die Versorgung sowohl von New York als auch von Neuengland verbessern, da beide in den Wintermonaten, wenn das Gas zur Heizung von Häusern umgeleitet wird, unter Erdgasmangel leiden. Dieser Mangel führt dazu, dass die Strompreise in der Region im Winter deutlich höher sind als in den Sommermonaten.

Als nächstes Sunrise Wind? [ein weiteres off-shore Projekt]

Als im April die Arbeiten gegen Empire Wind eingestellt wurden, sagte ich voraus, dass der Sommer eine interessante Zeit für die rechtlichen Aktivitäten im Bereich Offshore-Windkraft werden würde. So weit, so wahr. Zusätzlich zu den rechtlichen Aktivitäten wurde kürzlich eine Petition an Innenminister Doug Burgum geschickt, in der eine Überprüfung der Genehmigung für Sunrise Wind gefordert wird, ein 924-MW-Projekt mit 84 Turbinen. Es liegt etwa 30 Kilometer südlich von Martha’s Vineyard, 48 Kilometer östlich von Montauk Point auf Long Island und 27 Kilometer von Block Island (Rhode Island) entfernt. Dies ist ein weiteres Ørsted-Projekt.

Das Genehmigungsverfahren für Sunrise Wind wird von den ehemaligen Mitgliedern des Rhode Island Fishermen’s Advisory Board (FAB) angefochten. Das FAB wurde im Rahmen eines Gesetzes eingerichtet, das die Überprüfung und Genehmigung von Offshore-Windprojekten, die Auswirkungen auf die Gewässer des Staates haben, durch das Umweltministerium des Bundesstaates regelt.

Die Beschwerde zeigt

…… die fehlerhafte Anwendung von Abschnitt 8(p)(4) des OCSLA und die fehlerhafte Anwendung des NEPA (National Environmental Protection Act) belegen die illegalen Auswirkungen auf die Fischereiindustrie, die bei der Genehmigung des Projekts ignoriert wurden, belegen die Umweltauswirkungen, die bei der Genehmigung des Projekts ignoriert wurden, und fordern, dass alle Genehmigungen für das Projekt widerrufen werden.

Ausblick

Angesichts der Lage von Ørsted, die versuchen, 9,4 Milliarden Dollar zusätzliches Kapital für die laufenden Entwicklungen aufzubringen, ist bei den oben genannten Projekten noch viel zu erwarten.

Erneut beklagen die am Genehmigungsverfahren für Offshore-Windkraft beteiligten Parteien Verstöße gegen dVineas gesetzliche Genehmigungsverfahren, die anderen legitimen Nutzern des mit dem Windkraftprojekt geteilten Meeres schaden. Das Genehmigungsverfahren stellt sicher, dass die Bedenken aller Parteien berücksichtigt und bestmöglich ausgeräumt werden. Im Fall von Sunrise Wind wurde dieser Standard nach Ansicht der Kläger ignoriert. Mit Beginn des Spätsommers heizen sich die Rechtsstreitigkeiten um Offshore-Windkraft auf.

https://www.masterresource.org/offshore-windpower-issues/offshore-wind-politics/

Investoren verlassen die grüne Energieszene nach dem Ende von Bidens Werbegeschenken

 




Die Klimakonferenzen werden immer dekadenter

Das brasilianische Belém hat als Austragungsort der diesjährigen Klimakonferenz zu wenig Unterkünfte. Deshalb sind die Preise für Unterbringung ins Unermessliche gestiegen. Doch die Bettennot ist nur einer der Auswüchse der monströsen Weltrettungs-Anlässe.

Von Peter Panther

«Unsere Zimmer verfügen über erotische Stühle. Möchten Sie, dass wir diese entfernen?» Diese Frage bekommen die Klimakonferenz-Teilnehmer per E-Mail gestellt, die ihre Nächte in Belém im Liebeshotel «Love Lomas» verbringen werden. Ricardo Teixeira, Besitzer des Lokals, stellt seine 48 Zimmer im kommenden November für andere Zwecke als die üblichen bereit. Um seine Gäste nicht vor den Kopf zu stossen, unterzieht Teixeira die Räumlichkeiten einer «Ent-Erotisierungskampagne», wie im britischen «Guardian» zu lesen war: Stangen zum Pole Dance werden verdeckt, Matratzen ausgetauscht und kitschige Kunstwerke eingelagert.

Die Bettennot ist gross in Belém. Bis zu 50’000 Teilnehmer aus der ganzen Welt werden für die 30. Austragung der Uno-Klimakonferenz vom 10. bis 21. November erwartet. Doch die Stadt am Amazonas verfügt eigentlich nur über rund 18’000 Unterkünfte. Darum wird jetzt überall händeringend nach zusätzlichen Unterbringungsmöglichkeiten gesucht. Neben Liebeshotels sind beispielsweise auch die Besitzer von abgelegenen Ferienhäuschen bereit, ihre Lokalitäten temporär umzufunktionieren.

Mehrere Tausend Franken für eine einzige Nacht 

Und nicht wenige Immobilienbesitzer wittern das grosse Geschäft. Jedenfalls sind die Preise für Zimmer während der COP 30 in schwindelerregende Höhen gestiegen. Zum Teil werden mehrere tausend Dollar verlangt – für eine einzige Nacht.

Doch es reicht dennoch hinten und vorne nicht. Noch immer haben zahlreiche Länder keine Unterbringung für Ihre Delegierten organisieren können. Entsprechend wächst der Unmut. So liess Krzysztof Bolesta, Leiter der polnischen Delegation verlauten: «Wir haben keine Unterkünfte. (…) Im Extremfall müssen wir gar nicht erscheinen.»

Bereits im Juli hielt die Uno wegen der fehlenden Betten in Belém eine Dringlichkeitssitzung ab. Es wurde dabei unter anderem gefordert, dass ärmere Staaten ihre Delegationen verkleinern sollten. Das stiess Richard Muyungi, Vorsitzender der African Group of Negotiators, sauer auf. «Wir sind nicht bereit, die Zahl [unserer Vertreter] zu kürzen», gab er bekannt. «Brasilien hat viele Optionen, um eine bessere COP auszurichten.»

In der Tat wurde von Brasilien gefordert, den Klimagipfel in eine andere Stadt zu verlegen, wenn es nicht rasch genug bezahlbare Unterkünfte gebe. Denn es dürfe nicht sein, dass ausgerechnet die ärmsten Länder, die angeblich am meisten unter dem Klimawandel leiden,wegen der hohen Zimmerpreise von der Konferenz ausgeschlossen würden.

«Schlafen Sie unter den Sternen – und es wird wunderbar sein»

Brasilien ging darauf nicht ein – ebenso wenig wir auf die Forderung, allen Delegierten die Hotelkosten während des Klimagipfels zu subventionieren. «Schlafen Sie unter den Sternen – und es wird wunderbar sein», lautete der lapidare Kommentar von Brasiliens Präsident Lula da Silva zur Bettennot. Die Watchdog-Organisation Climate Observatory warnte indes, der Gipfel könne zum «ausschliessendsten der Geschichte» werden.

Eine Massnahme gegen fehlende Unterkünfte hatte Brasilien schon im Juni angekündigt: Während der Konferenz sollen die beiden Kreuzfahrtschiffe «MSC Seaview» und «Coast Diadema» im Hafen von Belém liegen und Platz für etwa 6000 Teilnehmer bieten. Diese Massnahme wirkt besonders schräg – stehen Kreuzfahrtschiffe wegen ihres relativ hohen CO₂-Ausstosses doch ganz oben auf der Hassliste von Klimaschützern.

Zu reden gab in den letzten Monaten auch der Bau einer neuen Autobahn bei Belém. Die vierspurige Strasse führt quer durch den Regenwald – mit entsprechender Zerstörung von Natur. Brasilien stellte zwar in Abrede, dass die Strasse in Zusammenhang mit dem Klimagipfel stehe. Es scheint aber offensichtlich, dass dieser Neubau mit der Teilnehmerflut an der COP 30 zu tun hat.

Fast alle Konferenz-Teilnehmer reisen mit dem Flugzeug an

Das Problem ist grundsätzlicher Art: Die Klimakonferenzen der Uno haben sich zu einem monströs grossen Happening entwickelt. Jahr für Jahr pilgern Zehntausende von Staatschefs, Verhandlern, Aktivisten und Journalisten an einen anderen Ort irgendwo auf der Erde, um hier ihr Weltrettungsprojekt voranzubringen.

An der ersten Klimakonferenz 1995 in Berlin gab es erst einige Tausend Teilnehmer. 2015 in Paris waren dann erstmals über 30’000 dabei. Vor zwei Jahren in Dubai nahmen angeblich fast 100’000 Personen teil, während die Teilnehmerzahl letztes Jahr in Baku (Aserbaidschan) wieder auf etwa 50’000 zurückging. Auffällig dabei: Sonnige, warme Konferenz-Destinationen scheinen besonders beliebt zu sein.

Und fast alle diese Konferenz-Touristen reisen mit dem Flugzeug an. Belém etwa ist auf dem Landweg nur sehr schwer erreichbar. Viele Klimaschützer werden bei der Ankunft eine Reise um den halben Globus hinter sich haben – was insgesamt mit einem gigantisch hohen CO₂-Ausstoss einhergeht.

Manche besonders betuchten Teilnehmer benutzen für die Anreise gar ihr Privatflugzeug. Jedenfalls wurden an den Klimakonferenzen der letzten Jahre auf den umliegenden Flughäfen jeweils Hunderte von gelandeten Kleinflugzeugen registriert. Flüge mit dem Privatflugzeug verursachen pro Person besonders viele Klimagase.

So leicht lässt man sich einen Urlaub an der Sonne nicht madig machen

Es gibt keine Anzeichen, dass die mittlerweile 30-jährige Geschichte der Uno-Klimakonferenzen irgendeinen dämpfenden Effekt auf die globalen CO₂-Emissionen gehabt hätte. Doch von Misserfolgen lassen sich die Klimabewegten nicht abbringen. Unbeirrbar führen sie den Konferenz-Zirkus weiter. Ihre Veranstaltungen sind zwar längst zu einem höchst dekadenten Ereignis geworden. Doch so leicht lässt man sich einen zwölftägigen «Klimaurlaub» – am liebsten irgendwo an der wärmenden Sonne – nicht madig machen.

 




Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 33 / 2025

Meldungen vom 15. September 2025:

La Niña hält an, Abkühlung verstärkt sich

Der Niño-3.4-Index ist auf -0,95°C (14. September) gefallen, wobei der Pazifik in den La Niña-Bereich abgerutscht ist.

Die Anomalien sind seit Juli stetig zurückgegangen und liegen nun fast 1 °C unter dem Durchschnitt der Jahre 1981–2010:

Die neuesten NMME-Modellläufe zeigen eine zunehmende Abkühlung im Laufe des Winters, wobei die meisten Ensembles deutlich in den La Niña-Bereich (unterhalb der Schwelle von -0,5 °C) abfallen.

La Niña-Winter bringen oft kältere Bedingungen in Nordamerika, stärkere Monsune in Asien und können Europa zu schneereicheren, Blockierungs-Wetterlagen führen – insbesondere bei geringer Sonnenaktivität (und die Sonnenaktivität ist in den letzten Monaten stark zurückgegangen).

Ein starkes La Niña hätte derzeit schwerwiegende Auswirkungen auf das Winterwetter, die Nahrungsmittelproduktion und den Energiebedarf.

Hinweis: Das CPC der NOAA wird La Niña erst dann offiziell ausrufen, wenn die Abkühlung über mehrere Monate anhält und mit den entsprechenden atmosphärischen Signalen einhergeht (wie stärkere Passatwinde und unterdrückte Konvektion in der Nähe der Datumsgrenze). Derzeit bleiben die Bedingungen neutral, obwohl sich der Pazifik stark abgekühlt hat und die NOAA die Wahrscheinlichkeit für die Entwicklung von La Niña bis Oktober–Dezember 2025 auf 71 % erhöht hat.

————————————–

Aktualisierung zur Polverschiebung

Anhand von Sandsteinen, die durch Magmadämme in Hainan in China gebacken wurden, haben Forscher das alte Feld während der Kreidezeit-Normal-Superchron (~105 Millionen Jahre vor heute) gemessen. Diese Gesteine wirken wie in einem Brennofen gebrannte Keramik und schließen das damalige Magnetfeld ein.

Die Ergebnisse zeigen eine Feldstärke von 40–50 Mikrotesla, was einem Dipolmoment von ~95 ZAm² entspricht – etwa 40 % stärker als die heutigen ~80 ZAm².*

Der Übersetzer bekennt seine fachliche Unkenntnis hierzu!

Und dennoch brach die Stabilität zusammen. Die Kreidezeit-Normal-Superchron behielt etwa 37 Millionen Jahre lang eine einzige Polarität bei, aber als sie endete, kehrten die Umkehrungen abrupt zurück. Das zeigt, dass ein starker Dipol keine Garantie für Stabilität ist: Das Feld kann kurz vor seinem Zusammenbruch am stärksten sein.

Die Autoren merken an: „Dieser kombinierte Datensatz lässt die Frage nach der Abhängigkeit zwischen der Stärke des geomagnetischen Dipols und der Häufigkeit der Umkehrungen offen.“

Das reicht aus, um Beobachter von Polverschiebungen zu begeistern, denn eine der letzten beruhigenden Aussagen der Mainstream-Wissenschaft lautete: „Keine Sorge, das Feld ist heute noch stark.“ Die neuen Daten zeigen, dass Stärke keinen Schutz bietet.

Unterdessen schwächt sich das moderne Feld der Erde weiter ab – seit dem 19. Jahrhundert um etwa 10 bis 15 %, wobei sich die Südatlantik-Anomalie ausdehnt und die Pole schneller über den Globus driften.

Unabhängig davon, ob es zu einer vollständigen Umkehrung oder einer kürzeren Abweichung kommt, kann der Geo-Dynamo selbst aus einer Position der Stärke heraus ins Chaos stürzen.

Hier kann man nicht ausschließen, dass Cap Allon selbst sich ein wenig des Alarmisten-Slang befleißigt. A. d. Übers.

————————————–

Und hier eine Meldung, deren Eintreffen hierzulande immer noch auf sich warten lässt (A. d. Übers.):

Der Klimawandel-Hype bricht zusammen!

Die große grüne Maschine der EU gerät ins Stocken. Pläne, ein neues Klimaziel durchzusetzen – eine rechtlich bindende Emissionsreduktion um 90 % bis 2040 – wurden nach Widerstand von einflussreichen Regierungen wie Frankreich und Deutschland auf Eis gelegt.

Trotz aller Diskussionen über „Sicherheit für Investoren“ und „Netto-Null bis 2050“ kann sich Europa dies in Wirklichkeit nicht leisten. Die Industrie bricht unter den steigenden Kosten zusammen, die Landwirte revoltieren. Selbst Regierungen, die einst gerne jedes Klimakommuniqué unterzeichneten, zögern plötzlich aufgrund des wachsenden Drucks (der kochenden Wut) der Bevölkerung. Sie können keine Revolution riskieren.

Das Ziel für 2040 sollte eigentlich am 18. September verabschiedet werden, also noch vor Ablauf der Frist für die Einreichung der Klimavorschläge bei der UNO. Stattdessen wurde es an die EU-Staats- und Regierungschefs weitergereicht, wo eine einstimmige Zustimmung erforderlich ist – ein politisches Todesurteil. Frankreich, Italien und Polen sträuben sich. Deutschland besteht darauf, dass die Staats- und Regierungschefs sich zuerst einigen müssen. Der Plan bricht auseinander.

Hinter den Schlagworten (Europa ist der „am schnellsten sich erwärmende Kontinent“, der Klimawandel hat „tödliche Hitzewellen und Waldbrände ausgelöst“) stimmen die Zahlen nicht überein. Außerdem verursacht Europa nur knapp 7 % der weltweiten CO₂-Emissionen, besteht aber dennoch auf einseitigem wirtschaftlichem Selbstmord.

Der Klimawandel-Hype ist politisch und wirtschaftlich unhaltbar und wissenschaftlich unbegründet.

Und er scheitert.

Endlich.

Link: https://electroverse.substack.com/p/biting-cold-in-canadas-far-north?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Eine Meldung vom 16. September 2025:

Neue Studie: Hunga Tonga – und nicht CO₂

Eine neue Studie kommt zu dem Ergebnis, dass nicht der Anstieg des CO₂-Gehalts, sondern der Ausbruch des Hunga Tonga im Jahr 2022 für die kurzfristige Erwärmung in den Jahren 2023–24 verantwortlich war.

Lightfoot und Ratzer (2025) verwenden den UAH-Satellitendatensatz, die zuverlässigste globale Aufzeichnung ohne Verzerrungen durch städtische Wärmequellen. Diese Aufzeichnungen zeigen, dass sich die Erde zwischen Januar 2019 und Januar 2023 um etwa 0,5 °C abgekühlt hat, was mit den Prognosen von Sonnenphysikern wie Valentina Zharkova übereinstimmt, die argumentieren, dass die abnehmende Sonnenaktivität die Temperaturen in den kommenden Jahrzehnten wieder auf das vorindustrielle Niveau zurückbringen wird.

Die plötzliche Erwärmung nach 2022 wurde nicht durch CO₂, sondern durch ein einzelnes Naturereignis verursacht.

Am 15. Januar 2022 explodierte der Unterwasservulkan Hunga Tonga mit rekordverdächtiger Kraft und schleuderte 146 Millionen Tonnen (146 Tg H₂O) Wasserdampf in die Stratosphäre – eine Zunahme des Feuchtigkeitsgehalts um mindestens 10 %. Normalerweise enthält die Stratosphäre nur wenige Teile pro Million Wasserdampf, typischerweise ~4–6 ppm, aber die Eruption fügte mindestens 10 % zu diesem Ausgangswert hinzu – eine starke Anomalie, die von NOAA-Ballonstarts und dem Aura-Satelliten der NASA erfasst wurde. Der zusätzliche Wasserdampf hielt die austretende Wärme zurück und verursachte einen messbaren kurzfristigen Anstieg.

Im April 2024 erreichten die Satellitenmessungen einen Höchstwert von etwa 0,45 °C über der 1,5 °C-Grenze des IPCC. Die monatlichen Anomalien bewegten sich einige Zeit lang nahe oder über diesem Schwellenwert, was die Medien dazu nutzten, um Fantasien über ein „neues Wärmeparadigma” zu verbreiten. Der Anstieg des CO₂-Gehalts betrug im gleichen Zeitraum jedoch weniger als 1 %. Die Korrelation bestand nicht mit Treibhausgasen, sondern mit der vulkanischen Einleitung von Wasserdampf.

Bis Juli 2025 war der Temperaturanstieg um mehr als ein halbes Grad Celsius zurückgegangen, wodurch sich der Abkühlungstrend wieder einstellte.

Die Autoren betonen, dass die Erde kurzzeitig über der 1,5-Grad-Marke lag, ohne dass dies katastrophale Auswirkungen hatte. Hunga Tonga zeigt, wie Naturereignisse den langsamen Anstieg des CO₂-Gehalts überlagern und kurzzeitige Schwankungen der globalen Temperatur verursachen können, die von Klimamodellen nicht erfasst werden.

Nun richtet sich der Fokus auf die Zukunft. Mit dem Abklingen des vulkanischen Wasserdampfs kehrt die vor 2022 zu beobachtende Abkühlung zurück. Die Sonne bleibt der dominierende Regulator, wobei Prognosen auf eine geringere Aktivität und damit kältere Bedingungen bis in die 2030er Jahre hindeuten. Die Landwirtschaft, so warnt die Studie, sollte sich auf kürzere Vegetationsperioden, frühe Fröste und die reale Möglichkeit sinkender Erträge in den kommenden Jahrzehnten einstellen.

Die ganze Studie steht hier (PDF).

Link: https://electroverse.substack.com/p/concordia-to-1028f-more-polar-vortex?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

————————————–

Meldungen vom 17. September 2025:

Arktisches Meereis-Minimum 2025 erneut höher

Die minimale Ausdehnung des arktischen Meereises für 2025 liegt bei 4,602 Millionen km² – das sind 350.000 km² mehr Eis als 2024 und 180.000 km² mehr als der Durchschnitt der Jahre 2011–2020. Die Behauptungen, das Meer würde „eisfrei” werden, haben sich einen weiteren Sommer lang nicht bewahrheitet.

Tatsächlich basiert jeder Rückgang auf einer wackeligen Grundlage. Wie kürzlich berichtet wurde, führten ein Wechsel der Sensoren und ein überarbeiteter Algorithmus in den Jahren 2006–07 zu einem künstlichen Rückgang in den Daten. Seitdem gab es keinen anhaltenden Rückgang des Meereises – was die Behauptung weiter untermauert, dass der Rückgang ein Produkt der Vorgehensweise und nicht der Realität war.

Einschub des Übersetzers hierzu:

Diese Graphik zeigt die o. g. Eisausdehnung der Jahre 2006 in orange und 2007 in grün. Eingezeichnet ist außerdem das Minimum des Jahres 2012 (rot gestrichelt) und dieses Jahr 2025 (blau).

Interpretation: Wenn man davon ausgeht, dass die Messmethodik nach 2007 nicht mehr verändert worden ist, kann man die Jahre 2007, 2012 und 2025 miteinander vergleichen. Dabei bleibt festzuhalten: Die Eisausdehnung (immer zum jahreszeitlichen Minimum!) war seit 2012 immer größer als in jenem Jahr. Von einem beschleunigten Abschmelzen kann also keine Rede sein. In diesem Jahr ist die minimale Eisausdehnung erheblich größer, wie es Cap Allon ja auch beschreibt – sogar noch größer als im Jahre 2007.

Aber Cap Allon fügt noch das hier hinzu:

Selbst in der Mainstream-Literatur wird dieses Problem thematisiert.

Die Wahrscheinlichkeit einer 18-jährigen Pause beim Abschmelzen des arktischen Meereises bei anhaltenden Emissionen wurde von Swart et al. (2015) auf weniger als 10 % berechnet (siehe Grafik unten) – das bedeutet, dass Experten eine Wahrscheinlichkeit von mehr als 90 % für das Gegenteil dessen angenommen haben, was tatsächlich eingetreten ist.

Das arktische Meereis verschwindet nicht, und die Modelle sowie ihre Entwickler haben sich als völlig falsch liegend erwiesen.

————————————–

Die NOAA schreibt die Vergangenheit um – immer und immer wieder

Die offiziellen Temperaturaufzeichnungen der USA (USHCN) sind nicht in Stein gemeißelt. Sie werden Tag für Tag stillschweigend neu geschrieben.

Nehmen wir die Daten aus Brewton, Alabama (Station Nr. 011084) für die Jahre 1940 bis 1950 (Tabelle unten).

Am 25. Juni 2025 listete die NOAA-Datenbank einen Satz monatlicher Temperaturen für diese elf Jahre auf, aber als die gleiche Station nur einen Monat später, am 25. Juli, erneut überprüft wurde, war jede einzelne Zahl geändert worden. Die „offizielle” historische Temperaturaufzeichnung war im Juni eine Sache, im Juli dann aber etwas völlig anderes.

NOAA USHCN Station 011084 (Brewton, Alabama). Monatliche Durchschnittstemperaturen (Celsius × 100, z. B. 1020 = 10,20 °C) für 1940–1950. Oberes Feld: Datensatz abgerufen am 25.06.2025. Unteres Feld: die gleichen Jahre, erneut abgerufen am 25.07.2025. Alle 132 Monatswerte unterscheiden sich zwischen den Abrufen.

Das Gleiche gilt für alle anderen Monate. Über alle anderen Jahre hinweg. Kein einziger Monatswert bleibt gleich.

„Die Daten werden jeden Tag geändert“, schreibt der Atmosphärenwissenschaftler Wei Zhang.

Die NOAA bezeichnet diesen Prozess als „Homogenisierung“, ein statistisches Verfahren, das angeblich dazu dient, Dinge wie Standortveränderungen oder Instrumentenwechsel zu korrigieren. In der Praxis bedeutet dies jedoch, dass die Vergangenheit niemals feststeht. Sie kann so sein, wie es die Regierungsbehörde will.

Das U.S. Historical Climatology Network (USHCN) wird als Goldstandard für die Temperaturen in den USA verkauft, wobei Politiker und Medien seine Grafiken als soliden Beweis für eine „beispiellose Erwärmung“ präsentieren. Wenn jedoch die Basiswerte aus den 1940er- und 1950er-Jahren – oder aus jedem anderen Jahrzehnt – von Monat zu Monat umgeschrieben werden können, dann ist die Grundlage für diese Behauptungen alles andere als solide.

Wenn man dann noch Politik und Agenden hinzufügt, besteht ein hohes Risiko für systemische Verrottung.

Link: https://electroverse.substack.com/p/antarcticas-late-season-freeze-arctic?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Signale für einen kalten bevorstehenden Winter

Cap Allon

Vorbemerkung des Übersetzers: Hier wird ein Ansatz vorgestellt, der einfach mal zur Diskussion gestellt werden soll. Es ist von einer nördlicher als normal gelegenen Innertropischen Konvergenzzone die Rede mit der Folge ergiebiger Niederschläge in der Sahel-Zone. Tatsächlich ist mir bei der täglichen Betrachtung des Wetter-Radars bei wetteronline.de die in diesem Sommer ungewöhnlich rege Gewittertätigkeit in allen westlichen Gebieten der Sahara aufgefallen.

Den Implikationen, die Autor Cap Allon daraus und aus anderen Phänomenen ableitet, möchte mich mich aber nicht vorbehaltlos anschließen. Keine Vorhersage dieser Art (so es überhaupt eine solche ist) ist mit 100% Eintritts-Wahrscheinlichkeit zu bewerten, nicht einmal annähernd.

Dennoch, ein interessanter Ansatz ist es allemal. Man darf auf Kommentare gespannt sein.

Ende Vorbemerkung

Die Innertropische Konvergenzzone – der Klima-Äquator – verschob sich in diesem Sommer nach Norden und lag in Afrika durchschnittlich 2,4 Grad nördlicher als im saisonalen Durchschnitt. Diese Verschiebung führte zu weitreichenden Niederschlägen in der Sahelzone, deutet aber auch auf etwas Größeres hin: einen veränderten Energietransport in der Hemisphäre.

Wenn sich die ITC nach Norden verschiebt, speichern die Tropen und die südliche Hemisphäre mehr Wärme und Feuchtigkeit des Planeten. Weniger davon wird über den Äquator in die nördliche Hemisphäre transportiert. Mit weniger eingehender Energie entsteht im Norden ein Defizit, das in den Winter hineinreicht – eine Konstellation, die kältere Jahreszeiten wahrscheinlicher macht. Die feuchtere Sahelzone ist ein sichtbares Zeichen für dieses Ungleichgewicht.

Und dieses Jahr agiert die ITC nicht allein.

Die Weltmeere kühlen sich tendenziell ab, wobei große Teile unter der WMO-Basislinie von 1991–2020 liegen (siehe unten). Und ein sich entwickelndes La Niña-Phänomen im Pazifik verstärkt diesen Trend noch: La Niña-Winter bringen oft mehr Blockierungs-Wetterlagen und eine erhöhte Schneedecken-Ausdehnung in Eurasien und Nordamerika mit sich.

Darüber hinaus zeigen sowohl die Nordatlantische Oszillation (NAO) als auch die Arktische Oszillation (AO) einen Abwärtstrend. Wenn diese Indizes negativ sind, schwächen sie die Westwinde und lassen arktische Luft nach Süden in die mittleren Breiten strömen. Genau dieses Muster ist mit einigen der härtesten Winter seit Beginn der Aufzeichnungen verbunden.

Die Daten für den Beginn der Saison stimmen bereits überein. Der Schnee hat sich im September schnell über Nordsibirien ausgebreitet, und die Vorhersagen sagen für Ende des Monats die ersten Flocken in höheren Lagen in Mitteleuropa voraus. Wenn sich diese Schneedecke frühzeitig aufbaut, wird dies die Blockierungshochs und die Kaltluftansammlungen über dem Kontinent verstärken.

Zusammengenommen – ITC nach Norden, kühlere Ozeane, La Niña, fallende NAO/AO und früher Schneefall – deuten die Signale auf eine Kälteperiode hin. Die gängigen Mittelwertmodelle simulieren weiterhin milde Witterung, aber die meteorologisch-statistischen Faktoren deuten in die andere Richtung.

—————————————————-

Im gleichen Bulletin bringt Cap Allon in diesem Zusammenhang noch etwas anderes:

Zunehmender Herbst-Schnee

Das Rutgers Global Snow Lab zeigt große, frühe Schneemengen in Nordsibirien zum Stand vom 17. September (Link):

Dieser Schnee fällt zwar früh und reichlich, folgt aber einem Trend.

Seit Beginn der Aufzeichnungen (1967) nimmt die Schneebedeckung im Herbst auf der Nordhalbkugel zu. Daten der Rutgers University zeigen, dass die Schneebedeckung im Herbst von etwa 18 Millionen km² in den späten 1960er Jahren auf regelmäßig über 20 Millionen km² in den letzten Jahrzehnten gestiegen ist.

Eine solide Schneedecke über Sibirien führt oft zu einem kalten, schneereichen Winter in Europa. Die neuesten WO/GFS-Prognosen deuten bereits darauf hin, dass der Kontinent schon früh davon betroffen sein wird.

Link: https://electroverse.substack.com/p/autumn-snow-increasing-signals-of?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

———————————————–

Und noch etwas von Cap Allon hierzu, hauptsächlich wegen der interessanten Graphik:

Stratosphären-Erwärmung (SSW) und der Winter 2025/26

Der stratosphärische Polarwirbel bildet sich über der Arktis neu. Frühe Indikatoren zeigen, dass er schwächer als durchschnittlich ist, was das Risiko von Störungen im weiteren Verlauf dieses Winters erhöht.

Ein plötzliches stratosphärisches Erwärmungsereignis (SSW) – ein schneller Anstieg der stratosphärischen Temperaturen, der den Wirbel destabilisiert – kann arktische Luft nach Süden in Richtung Sibirien, Nordamerika und Europa drücken. Etwa zwei Drittel der stärkeren SSWs haben Auswirkungen auf die Erdoberfläche, nämlich längere Kälteperioden, starke Schneefälle und eine allgemeine Störung des Jetstreams.

Die Grafik (unten) zeigt den zonalen mittleren Wind bei 60° N und 10 hPa, dem Standardmaß für die Stärke des Wirbels. Während die Windgeschwindigkeiten derzeit von ihrem Sommertief steigen, zeigt die Prognose, dass sich die Zirkulation unter dem langfristigen ERA5-Durchschnitt entwickelt.

Zonaler Mittelwind bei 60° N im 10 hPa-Niveau: Frühe Prognosen deuten auf einen unterdurchschnittlichen, schwachen Polarwirbel zu Beginn des Winters hin.

Störungen im Herbst oder zu Beginn der Saison, nämlich eine ungewöhnlich starke Aufwärtsausbreitung von Planeten- und Gravitationswellen, können den stratosphärischen Polarwirbel „vorbereiten“, indem sie ihn schwächen und seine Widerstandsfähigkeit verringern. Dadurch wird der Wirbel anfälliger, sodass spätere Einflüsse in der Mitte/am Ende des Winters mit höherer Wahrscheinlichkeit eine vollständige plötzliche stratosphärische Erwärmung auslösen.

Kurz gesagt: Ein schwächerer Wirbel zu Beginn des Herbstes ist anfälliger für Störungen im weiteren Verlauf der Saison. (Yang et al. 2023)

Der Zeitrahmen und die Schwere bleiben ungewiss, und nicht jede SSW setzt sich nbis zur Erdoberfläche durch. Wenn der Wirbel jedoch zusammenbricht – und die letzten Winter deuten darauf hin, dass dies immer häufiger vorkommt –, könnten große Teile der nördlichen Hemisphäre Anfang 2026 mit anhaltender Kälte konfrontiert sein.

Link: https://electroverse.substack.com/p/saudi-arabia-chills-early-snow-hits?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE