Wenn ein einzelner Regenmesser für den ganzen Planeten spricht: Wie ein kleiner Datensatz zu einer globalen Klima-Schlagzeile wird

Charles Rotter

[Alle Hervorhebungen im Original. A. d. Übers.]

Wissenschaftliche Erkenntnisse gewinnen nicht nur durch Daten an Autorität, sondern auch durch die Art und Weise, wie diese Daten präsentiert werden. Die Veröffentlichung von Kong und Kollegen aus dem Jahr 2025 mit dem Titel „Intensifying precipitation over the Southern Ocean challenges reanalysis-based climate estimates – Insights from Macquarie Island’s 45-year record” (Etwa: Zunehmende Niederschläge über dem Südlichen Ozean stellen reanalysebasierte Klimaprognosen infrage – Erkenntnisse aus den 45-jährigen Aufzeichnungen von Macquarie Island) ist ein hervorragendes Beispiel dafür, wie ein kleines, unsicheres Ergebnis durch die Pressemitteilung zu einer weitreichenden globalen Aussage werden kann.

In dem von Fachkollegen begutachteten Artikel sind die Autoren vorsichtig, sogar zurückhaltend: Sie diskutieren mögliche Verzerrungen, die begrenzte räumliche Abdeckung und die Annahme-lastige Natur ihrer Extrapolationen. In der Phys.org / The Conversation-Version der Geschichte – verfasst von zwei der gleichen Forscher – wird der Ton jedoch zu Gewissheit. Was eine lokale Analyse war, wird zu einer globalen Offenbarung: „Stürme im Südlichen Ozean bringen mehr Regen – und die Folgen könnten global sein.“

Die Graphik in deutscher Übersetzung (Google Translate):

Der Unterschied zwischen diesen beiden Versionen ist keine Frage der Semantik. Es handelt sich um den Unterschied zwischen einer statistischen Kuriosität in einem kleinen Datensatz und einer behaupteten hydrologischen Transformation im planetarischen Maßstab.

Die winzige Grundlage

Macquarie Island, ein windgepeitschter Bergrücken auf halbem Weg zwischen Tasmanien und der Antarktis, liefert eine der wenigen langfristigen meteorologischen Aufzeichnungen im Südlichen Ozean. Die Autoren analysieren 45 Jahre täglicher Niederschlagsdaten (1979–2023). Es fehlen weniger als zehn Tage, was eine beeindruckende Kontinuität darstellt. Doch während die zeitliche Abdeckung lang ist, beschränkt sich die räumliche Abdeckung auf einen Punkt – 8 Meter über dem Meeresspiegel, in einer der wettermäßig variabelsten Regionen der Erde.

Jeder, der in Zeitreihenanalyse geschult ist, weiß, was ein solcher Datensatz offenbaren kann und was nicht. Fünfundvierzig Jahreswerte bieten bestenfalls ein paar Dutzend Freiheitsgrade für die Trendschätzung. In Klimakontexten mit großen interannuellen Schwankungen können einige wenige anomale Jahre die Regressionsgerade so stark verzerren, dass sie „statistisch signifikant” erscheint.

Wenn die gleichen Jahre in fünf Cluster von „synoptischen Regimen” unterteilt werden, sinkt die effektive Stichprobengröße für jeden Trend noch weiter – oft auf weniger als zehn wirklich unabhängige Punkte, wenn man die serielle Korrelation berücksichtigt. Unter diesen Bedingungen können kleine zufällige Schwankungen als aussagekräftige Muster erscheinen.

Die Clusterbildung, welche die Muster erzeugt

Um meteorologische „Regimes“ zu untersuchen, wandten Kong et al. K-Means-Clustering auf 15 atmosphärische Variablen aus der ERA5-Reanalyse an. Sie testeten zwischen drei und acht Clustern und entschieden, dass fünf „optimal“ seien, da die Ergebnisse „weitgehend mit früheren Studien übereinstimmten“.

Dies ist keine objektive Optimierung, sondern eine Ermessensentscheidung. K-Means erzwingt sphärische Cluster von ungefähr gleicher Größe, eine Geometrie, der atmosphärische Daten selten entsprechen. Eine Änderung der Anzahl der Cluster oder sogar der zufälligen Initialisierung kann sowohl die Zusammensetzung der Cluster als auch die abgeleiteten Trends verändern. Bei 45 Jahren täglicher Daten – über 16.000 Punkten – ist es fast garantiert, dass eine bestimmte Aufteilung Cluster mit offensichtlichen Unterschieden in der Niederschlagsintensität ergibt, die auf dem Niveau von 0,05 „signifikant“ erscheinen.

Mit anderen Worten: Das Verfahren ist anfällig für statistische Trugbilder. Die offensichtliche Präzision von Zahlen wie „ein Anstieg der Niederschlagsintensität um 28 % bei Warmluftadvektion” kann darauf zurückzuführen sein, wie der Algorithmus die Daten aufteilt, und nicht auf eine zugrunde liegende physikalische Veränderung.

Signifikanz durch Multiplikation

Nach der Definition von fünf Regimen passten die Autoren separate lineare Trends für jedes Regime sowohl in den Beobachtungs- als auch in den ERA5-Datensätzen an – insgesamt über 50 Regressionen. Dennoch verwendet die Arbeit den herkömmlichen Schwellenwert p < 0,05 ohne Korrektur für multiple Tests. Bei diesem Schwellenwert wird etwa jede zwanzigste Regression zufällig als „signifikant” erscheinen. Bei Dutzenden von Tests sind eine Handvoll p-Werte unter 0,05 statistisch unvermeidlich, selbst wenn keine wirklichen Trends vorliegen.

Die Tabellen bestätigen dies: Die meisten Regime weisen p-Werte um 0,05 auf; einige wenige liegen darunter und werden als „signifikant” bezeichnet. Es wird keine Anpassung (Bonferroni, Benjamini-Hochberg oder anderweitig) vorgenommen. Das Ergebnis ist eine statistische Landschaft, die mit Zufallsbefunden gespickt ist, denen ein erklärender Status zugewiesen wird.

Da sich die fünf Regime-Zeitreihen gegenseitig ausschließen und zusammen vollständig sind – jeder Tag gehört genau zu einem Cluster –, sind ihre jährlichen Häufigkeiten zudem von Natur aus voneinander abhängig. Ein Anstieg in einem Regime muss mit einem Rückgang in anderen einhergehen. Werden sie als unabhängige Stichproben behandelt, wird die scheinbare Gewissheit jedes Trends übertrieben.

Datenmenge vs. Datenqualität

Selbst wenn jede Regression perfekt durchgeführt werden würde, bliebe die physikalische Bedeutung mehrdeutig. Die Niederschlagsmenge auf einer Insel in den „Roaring Forties“* hängt von der lokalen Topografie, der Meerestemperatur und der Windrichtung ab, die alle unabhängig von allgemeinen Klimatrends variieren können. ERA5 hingegen stellt einen gerasterten Durchschnitt über etwa 25 × 25 km dar. Die Diskrepanz zwischen einem Punktmessgerät und einem Modellraster ist erheblich. Der beobachtete Anstieg von 260 mm pro Jahr könnte eher lokale Stationseffekte, Messgeräteänderungen oder zufällige dekadische Schwankungen widerspiegeln als einen tatsächlichen regionalen Trend.

[*„Roaring Forties“ = „Brüllende Vierziger“. Der Terminus wurde von frühen Seefahrern geprägt, die damit auf der Südhemisphäre die Orkanwirbel zwischen 40°S und 50°S meinten, die sie naturgemäß sehr gefürchtet haben. A. d. Übers.]

Die Autoren räumen diese Vorbehalte tief in der Diskussion ein:

„Während MAC wertvolle Langzeitbeobachtungen liefert, führt seine Einzelpunktnatur zu einer potenziellen Skalenabweichung vom nächsten ERA5-Gitterzellenmittelwert, was zu den beobachteten Verzerrungen beitragen kann.“ (S. 1655)

Das ist ein wichtiges Eingeständnis. Leider verschwindet das vollständig aus den Medienberichten.

Vom statistischen Artefakt zum globalen Zusammenhang

Die Medienversion beginnt mit einer anschaulichen Beschreibung – Pinguine, See-Elefanten, moosbewachsene Hänge – und erklärt dann:

„Unsere neue Forschung bestätigt [den Anstieg der Niederschläge] – und zeigt, dass die Geschichte weit über ein abgelegenes UNESCO-Weltnaturerbe hinausgeht.“

Von da an entfaltet sich die Logik eher durch Implikation als durch Beweise. Da der Südliche Ozean „eine enorme Rolle im globalen Klimasystem spielt“, muss jede Veränderung auf Macquarie Island eine größere Transformation reflektieren. Die Autoren, die nun zu Kommunikatoren geworden sind, erklären dann:

„Falls die Zunahme der Niederschläge, die wir auf Macquarie Island beobachten, die Bedingungen im gesamten Sturmgürtel des Südlichen Ozeans reflektiert – worauf mehrere Indizien hindeuten –, sind die Folgen gravierend.“

Dieser Satz enthält zwar ein bedingendes „falls“, aber was folgt, macht es zunichte:

„Unsere Schätzungen deuten darauf hin, dass diese zusätzlichen Niederschläge im Jahr 2023 etwa 2.300 Gigatonnen zusätzlichem Süßwasser pro Jahr im gesamten südlichen Ozean in hohen Breitengraden entsprechen – eine Größenordnung, die über den jüngsten Schmelzwasserbeiträgen der Antarktis liegt.“

Nun ist diese Annahme zu einer quantitativen globalen Aussage geworden, die mit scheinbarer Präzision und einem Vergleich zum Massenverlust der Antarktis einhergeht. Für den allgemeinen Leser liest sich dies wie eine Tatsache. In der wissenschaftlichen Abhandlung wird die gleiche Zahl mit den Worten „unter der Annahme, dass dieser Anstieg repräsentativ ist …” eingeleitet – ein Gedankenexperiment, keine Beobachtung.

Die Illusion der Größenordnung

Die Skalierung eines Einzelpunkt-Trends auf ein Ozeanbecken ist mehr als eine Extrapolation; es ist ein dimensionaler Sprung. Die Fehlerbalken einer solchen Berechnung sind praktisch unbegrenzt. Dennoch verschwinden diese Balken in der gängigen Darstellung.

Die Argumentationskette würde, falls sie transparent dargestellt werden würde, wie folgt lauten:

1. Beobachtung: Die Messungen auf Macquarie Island zeigen einen Anstieg der jährlichen Niederschlagsmenge um 28 % seit 1979.

2. Annahme: Die Veränderung auf der Insel repräsentiert den gesamten Breitengrad zwischen 50° und 60° südlicher Breite.

3. Berechnung: Multiplikation des mittleren Anstiegs mit der Fläche dieses Gürtels.

4. Ergebnis: ~3.400 Gigatonnen zusätzlicher Süßwasserfluss.

Jeder Schritt erhöht die Unsicherheit um eine Größenordnung. Am Ende ist die numerische Genauigkeit (z. B. „2.300 Gigatonnen“) bedeutungslos. Dennoch erhalten solche Zahlen gerade deshalb rhetorische Kraft, weil sie präzise wirken. Die Spezifität signalisiert Zuversicht, auch wenn die Berechnung kaum mehr als eine arithmetische Übung auf der Grundlage einer Annahme ist.

Ein System der Aufblähung

Dies ist kein Einzelfall, sondern verdeutlicht eine systemische Tendenz in der modernen Klimakommunikation. Forscher, die unter Druck stehen, die Relevanz ihrer Arbeit zu beweisen, erweitern ihre Schlussfolgerungen über den Bereich hinaus, den ihre Daten stützen können. Redakteure und Öffentlichkeitsabteilungen bevorzugen aussagekräftige Schlagzeilen gegenüber probabilistischen Formulierungen. Das Ergebnis ist eine Zunahme des Vertrauens:

Mit jedem Schritt wächst das Vertrauen, während die Evidenzbasis gleich bleibt.

Statistische Sorgfalt ging unter

Die Einschränkungen des Fachartikels sind umfangreich und klar aufgeführt. Es wird darauf hingewiesen, dass nur ein Regime-Frequenztrend statistisch signifikant ist, dass ERA5 lokale Beobachtungen assimiliert, was die Unabhängigkeit erschwert, und dass die weiter gefassten Extrapolationen spekulativ sind. Die 95-prozentigen Konfidenzintervalle vieler Regressionen überschneiden sich mit Null. Die Autoren weisen sogar darauf hin, dass „weitere Belege erforderlich sind“.

Nichts davon findet sich in der öffentlichen Version. Stattdessen erfahren die Leser, dass „sich der Südliche Ozean möglicherweise um 10–15 % stärker abkühlt als 1979 – einfach durch den Energieverbrauch für die Verdunstung, der die zusätzlichen Niederschläge antreibt”. Diese Aussage impliziert eine quantifizierte, bassinhafte Änderung des Energiehaushalts, die nicht aus Messungen abgeleitet wurde, sondern aus dem gleichen Einpunkt-Niederschlagsanstieg multipliziert mit theoretischen Latentwärmefaktoren. Die Grenze zwischen Beobachtung und Vermutung wird ausgelöscht.

Warum kleine Datensätze große Trugbilder erzeugen

Kurze oder lokalisierte Datensätze sind aufgrund der Klimazeitreihen innewohnenden Autokorrelation besonders anfällig für falsche Trends. Selbst bei rein zufälligen jährlichen Schwankungen kann das Verfahren der kleinsten Quadrate scheinbar signifikante Steigungen ergeben, wenn aufeinanderfolgende Werte nicht unabhängig sind. Standard-p-Werte gehen von Unabhängigkeit aus; wenn diese Annahme nicht zutrifft, ist die tatsächliche Signifikanz weitaus geringer.

Hinzu kommt die Möglichkeit der Nichtstationarität – Perioden mit höherer und niedrigerer Varianz – wodurch sich die Konfidenzintervalle weiter vergrößern. Ohne explizite Tests auf Autokorrelation und Empfindlichkeit gegenüber Start- und Enddaten sollte jeder lineare Trend über 45 Jahre als vorläufig betrachtet werden. In der Veröffentlichung werden keine dieser Tests erwähnt. Somit könnte der viel gepriesene „Anstieg um 28 %” leicht ein statistisches Artefakt der natürlichen multidekadischen Variabilität sein.

Solche Artefakte sind nicht trivial, sie prägen das Narrativ. Nach ihrer Veröffentlichung wird jeder einzelne zu einem weiteren „Datenpunkt” in Metaanalysen und Klimamodellvalidierungen, was möglicherweise die Verzerrungen in genau den Reanalysen verstärkt, welche die Autoren kritisieren.

Warum dieses Kommunikationsmuster fortbesteht

Forscher stehen oft zwischen zwei Erwartungen: der akademischen Forderung nach Vorsicht und der öffentlichen Erwartung von Klarheit und Wirkung. Förderinstitutionen und Medien bevorzugen Meldungen, die lokale Erkenntnisse mit globalen Herausforderungen in Verbindung bringen. Der sicherste Weg, um Sichtbarkeit zu erlangen, besteht darin, auf weitreichende Konsequenzen hinzuweisen und gleichzeitig in der technischen Version formelle Vorbehalte zu formulieren. Diese Vorbehalte überleben jedoch selten die Pressemitteilung.

In diesem Fall verfassten die gleichen Autoren sowohl die wissenschaftliche als auch die populäre Version und entfernten damit den üblichen Filter, der Nuancen hätte bewahren können. Der selbstbewusste Ton des Outreach-Artikels trägt somit die Handschrift der ursprünglichen Autoren und vermittelt den Lesern den Eindruck, dass die erweiterten Behauptungen auf Daten und nicht auf Schlussfolgerungen beruhen.

Die Folgen übertriebener Gewissheit

Wenn kleinere Studien als globale Durchbrüche veröffentlicht werden, hat dies zwei Nachteile. Erstens erwartet die Öffentlichkeit dann ständig neue „Klima-Kipppunkte“, wodurch die Aufmerksamkeit von soliden, langfristigen Beweisen abgelenkt wird. Zweitens schwindet das Vertrauen in die Klimawissenschaft insgesamt, wenn nachfolgende Analysen die Schlagzeilen-Ergebnisse nicht reproduzieren können. Der Verlust an Glaubwürdigkeit ist kollektiv und beschränkt sich nicht auf eine einzige Veröffentlichung.

Übermäßiges Vertrauen wirkt sich auch intern auf die Wissenschaft aus. Sobald sich eine Erzählung verfestigt – „Stürme im Südlichen Ozean bringen mehr Regen“ –, stehen zukünftige Studien unter einem subtilen Druck, sich anzupassen. Nullergebnisse laufen Gefahr, als konträr zu erscheinen, selbst wenn sie genauer sind.

Eine vernünftige Alternative

Nichts davon bedeutet, dass Kong et al. unangemessen gehandelt haben; ihre zugrunde liegende Analyse ist eine standardmäßige explorative Untersuchung. Das Problem liegt darin, dass Exploration mit Bestätigung verwechselt wird. Ein vernünftiger Ansatz würde die Unterscheidung klar halten:

• Über den beobachteten lokalen Trend und seine Unsicherheit berichten

• Die Sensitivität gegenüber dem Startjahr, der Clusteranzahl und der Autokorrelation ausdrücklich testen

• Extrapolationen auf Beckenebene als hypothetische Szenarien und nicht als Schätzungen darstellen

• Diese bedingte Formulierung in jeder öffentlichen Kommunikation beibehalten

Wären diese Vorgehensweisen durchgehend befolgt worden, wäre die Studie nach wie vor wertvoll – als Fallstudie zur regionalen Niederschlagsanalyse –, ohne ihre globale Bedeutung zu überbewerten.

Die wahre Lektion

Die Aufzeichnungen von Macquarie Island sind gerade deshalb wissenschaftlich interessant, weil sie selten sind. Ihr Wert liegt in der Überprüfung von Fernerkundungs- und Modellprodukten, nicht in der Diagnose planetarischer Veränderungen. Die Versuchung, sie zu globalen Beweisen zu erheben, ist verständlich; Daten aus dem Südlichen Ozean sind rar, und jeder Datensatz erscheint wertvoll. Aber Seltenheit ist kein Ersatz für statistische Aussagekraft.

Die eigentliche Botschaft des Artikels – wie wenig wir tatsächlich über Niederschlagstrends im Südlichen Ozean wissen – wurde in der Berichterstattung der Medien umgekehrt. Anstatt die Unsicherheit hervorzuheben, verwandelte der Artikel sie in Gewissheit: Der Ozean „verändert sich schneller und dramatischer als wir dachten“. Die Realität könnte genau das Gegenteil sein: Da es so wenige direkte Beobachtungen gibt, wissen wir noch nicht einmal, ob er sich überhaupt verändert.

Schlussfolgerung

Der Weg dieser Studie – von der Zeitreihe eines Messgeräts bis zur Schlagzeile über das globale Klima – zeigt, wie moderne Wissenschaftskommunikation vorläufige statistische Muster zu Darstellungen einer planetarischen Veränderung aufbauschen kann. Jeder Schritt auf diesem Weg beseitigt eine Ebene der Unsicherheit, bis am Ende keine vorsichtige Schlussfolgerung mehr übrig bleibt, sondern eine deklarative Behauptung.

Die Wiedereinführung dieser Unsicherheit ist kein Akt der Skepsis um ihrer selbst willen, sondern eine Wiederherstellung der Verhältnismäßigkeit. Die Daten von Macquarie Island mögen auf interessante Schwankungen hindeuten, aber die Konfidenzintervalle sind groß, die Stichprobe klein und die physikalischen Prozesse ungeklärt. Ein solches Fragment als Beweis für globale hydrologische Veränderungen zu behandeln, birgt die Gefahr, Wissenschaft zu reiner Erzählkunst zu machen.

Wenn es hier einen eindeutigen Trend gibt, dann nicht bei den Niederschlägen, sondern in der Rhetorik: die anhaltende Eskalation von bescheidenen Anzeichen zu großartigen Schlussfolgerungen. Solange sich dieser Trend nicht umkehrt, wird die Kluft zwischen Klimadaten und Klimadiskurs weiter wachsen – und damit auch die Verwirrung in der Öffentlichkeit darüber, was die Zahlen wirklich bedeuten.

Link: https://wattsupwiththat.com/2025/12/07/when-a-single-rain-gauge-speaks-for-the-planet-how-a-narrow-dataset-became-a-global-climate-headline/

Übersetzt von Christian Freuer für das EIKE

 




EXKLUSIV: Die neuesten klimapessimistischen Behauptungen des britischen Amtes für Haushaltsverantwortung basieren auf wertlosen Erkenntnissen aus einem zurückgezogenen Nature-Artikel!

Chris Morrison, THE DAILY SCEPTIC

Einer der bislang größten Skandale in der klimawissenschaftlichen Forschung hat eine Reihe von Regierungsberatern weltweit in seinen Bann gezogen, darunter auch das britische Amt für Haushaltsverantwortung (Office for Budget Responsibility, OBR). Im Juli letzten Jahres schätzten die britischen Haushaltsplaner, dass das Bruttosozialprodukt (BSP) des Landes aufgrund der Auswirkungen des vom Menschen verursachten Klimawandels in 50 Jahren um 7,8 % sinken würde. Neu überarbeitete Zahlen zu den „Klimafolgen” deuten darauf hin, dass die jährlichen Kreditaufnahmen zur Finanzierung der Staatsverschuldung zu Preisen von 2025 um über 50 Milliarden Pfund höher ausfallen würden. Die Aktualisierung und Erhöhung der bisherigen Schätzungen vom September 2024 ist auf „mehrere bedeutende Entwicklungen … in der Evidenzbasis” zurückzuführen. Eine eingehende Untersuchung des Daily Sceptic hat ergeben, dass diese aktualisierten Zahlen wertlos sind, da sie in direktem Zusammenhang mit der in Verruf geratenen Studie von Kotz et al. (KLW24) stehen, welche diesen Monat von Nature zurückgezogen worden ist.

Die OBR ist nicht die einzige Institution, die sich mit statistischen Fehleinschätzungen blamiert hat, da die Arbeit des Potsdam-Instituts für Klimafolgenforschung, einer bekannten Hochburg radikaler Klimaaktivisten, von anderen Regierungsorganisationen wie dem US-Kongressbudgetamt, der OECD und der Weltbank weitläufig genutzt wurde. Alle scheinen sich auf ein sogenanntes Schadensauswirkungsmodell aus KLW24 gestützt zu haben, das zu der Schlagzeile führte, dass die Welt im nächsten Jahrhundert aufgrund der Eingriffe des Menschen in den Klimathermostat um 78 Billionen Dollar ärmer sein würde. Das ist natürlich ein gefundenes Fressen für die Mainstream-Klimakatastrophisten, die sich auf Angaben des von Green Blob finanzierten Climate Brief stützen, wonach diese Studie im letzten Jahr die am zweithäufigsten in den Medien erwähnte Klimastudie war.

Nun ist alles in Tränen und Schande geendet. Die Rücknahme durch Nature hat lange (zu lange!) auf sich warten lassen, war doch schon seit einiger Zeit klar, dass die Veröffentlichung mit fatalen Fehlern gespickt war. Die Autoren hatten zugegeben, dass die Fehler zu gravierend für eine Korrektur waren.

Die neuesten Schätzungen des OBR zu Klimaschäden basieren auf einem Anstieg von 3 °C gegenüber dem vorindustriellen Niveau und stützen sich auf „Informationen aus NGFS Phase V”. Dies ist ein wichtiges Eingeständnis. Für seine Prognosen zu den wirtschaftlichen Schäden stützte sich das OBR auf Szenarien des Network for Greening the Financial System, die ausdrücklich die Studie von Kotz et al. einbezogen. Diese Informationen aktualisieren ein NGFS-Schadensfunktionsmodell, das die BIP-Verluste aufgrund von Klimaauswirkungen schätzt. Kommentare im OBR-Bericht sowie Fußnoten verweisen sowohl auf NGFS Phase V als auch auf Kotz et al. „Die neuesten Daten und aktualisierten Modelle deuten darauf hin, dass die Schäden für das BIP durch den Klimawandel wahrscheinlich schwerwiegender sein werden als bisher angenommen”, stellt das OBR fest.

Das NGFS wurde auf dem Höhepunkt der jüngsten „Green Mania” von einem Konsortium aus Zentralbanken und Aufsichtsbehörden gegründet. Es erstellt Forschungsarbeiten und Szenarien und betreibt den sogenannten Austausch bewährter Verfahren zu Klima- und Umweltrisiken im Finanzwesen. Es hat einen deutlichen Beigeschmack des Jahrzehntwechsels, da die Finanz- und Geschäftswelt sich nun von ihren unrealistischen Plattitüden verabschiedet. Die Verbindung zur Kotz-Studie dürfte sein Image kaum verbessern, insbesondere bei den Regierungsorganisationen, die voll und ganz auf seine Phase-V-Erfindungen hereingefallen sind. Es behauptet zwar weiterhin, in rund 90 Ländern Unterstützung zu genießen, aber leider nicht im wichtigsten Finanzland der Welt. Es dauerte nicht lange, bis Trump in Amerika die Federal Reserve, die Federal Deposit Insurance Corporation und das Finanzministerium zurückzog.

Im April 2024 geriet der Guardian in hysterische Klima-Katastrophenstimmung, als er über Kotz‘ Vermutung berichtete, dass das weltweite Einkommen innerhalb von 26 Jahren um fast ein Fünftel sinken würde. Der politische Aufmacher war im ersten Absatz des Guardian deutlich zu erkennen, mit dem Hinweis, dass „die Kosten der Schäden sechsmal höher sein werden als die Kosten für die Begrenzung der globalen Erwärmung auf 2 °C”. Der Hauptautor Maximillian Kotz behauptete, dass die starken Einkommensrückgänge unter anderem durch die Auswirkungen des Klimawandels auf die landwirtschaftlichen Erträge, die Arbeitsproduktivität und die Infrastruktur verursacht würden. Bis heute scheint es der Guardian nicht für notwendig erachtet zu haben, seine Leser über die Rücknahme zu informieren, noch hat er irgendwelche Korrekturen an seinem ursprünglichen Fantasiebericht vorgenommen.

Was ist falsch an der Kotz-Studie? Wo soll man anfangen? Es scheint, dass sie unter einer Kombination aus Datenungenauigkeiten und methodischen Mängeln litt, welche die Kernprognosen zu klimabedingten wirtschaftlichen Schäden grundlegend untergruben. Die Probleme scheinen sich durch den gesamten Bericht gezogen zu haben und wurden als zu gravierend für eine bloße Korrektur anerkannt. Es ist fast unglaublich, aber es scheint, dass Probleme mit einem Wirtschaftsdaten-Set aus Usbekistan aus den Jahren 1995–1999 dazu geführt haben, dass die Modellschätzungen der Auswirkungen der Temperatur auf das Wachstum die globalen Prognosen um etwa das Dreifache überhöht haben. Die Autoren haben ihrerseits eine überarbeitete Fassung des Artikels zur „Peer Review” vorgelegt, in der die katastrophalen Behauptungen etwas abgeschwächt wurden. Aber die Welt bewegt sich weg von Netto-Null und der Markt für beängstigende Unsinnigkeiten schrumpft von Tag zu Tag.

Das OBR muss seine Zahlen angesichts der Rücknahme durch Kotz anpassen. Das NGFS hat die zentrale Rolle anerkannt, die Kotz bei der Untermauerung der physischen Risikoschätzungen in Phase V gespielt hat. Es hat den Nutzern empfohlen, diese Einschränkung zu berücksichtigen, wenn sie ihre eigenen Zahlen anhand der Szenarien erstellen, pardon, berechnen.

Nach diesem wissenschaftlichen Fiasko wäre es vielleicht besser, wenn sich das OBR ganz aus dem Geschäft mit Klimakatastrophen zurückziehen würde. Jeder ernsthafte Ökonom, der sich mit Zahlen beschäftigt, sollte entsetzt sein, dass er Fantasiezahlen aus nutzlosen Computermodellen zum Klima berichten muss. Außerdem ist es offensichtlich, dass das OBR nur wenig über die Wissenschaft des Klimawandels weiß. Im ersten Absatz wirbt es für seinen fiktiven Wirkungsbericht, indem es eine aktuelle Fünfjahres-Temperaturreihe zitiert. Dieser kurze Zeitraum ist praktisch Wetter und kein aussagekräftiger Klimatrend. Anschließend wird suggeriert, dass die britische Wirtschaft mit „zunehmend volatilen und extremen Wetterbedingungen” konfrontiert ist, eine gängige Panikmache, die durch die Daten nicht gestützt wird. Dann wird berichtet, dass die Temperaturen weiter steigen werden, bis die Emissionen aller „Treibhausgase” auf Null sinken, eine Behauptung, die aufgrund von Beobachtungen und Messungen sowohl in historischen als auch in paläoklimatischen Aufzeichnungen keine Gültigkeit hat.

Der OBR scheint nicht in den Sinn gekommen zu sein, dass eine extreme Netto-Null-Lösung zu einer weltweiten Hungersnot, zu Todesfällen in wirklich schockierendem Ausmaß, zu einem wirtschaftlichen und einem globalen gesellschaftlichen Zusammenbruch führen wird. Selbst der Guardian würde sich scheuen, über die fast unvorstellbaren Kosten all dessen zu berichten.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2025/12/10/exclusive-uk-office-of-budget-responsibilitys-latest-climate-fear-mongering-claims-based-on-junk-findings-from-retracted-nature-paper/

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie: Temperaturbedingte CO₂-Ausgasung erklärt 83 Prozent des CO₂-Anstiegs seit 1959

Kenneth Richard

„Der Anteil der Emissionen aus fossilen Brennstoffen, der noch in der Luft verbleibt (etwa 23 ppm von 425 ppm Ende 2024), kann keine Auswirkungen auf das Klima haben.“ – Veyres et al., 2025

Vor einigen Jahren haben Dr. Koutsoyiannis und Kollegen anhand von Gleichungen zur Chemie der temperaturbedingten organischen Atmung nachgewiesen, dass seit Ende der 1950er Jahre der temperaturbedingte Anstieg der Pflanzen- und Bodenemissionen (31,6 Gt-C/Jahr) einen 3,4-mal größeren Anteil am Anstieg des atmosphärischen CO₂ um >100 ppm haben als der Beitrag aus dem Anstieg der Emissionen fossiler Brennstoffe (9,4 Gt-C/Jahr).

Diese Schlussfolgerung basiert auf der Beobachtung, dass seit 1959 die Kausalitätsrichtung bei der Beobachtung der jährlichen Veränderungen der atmosphärischen CO₂-Konzentrationen durchweg T→CO₂ und nicht CO₂→T war (Koutsoyiannis et al., 2022). Mit anderen Worten: Atmungsanalysen deuten darauf hin, dass der Anstieg des CO₂-Gehalts eine Folge und nicht die Ursache der Temperaturerhöhung war.

In einer neuen Studie haben Wissenschaftler nun anhand der zeitintegrierten Wirkung vergangener Meerestemperaturen und Zeitreihenmodellen nachgewiesen, dass die temperaturbedingte CO₂-Ausgasung aus den Ozeanen ebenfalls den Großteil des Anstiegs der CO₂-Konzentration in der Atmosphäre seit Ende der 1950er Jahre erklären kann. Im Gegensatz dazu gibt es „keine Korrelation (R² = 0,01) zwischen der trendbereinigten 12-Monats-CO₂-Zunahme und den Emissionen aus fossilen Brennstoffen“.

Insbesondere lässt sich nachweisen, dass die Emissionen aus fossilen Brennstoffen von 2,4 Gt-C/Jahr im Jahr 1959 auf 10,3 Gt-C/Jahr im Jahr 2025 gestiegen sind, was einer Nettoveränderung von +7,9 Gt-C/Jahr entspricht. Im Gegensatz dazu stiegen die natürlichen Emissionen aus der Ausgasung der Ozeane von 133,2 Gt-C/Jahr im Jahr 1959 auf 175,2 Gt-C/Jahr im Jahr 2025 (eine Nettoveränderung von +42 Gt-C/Jahr). Bemerkenswert ist:

„Der Anstieg der temperaturbedingten natürlichen Zuflüsse um +42 Gt-C/Jahr erklärt 84 % des gesamten Anstiegs der Zuflüsse seit 1959 …”

Andere in der Studie aufgeführte Verhältnisse identifizieren ebenfalls die temperaturbedingten natürlichen Emissionen aus den Ozeanen als den vorherrschenden Faktor für den Anstieg der CO₂-Konzentration in der Atmosphäre.

„1960 war die Entgasung der Ozeane 32-mal so hoch wie der Fluss aus „fossilen Brennstoffen“; seit 2010 ist sie 11-mal so hoch.“

„SST-Anomalien stiegen von 0,12 °C im Jahr 1959 auf 0,97 °C im Jahr 2024 und machen 83 % (+89 ppm) des gesamten Anstiegs (+107 ppm) des atmosphärischen CO₂ in diesem Zeitraum aus.“

„Der daraus resultierende Anstieg der Emissionen fossiler Brennstoffe beträgt 5 x 0,12 = +0,6 Gt-C/Jahr oder +0,28 ppm/Jahr – also achtmal weniger als der beobachtete Anstieg der [natürlichen CO₂-Emissionen] = +5 Gt-C/Jahr oder +2,4 ppm/Jahr in den letzten zehn Jahren.“

Die Autoren beziffern den verbleibenden anthropogenen Beitrag zur aktuellen (2024) atmosphärischen CO₂-Konzentration von 425 ppm auf nur 23 ppm oder 49 Gt-C. Das bedeutet, dass etwa 95 Prozent der heutigen CO₂-Werte auf natürliche Prozesse zurückzuführen sind. Selbst wenn also die kostspieligen (800 Milliarden Euro pro Jahr) Dekarbonisierungsmaßnahmen der EU, mit denen die vom Menschen verursachten CO₂-Emissionen drastisch reduziert werden sollen, heute vollständig umgesetzt würden, würde dies „die CO₂-Konzentration in der Atmosphäre bis 2035 nur um etwa 0,5 ppm senken“.

Die Graphik in deutscher Übersetzung (Google Translate):

Link: https://notrickszone.com/2025/12/05/new-study-temperature-driven-CO₂-outgassing-explains-83-percent-of-CO₂-rise-since-1959/

Übersetzt von Christian Freuer für das EIKE

 




Es ist an der Zeit aufzuhören, so zu tun, als ob „Erneuerbare“ billig sind!

Tilak Doshi, Tilak’s Substack

In der Kakophonie der Stimmen, die eine hastige „Energiewende“ weg von fossilen Brennstoffen fordern, gibt es mehrere Klischees, die von Anhängern der Klimakirche regelmäßig verwendet werden. In den letzten Jahrzehnten wurden diese Klischees als Waffen eingesetzt, um Laien davon zu überzeugen, alle Macht an Klimabürokraten abzugeben, um „den Planeten zu retten“. Ein Argument, das in den Massenmedien und Schriften von „Klimaexperten“ wie Michael Mann und Bill McKibben immer wieder auftaucht, ist die „billige“ Solar- und Windenergie. Und das trotz der Entlarvung des magischen Denkens der „neuen“ Energiewirtschaft durch diejenigen, die die Gesetze der Physik und Wirtschaft verstehen und respektieren.

Ein weiterer Irrglaube, der unter grünen Ideologen an Bedeutung gewonnen hat, ist der „Primärenergie-Irrtum“. In den sozialen Medien finden sich zahlreiche Kommentare, die sich auf diesen Irrtum beziehen und häufig angeführt werden, um zu zeigen, dass fossile Brennstoffe nicht „eins zu eins“ durch „effiziente“ erneuerbare Energien ersetzt werden müssen. Diese Vorstellung, die von Befürwortern der Wind- und Solarenergie wie Dr. Jan Rosenow vertreten wird, Senior Research Associate an den Universitäten Oxford und Cambridge besagt, dass die traditionellen Messgrößen für den Primärenergieverbrauch – die Messung der aus der Natur gewonnenen Rohenergie vor der Umwandlung – den Beitrag erneuerbarer Energien systematisch unterschätzen.

Warum? Weil fossile Brennstoffe wie Kohle und Gas einen Großteil ihrer Energie während der Stromerzeugung als Abwärme verlieren, während Windkraftanlagen und Solarzellen Strom mit nahezu perfekter Effizienz liefern. Daher, so lautet das Argument, benachteiligt der Vergleich von Energiequellen auf Primärenergiebasis „effiziente” kohlenstoffarme Technologien und überbewertet die Rolle „ineffizienter” fossiler Brennstoffe. Es handelt sich um eine geschickte rhetorische Strategie, die unzuverlässige, intermittierende erneuerbare Energien als die unbesungenen Helden der Dekarbonisierung darstellt.

Ein Trugschluss, der keiner ist

Aber wenn man etwas genauer hinschaut zeigt sich, dass dieser „Irrtum“ nichts weiter als ein Taschenspielertrick ist, eine bequeme Erzählung, um teure und unzuverlässige Energiequellen auf Kosten der wirtschaftlichen Vernunft zu stützen. Auf der Grundlage der prägnanten Analysen von Befürwortern der Energiekompetenz wie Lars Schernikau und Ronald Stein wird deutlich, dass die eigentliche Verzerrung darin besteht, die gesamten Systemkosten und Ineffizienzen von Wind- und Solarenergie sowie die vielfältigen Verwendungsmöglichkeiten von Öl und Gas als Rohstoffe für unzählige Produkte zu ignorieren.

Die Kritik am Primärenergie-Irrtum ist keineswegs eine fortschrittliche Erkenntnis, sondern dient vielmehr dazu, die harten Realitäten der Intermittenz, Ressourcen-Intensität und steigenden Kosten zu verschleiern, die den Vorstoß für erneuerbare Energien behindern. In einer Zeit, in der Energiesicherheit und Bezahlbarkeit von größter Bedeutung sind – insbesondere für die Entwicklungsländer in Asien, Afrika und Lateinamerika –, droht diese Fehlleitung den Gesellschaften, die bereits unter Haushalts- und Handelsdefiziten leiden, enorme finanzielle Kosten aufzuerlegen.

Primärenergie wird von Institutionen wie der Internationalen Energieagentur (IEA) und BP in ihren jährlichen statistischen Übersichten definiert als die unverarbeitete Energie aus Quellen wie Kohle, Öl, Gas, Uran, Wind und Sonnenlicht. Sie bezieht sich auf den gesamten Energiegehalt natürlicher Ressourcen vor jeglicher Umwandlung. Bei der Umwandlung in Strom erreichen thermische Quellen wie Kohlekraftwerke einen Wirkungsgrad von etwa 35 bis 40 %, während Gas- und Dampfturbinen bis zu 60 % erreichen. Der Rest geht als Wärme verloren.

Im Gegensatz dazu wandeln Wind- und Solarenergie ihre „primären“ Inputs – kinetische Windenergie oder Sonneneinstrahlung – direkt in Strom um, wobei die thermischen Verluste minimal sind und sich in der Bilanz auf nahezu 100 % belaufen. Ein einfaches Beispiel verdeutlicht diesen Punkt: 100 Einheiten Primärenergie aus Gas liefern möglicherweise nur 40 bis 60 Einheiten Strom, während 100 Einheiten aus Windkraft die gleichen 100 Einheiten als nutzbare Energie liefern. In Primärenergie-Diagrammen scheint Gas einen größeren Beitrag zu leisten, wodurch erneuerbare Energien marginal erscheinen.

Dieser Vergleich ist jedoch kurzsichtig, da er sich auf den Stromsektor beschränkt, der nur etwa 20 % des weltweiten Endenergieverbrauchs ausmacht. Der Großteil des Energieverbrauchs – etwa 80 % – entfällt auf nicht-elektrische Formen: Industriewärme für die Stahl- und Zementherstellung, Gas zum Kochen und Heizen, Erdöl für den Transport und Petrochemikalien für alles von Düngemitteln bis hin zu Kunststoffen. Hier liefern fossile Brennstoffe oft Energiedienstleistungen mit weitaus höheren Wirkungsgraden, als die Befürworter erneuerbarer Energien zugeben. Die direkte Verbrennung von Gas zum Heizen erreicht beispielsweise einen Wirkungsgrad von 80 bis 90 % und stellt damit die Verluste bei der Stromerzeugung in den Schatten.

Erneuerbare Energien produzieren naturgemäß nur Strom – und das auch nur zeitweise –, sodass große Teile der Energiewirtschaft ohne massive, ineffiziente Bemühungen zur „vollständigen Elektrifizierung” unberührt bleiben. Wie Dr. Schernikau in seinen Schriften treffend feststellt, bleibt Primärenergie „König”, weil sie die Rohstoffe erfasst, die im gesamten Energiesystem benötigt werden, und nicht nur den kleinen Teil der Netzstromversorgung.

Die unverzichtbare Rolle fossiler Brennstoffe geht weit über die für die moderne Zivilisation erforderliche Energieversorgung hinaus. Wie Ronald Stein in seinen Werken betont, darunter dem Buch „Clean Energy Exploitations“, sind Öl und Gas die grundlegenden Rohstoffe für über 6.000 Produkte, die den menschlichen Fortschritt unterstützen, von Kunststoffen und Kosmetika bis hin zu Arzneimitteln und Ammoniak für Düngemittel.

Diese Materialien können nicht durch sogenannte erneuerbare Energien wie Wind und Sonne ersetzt werden, die nur Elektronen erzeugen und keine praktikablen Möglichkeiten bieten, die komplexen Kohlenwasserstoffe zu synthetisieren, die für alles von medizinischen Geräten und Elektronik bis hin zu landwirtschaftlichen, Milliarden Menschen ernährenden Betriebsmitteln unerlässlich sind. Steins Engagement für Energiekompetenz macht deutlich, wie sehr der Eifer zur Dekarbonisierung diese Realität übersieht: Ohne aus fossilen Brennstoffen gewonnenes Ammoniak würde die weltweite Nahrungsmittelproduktion einbrechen und den Hunger in Entwicklungsländern, die bereits unter Bevölkerungsdruck stehen, noch verschärfen.

Aus Rohöl gewonnene Petrochemikalien ermöglichen die sterile Verpackung von Impfstoffen, die Herstellung langlebiger Materialien für Windturbinenflügel (ironischerweise) und die Herstellung synthetischer Fasern für Kleidung. Der Versuch, „alles zu elektrifizieren” ignoriert, dass diese Produkte molekulare Bausteine aus Fossilien benötigen, nicht nur Strom, was den Übergang nicht nur kostspielig, sondern ohne Alternativen, die es in großem Maßstab nicht gibt, grundsätzlich unmöglich macht. Diese Abhängigkeit unterstreicht, warum Primärenergie-Kennzahlen so wichtig sind – sie reflektieren die gesamte Ressourcenbasis, die nicht nur die Energieversorgung, sondern auch die unzähligen Güter sicherstellt, die unsere Lebensqualität ausmachen.

Darüber hinaus bröckelt die Effizienz, mit der sich Befürworter erneuerbarer Energien brüsten, wenn man die Unbeständigkeit von Wind- und Sonnenenergie berücksichtigt – Energiequellen, die nur dann Strom erzeugen, wenn die Natur mitspielt, typischerweise mit Kapazitätsfaktoren von 15–40 % für Wind und 10–25 % für Sonne, verglichen mit 80–90 % für Grundlastkohle oder Kernkraft. Diese Schwankungen erfordern eine „redundante” Infrastruktur aus regelbaren Reserve-Kraftwerken, die größtenteils mit fossilen Brennstoffen betrieben werden, um die Lücken zu füllen. Das ist gleichbedeutend damit, zweimal für dasselbe zu bezahlen.

Die tatsächlichen Kosten „billiger“ erneuerbarer Energien

In Deutschland, dem Vorzeigeland der Energiewende, machen Wind- und Solarenergie mittlerweile über 50 % der installierten Kapazität aus, dennoch musste das Land Kohle- und Gaskraftwerke als Reserve aufrechterhalten und sogar ausbauen. Diese Reserven werden nur zu geringen Auslastungsraten betrieben, verbrennen Brennstoffe ineffizient und treiben den Primärenergieverbrauch in die Höhe. Batteriespeicher im Netzmaßstab, die oft als Lösung für die Intermittenz angepriesen werden, sind nach wie vor unerschwinglich teuer und ressourcenintensiv. Selbst die Megapacks von Tesla können nur wenige Minuten oder Stunden als Reserve für den Bedarf von Versorgungsunternehmen bereitstellen, und eine Ausweitung auf Tage oder Wochen während Dunkelflauten würde astronomische Investitionen in Seltene Erden und Mineralien erfordern, die größtenteils von China kontrolliert werden. Deutschland und andere Länder, die sich in Sachen Energie selbst schaden, wie beispielsweise Großbritannien, haben mittlerweile mit die höchsten Strompreise weltweit.

Schernikaus Analyse auf Systemebene deckt den Kern der Täuschung auf: Während einzelne Windkraftanlagen oder Solarmodule effizient erscheinen mögen, wird dieser Vorteil durch ihre Integration in ein zuverlässiges Stromnetz zunichte gemacht. Um regelbare Energie zu erzielen – also Strom, der rund um die Uhr mit stabiler Spannung, Frequenz und Phase verfügbar ist – müssen erneuerbare Energien um das Drei- bis Fünffache oder mehr überdimensioniert werden, zusätzlich zu Hilfssystemen wie Kurzzeitbatterien und modernisierten Übertragungsleitungen.

Diese Zusätze verbrauchen enorme Mengen an Primärenergie beim Abbau und bei der Herstellung, die in den Standardkennzahlen oft nicht berücksichtigt werden. Um beispielsweise eine TWh Strom aus Solarenergie zu erzeugen, sind 340 bis 560 Kilotonnen Stahl sowie Kupfer und Seltene Erden erforderlich, während für Kohle oder Gas nur ein bis zwei Kilotonnen Stahl benötigt werden. Windkraft schneidet kaum besser ab und benötigt 30 bis 50 Kilotonnen Stahl und drei bis sechs Kilotonnen Kupfer pro TWh. Der Abbau dieser Materialien ist energieintensiv und wird überwiegend mit Lkw und Bergbaumaschinen durchgeführt, die mit fossilen Brennstoffen betrieben werden, was versteckte Primärenergiekosten verursacht, die die „Teilersatzmethode” der IEA bequem ignoriert, indem sie eine Effizienz von nahezu 100 % für erneuerbare Energien annimmt.

Ausgewählte Materialien, die für die Stromerzeugungstechnologie benötigt werden. Quelle: Schernikau, basierend auf Daten des US-Energieministeriums. Siehe auch hier.

Dies bringt uns zum Energieertrag (eROI), einer Kennzahl, die misst, wie viel nutzbare Energie eine Quelle im Verhältnis zu der Energie liefert, die für ihre Gewinnung, Verarbeitung und Nutzung aufgewendet wird. Auf Systemebene sinkt der eROI von Wind- und Solarenergie auf 5-10 zu 1 für Solarenergie und 10-20 zu 1 für Windenergie (bei Batteriespeichern sogar noch niedriger), gegenüber 25-30 zu 1 für Kohle und Gas und über 75 zu 1 für Kernenergie. Schernikau betont, dass die kurze Lebensdauer erneuerbarer Energien – 10 bis 20 Jahre für Wind, 12 bis 15 Jahre für Solar – bedeutet, dass sie während des 40- bis 60-jährigen Lebenszyklus‘ einer fossilen Anlage zwei- bis viermal ersetzt werden müssen, was Berge von Abfall und einen weiteren Primärenergiebedarf mit sich bringt. Die globalen Primärenergiestatistiken spielen dies herunter: Laut Daten der IEA aus dem Jahr 2024 lieferten Wind- und Solarenergie mit 4.655 TWh Primärenergie 4.623 TWh Strom, wobei jedoch die Energie für überdimensionierte Anlagen und Reserven nicht berücksichtigt ist.

Die Analyse der sich für erneuerbare Energien einsetzenden Internationalen Energieagentur lässt die Tatsache außer Acht, dass mit steigendem Anteil erneuerbarer Energien an der gesamten Stromerzeugung der Grenzwert jeder zusätzlichen kWh aus erneuerbaren Energien sinkt. Dies führt zu höheren Systemkosten und, entgegen der Intuition, möglicherweise sogar zu einem insgesamt höheren Primärenergieverbrauch.

Kritiker der Primärenergie-Kennzahlen erkennen Effizienzgewinne bei Endverbrauchstechnologien wie Elektrofahrzeugen (EVs) an, die drei- bis viermal effizienter sind als Verbrennungsmotoren. Aber auch sie warnen vor übertriebenem Optimismus und weisen darauf hin, dass die Elektrifizierung den Ressourcenbedarf erhöht: EVs benötigen sechsmal mehr kritische Mineralien als herkömmliche Autos, und die Skalierung erneuerbarer Energien für eine vollständig elektrische Welt würde insgesamt 12- bis 16-mal mehr Mineralien und über 100-mal mehr Landfläche erfordern.

Der Flächenverbrauch ist keine Nebensache: Solarparks mit einer Leistung von 5 bis 7 MW pro km² und Windparks mit einer Leistung von 1 bis 2 MW pro km² erstrecken sich über riesige Flächen und stoßen in ländlichen Gemeinden in den USA, Europa und Großbritannien auf Widerstand. In den USA hat Robert Bryce in seiner Datenbank zu Ablehnungen von erneuerbaren Energien dieses Phänomen detailliert dokumentiert. Die durch Wind- und Solarparks verursachten Schäden an Ökosystemen, Flora und Fauna haben weltweit Widerstand bei ländlichen Gemeinden und Naturschützern ausgelöst. Es ist jedoch zu beachten, dass oft rentenorientierte Solar- und Windenergieunternehmen mit Geschäftsmodellen, die Subventionen einfahren und garantierte Gewinne erzielen, Landwirte im Agrarsektor aufkaufen können.

Die Zerstörung von Lebensräumen in Gebieten, die für Solar- und Windparks vorgesehen sind – was traditionelle Lebensgrundlagen zerstört, Immobilienwerte mindert, wichtige Anbauflächen ruiniert, malerische Ausblicke zerstört und Vögel, Fledermäuse und andere Wildtiere tötet – wurde im Laufe der Jahre in ländlichen Gemeinden auf der ganzen Welt ausführlich dokumentiert. Wir müssen noch die Schwachstellen der Lieferkette von Systemen für erneuerbare Energien und geopolitische Risiken berücksichtigen – China dominiert 80 % der Verarbeitung seltener Erden und ist weltweit führend in der Produktion von Komponenten für Wind- und Solarenergie.

Die Gesamtkosten für Strom (full cost of electricity, FCOE), die auch die Unregelmäßigkeiten und die Netzintegration berücksichtigen zeigen, dass erneuerbare Energien weitaus teurer sind, als es die irreführende Kennzahl „Levelised Cost of Electricity“ (LCOE) vermuten lässt. In Europa haben sich die Strompreise für Haushalte seit Anfang der 2000er Jahre verdoppelt, was vor allem auf Subventionen für erneuerbare Energien und Netzausbauten zurückzuführen ist. Die Energiewende in Deutschland hat über 500 Milliarden Euro gekostet, doch die Emissionsreduktionen stagnieren, da Kohle aus Gründen der Zuverlässigkeit weiterhin genutzt wird. Entwicklungsländer, in denen die Energienachfrage boomt, können sich solche Experimente nicht leisten. Asiens Kohleflotte, die weltweit größte, wächst weiterhin rasant, liefert diese doch erschwinglichen, einsetzbaren Strom.

Welcher Primärenergie-Irrtum?

In Wahrheit ist der „Primärenergie-Irrtum“ selbst ein Irrtum, eine Ablenkung von den unpopulären Wahrheiten der Energiephysik und -ökonomie. Indem sie sich auf begrenzte Effizienzgewinne fixieren, übersehen Ideologen, wie Wind- und Solarenergie in großem Maßstab die Menschheit zu Netto-Niedrigenergie-Systemen zurückwerfen, die an vorindustrielle Zeiten erinnern. Primärenergie-Kennzahlen sind keineswegs überholt, sondern verdeutlichen den Gesamtenergiebedarf industrieller Gesellschaften, die der großen Mehrheit der Menschen im globalen Süden Wohlstand versprechen. Bis Durchbrüche in der Speicherung intermittierende Energiequellen ohne Vorschriften und massive Subventionen rentabel machen, bleiben fossile Brennstoffe – und ja, sogar „schöne, saubere Kohle“ mit Schadstoffe reduzierenden Filtern und Anlagen – unverzichtbar.

Jahrzehntelange Illusionen und Fanatismus hinsichtlich der von pseudowissenschaftlichen Modellen vorhergesagten vom Menschen verursachten Klimakrisen kollidierten mit der Realität am Ende des chaotischen UN-Klimagipfels in diesem Jahr in Belém in Brasilien. Das abschließende globale Ergebnisdokument der COP30 – an der die Staats- und Regierungschefs der weltweit größten Treibhausgasemittenten China, USA und Indien nicht teilnahmen – enthielt keinen Hinweis mehr auf die Abschaffung fossiler Brennstoffe. Dies hinderte die UN-Bürokraten jedoch nicht daran, ihren Mitgliedern zu sagen, dass sie ihre Ausgaben für die „Klimakrise” in den nächsten zehn Jahren verdreifachen sollten.

Politiker täten gut daran, auf Energieexperten wie Schernikau und Stein zu hören. Das Verfolgen luxuriöser Vorstellungen kostet die wohlhabenden Klimabürokraten und Ideologen der erneuerbaren Energien nicht viel, aber die Lasten irrationaler Energiepolitik werden von den Ärmsten der Welt getragen. Der wahre Weg in die Zukunft liegt in pragmatischen, technologieneutralen Ansätzen, die Energieüberfluss vor Sparmaßnahmen priorisieren.

This article was first published in the Daily Sceptic [ https://dailysceptic.org/2025/12/05/time-to-stop-pretending-renewables-are-cheap/ ]

Dr Tilak K. Doshi is the Daily Sceptic‘s Energy Editor. He is an economist, a member of the CO Coalition and a former contributor to Forbes. Follow him on Substack and X.

Link: https://wattsupwiththat.com/2025/12/06/time-to-stop-pretending-renewables-are-cheap/

Übersetzt von Christian Freuer für das EIKE

 




Kurzmeldungen aus Klima und Energie – Ausgabe 44 / 2025

Meldung vom 6. Dezember 2025:

Grönland: Petermann-Gletscher wächst rasant

Der Petermann-Gletscher in Grönland – einst als Beweis für das „unkontrollierbare Abschmelzen der Arktis“ angeführt – ist seit 2012 um mehr als 30 km vorgerückt, wie aus einer neuen Analyse von Klima e Scienza hervorgeht, die sich auf Arbeiten der Association des Climato-Realistes stützt.

Im Jahr 2012 warnten große Medien, dass der Petermann-Gletscher zusammenbrechen und „verschwinden“ könnte.

Satellitenbilder aus jenem Jahr wurden als Beweis für einen irreversiblen Rückgang verbreitet:

Der Petermann-Gletscher im Jahr 2012.

Bilder aus dem Jahr 2024 zeigen jedoch, dass der Gletscher seitdem gewachsen ist und genau den Abschnitt wieder aufgebaut hat, den die Medien für verloren erklärt hatten:

Der Petermann-Gletscher im Jahr 2024.

Diese Wende passt zum Gesamtbild der Arktis. Die Ausdehnung des Meereises im Norden ist seit 18 Jahren weitgehend unverändert. Modelle und politische Entscheidungsträger gingen davon aus, dass es inzwischen im Sommer kein Eis mehr geben würde; Beobachtungen zeigen jedoch stattdessen ein stabiles Plateau:

Link: https://electroverse.substack.com/p/brutally-cold-canada-and-northeast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Auch auf dem Blog von Pierre Gosselin findet sich dieser Vorgang (ohne Zahlschranke), und zwar hier

——————————–

Meldung vom 8. Dezember 2025:

Wetterbeobachtungsnetz nimmt stark ab

Ein neues Projekt der University of Alaska Fairbanks zeigt einen starken Rückgang der grundlegenden Wetterbeobachtungen im gesamten Bundesstaat.

Im Jahr 2013 gab es in Alaska noch 74 Stationen, die zuverlässige Daten lieferten. Bis 2023 war diese Zahl auf 43 gesunken – ein Rückgang um 40 %.

Das Offroad-Netzwerk ist am stärksten betroffen. Die Zahl der abgelegenen Stationen, die konsistente Daten liefern, sank von 50 auf nur noch 19 – ein Rückgang um 62 % –, sodass weite Teile des Landesinneren nur noch über wenige oder gar keine verlässlichen Wetterdaten verfügen.

Laut der Kartierung des Projekts sind weit mehr Standorte unzuverlässig als zuverlässig geworden:

Die Wetterbeobachtungen in Alaska sind seit einem Jahrzehnt stark rückläufig.

Dies ist Teil eines globalen Trends – weltweit werden langjährige Klimastationen stillgelegt oder heruntergestuft, obwohl Behördenvertreter betonen, dass „die Überwachung noch nie so dringend war wie heute“. Es stehen Billionen für Subventionen, Programme und Slogans zur Verfügung, doch irgendwie reicht das Geld nicht aus, um selbst die grundlegendsten Wetterbeobachtungsnetze zur Messung des Wetters selbst aufrechtzuerhalten.

Dieser Kontrast sagt alles.

Link: https://electroverse.substack.com/p/chicagos-snowiest-start-to-winter?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————–

Zwei Meldungen vom 9. Dezember 2025:

Chinas grüner Überfluss

China versinkt in seiner eigenen grünen Überproduktion – und gibt nun Dutzende Milliarden im Ausland aus, um den Markt am Leben zu erhalten.

Ein neuer Bericht von Climate Energy Finance (CEF) bestätigt, dass Peking einen massiven Angebotsüberschuss an Solarmodulen, Batterien und anderen Net-Zero-Produkten hat. Die Binnennachfrage kann diesen Überschuss nicht auffangen. Die einzige Lösung besteht darin, diesen dem Rest der Welt aufzuzwingen.

Caroline Wang von CEF sagt, dass China „ausländische Märkte braucht, um seine Produkte abzusetzen“, da sein Cleantech-Sektor weit mehr Angebot als Nachfrage hat. Peking exportiert also nicht nur Solarmodule und Batterien, sondern finanziert auch die ausländischen Projekte, die diese Produkte kaufen.

Mehr als 80 Milliarden US-Dollar im vergangenen Jahr und über 180 Milliarden US-Dollar seit 2023 flossen in Kredite, Subventionen, Joint Ventures und die vollständige Projektfinanzierung im Ausland. Diese zig Milliarden wurden weder in Innovationen noch in Klimaschutzmaßnahmen investiert. China bezahlt lediglich dafür, Nachfrage zu schaffen, um seine Überbestände loszuwerden und seine staatlich unterstützten Fabriken am Laufen zu halten.

Die von den US-Zöllen betroffenen Länder „vertiefen“ nun ihre Zusammenarbeit mit China – nicht aus Begeisterung, sondern weil China ihnen Geld hinterherwirft. Südostasien, der Nahe Osten, Afrika und Lateinamerika werden mit von China unterstützten Wasserstoffprojekten, Elektrofahrzeugwerken und Batteriefabriken überschwemmt – die globale Expansion eines scheiternden Modells, das Peking verzweifelt nach außen verlagern will.

China nutzt staatlich gestützte Gelder, um eine zusammenbrechende grüne Industrieblase zu stützen, wobei seine Cleantech-Strategie offenbar wie folgt aussieht: Unendlich viele Milliarden im Ausland verbrennen, um den Zusammenbruch zu verzögern, und beten, dass sie es 2029 mit einem „grüneren“ Weißen Haus zu tun haben.

——————————–

Das Ende des Klima-Kults

Die lange, lukrative Klimapanik verliert endlich an Einfluss. Die COP in Belém lieferte symbolisch nichts: kein Abkommen über fossile Brennstoffe, ein Brand am Veranstaltungsort, eine ausgefallene Klimaanlage und Toiletten, die nicht gespült werden konnten.

Der Rückzug ist nun branchenweit zu beobachten.

Bill Gates räumte stillschweigend ein, dass die globale Erwärmung „nicht zum Untergang der Menschheit führen wird“, schloss sein Büro für Klimapolitik und nahm seine jahrelangen apokalyptischen Botschaften zurück. Die Net Zero Banking Alliance brach zusammen, nachdem alle großen US-Banken ausgestiegen waren. Shell und BP sind zum Öl zurückgekehrt. Ford stellt die Produktion von Elektro-Pickups ein. Hunderte von Unternehmen geben ihre Klimaversprechen auf. Australien hat sich aus der Ausrichtung des nächsten UN-Klimagipfels zurückgezogen.

Auch die politische Klasse zieht sich zurück. Die Washington Post stellte fest, dass die Demokraten während Harris‘ Wahlkampf kaum über das Klima gesprochen haben. Selbst die schwedische Jugend stuft es mittlerweile in der unteren Hälfte der nationalen Anliegen ein. Selbst das Europäische Parlament rollt die Vorschriften zurück, die Unternehmen zu klimapolitischen Bekenntnissen zwangen.

Es war eine profitable Ära. Jahrzehntelang finanzierten apokalyptische Prognosen ein Ökosystem aus Subventionen, Beratungsleistungen, Buchverträgen, Reisebudgets und Forschungszuschüssen.

Modelle verstärkten Rückkopplungen, die nie eintraten. Als die Daten nicht mitspielten, eskalierte die Sprache. Aktivisten füllten das Vakuum mit Weltuntergangsprognosen, die keine Grundlage in der veröffentlichten Wissenschaft hatten: Milliarden Tote, die Auslöschung der Menschheit innerhalb von fünf Jahren, ein Temperaturanstieg, der das Ende der Zivilisation bedeuten würde. Diese Vorhersagen wurden von den Medien verstärkt, von Wissenschaftlern toleriert und von Unternehmen und Regierungen missbraucht.

Jetzt bricht der Bann, da die Institutionen, die 30 Jahre lang Katastrophenszenarien verkauft haben, still und leise den Stecker ziehen. Der Klimakult geht zu Ende – und seine letzten Nachzügler, meist Aktivisten, werden den Zusammenbruch nur noch unterhaltsamer machen, während sie verzweifelt um Relevanz kämpfen.

Link: https://electroverse.substack.com/p/brutally-cold-canada-and-northeast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Anmerkung des Übersetzers hierzu: Dieser Kurzbeitrag steht in krassem Widerspruch zu jüngsten Nachrichten, wonach sie die EU auf „verbindliche Klimaziele“ geeinigt haben soll. Der „Ausstoß von Treibhausgasen“ soll in den nächsten Jahren um fast alles sinken. Angesichts obiger Meldungen, die mit ziemlicher Sicherheit zutreffend sein dürften, erscheint das wie ein schlechter Witz. Und doch wird es in den hiesigen Medien als eine „gute Nachricht“ verkauft!! Wie lange soll das jetzt noch gehen? Auch die Journalisten, deren Kinder und Enkel, sind doch von den verheerenden Folgen dieser Politik genauso betroffen wie wir alle! Es scheint ihnen aber völlig egal zu sein!

Bleiben wir also lieber bei wissenschaftlichen Themen:

——————————–

Ebenfalls vom 9. Dezember, aber auf dem Blog von Pierre Gosselin:

Die regionale Abkühlung seit den 1980er Jahren hat das Vorrücken der Gletscher im Karakorum-Gebirge vorangetrieben.

Kenneth Richard

Das Karakorum-Gebirge in Zentralasien hat seit 1851 keine Erwärmung erfahren, ein Trend, der im Widerspruch zu Behauptungen steht, dass die moderne Erwärmung globalen Ausmaßes sei.

Laut einer neuen Studie, welche die Sommertemperaturen der letzten 170 Jahre rekonstruiert, hat sich diese Region seit den 1980er Jahren dramatisch abgekühlt (um fast 1 °C). Dieser „anomale” Abkühlungstrend hat in den letzten Jahrzehnten zu einer Stabilisierung und sogar zu einem Vorrücken der Gletscher geführt.

„Seit dem späten 20. Jahrhundert ist der Rückgang der Sommertemperaturen in den letzten Jahrzehnten einer der Hauptgründe für die Karakorum-Anomalie.”

Image Source: Liu et al., 2025

Die Graphik in deutscher Übersetzung (Google Translate):

Link: https://notrickszone.com/2025/12/09/regional-cooling-since-the-1980s-has-driven-glacier-advance-in-the-karakoram-mountains/

Zusammengestellt und übersetzt von Christian Freuer für das EIKE