Klimamodelle entdecken eine weitere Wirkung von CO₂

Charles Rotter

Eine neue Studie macht die Runde, und auf den ersten Blick scheint sie eine weitere Wendung in der Klimadebatte zu bieten: Kohlendioxid, das Molekül, das üblicherweise als Hauptverursacher der Erwärmung dargestellt wird, kann offenbar eine Abkühlung bewirken – zumindest über Indien, zumindest im Sommer und zumindest innerhalb eines bestimmten Modellierungsrahmens.

Das allein sollte jedem zu denken geben, dem bisher gesagt wurde, die „Wissenschaft sei sich einig“.

Die betreffende Studie formuliert ihre zentrale These klar und deutlich:

„Steigende CO₂-Konzentrationen in der Atmosphäre können auch zu einer Abkühlung im Sommer über Indien führen.“

Dies wird als „bisher unterschätzter Effekt“ dargestellt, bei dem der Treibhauseffekt die atmosphärische Zirkulation so verändert, dass sich die Bewölkung verdichtet, die Sonneneinstrahlung an der Erdoberfläche abnimmt und die Temperaturen lokal sinken.

Abstract

Als Reaktion auf anthropogene Einflüsse erwärmt sich die Erdoberfläche im Allgemeinen, da Treibhausgase die abgehende langwellige Strahlung zurückhalten. Entgegen der Intuition weisen einige Regionen vor dem Hintergrund dieser globalen Erwärmung jedoch eine Abkühlung der Oberfläche auf – ein Phänomen, das als „Warming Hole“ bekannt ist. Über die gut dokumentierten „Warming Holes“ über dem Nordatlantik und dem Südosten der Vereinigten Staaten hinaus zeigen wir hier, dass steigende CO₂-Konzentrationen in der Atmosphäre auch eine Abkühlung im Sommer über Indien bewirken können. Aufgrund des direkten Strahlungseffekts von CO₂ werden die Erwärmung des eurasischen Kontinents im Vergleich zu den umgebenden Ozeanen, der Feuchtigkeitstransport in den unteren Schichten und die vertikale Bewegung über Indien verstärkt. In Kombination mit der reichlich vorhandenen Feuchtigkeit des Sommermonsuns und den topografischen Blockierungseffekten des Himalaya und des Hindukusch führen diese Zirkulationsänderungen zu einer Zunahme der Wolkendecke. Die daraus resultierende verstärkte Bewölkung reduziert die einfallende Sonnenstrahlung an der Oberfläche und führt zu der beobachteten regionalen Abkühlung. Diese Ergebnisse zeigen einen bisher unterschätzten Prozess auf, durch den der Treibhauseffekt paradoxerweise über atmosphärische dynamische Wege eine regionale Abkühlung bewirken kann.Mehr hier.

Die Autoren räumen sogar ein, dass das Ergebnis kontraintuitiv ist:

„Diese Ergebnisse zeigen einen bisher unterschätzten Prozess auf, durch den der Treibhauseffekt paradoxerweise zu einer regionalen Abkühlung führen kann …“

Das Wort „paradoxerweise“ spielt hier eine wichtige Rolle.

Denn wenn ein Effekt je nach Modellkonfiguration sowohl Erwärmung als auch Abkühlung bewirken kann, was genau wird dann vorhergesagt – und mit welchem Grad an Sicherheit?

Die Untersuchung stützt sich in hohem Maße auf CMIP6-Modell-Ensembles, darunter sowohl reine Atmosphärensimulationen als auch gekoppelte Modelle. In einem Szenario wird der CO₂-Gehalt vervierfacht, während die Meerestemperaturen konstant gehalten werden. Das ist keine Beschreibung der realen Welt, sondern ein kontrolliertes numerisches Experiment, das darauf abzielt, bestimmte Prozesse zu isolieren. Die Autoren machen dies ausdrücklich deutlich:

„Wenn die Meerestemperatur auf dem Niveau des heutigen Klimas fixiert und die atmosphärische CO₂-Konzentration vervierfacht wird …“

Dieser Satz – „die Meerestemperatur wird konstant gehalten“ – ist es wert, näher betrachtet zu werden. Ozeane sind keine optionalen Komponenten des Klimasystems der Erde. Sie dominieren die Wärmekapazität, den Transport und die Variabilität. Ihre Rückkopplungen zu entfernen, um einen Effekt zu isolieren, mag für die Theorie nützlich sein, schafft aber auch ein Szenario, das keine direkte physikalische Entsprechung hat.

Man könnte genauso gut die Bewölkung, die Windverhältnisse oder die Luftfeuchtigkeit festlegen und beobachten, was passiert. Die Frage ist, ob solche Übungen aussagekräftige Erkenntnisse für die Erwartungen in der realen Welt liefern – oder lediglich zeigen, was ein Modell unter ausreichenden Einschränkungen hervorbringen kann.

Und was liefern diese Modelle? Eine auffallend große Bandbreite an Ergebnissen:

„Die maximale Abkühlung reicht in den Modellen von −2,55 bis −0,68 K … wobei die maximale Abkühlung in den Modellen von −9,93 bis −0,20 K reicht.“

Eine Streuung von etwa −0,2 K bis fast −10 K ist keine geringfügige Unsicherheit. Es handelt sich um eine Variabilität in der Größenordnung. Allein dieser Bereich wirft Fragen zur Robustheit auf. Wenn der gleiche Antrieb in den verschiedenen Modellen radikal unterschiedliche Größenordnungen erzeugt, dann ist der Prozess hochgradig empfindlich gegenüber internen Annahmen – Parametrisierungen von Wolken, Konvektion, Feuchtigkeitstransport und so weiter.

Dennoch beschreibt die Arbeit das Signal weiterhin als „robust“.

Dies ist ein wiederkehrendes Merkmal der Literatur zur Klimamodellierung: Übereinstimmung hinsichtlich der Richtung wird oft als ausreichend angesehen, selbst wenn die Größenordnung stark variiert. Für politische Zwecke ist jedoch die Größenordnung entscheidend. Eine Abkühlung um −0,2 K ist kaum wahrnehmbar; −10 K wären katastrophal. Diese Ergebnisse unter einem einzigen konzeptionellen Oberbegriff zusammenzufassen, dehnt die Bedeutung des Begriffs „robust“ über das Maß des Sinnvollen hinaus.

Der Prozess selbst ist eine Kette modellierter Wechselwirkungen. Der CO₂-Gehalt steigt, Eurasien erwärmt sich stärker als die umliegenden Ozeane, Druckgradienten verschieben sich, Winde verstärken sich, der Feuchtigkeitstransport nimmt zu, Wolken bilden sich und die einfallende Sonnenstrahlung nimmt ab:

„Die Verringerung der nach unten gerichteten Sonnenstrahlung ist der dominierende Faktor für die Abkühlung der Erdoberfläche … verbunden mit einer verstärkten Wolkendecke.“

Dies ist ein klassisches Beispiel für eine Rückkopplungs-Kaskade. Jeder Schritt hängt von Parametrisierungen ab, die bekanntermaßen zu den unsichersten Elementen in Klimamodellen zählen – insbesondere Wolken.

Wolken sind seit langem die Achillesferse der Klimamodellierung. Geringfügige Änderungen in der Wolken-Mikrophysik oder -verteilung können die Ergebnisse von einer Erwärmung zu einer Abkühlung umkehren. Die Autoren veranschaulichen diese Empfindlichkeit eindrucksvoll: Verändert man die Zirkulation geringfügig, nimmt die Wolkendecke so stark zu, dass sie den Strahlungsantrieb lokal ausgleicht.

Mit anderen Worten: Das System ist in hohem Maße nichtlinear, und kleine Modellierungsentscheidungen können qualitativ unterschiedliche Ergebnisse hervorbringen. Dies ist eine Beobachtung über das System selbst und erschwert die Vorstellung, dass Modelle regionale Ergebnisse für die nächsten Jahrzehnte zuverlässig vorhersagen können.

Der Artikel weist zudem auf saisonale und geografische Besonderheiten hin, die die Anwendbarkeit des Ergebnisses weiter einschränken. Die Abkühlung scheint…

„…vor allem auf den borealen Sommer beschränkt zu sein … und fällt mit dem indischen Sommermonsun zusammen.“

Außerhalb dieser Monate erwärmt sich die gleiche Region.

Nun lautet die Geschichte also: CO₂ verursacht weltweit eine Erwärmung, außer dort, wo es eine Abkühlung bewirkt, außer wenn es dies nicht tut, abhängig von Jahreszeit, Topografie, Feuchtigkeitsverfügbarkeit und Zirkulationsmustern.

Das mag als Beschreibung des Modellverhaltens zutreffend sein. Als Grundlage für weitreichende politische Entscheidungen führt es jedoch eine Komplexität ein, die der Öffentlichkeit selten vermittelt wird.

Die Autoren gehen noch weiter und ziehen politische Schlussfolgerungen, die an Ironie grenzen:

„Der prognostizierte Rückgang der CO₂-Konzentration … könnte – entgegen der Intuition – zur Erwärmung in Indien beitragen.“

Eine Reduzierung von CO₂ könnte also zu einer Erwärmung führen – zumindest regional, zumindest in diesem Rahmen.

An dieser Stelle könnte man sich fragen, ob die Variable, auf die die Politik abzielt, überhaupt der dominierende Faktor für lokale Klimaentwicklungen ist. Wenn ein Anstieg des CO₂-Gehalts eine Region abkühlen und ein Rückgang sie erwärmen kann, dann ist der Zusammenhang zwischen Emissionen und regionalen Temperaturen alles andere als eindeutig.

Zu ihrer Ehre betonen die Autoren die Komplexität:

„Die Ergebnisse verdeutlichen die Komplexität regionaler Klimareaktionen …“

Das ist wahrscheinlich die am ehesten vertretbare Aussage in der gesamten Arbeit.

Der Punkt, an dem diese Analyse mit der Skepsis zusammentrifft, liegt nicht darin zu leugnen, dass solche Prozesse in Modellen existieren könnten. Er liegt vielmehr darin zu hinterfragen, was diese Untersuchungen belegen – und was nicht.

Sie zeigen, dass Modelle unter unterschiedlichen Annahmen eine Vielzahl von Ergebnissen hervorbringen können. Sie zeigen, dass Rückkopplungen je nach Konfiguration angepasst, verstärkt oder unterdrückt werden können. Sie zeigen, dass neue „Mechanismen“ identifiziert werden können, sobald die Aufmerksamkeit auf einen bestimmten Bereich oder eine bestimmte Variable gerichtet wird.

Was sie nicht zeigen, ist, dass diese Prozesse in der realen Welt mit der gleichen Stärke, Konsistenz oder Vorhersagbarkeit ablaufen.

Das Vertrauen in Multi-Modell-Ensembles wird oft als Stärke dargestellt. Zwölf Modelle hier, achtundvierzig dort. Aber wenn diese Modelle strukturelle Ähnlichkeiten aufweisen – und das tun sie –, ist das Ensemble keine Sammlung unabhängiger Experimente. Es ist eine Familie verwandter Hypothesen.

Übereinstimmung innerhalb dieser Familie bedeutet nicht zwangsläufig Übereinstimmung mit der Realität.

Die Studie versucht eine Validierung, indem sie Modellausgaben mit Beobachtungsdaten vergleicht:

„Die meisten Modelle weisen einen angemessen zentrierten quadratischen Mittelwertfehler auf … und bieten damit eine solide Grundlage für nachfolgende Analysen.“

„Angemessen zentriert“ ist ein dehnbarer Begriff. Modelle können zwar allgemeine räumliche Muster abbilden, sich jedoch in Bezug auf Dynamik, Rückkopplungen und Empfindlichkeiten erheblich unterscheiden. Die Übereinstimmung mit einer Klimatologie garantiert keine genaue Reaktion auf Störungen.

Fairerweise muss man sagen, dass die Autoren keine Vorhersagesicherheit beanspruchen. Sie identifizieren einen Prozess innerhalb eines Modellierungsrahmens. Das ist eine legitime wissenschaftliche Vorgehensweise.

Doch die allgemeinere Erzählung, die solche Ergebnisse oft begleitet – dass die Klimawissenschaft einen Punkt erreicht hat, an dem Politik mit hoher Sicherheit diktiert werden kann –, passt nur schwer zu Ergebnissen wie diesen.

Falls CO₂ auf dem einen Weg zu einer Abkühlung und auf einem anderen zu einer Erwärmung führen kann, falls regionale Auswirkungen von fein ausbalancierten Rückkopplungen abhängen und falls die Modellprognosen eine ganze Größenordnung umfassen, dann bleibt das System von großer Unsicherheit geprägt.

Dies stellt die Klimawissenschaft eindeutig in den Bereich der laufenden, spekulativen Forschung, in dem Hypothesen getestet, überarbeitet und manchmal widerlegt werden.

Aus politischer Sicht wird dies zu einer Frage der Verhältnismäßigkeit. Wie viel Sicherheit ist erforderlich, bevor groß angelegte Eingriffe in Energiesysteme, Landwirtschaft und Wirtschaftsstrukturen vorgenommen werden?

Wenn die zugrunde liegende Wissenschaft weiterhin neue Prozesse, neue Empfindlichkeiten und neue Unsicherheiten aufdeckt, scheint Vorsicht geboten.

Es gibt zudem ein Muster, das Beachtung verdient. In jedem Jahrzehnt scheinen neue „bisher unterschätzte Prozesse“ aufzutauchen: Veränderungen in der Ozeanzirkulation, Aerosoleffekte, Landnutzungsänderungen, Auswirkungen der Bewässerung und nun auch CO₂-bedingte Wolkenrückkopplungen, die zu einer Abkühlung führen.

Man könnte dies als Fortschritt interpretieren – als einen Prozess, in dem die Wissenschaft immer feinere Details eines komplexen Systems aufdeckt. Das ist sicherlich eine mögliche Interpretation.

Eine andere Interpretation lautet, dass das System so komplex und die Modelle so empfindlich sind, dass immer neue Erklärungen gefunden werden können, um Diskrepanzen zwischen Erwartungen und Beobachtungen in Einklang zu bringen.

Die Arbeit ist nicht sinnlos. Sie erweitert den Katalog möglicher Wechselwirkungen innerhalb des Klimasystems. Aber sie unterstreicht auch, wie weit das Fachgebiet noch von einem einheitlichen, stabilen Verständnis der regionalen Klimadynamik entfernt ist.

Und vielleicht ist das die wichtigste Erkenntnis.

Nicht, dass CO₂ unter bestimmten Modellbedingungen im Sommer eine Abkühlung über Indien bewirken würde. Sondern dass sich das Klimasystem weiterhin einer einfachen Charakterisierung entzieht und dass jeder neue „Mechanismus“ den ohnehin schon komplexen Prognosen eine weitere Ebene von Bedingungen hinzufügt.

Für diejenigen, die auf der Grundlage von Modellausgaben weitreichende, irreversible politische Veränderungen befürworten, stellt diese wachsende Komplexität eine Herausforderung dar.

Für diejenigen, die zur Skepsis neigen, bekräftigt sie ein Grundprinzip: Urteile zurückhalten, Annahmen hinterfragen und der Versuchung widerstehen, sich weiterentwickelnde Modelle als feststehende Tatsachen zu behandeln.

Die Modelle können eine Erwärmung ergeben. Sie können eine Abkühlung ergeben. Sie können beides gleichzeitig ergeben, je nachdem, wo und wann man hinschaut.

Die Frage ist, wie sicher diese Ergebnisse in Erwartungen für die reale Welt übersetzt werden können – und ob diese Sicherheit das Ausmaß der politischen Maßnahmen rechtfertigt, die in ihrem Namen vorgeschlagen werden.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2026/03/26/climate-models-discover-yet-another-thing-CO₂-can-do/

Übersetzt von Christian Freuer für das EIKE

 




Met Office beim Fälschen von Daten erwischt

Cap Allon

Laut einer umfassenden Studie des unabhängigen Forschers Eric Huxter übertreibt das Met Office die Temperaturextreme in UK aufgrund der Art und Weise, wie es die Tageshöchstwerte misst.

Die Tageshöchstwerte in UK werden anhand von hochfrequenten elektronischen Sensoren – sogenannten Platin-Widerstandsthermometern (PRTs) – ermittelt, die minütliche Werte aufzeichnen. Diese Instrumente erfassen kurzlebige Spitzenwerte, verursacht durch lokale Einflüsse.

Huxter erstellte eine Kontrollreihe unter Verwendung von über 525.000 Messwerten auf Minutenebene von einer Messstation der Klasse 1 in Rothamsted, einem sauberen, offenen Standort auf Ackerland. Dieser Datensatz zeigt enge, stabile Schwankungen, die mit den Umgebungsbedingungen übereinstimmen.

Das ist beim größeren Messnetz nicht der Fall.

An 96 Stationen weisen 340 aufgezeichnete Höchstwerte wiederholte Spitzenwerte auf – typischerweise etwa 1–1,2 °C über den Werten der Umgebung. Diese Spitzenwerte treten in Rothamsted nicht auf. Die Wahrscheinlichkeit, dass dieser Unterschied zufällig auftritt, liegt bei weniger als 1 zu 10.000 (Chi-Quadrat-Test).

Die meisten dieser Messwerte stammen von Standorten niedrigerer Qualität (CIMO 3–5). Hochwertige Standorte der Klasse 1 machen nur einen kleinen Teil des Netzwerks des Met Office aus.

Eine ungünstige Aufstellung setzt die Sensoren nahe gelegenen Wärmequellen aus. Eine schwache Luftzirkulation führt zu lokaler Erwärmung. PRTs reagieren sofort. Ein kurzer Spitzenwert wird erfasst und als Tageshöchstwert protokolliert. In mehr als der Hälfte der Fälle stimmen diese Spitzenwerte nicht mit der wärmsten Tageszeit überein.

Diese Werte gehen dann direkt in die Durchschnittswerte ein. Tageshöchstwerte werden für monatliche und jährliche Berechnungen herangezogen. Jede Verzerrung überträgt sich auf das gesamte System.

Ältere Glasthermometer mit Flüssigkeitsfüllung glichen kurzfristige Schwankungen aus. Moderne Sensoren tun dies nicht. Die Umstellung auf automatisierte Messungen erhöht die Wahrscheinlichkeit, vorübergehende Extremwerte zu erfassen.

Die Weltorganisation für Meteorologie empfiehlt die Bildung von Kurzzeitdurchschnitten, um vorübergehende Spitzenwerte zu unterdrücken. In der Praxis leitet das Met Office – ebenso wie der National Weather Service und das Bureau of Meteorology – Tageshöchstwerte aus hochfrequenten Daten ab, wodurch kurze Spitzenwerte als offizielle Höchstwerte erfasst werden können.

Gleichzeitig weisen große Teile des Netzwerks angegebene Unsicherheiten von 2 °C bis 5 °C auf – und dennoch werden die Temperaturen auf Zehntelgrad genau angegeben.

Offizielle WMO/CIMO-Richtlinien (siehe Tabelle oben):

• Klasse 1: ~0,1 °C Unsicherheit

• Klasse 2: ~0,3 °C

• Klasse 3: ~1 °C

• Klasse 4: ~2 °C

• Klasse 5: ~5 °C

[Hervorhebung im Original]

Link: https://electroverse.substack.com/p/late-march-arctic-cold-grips-canada?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Die britische Regulierungsbehörde OFCOM will die Leugnung des Klimawandels in einer Fernsehsendung untersuchen

Eric Worrall

Anscheinend sollten „gefährliche Klimalügen“ wie die Behauptung, es gebe keinen Klimanotstand, in Fernsehsendungen nicht unwidersprochen bleiben.

Ofcom untersucht erstmals seit 2017 Beschwerden wegen Leugnung des Klimawandels

Exklusiv: Britische Regulierungsbehörde macht Kehrtwende bei Beschwerden gegen TalkTV und TalkRadio, nachdem ihr vorgeworfen wurde, einigen Sendern erlaubt zu haben, „gefährliche Klimalügen zu verbreiten“

Damian Carrington

Beschwerden über Sendungen bei TalkTV und TalkRadio wurden von Ofcom geprüft, das daraufhin beschloss, keine Untersuchung einzuleiten – das gleiche Ergebnis wie bei mehr als 1.000 anderen Klimabeschwerden seit 2020. Nach einem Schreiben des Good Law Project (GLP) im Januar, in dem eine Begründung für die Ablehnungen gefordert wurde, teilte Ofcom jedoch mit, dass es seine ursprüngliche Entscheidung zurückgenommen habe und die Beschwerden „neu prüfen“ werde.

Eine Beschwerde bezog sich auf Äußerungen eines Talk-Gastes, der im November sagte, der Klimawandel sei „ein bewusster Versuch, künstliche Angst zu erzeugen … aus etwas, das falsch ist“. Im zweiten Fall, ebenfalls im November, bezeichnete ein anderer Gast die Energiepolitik der Labour-Regierung als „selbstmörderisch“, „in vielen Fällen von Pseudowissenschaft getrieben“ und „eine Art sektenähnliches Verhalten“.

„Rechtsextreme Sender dürfen schon viel zu lange ungehindert gefährliche Klimalügen verbreiten“, sagte ein Sprecher der GLP. „Wir sind froh, dass Ofcom endlich zuhört, und warten auf den Abschluss der Untersuchungen. Sollte Ofcom keine Maßnahmen gegen die Falschinformationen von Talk ergreifen, werden wir nicht zögern, den Sender zur Rechenschaft zu ziehen.“

Ein Sprecher von Ofcom sagte: „Bei der erneuten Prüfung der Sendungen sind wir zu dem Schluss gekommen, dass sie potenziell schwerwiegende Verstöße gegen den Rundfunkkodex darstellen, die eine Untersuchung rechtfertigen. Wir haben daher Untersuchungen eingeleitet, um zu prüfen, ob sie gegen unsere Vorschriften zur gebotenen Unparteilichkeit und zur wesentlichen Irreführung verstoßen haben.“ Ofcom teilte mit, dass es nach einer Zuschauerbeschwerde über eine andere Sendung von TalkTV eine weitere klimabezogene Untersuchung eingeleitet habe.

Mehr hier

Websites von Klimaskeptikern scheinen vorerst nicht Gegenstand der Ermittlungen zu sein. Die OFCOM ist befugt, gegen Websites vorzugehen, und es wird derzeit erwogen, diese Befugnisse auszuweiten, was auch auf Websites wie WUWT Anwendung finden könnte.

In einer Zeit, in der Briten wegen eines unfreundlichen Facebook-Posts verhaftet werden können, scheint die Androhung behördlicher Ermittlungen wegen Äußerungen wie der, der Klimawandel sei „ein bewusster Versuch, aus etwas Falschem falsche Ängste zu schüren …“, einen gefährlichen Schritt in Richtung einer Einschränkung der Freiheit zur Kritik an Klimabehauptungen darzustellen.

Der Klimawandel ist nicht falsch, in dem Sinne, dass sich die Welt seit Mitte des 19. Jahrhunderts erwärmt hat. Was falsch ist, ist die Behauptung, dass dies irgendeine Art von Notlage darstellt.

Dies ist ein trauriger Tag für Großbritannien. Großbritannien kann zu Recht behaupten, die Wiege der modernen parlamentarischen Demokratie zu sein. Die Geschichte der britischen Parlamente reicht bis ins Jahr 1236 n. Chr. zurück, als König Heinrich III. das „parliamentum generalissimum“ einberief. Der größte Teil dieser Geschichte steht für einen Fortschritt des Rechts der Menschen auf freie Meinungsäußerung, für eine schrittweise Ablösung der absoluten Tyrannei durch repräsentative Demokratie. Das Recht der Menschen zu bedrohen oder einzuschränken, sich öffentlich zu einem wissenschaftlichen Standpunkt zu äußern – ganz gleich, ob man diesen geäußerten Ansichten zustimmt oder nicht –, ist ein großer Rückschritt in dieser Tradition der Freiheit.

Schon zu Shakespeares Zeiten, Ende des 16. bis Anfang des 17. Jahrhunderts, genossen die Briten ein Maß an Freiheit, das in weiten Teilen der Welt unbekannt war. Shakespeare schrieb Theaterstücke, die weithin als Kritik an der Politik oder dem Verhalten des Königshauses angesehen wurden, ohne für seine Frechheit bestraft zu werden – obwohl gegen ihn mindestens einmal wegen angeblicher Anstiftung zum Aufstand ermittelt worden war. Doch selbst Shakespeare wurde wegen seiner wissenschaftlichen Ansichten nicht schikaniert.

Seit Jahrhunderten bestand die übliche Vorgehensweise darin, auf eine wissenschaftliche Behauptung, der man nicht zustimmte, mit der Veröffentlichung einer Gegenbehauptung zu reagieren. Es gibt keine Tradition, dass Regierungszensoren in Sendungen auftreten, um alles, womit die Regierung nicht einverstanden ist, sofort anzufechten oder als falsch zu brandmarken.

Doch nun stehen wir vor einem massiven Rückschritt, einem Versuch, die Meinungsfreiheit und das Recht, Ansichten über die Wissenschaft zu äußern, zu unterbinden – was mit der Redezensur der religiösen Tyranneien des Mittelalters vergleichbar ist, als das Aussprechen von Kritik an religiösen Interpretationen von Natur und Göttlichkeit streng bestraft wurde.

Ist das wirklich die Zukunft, die Großbritannien will, in der das Anzweifeln der Behauptung, wir befänden uns in einer Klimakrise, als Blasphemie behandelt wird? In der Rundfunkanstalten verpflichtet sind, bei jeder Diskussion über Wissenschaft einen Vertreter der von der Regierung genehmigten Ansichten einzubeziehen? Denn genau dorthin steuert Großbritannien derzeit.

[Hervorhebungen im Original]

Link: https://wattsupwiththat.com/2026/03/25/british-regulator-ofcom-to-investigate-broadcaster-climate-denial/

Übersetzt von Christian Freuer für das EIKE

 




Die erste Hitzewelle des Jahres … und immer wieder das Gleiche

Klimadaten zur Hitzewelle im März – Wie langfristige Temperaturaufzeichnungen die gängige Klimadiskussion in Frage stellen

Matthew Wielicki

Die Schlagzeilen sagen das eine … die Daten sagen etwas ganz anderes

Denver und andere Städte haben gerade einen Hitzerekord für den Monat März gebrochen.

Die Medien stellten dies sofort als weiteren Beweis dafür dar, dass das Klimasystem durch menschliche Aktivitäten an seine Grenzen gestoßen ist.

Das Problem ist, dass dieser Rekord bereits 1971 aufgestellt worden war.

Die Höchsttemperatur vom Samstag brach zudem den Rekord für die höchste jemals im März gemessene Temperatur, der erst am Donnerstag und Freitag aufgestellt worden war, als in Denver 29,4 °C gemessen wurden. Der bisherige Allzeit-Temperaturrekord für den März lag bei 28,9 °C und wurde am 26. März 1971 gemessen.Quelle

Wenn die heutige Hitze ein Zeichen für etwas Beispielloses ist, was genau geschah dann im Jahr 1971?

Allein diese Frage sollte uns dazu veranlassen, inne zu halten, bevor wir voreilige Schlüsse ziehen. Wenn wir uns von den Schlagzeilen lösen und die Daten tatsächlich genauer betrachten, zeichnet sich nämlich ein ganz anderes Bild ab.

Was die Langfrist-Aufzeichnungen tatsächlich zeigen

Um zu verstehen, was wirklich vor sich geht, müssen wir einen Schritt zurücktreten und über ein einzelnes Ereignis hinausblicken. Die landesweiten Temperaturrekorde für den März in Colorado, Kalifornien, Arizona und Washington reichen bis ins späte 19. Jahrhundert zurück und vermitteln ein wesentlich umfassenderes Bild des Systems.

Was diese Aufzeichnungen zeigen, ist nicht Stabilität, gefolgt von plötzlichen Störungen. Sie zeigen ein System, das schon immer sehr variabel war.

In Colorado schwanken die Temperaturrekorde im März von Jahr zu Jahr dramatisch, wobei während der Warmperioden zu Beginn des 20. Jahrhunderts viele moderne Werte erreicht oder sogar übertroffen worden waren.

Gleiches zeigt sich in Kalifornien, wo es im März zu starken Temperaturanstiegen gekommen war, lange bevor die jüngsten erhöhten Kohlendioxidwerte in der Atmosphäre aufgetreten sind.

Arizona zeigt ein ähnliches Bild: Über den gesamten Zeitraum hinweg sind vereinzelte ausgeprägte Wärmeanomalien zu beobachten, darunter Phasen zu Beginn und in der Mitte des 20. Jahrhunderts, die mit denen der letzten Jahre vergleichbar sind.

Washington, das oft als klimatisch stabiler angesehen wird, weist die gleiche starke Variabilität auf, ohne dass sich ein klarer monotoner Verlauf abzeichnet, der auf einen einfachen linearen Zusammenhang mit den Konzentrationen von Treibhausgasen hindeuten würde.

Was in allen vier US-Bundesstaaten auffällt, ist nicht eine plötzliche Veränderung oder Beschleunigung, sondern eine anhaltende Variabilität. Warme Jahre treten gehäuft auf, kühle Jahre treten gehäuft auf, und Extreme sind in den gesamten Aufzeichnungen zu finden. Die moderne Zeit zeichnet sich nicht durch eine einzigartige Volatilität oder Beispiellosigkeit aus. Vielmehr fügt sie sich in ein seit langem bestehendes Muster von Fluktuationen ein.

Das ist genau das Bild der natürlichen Variabilität!

Das Klimasystem ist nicht statisch. Es ist dynamisch, nichtlinear und wird von einer Vielzahl miteinander in Wechselwirkung stehenden Prozesse beeinflusst. Wenn wir eine Messreihe auf mehr als ein Jahrhundert ausdehnen, steigt die Wahrscheinlichkeit, auf Extremwerte zu stoßen, naturgemäß an. Dies ist kein Beweis dafür, dass das System zusammenbricht. Es ist vielmehr ein Beweis dafür, dass das System lange genug beobachtet wurde, um sein gesamtes Spektrum offenzulegen.

Jedes Jahr wird irgendwo auf der Erde ein Rekord aufgestellt. Das ist kein Beweis für ein sich veränderndes System. Es ist das zu erwartende Ergebnis eines langen und immer größer werdenden Datensatzes. Je länger wir messen, desto mehr Extreme werden wir beobachten.

Das aktuelle Ereignis steht im Einklang mit einer gut verstandenen atmosphärischen Konfiguration. Über dem Westen der Vereinigten Staaten hat sich ein starker Höhenrücken gebildet, der mit einem Übergang von La Niña zu El Niño-Bedingungen und überdurchschnittlich warmen Küstengewässern im östlichen Pazifik zusammenfällt. Dies sind klassische Auslöser für regionale Hitzewellen. Sie haben in der Vergangenheit gewirkt und werden auch in Zukunft wirken.

Der historischen Zusammenhang darf nicht ignoriert werden!

Die stärksten Hitzewellen in der Geschichte der Vereinigten Staaten ereigneten sich nach wie vor zu Beginn des 20. Jahrhunderts, insbesondere in den 1930er Jahren. Wie in meiner früheren Arbeit dargelegt, zeigen Hitzewellen keinen Zusammenhang mit den Treibhausgaskonzentrationen oder -emissionen in der Atmosphäre; die „Dust Bowl“-Ära bleibt der Maßstab für extreme Hitze in den Beobachtungsdaten. Diese Ereignisse traten zu einer Zeit auf, als die Kohlendioxidkonzentrationen in der Atmosphäre weit unter den heutigen Werten lagen.

Dies ist kein nebensächliches Detail. Es ist von zentraler Bedeutung für die Diskussion. Jede Behauptung, dass moderne Hitzewellen sich grundlegend unterscheiden, muss mit der Tatsache in Einklang gebracht werden, dass extremere Ereignisse schon unter ganz anderen klimatischen Bedingungen auftraten.

Behauptungen über die Zuordnung sind übertrieben

Uns wird immer häufiger gesagt, dass Ereignisse wie diese ohne menschlichen Einfluss nicht möglich gewesen wären. Diese Behauptung wird mit einer Gewissheit vorgebracht, die aus den zugrunde liegenden wissenschaftlichen Erkenntnissen nicht hervorgeht.

Attributionsstudien beobachten die Realität nicht. Sie simulieren sie. Sie vergleichen modellierte Welten mit und ohne menschliche Emissionen und weisen den Ergebnissen dann Wahrscheinlichkeiten zu. Das ist keine direkte Messung. Es handelt sich um eine Schlussfolgerung, die auf zahlreichen Annahmen beruht.

Wenn frühere Beobachtungen eindeutig belegen, dass ähnliche Ereignisse bereits stattgefunden haben, lässt sich die Behauptung nur schwer aufrechterhalten, wonach sie nur in einer sich erwärmenden Welt möglich sind.

Messungen sind wichtiger als den meisten bewusst ist

Ein weiterer oft übersehener wichtiger Aspekt ist die Frage, wie und wo Temperaturen gemessen werden. Viele der Messstationen, die zu diesen Aufzeichnungen beitragen, befinden sich in Umgebungen, die sich im Laufe der Zeit erheblich verändert haben. Flughäfen, expandierende städtische Gebiete und der Ausbau der Infrastruktur führen zu lokalen Erwärmungseffekten, die sich auf die gemessenen Temperaturen auswirken können.

Ich gehe darauf ausführlich in „Can We Really Trust the Global Temperature Record“ ein, wo ich untersuche, wie die Platzierung der Messstationen, Anpassungen und die Datenverarbeitung die endgültigen Temperaturaufzeichnungen beeinflussen können. Wenn wir neue Aufzeichnungen interpretieren, müssen wir nicht nur die Zahlen selbst berücksichtigen, sondern auch den Kontext, in dem sie gemessen werden.

Der größere Zusammenhang

Selbst vor dem Hintergrund eines moderaten Erwärmungstrends muss man sich bewusst machen, dass nicht alle Veränderungen schädlich sind. Weltweit ist die kältebedingte Sterblichkeit nach wie vor deutlich höher als die hitzebedingte.

Die Grafik zeigt den prozentualen Anteil der Gesamtsterblichkeit in jedem Land, der derzeit auf nicht optimale Hitze und Kälte über den gesamten Untersuchungszeitraum zurückzuführen ist – d. h. auf Abweichungen in Richtung Hitze oder Kälte von der länderspezifischen Temperatur, bei der die Sterblichkeit am geringsten ist. Kälte ist derzeit für das 3- bis 10-fache der zuzuschreibenden Todesfälle verantwortlich. Quelle: https://www.nber.org/system/files/working_papers/w34313/w34313.pdf

Eine etwas wärmere Welt verringert die Exposition gegenüber extremer Kälte, die in der Vergangenheit für die menschliche Bevölkerung weitaus gefährlicher war.

In dem Artikel „The Temperature Illusion: Heat Hysteria Debunked“ erörtere ich, wie diese weiterreichenden Auswirkungen oft übersehen werden, während der Fokus einseitig auf Hitzeextremen liegt. Eine ausgewogene Bewertung muss jedoch beide Seiten der Medaille berücksichtigen.

[Hervorhebung vom Übersetzer]

Was diese Hitzewelle wirklich zeigt

Diese Hitzewelle zu Beginn der Saison ist real und bemerkenswert. Sie steht zudem voll und ganz im Einklang mit dem historischen Verhalten des Klimasystems. Betrachtet man sie im Kontext von mehrere Bundesstaaten umfassende Daten aus mehr als einem Jahrhundert sticht sie in keiner nennenswerten Weise als beispiellos oder anomal hervor.

Was es jedoch offenbart ist, wie schnell einzelne Ereignisse so dargestellt werden, dass sie in ein vorgefertigtes Narrativ passen. Anstatt als Teil eines komplexen und variablen Systems präsentiert zu werden, werden sie oft isoliert und als Beweis für eine einzelne Ursache hochgespielt.

Abschließende Überlegungen

Je länger und umfassender unsere Beobachtungsdaten werden, desto deutlicher erkennen wir, dass die Variabilität das bestimmende Merkmal des Klimas ist. Extreme sind nichts Neues. Sie sind zu erwarten. Mit dem Wachstum der Datensätze werden weiterhin Rekorde in beide Richtungen gebrochen werden.

Dies zu verstehen ist von entscheidender Bedeutung. Ohne diesen Kontext kann man viel zu leicht normale Variabilität mit etwas Außergewöhnlichem verwechseln.

Dr. Matthew Wielicki

Earth science professor-in-exile, climate and cultural realist, political orphan, pluralist, husband, father, friend, optimist, Irrational Fear Substack. Dr Matthew Wielicki also appears in the documentary Climate: The Movie on Clintel’s YouTube channel.

Link: https://clintel.org/the-first-heatwave-of-the-year-and-the-same-old-narrative/

Übersetzt von Christian Freuer für das EIKE

 




Wie Europa seine Energie-Sicherheit selbst unterminiert

Die aufschlussreiche Mathematik hinter Europas Kernkraft-Fehler

Roger Pielke Jr.

Am vergangenen Dienstag erklärte die Präsidentin der Europäischen Kommission Ursula von der Leyen auf dem Kernenergiegipfel 2026 in Paris:

„Es war ein strategischer Fehler, dass Europa einer zuverlässigen und erschwinglichen Quelle für emissionsarmen Strom den Rücken gekehrt hat.“

Sie bezog sich dabei auf die Kernenergie und wies darauf hin, dass 1990 ein Drittel des Stroms in Europa aus Kernenergie stammte, heute seien es etwa 15 Prozent: „Dieser Rückgang des Anteils der Kernenergie war eine bewusste Entscheidung.“ 1

Diese Entscheidung wirft eine Frage auf: Was wäre geschehen, wenn man sich anders entschieden hätte? Genauer gesagt: Wie hätte der Energiemix der EU heute ausgesehen, wenn sich die Union stattdessen für eine auf Kernenergie basierende Zukunft entschieden hätte?

Heute werde ich diese Frage aus quantitativer Sicht beleuchten. Ich stelle zwei kontrafaktische Szenarien aus den frühen 2000er Jahren vor, als der Kernkraft-Stromverbrauch in der EU-27 seinen Höhepunkt erreichte. Im ersten kontrafaktischen Szenario gehe ich davon aus, dass Europa, anstatt seinen Kernkraftwerkspark zu verkleinern, einen Kurs des moderaten Wachstums eingeschlagen hat. Das zweite kontrafaktische Szenario geht davon aus, dass Europa zu der Rate des Kernkraftwerksausbaus (vor allem in Frankreich) von etwa 1970 bis etwa 1990 zurückgekehrt ist und jedes Jahr etwa sieben neue Reaktoren in Betrieb genommen hat.

Der Aufbau der Kernkraftwerksflotte der EU-27 begann in den 1960er Jahren. Bis Mitte der 1990er Jahre gab es 136 Reaktoren in mehr als 50 verschiedenen Kraftwerken, deren Bau überwiegend durch das staatlich gelenkte Bauprogramm Frankreichs vorangetrieben worden war. Zwischen 1975 und 1990 wurden 52 neue Reaktoren an das französische Stromnetz angeschlossen – einer der erfolgreichsten Ausbauprozesse im Bereich der Kernenergie in der Geschichte.

Dann wurde aus Rückenwind Gegenwind.

Bulgarien und Litauen legten Kraftwerke als Voraussetzung für den EU-Beitritt still. Deutschland schaltete unmittelbar nach Fukushima im März 2011 acht Reaktoren ab und schloss seinen letzten in Betrieb befindlichen Reaktor im April 2023. Schweden schloss vier seiner zwölf kommerziellen Reaktoren. Frankreich begann, von seinem Engagement für die Kernenergie abzurücken. Bis 2024 umfasste der Reaktorbestand der EU-27 100 Reaktoren. Der Verbrauch an Kernenergie war von einem Höchststand von 10,1 Exajoule (EJ) im Jahr 2004 auf 7,1 EJ gesunken.

Der Gasverbrauch blieb unterdessen hoch, und der Kohleverbrauch lag – obwohl rückläufig – im Jahr 2024 immer noch knapp unter 5 EJ. Die folgende Abbildung zeigt die Verbrauchsentwicklung aller drei Energieträger in der EU-27 für dieses Jahrhundert:

Um zu untersuchen, wie sich die Energieentwicklung in Europa anders hätte gestalten können, betrachte ich zwei Szenarien.

Szenario 1 – Den Rückgang umkehren. Der Kernenergieverbrauch der EU-27 ging von 2000 bis 2024 um 0,096 EJ pro Jahr zurück. Was wäre, wenn er stattdessen um den gleichen Betrag gestiegen wäre? Ausgehend von 9,4 EJ im Jahr 2000 und einer jährlichen Zunahme von 0,096 EJ hätte der Kernenergieverbrauch bis 2024 11,7 EJ erreicht – was etwa 155 in Betrieb befindlichen Reaktoren entspricht. Dieses Szenario führt zu einem Anstieg des Kernenergieverbrauchs in der EU-27 um 4,6 EJ im Vergleich zur tatsächlichen Entwicklung.

Szenario 2 – Wiederholung des Ausbaus. Zwischen 1970 und 1990 stieg der Kernenergieverbrauch in der EU von 0,18 EJ auf 7,95 EJ – ein Anstieg von 0,39 EJ pro Jahr. Was wäre, wenn sich diese Wachstumsrate ab dem Höchststand von 2004 fortgesetzt hätte? Bis 2024 hätte die EU dann rund 238 Reaktoren gehabt, die 17,9 EJ erzeugt hätten. Das hätte zu einem Anstieg von 10,8 EJ gegenüber dem tatsächlichen Verlauf geführt – also zu einer etwa doppelten Steigerung des Kernenergieverbrauchs gegenüber dem Höchststand von 2004. Dieses Szenario hätte ein politisches Engagement erfordert, das dem Frankreichs in den 1970er Jahren entsprochen hätte, mit etwa sieben neuen Reaktoren, die pro Jahr ans Netz gegangen wären.

Die folgende Abbildung zeigt die gesamte Entwicklung des Reaktorparks der EU-27 neben den beiden kontrafaktischen Entwicklungspfaden:

Als Nächstes stellt sich die Frage, was die kontrafaktische Stromerzeugung aus Kernenergie hätte ersetzen können.

Ich ordne die zusätzliche Kernenergie-Erzeugung der kontrafaktischen Szenarien folgenden Quellen zu: (1) russischem Pipelinegas, (2) LNG aus Katar und (3) EU-Kohle. Die nachstehende Tabelle zeigt, woher die EU-Gasimporte im Jahr 2024 stammten. Meine Analyse betrachtet das Jahr 2024 lediglich als Momentaufnahme und geht vereinfachend von einer Substitution im Verhältnis 1:1 aus. 2

Die Ergebnisse der Substitution sind in der folgenden Tabelle dargestellt. In beiden Szenarien werden sowohl russisches Pipelinegas als auch LNG aus Katar vollständig ersetzt. Im konservativeren Szenario werden zudem 66 % des Kohleverbrauchs ersetzt, während im Ausbauszenario die gesamte Kohle ersetzt wird.

Die kontrafaktische Kernenergielücke im Szenario „Den Rückgang umkehren“ beträgt 4,6 EJ – mehr als das Dreifache der gesamten Importe aus Russland und Katar, die sich auf 1,5 EJ belaufen. Gemessen an der Energiemenge hätte die EU-27 diese Importe einsparen können.

Den Rückgang umkehren“ verdrängt dann weitere zwei Drittel der EU-Kohle, sodass sich etwa 1,6 EJ auf Deutschland und Polen konzentrieren. „Wiederholung des Ausbaus“ eliminiert die gesamte EU-Kohle und verfügt dennoch über 4,6 EJ an Überkapazität.

Die nachstehende Tabelle zeigt die Auswirkungen der kontrafaktischen Szenarien auf die Kohlendioxidemissionen der EU-27 – diese würden im Jahr 2024 um etwa 15 % bis 21 % unter den tatsächlichen Werten liegen. Abgesehen von einem strategischen Fehler hat der Ausstieg aus der Kernenergie die EU-27 auch im Hinblick auf eine weitere Priorität der Union – die Emissionsminderung – erheblich geschwächt.

Die folgenden Abbildungen zeigen den Energieverbrauch der EU-27 in den einzelnen kontrafaktischen Szenarien. Dargestellt sind die tatsächlichen Werte für Kernenergie, Gas und Kohle bis 2024; die gestrichelten kontrafaktischen Linien weichen ab dem Höchststand von 2004 ab, was mit der oben beschriebenen Verdrängungssequenz übereinstimmt.

Beide kontrafaktischen Szenarien zeigen, dass die Kernenergie an Bedeutung gewinnt, während Gas und Kohle an Bedeutung verlieren.

Ursula von der Leyen hat absolut Recht, dass die Entscheidung Europas, die Abhängigkeit von der Kernenergie zu verringern, ein strategischer Fehler war. Diese Entscheidung hat zudem Europas Engagement für eine tiefgreifende Dekarbonisierung erheblich gebremst. Die oben betrachteten kontrafaktischen Szenarien machen dies deutlich.

Die europäische Energiepolitik der letzten vier Jahre war von zwei Krisen geprägt: dem Druck Russlands durch seine Gaslieferungen nach der Invasion der Ukraine im Jahr 2022 und den Versorgungsengpässen im Nahen Osten im Jahr 2026 mit ihren Folgewirkungen auf die Gaspreise. Diese Krisen hätten vermieden oder zumindest erheblich abgemildert werden können.

In ganz Europa wächst die Erkenntnis, dass die Entscheidungen in Bezug auf die Kernenergie falsch waren. Von der Leyens Garantie in Höhe von 200 Millionen Euro zur Förderung kleiner modularer Reaktoren ist ein erster Schritt, um wieder auf Kurs zu kommen, und die EU fängt nicht bei Null an. Die Erholung wird jedoch eine Weile dauern.

Link: https://rogerpielkejr.substack.com/p/how-europe-undermined-its-own-energy?publication_id=119454&post_id=191032572&isFreemail=false&r=2iv8gn&triedRedirect=true

Übersetzt von Christian Freuer für das EIKE