EPA legt das amerikanische Energiepotenzial frei

Bonner Cohen, Ph. D.

Der EPA-Administrator Lee Zeldin verkündete „den Tod des grünen neuen Betrugs“ und verpflichtete seine Behörde dazu, „einen Dolch durch die Klimawandel-Religion zu treiben und Amerikas Goldenes Zeitalter einzuläuten“.

In einer umfassenden Ankündigung vom 12. März rief Zeldin dazu auf, 31 EPA-Regeln und -Vorschriften zu überdenken“ (was in den meisten Fällen bedeutet, sie zu widerrufen), von denen die meisten von den Regierungen Biden und Obama zur Bekämpfung des vom Menschen verursachten Klimawandels eingeführt wurden. Entgegen der Meinung der Elite über die Notwendigkeit, dem Planeten zuliebe Opfer zu bringen, schrieb Zeldin im Wall Street Journal, dass aufgrund seiner Maßnahmen „die Lebenshaltungskosten für amerikanische Familien sinken sowie lebensnotwendige Dinge wie der Kauf eines Autos, das Heizen eines Hauses und der Betrieb eines Unternehmens erschwinglicher werden“.

Anstatt die EPA in ihrer traditionellen Rolle als mächtigste und gefürchtetste Regulierungsbehörde des Landes zu belassen, versucht Zeldin, die EPA zu einem Partner im Streben der Trump- Regierung nach amerikanischer Energiedominanz zu machen. Zu den umstrittensten Maßnahmen, die unter Biden und Obama verabschiedet wurden, gehören die umweltpolitischen Maßnahmen, die von Zeldins Team teilweise oder ganz zurückgenommen werden sollen.

Auf dem Prüfstand steht das De-facto-EV-Mandat der Biden-Ära, das die Autohersteller durch strenge Abgasnormen dazu zwingt, mit Benzin betriebene Fahrzeuge bis 2030 zugunsten von Batterie-betriebenen Autos und Lastwagen aus dem Verkehr zu ziehen. Ebenfalls im Fadenkreuz steht der „Clean Power Plan 2.0“ der Regierung Biden vom April 2024, der die Treibhausgasemissionen von Kohle- und Erdgaskraftwerken bis 2032 stark einschränkt. Strenge Auflagen für die Berichterstattung über Treibhausgasemissionen von Kraftwerken und Produktionsanlagen sind ebenfalls Ziel von Zeldins Maßnahmen, ebenso wie alle Vorschriften aus der Biden-Ära, welche die Öl- und Erdgasproduktion in den USA behindern.

Die größte Auswirkung wird jedoch die Anfechtung des Endangerment Finding der EPA von 2009 durch Trump/Zeldin haben. Im Jahr 2007 entschied der Oberste Gerichtshof der USA in der Rechtssache Massachusetts gegen die EPA, dass die EPA befugt ist, Treibhausgase im Rahmen des Clean Air Act zu regulieren. Die Obama-Beamten der EPA sahen darin eine Möglichkeit, die Befugnisse der Behörde auf nahezu jeden Winkel der nationalen Wirtschaft auszudehnen, und veröffentlichten zwei Jahre später das Endangerment Finding. Darin wurden sechs Treibhausgase, darunter Kohlendioxid und Methan, als gesundheitsgefährdend eingestuft, was einen Ansturm von Vorschriften für die Bereiche Energie, Verkehr, Bauwesen und andere Sektoren auslöste. Mit der Überarbeitung des Endangerment Finding wendet sich Zeldin gegen das, was er als „den heiligen Gral der Klimawandel-Religion“ bezeichnet.

Die Umkehrung der Klimapolitik, die durch das Endangerment Finding ermöglicht wurde, wird nicht über Nacht geschehen. Es wird ein mühsames Verwaltungsverfahren erfordern, das einen Großteil von Trumps verbleibender Amtszeit in Anspruch nehmen wird. Umweltgruppen, die die Bedrohung erkennen, die Zeldins Schritt für ihr Vorhaben darstellt, die Welt von fossilen Brennstoffen zu befreien, werden die Behörde verklagen und können dabei auf die Unterstützung einer Reihe von Generalstaatsanwälten aus blauen* Staaten zählen.

[*Von den Demokraten regierte US-Staaten. A. d. Übers.]

Aber die rechtlichen Rahmenbedingungen für eine Anfechtung von Zeldin sind möglicherweise nicht mehr so günstig wie früher. Zwei aktuelle Entscheidungen des Obersten Gerichtshofs, West Virginia gegen EPA (2022) und Roper Bright Enterprises gegen Raimondo (2024), haben die Befugnis von Bundesbehörden, ohne ausdrückliche Ermächtigung des Kongresses Vorschriften zu erlassen, stark eingeschränkt. In der West-Virginia-Entscheidung entschied der Oberste Gerichtshof, dass der EPA die Befugnis fehlte, den von Obama eingeführten Clean Power Plan zu erlassen, mit dem die Treibhausgasemissionen bestehender Kohlekraftwerke reduziert werden sollten. Die Ähnlichkeit zwischen diesem Urteil und Zeldins Initiativen verheißt nichts Gutes für grüne Kläger.

Darüber hinaus besteht bei Klagen gegen Zeldins Aufhebung des Endangerment Finding die Gefahr, dass die Angelegenheit vor dem Obersten Gerichtshof landet, der sein Urteil aus dem Jahr 2007 in der Rechtssache Massachusetts gegen die EPA mit dem Hinweis auf die fehlende Befugnis des Kongresses zur Regulierung von CO₂ und anderen Treibhausgasen aufheben könnte.

Zeldins Maßnahmen finden nicht in einem Vakuum statt. Trump hat nicht nur die USA aus dem Pariser Klimaabkommen vom Dezember 2015 zurückgezogen und die Teilnahme amerikanischer Beamter an den von den Vereinten Nationen unterstützten Klima-Gremien blockiert, sondern auch ehemals grüne Elemente im privaten Sektor schlagen ein neues Kapitel auf. Der Ölgigant BP, der einst an der Spitze der grünen Energiewende stand, teilte den Investoren Anfang März mit, dass sein „Optimismus für einen schnellen Übergang unangebracht war“ und dass das Unternehmen Milliarden von Dollar an Investitionen von grüner Energie in fossile Brennstoffe umschichten würde, berichtete die Washington Post.

Angesichts der rasant steigenden Nachfrage nach zuverlässigem Strom für die KI in Rechenzentren überlegen sich die Investmentfirmen im Silicon Valley und in New York, ob sie sich von fossilen Brennstoffen trennen sollen. Larry Fink von BlackRock, bis vor kurzem noch ein glühender Verfechter erneuerbarer Energien, schlägt jetzt einen anderen Ton an. „Wir müssen auf pragmatische Weise über Strom und Energie nachdenken“, sagte er kürzlich auf einem hochrangigen Energietreffen in Houston, wie die Post berichtete. „Lassen Sie uns einen Moment innehalten. Erstens: Gas wird in den USA noch einige Jahre lang eine wichtige Rolle spielen. Vielleicht 50 Jahre.“

Der gepriesene grüne Wandel stößt auf ein sich rasch veränderndes wirtschaftliches, rechtliches und politisches Klima.

This article originally appeared at Human Events

Link: https://www.cfact.org/2025/03/26/epas-zeldin-unshackles-american-energy-potential/

Übersetzt von Christian Freuer für das EIKE

 




Die Temperaturreihen des Deutschen Wetterdienstes beim Monat März zeigen: Es gibt keinen wirksamen CO₂-Treibhauseffekt. Teil 1

Von Josef Kowatsch, Matthias Baritz

  • Das Klima ändert sich immer, Klimawandel ist die Normalität.
  • Die Märzklimaerwärmung in Deutschland begann 1987 auf 1988 mit einem Temperatursprung von über einem Grad mit anschließender leichter Weitererwärmung.
  • Wir finden 8 Gründe dieses für uns angenehmen März-Klimawandels seit 1988
  • Auch die März-Temperaturen des DWD zeigen, eine CO₂-Beteiligung am neuzeitlichen Klimawandel ist nicht nachweisbar.

Der diesjährige Märzmonat wird mit etwa 6,1°C vom Deutschen Wetterdienst (DWD) als Schnitt seiner 2000 Wetterstationen mit „deutlich zu mild“ errechnet. Ansonsten betreiben die wissenschaftlich ausgebildeten Meteorologen des DWD jedoch keine CO₂-Panikmache auf ihrer Homepage beim Märzartikel. Hauptursache dieses angenehmen Frühlingsmonates waren die vermehrt südlichen und SW-Wetterlagen, sowie die sehr hohe Anzahl an Sonnenstunden. Zitat: „Im vergangenen März kamen Sonnenanbeter voll und ganz auf ihre Kosten“, (laut DWD 199 Sonnenstunden). Und nur 19 l/m² Regen. Fazit für 2025: Viel Sonne und sehr wenig Niederschlag, also wenig Verdunstungskälte, siehe Grafiken im Artikel

Langzeitreihen des Monats: Wir betrachten nun den Zeitraum ab 1893 bis heute, also 133 Jahre März einst im Kaiserreich bis heute und unterteilen die Märzgrafik in 2 Abschnitte, vor 1988 und danach. Aus zwei Gründen: Zum einen trat der selbst ernannte Weltklimarat mit seinen CO₂-Erwärmungsverheißungen zum ersten Male 1988 an die Öffentlichkeit, außerdem erfolgte in Mitteleuropa von 1987/88 ein plötzlicher Temperatursprung auf ein höheres Temperaturniveau, auf dem wir uns noch heute befinden.

Abb. 1: Fast 100 Jahre lang war der März in Deutschland ausgewogen, er zeigte laut DWD-Originaldaten einen leicht fallenden Trend, trotz einiger wärmerer oder kälterer Jahrzehnte. Der Temperatursprung 1987/88 beträgt über 1 Grad.

Nun ist jedem Leser bekannt, dass sich Deutschland seit 1893 bis heute sehr stark verändert hat, die Wetterstationen stehen nicht mehr an den kälteren Plätzen wie früher. Zu Zeiten des Kaiserreiches war deren Standort bevorzugt bei unbeheizten Klöstern, bei großen Gutshöfen in der Natur, bei Forsthäusern am Waldrand, jedenfalls nicht dort wo die Stationen heute stehen, in warmen Siedlungen, am Stadtrand, in Gewerbegebieten oder an Flughäfen.

Wir erkennen:

1) Mit einer Wärmeinselbereinigung und Korrektur der DWD-Daten würde die (blaue) Trendlinie von 1897 bis 1987 sogar noch negativer sein. Und die anschließende starke Erwärmung ab 1988 um fast 0,2 K/Jahrzehnt bis heute etwas schwächer ausfallen. Insgesamt jedoch würde der Gesamtverlauf so bleiben. Frage: Ist dies der Grund, weshalb die Forsythie in der Hamburger Innenstadt nicht früher blüht? Ist das Bisschen an tatsächlicher Erwärmung am Standort gar nicht relevant für die Pflanze?

2) Temperatursprung: Der Frühlingsmonat zeigt von 1987 auf 1988 einen kräftigen Temperatursprung von weit über einem Grad, danach eine Weitererwärmung bis heute.

Dazu muss man wissen: Im Zeitraum der letzten 140 Jahre hat die CO₂-Konzentration laut Behauptung der bezahlten CO₂-Klimawissenschaft von einst 284 ppm auf 426 ppm, also um 142 ppm stetig zugenommen

Das zeigen wir in der nächsten Grafik

Abb. 2a: Steiler und stetiger CO₂-Anstieg in der Atmosphäre, vor allem seit 1960

Erkenntnis: Der plötzlich wärmere März ab 1988 ist mit der Erklärung eines angeblichen CO₂-Treibhauseffektes nicht möglich. CO₂ kann keinen Dauerschlaf halten, dann 1988 durch die Gründung des Weltklimarates aufgeweckt werden, und schlagartig eine Stark-Erwärmung entfalten.

Solche variablen Gaseigenschaften angeblicher Treibhausgase gibt es nicht. Sie werden nirgendwo an Unis gelehrt oder in Physikbüchern beschrieben.

Keine Korrelation mit dem CO₂-Anstieg: Geradezu eine Antikorrelation entsteht, wenn man im starken CO₂-Anstiegszeitraum ab 1959 nur die nächtlichen T-Min Temperaturen des Monates März aufträgt. Laut Treibhaustheorie des RTL-Klimaexperten Häckl soll der Treibhauseffekt nachts doch viel stärker wirken!!! Siehe RTL-Häckl im Oktober 2020. (Oder im Original hier)

Abb. 2b: Die CO₂-Atmosphäenkonzentrationen haben seit 1959 stark zugenommen, die nächtlichen T-Min-Märztemperaturen zeigen seit 40 Jahren keinen Anstieg mehr. Seit 1988 sogar einen leichten Rückgang von 0,2°C/Jahrzehnt.

Der Deutsche Wetterdienst zeigt mit seinen Märzdatenreihen, dass keine erkennbare CO₂-Erwärmungswirkung vorliegen kann. Denn diese müsste stetig verlaufen. Es gibt keine Korrelation zwischen CO₂-Anstieg und DWD-Temperaturreihen des Monats März.

Wir haben wissenschaftlich nachgewiesen: Das Treibhauserwärmungsmodell der bezahlten Wissenschaft und der Politik ist ein Geschäftsmodell. Es handelt sich um eine bewusst geplante Panikmache, die unser Geld will.

Nebenbei: Wir bestreiten nicht, dass es Gase gibt, die im IR-Bereich Strahlungen absorbieren und emittieren. Aber entsteht dabei eine erkennbare Erwärmung der Lufthülle? Ist CO₂ der bestimmende Temperaturregelknopf wie die linksgrüne Paniksekte behauptet? Die Messdaten des Deutschen Wetterdienstes sagen NEIN!!

Wir müssen deswegen nach anderen Erklärungsmustern der plötzlichen Erwärmung seit 1988 suchen.

Die richtige Erklärung: wir finden 8 Gründe der Märzerwärmung seit 1988

1) Natürliche Ursachen: Rein statistisch haben die Südwestwetterlagen im März zugenommen und die nördlichen und östlichen Wetterlagen abgenommen. Das zeigt u.a. die Zunahme des Saharastaubes, der mit Süd- und Südwestwind zu uns getragen wird.

2) Die Zunahme der Sonnenstunden: Mit der Drehung der Windrichtung auf mehr südlichen Wetterlagen haben die März-Sonnenstunden insgesamt zugenommen. Aber auch ein positives Ergebnis der gesetzlichen Luftreinhaltemaßnahmen. Mehr Sonnenstunden ist tagsüber einerseits eine natürlich Erwärmung, andererseits wird dadurch auch die Höhe des Wärmeinseleffektes gesteigert. Der WI-effekt ist deshalb seit 1988 stärker angewachsen, als im Zeitraum bis 1987

Abb. 3a: Die Märzsonne hat wesentlich zu einem Anstieg der Märztemperaturen beigetragen, vor 1987 nahmen die Sonnenstunden ab.

Abb. 3b: Seit 1951 werden die Sonnenstunden erfasst, erst Abnahme, dann Zunahme

3) Der Wärmeinseleffekt (WI): Die Standorte der DWD-Stationen sind aufgrund der Bebauung wärmer geworden, sie sind vor allem nach der Einheit stark angestiegen, schon deswegen, weil die Sonnenstunden zugenommen und die Niederschläge abgenommen haben. WI-effekte sind auch abhängig von den Sonnenstunden.

bnehmende Niederschläge und damit weniger Kühlung

Abb. 4: Der Boden, vor allem die asphaltierten Flächen Deutschlands bleiben länger trocken, die Verdunstungskälte hat sich deutlich verringert im März der letzten 38 Jahre.

Flächenversiegelungszähler: Stand: ca. 51 000 km². Täglich kommen ca. 45 ha dazu.

6) Der steigende Energieverbrauch in Deutschland: Energie wird nicht verbraucht, sondern umgewandelt, am Schluss aller Wandlungsketten entsteht Wärme, welche die Landschaft Deutschland großflächig aufheizt. Auch aus Fotovoltaik und Windrädern erzeugter Strom führt am Schluss der Umwandlungskette zu mehr Wärme.

7) Eine statistische Erwärmung. Die Erfassung in der Wetterhütte wurde abgeschafft und der Tagesdurchschnitt nach ganz anderen Methoden erfasst. Zudem wurden viele Wetterstationen durch Tausch an wärmere Plätze verlegt. Vor allem nach der Jahrtausendwende hat der Tausch auch aufgrund der Vereinheitlichung der DWD-Normen stark zugenommen. Diese statistische Erwärmung dürfte nun abgeschlossen sein.

8) Nebenbei: Die Windhäufigkeit und damit die kühlenden Verdunstung hat allgemein seit 1988 abgenommen wie Stefan Kämpfe in seinen Artikeln beschrieben hat. Schlecht für die Windräder und deren Zappelstrom

Abb. 5: Seit dem Ausbau der Windkraftanlagen in Norddeutschland nimmt dort die Windstärke ab. Ist das nur eine Zufallskorrelation oder ist die nachlassende Windstärke bereits eine Auswirkung der vielen Windräder? Auf alle Fälle nimmt die Stromerzeugung durch Windräder ab.

Fazit: Eine teure CO₂-Einsparung wie sie die Politik in Deutschland inzwischen im Grundgesetz verankert hat, ist somit völlig wirkungslos auf das Temperaturverhalten im März. Diese Politik auch unter der Bezeichnung „Kampf dem CO₂-Klimawandel“ schadet unserem Land und das Geschäftsmodell Klimahysterie will unser Geld. Ein Abzockemodell, das dem Klima nichts nützt und mit den angeblichen Schutzmaßnahmen Natur und Umwelt nachhaltig zerstört.

Merke: den angenehmen Temperatursprung im Jahre 1987/88 mit Weitererwärmung gab es nur bei uns in Mittel- West- und Nordeuropa. Andere Länder der Welt haben diesen Klimawärmesprung und die anschließende Weitererwärmung gar nicht mitbekommen, siehe nächste Grafik.

Abb. 6: In Virginia/USA gab es keinen Temperatursprung im Jahr 1987/88 und auch keine anschließende Weitererwärmung. Deshalb ist die März-Trendlinie auch leicht fallend geblieben

Wir brauchen mehr CO in der Atmosphäre

Eine positive Eigenschaft hat die CO-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO-gehalt der Atmosphäre liegt etwa bei 800 bis 1200ppm, das sind etwa 0,1%. Nicht nur für das Pflanzenwachstum, sondern auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO in der Luft. Viele Untersuchungen bestätigen dies. Und vor allem dieser Versuchsbeweis.

Kohlenstoffdioxid ist überhaupt kein Klimakiller und schon gar kein Giftstoff. Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO vermindern will, versündigt sich gegen die Schöpfung dieses Planeten. Konkret: Diese wissenschaftliche Tatsache sollte endlich Eingang in die Politik, vor allem in die Kirchenpolitik finden, denn gerade die beiden großen Religionen in Deutschland haben sich den Erhalt der Schöpfung ins Stammbuch geschrieben.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlich erlaubten Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Ebenso gegen die panikverbreitende Politik und Medien. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert – ausführlich hier beschrieben. Nur mit dem Unterschied, dass man uns das Geld automatisch in Form von Steuern aus der Tasche zieht. Ein Aufstand der Anständigen ist unbedingt erforderlich.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klimaangst-Schwätzern wie z.B. die Professoren Quaschnig/Lesch/Rahmstorf/Schellnhuber/Latif und anderen von uns in der Politik agierenden und teuer bezahlten fabulierenden Märchenerzählern mit ihren stets neuen Hiobsbotschaften. Deren Taktik ist die pure Angstmache, dafür sind die Deutschen anfällig. Mit Angst lässt sich ein Volk, insbesondere die Deutschen leichter in die Irre führen.

Wir alle sind aufgerufen, jeder auf seinem Weg und nach seinem Können die derzeitige Klima-Panikmache und die Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen. Ein Umdenken in der Bevölkerung und bei den Kirchen ist schnellstens erforderlich, um den völlig unsinnigen CO₂-Reduzierungsmaßnahmen der linksgrünen Klimapolitik ein Ende zu bereiten.

Wir setzen uns aktiv für Natur- und Umweltschutz ein, Klimaschutz hat damit überhaupt nichts zu tun. Die von der linksgrünen Meinungs-Diktatur durchgeführten Klimaschutzmaßnahmen schaden der Natur oft nachhaltig. Überhaupt sind die Grünen seit gut 2 Jahrzehnten überhaupt keine Natur- und Umweltschutzpartei mehr, sondern eine Gefahr für unsere Demokratie.

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

 




Behauptung: Erneuerbare Energien sind wegen der Brennstoff-Volatilität billiger

Roger Caiazza

Auf die Frage nach der Erschwinglichkeit haben die Befürworter des New York Climate Leadership & Community Protection Act (Climate Act) behauptet, dass die Entwicklung erneuerbarer Energien die Kosten senken kann. Dieser Artikel geht auf ihr Argument ein, dass erneuerbare Energien durch die geringere Volatilität der Brennstoffpreise billiger werden.

Die öffentliche Anhörung des Energieausschusses der New Yorker Versammlung am 18. Dezember 2024 ermöglichte es den Abgeordneten, Mitarbeiter der New York State Energy Research & Development Authority (NYSERDA) und des New York State Department of Public Service (DPS) zu den Fortschritten des Climate Act zu befragen. Jessica Waldorf, Chief of Staff & Director of Policy Implementation, DPS, wurde gefragt, welche Auswirkungen die Reduktion der Treibhausgasemissionen durch das Klimagesetz haben würde, da die Emissionen in New York geringer sind als der beobachtete jährliche Anstieg der weltweiten Treibhausgas-Emissionen. Waldorf sagte, dass es andere Gründe gebe, „erneuerbare Energiequellen in New York zu schaffen, die nicht nur mit den Emissionen zusammenhängen“. Sie nannte zwei Gründe: Energiesicherheit und Preisvolatilität.

Die andere Sache, die ich zur Energiesicherheit sagen würde, ist die Preisvolatilität. Die Kunden sind den Launen der fossilen Brennstoffindustrie und dem Auf und Ab der Märkte für fossile Brennstoffe ausgeliefert. Die Lokalisierung unserer Energieerzeugung und der erneuerbaren Energien ermöglicht uns Preisstabilität. Das ist definitiv ein Vorteil, wenn wir hier Ressourcen aufbauen.

Die Behauptung wurde auch auf einer Sitzung des Planungsausschusses für den Energieplan des Bundesstaates New York am 3. März 2025 zur Verabschiedung des Umfangs des staatlichen Energieplans aufgestellt. Die Präsentation von Jeff Freedman vom Atmospheric Sciences Research Center, University at Albany, Albany, New York, enthielt die folgende Folie, in welcher die Behauptung aufgestellt wird, dass erneuerbare Energien die Kosten senken können:

Ein Merkmal der NYSERDA-Dokumentation ist der Mangel an Details, so dass es nicht überrascht, dass die Begründung für die Behauptung nicht ohne weiteres nachvollziehbar ist. Tabelle 6-1 befand sich im New York State Climate Impacts Assessment, Kapitel 06: Energie. In diesem Kapitel wird nicht speziell auf die Kosten für erneuerbare Energien eingegangen.

Energiekosten: Die Preise für fossile Brennstoffe sind zunehmend volatil, vor allem weil sie auf den Weltmärkten gehandelt werden. Im Gegensatz dazu könnte ein Stromsektor, der sich aus großen Mengen erneuerbarer Ressourcen zusammensetzt, die keine Brennstoffkosten verursachen, zu weniger schwankenden Energierechnungen führen, da dieser Treiber für die Variabilität der Energiekosten wegfällt. Das Vorhandensein von dezentralen Ressourcen verstärkt diesen Effekt. Unabhängig davon, ob die Kosten eines sauberen Energiesektors niedriger, vergleichbar oder höher als der Status quo sind, werden sie besser vorhersehbar sein und weniger wahrscheinlich indirekte Kosten verursachen, die aus unerwarteten Preisänderungen resultieren.

In diesem Artikel wird davon ausgegangen, dass die Behauptung, erneuerbare Energien seien billiger und weniger volatil, darauf beruht, dass ein von erneuerbaren Energien abhängiges Stromsystem weniger instabile Brennstoffkosten hat, was zu billigerer und sicherer Energie führt. Dies wiederum beruht auf zwei Annahmen: Die Brennstoffpreise sind aufgrund der globalen Märkte volatil, und die erneuerbaren Energien würden diesen Kostentreiber ausschalten.

Treibstoff-Volatilität

Die US Energy Information Administration (EIA) stellte im Juni 2024 fest, dass sich die Volatilität der Preise für fossile Brennstoffe im Laufe der Zeit deutlich verändert hat, wobei in den letzten Jahren eine besonders hohe Volatilität zu verzeichnen war: „Im Jahr 2022 erreichte die Volatilität der Erdgaspreise extreme Werte, wobei die historische Volatilität im Februar 2022 mit 171 % den höchsten Wert seit mindestens 1994 erreichte.“ Man beachte, dass die EIA nur über die Volatilität von Erdgas spricht, das in den letzten Jahren zu einer viel wichtigeren Brennstoffquelle für die Stromerzeugung geworden ist. Meiner Meinung nach könnte die zunehmende Abhängigkeit von einem einzigen Brennstoff der Hauptgrund für den beobachteten Anstieg der Volatilität sein.

In jedem Fall ist das Argument der New Yorker Agentur mit dem globalen Markt nur ein Grund für die Volatilität der Brennstoffpreise. Die EIA nannte im August 2022 weitere Gründe für die Schwankungen beim Erdgas:

Die zunehmende Ungewissheit über die Marktbedingungen, die sich auf Angebot und Nachfrage von Erdgas auswirken, kann zu einer hohen Preisvolatilität führen. Zu den Ereignissen, die zu veränderten Marktbedingungen beigetragen haben, gehören:

– Produktionsstopps

– Unwetter

– Ungeplante Wartungsarbeiten und Ausfälle von Pipelines

– Erhebliche Abweichungen vom normalen Wetter

– Änderungen der Lagerbestände

– Verfügbarkeit von Ersatzbrennstoffen

– Änderungen bei Importen oder Exporten

– Andere plötzliche Veränderungen der Nachfrage

Die Erdgaspreise in den USA sind in der Regel im ersten Quartal eines Jahres volatiler, da die Nachfrage nach Erdgas für die Raumheizung aufgrund von Wetterveränderungen schwankt. Zu den Faktoren, die in den ersten drei Monaten dieses Jahres zu einer erhöhten Volatilität beitrugen, gehören:

– Witterungsbedingte Schwankungen der Erdgasnachfrage

Rückläufige Erdgasproduktion im Januar und Februar

– Rückgang der Erdgasvorräte in den 48 US-Bundesstaaten

Rekordausfuhren von verflüssigtem Erdgas (LNG) aus den USA nach Europa, die dazu beitragen, die geringeren Erdgaslieferungen aus Russland auszugleichen.

Von den acht Ereignissen, die zur Veränderung der Marktbedingungen und der Kraftstoffvolatilität beitragen, steht nur eines in Zusammenhang mit den globalen Marktbedingungen.

Es gibt einen weiteren Aspekt der Volatilität. Im heutigen Stromsystem steigen die Preise, wenn die Last während der heißesten und kältesten jährlichen Ereignisse Spitzenwerte erreicht. Wenn das Stromnetz von wetterabhängigen Wind- und Solarenergiequellen abhängig wird, werden die Preise auch dann in die Höhe schnellen, wenn es eine Flaute bei den Ressourcen gibt. Dieser Effekt wird sich noch verstärken, wenn die beiden Ereignisse zusammenfallen. Ich glaube, dass diese Volatilität häufiger und ebenso stark, aber für kürzere Zeiträume auftreten wird als die durch globale Ereignisse verursachte Volatilität der Treibstoffpreise.

Die Erfahrungen in Europa

Wenn die Behauptung der Brennstoff-Volatilität jedoch stimmt, dann sollten die Befürworter in der Lage sein, auf Länder zu verweisen, in denen Wind- und Solarenergie sowie Energiespeicherung die Strompreise billiger gemacht haben. Das beste Beispiel für die Behauptung, dass erneuerbare Energien billiger sind, weil sie die Brennstoffvolatilität verringern, dürfte Deutschland sein. Die Öl-, Kohle- und Gaspreise sind unmittelbar nach dem Einmarsch Russlands in die Ukraine in die Höhe geschnellt und schwanken seither ununterbrochen. Die deutsche Energiewende ist der geplante Übergang des Landes zu einer kohlenstoffarmen, atomfreien Wirtschaft und wird oft als Beispiel dafür angeführt, was New York tun sollte. Enerdata berichtet, dass nach Angaben der Bundesnetzagentur die installierte Leistung der erneuerbaren Energien in Deutschland um fast 20 GW (+12 %) auf fast 190 GW im Jahr 2024 steigen wird. Wenn die Behauptung der Befürworter stimmt, sollten die Preise tendenziell sinken. Seit dem Jahr 2000 sind die Strompreise für deutsche Haushalte jedoch um 116 % gestiegen, und zwar von 13,94 auf 30,43 Cent pro Kilowattstunde im Jahr 2019. Zum 1. April 2024 zahlen Haushalte mit Grundversorgungsvertrag rund 46 Cent pro Kilowattstunde und sind damit „die teuerste Variante im Vergleich zu anderen Anbietern oder Sonderverträgen“.

Eine andere Möglichkeit, die Behauptung zu überprüfen, ist ein Vergleich der Strompreise innerhalb der Europäischen Union. Ich empfehle den Nemeth-Bericht für seine Berichterstattung über europäische Energiefragen. Der BeitragEU-Aktionsplan für erschwingliche Energie enthält genau einen solchen Vergleich. Darin wird Ursula von der Leyen, die Präsidentin der Europäischen Kommission, mit den Worten zitiert: „Wir treiben die Energiepreise nach unten und die Wettbewerbsfähigkeit nach oben. Wir haben die Energiepreise in Europa bereits deutlich gesenkt, indem wir die erneuerbaren Energien verdoppelt haben.“

Die Daten in der folgenden Abbildung stützen ihre Behauptung jedoch in keiner Weise:

Aus der Analyse geht hervor:

Man beachte, dass der Durchschnittspreis für Haushalte einen großen Unterschied aufweist zwischen EU-Ländern, die Kohle, Kernkraft und Gas nutzen, und solchen, die sich auf Wind- und Solarenergie konzentriert haben. Wie aus der obigen Grafik hervorgeht, lag beispielsweise der Strompreis in Ungarn laut Statista im Jahr 2023 bei 9,68 Eurocents/kwh (50 % des Stroms stammen aus Kernkraft, 38 % aus Kohle und Gas) und Bulgarien, das hauptsächlich auf Kohle und Kernkraft setzt, lag bei 11 Eurocents/kwh, während Deutschland, das auf erneuerbare Energien gesetzt hat (und seine Kernkraftwerke abgeschaltet hat), mit 44,97 Eurocents/kwh den höchsten Preis hatte und Dänemark, das eine kleine Bevölkerung und viele Windräder hat, bei 39,44 Eurocents/kwh lag!

Es kommt auf die Datenquellen und das Jahr der Daten an. Eurostat verwendet Zahlen aus dem ersten Quartal 2024, die einige der Länder neu ordnen, aber das Gesamtargument, dass Länder, die „doppelt auf erneuerbare Energien setzen“ und andere schlechte Entscheidungen wie die Abschaltung von Kernkraftwerken und/oder Kohle getroffen haben, höhere Preise zu verzeichnen hatten, wird weiterhin unterstützt.

Diskussion

Roger Pielke, Jr. veröffentlichte kürzlich einen Artikel über die Politisierung von Fachwissen, der hier von Bedeutung ist. Er argumentiert, dass die Gesellschaft auf das Fachwissen von Spezialisten in vielen Bereichen angewiesen ist – „Niemand weiß genug, um die Regierung zu führen“. Folglich braucht die Gesellschaft uns alle. Er erklärt: „Wir müssen nicht in allen Fragen einer Meinung sein, aber wir müssen zusammenarbeiten“. Dann weist er darauf hin, dass „in den letzten Jahren das Fachwissen – wie viele andere Dinge auch – pathologisch politisiert worden ist“.

Dies zeigt die Politisierung der Umsetzung des Climate Act unter der Leitung von NYSERDA. Die Redner auf dem Treffen wurden sorgfältig ausgewählt, um die Darstellung der Hochul-Regierung zu unterstützen, dass mit dem Climate Act alles in Ordnung sei. Nehmen wir zum Beispiel die Präsentation von Jeff Freedman vor dem Planungsausschuss. Sein Hauptforschungsschwerpunkt liegt auf „erneuerbaren Energien und atmosphärischen Grenzschichtprozessen (ABL)“, so dass seine Vorliebe den erneuerbaren Energien gilt. Er hat keine Erfahrung im Energiesektor, die ihn zu der Behauptung qualifiziert, dass „erneuerbare Energien die Kosten senken können“.

Die New Yorker Behörden sind verpflichtet, die Kommentare der Aktionäre bei der Erarbeitung von Rechtsvorschriften zu berücksichtigen. Leider tun sie dies nur auf dem Papier. Anstatt den Prozess als Chance zur Verbesserung des Produkts zu nutzen, wird er als Verpflichtung behandelt. Mein Problem dabei ist, dass, wenn jemand spezifische Kommentare abgibt oder bestimmte Probleme mit seiner Arbeit anspricht, es keine Unterlagen gibt, die belegen, dass die Vorlage behandelt wurde, und dass nichts enthalten ist, um auf das angesprochene Problem zu reagieren. Zum Beispiel war die Behauptung, dass erneuerbare Energien die Kosten senken können, in Freedmans Präsentation nicht dokumentiert. Ich zweifle nicht daran, dass die NYSERDA die Scharade fortsetzen wird, dass erneuerbare Energien die Kosten senken können und dass die Kosten der Untätigkeit schlimmer sind als die Kosten des Handelns. Sie haben nie auf die damit zusammenhängenden Fragen geantwortet und werden dies auch weiterhin tun, solange sie damit durchkommen können. Meiner Meinung nach ist dies ein weiteres Beispiel für pathologisch politisiertes Fachwissen von NYSERDA, weil sie so arrogant sind, dass sie es nicht für nötig halten, auf Kommentare von Interessengruppen zu reagieren.

Schlussfolgerungen

Das größte Hindernis für einen Netto-Null-Umstieg weg von fossilen Brennstoffen sind die unvermeidlichen außerordentlichen Kosten für die Umsetzung. In New York hat sich die Hochul-Regierung seit der Verabschiedung des Klimagesetzes vor diesem Thema gedrückt. Sie kann die Realität nur eine bestimmte Zeit lang ausblenden. Die Frage ist, ob die Probleme im Zusammenhang mit der Netto-Null-Umstellung angegangen werden, bevor New Yorks Wirtschaft ernsthaft gefährdet ist.

Wenn Sie in der Zwischenzeit jemanden sagen hören, dass erneuerbare Energien die Kosten senken können, fragen Sie ihn bitte, warum die Strompreise in Deutschland so hoch sind, oder nennen Sie ein Beispiel für ein Land, das sein Stromsystem umstellt und die Kosten für die Steuerzahler gesenkt hat, wenn es die Strategie der erneuerbaren Energien nutzt, um das Stromnetz mit Wind- und Sonnenenergie und Energiespeichern zu versorgen.

Roger Caiazza blogs on New York energy and environmental issues at Pragmatic Environmentalist of New York.  He has been a practicing meteorologist for nearly 50 years, was a Certified Consulting Meteorologist, and has B.S. and M.S. degrees in meteorology.  The opinions expressed in this post do not reflect the position of any of his previous employers or any other organization he has been associated with.

Link: https://wattsupwiththat.com/2025/03/28/claim-renewables-are-cheaper-because-of-fuel-volatility/

Übersetzt von Christian Freuer für das EIKE

 




Plattentektonik und Klima im Känozoikum

Andy May

In diesem Beitrag untersuche ich die Proxies, die zum Vergleich von CO₂ und Temperatur von vor 66 Millionen Jahren (Ma) bis heute verwendet worden sind, und kommentiere die Qualität des Vergleichs. Außerdem befassen wir uns mit den plattentektonischen Ereignissen im Känozoikum, die das globale Klima beeinflusst haben. In Abbildung 1 wird der d18O-Wert der Tiefsee von Westerhold et al. (die Sauerstoff-18-Isotopenanomalie, ein Temperaturproxy) mit dem d13C-Wert (die Kohlenstoff-13-Isotopenanomalie) verglichen; beide Messungen stammen von den gleichen Fossilien, so dass sie direkt verglichen werden können. Eines der Probleme bei vielen Temperatur/CO₂-Diagrammen ist, dass sie oft aus unterschiedlichen Quellen und Orten stammen und aufgrund von Datierungsfehlern und unterschiedlichen zeitlichen Auflösungen nicht direkt vergleichbar sind. Auch wenn d13C keine direkte CO₂-Schätzung ist, so steht es doch im Zusammenhang mit der CO₂-Konzentration in der Tiefsee. Die Schätzungen der CO₂-Konzentration in der Atmosphäre und im Ozean werden in Abbildung 2 mit d13C verglichen.

Abbildung 1. Die d18O-Temperatur der Tiefsee in blau im Vergleich zu den d13C-Proxies in orange für das Känozoikum. Sowohl die Temperatur als auch d13C nehmen nach oben hin zu. Daten aus (Westerhold, et al., 2020).

Wichtige plattentektonische Ereignisse sind in Abbildung 1 vermerkt, und eine Umrechnung von d18O in die Tiefseetemperatur ist in blau auf der linken Seite angegeben. Die höchsten Temperaturen im Känozoikum stammen aus dem frühen Eozän (~56-48 Ma), als die Tiefseetemperatur um mehr als 12 °C höher lag als heute. Dies ging mit einem dramatischen Rückgang des CO₂-Gehalts in der Tiefsee einher. Wie bereits erwähnt, ist d13C kein Schätzwert für die CO₂-Konzentration, steht aber in Beziehung zu ihr. Proxy-Schätzungen von CO₂ aus Rae et al. werden in Abbildung 2 mit Westerholds d13C-Schätzungen verglichen:

Abbildung 2. Westerholds d13C im Vergleich zu Raes CO₂-Konzentration für das Känozoikum. Die d13C-Daten stammen aus (Westerhold, et al., 2020) und die CO₂-Proxydaten aus (Rae, et al., 2021). Die beiden Werte messen unterschiedliche Dinge und sind unabhängig.

Die Übereinstimmung in Abbildung 2 ist nicht groß, und beide Datensätze haben Probleme, aber die Ähnlichkeiten in den Trends sind offensichtlich. Die von Rae et al. berichteten Schätzungen der CO₂-Konzentration sind diskontinuierlich und stammen von einer Vielzahl von Proxies, die von vielen verschiedenen Autoren mit vielen verschiedenen Techniken datiert wurden. Aus der Streuung wird deutlich, dass die Annahme, dass CO₂ weltweit gleichmäßig verteilt ist, auf dieser komprimierten Zeitskala nicht zutrifft. Man beachte, dass das PETM-Ereignis (Paleozän-Eozän-Thermal-Maximum), die Kohlenstoff-Isotopen-Exkursion (CIE) bei ~56 Ma, in beiden Aufzeichnungen dramatisch auffällt. Diese große Divergenz im Verhältnis von Kohlenstoff-13 zu Kohlenstoff-12 ist ein auffälliges globales Phänomen in den Gesteinsaufzeichnungen und ein zuverlässiger geologischer Zeitmarker, der zwischen 55,6 und 55,4 Ma auftrat. Mögliche Gründe für den CIE und das PETM werden hier diskutiert. Dieses geologische Ereignis und die darauf folgende Warmzeit stellen das dramatischste klimatische Ereignis im Känozoikum dar.

Ein wichtiges Ereignis zu Beginn des PETM, zwischen 56 und 55,6 Ma, war der Vulkanismus der Nordatlantischen Igneous Province oder „NAIP“. Dabei handelte es sich um eine riesige Serie von Vulkanausbrüchen, die mit der Öffnung des Nordatlantiks einhergingen und über 5 km Lava zwischen Grönland und Nordeuropa verteilten (Stokke, et al., 2020). Dadurch wurde die Nordsee fast zu einem See. Doch unabhängig von den Gründen für das PETM und das frühe Eozän-Klimaoptimum (EECO, ~56-48 Ma) sind sie in den Gesteinsaufzeichnungen deutlich erkennbar und in geologischen Abschnitten überall auf der Welt leicht zu identifizieren.

Nach dem EECO beginnen die Tiefseetemperaturen einen langen Rückgang. Zunächst steigt der CO₂-Gehalt an, doch zu Beginn des Oligozäns beginnt er zu sinken, wobei der Rückgang im mittleren Miozän noch dramatischer wird.

Wichtige plattentektonische Ereignisse im Känozoikum

Während des PETM und in der darauf folgenden Warmzeit waren die Kontinente wie in Abbildung 3 dargestellt angeordnet:

Abbildung 3. Die Konfiguration der Kontinente 56 Ma. Quelle: Christopher Scotese, 2019. Die weiße Linie zeigt die Verbindung zwischen allen Ozeanen in niedrigen Breitengraden, und der Text oben wurde vom Autor hinzugefügt.

Man beachte, dass alle Ozeane durch einen Seeweg in den unteren und mittleren nördlichen Breiten verbunden sind, der mit einer weißen Linie markiert ist. Indien bewegt sich durch den Indischen Ozean und ist auf dem Weg, mit Asien zusammenzustoßen. Die Arktis ist wahrscheinlich durch Land isoliert, und der Südliche Ozean ist durch Landmassen blockiert, die Südamerika und Australien mit der Antarktis verbinden. Dies ist die wärmste planetarische Konfiguration und die EECO, die sowohl von Christopher Scotese (Scotese, Song, Mills, & Meer, 2021) als auch von Westerhold et al. als „Treibhausklima“ eingestuft wird. Bei Treibhausklimata liegen die globalen Durchschnittstemperaturen (Land und Ozean) über 20 °C, und es gibt an beiden Polen kein ganzjähriges Eis.

Die arktischen Meerestemperaturen (SST) während der EECO könnten 24°C erreicht haben. Die Schätzungen der heutigen globalen durchschnittlichen SST variieren ein wenig, aber HadSST4 schätzt einen globalen Durchschnitt von etwa 20,5 °C und NOAA schätzt etwa 19,7 °C, so dass die arktische SST-Temperatur während des EECO wahrscheinlich 4 °C höher war als der heutige globale Durchschnitt.

Das nächste große Ereignis ist die Kollision zwischen Indien und Asien, die zwischen 46 und 44 Ma stattfindet (siehe Abbildung 4). Die Kollision begann bereits vor 59 Mio. Jahren, aber marine Fossilien in Himalaya-Sedimenten verschwinden erst ab 45 Mio. Jahren (Hu et al., 2016).

Abbildung 4. Indien kollidiert mit Asien. Quelle: Chris Scotese, 2019. Kreis und Text vom Autor hinzugefügt.

Diese Kollision geht mit einer leichten Abkühlung und einem Anstieg des CO₂ einher. Wenn der Himalaya nach dieser Kollision wächst, beginnt er planetarische Wellen (genauer gesagt orografische Schwerewellen) zu verursachen, die das Wetter der nördlichen Hemisphäre dramatisch beeinflussen können (Trenberth & Chen, 1988) und (Kuchar, et al., 2022). Planetarische Wellen wirken sich auf den Nordpolarwirbel aus, der das Winterwetter der nördlichen Hemisphäre maßgeblich bestimmt.

Das nächste große Ereignis ist die Öffnung der Drake-Passage, die den Südlichen Ozean rund um die Antarktis verbindet. Dieses Ereignis vollzieht sich sehr allmählich, scheint aber, wie in Abbildung 5 dargestellt, um 34 Ma abgeschlossen zu sein. Wie bei den meisten Öffnungen oder Schließungen von Ozeanpassagen ist es schwer, den genauen Zeitpunkt zu bestimmen, und die Schätzungen über den Zeitpunkt der Öffnung schwanken zwischen 49 und 17 Ma. Das antarktische Eis begann um 44 Mio. zu wachsen, und um 34 Mio. ist die Eiskappe vollständig. Dies fällt mit einem dramatischen Rückgang der globalen Temperatur und einem Rückgang des CO₂-Gehalts zusammen.

Abbildung 5. Die Drake-Passage öffnet sich und verbindet das gesamte Südpolarmeer. Quelle: Chistopher Scotese, 2019b.

Das nächste große Ereignis ereignet sich um 31 Ma, als das östliche Mittelmeer vom Indischen Ozean abgeschnitten wird (siehe Abbildung 6). Der Zeitpunkt der Abtrennung des Mittelmeers vom Indischen Ozean wird oft diskutiert und könnte bis zu 14 Mio. Jahre zurückliegen. Wir bevorzugen einen früheren Zeitpunkt, irgendwann zwischen 31 und 24 Mio. Jahren. Die Sedimentologie deutet darauf hin, dass das späteste mögliche Datum für die Schließung 24 Ma war.

Abbildung 6. Die Schließung des östlichen Mittelmeers. Quelle: Chris Scotese, 2019.

Als Nächstes, um 17 Ma, öffnet sich der Nordatlantik vollständig und verbindet sich mit der Arktis. Panama beginnt sich wahrscheinlich zu diesem Zeitpunkt zu schließen und schränkt die Verbindung zwischen dem Atlantik und dem Pazifik ein, und das westliche Mittelmeer schließt sich bei Spanien. Der westliche Mittelmeerraum könnte sich erst ab 6 Ma geschlossen haben, aber mit Sicherheit war er ab 17 Ma stark eingeschränkt. Diese Ereignisse fallen mit einem dramatischen Rückgang der globalen Temperaturen und des CO₂ in der Tiefsee zusammen. Die Ereignisse sind in Abbildung 7 eingekreist. Die Öffnung des Nordatlantiks ist mit etwa 13 Mio. Jahren abgeschlossen, die vollständige und dauerhafte Schließung Panamas ist erst mit etwa 3 Mio. Jahren erreicht.

Abbildung 7. Der Nordatlantik beginnt sich zu öffnen, Panama beginnt sich zu schließen, und Spanien verbindet sich mit Marokko. Quelle: Chris Scotese, 2019.

Diese sehr dramatischen Ereignisse fallen mit einem steilen Temperatur- und CO₂-Abfall zusammen, der das klimatische Optimum des Mittel-Miozäns beendet. Die Schließung des Isthmus von Panama nimmt viel Zeit in Anspruch, und der genaue Zeitpunkt der Schließung ist Gegenstand vieler Debatten (Coates & Stallard, 2013), aber die Schließung ist mit Sicherheit um 3 Ma abgeschlossen, wie in Abbildung 8 gezeigt:

Abbildung 8. Panama schließt sich. Quelle: Chistopher Scotese, 2019b. Die endgültige Schließung des Panama-Seewegs fällt mit einem dramatischen Rückgang der globalen Temperatur zusammen, während wir in das pleistozäne Eiszeitalter eintauchen.

Schlussfolgerungen

Langfristige Klimaveränderungen haben viele Ursachen, aber einer der wichtigsten Faktoren ist die Plattentektonik und die Kontinentalverschiebung. Wenn die Kontinente und Ozeane wie heute in Nord-Süd-Richtung ausgerichtet sind, was die West-Ost-Luftströmung (zonale Luftströmung) einschränkt und die Nord-Süd-Luftströmung (meridionale Luftströmung) begünstigt, ist die Welt kälter. Das Gegenteil ist der Fall, wenn die West-Ost-Strömung durch offene Ozeanverbindungen in den mittleren und niedrigen Breiten gefördert wird, wie in Abbildung 3 dargestellt.

Ein weiterer wichtiger Einfluss auf den langfristigen Klimawandel sind die Milankovitch-Zyklen (siehe auch hier). Der Einfluss der Plattentektonik auf den Klimawandel ist sehr langfristig, in der Größenordnung von mehreren zehn Millionen Jahren, während die Milankovitch-Zyklen in der Größenordnung von Hunderttausenden von Jahren wirken. Kürzere Veränderungsperioden hängen normalerweise mit Veränderungen in der Sonne selbst zusammen, die in Zeiträumen von weniger als ein paar tausend Jahren ablaufen.

In der Westerhold-Studie, aus der die hervorragenden Daten in Abbildung 1 stammen, stellten die Autoren eine starke Korrelation zwischen den astronomischen Milankovitch-Zyklen von 21, 41, 100 und 405 Tausend Jahren (kyr) Länge und den Mustern in ihren globalen d18O- und d13C-Daten der Tiefsee fest. Da die sich wiederholenden astronomischen Milankovitch-Zyklen berechenbar und zuverlässiger und genauer als jede andere Datierungstechnik sind, verwendeten sie diese, um die in Abbildung 1 gezeigten Daten zu ordnen und zu datieren. Wie das funktioniert, beschreiben sie in Abschnitt 5 („Astrochronologie“) ihres Zusatzmaterials. Für Aufzeichnungen, die älter als 20 Ma sind, konnten nur die längeren Exzentrizitätszyklen verwendet werden. Der auffälligste und stabilste Zyklus war der Exzentrizitätszyklus von 405 kyr.

Westerhold et al. kommen zu dem Schluss, dass ihre Chronologie für das Pleistozän und Eozän eine Genauigkeit von ±100 kyr, für das Oligozän ±50 kyr und für das Miozän und Pleistozän ±10 kyr aufweist. Diese Art von Genauigkeit ist bemerkenswert, wenn sie stimmt, und sie scheint angesichts ihres Verfahrens angemessen.

Vergleicht man die bekannten Klimaveränderungen im Känozoikum mit der plattentektonischen Rekonstruktion von Scotese, so zeigt sich eine Übereinstimmung der großen Klimaveränderungen mit großen geologischen Ereignissen auf einer Skala von vielen Millionen Jahren. Daraus lässt sich leicht und logisch schließen, dass die geologischen Ereignisse die längerfristigen Veränderungen verursacht haben. Ich fand es sehr ermutigend, dass Westerhold et al. die astronomischen Milankovitch-Zyklen in ihren Tiefseefossilien so deutlich „sehen“ konnten, dass sie für deren Datierung verwendet werden konnten. Eines der größten Probleme beim Vergleich von CO₂-Aufzeichnungen mit Temperaturaufzeichnungen besteht darin, dass die CO₂-Aufzeichnungen anhand anderer Proben erstellt werden, die getrennt von den Temperatur-Proxy-Proben datiert werden müssen. Daher habe ich viel mehr Vertrauen in die d13C-Daten in den Abbildungen 1 und 2 als in die Daten von Rae et al. in Abbildung 2. Außerdem überlassen die auffälligen Lücken in den CO₂-Daten von Rae et al. zu viel der Fantasie.

Westerholds d13C-Proxy für die Tiefsee ist kein direkter CO₂-Proxy, aber er kann direkt mit dem d18O-Temperatur-Proxy gepaart werden, und er ist kontinuierlich. Diese Eigenschaften machen ihn meiner Meinung nach anderen CO₂-Proxys überlegen.

Ich sollte anmerken, dass der genaue Zeitpunkt der großen plattentektonischen Ereignisse, die in diesem Beitrag besprochen werden, Gegenstand heftiger Debatten in der geologischen Gemeinschaft sind (Hu, et al., 2016; Torfstein & Steinberg, 2020, Coates & Stallard, 2013). Die genauen Daten, wann Indien mit Asien kollidierte, der Isthmus von Panama sich schloss oder der Nordatlantik sich zur Arktis hin öffnete, sind nicht bekannt. Sie ereigneten sich über Millionen von Jahren, und verschiedene geologische Studien können je nach den verwendeten Daten unterschiedliche Daten liefern. Die in dieser Studie angegebenen Daten beruhen daher nur auf meinem besten Wissen und stehen zur Diskussion.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2025/03/29/plate-tectonics-and-climate-during-the-cenozoic/

Übersetzt von Christian Freuer für das EIKE

 




Künstliche Intelligenz (KI) macht Fortschritte in der Welt der Wettervorhersage…EZMW macht sein KI-Modell voll einsatzfähig

Paul Dorian

Überblick

Künstliche Intelligenz (KI) ist eine Sammlung von Technologien, die es Computern ermöglichen, Aufgaben zu erfüllen, die normalerweise menschliche Intelligenz erfordern, und sie wirkt sich zunehmend auf die Welt der Wettervorhersage aus. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) hat mit seinem Vorhersagesystem mit künstlicher Intelligenz (AIFS) große Fortschritte gemacht, ist es doch seit kurzem voll einsatzfähig und wird nun Seite an Seite mit seinem traditionellen, auf Physik basierenden integrierten Vorhersagesystem (IFS) betrieben. Nach Angaben des EZMW hat das AIFS das physikalische Modell in vielen Bereichen übertroffen, z. B. bei den Zugbahnen tropischer Wirbelstürme. Neben dem AIFS des ECMWF gibt es mindestens vier weitere bekannte „KI-trainierte“ Wettermodelle, darunter NOAA/Google GraphCast, Aurora von Microsoft, FourCast von NVIDIA und Pangu-Weather von Huawei.

Ein Vergleich zwischen dem konventionellen europäischen Vorhersagemodell (links) und der Euro-AI-Version (rechts) der „Gesamtschneemengen“ in den kontinentalen USA für den Zeitraum bis Freitagmorgen, 4. April. Karten mit freundlicher Genehmigung des EZMW, Pivotal Weather

Diskussion

Der traditionelle Ansatz für die Wettervorhersage ist die numerische Wettervorhersage (NWP), die sich auf aktuelle Bedingungen, physikalische Modelle und die Lösung komplexer Gleichungen auf leistungsstarken Supercomputern stützt, um Parameter wie Temperatur, Luftdruck, Winde und Niederschlag für die Zukunft zu ermitteln. Modelle der künstlichen Intelligenz (KI), insbesondere des maschinellen Lernens, werden zunehmend zur Verbesserung der Wettervorhersage eingesetzt, indem sie aus großen Wetterdatensätzen lernen, um Muster und Trends zu erkennen. KI-Modelle können Daten schneller verarbeiten und komplexe Muster erkennen, was zu schnelleren und genaueren Vorhersagen führen kann. Die zunehmend wichtige Rolle der KI bei der Wettervorhersage wird darin bestehen, traditionelle NWP-Modelle zu ergänzen und zu verbessern.

Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) hat mit seinem Artificial Intelligence Forecasting System (AIFS) das erste voll funktionsfähige Wettervorhersagemodell entwickelt, das maschinelles Lernen und künstliche Intelligenz nutzt. Die Inbetriebnahme eines solchen Systems bedeutet, dass es offen zugänglich ist und rund um die Uhr für die meteorologische Gemeinschaft zur Verfügung steht. Das AIFS kann eine breite Palette von Ausgabeparametern erzeugen, darunter Winde, Temperaturen und Details zu Niederschlagsarten von Schnee bis Regen. Das AIFS hat derzeit einen Gitterabstand von 28 km und kann nach Angaben des EZMW sein physikbasiertes Gegenstück bei bestimmten Messungen bis zu 20 % übertreffen.

Ein Vergleich zwischen dem konventionellen europäischen Vorhersagemodell (links) und der Euro-KI-Version (rechts) der „500-Millibar-Höhenanomalien“ über dem US-amerikanischen Festland für den Validierungszeitpunkt am Sonntag, den 30. März um 8 Uhr morgens. Karten mit freundlicher Genehmigung von ECMWF, Pivotal Weather

Das AIFS verwendet für seine Vorhersagen die gleichen atmosphärischen Ausgangsbedingungen wie das IFS. Diese basieren auf der Kombination einer früheren Kurzzeitvorhersage mit etwa 60 Millionen qualitätskontrollierten Beobachtungen von Satelliten sowie vielen anderen Datenströmen, darunter von Flugzeugen, Schiffen, Seebojen und vielen anderen Messstationen auf der Erde. Alle sechs Stunden fließen diese Ausgangsbedingungen in das AIFS ein. Das maschinelle Lernmodell, das auf der Grundlage der Wetterentwicklung in der Vergangenheit trainiert wurde bewertet, wie die Ausgangsbedingungen das Wetter in den kommenden Tagen beeinflussen werden. Im Gegensatz dazu nutzt das IFS physikalische Fähigkeiten, um eine Vorhersage mit einer Rasterweite von 9 km über den Globus zu erstellen, wobei die Gesetze der Physik in den Computercode integriert werden.

Meteorologen schenken einem einzelnen Modell selten ihr volles Vertrauen, sondern betrachten stattdessen eine Reihe von Modellvorhersagen. Die meisten globalen Modelle berechnen alle sechs Stunden 10-Tage-Vorhersagen, und eine Möglichkeit, die Zuverlässigkeit eines Modells zu beurteilen, besteht darin, seine Konsistenz von Durchlauf zu Durchlauf zu überprüfen. Das Modell Euro-AI schnitt bei diesem Test für den Hurrikan Francine im September 2024 gut ab, da es in jedem Durchlauf von 96 Stunden bis zum Eintreffen des Hurrikans in der Nähe von Morgan City in Louisiana. Karten mit freundlicher Genehmigung von foxweather.com

Die erste operationelle Version wird als AIFS „Single“ bezeichnet. Sie führt jeweils eine einzige Vorhersage durch, eine so genannte deterministische Vorhersage. Das EZMW treibt dieses Modell jedoch voran, um eine Sammlung von 50 verschiedenen Vorhersagen mit geringfügigen Abweichungen zu einem bestimmten Zeitpunkt zu erstellen, um die gesamte Bandbreite möglicher Szenarien zu erfassen. Dies ist als Ensemble-Modellierung bekannt, ein Verfahren, welches vom EZMW vor mehr als dreißig Jahren entwickelt und eingeführt wurde. Nach Angaben des EZMW ist die Einführung von AIFS „Single“ als operationeller Dienst der erste Schritt zur Verbesserung seiner Vorhersagefähigkeiten durch künstliche Intelligenz. Der nächste Schritt wird darin bestehen, auch Ensemble-Vorhersagen unter Verwendung künstlicher Intelligenz und Vorhersagen mit erweiterter Reichweite (saisonale Vorhersagen) zur Verfügung zu stellen, und wir werden die Fortschritte hier auf Arcfield Weather weiter verfolgen.

Meteorologe Paul Dorian, Arcfield (arcfieldweather.com)

Link: https://wattsupwiththat.com/2025/03/27/artificial-intelligence-ai-making-strides-in-the-world-of-weather-forecastingeuropean-center-for-forecasting-makes-its-ai-model-fully-operational/

Übersetzt von Christian Freuer für das EIKE