Grüne Fantastereien: Das Märchen vom Wasserstoff

Wenn man fossile Energierohstoffe ablehnt, selbst wenn CO2 aus dem Rauchgas abgeschieden wird, wenn man Kernkraft sowieso nicht will und bemerkt, dass gepushte „Erneuerbare“ die Erwartungen nicht erfüllen, braucht es Hoffnungszeichen und einen festen Glauben. Das Wunder des grünen Wasserstoffs soll über uns kommen. Die Illusionen von heute werden die Enttäuschungen von morgen sein.

Von Frank Hennig

Eine flüchtige Strategie für ein flüchtiges Gas

Jules Verne bezeichnete 1875 das Wasser als die neue Kohle, wenn es durch elektrischen Strom zerlegt wird. Damals nannte man seine Schriften utopische Literatur, heute wäre es Science-Fiction oder Fantasy. Aus guten Gründen ist sein Gedanke nicht Realität geworden. Er reicht aber aus, um bei uns darauf eine ganze Energiestrategie zu gründen – ohne Plan B.

Eine gängige Formulierung der Medien zu unserer erhofften wasserstoffgrünen Energiewendewunderwelt lautet: „Der grüne Wasserstoff gilt als Energieträger der Zukunft“. Damit übernehmen die meist regierungsbegleitenden Medien keine Verantwortung, legen sich nicht fest und müssen auch nicht kundtun, dass sie selbst nicht daran glauben. Jedenfalls nicht diejenigen Journalisten, die über ein gewisses Maß an naturwissenschaftlichen Grundkenntnissen verfügen.

Eine andere gängige Formulierung bezeichnet den Wasserstoff als den „Champagner der Energiewende“. Das ist treffend, wenn man ihm die Eigenschaften knapp, teuer und edel zuschreibt. Edel deshalb, weil er vielfältig verwendet werden kann, so als technisches Gas, als chemischer Grundstoff, als Energieträger und –speicher. Aber gerade die letztgenannten Verwendungsmöglichkeiten sind nicht wirtschaftlich darstellbar.

Eine Wasserstoffstrategie soll den Rahmen geben für eine staatlich organisierte Entwicklung. Schon 2021, noch unter Wirtschaftsminister Altmaier, sollten 62 Großprojekte aus EU-, Bundes- und Landesmitteln gefördert werden. Die Strategie wird nun fortgeschrieben, 10 Gigawatt (GW) Elektrolysekapazität bis 2030 sind das Ziel, wohl zwei Drittel des benötigten H2 werden importiert werden müssen.

Ein Start- und ein Kernnetz für die Verteilung des Wasserstoffs wird gewünscht und ein „Hochlauf“ des Marktes. Dabei handelt es sich um einen Subventionsmarkt, auf dem sowohl die Hersteller als auch die Verbraucher von grünem Wasserstoff subventioniert werden müssen. Angebot und Nachfrage folgen nicht den Marktmechanismen, sondern den Vorgaben und Subventionen des Staates. Global erfolgreich war ein solches Wirtschaftssystem noch nie.

Ergebnis ist wiederum das aus der E-Mobilität bekannte Henne-Ei-Problem. Potenzielle Verbraucher rufen nach dem Gas, Lieferanten verlangen Abnahmegarantien. Das Projekt einer Wasserstoffleitung von Dänemark nach Schleswig-Holstein wird nach Aussage des nördlichen Nachbarn nur gebaut, wenn potenzielle Abnehmer vor dem Bau eine feste Abnahmemenge für 15 Jahre buchen.

Weil das gewünschte Tempo der Umsetzung nicht erreicht wird, liegt nun der Entwurf eines Wasserstoffbeschleunigungsgesetzes (WasserstoffBG) vor. Insbesondere die Planungs- und Genehmigungsverfahren sollen schneller ablaufen. Ein festgeschriebenes „überragendes öffentliches Interesse“ soll auch hier eventuellen Widerstand von Anfang an platt machen.

Zeit ist relativ, wie wir von vielen staatlichen Projekten aus Erfahrung wissen. 14 Jahre Bauzeit für einen Flughafen, vermutlich 15 Jahre für einen Bahnhofsumbau, 14 Jahre für ein Schiffshebewerk. Aber schon 2030 soll grüner Wasserstoff in großen Mengen zur Verfügung stehen, einschließlich der nötigen Infrastruktur und der Importe. Unsere dauerprogressiven Ampelparteien denken nicht daran, Erfahrungen der Vergangenheit zu berücksichtigen.

Auf dem Kraftwerkstechnischen Kolloquium der TU Dresden im vergangenen Oktober äußerte sich der Präsident des Deutschen Wasserstoff- und Brennstoffzellenverbandes, Doktor Oliver Weinmann. Er ist ausgewiesener Fachmann und Lobbyist, der das Thema voranbringen will. Zur Zukunft einer Wasserstoffinfrastruktur merkte er in der Podiumsdiskussion an, dass wir bei dieser ganz am Anfang stünden und der Aufbau Jahrzehnte dauern werde. Solche Aussagen dringen offenbar nicht in die Berliner Blase ein. Sehr wahrscheinlich ist, dass es sich ziehen wird. Wir werden Forderungen hören nach mehr Zeichensetzung, ehrgeizigeren und ambitionierteren Zielen, angeschärften Kriterien, einer notwendigen Task-Force, einem Bundesbeauftragten für Wasserstoff, nach mehr IT-Kompetenz und smarten, verzahnten Ansätzen sowie Wasserstoff-Audits. Die Aufzählung ist beliebig erweiterbar. Allen Positionen ist gemeinsam, dass sie praktisch wirkungslos sein werden.

Der Wunderstoff

In der Handhabung erweist sich Wasserstoff als schwierig. Als Nummer eins im Periodensystem der Elemente und kleinstes Atom ist er diffusionsfreudig, schleicht sich durch die Metallgitter von Rohr- und Behälterwandungen, durch alle kristallinen Strukturen hindurch, indem es die Zwischengitterplätze nutzt. Dies führt im Wandungsmaterial auch zu Korrosion. Die notwendige Spezialbeschichtung treibt die Kosten.

Umgangssprachlich bezeichnet man Wasserstoff aus gutem Grund auch als Knallgas. Das beschreibt seine Reaktionsfreundlichkeit. Vier bis 76 Prozent Anteil in der Luft lassen ein Gemisch durchzünden, wenn ein Funken des Weges kommt. Das ist mit entsprechenden Maßnahmen beherrschbar, aber aufwändig. Funkenfreies Werkzeug dürfte noch die kleinste Kostenposition sein.

Zudem hat Wasserstoff einen geringen Energiegehalt, was große Volumina erfordert, die gehandhabt werden müssen. Die Druckerhöhung in den Verdichtern ist mit einem hohen spezifischen Aufwand verbunden, auch hier ist die Ursache die Winzigkeit der H2-Atome. Wasserstoff ist in elementarer Form schwer transportierbar, wenn Pipelines nicht genutzt werden können. Aufgrund des geringen Energieinhalts muss eine Hochverdichtung oder Tiefkühlung erfolgen. Der Schiffstransport erfordert eine Abkühlung auf mindestens minus 253 Grad, was hohen Energieaufwand, hohen Isolationsaufwand erfordert und Kälteverluste während des Transports mit sich bringt. Gegenwärtig existieren weltweit nur zwei Schiffe, die Wasserstoff transportieren können. Kostensenkend ist der Transport von Wasserstoff in Form seiner Derivate wie Methan, Methanol oder Ammoniak. Hier ist das Handling einfacher, jedoch sind die Prozesse zur Herstellung der Derivate und deren spätere Aufspaltung kostentreibend. Die entsprechende Infrastruktur in den Lieferländern wie auch bei uns wäre erst zu errichten und aufwändig zu betreiben.

Die Verbrennung von Wasserstoff ist ebenso nicht unproblematisch. Die Wasserstoffflamme ist kaum sichtbar, die Verbrennungstemperatur liegt bei 2.130 Grad (Erdgas: 1.970 Grad), was bei der Verbrennung mit Luft zu einer hohen Reaktionsfreudigkeit mit dem Luftstickstoff und hohen Stickoxidemissionen im Abgas führt. Diese Emissionen sind hinsichtlich der Grenzwerte des Bundesimmissionsschutzgesetzes (BImSchG) schwierig zu beherrschen, weshalb es noch keine wasserstofffähigen Gasturbinen am Markt gibt. Das ist technisch lösbar, wie eine Testmaschine von Kawasaki zeigt, aber bisher gab es mangels Wasserstoff schlicht keinen Bedarf für solche teureren Turbinen.

Die Verstromung in einer Brennstoffzelle erfolgt zu ähnlichem Wirkungsgrad wie bei der Elektrolyse (60 bis 70 Prozent). Auch hier ist nur ein konstanter Prozess optimal, hohe Materialpreise für die Membranen stehen der massenhaften Anwendung noch im Weg.

Solcher und solcher Strom

Ein scheinbar starkes Argument für die Produktion des teuren Energieträgers ist die Nutzung so genannten Überschuss-Stroms, der in den Sommermonaten immer häufiger anfallen wird. Natürlich kann man diesen nutzen, aber die Elektrolyseure arbeiten nur unter konstantem Stromfluss optimal. Für die Amortisation sind möglichst viele Betriebsstunden nötig. Einige hundert Stunden niedriger oder negativer Strompreise im Jahr dürften für einen Betrieb unter marktwirtschaftlichen Bedingungen nicht reichen. Aber aus marktwirtschaftlicher Sicht lässt sich eine Wasserstoffinfrastruktur dieser Größenordnung, die auf grünem Wasserstoff beruht, ohnehin nicht realisieren. Es wäre wie bei der Windkraft eine verstetigte Subventionswirtschaft aus „Klimagründen“, die uns im internationalen Wettbewerb benachteiligt.

Das „Westküstenprojekt“ in Schleswig-Holstein, getragen von drei durchaus potenten Firmen (Ørstedt, Raffinerie Heide, Hynamics Deutschland), starb im November 23 den Kostentod. Ein 30-Megawatt-Elektrolyseur sollte unter den lokal günstigen Bedingungen grünen Wasserstoff erzeugen, was sich aber nach internen Berechnungen als unwirtschaftlich herausstellte. Die Produktion von grünem Wasserstoff mache keinen Sinn, vor allem wegen der wirtschaftlichen Risiken, hieß es in der einer Pressemitteilung. Trotz der Fördermittel lohne sich ein dauerhafter Betrieb der Anlage wirtschaftlich nicht, so das Investoren-Konsortium. Wir erinnern uns an Ex-Wirtschaftsminister Altmaier, der im Rahmen seiner „Reallabore der Energiewende“ ebendieses Projekt mit 36 Millionen Euro förderte, weil er das Thema „fliegen sehen“ wollte. Das Geld ist nicht weg, es haben nur andere.

Auf zum nächsten Flop. Er heißt Hyscale 100 und soll auch in der Region Heide gebaut werden. 500 Megawatt Elektrolysekapazität werden mit 646 Millionen Euro gefördert. Bleiben wir im Norden: Auf dem Gelände des ehemaligen Kraftwerks Hamburg-Moorburg entsteht ein weiterer 100-Megawatt-Elektrolyseur. Die Kraftwerkskapazität im Großraum Hamburg nahm in den vergangenen 15 Jahren um zwei Drittel ab, man hofft auf Ersatz durch Windstrom. Ja, den gibt es. Zeitweise.

Der Stromspeichertraum

Über die gesamte Prozesskette Power-to-Gas-to-Power (P2G2P) ergibt sich ein desolater Wirkungsgrad von 20 Prozent, vielleicht auch etwas mehr. Für jede zurückgewonnene Kilowattstunde Strom muss also die fünffache Menge (Grün-) Strom vorher erzeugt werden. Hier können die Ökonomen den Stift beiseitelegen oder den Laptop zuklappen. Wer sich trotzdem der Mühe eigener Berechnung unterzieht wie Professor Vahrenholt, kommt auf irreal erscheinende Ergebnisse. Den Vertrag mit Ägypten zur Lieferung „grünen“ Ammoniaks zugrundelegend würde die Verstromung in Deutschland zu Gestehungskosten von 49 Cent pro Kilowattstunde führen. Dazu kommen dann Netzentgelte, Umlagen, Abgaben.

Auch auf der EU-Ebene hat der Realismus einen schweren Stand. Die „EU-Hydrogen Strategy“ wünscht sich bis 2030 zehn Millionen Tonnen grünen Wasserstoffs in der Gemeinschaft. Professor Markus Löffler und Tim Sumpf rechnen in der Epochtimes vor, dass die Elektrolyseure dafür 35 Stunden am Tag oder 530 Tage im Jahr laufen müssten.

Nun teilt der Europäische Rechnungshof mit: „Die EU (werde) ihre für 2030 gesetzten Ziele für Erzeugung und Import von erneuerbarem Wasserstoff voraussichtlich nicht erreichen.“ Gleichzeitig mahnten die Prüfer an, „die EU-Ziele einem Realitätscheck zu unterziehen“ und kritisieren weiter: Die Ziele seien nicht auf Grundlage solider Analysen erstellt worden, sondern nach politischem Willen festgelegt. Auch sei keine Abstimmung mit den Zielen anderer Länder erfolgt.

Der hohe Wasserbedarf für die Elektrolyse, mindestens neun Liter entsprechender Qualität pro Kilogramm H2, erfordert günstige Standorte oder entsprechende Wasseraufbereitung. Insbesondere im globalen Süden eine absolut kostentreibende Position. Selbst in Europa dürften potenzielle Elektrolysestandorte durch Wassermangel entfallen.

Nicht zuletzt: H2 ist ein Treibhausgas. Der Schlupf, die durch Undichtheiten an den Anlagen austretenden Mengen, würde die weitere globale Erwärmung beschleunigen, wenn man die regierungsamtliche Klimatheorie zugrundelegt.

Wie kommt es nun dazu, dass der Wasserstoff als einzige Zukunftsoption alternativlos verfolgt wird? Auch Politiker und –innen mit zweifelhaften Bildungsverläufen haben vermutlich ein Experiment aus dem Chemieunterricht im Gedächtnis, wo aus einem wassergefüllten Gefäß mit zwei darin platzierten Elektroden einige Bläschen lustig nach oben blubbern. Zurück bleibt der falsche Eindruck, dass es sich bei der Elektrolyse um einen einfachen Vorgang handelt. Aber

sowohl die Elektrolyse als auch die Umkehrung des Prozesses in der Brennstoffzelle oder die Verbrennung von Wasserstoff sind keineswegs simpel. Insbesondere die Materialfragen, mit denen Alterung und Verschleiß begegnet werden muss, erfordern hohen Forschungsaufwand und treiben bei großtechnischen Anlagen die Kosten. Deutschlandweit gibt es heute mehr als 50 Pilotanlagen Power-to-Gas (P2G), die nur mit Fördermitteln betrieben werden können und die vor allem mit den Fragen der Wirtschaftlichkeit der Prozesse zu kämpfen haben.

Die Wirtschaftlichkeit der Grünstromelektrolyse in Deutschland wird auch künftig nicht gegeben sein, da sie primär vom Strompreis abhängt und von einem kontinuierlichen, optimierten Betrieb der Anlagen.

Der grüne Kolonialismus

Eine typisch deutsche Eigenschaft ist die Absolutheit von Forderungen. So soll andersfarbiger Wasserstoff (s. unten), der nicht der Ökostrom-Elektrolyse entstammt, nicht akzeptiert werden. Aber hier gibt es inzwischen eine Aufweichung, wonach blauer Wasserstoff zunächst akzeptiert werden soll.

Der kalkulierte hohe Anteil an importiertem grünem Wasserstoff schafft Abhängigkeiten. Energiestrategisch begeben wir uns in Abhängigkeit von Ländern wie Ägypten, Marokko und Namibia und setzen uns einem Sanktionsrisiko aus. Der Ansatz, dem viele andere Länder folgen, nämlich hinsichtlich Ernährung und Energieversorgung möglichst unabhängig vom Ausland zu bleiben, wird in Deutschland verworfen.

In Fragen des Wasserstoffs betreiben wir sogar einen neuen Energiekolonialismus, was selbst die taz beklagt. Während wir uns für die Verbrechen der Kolonialzeit vor 120 Jahren heute noch, auch finanziell, entschuldigen, wollen wir nun namibische Nationalparks zerstören.

Die Abhängigkeit von Lieferungen aus arabischen Ländern wird auch eine wertegeleitete Außenpolitik beeinflussen. Kritik bezüglich der Menschenrechte sollte dann besser nicht geäußert werde, es könnte zu Lieferverzögerungen führen. Eine eskalierende internationale Lage könnte dann nicht nur zu einer Ölkrise wie 1973 führen, sondern auch zu einer Wasserstoffkrise für Deutschland. Unsere traditionelle Appeasement-Politik gegenüber islamischen Ländern würde verstärkt weitergeführt. Für Israel bleiben nur die Sonntagsreden.

Im unserem politischen Raum gehen Glauben vor Wissen, Ideologie und Lobbyismus vor Pragmatismus. Auch die Finanzen scheint niemand zu kalkulieren, denn große Investitionen in potenziellen Lieferländern müssten von Deutschland gestemmt werden. Natürlich hätten die Lieferländer auch ersten Zugriff auf die Ökoenergie, die dann erzeugt wird und die sinnvollerweise zunächst die Emissionen in den Lieferländern senken können.

Bei realistischer Betrachtung der Zeitschiene, der Kosten und der Fähigkeiten der uns schon länger Regierenden erweist sich die Wasserstoffstrategie nicht nur als flüchtig, sondern als ein großes Nichts. Oder eben Fantasy.

Anlage:

Wasserstoff Farbenlehre

 




Temperaturen und CO2 bis 500 Millionen Jahre zurück und kleine Tricks

von Prof. Dr. Horst-Joachim Lüdecke

Mittlere Erdtemperaturen und atmosphärische CO2-Konzentration über hunderte Millionen Jahre zurück zu ermitteln ist nicht einfach. Es lässt sich nur über sogenannte Proxydaten bewerkstelligen wie beispielsweise für Temperaturen über zeitabhängige Verhältniswerte von der Sauerstoffisotope 16O und 18O (hier) in Seewasserkarbonaten. Diese Methode wurde im paper von Christian Vérard und Jan Veizer [1] 2019 angewendet. Die erstellte Temperaturkurve reicht mehr als 500 Millionen Jahre zurück (Bild 1)

Bild 1: Globale Mitteltemperatur über etwa 500 Millionen Jahre zurück. Das delta18O der rechten y-Achse gibt die Sauerstoffisotopenverhältnisse an, die linke Temperaturachse zeigt die zu delta18O proportionalen Temperaturen. Der grauschattierte Bereich ist die hohe Ungenauigkeitsmarge der Temperaturkurve. Bild entnommen der Veröffentlichung [1].

Es gibt noch weitere Temperatur-Studien über derartig große Zeitspannen, wobei oft der bereits genannte Geophysiker J. Veizer (hier) mitbeteiligt war, der mir aus beidseitigem E-Mail-Austausch persönlich bekannt war. Bis jetzt sind mir keine Temperaturkurven des Phanerozoikum (hier) mit wesentlichen Abweichungen von der in Bild 1 gezeigten Zeitreihe bekannt.

Mit dem Blick auf die aktuelle CO2-Hypothese einer vermuteten anthropogenen globalen Erwärmung bestand ein weiterer Schritt in der Fachliteratur darin, zeitlich zugehörige CO2-Kurven den Temperaturreihen  gegenüber zu stellen, um Schlüsse auf Gegenwart und Zukunft zu ermöglichen. Die erste Referenz für phanerozoisches CO2 war der Klimaforscher Robert A. Berner (hier). In seiner Studie [2] von 2002 findet sich die atmosphärische CO2-Konzentration – genauer ihr Verhältnis zum vorindustriellen Wert von 280 ppm – bis knapp vor 600 Millionen Jahren. Sie ist in Bild 2 gezeigt.

Bild 2: Atmosphärische CO2-Konzentration bis knapp 600 Millionen Jahre zurück als Verhältnis zur vorindustriellen Konzentration von 280 ppm (rote Kurve). Die Ungenauigkeiten reichen bis +-50%. Bild entnommen aus der Veröffentlichung [2].

Im Jahr 2017 kam eine detailliertere CO2-Zeitreihe von Gavin L. Foster et al. [3] hinzu, die aber nur bis etwa 400 Millionen Jahre zurück reicht und in Bild 3 gezeigt ist. Auch bei ihr sind wieder die hohen Fehlermargen zu beachten. Stellt man die Unsicherheiten in Rechnung kann zwar von einer Verbesserungen der Kurve in Bild 2, aber nicht von einer maßgebend neuen Kurve die Rede sein.

Bild 3: Atmosphärische CO2-Konzentration (blau) bis etwas über 400 Millionen Jahre zurück. Bild entnommen aus der Veröffentlichung [3].  

Vergleicht man die Temperaturkurve in Bild 1 mit der CO2-Kurve in Bild 2 erkennt man bereits mit dem bloßen Auge, dass keine gute Korrelation von T und CO2 vorliegt. Das Gleiche gilt auch noch, wenn man anstelle der CO2-Kurve von Bild 2 die etwas detailliertere in Bild 3 nimmt. Noch immer ist daher die Kernaussage zahlreicher populärer Darstellungen von Temperatur T und CO2 für das Phanerozoikum gültig, dass keine gute Korrelation von T und CO2  vorliegt. Ein Beispiel für solche Darstellungen findet sich hier. Der Grund für die schlechte Korrelation von Temperatur und CO2 im Phanerozoikum liegt in der zyklischen Natur der Temperaturreihe, die 2003 von Nir J. Shaviv und Jan Veizer in einer bahnbrechenden Arbeit mit dem Klimaeinfluss der kosmischen Strahlung erklärt wurde [6]. Die Zyklenlänge beträgt dabei grob 150 Millionen Jahre. CO2-Zeitreihen weisen diese Zyklen nicht auf!

Aufgabe der Wissenschaft ist, das Bekannte zu verbessern oder gar umzuwerfen und durch Besseres oder Neues zu ersetzen. In diesem Sinne sieht sich offenbar die Studie der Autoren Emily J. Judd et al [4] von 2024. In ihr wird eine neue Temperaturkurve vorgestellt, die laut Textneschreibung mit der CO2-Kurve in Bild 3 verglichen wird. In Bild 4 ist die von Judd et al erstellte neue Temperaturkurve gezeigt. Sie unterscheidet sich zwar in Teilen von der T-Kurve in Bild 1, einen maßgebend neuen Verlauf weist sie aber nicht auf.

 

Bild 4: Die neue von Judd et al aufgestellte Temperaturkurve des Phanerozoikum.

Was die von Judd et al verwendeten CO2-Kurve btrifft, so steht im paper „The CO2 reconstruction is largely based on the data from Foster et al (das ist die hier angegebene Quelle [3] bzw. Bild 3) in the Paleozoic and Mesozoic, and the data from Rae et al in the Cenozoic [5]. Die Daten von Rae reichen allerdings nur bis 66 Millionen Jahre zurück. Figure 5 in der Arbeit von Rae et al zeigt keine mit dem Auge erkennbaren Unterschiede zur CO2-Kurve von Foster et al. Fazit: Judd et al vergleichen wie schon erwähnt ihre neue Temperaturkurve (Bild 4) mit der CO2-Kurve von Foster et al (Bild 3), wobei letztere grob der CO2-Kurve von Berner (Bild 2) entspricht.

Glücklicherweise hat bereits die inzwischen bekannt gewordene CO2-Coalition (hier, hier) die neue Judd et al – Temperaturkurve zusammen mit den CO2-Daten von Berner in einer schön gestalteten neuen Grafik eingetragen und mir daher mühsame Grafikarbeit erspart (Bild 5).

Bild 5: Phanerozoische Temperaturen von Judd et al (Bild 4) und CO2 von Berner (Bild 2). Von guter Korrelation kann immer noch keine Rede sein. Daran ändert sich auch nichts, wenn man anstelle der Berner CO2-Kurve die von Foster et al in Bild 3 nimmt. Bildquelle CO2 Coalition.

Eine Verbesserung durch detailliertere Temperatur- und CO2-Daten kann man Judd et al angesichts ihrer Fleißarbeit sicher nicht absprechen. Der maßgebende Kernpunkt, nämlich die schlechte Korrelation von Temperatur und CO2, ändert sich mit ihrem paper aber nicht, zumindest schon deswegen nicht, weil phanerozoische CO2 – Kurven keinen 150  Millionen Jahreszyklus aufweisen.

Auch kleine Verbesserungen sind in der Wissenschaft nicht nur wichtig sondern sogar die Regel. Wirkliche Umbrüche sind dagegen extrem selten. Damit könnte man die Arbeit von Judd et al nun zur Seite legen und sich anderen Themen widmen.

Leser allerdings, die sich aber Mühe gemacht haben das paper von Judd et al vollständig zu lesen, kommen vermutlich aus dem Staunen nicht heraus. Die vor dem eigentlichen Teil „Research Article“ im paper aufgeführten Abschnitte Introduction, Rationale, Results und Conclusion erzählen nämlich eine völlig andere Geschichte. Judd et al behaupten Folgendes:

  1. In Results: Die Werte ihrer neuen Temperaturkurve variieren zwischen 11° und 36 °C über die letzten 485 Millionen Jahre, und diese Spanne sei größer als die aller bisherigen Rekonstruktionen!
  2. Nochmal in Results: Es gäbe eine gute Korrelation zwischen Temperatur und CO2 im Panerozoikum!
  3. In Conclusion: CO2 sei der dominante Treiber des phanerozoischen Klimas, hier also von Temperatur.

Diese Aussagen sind angesichts der oben geschilderten Ergebnisse im paper von Judd et al mehr als überraschend und verlangen eine Überprüfung. Enthält das paper von Judd et al vielleicht doch maßgebend Neues?

Zu Punkt 1: Zur Überprüfung braucht man nur die neue Temperaturkurve in Bild 4 mit der alten in Bild 1  zu vergleichen und die Ungenauigkeiten zu berücksichtigen. Die von Judd et al angegebenen Grenzen 11° – 36 °C stimmen dann für beide Kurven grob überein. Die Behauptung im paper von von Judd et al über einmalig hohe aufgefundene Grenzen trifft daher m.E. nicht zu!

Zu Punkt 2 und 3: Zur Überprüfung suche man zuerst im paper von Judd et al das gut korrelierte Analogon zum schlecht korrelierten in Bild 5. Es findet sich als Fig. 4 Teilbild A, das hier als Bild 6 A noch einmal separat gezeigt ist.

 

Bild 6: Mit Teilbild A wollen Judd et al die gute Korrelation von Temperatur und CO2 belegen. Das Auge scheint es zu bestätigen.

Was stimmt da nicht? Zuerst einmal ist die CO2-Kurve in Bild 6 A eine andere als die im Text von Judd et al behauptete Kurve von Foster et al. Dazu reicht bereits das unbewaffnete Auge. Welche CO2-Kurve hier von Judd et al genommen wurde bzw. wie diese Kurve entstand, wird im Text des papers nicht gesagt. Das ist aber noch nicht alles. In Bild 6 A sind die Skalen der beiden verglichenen Kurven unnötig zusammengequetscht, um dem Auge etwas nachzuhelfen.

Das ist prinzipiell nicht verwerflich, weil die Pearson-Korrelation (hier) gegen beliebige lineare Transformationen der verglichenen Zeitreihen immun ist. Man kann sie mit beliebigen Faktoren multiplizieren, oder in der y-Richtung beliebig verschieben, und man kann ihre Skalen beliebig stauchen oder strecken. Die Pearson-Korrelation der beiden Zeitreihen ändert sich dadurch nicht. Der Trick ist gut bekannt. Man knetet die Skalen so lange und verschiebt die Kurven geeignet in y-Richtung, bis das Auge eine „bessere“ Korrelation meldet, obwohl die wirkliche Korrelation die gleiche geblieben ist. Natürlich soll dieses „Verfahren“ den Autoren Judd et al hier nicht unterstellt werden.  Besser wären aber bei etwas mehr Höhe für die Grafik Bild 6 A voll die Grafikhöhe ausnutzende Skalen gewesen.

Dies führt weiter zur wissenschaftlichen Kritik am paper von Judd et al. Eine detaillierte Begründung für die Verwendung der in ihrer Herkunft nicht ausreichend spezifizierten CO2-Kurve in Bild 6 A wäre unabdingbar gewesen. Der Begriff „Korrelation“ von T und CO2 wurde im Abstract des Judd et al papers explizit benutzt. Zumindest eine Diskussion über die Gründe der bisherigen schlechten Korrelation von T und CO2 in früheren Veröffentlichungen im Gegensatz zu der nun angeblich guten Korrelation wäre angebracht gewesen, denn schließlich sind die o.g. Punkte 2 und 3 als Werbung für das paper zu verstehen. Nichts dergleichen ist in der Arbeit von Judd et al zu finden.

Als Schlussbemerkung sei auch einmal auf weniger beachtete Ursachen der Schwankungen der mittleren Globaltemperatur über alle Zeitskalen hingewiesen. Verglichen mit der CO2-Hypothese werden sie nur stiefmüterlich in der Fachliteratur behandelt und unzureichend mit Forschungsmitteln versehen. Die hier zitierten Arbeit von Shaviv und Veizer ist bereits ein erstes Beispiel für den phanerozoischen Zeitbereich. Die allgemein akzeptierte Milankowitsch-Theorie für die Eiszeiten der letzten 2 Millionen Jahre ist ebenfalls zu nennen (hier folgt das CO2 übrigens der Meerestemperatur um etwa 1000 Jahre und kann daher nicht Ursache der Temperaturen sein [7]).

Für die wichtigeren kürzeren Zeitspannen bis hin zu wenigen Jahrzehnten ist aber bislang noch viel zu wenig geschehen. Der Schwerpunkt wissenschaftlicher Forschung sollte sich vorteilhaft allmählich etwas weg von der Erforschung des immer noch weitgehend unbekannten Klimmaeinfluss durch anthropogenes CO2 auf die Erforschung natürlicher Klimaeinflüsse verlagern. Als die interessantesten Themen sind der zyklischen Klimaeinfluss der Sonne über kosmische Strahlung und Wolkenbildung (hier) und die Klima- und Wetterauswirkungen der inzwischen immer besser bekannten und dokumentierten Ozeanzyklen zu nennen.

Quellen

Hinweis: alle hier aufgeführten Quellen sind in Google Scholar zu finden. Dazu nur den Titel der Arbeit ins Suchfenser eingeben. Alle hier angegebenen Arbeiten haben ein freies pdf, dazu rechts oben auf pdf klicken.

[1] Vérard, C. & Veizer, J., 2019. On plate tectonics and ocean temperatures. The geological society of America.

[2] Berner, R.A., 2003. The long-term carbon cycle, fossil fuels and atmospheric composition. Nature, 426.

[3] Foster G.L. et al., 2017. Future climate forcing potentially without precedent in the last 420 million years, nature communications, 8:14845.

[4] Emily J. Judd et al., 2024. A 485-million-year history of Earth’s surface temperature. Science 385, 1316.

[5] Rae, J.W.B. et al., 2021. Atmospheric CO2 over the past 66 Million years from marine archives. Annual Review of Earth and planetary sciences,  49:509-41.

[6]  Shaviv, N.J. & Veizer, J., 2003. Celestrial driver of phanerozoic Climate? GSA today, 13.7, 4-10.

[7] Caillon, N. et al., 2003. Timing of atmospheric CO2 and Antarctic temperature changes across Termination III. Science, 299(5613), 1728-1731.




Klima-Kult und Betrüger

Cap Allon

In seiner Nobelpreisrede 2007 sagte Al Gore eine eisfreie Arktis bis 2014 voraus. Seit Gores Vorhersage hat es keinen Trend bei der minimalen, mittleren oder maximalen Ausdehnung des arktischen Meereises gegeben:

[Tony Heller]

Tatsächlich ist das Meereisminimum 2024 um 26 % größer als 2012.

Im Gegensatz zu den beängstigenden Verlautbarungen des Establishments geht es dem Meereis gut – und auch den Eisbären, deren Populationen inzwischen so stark zugenommen haben, dass die Einwohner von Grönland und sogar Island einige von ihnen aus Sicherheitsgründen erschießen müssen.

Der Wahrsager Al Gore erhielt 2007 den Friedensnobelpreis, weil er „das Bewusstsein für die globale Erwärmung geschärft“ hat. Er erhielt den Preis gemeinsam mit dem IPCC. Das Nobelkomitee „würdigte ihre Bemühungen, mehr Wissen über den vom Menschen verursachten Klimawandel aufzubauen und zu verbreiten und die Grundlagen für die notwendigen Maßnahmen zu seiner Bekämpfung zu schaffen“.

In Anbetracht der katastrophalen Erfolgsbilanz ihrer Vorhersagen sowie der Wohlstand umverteilenden und Armut verursachenden Maßnahmen, die zur „Gegensteuerung“ eingesetzt werden, plädiere ich für die Rückgabe der Preise.

Und wenn wir schon beim Thema Versagen des Establishments sind: James Hansen von der NASA sagte uns 2008, dass die Arktis bis 2018 „frei von Sommereis“ sein würde. Dieser Mann, der immer noch als der „Pate der globalen Erwärmung“ gilt, ist der König der gescheiterten Vorhersagen. Ein weiteres Beispiel: 1988 sagte Hansen, dass Lower Manhattan bis 2018 aufgrund des steigenden Meeresspiegels unter Wasser stehen würde.

Aha…

Wir sollten nicht zulassen, dass diese Scharlatane das Datum des Jüngsten Gerichts immer weiter in die Zukunft verschieben, da sich jede Verkündigung als falsch erweist. Die Katastrophe ist immer X Jahre entfernt: Die Arktis sollte Anfang der 2000er Jahre eisfrei sein, dann bis 2014, dann bis 2018, dann bis Mitte der 2020er Jahre. Und nun, da diese letzte Frist verstrichen ist, fordern neue Forschungsergebnisse (veröffentlicht im Jahr 2023) „unter Verwendung aktualisierter Satellitendaten und Klimamodellierung“ eine eisfreie Arktis irgendwann in den 2030er Jahren, ein Jahrzehnt, das auch der IPCC jetzt befürwortet.

Wenn eine Theorie so spektakulär scheitert, ist es angebracht, die Theorie zu überdenken.
In den frühen 1980er Jahren sagte uns The Science, dass der Planet in den 1990er Jahren eine „katastrophale Erwärmung der Erde aufgrund des starken Klimawandels“ erleben könnte…

…aber jetzt haben wir das Jahr 2024, und die Aktivisten blicken immer noch nervös zum Himmel in Erwartung von Feuer und Schwefel. Sie haben jetzt die Frechheit zu behaupten, dass jeder Regenschauer und jede Hitzekuppel der endgültige Beweis dafür ist, dass das Ende naht. Es ist alles vorbei X:

Eine Reaktion auf die herbstlichen Regenfälle, die derzeit Teile von UK heimsuchen.

Und was sagen die Verblendeten, wenn sie mit der endlosen Reihe von Misserfolgen konfrontiert werden? Nichts. Sie haben zu viel in die Sekte investiert, vor allem Zeit und Ansehen, und ihr Bedürfnis nach einem Sinn im Leben lässt sie sogar die Möglichkeit ausblenden, dass sie sich irren.

Aber wie oben dokumentiert, haben sie bereits viele Male bewiesen, dass sie falsch liegen, sie wollen es nur nicht akzeptieren. „Das nächste Mal wird es uns erwischen“ … „Die Katastrophe ist gleich um die Ecke.“ Sie klingen wie degenerierte Glücksspieler, wie verzweifelte Klima-Junkies – ignorieren Sie sie!

Link: https://electroverse.substack.com/p/big-cool-down-for-europe-south-africa?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Entdeckung eines systematischen Fehlers bei Wetterstationen: Neue Analyse stellt bisherige Klimadaten in Frage

Moritz Büsing

Im Zuge meiner langjährigen Beobachtungen der Klimaforschung und der Analyse von Berichten des IPCC und anderer Institutionen ist mir ein potenzieller Fehler bei der Auswertung von Wetterstationsdaten aufgefallen. Dieser Fehler, der auf die Homogenisierung von Messwerten zurückzuführen ist, könnte etwa die Hälfte der bisher dokumentierten Klimaerwärmung erklären.

Widersprüche in den Klimadaten

Seit Jahrzehnten verfolge ich die Entwicklungen in der Klimaforschung und habe zahlreiche Berichte des IPCC (Intergovernmental Panel on Climate Change) und anderer wissenschaftlicher Institutionen studiert. Dabei fiel mir ein bedeutender Trend auf: Die Abkühlungsphase zwischen den 1940er und 1960er Jahren, die in älteren Berichten klar erkennbar war, wurde in neueren Darstellungen immer flacher. Zudem verwandelte sich das Temperaturplateau von 1998 bis 2015 in einen ansteigenden Trend.

Diese Beobachtungen veranlassten mich, auch die absoluten globalen Mitteltemperaturen (nicht die Anomalie), wie sie in den Berichten des IPCC festgehalten wurden, genauer zu untersuchen. Als ich die Anomalie-Kurven entsprechend den damalig jeweils aktuellen absoluten Temperaturwerten verschob, stellte ich fest, dass die Vergangenheit in den neueren Kurven kälter dargestellt wurde als in älteren Versionen. Dies deutet darauf hin, dass ein Teil der festgestellten Erwärmung nicht auf reale Temperaturanstiege, sondern auf eine nachträgliche Abkühlung der Vergangenheit zurückzuführen ist.

Ursachen für die verzerrten Temperaturdaten

Nach eingehender Analyse wurde klar, dass der Hauptgrund für diese Diskrepanz in der Art und Weise liegt, wie Temperaturdaten von Wetterstationen bearbeitet und homogenisiert werden. Die amerikanische Behörde NOAA (National Oceanic and Atmospheric Administration) und das Goddard Institute for Space Studies (GISS) der NASA stellen umfangreiche Daten und Quellcodes zur Verfügung, was eine detaillierte Überprüfung ermöglichte.

Ein zentraler Prozess in der Datenauswertung ist die Homogenisierung, bei der Wetterstationsdaten so angepasst werden, dass klimafremde Einflüsse herausgefiltert werden. Dazu gehören vor allem Temperatursprünge durch Standortwechsel der Messstationen, Änderungen der Messinstrumente oder der Messmethoden. In den 80er und 90er Jahren wurde die Homogenisierungen von Experten manuell durchgeführt. Als Grundlage dienten vor allem die Protokolle der Messstationen. Die Homogenisierungen werden heutzutage größtenteils automatisiert basierend auf statischen Analysen benachbarter Wetterstationen durchgeführt, was die Verarbeitung von mehr Datenquellen ermöglicht, für welche keine Protokolle vorliegen. Insgesamt führte dies aber auch zu immer mehr Homogenisierungsanpassungen, sowohl insgesamt als auch pro Wetterstation. Die Sprünge wurden bei allen diesen Methoden auf die gleiche Weise „korrigiert“: Alle Messdaten vor einem Sprung wurden so verschoben, dass der Sprung geglättet wird.

Hier entdeckte ich den entscheidenden Fehler: Die Annahme, dass Temperatursprünge immer dauerhaft sind, obwohl sie in vielen Fällen nur temporär auftreten. Ein Beispiel hierfür ist die Alterung der weißen Farbe an den Wetterstationen. Neu gestrichene Stationen absorbieren weniger Sonnenstrahlung und Wärmestrahlung als ältere, verschmutzte Stationen, was zu einem schleichenden Anstieg der gemessenen Temperaturen führt. Dieser Effekt ist klein, wird aber durch die wiederholte Anwendung der Homogenisierung über die Jahre hinweg mehrfach aufaddiert und führt zu einer Überschätzung der Erwärmung.

Quantifizierung der Alterungseffekte

In der Literatur konnte ich leider wenig zu den Alterungseffekten finden. Die wenigen Daten die vorlagen erlaubten es nicht umfangreiche statistische Bewertungen zu machen und globale Korrekturen durchzuführen.

Daher extrahierte ich die Alterungseffekte aus den Datensätzen der Wetterstationen welche NOAA bereitstellte. Dies war möglich, weil die Alterung nicht mit konstanter Geschwindigkeit erfolgt. In den ersten ein bis zwei Jahren passiert wenig (Ausbleicheffekte, chemische Pufferung), dann verläuft die Alterung für ein paar Jahre schneller bis sie ein Plateau erreicht. Hier sind die Alterungseffekte zunächst gesättigt. Erst nach vielen Jahren setzt sich die Alterung wieder fort, wenn schwerere Schäden auftreten. Z.B. wenn die Farbe anfängt abzuplatzen. Das Plateau kann daher als Referenz verwendet werden, um die erhöhte Erwärmung in den anderen Zeitbereichen zu bestimmen. Auf Grund der hohen Streuung der Messwerte und auch der Trends der Messwerte ist diese Auswertung nicht bei einzelnen Wetterstationen möglich, sondern es müssen die Daten von tausenden Wetterstationen ausgewertet werden, um statistisch signifikante Ergebnisse zu erzielen.

Auswirkungen auf die globale Erwärmung

Mit den so bestimmten Alterungskurven konnte ich die Temperaturdaten korrigieren. Die Temperaturdaten habe ich dann mit dem GISTEMP Programm ausgewertet, um globale Temperaturkurven zu erhalten, welche mit den offiziellen Kurven von GISS vergleichbar sind. Das Ergebnis: Die tatsächliche Erwärmung zwischen den Jahrzehnten 1880-1890 und 2010-2020 beträgt etwa 0,83°C (mit einem 95%-Konfidenzintervall von 0,46°C bis 1,19°C), anstelle der bisher angenommenen 1,43°C. Eine weniger konservative Schätzung deutet sogar auf eine Erwärmung von nur 0,41°C hin.

Vergleich mit Satellitendaten

Ich verglich diese Temperaturkurven mit den Satellitendaten der University of Alabama in Huntsville (UAH). Dabei stellte sich heraus, dass die korrigierten Daten viel besser mit den Satellitenmessungen übereinstimmen als die ursprünglichen Werte. Die maximalen Korrekturen, die ich vorgenommen habe, korrelieren am besten mit den Satellitendaten, während die mittleren Schätzungen immer noch eine zu hohe Erwärmung zeigen.

Reduzierte Rolle von CO₂

Ein weiterer wichtiger Befund betrifft die Korrelation zwischen der CO₂-Konzentration (genauer: LOG₂ (CO₂) ) und den rekonstruierten globalen Temperaturen. Die ursprünglichen GISTEMP-Daten zeigten einen hohen Determinationskoeffizienten von 92% zwischen der CO₂-Konzentration und den globalen Temperaturen. Nach meiner Korrektur sank der Determinationskoeffizient jedoch auf 73% und bei der weniger konservativen Schätzung sogar auf 36%. Der Determinationskoeffizient ist ein statistischer Wert, welcher quantifiziert, wie viel von der Veränderung einer Datenreihe mit einer anderen Datenreihe vorhersagbar ist.

Dies bedeutet, dass der Einfluss von CO₂ auf die globale Erwärmung möglicherweise deutlich geringer ist als in vielen wissenschaftlichen Berichten und den Medien dargestellt wird. Während CO₂ nach wie vor eine Rolle spielt, deuten meine Ergebnisse darauf hin, dass es nicht der alleinige oder dominierende Faktor ist.

Widerstände bei der Veröffentlichung

Meine Ergebnisse habe ich in einem wissenschaftlichen Artikel zusammengefasst, der im Journal Science of Climate Change veröffentlicht wurde (kostenloser Download, ohne Bezahlschranke, ohne Anmeldung):

https://scienceofclimatechange.org/moritz-busing-systematic-error-in-global-temperatures-due-to-weather-station-ageing/

Es war jedoch schwierig, dieses Paper zu veröffentlichen. Sechs wissenschaftliche Zeitschriften lehnten es ab, mein Manuskript auch nur zu begutachten. Auch Anfragen bei Wissenschaftlern von NOAA, GISS und mehreren deutschen Universitäten blieben unbeantwortet. Diese Reaktionen deuten darauf hin, dass es Widerstand gegenüber wissenschaftlichen Ergebnissen gibt, die dem gängigen politischen Narrativ widersprechen.

Fazit

Meine Analyse zeigt, dass ein erheblicher Teil der bisher gemessenen globalen Erwärmung durch die Art und Weise, wie Wetterstationsdaten verarbeitet werden, beeinflusst ist. Diese Entdeckung könnte zu einer Neubewertung der tatsächlichen Klimaveränderungen führen und wichtige Konsequenzen für die zukünftige Klimapolitik haben. Eine kritische und präzise Auswertung der vorhandenen Daten ist unerlässlich, um die tatsächlichen klimatischen Entwicklungen besser zu verstehen.

PS:

Dies ist eine verkürzte Darstellung meiner Analyse. Manche der Verkürzungen sind ungenau. Im verlinkten wissenschaftlichen Artikel wird die Analyse ausführlicher beschrieben. Ich bitte vor voreiliger Kritik, diesen Text zu lesen, welchen ich bewusst in möglichst normaler Sprache gehalten habe.

Ich habe auch den Python-Quellcode meiner Analysesoftware veröffentlicht.

Es wurde hier nur ein Aspekt im Detail analysiert und korrigiert, und alles andere bei der offiziellen Methodik belassen. Das heißt nicht, dass ich die Methodik nach der die Temperaturen gemittelt werden und die vielen anderen Datenmanipulationen gut heiße. Ich schließe mich auch nicht der Obsession mit Temperaturanomalien an, sondern halte Niederschläge, Windgeschwindigkeiten (Konvektion) und absolute Temperaturen für viel wichtiger. Denn diese bestimmen die Aktivität von Flora und Fauna, sowie die klimarelevanten Naturkatastrophen.

Ich freue mich darauf Ihre Kommentare und konstruktive Kritik zu lesen!

———————————

Autor: Moritz Büsing studierte an der TU München Luft- und Raumfahrt. Danach Arbeit bei Airbus Helicopters in Donauwörth an der Rotor-Analyse und -Entwicklung. Danach Wechsel in die Hubschrauber-Vorentwicklung und Wettbewerbsanalyse. Nach Ende der Arbeit dort Wechsel zum chinesischen Startup Autoflight am Standort Augsburg und Arbeit als Ingenieur an der Entwicklung eines Batterie-elektrischen Senkrechtstarters mit dem Ziel, dieses als Lufttaxi einzusetzen. Derzeit Arbeit an einem ähnlichen Projekt für LODD in Abu Dhabi.

 




Gegenmaßnahme: Gesetzesentwurf, um Erdgas Projekte vor „leichtfertigen“ Klagen von Aktivisten zu schützen

Nick Pope, Mitwirkender, 27. September 2024

Der republikanische Senator von Texas, Ted Cruz, hat am Freitag einen neuen Gesetzentwurf eingebracht, der die Anfälligkeit von Flüssigerdgasprojekten (LNG) gegenüber fragwürdigen rechtlichen Anfechtungen durch Öko-Aktivisten verringern soll.

Der „Protect LNG Act of 2024“ würde die Frist, innerhalb derer erteilte LNG- Genehmigungen angefochten werden können, auf 90 Tage beschränken und sicherstellen, dass Richter angefochtene Genehmigungen nur an die zuständigen Behörden zurückverweisen können, anstatt sie einseitig aufzuheben. Dies ist ein weiterer Schritt zum Schutz der Entwicklung von LNG-Exportterminals. Der Gesetzentwurf wird auch vom republikanischen Senator von Texas, John Cornyn, unterstützt.

„Die texanischen Energieproduzenten haben die Vereinigten Staaten zum größten Flüssigerdgas-Exporteur der Welt gemacht und Arbeitsplätze für Tausende von Texanern geschaffen“, sagte Cruz in einer Erklärung. „Allerdings bedrohen Randgruppen aus dem Umweltschutz und politisierte Gerichte diese Erfolge und gefährden damit die Entwicklung von Energieprojekten in den gesamten Vereinigten Staaten. Der Protect LNG Act schützt Energieproduzenten vor diesen Angriffen.“

Protect LNG Act von 2024, auf Scribd hochgeladen von Nick Pope

Darüber hinaus sieht der Gesetzentwurf vor, dass Klagen gegen LNG-Anlagen nur vor dem Bundesberufungsgericht verhandelt werden, das für das geografische Gebiet zuständig ist, in dem sich die betreffende Anlage befindet. Darüber hinaus würde das Gesetz die zuständigen Gerichte, die Klagen gegen LNG-bezogene Genehmigungen und Zulassungen verhandeln, anweisen, ihre Prüfungen zu beschleunigen.

„Als führender Öl- und Erdgasproduzent des Landes spielt Texas eine Schlüsselrolle bei der Sicherung tausender gut bezahlter Arbeitsplätze im Inland und der Aufrechterhaltung der Stromversorgung im ganzen Land. … Diese Gesetzgebung wird dazu beitragen, gegen leichtfertige Klagen linker Klimaaktivisten vorzugehen, die unsere Gerichte als Waffe einsetzen und die amerikanische Energieversorgung bedrohen wollen, und ich freue mich, gemeinsam mit Senator Cruz diese Bemühungen zu stoppen und die Energiedominanz von Texas aufrechtzuerhalten.“

Die Einführung des Gesetzes kommt gerade recht, da zwei Großprojekte – Rio Grande LNG und Texas LNG – in der Schwebe sind, nachdem das US-Berufungsgericht für den District of Columbia Circuit im August den Umweltgruppen Recht gegeben und wichtige Genehmigungen der Federal Energy Regulatory Commission (FERC) aufgehoben hatte. Cruz schrieb am Mittwoch an FERC-Kommissar Willie Phillips und forderte die Regulierungsbehörde auf, gegen dieses Urteil Berufung einzulegen und einen Aufschub zu beantragen, während das Berufungsverfahren läuft.

„Es gibt keinen Präzedenzfall für diese Entscheidung“, schrieb Cruz in seinem Brief an Phillips und verwies dabei auf die Entscheidung des DC Circuit. „Charles McConnell, ehemaliger stellvertretender Energieminister im Energieministerium unter Präsident Barack Obama, sagt: ‚Wenn dieser Präzedenzfall Bestand hätte, wäre er für den Investitionsfortschritt absolut drakonisch.‘

LNG ist zu einem wichtigen Thema in der amerikanischen Politik geworden, insbesondere seit die Biden-Harris-Regierung im Januar beschlossen hat, neue und noch ausstehende Genehmigungen für LNG-Exportterminals einzufrieren. Die gut finanzierte Umweltlobby hat das Moratorium begrüßt, Kritiker haben den Schritt jedoch mit der Begründung verurteilt, dass es Investitionen bremse, die Emissionen nicht wirklich reduziere und möglicherweise Amerikas geopolitische Interessen untergrabe.

Alle von der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, erstellten Inhalte stehen jedem seriösen Nachrichtenverlag, der ein großes Publikum erreichen kann, kostenlos zur Verfügung. Alle erneut veröffentlichten Artikel müssen unser Logo, den Namen unseres Reporters und seine DCNF-Zugehörigkeit enthalten. Bei Fragen zu unseren Richtlinien oder einer Partnerschaft mit uns wenden Sie sich bitte an  licensing@dailycallernewsfoundation.org .

https://dailycaller.com/2024/09/27/exclusive-ted-cruz-unveils-bill-shield-key-natural-gas-projects-frivolous-lawsuits/

Übersetzt durch Andreas Demmig

Es gibt eine Genehmigung für LNG Export, aber dürfte sich nur um „politische Taktik“ handeln, um der Vizepräsidentin zu helfen