Entwarnung: CO2 ist gar nicht der gefürchtete Klimakiller auf unserer Erde

von Uli Weber

Es mehren sich vorgeblich klimarealistische Artikel, in denen der Versuch unternommen wird, eine angebliche Klimawirksamkeit von CO2 aus der Kritik zu nehmen oder sie sogar in den natürlichen Ablauf erdgeschichtlicher Vorgänge einzubinden. Charles Rotter argumentiert in seinem Artikel, Warum die Frage „Können Sie empirisch nachweisen, wie viel Erwärmung durch CO₂ verursacht wird?“ eine wirklich dumme Frage ist, die Klimawirksamkeit von CO2 sei einem experimentellen Beweis gar nicht zugänglich und fordert die Klimarealisten dazu auf, diese „dumme“ Fragestellung künftig zu unterlassen. In seinem Artikel, Plattentektonik und Klima im Känozoikum, stellt Andy May in seiner Abbildung 1 eine Verbindung zwischen dem d18O-Temperaturproxy und dem dC13-Marker her, den er in Abbildung 2 wiederum mit dem atmosphärischen CO2-Gehalt über die letzten 70 Millionen Jahre verknüpft. Danach stelle der Anteil d13C selbst weder ein Proxy für die Meerestemperatur noch für die atmos­phärische CO₂-Konzentration dar, soll (?) aber trotzdem irgendwie damit in Beziehung stehen. Schließlich beschreibt May die plattentektonische Entwicklung in diesem Zeitraum und macht konkrete Ereignisse an Veränderungen der Kurvenverläufe von CO2-Gehalt und dC13 fest. Am Ende konkretisiert sich daraus dann ein beweisfreier plattentektonischer Zusammenhang zwischen atmosphärischem CO2–Gehalt und der Meerestemperatur. Beide Artikel versuchen also lediglich, Teile der unbewiesenen heiligen Dreieinigkeit der Klimareligion zu stützen, nämlich CO2, Gegenstrahlung oder den THE, ohne aber die dafür erforderlichen neuen und eindeutigen wissenschaftlichen Beweise vorlegen zu können.

In die Zukunft gerichtete Klimamodelle rechnen den heutigen Klimawandel im Wesentlichen dem vom Menschen verursachten CO2-Eintrag in die Atmosphäre zu (Anthropogenic Global Warming = AGW) und unterscheiden nicht zwischen einem natürlichen und einem menschengemachten Klimaantrieb. Erst mit einer solchen willkürlichen Beschränkung auf einen vorgeblich alleinigen anthropogenen CO2-Klimaantrieb aber wird der AGW-Klimaalarmismus zur zukunftweisenden Wissenschaftsreligion, mit der die Weltbevölkerung bis zum Jahre 2100 in eine dekarbonisierte Weltgemeinschaft gezwungen werden soll. Schaun wir uns zunächst einmal an, welche Ereignisgrößen in einer Darstellung über 70 Millionen Jahre einfach so verloren gehen können. Nachfolgend werden die Temperaturproxys der antarktischen Vostok-Eiskernbohrung dargestellt. Der zeitliche Umfang der Vostok-Daten beträgt 420.000 Jahre, also knapp eine halbe Million Jahre. Und bereits hierin verstecken sich 5 Warmzeiten und 4 Kaltzeiten unseres gegenwärtigen Eiszeitalters. Bezüglich der Zusammenstellung von Andy May über 70 Mio. Jahre drängen sich deshalb schon einmal Überlegungen zu Sampling-Rate und gemeinsamer Auflösung für die Daten von Westerholt et al. (2020) und Rae et al. (2021) auf, insbesondere, wenn dann solche Daten auch noch in einen Kontext mit plattentektonischen Ereignissen gestellt werden.

Abbildung 1: Die Temperatur-Proxys aus dem Vostok-Eiskern

Diese Abbildung ist eine isochrone Darstellung der Originaldaten von Petit et al. (2001), was an der abnehmenden Strichstärke von links nach rechts aufgrund der Datendichte deutlich wird. Seit dem bahnbrechenden Werk von KÖPPEN und WEGENER „Die Klimate der geologischen Vorzeit“ (1924), das zwischenzeitlich in den politisierten Klimawissenschaften bedauerlicherweise „verloren gegangen worden“ ist, werden in den Geowissenschaften die paläoklimatischen Schwankungen auf Variationen der Erdbahn (Milanković-Zyklen) zurückgeführt, weil zwischen beiden eine zwingende Übereinstimmung im Frequenzbereich besteht. Diese Erkenntnis setzt sich bis in die aktuelle geowissenschaftliche Literatur hinein fort, beispielsweise bei Shackleton, Imbrie und Laskar.

Allerdings ist die absolute Veränderung der Sonneneinstrahlung über diese orbitalen Zyklen vom Betrag her zu klein, um solche globalen Temperaturwechsel direkt verursachen zu können. Aber ein durch die orbitalen Zyklen gesteuerter Eisalbedoeffekt auf den Kontinentalschollen höherer und mittlerer Breiten als selbstverstärkender Sekundäreffekt wäre durchaus in der Lage, über kleine Veränderungen der Sonneneinstrahlung einen entscheidenden Einfluss auf das globale Klima auszuüben. Dieser Effekt kann in seiner Wirkung beispielsweise mit einem elektronischen Verstärker verglichen werden, der ein von einem Radio empfangenes schwaches elektromagnetisches Signal schließlich als Töne hörbar macht. In der neueren klimawissenschaftlichen Literatur gibt es dagegen immer wieder Ansätze, Kohlendioxid (CO2) als den eigentlichen natürlichen Klimaantrieb auf unserer Erde zu etablieren, zuletzt von Shakun et al. (2015). Deren eigene Frequenzanalyse einer “ice-volume CO2 gain function” bestätigt aber die enge Korrelation zwischen paläoklimatischen Veränderungen und den orbitalen Milanković-Zyklen. Damit liefern Shakun et al. selbst einen unfreiwilligen Nachweis für den oben genannten Eisalbedoeffekt.

Die Vostok-Temperaturproxys liegen im Bereich von Min = –9,39 °C bis Max = +3,23 °C. In der Abbildung unten wurde der theoretisch erforderliche CO2-Gehalt der Paläoatmosphäre für einen alleinigen primären CO2-Klimaantrieb aus den Vostok-Temperaturproxies von Petit et al. (2001) abgeleitet (blaue Kurve). Dazu wurde für CO2 die maximale Klimasensitivität des IPCC von 4,5 °C (IPCC 2013: 1.5°C to 4.5°C @ high confidence) für die Verdoppelung des atmosphärischen CO2-Gehaltes zugrunde gelegt, beginnend bei einer Temperaturdifferenz von 0 °C zur NST und mit dem vorindustriellen CO2-Gehalt von 280 ppm. Die rote Kurve zeigt dann die tatsächlichen CO2-Messwerte für die Paläoatmosphäre aus den Vostok Eiskernen von Barnola et al. (2003).

Abbildung 2: Berechneter CO2-Antrieb aus den Vostok-Temperaturproxies (blau) und tatsächlich gemessener paläo-atmosphärischer CO2-Gehalt aus den Vostok Eiskernen (rot)

Ein natürlicher CO2-Antrieb für den Temperaturverlauf des Paläoklimas hätte also mindestens eine Schwankung des atmosphärischen CO2-Gehaltes zwischen etwa 65 und 460 ppm erfordert, was die gemessenen CO2-Gehalte der Paläoatmosphäre mit etwa 180 bis 300 ppm CO2 aber nicht abbilden; plausiblere Werte für die Klimasensitivität von CO2 unter 4,5 [°C/2xCO2] würden die erforderliche Schwankungsbreite für einen rechnerischen CO2-Klimaantrieb sogar noch deutlich erhöhen. Diese Betrachtung ermöglicht aber umgekehrt auch eine Abschätzung der CO2-Klimasensitivität für einen alleinigen CO2-Temperaturantrieb der Paläoatmosphäre aus den Vostok-Temperatur-Proxys. Aufgrund von Unsicherheiten bei der Kombination der Datenpaare (Vostok-Temperatur-Proxy bei paläo-atmosphärischen CO2-Gehalten) und der Division durch kleine Zahlen ist die Variabilität der Ergebnisse für die oben angegebenen Minimal-/Maximalwerte (180 ppm bei –9,39 °C bzw. 300 ppm bei +3,23 °C) recht groß, während der Durchschnitt über den gesamten Datensatz eine mittlere Klimasensitivität von 16,7 [°C / 2x CO2] ergibt.

Ohne eine Klimasensitivität von etwa 16 [°C / 2x CO2] kann CO2 also ganz eindeutig nicht der einzige natürliche Paläo-Klimaantrieb sein, wie uns das die politisierte Klimawissenschaft ständig einzureden versucht.

Abschätzung mit aktuellen Messdaten: Im Zeitraum zwischen 1880 und 2012 hatte sich der atmosphärische CO2-Gehalt von 280 ppm auf 394 ppm erhöht (NOAA). Für einen alleinigen anthropogenen CO2-Klimaantrieb seit 1880 ergibt eine IPCC-konforme Berechnung über die genannten Eckwerte mit der minimalen CO2-Klimasensitivität des IPCC von 1,5 [°C/2xCO2] einen Temperaturanstieg von 0,74 °C. Der vom IPCC (2014) für denselben Zeitraum angegebene Anstieg der globalen oberflächennahen Temperatur beträgt 0,85 °C. Die daraus abgeleitete Klimasensitivität ergibt sich zu 1,7 [°C/2xCO2] und schließt bereits den Effekt aller anthropogen erzeugten klimawirksamen Spurengase und deren atmosphärische Rückkopplungseffekte ein.

Dieser gemessene Temperaturanstieg von 0,85 °C zwischen 1880 und 2012 enthält aber auch noch den Einfluss des natürlichen (Paläo-) Klimaantriebs für diesen Zeitraum.

In meinem EIKE-Artikel, Über physikalische Modelle: Kippen wir doch nicht gleich das Kind mit dem Bade aus, hatte ich ausgeführt, dass es in der Klimawissenschaft bis heute kein konkretes und falsifizierbares Modell für den natürlichen Klimaantrieb gibt, Zitat:

Das IPCC hatte in seinem Bericht „Climate Change 2014 / Synthesis Report / Summary for Policymakers” auf Seite 5, letzter Absatz, folgende Aussage getroffen, Zitat mit Hervorhebungen:

“The evidence for human influence on the climate system has grown since the IPCC Fourth Assessment Report (AR4). It is extremely likely that more than half of the observed increase in global average surface temperature from 1951 to 2010 was caused by the anthropogenic increase in GHG concentrations and other anthropogenic forcings together.”

Mehr als „einhalb“ kann zunächst einmal alles zwischen einhalb und eins mit einem „natürlichen“ Epsilon (0<E<=0,5) bedeuten. Das IPCC argumentiert hier aber mit einem einstelligen Bruch [mehr als ½=0,5]. Und der nächste einstellige Bruch in dieser Abfolge in Richtung „1“ wäre dann [3/5=0,6]. Wenn wir die IPCC-Aussage „mehr als einhalb“ in diesem Sinne interpretieren, dann sind lediglich maximal 55% des Temperaturanstiegs von 1951 bis 2010 menschengemacht. Aber wenn man dann in diesem Bericht tiefer gräbt und nach dem zugrunde liegenden CO2-Modell für den „natürlichen atmosphärischen Treibhauseffekt“ fahndet, dann findet man mit einer Textsuche nach „greenhouse“ lediglich eine Vielzahl von Verweisen auf „greenhouse gas“ und Quantifizierungen von Strahlungsleistung in [W/m²], aber kein der Verifikation/Falsifikation zugängliches Modell für den sogenannten „natural greenhouse effect“. Das IPCC hat also gleich zwei Probleme mit dem CO2: Erstens gibt es beim IPCC neben Strahlungsäquivalenten gar kein nachvollziehbares physikalisches Modell für dessen Treibhauswirkung und zweitens sind nach dortiger Auffassung überhaupt nur 55% des vorgeblich beobachteten Temperaturanstiegs menschengemacht.“

Am Ende landen wir mit der Klimasensitivität von CO2 also bei maximal 0,55 x 1,7 [°C/2xCO2] inklusive aller Wechselwirkungen, also bei etwa 0,9 [°C/2xCO2]. CO2 kann damit weder aktuell noch in der geologischen Vergangenheit der bestimmende Klimaantrieb für die Temperaturgenese auf unserer Erde (gewesen) sein, ganz im Gegenteil: Mein hemisphärisches Konvektionsmodell kommt bei der Erklärung für die terrestrische Temperaturgenese ganz ohne einen THE aus.

 




Trump unterzeichnet Durchführungsverordnung, um staatliche Gesetze zum Klimawandel zu blockieren

Die Verordnung beauftragt Generalstaatsanwältin Pam Bondi, staatliche Gesetze im Zusammenhang mit dem Klimawandel zu identifizieren und dagegen „vorzugehen“.

US-Präsident Donald Trump hat am Dienstag eine Durchführungsverordnung unterzeichnet, mit der die Generalstaatsanwältin angewiesen wird, die Durchsetzung von Gesetzen der Bundesstaaten zum Klimawandel zu blockieren.

Die Anordnung beauftragte Pam Bondi, alle bundesstaatlichen und lokalen Gesetze im Zusammenhang mit dem Klimawandel sowie die Mittel für die Erhebung von Strafzöllen oder Steuern auf Kohlenstoff zu ermitteln.

Die Trump-Administration will die durch Klimagesetze auferlegten Strafen für traditionelle Energieunternehmen beseitigen und argumentiert, dass die Vorherrschaft der USA im Energiebereich bedroht ist, wenn staatliche und lokale Regierungen versuchen, Energie zu regulieren.

Die Anordnung richtet sich speziell gegen demokratisch geführte Bundesstaaten wie Kalifornien, New York und Vermont. New York verhängte demnach „Bußgelder in Milliardenhöhe“ gegen traditionelle Energieerzeuger wie das American Petroleum Institute, das die Anordnung umgehend begrüßte.

Der Staat New York verhängte diese Bußgelder als „Ausgleichszahlungen“ an Unternehmen für ihren Anteil an den Treibhausgasemissionen. Die Trump-Regierung bezeichnete diese Zahlungen als „Erpressung“.

In der Anordnung heißt es weiter, Kalifornien bestrafe den Kohlenstoffverbrauch durch seine Cap-and-Trade-Politik. Laut der kalifornischen Behörde für Luftressourcen ist diese Politik ein Schlüsselelement der Strategie des Staates zur Verringerung der Treibhausgasemissionen.

Diese staatlichen Maßnahmen erhöhen die Energiepreise, „stören“ die Versorgungssicherheit und „beeinträchtigen“ die Lebensqualität von Familien im ganzen Land, so die Trump-Administration.

Trump wies Bondi an, einzelstaatliche Gesetze zu ermitteln und gegen sie vorzugehen, die die Nutzung der heimischen Energie behindern und „verfassungswidrig, durch Bundesrecht überlagert oder anderweitig nicht durchsetzbar“ sind.

Entgegen dem Konsens der weltweiten wissenschaftlichen Gemeinschaft hat Trump behauptet, der Klimawandel sei ein „chinesischer Schwindel“.

Forscher haben davor gewarnt, dass der Welt nur ein sehr kleines Zeitfenster zur Verfügung steht, um die Treibhausgasemissionen zu reduzieren, bevor die Welttemperaturen einen gefährlichen Wendepunkt erreichen, von dem sie möglicherweise nie wieder zurückkehren.

Quelle: über Anadolu

 

 




Nein, Erdbeben sind nicht „Klima“!

Auch das noch! Erdbeben durch die Erderwärmung. Und wir sind schuld. So der neuste Hype nach dem Erdbeben in Myanmar. Dies ist eine neue Eskalationsstufe auf der Klima-Alarmisten-Richterskala. Und eine Fehlanzeige.

Von Uta Böttcher.

Simone Peter, Ex-Grünen-Chefin und aktuell als Präsidentin des Bundesverbands Erneuerbare Energie und Mitglied bei BUND, NABU und Eurosolar als Lobbyistin tätig, schrieb auf X nach dem Erdbeben in Myanmar: „Wir wissen, dass Erdbeben mit der Klimakrise weiter zunehmen.“ Und weiter: „Hier gibt es einen spannenden Artikel dazu: Geologen sind sich zunehmend einig, dass es einen Zusammenhang zwischen Klimakrise und Erdbeben gibt.“

Welche Geologen sind denn gemeint? Und was hat es mit diesen geowissenschaftlichen Forschungen auf sich? Und was ist mit den Geologinnen? „Mehr Erdbeben durch Klimawandel“ meldet tatsächlich das GFZ – Helmholtz-Zentrum für Geoforschung in Potsdam. Wissenschaftler des GFZ in Potsdam und der University of Southern California prognostizieren, der menschengemachte Klimawandel werde weltweit zu mehr und teils sogar stärkeren Erdbeben führen.

Die Argumentation

Dass es solche Forschung überhaupt gibt, hängt wahrscheinlich damit zusammen, dass Gelder für Grundsatzforschung derzeit nur fließen, wenn irgendwie „Klimakrise“ oder „Klimawandel“ im Titel vorkommen. Die Argumentation der Potsdamer „Expert:innen“ lautet kurzgefasst so:

  1. Derzeit schmilzt Festlandeis vornehmlich in der Antarktis und auf Grönland. Dadurch steigt weltweit der Meeresspiegel und zwar in einem sich ständig weiter beschleunigendem Ausmaß. Sagt der IPCC-Bericht von 2023.
  2. Außerdem gibt es angeblich eine wachsende Häufigkeit von Extremwetterereignissen, die unter anderem zu Erdrutschen führen können.

Logisch ist: Wenn Festlandeis abschmilzt, führt das dort, wo es verschwindet, zu einer Verringerung der Auflast. Als die letzte Vereisungsphase endete, schmolz der Eispanzer über Skandinavien sehr schnell. Dessen gewaltige Massen hatten das Kontinentalgestein nach unten gedrückt (siehe auch hier und hier).

Das hat nichts mit „Klimawandel“ zu tun

Die Landmasse konnte dadurch wieder aufsteigen, wodurch es zu Erdbeben kam, deren Folgen auch heute noch im Gelände zu sehen sind. Auch ein höherer Meeresspiegel bedeutet eine höhere Last auf dem Untergrund an Küstenregionen und führt dort zu Drucksteigerungen. Und Extremwetterereignisse mit heftigen Regengüssen können etliche Kubikkilometer Erdreich und Gestein mobilisieren, wodurch sich Änderungen des Drucks auf den geologischen Untergrund ergeben.

Wenn dies nun in einer Erdbebenregion geschieht, wo die Spannung im Untergrund gerade fast bis zur Belastungsgrenze aufgebaut ist und ein Erdbeben ohnehin kurz bevorsteht, könnte durch die Änderung der Auflast ein Beben etwas früher ausgelöst werden, als es ohne diese klimabedingte Veränderung geschehen wäre. Es würden dann etwas schwächere Beben entstehen, die dafür etwas häufiger wären.

Und auch der Mensch kann tatsächlich kleine, lokale Beben auslösen. Wasserinjektionen zur Öl-, Gas- oder Erdwärmeförderung können hier Auslöser sein, die Millionen Tonnen von Wasser – mit mal mehr und mal weniger Auflast – in einem Stausee verändern die Druckverhältnisse im Untergrund ebenfalls, und auch die Bergbautätigkeit des Menschen hat schon für kleinere tektonische Ereignisse gesorgt. Aber das hat nichts mit „Klimawandel“ zu tun.

Tektonische Plattengrenzen

Genau so könnten auch Meeresspiegelschwankungen eine Rolle im Erdbebengeschehen spielen. Wie groß kann diese Rolle denn sein? Ein Anstieg des Meeresspiegels ist in der Tat nachzuweisen. Zwischen den Jahren 1880 und 2009 – also innerhalb von 129 Jahren – betrug der globale durchschnittliche Meeresspiegelanstieg insgesamt 21 Zentimeter, also 0,16 Zentimeter pro Jahr.

Eine andere Forschergruppe errechnete für die Jahre von 1993 bis 2023 mithilfe der Satellitendaten, die es seit 1993 gibt, einen globalen Meeresspiegelanstieg von 11,1 Zentimetern. Innerhalb dieser 30 Jahre wäre demzufolge der Meeresspiegel um 0,37 Zentimeter pro Jahr gestiegen. Der Anstieg scheint sich zu beschleunigen: Im Jahr 1993 wurden 0,21 Zentimeter, im Jahr 2023 rund 0,45 Zentimeter pro Jahr errechnet.

Tatsächlich entstehen Erdbeben vor allem an tektonischen Plattengrenzen, wo – verursacht von der Kontinentaldrift – massive Gesteinsplatten untereinander, übereinander und aneinander vorbei müssen. Das geschieht mit einer Geschwindigkeit von wenigen Millimetern bis mehreren Zentimetern pro Jahr. Die schnellste Platte ist zurzeit Indien, die mit rund 20 Zentimetern pro Jahr auf die Eurasische Platte auffährt, wodurch sich der Himalaya auftürmt. Genau an dieser Plattengrenze wurde auch das Erdbeben in Myanmar der Stärke 7,7 am 28. März 2025 ausgelöst, nahe der 1,5-Millionen-Einwohner-Stadt Mandalay. Das Epizentrum lag auf der Sagaing-Verwerfung, an der die indische und die eurasische Kontinentalplatte aufeinandertreffen.

Ein seismischer Zyklus

Denn: Das langsame Aneinander-Vorbei-Schieben geht nicht wie geschmiert. Die Kontinentalplatten verhaken sich miteinander, es baut sich langsam eine Spannung auf, bis die Festigkeit des Gesteins an einer Stelle überschritten wird und das Material nachgibt, bricht und rutscht. Die Spannung löst sich ruckartig in Form eines Erdbebens. Dann beginnt der Aufbau der Spannungen von vorne; es ist ein Kreislauf von Spannungsaufbau und Erdbeben, ein seismischer Zyklus, der Jahre, Jahrzehnte oder Jahrhunderte lang sein kann.

Kann also unser rezenter Meeresspiegelanstieg tatsächlich eine Rolle im Erdbebengeschehen spielen? Die Antwort lautet: Nein. Andernfalls müsste ständig vor von den Gezeiten verursachten Erdbeben gewarnt werden: Der wahrscheinlich größte Tidenhub weltweit passiert mit 13 Metern bei Normalhochwasser und 16 Metern bei Springflut – wenn Sonne, Erde und Mond auf einer Geraden zueinander stehen und sich ihre Kräfte addieren –  an der nordamerikanischen Atlantikküste in der Bay of Fundy in Kanada. In der Bucht von St. Malo an der französischen Atlantikküste beträgt er 11 Meter, in der Ostsee hingegen nur 0,2 Meter.

 

Uta Böttcher ist Diplom-Geologin mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie. 

Der Beitrag erschien zuerst bei ACHGUT hier

 




Szenen des Energie-Wahnsinns: das Flachlegen des Kraftwerks Ibbenbüren

Kraftwerkssprengungen wie am Sonntag in Ibbenbüren werden in Deutschland mittlerweile als Happening inszeniert. Die Menschen schauen begeistert zu, wie ihr Wohlstand sinnlos vernichtet wird.

von Manfred Haferburg

Der Wahnsinn geht ungebremst weiter. Unter dem Jubel der Grünen und ihrer Jubelperser-Medien wurde das Steinkohle-Kraftwerk Ibbenbüren am Sonntag in die Luft gesprengt. Bild frohlockt: „Spektakulär: Sprengmeister legt Kraftwerks-Riesen flach”. Etwa 130 Anwohner und „rund 700 Bewohner einer Flüchtlingsunterkunft“ mussten für das „Flachlegen“ Ihre Häuser vorübergehend verlassen.

So ist das in Deutschland: Die Sprengung eines funktionstüchtigen Kraftwerks wird von 350 eingeladenen politischen Honoratioren gefeiert. Der Umwelt- und Verkehrsminister von NRW Oliver Krischer – ein abgebrochener Biologiestudent – jubelte:

Die Sprengung dieses ehemaligen Steinkohlekraftwerks ist ein Sinnbild für die Energiewende in unserem Land. Hier in Ibbenbüren wird der Übergang von fossilen zu erneuerbaren, klimafreundlichen Energieträgern sichtbar. Hier treiben wir den grundlegenden Strukturwandel voran und gehen den nächsten Schritt. Mit dem Einsatz innovativer Technologien wie dem neuen Konverter holen wir Offshore-Windstrom nach Nordrhein-Westfalen“. Anschließend gab es wahrscheinlich zur Feier des Tages Sekt und Häppchen.

Das Kraftwerk Ibbenbüren war ein deutsches Steinkohlekraftwerk in Nordrhein-Westfalen und hatte eine Leistung von 838 Megawatt. Das Kraftwerk ging am 29. November 1985 in Betrieb, und es erzeugte zuverlässig und günstig Grundlast aus Steinkohle. Nach einer Betriebszeit von knapp 40 Jahren wurde es 2021 „zur Stilllegung ausgeschrieben“ und abgeschaltet. Es hätte noch gut und gerne 20 Jahre weiterlaufen können.

Das Zerstörungswerk mit markigen Sprüchen abfeiern

Nun ist es mitnichten so, dass auf dem Gelände wieder Strom erzeugt werden soll. Das Kraftwerksgelände soll künftig für eine „Konverterstation“ des Projektes BalWin2 genutzt werden. Eine Konverterstation ist für Techniker nichts weiter als ein Wechselrichter.

Das Projekt BalWin2 soll den Anschluss von Offshore-Windparks an das Stromnetz in Nordrhein-Westfalen ermöglichen. Denn der Strom von den Offshore-Windmühlen kommt in NRW über Erdkabel als Gleichstrom an. Die Gleichstromtechnik ermöglicht es, große Energiemengen über die „weite Strecke“ von 380 Kilometern verlustarm zu transportieren.

Die geplante Konverteranlage auf dem ehemaligen Kraftwerksgelände in der Nähe des Netzverknüpfungspunktes an der Umspannanlage Westerkappeln soll – falls der Wind weht – 2.000 Megawatt des ankommenden Gleichstroms in Wechselstrom umwandeln können, der dann ins öffentliche Übertragungsnetz eingespeist werden kann. Ein Kraftwerk benötigt gar keine solche aufwändige Konverter-Anlage, da es direkt einspeisbaren Wechselstrom erzeugt.

Das BalWin2-Projekt wird angeblich 4,5 Milliarden Euro kosten. Für diese Summe hätte man drei hochmoderne Blöcke ähnlich der gesprengten Anlage Ippenbüren neu errichten können, die dann unabhängig von Wind und Wetter 2.500 Megawatt Grundlast erzeugen könnten. So ist das eben in Deutschland. Kraftwerke werden von erfahrenen Sprengmeistern im Beisein von ungelernten Politikern flachgelegt, die dieses Zerstörungswerk mit markigen Sprüchen abfeiern. Wind und Sonne schicken zwar keine Rechnung, die Windradbetreiber und der Netzbetreiber Amprion aber schon. Und diese Rechnung zahlen Sie, verehrter Leser.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Die Kernkraft und die CDU/CSU – Energiewende mit dem Dual-Fluid-Reaktor

Die Union ist dabei ein weiteres Wahlversprechen zu brechen – nämlich die Rückkehr zur Kernkraft. Dabei könnte der neue Dual-Fluid-Reaktor die Energiekrise lösen.

Von Götz Ruprecht und Manfred Haferburg.

Langsam reicht es mit der Wählertäuschung. Wenn die Herren Merz, Söder, Aiwanger und Linnemann in Sachen Kernkraft jetzt nicht handeln, dann ist eines sonnenklar – sie wollten nie handeln. Um die Wähler an der Nase herumzuführen. Im Wahlprogramm hat die CDU/CSU geschrieben: „Wir halten an der Option Kernenergie fest. Dabei setzen wir auf die Forschung zu Kernenergie der vierten und fünften Generation, Small Modular Reactors und Fusionskraftwerke.“

Im ersten Teil dieses Beitrags haben wir uns mit der Reaktivierung der abgeschalteten Kernkraftwerke befasst. Im zweiten Teil haben wir Dr. Götz Ruprecht, Direktor und CEO von Dual Fluid, als Co-Autor eingeladen, um uns mit der Forschung zur nächsten Generation der Kernkraftwerke zu befassen. Das Dual-Fluid-Projekt bietet der neuen Regierung die Möglichkeit, ihr diesbezügliches Wahlversprechen einzuhalten (Achgut berichtete).

Das weltweit erste Reaktorexperiment seit 60 Jahren

Der Dual-Fluid-Reaktor braucht 15 Millionen Euro Kapital für die sogenannte Vorfertigungsphase, in der die Fertigungsmethoden eines Prototyp-Reaktors entwickelt werden. Weitere 85 Millionen Euro werden dann zur Errichtung und den Betrieb einer Anlage benötigt, in der der Prototyp circa 18 Monate laufen soll. Dieses vier Jahre dauernde „kritische Demonstrationsexperiment“ (CDE) benötigt also insgesamt 100 Millionen Euro. Es wird das weltweit erste Reaktorexperiment seit 60 Jahren sein.

Bereits für die Seed-Runde (Anm. d. Red.: Frühe Finanzierungsrunde eines Start-Ups) wurden vor einigen Jahren 4,5 Millionen Euro eingenommen. Damit wurden die grundlegenden Arbeiten zur Berechnung der Sicherheit des Dual-Fluid-Reaktorkerns in Zusammenarbeit mit der Technischen Universität München, der Technischen Universität Dresden sowie dem Paul-Scherrer-Institut in der Schweiz durchgeführt. Diese Berechnungen wurden im letzten Jahr erfolgreich abgeschlossen und bestätigen die grundlegenden Eigenschaften des Reaktorkerns, wie die prompte Selbstregulierung.

Die prompte Selbstregulierung des Reaktorkerns ist eine fantastische Eigenschaft, die man nur bei Flüssigbrennstoffen vorfindet. Da bei Dual Fluid – der Name sagt es ja – sowohl der Brennstoff als auch das Kühlmittel flüssig sind, ist die Ausdehnung bei Temperaturerhöhung besonders stark. Dies bewirkt, dass die Neutronen pro Volumen weniger Kerne zum Spalten finden. Dadurch sinkt die Wärmeproduktion, und die Temperatur geht wieder auf den ursprünglichen Wert zurück. Die Wärmeproduktion passt sich also immer dem Bedarf an, während die Temperatur konstant bleibt. Der Reaktor regelt sich damit ganz von selbst, ohne dass irgendwelche menschlichen oder automatisierten Eingriffe nötig sind. Auch eine Kernschmelze ist damit ausgeschlossen.

Sicherheitsvorkehrungen bleiben überschaubar

Damit alles flüssig bleibt, muss der Dual-Fluid-Reaktor bei 1.000 °C arbeiten. Solch hohe Temperaturen sind an sich kein Problem, in der Industrie wird mit höheren Temperaturen gearbeitet, aber man braucht spezielle teure Materialien. Die hat man bisher in der Kerntechnik lieber vermieden, denn ein Reaktorkerngefäß ist ziemlich groß, so dass jeder wirtschaftliche Rahmen gesprengt würde. Nicht so bei Dual Fluid, denn es ist ja gerade das Dual-Fluid-Prinzip, das den Reaktorkern bei gleicher Leistung auf einen Bruchteil der Größe schrumpfen lässt – der CDE-Reaktorkern ist nicht größer als eine Waschmaschine. Entsprechend werden auch nur kleine Mengen der teuren Materialien benötigt. Plötzlich wird das Ganze nicht nur wirtschaftlich, sondern hocheffizient.

Gerade weil diese Materialien so hochwiderstandsfähig sind, lassen sie sich nur schwer bearbeiten. Genau dies soll in der Vorfertigungsphase entwickelt werden. Materialexperten, die für Dual Fluid arbeiten, bestätigen die Machbarkeit mit heutigen Methoden. Parallel dazu soll in Ruanda eine Experimentierhalle errichtet werden, in der das Experiment laufen soll. Der Reaktorkern ist ein „funktionaler Prototyp“, das heißt er hat die gleiche Funktionsweise wie spätere kommerzielle Typen, aber eine Leistung von nur circa 100 Kilowatt, ohne angeschlossenen Stromerzeuger. Entsprechend klein sind auch die benötigten Mengen an Uran. Zusammen mit der kurzen Laufzeit des Experiments häufen sich nur sehr geringe Mengen an Radioaktivität an, so dass die notwendigen Sicherheitsvorkehrungen überschaubar bleiben.

Die praktischen Vorbereitungsarbeiten laufen

Entsprechend schnell schreitet die Genehmigung voran. Der Startschuss war Ende 2023 mit einem Agreement zwischen Dual Fluid und dem Staat Ruanda. Seitdem gab es enorme Fortschritte in den Genehmigungsprozessen, insbesondere in der „Site license“ (Anm. d. Red.: Eine Art „Standortgenehmigung“). Dazu hat Ruanda in einem mehrere hundert Seiten starken Gutachten die Geeignetheit des Dual Fluid zugeordneten Nukleargeländes südlich der Hauptstadt Kigali nachgewiesen und Dual Fluid hat die Planung soweit detailliert, dass in Kürze mit einer „Site license“ gerechnet wird, einem sehr wichtigen Schritt. Die Vorarbeit ist bereits geleistet und alles, was man „auf dem Papier“ machen kann, ist getan, alle Berechnungen, Simulationen und Recherchen sind erledigt. Vom 25. bis 29. März 2024 führte die Internationale Atomenergie-Organisation (IAEO) auf Einladung der ruandischen Regierungsbehörde RAEB in Kigali eine Expertenmission zur Sicherheitsanalyse und zum Design von Sicherheitsmerkmalen des CDE-Projekts durch.

Dual Fluid geht nun in die Stufe 4 des „Technology Readiness Level“ (TRL), und das bedeutet: praktische Arbeit, Hardware, Konstruktion, Tests, Entwicklung und vieles mehr, alles, was Geld kostet. Der Lohn: Allein die Inbetriebnahme des kritischen Demonstrationsexperiments (CDE) wird eine weltweite Sensation sein, denn es ist das erste Reaktorexperiment seit circa 60 Jahren. Damals, in den späten 1960er Jahren, lief das Flüssigsalzexperiment am Oak Ridge National Lab im US-Bundesstaat Tennessee, seitdem wurden nur bekannte Konzepte immer wieder aufgewärmt. Das CDE wird aber zeigen, dass auch Neuentwicklungen möglich sind, auch wenn man dies in der Kerntechnik fast komplett verlernt hat.

Die „Option Kernenergie“ und der Fusionsreaktor der CDU/CSU

Die CDU/CSU hatte vor der Wahl versprochen, dass sie „die Option Kernenergie“ weiter nutzen wollte und die „Wiederinbetriebnahme der zuletzt abgeschalteten Kernkraftwerke prüfen“ würde. Merz sprach sich vor der Wahl dafür aus, die Option Kernenergie offen zu halten. Markus Söder, der bayerische Ministerpräsident, befürwortete vor der Wahl deutlich eine Rückkehr zur Kernkraft. Er forderte die Reaktivierung der 2023 abgeschalteten Atomkraftwerke, darunter Isar 2, und betonte, dass dies notwendig sei, um Energiesicherheit und Klimaneutralität zu gewährleisten. Söder argumentierte, dass ohne Kernenergie die Klimaziele Bayerns nicht erreicht werden könnten und forderte einen Stopp des Rückbaus stillgelegter Anlagen.

So wie alles andere, was sie hoch und heilig versprochen haben, war auch dies bisher leider nur eine Täuschung der Wähler. Stattdessen kommt im Sondierungspapier das Wort Kernenergie nicht mehr vor und es wird lediglich davon gefaselt, dass „der erste Fusionsreaktor in Deutschland gebaut“ werden soll. Das wäre zwar schön, ist aber in den nächsten zehn Legislaturperioden nicht zu erwarten.

Warum ist die Kernfusion so schwierig? Das Plasma in einem Fusionsreaktor erreicht extrem hohe Temperaturen, die für die Kernfusion notwendig sind. In modernen Tokamak-Reaktoren wie ITER wird das Plasma auf über 150 Millionen Grad Celsius erhitzt. Das ist etwa zehnmal heißer als der Kern der Sonne! Diese Temperaturen ermöglichen es den Wasserstoffkernen, zu verschmelzen und dabei Energie freizusetzen. Das Schüsselchen, in dem das zappelnde Plasma daran gehindert wird, überzulaufen, die Wände des Reaktors zu berühren und die Konstruktion des Reaktors zu zerstören beziehungweise dabei selbst an Temperatur zu verlieren, besteht daher aus einem in Echtzeit gegenzappelnden Magnetfeld. Da leuchtet selbst dem Laien ein, dass dies nicht ganz so einfach ist. Bis zur Industriereife wird es also noch ein bisschen dauern. Es gilt, ganz im Scherz: die „Haferburgsche Fusionskonstante“: „Es dauert noch genau 50 Jahre bis zur Industriereife der Kernfusion – unabhängig vom Zeitpunkt der Betrachtung.“

Zukunftstechnologien – von Millionen und Milliarden

Der Dual-Fluid-Reaktor hingegen ist eine wesentlich einfachere Konstruktion und hat durchaus realistische Chancen, in ein paar Jahren die Industriereife zu erlangen. Der Reaktorkern enthält keine mechanischen Teile, es ist eine einfache Struktur. Nur muss man einmal herausfinden, wie diese in Serie zu fertigen ist, und das ist der gesamte Fokus der Entwicklung. Wenn das kritische Demonstrations-Experiment in Ruanda nach circa 1,5 Jahren beendet ist, wird der Reaktor zerlegt und analysiert. Parallel dazu startet die Planung der Entwicklung des ersten kommerziellen Leistungsreaktors, des DF-300 mit 300 Megawatt elektrischer Leistung. Hierzu wird ein Industriepark errichtet, in dem parallel verschiedene Fertigungsmethoden entwickelt und ausgetestet werden, bis die optimale Fertigungsmethode gefunden ist. Dies wird mehrere Jahre dauern und circa 30 Milliarden Euro kosten, etwa so viel wie für die Intel-Chipfabrik in Magdeburg eingeplant war. Da wollte die Ampelregierung mal eben 10 Milliarden beisteuern.

Unter den circa 100 neu aufgetauchten Reaktorentwicklungen bietet Dual Fluid das einzige wirklich neue Konzept und als einziges einen deutlichen Entwicklungssprung. Sogar Kohle in der Stromerzeugung so deutlich zu unterbieten, hat bisher noch kein Reaktordesign geschafft, mit Dual Fluid wäre es möglich. Außerdem können Dual-Fluid-Reaktoren, weil sie bei 1.000 °C arbeiten, kostengünstig Wasserstoff und damit synthetische Kraftstoffe herstellen. Dies hat auch Konsequenzen für die Stahl- und Betonherstellung. Somit würde Dual Fluid als einziges System alle Sektoren des Energiebedarfs abdecken, bei gleichzeitiger Reduktion der Kosten. Der Wettbewerbsfähigkeit der Industrie würde dies einen bedeutenden Schub geben. Und es könnte die Rettung der Energiewende bedeuten.

CDU-Kanzlerkandidat Friedrich Merz thematisierte vor der Wahl regelmäßig seine neue Hoffnung: Kernkraftwerke der neuen Generation und sogenannte Small-Modular-Reaktoren (SMR). Dabei handelt es sich um kleinere-Atomkraftwerke, die circa ein Viertel der Leistung herkömmlicher Kraftwerke aufbringen sollen. Der Dual-Fluid-Reaktor ordnet sich hier bestens ein und sollte der CDU/CSU ein willkommenes Gottesgeschenk sein, das es nach Kräften zu fördern gelte. Aber, die Koalitionsverhandlungen zwischen Union und SPD zeigen Uneinigkeit in Bezug auf die Kernenergie. Während CDU und CSU eine bedeutende Rolle der Kernkraft zur Erreichung der Klimaziele halbherzig befürworten, lehnt die SPD diese Forderung vollen Herzens ab. Die Diskussionen über die Zukunft der Kernenergie sind Teil der Arbeitsgruppe Klima und Energie, deren Ergebnisse noch auf höherer Ebene besprochen werden müssen.

Wie ernst ist es der CDU/CSU mit der Kernenergie?

Ob jemand etwas wirklich will, zeigt sich meist dadurch, dass er bereit ist, dafür Geld auszugeben. Nur was nichts taugt, kostet auch nichts. Die Gründer der Dual-Fluid-Inc. – ursprünglich eine deutsche Physikergruppe –, haben schon eine lange Odyssee hinter sich. Eine erste Idee entstand im Rahmen der sogenannten Molybdän-Krise, als weltweit ein Mangel an diesem für medizinische Diagnosen wichtigen Radionuklid entstand. Mehrere Forschungseinrichtungen arbeiteten an Methoden der Produktion, so auch die Dual-Fluid-Erfinder. Das Ergebnis war ein neuer Reaktortyp, der nicht nur Molybdän produzieren konnte, sondern auch viel effizienter Strom und Wasserstoff herstellen und dabei auch noch inhärent sicher und preiswert ist. Die Forscher gaben dieser Technologie den Namen „Dual Fluid“.

Wie könnte es mit Geld der neuen Deutschen Regierung weitergehen?  Die entscheidende Frage ist: Wie ernst war es der CDU/CSU mit der „Option Kernenergie“? Die Rückholung der abgeschalteten Kernkraftwerke wird von Woche zu Woche schwieriger, da der Rückbau ungebremst voranschreitet. Aber die Standorte gibt es noch. Sie haben alles, was man für ein Kernkraftwerk braucht: Infrastruktur, Netzanbindung, Kühlwasser, lokale Akzeptanz, eine Genehmigungsbehörde und eine gute Personalbasis. Warum dann nicht Kernkrafwerke der neuen Generation errichten? Mit einer in Deutschland entwickelten Technologie. Statt in Kigali an deutschen Standorten. Statt bei den Südkoreanern oder Nordamerikanern Kernkraftwerke einzukaufen, ihnen welche zu liefern. Statt sich vom Wall-Street-Journal mit „der dümmsten Energiepolitik der Welt“ verhöhnen zu lassen, mal wieder nach langer Zeit erhobenen Hauptes stolz auf sein Land und seine Ingenieure sein zu können.

Mit 100 Millionen Euro könnte das Dual-Fluid-Reaktorprojekt wieder in seine ursprüngliche Heimat Deutschland zurück gelockt werden. Und in wenigen Jahren würden deutsche Physiker mal wieder zeigen, was sie können. Dann kann die Politik auf der Basis von wirklichen Ergebnissen technologieoffen entscheiden, welche Technologie für die neuen Kernkraftwerke der vierten Generation in Deutschland eingesetzt wird, um die Energiewende zu retten.

Dual Fluid – nun mal Butter bei die Fische

Preisfrage: Wie viel Prozent von einer Billion sind 100 Millionen? Für diejenigen, die in Mathe nicht ganz so fit sind, weil Mathe am Freitag war, wo immer „gegen das Klima“ schulgestreikt wurde: es ist 0,01 Prozent, also ein Hundertstel von einem Prozent. Die Kosten in Höhe von 100 Millionen wären im Vergleich zu den Billionen für die scheiternde Energiewende mehr als überschaubar. Vielleicht sollte sich Friedrich Merz mal an seine eigene Äußerung zum Dual Fluid Reaktor vor vier Jahren bei Lanz erinnern„…wenn wir neue Reaktortypen haben […] wie den Dual-Fluid-Reaktor […], das schließen wir überhaupt nicht aus weil das eine hochinteressante Technologie ist. Das ist eine Energieversorgung, die sogar mit abgebrannten Brennstäben möglich wäre, die uns ein großes Zwischen- oder Endlagerproblem helfen könnte zu lösen.“

Nun kommt mal, Fritze und Maggus, nun mal Butter bei die Fische. Ein Hundertstel Prozent, nämlich 0,01 Prozent Eures „Sondervermögens“ müsste es Euch doch Wert sein, wenigstens dieses eine Versprechen einzuhalten. Dann könnten als Folge womöglich auch noch ein paar andere Versprechen wahr werden – günstiger Strom für die Wirtschaft ohne Dauersubventionen und bezahlbarer Wasserstoff für Eure geliebte „Dekarbonisierung“. Dann könnt Ihr mit der SPD und den Grünen als das in die Geschichte eingehen, was Ihr schon immer sein wolltet – deutsche Vorreiter.

Teil 1 dieses Beitrages lesen Sie hier„Die Kernkraft und die CDU/CSU – Reaktivierung jetzt oder nie.“ 

 

Dr. rer. nat. Götz Ruprecht ist Mitbegründer des Institutes für Festkörper-Kernphysik und Miterfinder des Dual-Fluid-Reaktors (DFR). Als wissenschaftlicher Mitarbeiter an der Technischen Universität Berlin wurde er 2002 in Kernphysik promoviert. Am kanadischen TRIUMF National Laboratory, Vancouver, arbeitete er mehrere Jahre als Postdoc für nukleare Astrophysik mit Spezialisierung auf Detektorentwicklung, insbesondere führend an der Ionen-Spurenkammer TACTIC. Nach seiner Rückkehr nach Berlin im Jahr 2011 trug er zur Weiterentwicklung des DFR bei, während er weiterhin an anderen Forschungsprojekten in Kanada und Polen (Universität Szczecin) mitarbeitete. Im Jahr 2018/19 veröffentlichte er zusammen mit Horst-Joachim Lüdecke das Buch „Kernenergie – Der Weg in die Zukunft“. Transparenz-Anmerkung: Götz Ruprecht ist Miterfinder des Dual-Fluid-Reaktors und derzeit Director und Chief Executive Officer von Dual Fluid Energy Inc.; er berichtet aus seiner subjektiven Sicht.

Manfred Haferburg wurde 1948 in Querfurt geboren. Er studierte an der TU Dresden Kernenergetik und machte eine Blitzkarriere im damalig größten AKW der DDR in Greifswald. Wegen des frechen Absingens von Biermannliedern sowie einiger unbedachter Äußerungen beim Karneval wurde er zum feindlich-negativen Element der DDR ernannt und verbrachte folgerichtig einige Zeit unter der Obhut der Stasi in Hohenschönhausen. Nach der Wende kümmerte er sich für eine internationale Organisation um die Sicherheitskultur von Atomkraftwerken weltweit und hat so viele AKWs von innen gesehen wie kaum ein anderer. 

Der Beitrag erschien zuerst bei ACHGUT hier