Das fantastische Atmosphären-Biosphären-Rezyklierungssystem der Erde versus Narrativ vom „menschengemachten Klimawandel“!

von Dr. Arthur Chudy, dr.arthur.chudy@t-online.de

Vorbemerkung: Man sollte nicht Begriffe wie „Klimaschutz“ als „unbegründete Floskel“ in den Raum stellen oder gar Investitionen mit Steuergeldern planen ohne Grundkenntnisse über die ursächlichen kausalen Zusammenhänge zu haben.

Daher wird in diesem Beitrag die Problematik des „menschengemachten Klimawandels“ und des „Klimaschutzes“ fundamental in Bezug zum Atmosphären-Biosphären-Rezyklierungssystem der Erde betrachtet, um die vorherrschenden gezielt zweckorientierten Irreführungen zu entkräften.

***************************************

Das Atmosphären-Biosphären-Rezyklierungssystem der Erde

Die Erde ist ein Unikat im Weltall, dies insbesondere durch die Atmosphäre, mehr noch durch das einmalige Atmosphären-Biosphären-Rezyklierungssystem für Sauerstoff, Kohlendioxyd und Wasser, das das Leben auf der Erde ermöglicht und trägt (siehe Abbildung 1). Ein wesentliches Element ist der Kohlendioxydkreislauf (Abbildung 1).

Die einzige wesentliche Energiequelle für die Erde ist die Sonne, die je nach Strahlungsintensität (Warm- und Kaltzeiten) den Wärmehaushalt (Globaltemperatur) der Erde speist.

Die unterschiedlichen auch vom Grad der Neigung der Erdachse beeinflussten Einfallswinkel der Sonnenstrahlung führen zu großen klimatischen Unterschieden in den verschiedenen Erdregionen und werden in den Klimazonen erfasst und definiert.

Die Nutzung der Sonnenenergie erfolgt in zwei Richtungen – der physikalischen im Wärmehaushalt und der biogenen, im Wesentlichen durch die lebenden grünen Pflanzen bei der Assimilation.

Physikalische Nutzung der Sonnenenergie

Bei der physikalischen Nutzung geht es um das Gleichgewicht zwischen Erwärmung der Luft und der Erdoberfläche (Boden und Wasser) sowie der Rückstrahlung von der Erdoberfläche in die Atmosphäre als auch um Strahlung von Molekülen wie Wasser (H2O), Kohlendioxyd (CO2) und Methan (CH4), die Strahlungsenergie aufnehmen und in alle Richtungen, also auch zurück zur Erdoberfläche als Gegenstrahlung abgeben können. Das ist bei CO2 marginal, was sich allein angesichts der geringen Menge von 0,04 % atmosphärischem CO2 ergibt!

Den natürlichen Beweis dafür liefert der „Wüsteneffekt“. Die tagsüber von der Sonne bis über 30° C aufgeheizten Sande kühlen nachts bis zu Minusgraden bei gleichem CO2-Gehalt der Luft wie überall ab. Ursache sind die fehlenden Wassermoleküle in Form von Luftfeuchtigkeit und Wolken! Eine Erfahrung, die auch wir kennen. Bei sternklarem Himmel sinken die Nachtemperaturen wesentlich stärker ab als bei wolkenbehangenem Himmel.

Im Ergebnis finden diese physikalischen Vorgänge dann letztendlich summa summarum standortspezifisch in der Luft-, Boden- und Wassertemperatur ihren Niederschlag.

Biosphären-Atmosphären Rezyklierungssystem_3.gif

Abbildung 1: Atmosphären-Biosphären-Rezyklierungssystem Biogene Nutzung der Sonnenenergie

Die biogene Nutzung der Sonnenenergie erfolgt durch die grünen Pflanzen bei der Assimilation, der wichtigsten und einzigen elementaren Stoffproduktion (Biomasse) auf der Erde sowie im Bereich der Organismen (Mensch, Tier etc.) in der Aufrechterhaltung der Körpertemperatur als Voraussetzung für deren Funktionsfähigkeit.

Die Trägerstoffe des Lebens auf der Erde sind Kohlendioxyd (CO2), Sauerstoff (O2), Wasser (H2O) und der nicht-atmosphärische Stickstoff (N).

Bei der Assimilation werden durch grüne Pflanzen atmosphärisches Kohlendioxyd(6 CO2 = 264 g) plus Wasser (6 H2O = 108 g)) mit Hilfe der Sonnenenergie (2872 kJ/mol) zu Kohlenhydrat (Glukose (C6H12O6 = 180g )) als biogener Energieträger (Nährstoff) synthetisiert plus Sauerstoff (6O2= 192 g) in die Atmosphäre freigesetzt (0,727 t O2/t akkumuliertes atmosphärisches CO2), d.h. in der Menge rezykliert, die bei der Dissimilation (Abbau) zuvor verbraucht wurde bzw. später verbraucht wird. Dadurch wird der Sauerstoffgehalt der Atmosphäre aufrecht erhalten/reproduziert. Ohne diese Rezyklierung des Sauerstoffs würde das Leben auf der Erde „ersticken“.

Die produzierte Biomasse ist Vorleistung und wird in der Folge in der Dissimilation unter Verbrauch von atmosphärischem Sauerstoff auf zwei Wegen mit gleichem Endresultat, zur Gewinnung an biogener Energie in Organismen (Mensch, Tier etc.) oder bakteriell durch Verwesung, abgebaut. Unter Ausschluss/Fehlen von Sauerstoff erfolgt eine anaerobe Vergärung (Pansen der Wiederkäuer, intakte und „renaturierte“ Moore), wobei der naszierende zellgiftige Wasserstoff an Kohlenstoff zu Methan (CH4) gebunden und in die Atmosphäre als Schadstoff „entsorgt“ wird.

Dissimilation der Kohlenhydrate: (C6H12O6 = 180 g) plus Sauerstoff (Atmung) (6 O2 = 192 g) werden zur biogenen Energiegewinnung umgesetzt zu Kohlendioxyd (6 CO2 = 264 g) plus Wasser (6 H2O = 108 g). Das Kohlendioxyd entsteht nicht durch Oxydation von Kohlenstoff mit Sauerstoff, sondern wird im enzymatischen Prozess ohne Energiegewinn abgespalten (Dekarboxylierung) und in die Atmosphäre abgeführt, d. h. rezykliert als atmosphärisches CO2 als Träger- und Rohstoff für eine erneute Akkumulation in der Assimilation, d.h. für erneute Biomasseproduktion. Die biogene Energiegewinnung erfolgt ausschließlich durch die Oxydation von Wasserstoff und Sauerstoff zu Wasser. Damit wird das zur Stoffproduktion (Kohlenhydraten) verbrauchte Wasser rezykliert und an die Umwelt (Boden und Atmosphäre) abgeführt.

Damit erweisen sich im Atmosphären-Biosphären-Rezyklierungssysem Kohlendioxyd und Wasser als unzerstörbare und unendlich nutzbare (wiederverwendbare) Oxyde und Sauerstoff als unendlich nutzbares Element, d.h. als Trägerstoffe des Lebens (Lebenselixiere) ohne natürliche Verbrauchsverluste.

Es ist ein in sich geschlossenes Atmosphären-Biosphären- System mit voller Rezyklierung der Verbauchselemente.

Eine Steigerung des Umfangs und der Intensität dieser Kreislaufsysteme ist nur durch eine Veränderungen der Biomasseproduktion (Kalt- und Warmzeiten, Züchtung und Anbau ertragsreicher Kulturen) und im Sinne der Steigerung auch durch externe Zuführung von CO2 , wie aus der Verbrennung fossiler Energieträger, prinzipiell möglich und erstrebenswert.

Hieraus folgt, dass der atmosphärische CO2-Gehalt Ausdruck des Gleichgewichtes zwischen CO2Emission und CO2-Akkumulation (Assimilation) ist und damit die Intensität des CO2-Kreislaufs, die Höhe der Biomasseproduktion, reflektiert. Eine hohe Biomasseproduktion ist nur bei hoher CO2 Konzentration in der Atmosphäre möglich. Das ergibt sich daraus, dass die Aufnahme von Luft durch die Blattspalten der begrenzende Faktor ist. Bei 400 ppm CO2-Gehalt der Luft müssen die grünen Pflanzen 15.000 Liftmoleküle aufnehmen, um 6 Moleküle CO2 für die Synthese von einem Molekül Glukose heraus zu filtrieren. Hohe CO2-Gehalte erhöhen somit die Effizienz der Assimilation, führen zur Erhöhung der Grünmasseproduktion, der Erträge in der Land- und Forstwirtschaft.

Die Günmasseproduktion Ist direkt an den CO2-Gehalt der Atmosphäre gebunden, da grüne Pflanzen bei ca. 180 ppm CO2-Konzentration die Assimilation einstellen, was das Ende des Lebens auf der Erde bedeuten würde, d.h. dass das Leben auf der Erde auf der Differenz zwischen atmosphärischem CO2-Gehalt und 180 ppm, derzeit auf 235 ppm (415 – 180 = 235), beruht. Aus dieser Sucht betrachtet ist die Dekarbonisierung durch die damit angestrebte Reduzierung des CO2- Gehaltes der Atmosphäre und der daraus folgenden Reduzierung der Biomasseproduktion für die Weltwirtschaft und für die Nahrungsgüterproduktion zur menschenwürdigen Ernährung der wachsenden Weltbevölkerung kontraproduktiv.

Da der CO2-Kreislauf in der Atmosphäre nur in Richtung von Emission zur Akkumulation abläuft, ist die CO2-Emission der Impulsgeber, der Sende-Faktor, während die Assimilation/Akkumulation der Empfänger, der empfangende (passiv abhängige) Faktor ist, wird, egal woher das CO2 kommt, ob aus natürlichen Umsetzungen (Dissimilation) oder aus Verbrennung fossiler Energieträger, die CO2 Emission zum entscheidenden das Leben auf der Erde erhaltenden und mehrenden Faktor, zum wichtigsten Lebenselixier. Ohne CO2-Emissionen würde das Leben auf der Erde versiegen. Diese Rezyklierungsprozesse können im Hinblick auf die Höhe der Biomasseproduktion weitestgehend unbegrenzt hochgefahren werden, was z.B. durch Standortadaption, Agrartechnologie und Züchtung standortspezifischer ertragsreicher Kulturpflanzen „menschengemacht“ gelingt bzw. gelungen ist (Beispiel Getreideproduktion 1850 ca. 30 dt/ha und 20XX > 100 dt/ha) und natürlich für die Sicherung der Ernährung einer wachsenden Weltbevölkerung von außerordentlicher Wichtigkeit ist.

Folgerungen für den „menschengemachten“ Klimawandel?

Welche Folgerungen ergeben sich aus diesem Grundwissen für den „menschengemachten“ Klimawandel?

Die wichtigsten Fakten als Ausgangsbasis sind:

  1. Das unter den bekannten Planeten unikate Merkmal der Erde ist das Vorhandensein der Atmosphäre mit einem hohen Gehalt an Sauerstoff (O2) und einem vergleichsweise niedrigem Gehalt an Kohlendioxyd (CO2). Die Entstehung des Lebens auf der Erde beruht ursprünglich auf der Fähigkeit von Bakterien zum stofflichen Energiegewinn (Nährstoffe) Sauerstoff (O2) aus Wasser (H2O) und Kohlendioxyd (CO2) freizusetzen und in die Atmosphäre zu emittieren. Damit waren die wesentlichen Grundstoffe zur biologischen Evolution, die Entwicklung des Lebens (nach Darwin), und der Entwicklung der Artenvielfalt einschließlich des Menschen, in christlichem Sinne der „Schöpfung“ , gegeben.

2.Die Erde bezieht die Energie in Form von Strahlungen (Licht und Wärme) fast ausschließlich von der Sonne mit variabler Intensität, bedingt durch Sonnenzyklen und den interschiedlichen Einfallswinkeln zur Erdoberfläche und mit unterschiedlichen tektonischen Strukturen und Oberflächenmateriealien mit Differenzen in der Reflektion und Absorption (Wärmeaufnahmekapazität), was zu differenzierten standortspezifischen klimatischen Werten (Messdaten wie Temperatur, Luftfeuchtigkeit, Windstärke und –richtung usw. ) führt . Diese Daten kennzeichnen als Rückschau im 30-jährigen Mittel definitionsgemäß das Klima, gebietsweise differenziert, untergliedert in Klimazonen, Gebiete, Länder, Landschaften, Standorte.

3. Die Atmosphäre hat durch Ihre Fähigkeit Wasser in verschiedenen Aggregatzuständen (gasförmig Luftfeuchtigkeit, kondensiert als Wolken und Regen und Eiskristallen) im Zusammenwirken mit der Sonneneinstrahlung und Wolkenbildung, dem Aufbau verschiedener Druckverhältnisse (Hoch und Tief), der Luftbewegung (Wind, Sturm) und mit dem durch Stofftransfers gegebenen Aufbau elektrischer Ladungen (Blitz und Donner) ihre eigenen Gesetzmäßigkeiten, die in verschiedenen Gebieten und an den jeweiligen Standorten im täglichen Wettergeschehen ihren Niederschlag finden. Diese führen zu zeitlichen Wetterkonstellationen, die sich positiv für den Menschen und die Landschaft/Gebiet oder sich in Unwettern (Hurrikans) auswirken. So hat eine zufällige Wetterkonstellation wie im Ahrtal, wo sich wie vor ca. 100 Jahren eine von zwei angrenzenden Hochs eingekeilte Gewitterzelle feststehend über dem Talkessel total abregnete und schließlich zu der großen Katastrophe in den schutzlosen Ortschaften führte, nichts mit Klimawandel, noch einer Klimakatastrophe und erst recht schon gar nichts mit der CO2-Konzentration der Atmosphäre etwas zu tun.

4. Von grundlegender Bedeutung ist der durch physikalische Faktoren determinierte Wärmehaushalt der Erde durch die Schutz- und Dämpfungsfunktion der Atmosphäre für die Temperaturen des Bodens und der Luft im Bereich der Erdoberfläche. Das ist zugleich eine der Voraussetzungen für die Ermöglichung von Leben auf der Erde, weil physiologische Vorgänge an einen Temperaturbereich von +3 bis 40 °C (Flüssigphase des Wassers) gebunden sind. Dabei spielt die Reflektion der Wärmestrahlung von der durch die Sonneneinstrahlung erwärmten Erdoberfläche die entscheidende Rolle und nicht die von bestimmten Luft-Molekülen wie Wasser, Kohlendioxyd und Methan (Sensitivität) bewirkte „Gegenstrahlung“, d.h. die Reflektion der von der Erdoberfläche reflektierten Wärmestrahlung zurück zur Erde. Diese werden fälschlicherweise als Treibhausgase bezeichnet, weil die Atmosphäre im Gegensatz zu einem Treibhaus nach oben zum Weltraum offen ist und diese Moleküle fungieren nicht wie auf die Erde gerichtete „Hohlspiegel“, sondern geben die Wärmestrahlung in alle Richtungen von warm nach kalt ab. Dementsprechend kühlen die CO2– Moleküle die Atmosphäre in oberen Schichten ab.

Der Gegenstrahlungseffekt von den Spurengasen CO2 und CH4 ist im Gegensatz zum Wasser (Luftfeuchtigkeit, Wolken) aus zwei Gründen gering und zu vernachlässigen: Erstens allein aus quantitativen Gründen 0,04 % – 400 ppm = nur 400 CO2 –Moleküle in 1 Million Luftmolekülen (!) und zweitens wegen des bereits erreichten Sättigungseffekts, bedingt durch den logarithmischen Verlauf der Sensitivität in Abhängigkeit von der CO2 –Konzentration. Das verdeutlicht anschaulich der oben erwähnte „Wüsteneffekt“.

Fazit: Es gibt keine nennenswerte CO2-bedingte Erderwärmung und diese ist in den Wärmehaushalt der Atmosphäre/Erdoberfläche, d.h. in die Aufrechterhaltung einer erträglichen Temperatur des Lebensraumes von Flora und Fauna wie des Menschen positiv wirksam integriert.

Der anthropogene („menschengemachte“) Einfluss auf das Klima – Wirkung der Dekarbonisierung

Das Fazit, CO2 ist ohne Einfluss auf das Klima, gilt erst recht für die anthropogene Einspeisung von CO2 durch Verbrennung fossiler Energieträger zur Energiegewinnung, die, bezogen auf die Erdatmosphäre, weltweit nur im Bereich von jährlich 20 bis 25 ppm liegt. Dem Wesen nach handelt es sich hierbei um eine Rückführung von ursprünglich aus atmosphärischem CO2 stammendem, über Grünmasse akkumuliertem und vorwiegend über Inkohlung reduziertem (amorphem) und eingelagertem Kohlenstoff in den Atmosphären-Biosphären-Kohlenstoffkreislauf, d.h. um einen völlig natürlichen Prozess.

Die Dekarbonisierung ist bedeutungslos für den Wärmehaushalt der Atmosphäre, d. h. ob die Einspeisung von jährlich ca. 22 ppm nutzbringend für die Menschheit erfolgt oder durch Dekarbonisierung der Weltwirtschaft zum Schaden der Menschheit verhindert wird, hat so gut wie keinen Einfluss auf das sonnendeterminierte Weltklima, weder lokal noch global!.

Wer das Gegenteil behauptet, wie der IPCC und dessen Gefolgsleute, wie das Potsdam Institut für Klimafolgeforschung mit u.a. Edenhofer, für den sowieso Klimapolitik nicht der Rettung des Klimas sondern als Mittel zur Vermögensumverteilung dient, müssten beweisen,

  1. ob und wie 22 ppm weltweiter CO2- Emissionen fossiler Herkunft von 415 ppm CO2- Konzentration der Atmosphäre das sonnendeterminierte Erdklima/Wetter wesentlich – und das nur zum wunschgerecht Guten – beeinflussen können?

2. für Deutschland – welches Klima kann dann wie vom derzeitigen Anteil Deutschlands mit 0,46 ppm., d.h. mit 1 fossilen CO2-Molekül in 2,2 Millionen Luftmolekülen, durch zerstörerische Dekarbonisierung der deutschen Wirtschaft, durch Bestrafung der Bevölkerung mit Verboten von Öl/Gasheizungen und Verbrenner-Motoren, Tempolimit auf Autobahnen sowie durch Vernichtung eigener Wertschöpfungspotentiale und Energiequellen (AKW, Kohleausstieg) verändert werden?

Der Leiter des Klimarates der Bundesregierung, Prof. Henning, ist auf ein persönliches Anschreiben die Antwort auf diese Fragen schuldig geblieben.

Diese Beweise und Rechtfertigungen wird es und kann es nie objektiv-real geben!

Fundamentale Bedeutung des CO2-Gehaltes der Atmosphäre für die Biosphäre

Der für das Klima unbedeutende, für Umfang und Intensität der Biomasseproduktion aber sehr bedeutende CO2-Gehalt der Atmosphäre ist Ergebnis des sich unter dem Druck der CO2-Emission eingestellten Gleichgewichts zwischen CO2- Emission und CO2-Akkumulation, biogen durch Assimilation der Biosphäre und physikalisch durch Absorption/Resorption von Wasserflächen(Ozeane).

Die Erhöhung des CO2-Gehaltes kann in größerem Maßstabe nur durch eine erhöhte Sonnenaktivität/Sonneneinstrahlung, wie sie durch dementsprechende Warmzeiten gegeben ist und wie wir sie von 1850 an zu verzeichnen haben und erleben durften, erfolgen. Sie hat gegenwärtig ihr Höhen-Plateau erreicht und geht mit hoher Wahrscheinlichkeit in den nächsten 35 -40 Jahren in eine kleine Eiszeit über, wie es von den Forschern, die sich mit Sonnenzyklen und Sonnenflecken beschäftigen, glaubhaft prognostiziert wird.

Dieser Prozess läuft zeitlich und quantitativ wie folgt ab: Die höhere Wärme-/Lichteinstrahlung der Sonne als im wesentlichen einzige Wärmequelle führt zu höheren Temperaturen von Erdboden und erdbodennaher Atmosphäre und bei ausreichender Feuchtigkeit (Wasser) und anderen Wachstumsfaktoren zu höherer Biomasseproduktion, die im Folgejahr durch den Abbau derselben zu höherer CO2-Emission und zu höherer pflanzlicher Stoffproduktion durch höhere Effizienz der Assimilation führt. So steigt in Folge der Kohlenstoff (CO2)-Kreislauf an und durch einen gewissen CO2-Emissionsstau der CO2-Gehalt der Atmosphäre kontinuierlich – wie in der Mauna Loa –Messung sichtbar- an. Oder umgekehrt, führt die verringerte Sonneneinstrahlung bei Eiszeiten zu geringerer Biomasseproduktion/Erträgen in der Landwirtschaft (Hungersnöten!)/Forstwirtschaft und in der Folge zu erniedrigter CO2-Emission und niedrigerem CO2-Gehalt der Atmosphäre sowie reduzierter Effizienz der Assimilation.

Schlussfolgernd daraus ergibt sich, dass die Interpretation der Mann´schen Hockeyschlägerkurve, womit eine Abhängigkeit der Globaltemperatur vom CO2-Gehalt der Atmosphäre bewiesen werden sollte, wissentlich (oder unwissentlich) falsch ist. Es wurde schlichtweg bei der Interpretation der Mann´schen Hockeyschläger-Kurve die Ursache, die zeitlich vorausgehende Erderwärmung durch die

Sonne, mit der Wirkung, der höheren Biomasseproduktion und dem daraus resultierenden höheren CO2-Gehalt der Atmosphäre, vertauscht und dadurch fälschlich eine scheinbare Abhängigkeit der Globaltemperatur vom atmosphärischen CO2-Gehalt postuliert und unterstellt. Der CO2-Gehalt der Atmosphäre kann aber sachlogisch im Atmosphären-BiosphärenRezyklierungssystem nur die Folge und nicht die Ursache der Erderwärmung sein. Schlussfolgernd ergibt sich daraus:

Dekarbonisierung der Wirtschaft – kontraproduktiv, gegen die Interessen der Menschheit gerichtet. Das Konzept des IPCC, „menschengemachten“ Klimaschutz durch Dekarbonisierung der Wirtschaft als Klimaschutzmaßnahme zu erreichen, wie auch einen „menschengemachten“ Klimawandel als Folge der Nutzung fossiler Energieträger zu postulieren, ist wissenschaftlich unbegründet, d.h. ein Narrativ ist, das lediglich auf dem sektiererischen „Glaubensbekenntnis (einer Klimareligion) – CO2 ist klimaschädlich“ – basiert!

Dieses Narrativ vom „Menschengemachten Klimawandel“ wurde mit der Pariser Klimavereinbarung materialisiert (100 Milliarden-Klimafond) und dabei die Irreführung der Staatengemeinschaft derart auf die Spitze getrieben, dass weder für vorindustriell noch für das 2050-1,5°-2° C-Ziel eine absolute Globaltemperatur an- bzw. vorgegeben wurde, d.h. man verpflichtet die Staatengemeinschaft zu falschen wirtschaftschädigenden drastischen „Klimaschutzmaßnahmen“ für ein Inkognito-1,5 ° C bzw. 2 °C-Ziel, das jedwede Interpretation offen lässt.

CO2 , das im Atmosphären-Biosphären-Rezyklierungssystem keinen nennenswerten Einfluss auf das Klima (Erderwärmung) hat und haben kann, dient hierbei lediglich als ein willkommener Parameter, als ein Mittel zum Zweck (Zuchtrute für die irregeführten Massen), um den Industriestaaten, die fossile Energieträger als Energiebasis verwenden, parametrisiert Umweltschäden anzulasten und ein darauf basierendes weltweites Abzocke-System (CO2 Steuer, Klimafond) für die Industriestaaten zu etablieren (COP 28). Diese dahinterstehende Absicht nicht zu erkennen, sich ihr zu beugen, bezeugt, wie sagenhaft naiv oder gezielt beabsichtig die Klima-Politik der Selbstzerstörung der westlichen Welt derzeit ist?

Selbstkasteiung des Westens – Triumpf Chinas

Mit der Klimapolitik der Dekarbonisierung der Wirtschaft, der krampfhaften Reduzierung/Vermeidung von CO2-Emissionen nach dem Prinzip „koste was es wolle“, und insgessamt mit der Energiewende einseitig zu „erneuerbarer“ Energie (wetterabhängiger Wind- und Sonnenenergiegewinnung) betreibt der Westen eine unbegründete und auf das Klima total wirkungslose Selbstkasteiung ungeheuren Ausmaßes.

Unter der Fahne des „Klimaschutzes“ nehmen krampfhafte und kosten- und materialaufwendige CO2-Vermeidungsmaßnahmen schildbürgerlich-kuriose Formen der reinen Selbstbefriedigung an, wie z. B. die Abscheidung und unterirdische Verklappung von CO2 aus Verbrennungsprozessen als „Klimaschutzmaßnahme“. Das ist gewissermaßen sachlich die Spitze wirtschaftlichen Unsinns, kann aber andererseits durch die Dummheit von „Klimaschützern“ zur Erreichung einer illusionären „Klimaneutralität“ ein einträgliches Geschäft sein (Norwegen). Objektiv ist es eine wirkungs- und nutzlose Verschwendung von Kapital und Material, sowohl aus quantitativer und sachlicher Sicht die Inkarnation „menschengemachten“ Blödsinns.

Diese realitäts- und wissenschaftsferne Politik führt zum selbstverschuldeten Verlust von politischem Einfluss und ökonomischer Glaubwürdigkeit, letztendlich zum Untergang der westlichen Welt und damit der Forcierung des unaufhaltsamen Aufstiegs Chinas im Verbund mit Russland zur führenden Welt-, Wirtschafts- und Militärmacht. Denn im Gegensatz zum Westen baut China auf allen Gebieten die wohlstandsfördernde und investitionsvoraussetzende Energieerzeugung, ob fossil mit Kohle, Gas und Erdöl, oder mit Atomkraft oder soweit wie möglich und sinnvoll mit „erneuerbaren“ Energiequellen (Wind und Fotovoltaik) ungebremst von COP 28 aus. Sie wissen, dass unabhängige Verfügbarkeit von Energie Macht bedeutet!

Die wissenschaftliche Realität ist eine andere:

Im unikaten fantastischen Atmosphären-Biosphären-Rezyklierungssystem ist gerade die CO2- Emission die unverzichtbare eigentliche treibende Kraft (Triebkraft), egal woher sie kommt, ob biogen oder fossil, für die Erhaltung und Mehrung des Lebens auf der Erde. Es gibt folglich weder einen „menschengemachten Klimawandel“ durch Nutzung fossiler Energiequellen noch einen „menschengemachten Klimaschutz“ durch widersinnige kontraproduktive Dekarbonisierung der Wirtschaft. Somit gibt es auch keine „Klimaneutralität“, sondern nur eine kontraproduktive „CO2Emissions-Neutralität“ mit verheerenden Folgen für die Wirtschaft und den Wohlstand der Industriestaaten!

Sinnmachende Investitionen in witterungsunabhängige Energieversorgung (fossile und atomare) und Schutz vor klimatischen Auswirkungen

Sinn machen demgegenüber Investitionen in den vielfach vernachlässigten „Schutz vor und Anpassung an Auswirkungen des Klimas und vor möglichen unerwünschten Wetterkonstellationen“! Alle krampfhaften Maßnahmen zur Reduzierung bzw. Vermeidung von CO2-Emissionen – wie die teure und materiell kaum abzusichernde „grüne Wasserstoffwirtschaft“ , in überzogene Windkraft- und Fotovoltaikanlagen sind Fehlinvestitionen.

Als Zukunftsinvestitionen gelten Investitionen in

  • eine angemessene und sinnvolle Nutzung der Möglichkeiten zur Erzeugung „erneuerbarer“ Energie

(Wind, Sonne, Wasserkraft und Biogas), in Sekundärposition vorrangig aber Investitionen in sichere witterungsunabhängige Energiegewinnung, d.h. in

  • in die Nutzung eigener Energiequellen (Braunkohlenabbau, Fracking-Gasgewinnung)
  • den Bau moderner (dezentralisierter) Kernspaltungs-, Kernfusions- und Atommüllverwertungs-AKW

(einschließlich der Verlängerung der Nutzung vorhandener AKW),

  • moderne Gas-, Erdöl- und Kohlekraftwerke, Verbrennungsmotoren und Heizungsanlagen für

Fernwärme und Wärmekopplung mit Energieerzeugung sowie

  • in die Erhöhung der Energieeffizienz und last not least
  • in den Schutz vor Klimaauswirkungen/gefährlichen Wetterkonstellationen!

Das Klima kann nicht „menschengemacht“ geschützt werden. Das Klima sollte man der Sonne – wie seit Millionen von Jahren – überlassen.

 

 

 

 




Hauptakteur für offshore Windräder zieht sich aus dem Vertrag zurück und gibt der Inflation die Schuld

Nick pope, Mitwirkender, 26. Januar 2024, Daily Caller News Foundation

Ein großer Offshore-Windkraftentwickler gab am Donnerstag bekannt, dass er sich aus einem Vertrag mit einer staatlichen Energieregulierungsbehörde für zwei Offshore-Windkraftprojekte zurückgezogen habe, und verwies auf Inflation und andere wirtschaftliche Zwänge.

Ørsted, ein wichtiger Unternehmensakteur in der Offshore-Wind-Agenda der Biden-Regierung, hat sich trotz der Genehmigung der Maryland Public Service Commission (MPSC)  für die Projekte Skipjack 1 und 2 vor der Küste Marylands zurückgezogen. Das Unternehmen sagte, dass Inflationsdruck, hohe Kreditkosten und Probleme in der Lieferkette dazu geführt hätten, dass die Subventionen des Staates wirtschaftlich nicht mehr rentabel seien. Das Unternehmen will die Projekte jedoch noch nicht aufgeben und sich weiterhin um Genehmigungen bemühen werde, wie aus einer beim MPSC eingereichten behördlichen Einreichung hervorgeht.

„Die heutige Ankündigung bekräftigt unser Engagement für die Entwicklung wertschöpfender Projekte und stellt eine Gelegenheit dar, Skipjack Wind, das sich in einem strategisch wertvollen Bundespachtgebiet und in einem Staat befindet, der Offshore-Wind stark unterstützt, für zukünftige Abnahmemöglichkeiten neu zu positionieren“, sagte David Hardy, Geschäftsführer, Vizepräsident und CEO der Region Amerika bei Ørsted. „Während wir die beste Möglichkeit erkunden, das Skipjack Wind Projekt doch zu realisieren, untersuchen wir mehrere Alternativen und werden jede einzelne prüfen, sobald sie verfügbar sind. Wir werden die Entwicklungsmeilensteine von Skipjack Wind, einschließlich seines Bau- und Betriebsplans, weiter vorantreiben.“


(RELATED: Blue State Doubles Down On Offshore Wind After 2023’s Massive Failure)
(Zum Thema: Blue State verstärkt seine Offshore-Windenergie nach dem massiven Ausfall im Jahr 2023)


Skipjack Wind wird für künftige Abnahmemöglichkeiten neu positioniert

25.01.2024 22:39

Ørsted kündigte heute an, dass Skipjack Wind, ein kombiniertes 966-MW-Projekt, das sich vor der Küste der Delmarva-Halbinsel in den USA in der Entwicklung befindet, für künftige Abnahmemöglichkeiten neu positioniert werden soll.

Dazu der  Skipjack-Brief mit Rückzug aus OREC-Bestellungen von Nick Pope auf Scribd

Der Rückzug ist das jüngste Anzeichen von Schwierigkeiten für Ørsted, die im Oktober 2023 zwei Großprojekte vor der Küste von New Jersey eingestellt hatten, nachdem viele der gleichen zugrunde liegenden Faktoren diese Projekte unhaltbar gemacht hatten. Zwischendurch schien das Unternehmen bereit zu sein, ein Hauptnutznießer des Inflation Reduction Act (IRA) zu werden , dem wichtigsten Klimagesetz von Präsident Joe Biden, doch die zunehmenden makroökonomischen Probleme, die die Wirtschaft während seiner ersten Amtszeit belasteten, belasteten das Unternehmen schwer.

„Die gesetzlich vorgeschriebenen Obergrenzen die Haushalte [der Bundesstaaten] erlauben nur noch sehr wenig Spielraum“, sagte ein MPSC-Sprecher. „Der Bundesstaat kann diese Obergrenzen nicht erhöhen, wenn der Gesetzgeber nicht tätig wird“.

„Die gestrigen Nachrichten von Ørsted sind enttäuschend – das Skipjack-Projekt war ein wichtiger Bestandteil bei der Förderung von Marylands Zielen für saubere Energie“, sagte MPSC-Vorsitzender Frederick Hoover über den Rückzug. „Die Kommission bleibt jedoch hinsichtlich der Zukunft der Offshore-Windindustrie in Maryland optimistisch und weist darauf hin, dass das US-Windprojekt weiterhin das bundesstaatliche Genehmigungsverfahren durchläuft.“

Der Rückzug ist das jüngste Anzeichen dafür, dass die Offshore-Windkraftziele der Biden-Regierung in Bedrängnis geraten, insbesondere wenn diese sich als Vorbote für den möglichen Zusammenbruch der Maryland-Projekte des Unternehmens erweisen. Das Weiße Haus strebt an , dass Offshore-Windenergie bis 2030 genug Strom produzieren soll, um mehr als 10 Millionen amerikanische Haushalte mit Strom zu versorgen, doch scheint dieses Ziel nun völlig außer Reichweite zu sein .

Weder Ørsted noch das Weiße Haus reagierten sofort auf Anfragen nach Kommentaren.

All content created by the Daily Caller News Foundation, an independent and nonpartisan newswire service, is available without charge to any legitimate news publisher that can provide a large audience. All republished articles must include our logo, our reporter’s byline and their DCNF affiliation. For any questions about our guidelines or partnering with us, please contact licensing@dailycallernewsfoundation.org.

https://dailycaller.com/2024/01/26/orsted-biden-wind-push-climate/

Übersetzt durch Andreas Demmig

 




Michael Bloombergs 1-Milliarde-Dollar-Angriff auf das Stromnetz

Robert Bryce

Michael Bloomberg kann hier natürlich stellvertretend auch für unsere werte Regierung stehen. A. d. Übers.

Die klimabezogene Philanthropie in Amerika ist von einer radikalen Agenda vereinnahmt worden, die der Bezahlbarkeit, Zuverlässigkeit und Widerstandsfähigkeit des amerikanischen Stromnetzes schaden wird.

Ein weiterer Beweis für diese Vereinnahmung war die Ankündigung des Mega-Milliardärs Michael Bloomberg, dass Bloomberg Philanthropies 500 Millionen Dollar für die Beyond Carbon-Kampagne bereitstellen wird. Ziel dieser Kampagne ist es, den Großteil unserer wichtigsten Kraftwerke abzuschalten – jene, die Kohle und Erdgas verbrennen und daher abschaltbar und wetterbeständig sind – und sie, in Bloombergs Worten, durch „erneuerbare Energien“ zu ersetzen.

In der Ankündigung vom 20. September wird Bloomberg mit den Worten zitiert, dass die 500-Millionen-Dollar-Spende ein „neues Kapitel in der Beyond Carbon-Kampagne darstellt, mit der wir unsere Arbeit zu Ende bringen wollen. Durch die Zusammenarbeit mit unseren Partnern im ganzen Land hoffen wir, die Art und Weise zu verändern, wie wir Amerika mit Energie versorgen, indem wir uns von fossilen Brennstoffen verabschieden und sie durch erneuerbare Energien ersetzen.“ In der Pressemitteilung heißt es weiter, das Ziel sei es, „jedes letzte Kohlekraftwerk in den USA abzuschalten“ und „die Kapazität von Gaskraftwerken zu halbieren und alle neuen Gaskraftwerke zu blockieren“.

Eine radikalere Agenda ist schwer vorstellbar. Die Kohle- und Gaskraftwerke, die Bloomberg und seine Verbündeten in der Anti-Industrie-Industrie abschalten wollen, erzeugten im vergangenen Jahr etwa 40 % des gesamten in den USA verbrauchten Stroms. Hier sind die Zahlen: Im Jahr 2022 belief sich die Stromerzeugung in den USA nach Angaben des Statistical Review of World Energy auf insgesamt 4.550 Terawattstunden (TWh). Etwa 904 TWh stammten aus Kohlekraftwerken, und 1.817 TWh wurden durch die Verbrennung von Erdgas erzeugt. Die Beyond Carbon-Kampagne zielt also darauf ab, bis zum Jahr 2030 etwa 1.813 TWh an abschaltbarer Wärmeerzeugung aus dem US-Stromnetz zu entfernen.

Anders ausgedrückt: Die 1.813 TWh/Jahr Strom, die Bloomberg abschaffen will, entsprechen dem jährlichen Stromverbrauch von neun Bundesstaaten zusammen: Texas, Florida, Kalifornien, Ohio, Pennsylvania, New York, Georgia, North Carolina und Illinois.

Der Zeitpunkt von Bloombergs Ankündigung könnte kaum unpassender sein. Sie erfolgt im Gefolge der wiederholten Warnungen, die in diesem Jahr von Amerikas obersten Regulierungsbehörden, Netzbetreibern und einem Industrieverband ausgesprochen wurden, dass unser Stromnetz zu viel abschaltbare Erzeugungskapazität verliert und zu viel Kapazität hinzufügt, die von den Launen des Wetters abhängig ist. Bloomberg kündigte die 500-Millionen-Dollar-Spende an, kaum einen Monat nachdem die North American Electric Reliability Corporation davor gewarnt hatte, dass eine schlechte Energiepolitik die Zuverlässigkeit des US-Stromnetzes erheblich gefährde. Mehr dazu in Kürze.

Mit der Ankündigung vom 20. September erhöht sich Bloombergs Gesamtfinanzierung der Beyond Carbon-Kampagne auf 1,05 Milliarden Dollar. (Im Jahr 2011 gab er dem Sierra Club 50 Millionen Dollar für seine Beyond Coal-Kampagne. Im Jahr 2019 kündigte er eine Zusage über 500 Millionen Dollar für die Beyond Carbon-Kampagne an.) Der neue Zuschuss in Höhe von 500 Millionen Dollar zeigt einmal mehr, dass die Finanzierung der industriefeindlichen Industrie mit 4,5 Milliarden Dollar pro Jahr die Finanzierung von Nichtregierungsorganisationen und Verbänden, die Kohlenwasserstoffe und Atomenergie fördern, in den Schatten stellt. Außerdem zeigt sie, dass die Anti-Industrie-Industrie jährlich Hunderte von Millionen Dollar von einigen der reichsten Menschen der Welt sammelt, um eine Klimapolitik zu finanzieren, die den Armen und der Mittelklasse regressive Steuern auferlegt und gleichzeitig unser wichtigstes Energienetz, das Stromnetz, schwächt.

Die 500 Millionen Dollar werden laut der Pressemitteilung an einige der reichsten Klima-NGOs des Landes verteilt, darunter die League of Conservation Voters, der Sierra Club, das Rocky Mountain Institute und Earthjustice, die alle ein Betriebsbudget von mehr als 100 Millionen Dollar pro Jahr haben. Andere Gruppen, die Geld von Bloomberg erhalten, sind der Hip Hop Caucus, Advanced Energy United und Coalfield Development, die alle daran arbeiten werden, „die Bemühungen um ein Ende der fossilen Brennstoffe zu beschleunigen und saubere Energien voranzutreiben“.

In der Pressemitteilung wird Ben Jealous, Geschäftsführer des Sierra Club, mit den Worten zitiert: „Wir freuen uns darauf, den Kampf für die Beendigung der fossilen Brennstoffe und den Ausbau sauberer Energie in den USA zu beenden.“ Außerdem wird Abigail Dillen, Präsidentin von Earthjustice, zitiert, die behauptete, dass „der Rückenwind für die Verwirklichung der klimatischen, gesundheitlichen und wirtschaftlichen Vorteile von sauberer Energie noch nie so stark war“.

Die Pressemitteilung enthält keine Definition von „sauberer Energie“ oder „sauberem Strom“. Sie erwähnt auch nicht die Windenergie oder die Solarenergie. Auch die sauberste und sicherste Form der Stromerzeugung, die Kernenergie, wird nicht erwähnt.

Nun zu den Warnungen über die Zuverlässigkeit des Stromnetzes. In den vergangenen fünf Monaten haben hochrangige Regulierungsbehörden und Vertreter der Industrie die politischen Entscheidungsträger wiederholt davor gewarnt, dass das US-Stromnetz am Rande einer Zuverlässigkeitskrise steht. Die sich abzeichnende Krise ist auf genau die Dinge zurückzuführen, die Bloomberg und seine gut betuchten Claqueure fördern: die vorzeitige Stilllegung unserer mit Kohle und Erdgas betriebenen, abschaltbaren Wärmekraftwerke und die massive Ausweitung des Einsatzes von intermittierenden Wind- und Solarenergiequellen.

Im Mai haben Mitglieder der Federal Energy Regulatory Commission (FERC) vor dem Energy and Natural Resources Committee des US-Senats deutliche Warnungen ausgesprochen. Wie ich hier auf Substack berichtet habe, sagte der amtierende Vorsitzende der Behörde Willie Phillips den Senatoren: „Wir stehen vor noch nie dagewesenen Herausforderungen für die Zuverlässigkeit des Stromnetzes unseres Landes.“ FERC-Kommissar Mark Christie schloss sich der Warnung von Phillips an und sagte, das US-Stromnetz steuere „auf eine katastrophale Situation in Bezug auf die Zuverlässigkeit zu“. Kommissar James Danly sprach von einer „drohenden Zuverlässigkeitskrise auf unseren Strommärkten“. Danly fuhr fort, dass die Bundessubventionen, die den Einsatz von nicht disponiblen Wind- und Solarkraftwerken fördern sollen, zu „Zuverlässigkeitsproblemen führen, weil die Subventionen dazu beitragen, dass Erzeuger fossiler Brennstoffe aus dem Geschäft gedrängt werden“.

Am 8. August haben vier der größten regionalen Übertragungsorganisationen des Landes [regional transmission organizations RTO] – der Electric Reliability Council of Texas, Midcontinent Independent System Operator, PJM Interconnection und Southwest Power Pool – eine vernichtende gemeinsame Stellungnahme zu den von der EPA vorgeschlagenen Treibhausgas-Vorschriften für Kraftwerke abgegeben. Die vier RTOs verwalten das große, 154 Millionen Amerikaner versorgende Stromnetz. Ihre Versorgungsgebiete erstrecken sich über etwa zwei Millionen Quadratmeilen. Die RTOs warnten, dass die vorgeschlagene Regelung, die darauf abzielt, die CO₂-Emissionen von Wärmekraftwerken zu senken, die Stromerzeuger lähmen könnte, indem sie sie zwingt, teure, unbewährte Technologien einzusetzen. Die Regelung, so schrieben sie, habe das Potenzial, die „Zuverlässigkeit der Stromversorgung erheblich zu beeinträchtigen“. Sie fuhren fort und stellten Folgendes bzgl. der EPA-Regel fest:

Die vorgeschlagene Regelung könnte den beunruhigenden Trend und das wachsende Risiko verschärfen, dass die Geschwindigkeit der Stilllegung von Erzeugungsanlagen mit Eigenschaften, die für die Netzzuverlässigkeit erforderlich sind, die Kommerzialisierung neuer Ressourcen, die in der Lage sind, diese Zuverlässigkeitsattribute zu liefern, schnell übersteigt … Obwohl jede Region daran arbeitet, eine beträchtliche Zunahme der Erzeugung aus erneuerbaren Energiequellen zu ermöglichen, könnten die Herausforderungen und Risiken für die Netzzuverlässigkeit, die mit einer abnehmenden Menge an einsatzfähiger Erzeugungskapazität verbunden sind, durch die Verabschiedung der vorgeschlagenen Regelung erheblich verschärft werden … Da die Durchdringung mit erneuerbaren Energiequellen weiter zunimmt, wird sich das Netz noch mehr auf die Erzeugung verlassen müssen, die in der Lage ist, kritische Zuverlässigkeitsattribute zu liefern. Mit der fortgesetzten und möglicherweise beschleunigten Stilllegung von abschaltbaren Erzeugungsanlagen wird das Angebot an diesen Zuverlässigkeitsmerkmalen auf ein besorgniserregendes Niveau sinken.

Wie in der obigen Grafik zu sehen ist, bezeichnete die North American Electric Reliability Corporation am 27. August den „sich ändernden Ressourcenmix“ als wichtigstes Risiko für die Zuverlässigkeit des Stromnetzes. Und zum ersten Mal nannte sie die Klimapolitik als einen der wichtigsten Risikofaktoren. Mit dem jüngsten Netzumbau wird der Ressourcenmix „zunehmend zu einem Mix, der empfindlich auf extreme, weit verbreitete und lang anhaltende Temperaturen sowie auf Wind- und Solardürren reagiert“, heißt es in der Mitteilung. Und weiter heißt es:

Die Umsetzung politischer Entscheidungen kann die Zuverlässigkeit und Widerstandsfähigkeit des Massenstromsystems erheblich beeinflussen. Dekarbonisierung, Dezentralisierung und Elektrifizierung sind aktive Politikbereiche. Die Umsetzung politischer Maßnahmen in diesen Bereichen beschleunigt sich, und mit Veränderungen im Ressourcenmix, extremen Wetterereignissen und Herausforderungen im Bereich der physischen und der Cybersicherheit zeichnen sich Auswirkungen auf die Zuverlässigkeit ab.

Am 12. September veröffentlichte America’s Power, ein Wirtschaftsverband, der die Betreiber von Kohlekraftwerken vertritt, einen von Energy Ventures Analysis erstellten Bericht, aus dem hervorgeht, dass Kohle- und Gaskraftwerke während der brutalen Hitzewelle im vergangenen August entscheidend dazu beigetragen haben, die Klimaanlagen am Laufen zu halten. Der Bericht untersuchte SPP, MISO und ERCOT, die alle in hohem Maße auf Wärmekraftwerke angewiesen waren. So wurde beispielsweise festgestellt, dass in SPP die Stromerzeugung aus Kohle und Erdgas während der Hitzewelle um 35 % bzw. 40 % zunahm, während die Winderzeugung um 21 % zurückging. Die Schlussfolgerung des Berichts:

Die Hitzewelle im August, von der die ISOs ERCOT, MISO und SPP betroffen waren, unterstreicht die wiederkehrende Abhängigkeit von der zusätzlichen fossilen Stromerzeugung zur Deckung des Spitzenstrombedarfs bei extremen Wetterereignissen, da diese einsatzbereit und unabhängig vom Wetter ist (d. h. von den Windgeschwindigkeiten oder der Sonneneinstrahlung). Angesichts der Herausforderungen, die sich aus der geringeren Zuverlässigkeit erneuerbarer Energiequellen wie Wind und Sonne bei extremen Wetterereignissen ergeben, ist die Widerstandsfähigkeit des US-Stromnetzes bei solchen Ereignissen unbestreitbar auf den nachhaltigen Beitrag von Kohle- und Erdgaskraftwerken angewiesen.

Acht Tage nach der Veröffentlichung dieses Berichts kündigte Bloomberg seinen 500 Millionen Dollar teuren Plan an, genau die Kohle- und Gaskraftwerke abzuschalten, die während der glühend heißen Tage im August dazu beigetragen hatten, Stromausfälle abzuwenden.

Natürlich kann Bloomberg sein riesiges Vermögen ausgeben, wie er will. Laut Forbes ist er mit einem Vermögen von 96,3 Milliarden Dollar der elftreichste Mensch der Welt. (Bloomberg.com führt Michael Bloomberg nicht in seiner Rangliste der reichsten Menschen der Welt auf.) Und der ehemalige Bürgermeister von New York City lebt nicht gerade bescheiden. Wie ich im März auf diesen Seiten schrieb, besitzt Bloomberg etwa ein Dutzend Häuser. Er ist auch einer der größten Nutzer von Privatjets. Ich habe das erklärt:

Nach Angaben von ClimateJets.org nutzte Bloomberg oder mit ihm verbundene Personen fünf Flugzeuge, die im Jahr 2022 rund 3197 Tonnen CO₂ ausstießen. Mit dieser Zahl liegt Bloomberg unter den Top 10 aller Privatjetbesitzer, was die Emissionen angeht. Zum Vergleich: Der durchschnittliche Amerikaner ist für etwa 16 Tonnen CO₂-Emissionen pro Jahr verantwortlich. Mit anderen Worten: Bloombergs Jet-Flotte stößt pro Jahr etwa 200 Mal mehr CO₂ aus als der Durchschnittsamerikaner.

Zur Erinnerung: Bei der Ankündigung seines 500-Millionen-Dollar-Zuschusses für Beyond Carbon behauptete Bloomberg, er wolle die fossilen Brennstoffe „hinter sich lassen“ und sie durch erneuerbare Energien ersetzen. Im vergangenen Jahr flogen Bloomberg oder Personen, die mit ihm in Verbindung stehen, in seinen Privatjets nach New York, New Jersey, Florida, auf die Bahamas, nach UK, in die Niederlande, auf die Bermudas, in die Schweiz, nach Frankreich, Costa Rica, Brasilien, Israel, Katar und in die Vereinigten Arabischen Emirate. Für all diese Flüge wurden etwa 328.000 Gallonen Kerosin verbraucht. Zum Vergleich: Das ist etwa 670 Mal mehr als die Menge an Benzin, die ein durchschnittlicher amerikanischer Autofahrer in einem Jahr verbraucht.

Denken Sie auch daran, dass Bloomberg im Jahr 2021 sagte: „Wir befinden uns in einem Wettlauf, um die Erde vor dem Klimawandel zu retten“. Es ist unklar, auf wen sich Bloomberg bezog, als er das königliche „wir“ benutzte, aber angesichts seiner Vorliebe für weit entfernte Häuser und Privatjets scheint es, dass der Medienmogul und Beinahe-Zentimilliardär in Bezug auf den Verbrauch von Kohlenwasserstoffen dem Rest von uns sehr ähnlich ist.

Diese Haltung erinnert mich an den heiligen Augustinus, der bekanntlich betete: „Oh Herr, hilf mir, rein zu sein, aber jetzt noch nicht.“

This piece originally appeared at Robertbryce.substack.com and has been republished here with permission.

Link: https://cornwallalliance.org/2024/01/michael-bloombergs-1-billion-assault-on-the-electric-grid/

Übersetzt von Christian Freuer für das EIKE

 




Schwimmende Wracks: Ständig ausfallende Offshore-Windkraftanlagen von Siemens sind praktisch nicht versicherbar

Stopthesethings

Die plötzliche Implosion der Windindustrie führte dazu, dass Siemens im Juni an einem einzigen Tag 5,8 Mrd. € an Marktwert einbüßte, gefolgt von einer weiteren 40-prozentigen Abschreibung im Oktober, die den Marktwert um weitere 3 Mrd. € reduzierte, nachdem Siemens enthüllt hatte, dass es von der deutschen Regierung Garantien in Milliardenhöhe forderte.

Der Kern ihrer Probleme ist eine Anlage, die viel schneller verschleißt als versprochen, deren Wartung natürlich kostspielig ist und die in Meeresumgebungen katastrophale und oft tödliche mechanische Ausfälle erleidet, so dass die Generatoren ausgebaut und für eine komplette Überholung an Land geschleppt werden müssen. Natürlich sind die Kosten für all das astronomisch.

Da die Ausfälle so plötzlich auftreten, ist es normalerweise der Hersteller, der die Kosten für die Reparaturen im Rahmen der (äußerst ehrgeizigen) Garantien übernimmt [zu übernehmen hat], die von Unternehmen wie Siemens und anderen gewährt werden. Wenn die Herstellergarantie diese Kosten nicht abdeckt, wenden sich die Betreiber an ihre Versicherer, um die Rechnung zu begleichen.

Wie in diesem Beitrag des Propagandisten der Windindustrie, Gareth Chetwynd, beschrieben, versuchen die Versicherer jedoch, ihr Risiko zu begrenzen, indem sie Ansprüche aufgrund von Herstellermängeln mit Hilfe von „Serienmängelklauseln“ ausklammern. Diese Klauseln bedeuten, dass die Betreiber von Offshore-Turbinen für den höchstwahrscheinlichen Fall haften müssen, dass die salzverkrusteten Maschinen plötzlich und vorzeitig zum Stillstand kommen. Genau das ist mit einer Flotte von 6-MW-Siemens-Monstern passiert, die vor der schottischen Küste schwimmen.

Der weltweit erste schwimmende Windpark Hywind Scotland steht wegen „schwerer Wartungsarbeiten“ vor der Schließung.
Recharg News, Gareth Chetwynd, 12. Januar 2024

Wie Recharge erfahren hat, wird der norwegische Energieriese Equinor noch in diesem Jahr alle fünf schwimmenden Windturbinen vorübergehend aus dem Hywind Scotland-Array entfernen, nachdem festgestellt wurde, dass an den dort eingesetzten Siemens Gamesa-Maschinen ein „intensiver Wartungsbedarf“ besteht.

Die 6-MW-Turbinen werden im Rahmen eines Wartungsprogramms, das voraussichtlich etwa vier Monate dauern wird [das wird länger dauern – der Übersetzer], zurück nach Wergeland an der Westküste Norwegens geschleppt. Nach Abschluss der Wartungsarbeiten werden alle Einheiten am Standort Hywind Scotland wieder angeschlossen, bestätigte ein Sprecher des norwegischen Unternehmens.

„Die Arbeiten umfassen den Austausch einiger Komponenten an den Turbinen sowie eine routinemäßige Wartung. Aus den Betriebsdaten geht hervor, dass die Turbinen dringend gewartet werden müssen„.

Equinor lehnte es ab, genaue Angaben darüber zu machen, welche Komponenten ausgetauscht werden müssten, aber von Recharge befragte Brancheninsider meinten, dass es sich um erhebliche Probleme handeln müsse, die ein Eingreifen in diesem Umfang erforderlich machten.

Der Equinor-Sprecher räumte zwar ein, dass das Abschleppen aller Windräder zur Wartung nach sieben Jahren Betrieb nicht von Anfang an geplant war, behauptete aber, dass solche Maßnahmen nicht völlig unerwartet kämen.

„Wir werden eine Kombination aus dem Austausch einiger Komponenten und der Wartung anderer Komponenten durchführen und die Gelegenheit nutzen, um auch regelmäßige Wartungsarbeiten durchzuführen. All das machen wir regelmäßig in unseren anderen Offshore-Windparks. Der Unterschied ist, dass wir die Windräder an Land schleppen werden“, sagte er.

Er fügte hinzu, dass die Notwendigkeit einer umfangreichen Wartung durch „regelmäßige Überwachung und Inspektionen in enger Zusammenarbeit mit dem Hersteller“ deutlich wurde.

Siemens Gamesa wurde gebeten, die Art der Probleme an den Windrädern von Hywind Scotland zu erläutern, aber ein Sprecher sagte, das Unternehmen würde die von Equinor vorgelegten Informationen nicht weiter ausführen.

Die 30-MW-Anlage Hywind Scotland wurde als weltweit erster kommerzieller schwimmender Windpark gefeiert, als er 2017 in Betrieb genommen wurde und schneller ans Netz ging, als eine Reihe von anderen Demonstrationsprojekten.

Equinor und der 25-prozentige Projektpartner Masdar investierten umgerechnet 194 Mio. USD in das Projekt und freuten sich über eine Kostenreduzierung von 60-70 % im Vergleich zum Hywind-Demoprojekt in Norwegen.

„Die meisten Offshore-Windparks erfordern von Zeit zu Zeit umfangreiche Wartungsarbeiten an den Generatoren, so dass dies immer etwas war, das passieren konnte. Die Windräder an Land zu schleppen ist derzeit die sicherste, effizienteste und bewährteste Methode, um solche schweren Wartungsarbeiten an schwimmenden Windräder durchzuführen“, so der Sprecher.

Bedenken hinsichtlich der Versicherbarkeit

Seit der Inbetriebnahme von Hywind Scotland sind die Ambitionen für schwimmende Windkraftanlagen in der Tat wie Pilze aus dem Boden geschossen, einschließlich einer potenziellen Kapazität von 19 GW in der Pipeline als Ergebnis der britischen Scotwind-Ausschreibung.

Doch die Probleme, die bei Hywind Scotland aufgetaucht sind, treffen den Kern der Herausforderungen, mit denen der schwimmende Sektor konfrontiert ist.

Obwohl jegliche Probleme mit den 6-MW-Direktantriebs- Generatoren für Siemens Gamesa, die mit Qualitätsproblemen bei seinen Onshore-Plattformen auf sich aufmerksam gemacht hat, unerwünscht sind, warnen viele in der Branche davor, dass die Sorge eher einer breiteren Risikowahrnehmung gilt, die eine Bedrohung für die aufkeimenden Pläne des jungen Sektors darstellt.

Dies gilt insbesondere für die Versicherungskosten im Versicherungssektor.

Michael Bullock, Direktor des Beratungsunternehmens Renewable Risk Advisers, unterstrich diesen Punkt auf einer kürzlich abgehaltenen Branchenkonferenz in Lissabon, auf der die Teilnehmer die Folgerisiken von Anlagenausfällen in Bezug auf Fragen wie die Verfügbarkeit von Schiffen, den Zugang zu Häfen und die Herausforderungen beim Wiederanschluss diskutierten.

Zusätzlich zu den Selbstbehalten in den Policen begrenzen die Versicherer ihr Risiko in der Regel durch Serienmängelklauseln in den Policen und in den Verhandlungen über die Erneuerung der Policen, was das Risiko eines Restrisikos für das Projekt selbst birgt, soweit der Schutz nicht durch OEM-Garantien und trotz der bestehenden Deckung durch die Versicherer gegeben ist, so Bullock.

Zusätzlich zu den Selbstbehalten in den Policen begrenzen die Versicherer ihr Risiko in der Regel durch Serienmängelklauseln im Wortlaut der Policen und bei Verlängerungsverhandlungen, was ein Restrisiko für das Projekt selbst darstellt, soweit der Schutz nicht durch OEM-Garantien und trotz der bestehenden Deckung durch die Versicherer gegeben ist, so Bullock.

„Serienmängel kommen im Offshore-Windsektor wie auch anderswo vor, selbst bei ordnungsgemäßer Sorgfaltspflicht und Zertifizierung, aber das Risiko wird potenziell durch die Häufigkeit neuer, größerer Windrad-Konstruktionen mit unterschiedlichen Belastungen und Ermüdungsraten sowie anderen Merkmalen erhöht“, sagte er kürzlich in einem Interview mit Recharge.

„Die Kosten einer ungeplanten Wartungskampagne für mehrere Offshore-Anlagen werden immer beträchtlich sein, zusätzlich zu den beträchtlichen Einnahmeverlusten, die durch die Ausfallzeiten der Windräder entstehen“.

Bullock fügte hinzu, dass Projektentwickler die Risiken durch Szenarioanalysen und Notfallplanung mindern können, die in Betriebs-, Wartungs- und Ersatzteilstrategien einfließen, einschließlich vorverhandelter Abrufvereinbarungen für geeignete Schiffe.

Ankerziehschlepper

Als eines der weltweit führenden Unternehmen im Bereich der Offshore-Förderung von Öl und Gas ist Equinor besser als viele andere in der Lage, Ankerziehschiffe (AHTS) zu beschaffen.

Der norwegische Offshore-Gigant hat derzeit zwei AHTS-Schiffe mit fester Laufzeit gechartert, nämlich die Vega und die Ferking, aber der Betreiber hat anscheinend im Vorfeld der Hywind Scotland-Operation eine zusätzliche Deckung für Ankerziehschlepper arrangiert, so die in diesem Marktsegment tätigen Schiffsmakler.

„[Equinor] hat Ende letzten Jahres eine Laufzeit-Charter für ein AHTS vorgelegt. Sie haben den Vertrag noch nicht abgeschlossen, aber im Wesentlichen haben sie jetzt zwei AHTS gechartert. Ferking wird im Oktober außer Dienst gestellt und Vega geht weiter. Von April bis Oktober werden sie also drei AHTS-Schiffe auf Zeitcharter haben“, so ein norwegischer Schiffsmakler gegenüber Recharge.

Equinor ist kein Unbekannter, wenn es um Risiken im Offshore-Windsektor geht, und gehört zu den Projektentwicklern, die sich aus Verträgen für US-Projekte zurückgezogen haben, die durch einen Anstieg der Kosten der Lieferkette und des Kapitals unwirtschaftlich geworden sind.

Jüngste Schritte wie die Absage des New Yorker 1,2-GW-Projekts Empire Wind 2 (mit festem Fundament) wurden jedoch durch die im Mai 2023 getroffene Entscheidung vorweggenommen, das subventionsfreie 1-GW-Schwimmwindprojekt Trollvind in Norwegen auszusetzen, und zwar „aufgrund mehrerer Herausforderungen, denen sich das Projekt gegenübersieht, darunter die Verfügbarkeit der Technologie, steigende Kosten und ein straffer Zeitplan für die Umsetzung des ursprünglichen Konzepts„.

Victoria Toft, Leiterin der Datenabteilung des dänischen Beratungsunternehmens Aegir Insights, wies auf einen branchenweiten Bedarf an Betriebs- und Wartungserfahrungen oder „Lernmöglichkeiten“ hin. Sie merkte an, dass Bedenken hinsichtlich der Betriebsanforderungen und der Auswirkungen von Reparaturen großer Komponenten ernsthafte Fragen für schwimmende Windkraftanlagen aufwerfen.

Einige Technologieanbieter wie Aker Solutions und Encomara haben neue Produkte und Lösungen entwickelt, die unter anderem das effiziente An- und Abkoppeln von schwimmenden Turbinen erleichtern sollen. Aber eine Patentlösung für das Problem von Serienfehlern oder Ausfällen bei großen Komponenten gibt es noch nicht, meint Toft.

Demmig Bing KI

„Einheiten, die größere Reparaturen oder den Austausch größerer Komponenten benötigen, müssen aufgrund der Abmessungen der Fundamente oft weit fahren, um geeignete Häfen zu finden„.

Im Fall der Hywind Scotland wurde Wergeland als die nächstgelegene Werft identifiziert, die für schwere Wartungsarbeiten geeignet ist, so der Equinor-Sprecher.

Recharge News

 

https://stopthesethings.com/2024/01/29/floating-wrecks-perpetually-failing-siemens-offshore-wind-turbines-practically-uninsurable/

Übersetzt durch Andreas Demmig

 




Status und Trends bei der Wiederaufbereitung von abgebrannten Kernbrennstoffen

Von Dr. Humpich

Die Wiederaufbereitung abgebrannter Kernbrennstoffe (Ökosprech: „Atommüll“) ist das zentrale Bindeglied für eine nachhaltige Nutzung der Kernenergie. Durch das Recycling werden aus dem Abfall unterschiedlich verwendbare Materialien gewonnen. Man kann sie zur Energieerzeugung weiter verwenden und man kann dadurch die Problematik der „Endlagersuche“ beträchtlich entschärfen. In diesem Sinne ist das Verbuddeln von abgenutzten Brennelementen ökologisch, ökonomisch und sicherheitstechnisch die unbefriedigendste Lösung. Vornehmste Aufgabe der Wiederaufbereitung ist die Trennung der Spaltprodukte – der nuklearen „Asche“ der Kernspaltung – von den Aktinoiden (Uran, Plutonium usw.). Aus den Aktinoiden kann durch schnelle Neutronen weitere Energie gewonnen werden. Wenn Brennelemente für konventionelle Leicht- und Schwerwasserreaktoren nicht mehr geeignet sind – man nennt das „abgebrannt“ – enthalten sie immer noch mindestens 95% Material aus dem Energie gewonnen werden kann. Spätestens hier wird klar, welche Verschwendung ein Wegwerfen als „Atommüll“ nach deutschem Gusto wäre.

Die Einordnung der Wiederaufbereitung

Alle Verfahren zur Trennung von abgebranntem Kernbrennstoff sind chemische Prozesse. Entgegen der Behauptung von „Atomkraftgegnern“ werden dabei keine neuen radioaktiven Elemente erzeugt. Es werden höchstens radioaktive Stoffe verschleppt und dadurch Bauteile kontaminiert. Die können aber wieder gereinigt werden. Auf jeden Fall strahlen solche Verunreinigungen weniger als der ursprüngliche Kernbrennstoff und können deshalb lediglich auf Sondermülldeponien gelagert werden. Man unterscheidet Nassverfahren und pyrochemische Prozesse.

Nassverfahren

Der typische Vertreter eines Nassverfahrens ist der PUREX (plutonium uranium reduction extraction) Prozess, wie er z. B. in der französischen Anlage in La Hague industriell angewendet wird. Seit 2010 werden dort durchschnittlich 1050 to pro Jahr aufgearbeitet und dabei 10,5 to Plutonium und 1000 to/a sog. RepU (reprocessed uranium) zurückgewonnen. Das Plutonium wird unverzüglich zur Melox Anlage in Marcoule zur Verarbeitung zu MOX-Brennstäben (mixed oxide) transportiert. Aus diesen 120 to/a wird Brennstoff für 24 Druckwasserreaktoren der EdF mit je 900 MWel gewonnen. Beim PUREX-Verfahren wird der abgebrannte Brennstoff in Salpetersäure aufgelöst. Es entstehen diverse Salze in wässriger Lösung. Diese Lösung wird kräftig mit einem organischen Lösungsmittel (30% Tributylphosphat gelöst in Kerosin) durchmischt. Dabei gehen Uran und Plutonium in die organische Phase über und die Spaltprodukte und minoren Aktinoide verbleiben in der wässrigen Lösung. 99,9% des Uran und Plutonium werden zurück gewonnen und etwa 3% des ursprünglichen Brennstoffs bleiben als hoch aktiver Abfall zurück und werden anschließend verglast. Die Trennung beider Phasen erfolgt rein physikalisch – Öl schwimmt auf Wasser. Uran und Plutonium werden durch einen weiteren Schritt (Umwandlung der +2 Ionen in den +3 Oxidationszustand durch z. B. Eisen) voneinander getrennt, indem das Plutonium dadurch in diese wässrige Phase übergeht.

Das primäre Ziel bei diesem Verfahren ist die Gewinnung möglichst reinen Plutoniums. Das ist zwar günstig für die Herstellung von MOX-Brennstoff, kann aber andererseits auch zur „Plutonium-Bombe“ führen. Die Befürchtungen sind so ernsthaft, daß ein Austausch der Technologie nur sehr beschränkt ist. So hat man den Vereinigten Emiraten den Bau eines Kernkraftwerks nur gestattet, weil sie ausdrücklich auf eine eigene Anreicherung und Wiederaufbereitung verzichtet haben. Andererseits verfügt Japan in Rokkasho über eine Anlage mit einer Kapazität von 800 to/a, die 4 to/a Plutonium für 80 to/a MOX-Brennstoff gewinnen kann. Das Konzept gegen die Weiterverbreitung von Kernwaffen (Proliferation) steht auf etwas wackeligen Füßen. Wo ein Wille ist, ist auch ein Weg: Israel, Nord Korea, Iran usw. Deshalb die Bestrebungen (siehe später) Verfahren zu entwickeln, mit denen man gar kein waffengrädiges Plutonium herstellen kann.

Für das weitere Verständnis ist wichtig, daß die minoren Aktinoide mit den Spaltprodukten zusammenbleiben. Sie werden gemeinsam in Glas aufgelöst und in Kannen zur Endlagerung abgefüllt. Hier ergibt sich das erdachte „Endlagerproblem“: Die Kannen werden in Bunkern gelagert, bis so viele kurzlebige Spaltprodukte zerfallen sind, daß die resultierende Wärmeproduktion auf ein erträgliches Maß abgesunken ist. Die zulässigen Oberflächentemperaturen (etwa 60°C) werden durch die Tonschichten im geologischen Tiefenlager in Bure bestimmt. Die Spaltprodukte zerfallen in etwa 300 Jahren bis auf Werte von Uranerz. Sie wären damit ungefährlich, da Menschen seit Jahrtausenden mit solchen natürlichen Strahlenbelastungen umgehen. Es bleibt allerdings das Problem mit den minoren Aktinoiden: Sie sind sehr langlebig, aber als 𝜶-Strahler relativ harmlos – so lange man sie nicht isst oder trinkt. Daraus leitet sich die Endlagerung möglichst tief unter der Erde ab.

Das PUREX-Verfahren ist seit Jahrzehnten erprobt und das einzige Verfahren mit dem Anlagen im industriellen Maßstab betrieben werden. Es hat aber noch einen weiteren (politisch) gravierenden Nachteil: Es verwendet organische Lösungsmittel. Organische Lösungsmittel werden durch ionisierende Strahlung zersetzt. Einziger Weg ist die Zwischenlagerung abgebrannter Brennelemente um die Strahlenbelastung zu senken. Zwischenlager sind deshalb nicht der Ausdruck „eines nicht weiter Wissens“, sondern eine technische Lösung für ein bestimmtes Verfahren zur Wiederaufbereitung. Der Kostenvorteil einer „großen Chemieanlage“ ist gleichzeitig ein prinzipieller Nachteil für kleine Länder. So hat man sich in Schweden und Finnland für eine aufwendige Langzeit-Lagerung entschieden. Man legt Tunnelsysteme im Granit an und verpackt die Brennstäbe aufwendig in Kupferbehältern. So hat man notfalls „ewig“ Zeit für die Auswahl eines Verfahrens. Auch hier erweist sich die hohe Energiedichte der Kernspaltung als Vorteil. Die durchaus hohen Investitionen finanzieren sich durch die Umlage auf die erzeugte Kilowattstunde im Zehntel Cent Bereich.

Die Umstellung auf schnelle Reaktoren

In Reaktoren mit schnellem (energiereichem oder harten) Neutronenspektrum kann man auch U238 und die minoren Aktinoide (Neptunium, Americium usw.) spalten. In den Anfängen der Kerntechnik glaubte man noch, daß zumindest die wirtschaftlich gewinnbaren Uranmengen sehr begrenzt seien. Ein fataler – wenngleich glücklicher – Irrtum. In den 1950er Jahren träume man von einer voll elektrifizierten Welt (Ähnlichkeiten mit heutigen Schlangenölverkäufern der Wind und Sonnenbranche sind mehr als zufällig). Man wollte einen möglichst schnellen Bau von Kernkraftwerken bei vermeintlicher Knappheit von Uran. Die Antwort sollte der „Schnelle Brüter“ sein. Man wollte mit ihm mehr Plutonium produzieren als man verbrauchte. „Verdoppelungszeit“ war das Schlagwort der Stunde. Gemeint ist damit die Betriebsdauer eines schnellen Brüters, bis er soviel Überschuss an Plutonium produziert hat, daß damit ein Zwilling in Betrieb genommen werden kann.

Heute ist die Situation eine andere. Einerseits ist der Preis für Natururan immer noch so gering, daß man weiterhin Leichtwasser- und Schwerwasserreaktoren bauen kann. Andererseits verfügen wir über hunderte Tonnen Plutonium in abgebrannten Brennstäben, bzw. sogar fertig aufbereitet. Wir könnten somit mehrere schnelle Reaktoren sofort bauen. Im Gegenteil würden diese unsere Lagerkosten beträchtlich verringern. Wir haben auch bereits mehre Prototypen erfolgreich im Betrieb. Die Sache hat nur einen Haken: Schnelle Reaktoren erfordern wesentlich höhere Investitionen. Bis sich die Schere schließt, höhere Betriebskosten durch steigende Brennstoffkosten, gesunkene Investitionskosten für schnelle Reaktoren durch Skaleneffekte, werden noch einige Jahrzehnte vergehen.

Pyrochemische Verfahren

Für einen schnellen Reaktor wäre also eine Mischung aus Uran, Plutonium und den minoren Aktinoiden geeignet. Daraus ergeben sich zwei gravierende Vorteile: Das Aufbereitungsverfahren ist für die Herstellung von Kernwaffen ungeeignet und man erhält einen sehr kurzlebigen Atommüll. Er kann in einem geologischen Tiefenlager verschwinden, muß aber nicht. Ferner ist das Verfahren eher für kleine Anlagen geeignet. Es gibt daher in Russland die Bestrebung eine Wiederaufbereitung in das Kernkraftwerk zu integrieren. In das Kraftwerk würde nur abgereichertes Uran als Ersatz für die Energieproduktion nach geliefert und die wenigen Spaltprodukte könnten am Kraftwerk bis zu dessen Stilllegung gelagert werden. Transporte von „Atommüll“ würden sich beträchtlich verringern.

Die Elektroraffination von geschmolzenem Salz ist ein pyrochemisches Verfahren, das sich ideal für die Wiederaufbereitung von Metallen eignet. Die Vorteile des geschmolzenen Salz-Elektro-Raffinierungsprozesses gegenüber dem wässrigen Prozess für metallische Brennstoffe sind:

  • Eine reduzierte Anzahl von Schritten, da sich der Brennstoff während des gesamten Prozesses im metallischen Zustand befindet.
  • Besonders geeignet für nur kurzzeitig gekühlte Brennstoffe mit hohem Abbrand. Die anorganischen Lösungsmittel widerstehen den höheren Strahlungsleistungen viel besser als organische Reagenzien. Die Verkürzung der Umlaufzeit kann zu einer kürzeren Verdoppelungszeit führen.
  • Man kann höhere Mengen an abgebranntem Brennstoff in kleineren Anlagen handhaben als bei wässrigen Prozessen (notwendige Verdünnung).
  • Reduzierte Kritikalität aufgrund des Fehlens von Moderatoren (organische und wässrige Lösungsmittel).
  • Fast keine hoch radioaktiven flüssigen Abfälle.
  • Inhärente Sicherheit gegen militärische Nutzung durch die gemeinsame Abscheidung von Uran, Plutonium und minoren Aktinoiden.

Die Herausforderungen sind:

  • Hohe Betriebstemperaturen und die Verwendung von korrosiven Salzen, die eine technologische Herausforderung bei der Materialauswahl bedeuten.
  • Da die Salze hygroskopisch und die Metalle pyrophorisch sind, erfordert der Prozess eine inerte Atmosphäre mit sehr niedrigem Feuchtigkeits- und Sauerstoffgehalt um eine Selbstentzündung zu verhindern.
  • Trennfaktoren für Spaltprodukte sind etwa 1000-mal niedriger als bei wässrigen Prozessen.
  • Bisher noch begrenzte Erfahrungen, meist im Labormaßstab.

Elektroraffination mit Salz

Am bekanntesten ist der Prozess der Raffination von metallischem Brennstoff in einer Salzschmelze, wie er im US-Programm für schnelle Brüter (EBR-II 1964–1994 und Integral Fast Reactor IFR 1986–1994) angewendet wurde. In einem Tiegel wird Lithium- und Kaliumchlorid Salz bei 500 °C aufgeschmolzen. Die in Stücke zerschnittenen Brennstäbe kommen in einen Drahtkorb, der in die Salzschmelze getaucht wird. Die Elemente des abgenutzten Brennstabs lösen sich in der Salzschmelze auf. Der Drahtkorb bildet die Anode. Die Kathode besteht aus geschmolzenem Kadmium. Wird ein Strom angelegt, wandern Uran, Plutonium und die minoren Aktinoide gemeinsam zu der Kathode. Die Spaltprodukte verbleiben im Salz gelöst. Stark vereinfacht, hängt der „Weg“ den die Elemente nehmen, von der Stabilität der gebildeten Chloride ab: Die Elemente, deren Chloride hochstabil sind, sind leicht zu oxidieren und werden als Chloride in die Elektrolytphase übertragen. Sie sind nur schwer zu reduzieren und bleiben daher in der Elektrolytphase. Edelmetalle, deren Chloride am wenigsten stabil sind, werden nicht oxidiert und bleiben so bei der Anode. Die „Brennstoffe“ Uran und Plutonium und und auch die minoren Aktinoide, deren Chloride von mittlerer Stabilität sind, werden durch den Elektrolyten transportiert und dann auf der Kathode abgelagert.

Die in der Anode verbleibenden Brennstabhüllen und Edelmetalle können zur Endlagerung eingeschmolzen werden. Das Salz kann gereinigt werden, indem es durch Zeolithe geleitet wird. In einem weiteren verfahrenstechnischen Schritt muß die Kathode eingeschmolzen werden und daraus neue Rohlinge für Brennstäbe gegossen werden.

Vorstufe für konventionelle Brennstoffe

Eine Elektroraffination ist nur bei metallischen Brennstoffen direkt möglich. Heutige Leichtwasserreaktoren verwenden keramisches UO2 als Brennstoff. Keramik ist aber nicht elektrisch leitend. Ein gebräuchliches Verfahren der Umwandlung ist das Voloxidation-Verfahren (für volumetric oxidation). Dabei wird der zu recycelnde Brennstoff in einem Vakuum mit Sauerstoff auf etwa 500°C erhitzt. Dadurch wandelt sich UO2 in U3O8 um. Während dieses Verfahrensschrittes werden alle in diesem Zustand gasförmige Spaltprodukte ausgetrieben. Insbesondere Tritium kann auf diese Weise einfach und konzentriert abgeschieden werden.

Internationale Situation

Im Moment führend bei der Entwicklung sind die USA, Russland, Indien, Korea, Japan und Frankreich. Allerdings befindet sich das Verfahren in allen Ländern noch in der Entwicklung. Man kann mit Fug und Recht feststellen, daß die Elektroraffination eine Schwester der Reaktoren mit schnellem Neutronenspektrum ist – die sicherlich die Zukunft sind. Hinzu kommen im Einzelfall noch politische Randbedingungen. So kann Korea beispielsweise nicht das PUREX Verfahren nutzen, um sich nicht dem Verdacht einer atomaren Aufrüstung auszusetzen.

An der Spitze der Entwicklung befindet sich Russland. In Seversk befindet sich ein Pilotprojekt bereits in Bau. Es besteht aus einem mit flüssigem Blei gekühlten Reaktor mit einer Leistung von 300 MWel . Dieser Reaktor ist nicht als Brüter, sondern mit einer Konversionsrate von um die 1 konzipiert. Er soll also lediglich soviel Plutonium produzieren, daß er nur noch mit abgereichertem oder Natururan ergänzt werden muß. Er soll mit MNUP Brennstoff (Mixed Nitride Uran Plutonium) betrieben werden. Dieser Reaktor soll mit einer integrierten Wiederaufbereitung und Brennstoffherstellung versehen werden. Es ist der vorläufige Höhepunkt einer Jahrzehnte andauernden Entwicklung. Typisch russisch ist dabei das Vorgehen in Schritten, wobei im jeweils nächsten Schritt die Betriebserfahrungen des vorhergehenden Reaktortyps einfließen.

REMIX

REMIX-Brennstoff (für regenerierte Mischung) ist ein innovatives russisches Produkt für thermische Leichtwasserreaktoren, die das Herzstück der heutigen Kernkraftindustrie bilden. Dieser Brennstoff wird aus einer Mischung von wiederaufbereitetem Uran und Plutonium hergestellt, die unter Zugabe kleiner Mengen angereicherten Urans erzeugt wird. Im Unterschied zu Uran-Plutonium-Brennstoffen für schnelle Reaktoren (wie MNUP- und MOX-Brennstoff) hat der REMIX-Brennstoff einen geringen Plutoniumgehalt (bis zu 1,5%). Sein Neutronenspektrum unterscheidet sich nicht von gewöhnlichem LWR-Brennstoff aus angereichertem Uran, daher sind das Verhalten von Brennelementen im Reaktorkern und die Menge an Plutonium, die durch Bestrahlung aus Uran herausgelöst wird, im Prinzip ähnlich.

Für Betreiber von Druckwasserreaktoren (VVER-1000 und VVER-1200) bedeutet dies langfristig, daß der REMIX-Brennstoff ohne Änderungen der Reaktorauslegung oder zusätzliche Sicherheitsmaßnahmen benutzt werden kann. Die Einführung eines solchen Brennstoffs ermöglicht die Nutzung von Natururan für Kernkraftwerke durch die Schließung des Kernbrennstoffkreislaufs erheblich zu steigern und den abgebrannten Kernbrennstoff weiterzuverwenden, anstatt ihn zu lagern oder gar zu verbuddeln.

DUPIC

Ein weiterer Weg ist die Verknüpfung von Leichtwasser- und Schwerwasserreaktoren. In den abgebrannten Brennelementen der Leichtwasserreaktoren ist noch etwa 1,5 gew% Spaltstoff enthalten (U235 Pu239). Der Gehalt hängt vom Abbrand ab – bei niedrigem Abbrand ist noch viel enthalten, bei hohem Abbrand entsprechend weniger. Es sind noch ein paar Prozent bei den üblichen Abbränden zwischen 35 MWd/kgU und 50 MWd/kgU vorhanden. Dieser Gehalt an Spaltmaterial entspricht mehr als dem Doppelten von Natururan mit 0,71%. Für einen mittleren Abbrand von 42,5 MWd/kgU bei Leichtwasserreaktoren könnten zusätzlich 15,5 MWd/kgU gewonnen werden, was immerhin 37% mehr Energie entspricht. Nach der Nutzung des DUPIC Brennstoffs in Schwerwasserreaktoren sinkt der Spaltstoffgehalt auf etwa 0,63% bis 0,78%.

Durch die Verknüpfung von Leicht- und Schwerwasserreaktoren über das DUPIC Verfahren ergeben sich folgende Vorteile:

  • Es wird abgebrannter Brennstoff der Leichtwasserreaktoren verbraucht. Das Volumen für Zwischen und Endlagerung verringert sich entsprechend.
  • Es wird weniger Natururan verbraucht. Alle mit der Förderung, Konversion und Anreicherung verbundenen Belastungen werden gespart.
  • Die Menge an abgebranntem Brennstoff der Schwerwasserreaktoren wird durch den höheren Spaltstoffgehalt (ungefähr zweifach gegenüber Natururan) kleiner.

Es sollte dabei nicht vergessen werden, daß es sich hier um den Umgang mit hochaktiven Brennstoffen handelt. Entsprechende Abschirmungen und eine vollständige Handhabung aus der Ferne sind erforderlich. Bisher sind nur kleine Mengen versuchsweise in heißen Zellen hergestellt worden. Bis zu einer industriellen Nutzung ist noch viel Entwicklungsarbeit zu leisten.

Schlusswort

Wie immer in der Technik, wird zuerst der einfachste Weg beschritten. Im Falle der Kerntechnik: Leichtwasserreaktoren, Lagerung der abgebrannten Brennelemente und Aufbereitung in den Ländern, die ohnehin schon über ein erprobtes Verfahren (PUREX) verfügten – dies waren die bekannten „Atommächte“. Nicht viel anders, als beim Papier: Zuerst wurde Papier hergestellt (Reaktoren zur Stromproduktion), dies wurde nach Gebrauch als Müll weggeworfen (abgebrannte Brennelemente). Erst nachdem die Altpapiermengen so groß geworden waren, daß sich ein Recycling wirtschaftlich lohnte, wurden die ersten Altpapiermühlen gebaut – heraus kam das „graue Altpapier“. Nach der Abstimmung des gesamten Kreislaufs aufeinander, entstand das heutige weiße Recyclingpapier. Heute ist Papier ein nachhaltiges Produkt geworden, das zu über 75% im Kreislauf läuft.

In Analogie wird sich das System Kerntechnik ebenfalls schrittweise vom Reaktor, über das Brennstoffrecycling bis zur Abfallnutzung weiter entwickeln. Abfall ist bezüglich der Kernenergie ohnehin mit Vorsicht zu beurteilen. Man muß sich immer wieder vor Augen führen, daß der „Atommüll“ das gesamte Periodensystem abdeckt. Schon heute werden Isotope aus dem Atommüll für z. B. Krebstherapien gewonnen. Es ist alles eine Frage der Wirtschaftlichkeit, Planwirtschaft und Ideologie führen nicht weiter.