ANDERS ALS GEDACHT – Deutliche Kostenvorteile der Kernkraft

von Alex Reichmuth

Geradezu mantrahaft wiederholen Kernkraftgegner, Strom aus neuen Atomkraftwerken könne man kaum bezahlen. «Die neuen AKW sind zu teuer», behauptete Mitte-Nationalrat Stefan Müller-Altermatt in der «Arena». SP-Nationalrätin Martina Munz verstieg sich bei einem öffentlichen Auftritt gar zur Aussage: «AKW-Strom ist der teuerste Strom, den wir überhaupt haben können.»

Man muss solche Aussagen als Fake News bezeichnen. Seriöse Studien kommen zum Schluss, dass Atomstrom aus
neuen Werken vergleichsweise günstig bis sehr günstig ist. Vor kurzem hat auch Georg Schwarz in einer Kostenschätzung ein solches Fazit gezogen. Schwarz ist ehemaliger stellvertretender Direktor des Eidgenössischen Nuklearsicherheitsinspektorat, versteht also etwas von der Atomtechnologie.

Er rechnet die Kosten für neue Kernkraftwerke in der Schweiz auf 5,7 Rappen pro Kilowattstunde Strom hoch. Der Auf- wand für die Stilllegung der Werke und die Entsorgung des Abfalls ist dabei berücksichtigt. Damit ist Atomstrom deutlich billiger als solcher von Fotovoltaik-Anlagen (PV) mit 10,3 Rappen und Windturbinen (8,8 Rappen). Und nur wenig teurer als solcher aus bestehenden Wasser-Speicherkraftwerken (5,3 Rappen).

Georg Schwarz geht in seinem Blogbeitrag auch auf die europäischen Neubauprojekte Olkiluoto 3 in Finnland, Flamanville 3 in Frankreich und Hinkley Point C in Grossbritannien ein, wo die Bauzeiten und der Aufwand aus dem Ruder gelaufen sind. Er rech- net vor, dass der Atomstrom aus diesen Werken kostenmäßig trotzdem im Rahmen bleibt. Das Gleiche gelte für das Neubauprojekt Vogtle im amerikanischen Bundesstaat Georgia: «Selbst Vogtle, das bisher teuerste Kernkraftwerk der Welt, produziert bei Zugrundelegung von schweizerischen Realzinsen und Betriebskosten etwa gleich teuer wie onshore-Windkraft und deutlich günstiger als Fotovoltaik.»

Hartnäckige Klischees

Auch laut dem Bund ist Atomstrom günstig. Eine Studie im Auftrag des Bundesamts für Energie schätzte vor vier Jahren die Gestehungskosten für Strom aus neuen KKW im Jahr 2035 auf 5 bis 12 Rappen pro Kilowattstunde, wäh- rend PV-Strom zwischen 5 und 18 Rappen kostet und Windstrom auf 10 bis 15 Rappen zu stehen kommt. Das Nuklearforum dazu in einem «White Paper»: «Die lange Laufdauer und die enormen Mengen an klimafreundlicher Energie, welche über Jahrzehnte aus Nuklearanlagen gewonnen werden können, führen zu insgesamt attraktiven Gestehungskosten.»

Und dabei ist noch nicht berücksichtigt, dass bei Wind- und Solarstrom im Gegensatz zu Atomstrom beträchtliche weitere Kosten für die Integration dieser fluktuierenden Energiequellen ins Stromsystem anfallen – es werden neue Energiespeicher und ein Ausbau der Stromnetze nötig.

Entsprechende Berechnungen hat der amerikanische Ökonom Robert Idel vorgenommen. In einer Studie im Fachblatt Energy kam er 2022 zum Resultat, dass Solarstrom in Deutschland vierzehnmal so teuer wie Atomstrom ist, wenn man ein Stromsystem ausschliesslich auf PV-Anlagen beziehungsweise Kernkraftwerke abstellt und dabei die vollen Systemkosten berücksichtigt. Auch Windstrom ist demnach fast fünfmal teurer als AKW-Strom, und selbst bei einem gemischten System aus PV- und Windanlagen kostet der Strom rund viermal mehr als in einem AKW-System. Angesichts solcher Zahlen ist es unverständlich, dass selbst Firmenlenker aus der Energiebranche die Mär vom teuren Atom- strom verbreiten. Die Kernkraft sei «schlicht zu teuer», behauptete Axpo-Chef Christoph Brand 2021 in einem Interview. Wie genau er zu diesem Schluss kam, blieb im Dunkeln.

Alex Reichmuth ist Redaktor beim Nebelspalter. Der Artikel erschien zuerst in der Schweizer Weltwoche hier.

 




Die grüne Falle. Wie der Ökologismus unsere Gesellschaft vergiftet

Edgar L. Gärtner

Unter diesem Titel hat der Wiesbadener Chemiker Dr. Heinz Hug im vergangenen Jahr eine erweiterte und aktualisierte Neuauflage seines Buches „Die Angsttrompeter“ von 2006 vorgelegt – eines ebenso polemischen wie humorvollen Frontalangriffs auf die von den Grünen aller Parteien errichtete „Ökoquisistion“. Um das vorweg zu sagen: Heinz Hug schafft es auf über 400 Seiten Text mit seinem unterhaltsamen, satirisch-kurzweiligen Stil und zahlreichen Illustrationen, komplizierte Sachinformationen zu vermitteln, ohne die Leser zu überfordern. Mit Hohn und Spott stellt er grüne Ammenmärchen bloß und gibt sie der Lächerlichkeit preis. Dieses Stilmittel hat er gewählt, um den Lesern und Leserinnen (Frauen lesen mehr als Männer) zu zeigen, „wie lächerlich sie sich machen, wenn sie den aus Ökosprechtüten dröhnenden Narrativen folgen.“ Denn Lächerlich machen ist nach Hug die schärfste Waffe anständiger Menschen gegen den Totalitarismus, denn es nimmt den Respekt vor der neuen Obrigkeit. Wer jetzt meint, man dürfe das Werk und den Autor nicht ernst nehmen, täuscht sich, denn der gelernte Diplom-Chemiker, der im Industriepark Frankfurt-Höchst Jahrzehnte lang Chemikanten in instrumenteller Analytik ausgebildet und darüber auch verbreitete Lehrbücher verfasst hat, untermauert seine Argumente mit über 900 Literaturzitaten. So lernen die Leser schmunzelnd eine Menge über grundlegende Naturgesetze und Analysetechniken.

Den real existierenden Klimaschutz identifiziert Hug als Blaupause des gescheiterten real existierenden Sozialismus, wobei die Orwell‘sche Sprachschöpfung „Klimaleugner“ Skeptiker wohl in die Nähe von Holokaust-Leugner rücken soll. Schon über die Sinnhaftigkeit des Begriffs „Weltklima“ kann bzw. muss man geteilter Meinung sein. Denn der Begriff „Klima“ diente ursprünglich zur Abgrenzung der Lebensbedingungen einer Region gegenüber einer andern. Nur wenn in den Tropen die gleichen Lebensbedingungen herrschten wie in den Polarregionen, wäre der Begriff „Weltklima“ sinnvoll. Gemeint ist damit offenbar der Gesamtzustand der Erdatmosphäre. Dieser lässt sich, so Hug, von so genannten Treibhausgasen so wenig beeindrucken wie die Eiche, an der sich eine Wildsau kratzt. Weshalb dies so ist, legt Heinz Hug gut nachvollziehbar im Kapitel 10 seines Buches dar. Ich für meinen Teil frage mich ohnehin, ob man einen Raum ohne Dach als Treibhaus behandeln kann.

Auf der Basis der gängigen Treibhaus-Hypothese und mithilfe der offiziell veröffentlichten spektroskopischen Daten des IPCC rechnet Hug nachvollziehbar vor: Wird der CO2-Gehalt der Atmosphäre um 100 Prozent gesteigert, erhöht sich der „Treibhauseffekt“ um gerade einmal 1,2 Prozent, was für eine Erwärmung von etwa 0,6 °C reichen würde. Um diese Petitesse zu umgehen, benutzen die im Sold der Nachhaltigkeitspolitik stehen Klimaforscher, so Hug, einen faulen Taschenspielertrick. Sie argumentieren: Diese 0,6 °C lassen mehr Wasser aus den Ozeanen verdampfen. Da der gebildete Wasserdampf aber ebenfalls als „Treibhausgas“ gilt, kommen die Computerklimamodelle auf eine wesentlich stärkere Temperaturerhöhung. Für diese steile These gibt es aber keinen naturwissenschaftlichen Beweis.

Das bisschen mehr Wasserdampf bei 0,6 °C Temperaturerhöhung käme auch zustande, wenn die Bewölkungsdichte über den Ozeanen wegen stärkerer Sonneneinstrahlung etwas geringer wäre – wie im wolkenarmen Sommer 2022. Die Folge war ein verregnetes Jahr 2023, denn das unter starker Sonneneinstrahlung verdampfte Wasser verschwindet nicht einfach, sondern kehrt als Regen auf den Erdboden zurück.

Lapidar stellt Heinz Hug fest: „(Es) gibt nicht einen einzigen naturwissenschaft­lichen Beweis für die politisch festgelegte Behauptung, das Klima werde von ‚Treibhausgasen‘ gesteuert.“ Und tatsächlich liest man auf Seite 257: „Ein schlüssiges Experiment hierzu existiert nicht, denn „der Treibhauseffekt selbst kann nicht gemessen, sondern nur berechnet werden. Das gibt selbst Professor Raschke vom politisch-korrekten Klimaforschungs­zentrum Geesthacht unumwunden zu.“ Berechenbar ist die Erdatmosphäre als chaotisches System ohnehin nicht. Da bräuchte es den berühmten Laplace’schen Dämon, der nicht nur die Lottozahlen der kommenden Woche vorausberechnen könnte. Klimamodellierung sei deshalb der „Versuch, den Laplace’schen Dämon zum Leben zu erwecken“, schließt Heinz Hug.

Über dem virtuellen Klimaschutz sollte man aber den klassischen Umweltschutz nicht vernachlässigen, betont Heinz Hug. Das Gegenteil eines sinnvollen Umweltschutzes ist der Ökologismus von dem die weltweite grüne Bewegung lebt. Es handele sich dabei um eine neuzeitliche, freiheitsfeindliche Religion, die vom damaligen US-Präsidenten Richard Nixon und dessen Beratern um 1970 begründet wurde, um vom Desaster des Vietnam-Krieges abzulenken. Aus dieser Zeit stamme auch die politische regulatorische Toxikologie, die streng von der wissenschaftlichen Toxikologie unterschieden werden müsse. Die wissenschaftliche Toxikologie definiert anhand von Tierversuchen und empirischen Daten Grenzwerte, die beispielsweise der Liste der maximal an Arbeitsplätzen zulässigen Schadstoff-Konzentrationen (MAK) zugrunde liegen. Die regulatorische Toxikologie nimmt diese wissenschaftlich ermittelten Gift- und Schadstoffmengen und definiert als Grenzwert ein Tausendstel der Dosis, bei der der empfindlichste Organismus gerade noch keinen Schaden nimmt. Wird dieser Umweltschutzgrenzwert um den Faktor 10 überschritten, beträgt der Sicherheitsabstand noch immer 100. Dadurch wurden Stoffe, die kaum giftiger sind als Kochsalz, auf einmal zu gefährlichen Umweltgiften. Ein Beispiel dafür ist das vielfach bewährte, weil harmlose Unkrautbekämpfungsmittel Glyphosat. Dazu Heinz Hug: „Ganz offensichtlich kann man der Journaille vorsetzen, was man will: wenn sich ein schöner, brühwarmer Ökosud daraus kochen lässt, dann wird er dampfend serviert.“

Nach Meinung Hugs wurde die ursprünglich wissenschaftsbasierte Ökologie durch etwas verdrängt, das die jüdische Philosophin Hannah Arendt in ihrem Buch „Elemente und Ursprünge totaler Herrschaft“ (1955) als „organisiertes Lügen“ bezeichnete. Die damals 74-jährige Anthropologin Margaret Mead gab das 1975 in einer Grundsatzrede auf der von der US-Regierung einberufenen Konferenz im Fogarty International Center, Bethesda, zum Thema „The Atmosphere endangered and endangering“ offen zu: „Wir stehen vor einer Periode, in der die Gesellschaft Entschei­dungen im globalen Rahmen treffen muss …. Was wir von Wissen­schaftlern brauchen, sind plausible, möglichst widerspruchsfreie Abschätzungen, die Politiker nutzen können, ein System künstlicher, aber wirkungsvoller Warnungen aufzubauen, Warnungen, die den Instinkten entsprechen, die Tiere vor dem Hurrikan fliehen lassen … Es geht darum, dass die notwendige Fähigkeit, Opfer zu erbringen, stimuliert wird. Es ist deswegen wichtig, unsere Aufmerksamkeit auf die Betonung großer möglicher Gefahren für die Menschheit zu kon­zentrieren.“ Im Bericht des Club of Rome „Die globale Revolution“ von 1991 wird das so übersetzt: „Auf der Suche nach einem neuen Feind, der uns wieder zusammenbringen könnte, kam uns die Idee, dass Umweltverschmutzung, die drohende Klimaerwärmung, Wasserknappheit, Hunger und dergleichen das auch leisten können.“

Das ist nur eine kleine Auswahl der von Heinz Hug witzige Art behandelten ernsten Themen. Bei allen macht Hug deutlich, dass man über der (angeblichen) Komplexität gesellschaftlicher Probleme die Kompetenz des gesunden Menschenverstandes nicht vernachlässigen sollte. Im Klartext: Wir brauchen keine Gremien wie das World Economic Forum (WEF) mit seiner Künstlichen Intelligenz und Hirn-Transplantaten oder den Club of Rome (CoR) mit seinen Computersimulationen, um erkennen zu können, was nottut. Hilfreich wäre vielmehr meines Erachtens die Entpolitisierung der wissenschaftlichen Forschung.

Heinz Hug: Die Grüne Falle. Wie der Ökologismus unsere Gesellschaft vergiftet. WELTBUCH Verlag, CH-Sargans 2023. 436S. € 22,90

 




Windenergie im Burgenland Klimaschutz oder Klimaschaden?

von Jürgen A. Weigl

Windmühle Podersdorf DED2.jpg

Bild 1: Diese alte Windmühle in Podersdorf wurde 1849 errichtet, um Getreide zu mahlen. Sie dokumentiert die frühe Nutzung von Windenergie im Burgenland.

Die neuzeitliche Nutzung der Windenergie begann jedoch erst 1997. Im vergangenen Jahr – am 2. Juli 2023 – wurde das 25-jährige Bestehen des Windparks Zurndorf gefeiert. 1998 ging in Zurndorf der erste Windpark des Burgenlandes mit sechs Windkraftanlagen in Betrieb. Heute hat dieser Windpark eine Maximalleistung von über 52 Megawatt. Für Ende 2023 rechnete die IG Windkraft mit insgesamt 469 Windkraftwerken und einer Gesamtleistung von 1.427 Megawatt.

Die installierte Windkraftleistung pro Einwohner beträgt im Bezirk Neusiedl am See immerhin ca. 20,2 kW pro Person. Wir haben im Burgenland eine Situation, bei der alleine aus Windkraft auf recht begrenztem Raum mehr Strom gewonnen wird, als das Bundesland selbst verbraucht. Die jährliche Windstromerzeugung beträgt 3 Milliarden kWh und liegt damit bei 177% des burgenländischen Stromverbrauchs.

Windräder soweit das Auge reicht3 DED.jpg

Bild 2: Windräder im nördlichen Burgenland – 2018

Wind ist nichts anderes als die natürliche Ausgleichsströmung einer gasförmigen Materie (Atmosphäre), die versucht ein möglichst ausgeglichenes Potential zu erreichen. Dies ist ein naturgegebener Vorgang der völlig ohne menschliche Einwirkung zustande kommt. Wind ist damit ein besonders wichtiges Wetter- und Klimaelement. Nimmt man Eingriff in dieses Klimaelement, dann muß man leider damit rechnen, dass dies auch zu klimatischen Änderungen führt! 2018 hatte der Autor die österreichische Bundesregierung bereits vor den Nebenwirkungen der Energiewende gewarnt.

Im Burgenland konzentriert sich die hohe Windkraftleistung auf eine relativ kleine Fläche, bestehend aus den nördlichen Bezirken Neusiedl am See, Eisenstadt-Umgebung, Mattersburg und Oberpullendorf. Gleichzeitig erfolgte der Windkraftausbau innerhalb einer relativ kurzen Epoche. Damit liegt eine Situation vor, bei der die Frage der Windkraft gut untersucht werden kann.

Die österreichische Zentralanstalt für Meteorologie und Geodynamik publiziert u.a. laufend Daten zur Lufttemperatur. Die Station Eisenstadt befindet sich faktisch ideal innerhalb jener Region, in der dieser massive Ausbau an Windkraft erfolgte. Mittelwerte der Lufttemperatur stehen dabei sowohl für die Jahre nach dem Beginn des Ausbaus als auch für eine ausreichend lange Zeit davor zur Verfügung.

Die daraus zu ziehenden Schlussfolgerungen sind leider sehr beunruhigend. Dies zeigt bereits unser erstes Diagramm (Bild 3). In dieser Auswertung finden wir den Verlauf der monatlichen Mittelwerte der Lufttemperatur für die gesamt verfügbare Messreihe ab Jänner 1961. Die farbliche Trennung des Temperaturverlaufs markiert den Unterschied zwischen der Zeit vor bzw. nach Windkraftnutzung.

Bild 3 mit Änderungswerten.jpg

Bild 3: Temperaturverlauf seit 1961; die blaue Kurve entspricht der Zeit ohne Nutzung der Windkraft. Die grüne Kurve zeigt den Verlauf ab Nutzung der Windenergie. Die Veränderung im linearen Trend ist höchst alarmierend!

Die blaue Kurve beginnt 1961 und endet mit Dezember 1996. Sie umfaßt damit die Zeit ohne die Nutzung der Windenergie. Die danach anschließende grüne Kurve betrifft den Zeitraum Jänner 1997 bis Dezember 2023. Hier wurde regional die Windenergie massiv ausgebaut. Dieser Kurvenverlauf endet im Dezember 2023 mit einem Temperaturwert von +3,8°C. Dieser Endwert liegt damit um 5,6 Kelvin höher als der Startwert im Jänner 1961.

Wichtig ist hier jedoch nicht der Vergleich von Einzelwerten, sondern der Trendverlauf der beiden Kurvenabschnitte. Ein linearer Trend wurde getrennt für beide Abschnitte mittels Tabellenkalkulation berechnet. Die blauschwarz strichliierte Linie, die von links bis ganz rechts durchgeht, entspricht dem errechneten linearen Trend für den Zeitraum 1961 bis Ende 1996.

In diesem Zeitraum ist kein Trend für eine ansteigende Lufttemperatur erkennbar. Im Gegenteil, die Trendlinie zeigt eine gleichbleibende Mitteltemperatur. Zur besseren Orientierung haben wir diese Linie bis zum rechten Rand des Bildes durchgezogen. Der Trend für den Zeitraum ab Jänner 1997 (mit dem zunehmenden Ausbau der Windenergie) sieht völlig anders aus. Der Temperaturverlauf über diesen Zeitraum ist durch die grüne Temperaturkurve und die rote Trendlinie gekennzeichnet.

Berechnet man den linearen Trend ab 1997, dann ergibt sich die rot strichliierte Linie in Bild 3 bzw. in Bild 4. Bei der Trendlinie wird für die Zeit ab 1997, also ab Beginn der Nutzung der Windkraft, ein deutlicher Temperaturanstieg erkennbar.

Bild 4 Gesamtperiode nach Errichtung Windkraft DED.jpg

Bild 4: Temperaturverlauf für die Gesamtperiode 1997 bis 2023. Der als rote Linie eingezeichnete lineare Trend zeigt deutlich einen Temperaturanstieg. Bild 5 1970 bis 1996.jpg

Bild 5: Temperaturverlauf für den Zeitraum 1970 bis 1996. Diese gleich lange Zeitperiode vor Nutzung der Windkraft zeigt keine Trendänderung.

Bild 6 1961 bis 1996.jpg

Bild 6: Temperaturverlauf für die gesamt verfügbare Messperiode vor Errichtung von Windkraftanlagen (1961 bis 1996). Es ist während dieser Periode faktisch keine Zunahme der mittleren Temperatur erkennbar.

Conclusio: Vergleicht man jeweils den linearen Trend in den entsprechenden Zeitabschnitten, dann zeigt sich eine beunruhigende Entwicklung: vor Errichtung der Windkraftanlagen zeigt sich keine Trendänderung. Mit der Errichtung der Windkraftanlagen kommt es jedoch zu einer deutlichen Trendänderung. Der derzeit ermittelte lineare Trend würde einem dramatischen Anstieg der Lufttemperatur um 7,2 Grad pro hundert Jahre entsprechen!

Zusammenfassend muß daher anhand dieser Auswertungen festgestellt werden:

  • Im verfügbaren Zeitraum ist vor Errichtung der Windenergieanlagen kein Trend für einen wesentlichen Anstieg der Lufttemperatur erkennbar!
  • Ganz anders sieht es leider für den Zeitraum der Nutzung von Windenergie, also für die Jahre 1997 bis 2023 aus. Hier zeigt sich ein linearer Trend, der einem Temperaturanstieg von etwa 7,2 Grad innerhalb von 100 Jahren entsprechen würde!
  • Uns sind, außer der Errichtung der Windenergieanlagen, keinerlei andere Ursachen bekannt, die einerseits diesen ansteigenden Trend bei der Lufttemperatur im Zeitraum 1997 bis 2023 erklären könnten und andererseits im Zeitraum davor (1970 – 1996 bzw. 1961 – 1996) nicht gegeben waren.
  • Aus unserer Sicht muß daher derzeit davon ausgegangen werden, dass die konzentrierte Errichtung von Windenergieanlagen in der betreffenden Region die Ursache für den ansteigenden Trend bei der Lufttemperatur darstellt.
  • Die großtechnische Nutzung von Windenergie entzieht der natürlichen Ausgleichsströmung Wind, also einem natürlich gegebenen Klimaprozess, Energie und wandelt diese in elektrische Energie um. Damit fehlt die nun technisch genutzte Energie bei den bisherigen natürlichen solaren Prozessen des normalen – von menschlicher Technik – unbeeinflußten Klimageschehens. Auf diese Gefahr hatten wir die österreichische Bundesregierung bereits 2018 hingewiesen!
  • Es kann daher, unserer derzeitigen Erkenntnis nach, nicht davon ausgegangen werden, dass derartige Windkraftanlagen dem Klimaschutz dienen. Im Gegenteil scheint anhand dieser Auswertung der Schluß nahe zu liegen, dass die großtechnische Nutzung von Windenergie selbst einen zumindest lokalen Klimawandel auslöst!
  • Die von uns erstellten Analysen basieren auf öffentlichen Daten, die jedermann zugänglich sind. Wir laden daher alle Interessierten ein, diese Auswertungen und logische Folgerungen selbst zu prüfen. Für weitere zweckdienliche Hinweise wären wir dankbar!

 

Allgemeine Hinweise

Die vorliegende Information wurde vom Ingenieurbüro DI Jürgen A. Weigl, Graz erstellt und herausgegeben. Zielsetzung dieser Informationsschrift ist es, einen auf Vernunft und Fakten basierten Diskussionsprozess zu Nebenwirkungen der Energiewende und des Klimaschutzes anzuregen.

Aus diesem Grund gestattet der Autor jedermann dieses PDF-Dokument unverändert und in seiner Gesamtheit auf eigene Verantwortung, eigene Kosten und eigenes Risiko an andere Personen elektronisch weiterzugeben, sofern die weitergebende Person damit unsere Forderung nach einem allgemeinen und offenen Diskussionsprozess über die Nebenwirkungen der Energiewende und des Klimaschutzes unterstützen will. Dies beinhaltet die direkte Weitergabe auf Datenträger, die Weiterleitung per E-Mail sowie die Darstellung, Verlinkung oder Verfügbarmachung auf eigenen Seiten/Blogs und vergleichbaren Medien etc. im World Wide Web bzw. Internet.

Sämtliche anderen Nutzungs- und Verwertungsarten bleiben vorbehalten und bedürfen einer ausdrücklichen vorherigen schriftlichen Zustimmung durch den Urheber. Sämtliche Inhalte dieses Dokumentes inklusive der Abbildungen, Markenzeichen sowie ein Kopier- und Druckschutz dieses PDF-Dokumentes dürfen weder geändert noch entfernt werden oder auch nur auszugsweise ohne unsere Zustimmung veröffentlicht werden.

Wenn Sie Teile dieses Textes oder Abbildungen für eigene Berichterstattung, Vorträge, Informationsarbeit etc. verwenden wollen, setzen Sie sich bitte mit uns in Verbindung. Auch wenn Sie helfen wollen dieses Dokument in andere Sprachen zu übersetzen und verfügbar zu machen, setzen Sie sich bitte mit uns in Verbindung..

Jegliche Nutzung dieses Dokumentes für kommerzielle Zwecke jeglicher Art, auch zur Adress- oder Datensammlung, zu jeglicher Art von Werbung, für Newsletter oder sonstige Dienste etc. ist ausdrücklich untersagt!

© Copyright 2024

Jürgen A. Weigl Graz, Österreich

Dieser Informationsschrift wurde vom Autor mit sorgfältiger Bearbeitung erstellt. Dennoch sind Fehler nie ganz auszuschließen. Der Autor weist darauf hin, dass im wissenschaftlichen Sinne neues Wissen geschaffen und ein Diskussionsprozess über die hier vorgestellten Fragestellungen angeregt werden soll. Wissenschaft bedingt die Methode der Falsifikation. Jeder Leser ist angeregt sich eigenverantwortlich und selbständig ein Bild von den vorgestellten Themen zu machen.

Der Autor weist darauf hin, dass sämtliche gemachten Aussagen ohne Gewähr erfolgen und Haftungsansprüche jeglicher Art ausgeschlossen sind. Für die Mitteilung etwaiger Fehler oder von Verbesserungsvorschlägen und zusätzlichen Hinweisen für spätere Publikationen ist der Autor dankbar; dies inkludiert jedoch keinerlei Verpflichtung zur Korrespondenz. Ingenieurbüro DI Jürgen A. Weigl; Tullbachweg 17, 8044 Graz, office@energiedetektiv.com

Anhang

All jene, die unsere Ergebnisse selber überprüfen wollen, können dies auf einfache Art vornehmen:

1) Klimadaten abrufen

https://www.zamg.ac.at/cms/de/klima/klima-aktuell

Datenerfassung Klimamonitoring1.jpg

öffnen Sie den Bereich „Klimamonitoring“

2.) Station aufrufen

Sie kommen zur Karte der aktuellen Klimawerte für Österreich. Wählen Sie hier die gewünschte Station „Eisenstadt“ aus der Liste oder durch anklicken in der Landkarte

Messstation finden3.jpg

3) Wertereihe erfassen

Für die gewünschte Station finden Sie nun die Monatswerte der Lufttemperatur. Erfassen Sie diese Werte als Zeitreihe in einer Tabellenkalkulation. Z.B. eine Exceltabelle mit der Angabe von Jahr, Monat und dem jeweiligen Meßwert.

Daten erfassen.jpg

Erstellen Sie dann mit der Tabellenkalkulation Ihre persönliche Trendanalyse. Bitte teilen Sie uns mit, wenn Sie neue Erkenntnisse gewinnen oder Fehler bei unseren Auswertungen finden sollten!

Viel Erfolg bei Ihren eigenen Recherchen!

 




Das fantastische Atmosphären-Biosphären-Rezyklierungssystem der Erde versus Narrativ vom „menschengemachten Klimawandel“!

von Dr. Arthur Chudy, dr.arthur.chudy@t-online.de

Vorbemerkung: Man sollte nicht Begriffe wie „Klimaschutz“ als „unbegründete Floskel“ in den Raum stellen oder gar Investitionen mit Steuergeldern planen ohne Grundkenntnisse über die ursächlichen kausalen Zusammenhänge zu haben.

Daher wird in diesem Beitrag die Problematik des „menschengemachten Klimawandels“ und des „Klimaschutzes“ fundamental in Bezug zum Atmosphären-Biosphären-Rezyklierungssystem der Erde betrachtet, um die vorherrschenden gezielt zweckorientierten Irreführungen zu entkräften.

***************************************

Das Atmosphären-Biosphären-Rezyklierungssystem der Erde

Die Erde ist ein Unikat im Weltall, dies insbesondere durch die Atmosphäre, mehr noch durch das einmalige Atmosphären-Biosphären-Rezyklierungssystem für Sauerstoff, Kohlendioxyd und Wasser, das das Leben auf der Erde ermöglicht und trägt (siehe Abbildung 1). Ein wesentliches Element ist der Kohlendioxydkreislauf (Abbildung 1).

Die einzige wesentliche Energiequelle für die Erde ist die Sonne, die je nach Strahlungsintensität (Warm- und Kaltzeiten) den Wärmehaushalt (Globaltemperatur) der Erde speist.

Die unterschiedlichen auch vom Grad der Neigung der Erdachse beeinflussten Einfallswinkel der Sonnenstrahlung führen zu großen klimatischen Unterschieden in den verschiedenen Erdregionen und werden in den Klimazonen erfasst und definiert.

Die Nutzung der Sonnenenergie erfolgt in zwei Richtungen – der physikalischen im Wärmehaushalt und der biogenen, im Wesentlichen durch die lebenden grünen Pflanzen bei der Assimilation.

Physikalische Nutzung der Sonnenenergie

Bei der physikalischen Nutzung geht es um das Gleichgewicht zwischen Erwärmung der Luft und der Erdoberfläche (Boden und Wasser) sowie der Rückstrahlung von der Erdoberfläche in die Atmosphäre als auch um Strahlung von Molekülen wie Wasser (H2O), Kohlendioxyd (CO2) und Methan (CH4), die Strahlungsenergie aufnehmen und in alle Richtungen, also auch zurück zur Erdoberfläche als Gegenstrahlung abgeben können. Das ist bei CO2 marginal, was sich allein angesichts der geringen Menge von 0,04 % atmosphärischem CO2 ergibt!

Den natürlichen Beweis dafür liefert der „Wüsteneffekt“. Die tagsüber von der Sonne bis über 30° C aufgeheizten Sande kühlen nachts bis zu Minusgraden bei gleichem CO2-Gehalt der Luft wie überall ab. Ursache sind die fehlenden Wassermoleküle in Form von Luftfeuchtigkeit und Wolken! Eine Erfahrung, die auch wir kennen. Bei sternklarem Himmel sinken die Nachtemperaturen wesentlich stärker ab als bei wolkenbehangenem Himmel.

Im Ergebnis finden diese physikalischen Vorgänge dann letztendlich summa summarum standortspezifisch in der Luft-, Boden- und Wassertemperatur ihren Niederschlag.

Biosphären-Atmosphären Rezyklierungssystem_3.gif

Abbildung 1: Atmosphären-Biosphären-Rezyklierungssystem Biogene Nutzung der Sonnenenergie

Die biogene Nutzung der Sonnenenergie erfolgt durch die grünen Pflanzen bei der Assimilation, der wichtigsten und einzigen elementaren Stoffproduktion (Biomasse) auf der Erde sowie im Bereich der Organismen (Mensch, Tier etc.) in der Aufrechterhaltung der Körpertemperatur als Voraussetzung für deren Funktionsfähigkeit.

Die Trägerstoffe des Lebens auf der Erde sind Kohlendioxyd (CO2), Sauerstoff (O2), Wasser (H2O) und der nicht-atmosphärische Stickstoff (N).

Bei der Assimilation werden durch grüne Pflanzen atmosphärisches Kohlendioxyd(6 CO2 = 264 g) plus Wasser (6 H2O = 108 g)) mit Hilfe der Sonnenenergie (2872 kJ/mol) zu Kohlenhydrat (Glukose (C6H12O6 = 180g )) als biogener Energieträger (Nährstoff) synthetisiert plus Sauerstoff (6O2= 192 g) in die Atmosphäre freigesetzt (0,727 t O2/t akkumuliertes atmosphärisches CO2), d.h. in der Menge rezykliert, die bei der Dissimilation (Abbau) zuvor verbraucht wurde bzw. später verbraucht wird. Dadurch wird der Sauerstoffgehalt der Atmosphäre aufrecht erhalten/reproduziert. Ohne diese Rezyklierung des Sauerstoffs würde das Leben auf der Erde „ersticken“.

Die produzierte Biomasse ist Vorleistung und wird in der Folge in der Dissimilation unter Verbrauch von atmosphärischem Sauerstoff auf zwei Wegen mit gleichem Endresultat, zur Gewinnung an biogener Energie in Organismen (Mensch, Tier etc.) oder bakteriell durch Verwesung, abgebaut. Unter Ausschluss/Fehlen von Sauerstoff erfolgt eine anaerobe Vergärung (Pansen der Wiederkäuer, intakte und „renaturierte“ Moore), wobei der naszierende zellgiftige Wasserstoff an Kohlenstoff zu Methan (CH4) gebunden und in die Atmosphäre als Schadstoff „entsorgt“ wird.

Dissimilation der Kohlenhydrate: (C6H12O6 = 180 g) plus Sauerstoff (Atmung) (6 O2 = 192 g) werden zur biogenen Energiegewinnung umgesetzt zu Kohlendioxyd (6 CO2 = 264 g) plus Wasser (6 H2O = 108 g). Das Kohlendioxyd entsteht nicht durch Oxydation von Kohlenstoff mit Sauerstoff, sondern wird im enzymatischen Prozess ohne Energiegewinn abgespalten (Dekarboxylierung) und in die Atmosphäre abgeführt, d. h. rezykliert als atmosphärisches CO2 als Träger- und Rohstoff für eine erneute Akkumulation in der Assimilation, d.h. für erneute Biomasseproduktion. Die biogene Energiegewinnung erfolgt ausschließlich durch die Oxydation von Wasserstoff und Sauerstoff zu Wasser. Damit wird das zur Stoffproduktion (Kohlenhydraten) verbrauchte Wasser rezykliert und an die Umwelt (Boden und Atmosphäre) abgeführt.

Damit erweisen sich im Atmosphären-Biosphären-Rezyklierungssysem Kohlendioxyd und Wasser als unzerstörbare und unendlich nutzbare (wiederverwendbare) Oxyde und Sauerstoff als unendlich nutzbares Element, d.h. als Trägerstoffe des Lebens (Lebenselixiere) ohne natürliche Verbrauchsverluste.

Es ist ein in sich geschlossenes Atmosphären-Biosphären- System mit voller Rezyklierung der Verbauchselemente.

Eine Steigerung des Umfangs und der Intensität dieser Kreislaufsysteme ist nur durch eine Veränderungen der Biomasseproduktion (Kalt- und Warmzeiten, Züchtung und Anbau ertragsreicher Kulturen) und im Sinne der Steigerung auch durch externe Zuführung von CO2 , wie aus der Verbrennung fossiler Energieträger, prinzipiell möglich und erstrebenswert.

Hieraus folgt, dass der atmosphärische CO2-Gehalt Ausdruck des Gleichgewichtes zwischen CO2Emission und CO2-Akkumulation (Assimilation) ist und damit die Intensität des CO2-Kreislaufs, die Höhe der Biomasseproduktion, reflektiert. Eine hohe Biomasseproduktion ist nur bei hoher CO2 Konzentration in der Atmosphäre möglich. Das ergibt sich daraus, dass die Aufnahme von Luft durch die Blattspalten der begrenzende Faktor ist. Bei 400 ppm CO2-Gehalt der Luft müssen die grünen Pflanzen 15.000 Liftmoleküle aufnehmen, um 6 Moleküle CO2 für die Synthese von einem Molekül Glukose heraus zu filtrieren. Hohe CO2-Gehalte erhöhen somit die Effizienz der Assimilation, führen zur Erhöhung der Grünmasseproduktion, der Erträge in der Land- und Forstwirtschaft.

Die Günmasseproduktion Ist direkt an den CO2-Gehalt der Atmosphäre gebunden, da grüne Pflanzen bei ca. 180 ppm CO2-Konzentration die Assimilation einstellen, was das Ende des Lebens auf der Erde bedeuten würde, d.h. dass das Leben auf der Erde auf der Differenz zwischen atmosphärischem CO2-Gehalt und 180 ppm, derzeit auf 235 ppm (415 – 180 = 235), beruht. Aus dieser Sucht betrachtet ist die Dekarbonisierung durch die damit angestrebte Reduzierung des CO2- Gehaltes der Atmosphäre und der daraus folgenden Reduzierung der Biomasseproduktion für die Weltwirtschaft und für die Nahrungsgüterproduktion zur menschenwürdigen Ernährung der wachsenden Weltbevölkerung kontraproduktiv.

Da der CO2-Kreislauf in der Atmosphäre nur in Richtung von Emission zur Akkumulation abläuft, ist die CO2-Emission der Impulsgeber, der Sende-Faktor, während die Assimilation/Akkumulation der Empfänger, der empfangende (passiv abhängige) Faktor ist, wird, egal woher das CO2 kommt, ob aus natürlichen Umsetzungen (Dissimilation) oder aus Verbrennung fossiler Energieträger, die CO2 Emission zum entscheidenden das Leben auf der Erde erhaltenden und mehrenden Faktor, zum wichtigsten Lebenselixier. Ohne CO2-Emissionen würde das Leben auf der Erde versiegen. Diese Rezyklierungsprozesse können im Hinblick auf die Höhe der Biomasseproduktion weitestgehend unbegrenzt hochgefahren werden, was z.B. durch Standortadaption, Agrartechnologie und Züchtung standortspezifischer ertragsreicher Kulturpflanzen „menschengemacht“ gelingt bzw. gelungen ist (Beispiel Getreideproduktion 1850 ca. 30 dt/ha und 20XX > 100 dt/ha) und natürlich für die Sicherung der Ernährung einer wachsenden Weltbevölkerung von außerordentlicher Wichtigkeit ist.

Folgerungen für den „menschengemachten“ Klimawandel?

Welche Folgerungen ergeben sich aus diesem Grundwissen für den „menschengemachten“ Klimawandel?

Die wichtigsten Fakten als Ausgangsbasis sind:

  1. Das unter den bekannten Planeten unikate Merkmal der Erde ist das Vorhandensein der Atmosphäre mit einem hohen Gehalt an Sauerstoff (O2) und einem vergleichsweise niedrigem Gehalt an Kohlendioxyd (CO2). Die Entstehung des Lebens auf der Erde beruht ursprünglich auf der Fähigkeit von Bakterien zum stofflichen Energiegewinn (Nährstoffe) Sauerstoff (O2) aus Wasser (H2O) und Kohlendioxyd (CO2) freizusetzen und in die Atmosphäre zu emittieren. Damit waren die wesentlichen Grundstoffe zur biologischen Evolution, die Entwicklung des Lebens (nach Darwin), und der Entwicklung der Artenvielfalt einschließlich des Menschen, in christlichem Sinne der „Schöpfung“ , gegeben.

2.Die Erde bezieht die Energie in Form von Strahlungen (Licht und Wärme) fast ausschließlich von der Sonne mit variabler Intensität, bedingt durch Sonnenzyklen und den interschiedlichen Einfallswinkeln zur Erdoberfläche und mit unterschiedlichen tektonischen Strukturen und Oberflächenmateriealien mit Differenzen in der Reflektion und Absorption (Wärmeaufnahmekapazität), was zu differenzierten standortspezifischen klimatischen Werten (Messdaten wie Temperatur, Luftfeuchtigkeit, Windstärke und –richtung usw. ) führt . Diese Daten kennzeichnen als Rückschau im 30-jährigen Mittel definitionsgemäß das Klima, gebietsweise differenziert, untergliedert in Klimazonen, Gebiete, Länder, Landschaften, Standorte.

3. Die Atmosphäre hat durch Ihre Fähigkeit Wasser in verschiedenen Aggregatzuständen (gasförmig Luftfeuchtigkeit, kondensiert als Wolken und Regen und Eiskristallen) im Zusammenwirken mit der Sonneneinstrahlung und Wolkenbildung, dem Aufbau verschiedener Druckverhältnisse (Hoch und Tief), der Luftbewegung (Wind, Sturm) und mit dem durch Stofftransfers gegebenen Aufbau elektrischer Ladungen (Blitz und Donner) ihre eigenen Gesetzmäßigkeiten, die in verschiedenen Gebieten und an den jeweiligen Standorten im täglichen Wettergeschehen ihren Niederschlag finden. Diese führen zu zeitlichen Wetterkonstellationen, die sich positiv für den Menschen und die Landschaft/Gebiet oder sich in Unwettern (Hurrikans) auswirken. So hat eine zufällige Wetterkonstellation wie im Ahrtal, wo sich wie vor ca. 100 Jahren eine von zwei angrenzenden Hochs eingekeilte Gewitterzelle feststehend über dem Talkessel total abregnete und schließlich zu der großen Katastrophe in den schutzlosen Ortschaften führte, nichts mit Klimawandel, noch einer Klimakatastrophe und erst recht schon gar nichts mit der CO2-Konzentration der Atmosphäre etwas zu tun.

4. Von grundlegender Bedeutung ist der durch physikalische Faktoren determinierte Wärmehaushalt der Erde durch die Schutz- und Dämpfungsfunktion der Atmosphäre für die Temperaturen des Bodens und der Luft im Bereich der Erdoberfläche. Das ist zugleich eine der Voraussetzungen für die Ermöglichung von Leben auf der Erde, weil physiologische Vorgänge an einen Temperaturbereich von +3 bis 40 °C (Flüssigphase des Wassers) gebunden sind. Dabei spielt die Reflektion der Wärmestrahlung von der durch die Sonneneinstrahlung erwärmten Erdoberfläche die entscheidende Rolle und nicht die von bestimmten Luft-Molekülen wie Wasser, Kohlendioxyd und Methan (Sensitivität) bewirkte „Gegenstrahlung“, d.h. die Reflektion der von der Erdoberfläche reflektierten Wärmestrahlung zurück zur Erde. Diese werden fälschlicherweise als Treibhausgase bezeichnet, weil die Atmosphäre im Gegensatz zu einem Treibhaus nach oben zum Weltraum offen ist und diese Moleküle fungieren nicht wie auf die Erde gerichtete „Hohlspiegel“, sondern geben die Wärmestrahlung in alle Richtungen von warm nach kalt ab. Dementsprechend kühlen die CO2– Moleküle die Atmosphäre in oberen Schichten ab.

Der Gegenstrahlungseffekt von den Spurengasen CO2 und CH4 ist im Gegensatz zum Wasser (Luftfeuchtigkeit, Wolken) aus zwei Gründen gering und zu vernachlässigen: Erstens allein aus quantitativen Gründen 0,04 % – 400 ppm = nur 400 CO2 –Moleküle in 1 Million Luftmolekülen (!) und zweitens wegen des bereits erreichten Sättigungseffekts, bedingt durch den logarithmischen Verlauf der Sensitivität in Abhängigkeit von der CO2 –Konzentration. Das verdeutlicht anschaulich der oben erwähnte „Wüsteneffekt“.

Fazit: Es gibt keine nennenswerte CO2-bedingte Erderwärmung und diese ist in den Wärmehaushalt der Atmosphäre/Erdoberfläche, d.h. in die Aufrechterhaltung einer erträglichen Temperatur des Lebensraumes von Flora und Fauna wie des Menschen positiv wirksam integriert.

Der anthropogene („menschengemachte“) Einfluss auf das Klima – Wirkung der Dekarbonisierung

Das Fazit, CO2 ist ohne Einfluss auf das Klima, gilt erst recht für die anthropogene Einspeisung von CO2 durch Verbrennung fossiler Energieträger zur Energiegewinnung, die, bezogen auf die Erdatmosphäre, weltweit nur im Bereich von jährlich 20 bis 25 ppm liegt. Dem Wesen nach handelt es sich hierbei um eine Rückführung von ursprünglich aus atmosphärischem CO2 stammendem, über Grünmasse akkumuliertem und vorwiegend über Inkohlung reduziertem (amorphem) und eingelagertem Kohlenstoff in den Atmosphären-Biosphären-Kohlenstoffkreislauf, d.h. um einen völlig natürlichen Prozess.

Die Dekarbonisierung ist bedeutungslos für den Wärmehaushalt der Atmosphäre, d. h. ob die Einspeisung von jährlich ca. 22 ppm nutzbringend für die Menschheit erfolgt oder durch Dekarbonisierung der Weltwirtschaft zum Schaden der Menschheit verhindert wird, hat so gut wie keinen Einfluss auf das sonnendeterminierte Weltklima, weder lokal noch global!.

Wer das Gegenteil behauptet, wie der IPCC und dessen Gefolgsleute, wie das Potsdam Institut für Klimafolgeforschung mit u.a. Edenhofer, für den sowieso Klimapolitik nicht der Rettung des Klimas sondern als Mittel zur Vermögensumverteilung dient, müssten beweisen,

  1. ob und wie 22 ppm weltweiter CO2- Emissionen fossiler Herkunft von 415 ppm CO2- Konzentration der Atmosphäre das sonnendeterminierte Erdklima/Wetter wesentlich – und das nur zum wunschgerecht Guten – beeinflussen können?

2. für Deutschland – welches Klima kann dann wie vom derzeitigen Anteil Deutschlands mit 0,46 ppm., d.h. mit 1 fossilen CO2-Molekül in 2,2 Millionen Luftmolekülen, durch zerstörerische Dekarbonisierung der deutschen Wirtschaft, durch Bestrafung der Bevölkerung mit Verboten von Öl/Gasheizungen und Verbrenner-Motoren, Tempolimit auf Autobahnen sowie durch Vernichtung eigener Wertschöpfungspotentiale und Energiequellen (AKW, Kohleausstieg) verändert werden?

Der Leiter des Klimarates der Bundesregierung, Prof. Henning, ist auf ein persönliches Anschreiben die Antwort auf diese Fragen schuldig geblieben.

Diese Beweise und Rechtfertigungen wird es und kann es nie objektiv-real geben!

Fundamentale Bedeutung des CO2-Gehaltes der Atmosphäre für die Biosphäre

Der für das Klima unbedeutende, für Umfang und Intensität der Biomasseproduktion aber sehr bedeutende CO2-Gehalt der Atmosphäre ist Ergebnis des sich unter dem Druck der CO2-Emission eingestellten Gleichgewichts zwischen CO2- Emission und CO2-Akkumulation, biogen durch Assimilation der Biosphäre und physikalisch durch Absorption/Resorption von Wasserflächen(Ozeane).

Die Erhöhung des CO2-Gehaltes kann in größerem Maßstabe nur durch eine erhöhte Sonnenaktivität/Sonneneinstrahlung, wie sie durch dementsprechende Warmzeiten gegeben ist und wie wir sie von 1850 an zu verzeichnen haben und erleben durften, erfolgen. Sie hat gegenwärtig ihr Höhen-Plateau erreicht und geht mit hoher Wahrscheinlichkeit in den nächsten 35 -40 Jahren in eine kleine Eiszeit über, wie es von den Forschern, die sich mit Sonnenzyklen und Sonnenflecken beschäftigen, glaubhaft prognostiziert wird.

Dieser Prozess läuft zeitlich und quantitativ wie folgt ab: Die höhere Wärme-/Lichteinstrahlung der Sonne als im wesentlichen einzige Wärmequelle führt zu höheren Temperaturen von Erdboden und erdbodennaher Atmosphäre und bei ausreichender Feuchtigkeit (Wasser) und anderen Wachstumsfaktoren zu höherer Biomasseproduktion, die im Folgejahr durch den Abbau derselben zu höherer CO2-Emission und zu höherer pflanzlicher Stoffproduktion durch höhere Effizienz der Assimilation führt. So steigt in Folge der Kohlenstoff (CO2)-Kreislauf an und durch einen gewissen CO2-Emissionsstau der CO2-Gehalt der Atmosphäre kontinuierlich – wie in der Mauna Loa –Messung sichtbar- an. Oder umgekehrt, führt die verringerte Sonneneinstrahlung bei Eiszeiten zu geringerer Biomasseproduktion/Erträgen in der Landwirtschaft (Hungersnöten!)/Forstwirtschaft und in der Folge zu erniedrigter CO2-Emission und niedrigerem CO2-Gehalt der Atmosphäre sowie reduzierter Effizienz der Assimilation.

Schlussfolgernd daraus ergibt sich, dass die Interpretation der Mann´schen Hockeyschlägerkurve, womit eine Abhängigkeit der Globaltemperatur vom CO2-Gehalt der Atmosphäre bewiesen werden sollte, wissentlich (oder unwissentlich) falsch ist. Es wurde schlichtweg bei der Interpretation der Mann´schen Hockeyschläger-Kurve die Ursache, die zeitlich vorausgehende Erderwärmung durch die

Sonne, mit der Wirkung, der höheren Biomasseproduktion und dem daraus resultierenden höheren CO2-Gehalt der Atmosphäre, vertauscht und dadurch fälschlich eine scheinbare Abhängigkeit der Globaltemperatur vom atmosphärischen CO2-Gehalt postuliert und unterstellt. Der CO2-Gehalt der Atmosphäre kann aber sachlogisch im Atmosphären-BiosphärenRezyklierungssystem nur die Folge und nicht die Ursache der Erderwärmung sein. Schlussfolgernd ergibt sich daraus:

Dekarbonisierung der Wirtschaft – kontraproduktiv, gegen die Interessen der Menschheit gerichtet. Das Konzept des IPCC, „menschengemachten“ Klimaschutz durch Dekarbonisierung der Wirtschaft als Klimaschutzmaßnahme zu erreichen, wie auch einen „menschengemachten“ Klimawandel als Folge der Nutzung fossiler Energieträger zu postulieren, ist wissenschaftlich unbegründet, d.h. ein Narrativ ist, das lediglich auf dem sektiererischen „Glaubensbekenntnis (einer Klimareligion) – CO2 ist klimaschädlich“ – basiert!

Dieses Narrativ vom „Menschengemachten Klimawandel“ wurde mit der Pariser Klimavereinbarung materialisiert (100 Milliarden-Klimafond) und dabei die Irreführung der Staatengemeinschaft derart auf die Spitze getrieben, dass weder für vorindustriell noch für das 2050-1,5°-2° C-Ziel eine absolute Globaltemperatur an- bzw. vorgegeben wurde, d.h. man verpflichtet die Staatengemeinschaft zu falschen wirtschaftschädigenden drastischen „Klimaschutzmaßnahmen“ für ein Inkognito-1,5 ° C bzw. 2 °C-Ziel, das jedwede Interpretation offen lässt.

CO2 , das im Atmosphären-Biosphären-Rezyklierungssystem keinen nennenswerten Einfluss auf das Klima (Erderwärmung) hat und haben kann, dient hierbei lediglich als ein willkommener Parameter, als ein Mittel zum Zweck (Zuchtrute für die irregeführten Massen), um den Industriestaaten, die fossile Energieträger als Energiebasis verwenden, parametrisiert Umweltschäden anzulasten und ein darauf basierendes weltweites Abzocke-System (CO2 Steuer, Klimafond) für die Industriestaaten zu etablieren (COP 28). Diese dahinterstehende Absicht nicht zu erkennen, sich ihr zu beugen, bezeugt, wie sagenhaft naiv oder gezielt beabsichtig die Klima-Politik der Selbstzerstörung der westlichen Welt derzeit ist?

Selbstkasteiung des Westens – Triumpf Chinas

Mit der Klimapolitik der Dekarbonisierung der Wirtschaft, der krampfhaften Reduzierung/Vermeidung von CO2-Emissionen nach dem Prinzip „koste was es wolle“, und insgessamt mit der Energiewende einseitig zu „erneuerbarer“ Energie (wetterabhängiger Wind- und Sonnenenergiegewinnung) betreibt der Westen eine unbegründete und auf das Klima total wirkungslose Selbstkasteiung ungeheuren Ausmaßes.

Unter der Fahne des „Klimaschutzes“ nehmen krampfhafte und kosten- und materialaufwendige CO2-Vermeidungsmaßnahmen schildbürgerlich-kuriose Formen der reinen Selbstbefriedigung an, wie z. B. die Abscheidung und unterirdische Verklappung von CO2 aus Verbrennungsprozessen als „Klimaschutzmaßnahme“. Das ist gewissermaßen sachlich die Spitze wirtschaftlichen Unsinns, kann aber andererseits durch die Dummheit von „Klimaschützern“ zur Erreichung einer illusionären „Klimaneutralität“ ein einträgliches Geschäft sein (Norwegen). Objektiv ist es eine wirkungs- und nutzlose Verschwendung von Kapital und Material, sowohl aus quantitativer und sachlicher Sicht die Inkarnation „menschengemachten“ Blödsinns.

Diese realitäts- und wissenschaftsferne Politik führt zum selbstverschuldeten Verlust von politischem Einfluss und ökonomischer Glaubwürdigkeit, letztendlich zum Untergang der westlichen Welt und damit der Forcierung des unaufhaltsamen Aufstiegs Chinas im Verbund mit Russland zur führenden Welt-, Wirtschafts- und Militärmacht. Denn im Gegensatz zum Westen baut China auf allen Gebieten die wohlstandsfördernde und investitionsvoraussetzende Energieerzeugung, ob fossil mit Kohle, Gas und Erdöl, oder mit Atomkraft oder soweit wie möglich und sinnvoll mit „erneuerbaren“ Energiequellen (Wind und Fotovoltaik) ungebremst von COP 28 aus. Sie wissen, dass unabhängige Verfügbarkeit von Energie Macht bedeutet!

Die wissenschaftliche Realität ist eine andere:

Im unikaten fantastischen Atmosphären-Biosphären-Rezyklierungssystem ist gerade die CO2- Emission die unverzichtbare eigentliche treibende Kraft (Triebkraft), egal woher sie kommt, ob biogen oder fossil, für die Erhaltung und Mehrung des Lebens auf der Erde. Es gibt folglich weder einen „menschengemachten Klimawandel“ durch Nutzung fossiler Energiequellen noch einen „menschengemachten Klimaschutz“ durch widersinnige kontraproduktive Dekarbonisierung der Wirtschaft. Somit gibt es auch keine „Klimaneutralität“, sondern nur eine kontraproduktive „CO2Emissions-Neutralität“ mit verheerenden Folgen für die Wirtschaft und den Wohlstand der Industriestaaten!

Sinnmachende Investitionen in witterungsunabhängige Energieversorgung (fossile und atomare) und Schutz vor klimatischen Auswirkungen

Sinn machen demgegenüber Investitionen in den vielfach vernachlässigten „Schutz vor und Anpassung an Auswirkungen des Klimas und vor möglichen unerwünschten Wetterkonstellationen“! Alle krampfhaften Maßnahmen zur Reduzierung bzw. Vermeidung von CO2-Emissionen – wie die teure und materiell kaum abzusichernde „grüne Wasserstoffwirtschaft“ , in überzogene Windkraft- und Fotovoltaikanlagen sind Fehlinvestitionen.

Als Zukunftsinvestitionen gelten Investitionen in

  • eine angemessene und sinnvolle Nutzung der Möglichkeiten zur Erzeugung „erneuerbarer“ Energie

(Wind, Sonne, Wasserkraft und Biogas), in Sekundärposition vorrangig aber Investitionen in sichere witterungsunabhängige Energiegewinnung, d.h. in

  • in die Nutzung eigener Energiequellen (Braunkohlenabbau, Fracking-Gasgewinnung)
  • den Bau moderner (dezentralisierter) Kernspaltungs-, Kernfusions- und Atommüllverwertungs-AKW

(einschließlich der Verlängerung der Nutzung vorhandener AKW),

  • moderne Gas-, Erdöl- und Kohlekraftwerke, Verbrennungsmotoren und Heizungsanlagen für

Fernwärme und Wärmekopplung mit Energieerzeugung sowie

  • in die Erhöhung der Energieeffizienz und last not least
  • in den Schutz vor Klimaauswirkungen/gefährlichen Wetterkonstellationen!

Das Klima kann nicht „menschengemacht“ geschützt werden. Das Klima sollte man der Sonne – wie seit Millionen von Jahren – überlassen.

 

 

 

 




Status und Trends bei der Wiederaufbereitung von abgebrannten Kernbrennstoffen

Von Dr. Humpich

Die Wiederaufbereitung abgebrannter Kernbrennstoffe (Ökosprech: „Atommüll“) ist das zentrale Bindeglied für eine nachhaltige Nutzung der Kernenergie. Durch das Recycling werden aus dem Abfall unterschiedlich verwendbare Materialien gewonnen. Man kann sie zur Energieerzeugung weiter verwenden und man kann dadurch die Problematik der „Endlagersuche“ beträchtlich entschärfen. In diesem Sinne ist das Verbuddeln von abgenutzten Brennelementen ökologisch, ökonomisch und sicherheitstechnisch die unbefriedigendste Lösung. Vornehmste Aufgabe der Wiederaufbereitung ist die Trennung der Spaltprodukte – der nuklearen „Asche“ der Kernspaltung – von den Aktinoiden (Uran, Plutonium usw.). Aus den Aktinoiden kann durch schnelle Neutronen weitere Energie gewonnen werden. Wenn Brennelemente für konventionelle Leicht- und Schwerwasserreaktoren nicht mehr geeignet sind – man nennt das „abgebrannt“ – enthalten sie immer noch mindestens 95% Material aus dem Energie gewonnen werden kann. Spätestens hier wird klar, welche Verschwendung ein Wegwerfen als „Atommüll“ nach deutschem Gusto wäre.

Die Einordnung der Wiederaufbereitung

Alle Verfahren zur Trennung von abgebranntem Kernbrennstoff sind chemische Prozesse. Entgegen der Behauptung von „Atomkraftgegnern“ werden dabei keine neuen radioaktiven Elemente erzeugt. Es werden höchstens radioaktive Stoffe verschleppt und dadurch Bauteile kontaminiert. Die können aber wieder gereinigt werden. Auf jeden Fall strahlen solche Verunreinigungen weniger als der ursprüngliche Kernbrennstoff und können deshalb lediglich auf Sondermülldeponien gelagert werden. Man unterscheidet Nassverfahren und pyrochemische Prozesse.

Nassverfahren

Der typische Vertreter eines Nassverfahrens ist der PUREX (plutonium uranium reduction extraction) Prozess, wie er z. B. in der französischen Anlage in La Hague industriell angewendet wird. Seit 2010 werden dort durchschnittlich 1050 to pro Jahr aufgearbeitet und dabei 10,5 to Plutonium und 1000 to/a sog. RepU (reprocessed uranium) zurückgewonnen. Das Plutonium wird unverzüglich zur Melox Anlage in Marcoule zur Verarbeitung zu MOX-Brennstäben (mixed oxide) transportiert. Aus diesen 120 to/a wird Brennstoff für 24 Druckwasserreaktoren der EdF mit je 900 MWel gewonnen. Beim PUREX-Verfahren wird der abgebrannte Brennstoff in Salpetersäure aufgelöst. Es entstehen diverse Salze in wässriger Lösung. Diese Lösung wird kräftig mit einem organischen Lösungsmittel (30% Tributylphosphat gelöst in Kerosin) durchmischt. Dabei gehen Uran und Plutonium in die organische Phase über und die Spaltprodukte und minoren Aktinoide verbleiben in der wässrigen Lösung. 99,9% des Uran und Plutonium werden zurück gewonnen und etwa 3% des ursprünglichen Brennstoffs bleiben als hoch aktiver Abfall zurück und werden anschließend verglast. Die Trennung beider Phasen erfolgt rein physikalisch – Öl schwimmt auf Wasser. Uran und Plutonium werden durch einen weiteren Schritt (Umwandlung der +2 Ionen in den +3 Oxidationszustand durch z. B. Eisen) voneinander getrennt, indem das Plutonium dadurch in diese wässrige Phase übergeht.

Das primäre Ziel bei diesem Verfahren ist die Gewinnung möglichst reinen Plutoniums. Das ist zwar günstig für die Herstellung von MOX-Brennstoff, kann aber andererseits auch zur „Plutonium-Bombe“ führen. Die Befürchtungen sind so ernsthaft, daß ein Austausch der Technologie nur sehr beschränkt ist. So hat man den Vereinigten Emiraten den Bau eines Kernkraftwerks nur gestattet, weil sie ausdrücklich auf eine eigene Anreicherung und Wiederaufbereitung verzichtet haben. Andererseits verfügt Japan in Rokkasho über eine Anlage mit einer Kapazität von 800 to/a, die 4 to/a Plutonium für 80 to/a MOX-Brennstoff gewinnen kann. Das Konzept gegen die Weiterverbreitung von Kernwaffen (Proliferation) steht auf etwas wackeligen Füßen. Wo ein Wille ist, ist auch ein Weg: Israel, Nord Korea, Iran usw. Deshalb die Bestrebungen (siehe später) Verfahren zu entwickeln, mit denen man gar kein waffengrädiges Plutonium herstellen kann.

Für das weitere Verständnis ist wichtig, daß die minoren Aktinoide mit den Spaltprodukten zusammenbleiben. Sie werden gemeinsam in Glas aufgelöst und in Kannen zur Endlagerung abgefüllt. Hier ergibt sich das erdachte „Endlagerproblem“: Die Kannen werden in Bunkern gelagert, bis so viele kurzlebige Spaltprodukte zerfallen sind, daß die resultierende Wärmeproduktion auf ein erträgliches Maß abgesunken ist. Die zulässigen Oberflächentemperaturen (etwa 60°C) werden durch die Tonschichten im geologischen Tiefenlager in Bure bestimmt. Die Spaltprodukte zerfallen in etwa 300 Jahren bis auf Werte von Uranerz. Sie wären damit ungefährlich, da Menschen seit Jahrtausenden mit solchen natürlichen Strahlenbelastungen umgehen. Es bleibt allerdings das Problem mit den minoren Aktinoiden: Sie sind sehr langlebig, aber als 𝜶-Strahler relativ harmlos – so lange man sie nicht isst oder trinkt. Daraus leitet sich die Endlagerung möglichst tief unter der Erde ab.

Das PUREX-Verfahren ist seit Jahrzehnten erprobt und das einzige Verfahren mit dem Anlagen im industriellen Maßstab betrieben werden. Es hat aber noch einen weiteren (politisch) gravierenden Nachteil: Es verwendet organische Lösungsmittel. Organische Lösungsmittel werden durch ionisierende Strahlung zersetzt. Einziger Weg ist die Zwischenlagerung abgebrannter Brennelemente um die Strahlenbelastung zu senken. Zwischenlager sind deshalb nicht der Ausdruck „eines nicht weiter Wissens“, sondern eine technische Lösung für ein bestimmtes Verfahren zur Wiederaufbereitung. Der Kostenvorteil einer „großen Chemieanlage“ ist gleichzeitig ein prinzipieller Nachteil für kleine Länder. So hat man sich in Schweden und Finnland für eine aufwendige Langzeit-Lagerung entschieden. Man legt Tunnelsysteme im Granit an und verpackt die Brennstäbe aufwendig in Kupferbehältern. So hat man notfalls „ewig“ Zeit für die Auswahl eines Verfahrens. Auch hier erweist sich die hohe Energiedichte der Kernspaltung als Vorteil. Die durchaus hohen Investitionen finanzieren sich durch die Umlage auf die erzeugte Kilowattstunde im Zehntel Cent Bereich.

Die Umstellung auf schnelle Reaktoren

In Reaktoren mit schnellem (energiereichem oder harten) Neutronenspektrum kann man auch U238 und die minoren Aktinoide (Neptunium, Americium usw.) spalten. In den Anfängen der Kerntechnik glaubte man noch, daß zumindest die wirtschaftlich gewinnbaren Uranmengen sehr begrenzt seien. Ein fataler – wenngleich glücklicher – Irrtum. In den 1950er Jahren träume man von einer voll elektrifizierten Welt (Ähnlichkeiten mit heutigen Schlangenölverkäufern der Wind und Sonnenbranche sind mehr als zufällig). Man wollte einen möglichst schnellen Bau von Kernkraftwerken bei vermeintlicher Knappheit von Uran. Die Antwort sollte der „Schnelle Brüter“ sein. Man wollte mit ihm mehr Plutonium produzieren als man verbrauchte. „Verdoppelungszeit“ war das Schlagwort der Stunde. Gemeint ist damit die Betriebsdauer eines schnellen Brüters, bis er soviel Überschuss an Plutonium produziert hat, daß damit ein Zwilling in Betrieb genommen werden kann.

Heute ist die Situation eine andere. Einerseits ist der Preis für Natururan immer noch so gering, daß man weiterhin Leichtwasser- und Schwerwasserreaktoren bauen kann. Andererseits verfügen wir über hunderte Tonnen Plutonium in abgebrannten Brennstäben, bzw. sogar fertig aufbereitet. Wir könnten somit mehrere schnelle Reaktoren sofort bauen. Im Gegenteil würden diese unsere Lagerkosten beträchtlich verringern. Wir haben auch bereits mehre Prototypen erfolgreich im Betrieb. Die Sache hat nur einen Haken: Schnelle Reaktoren erfordern wesentlich höhere Investitionen. Bis sich die Schere schließt, höhere Betriebskosten durch steigende Brennstoffkosten, gesunkene Investitionskosten für schnelle Reaktoren durch Skaleneffekte, werden noch einige Jahrzehnte vergehen.

Pyrochemische Verfahren

Für einen schnellen Reaktor wäre also eine Mischung aus Uran, Plutonium und den minoren Aktinoiden geeignet. Daraus ergeben sich zwei gravierende Vorteile: Das Aufbereitungsverfahren ist für die Herstellung von Kernwaffen ungeeignet und man erhält einen sehr kurzlebigen Atommüll. Er kann in einem geologischen Tiefenlager verschwinden, muß aber nicht. Ferner ist das Verfahren eher für kleine Anlagen geeignet. Es gibt daher in Russland die Bestrebung eine Wiederaufbereitung in das Kernkraftwerk zu integrieren. In das Kraftwerk würde nur abgereichertes Uran als Ersatz für die Energieproduktion nach geliefert und die wenigen Spaltprodukte könnten am Kraftwerk bis zu dessen Stilllegung gelagert werden. Transporte von „Atommüll“ würden sich beträchtlich verringern.

Die Elektroraffination von geschmolzenem Salz ist ein pyrochemisches Verfahren, das sich ideal für die Wiederaufbereitung von Metallen eignet. Die Vorteile des geschmolzenen Salz-Elektro-Raffinierungsprozesses gegenüber dem wässrigen Prozess für metallische Brennstoffe sind:

  • Eine reduzierte Anzahl von Schritten, da sich der Brennstoff während des gesamten Prozesses im metallischen Zustand befindet.
  • Besonders geeignet für nur kurzzeitig gekühlte Brennstoffe mit hohem Abbrand. Die anorganischen Lösungsmittel widerstehen den höheren Strahlungsleistungen viel besser als organische Reagenzien. Die Verkürzung der Umlaufzeit kann zu einer kürzeren Verdoppelungszeit führen.
  • Man kann höhere Mengen an abgebranntem Brennstoff in kleineren Anlagen handhaben als bei wässrigen Prozessen (notwendige Verdünnung).
  • Reduzierte Kritikalität aufgrund des Fehlens von Moderatoren (organische und wässrige Lösungsmittel).
  • Fast keine hoch radioaktiven flüssigen Abfälle.
  • Inhärente Sicherheit gegen militärische Nutzung durch die gemeinsame Abscheidung von Uran, Plutonium und minoren Aktinoiden.

Die Herausforderungen sind:

  • Hohe Betriebstemperaturen und die Verwendung von korrosiven Salzen, die eine technologische Herausforderung bei der Materialauswahl bedeuten.
  • Da die Salze hygroskopisch und die Metalle pyrophorisch sind, erfordert der Prozess eine inerte Atmosphäre mit sehr niedrigem Feuchtigkeits- und Sauerstoffgehalt um eine Selbstentzündung zu verhindern.
  • Trennfaktoren für Spaltprodukte sind etwa 1000-mal niedriger als bei wässrigen Prozessen.
  • Bisher noch begrenzte Erfahrungen, meist im Labormaßstab.

Elektroraffination mit Salz

Am bekanntesten ist der Prozess der Raffination von metallischem Brennstoff in einer Salzschmelze, wie er im US-Programm für schnelle Brüter (EBR-II 1964–1994 und Integral Fast Reactor IFR 1986–1994) angewendet wurde. In einem Tiegel wird Lithium- und Kaliumchlorid Salz bei 500 °C aufgeschmolzen. Die in Stücke zerschnittenen Brennstäbe kommen in einen Drahtkorb, der in die Salzschmelze getaucht wird. Die Elemente des abgenutzten Brennstabs lösen sich in der Salzschmelze auf. Der Drahtkorb bildet die Anode. Die Kathode besteht aus geschmolzenem Kadmium. Wird ein Strom angelegt, wandern Uran, Plutonium und die minoren Aktinoide gemeinsam zu der Kathode. Die Spaltprodukte verbleiben im Salz gelöst. Stark vereinfacht, hängt der „Weg“ den die Elemente nehmen, von der Stabilität der gebildeten Chloride ab: Die Elemente, deren Chloride hochstabil sind, sind leicht zu oxidieren und werden als Chloride in die Elektrolytphase übertragen. Sie sind nur schwer zu reduzieren und bleiben daher in der Elektrolytphase. Edelmetalle, deren Chloride am wenigsten stabil sind, werden nicht oxidiert und bleiben so bei der Anode. Die „Brennstoffe“ Uran und Plutonium und und auch die minoren Aktinoide, deren Chloride von mittlerer Stabilität sind, werden durch den Elektrolyten transportiert und dann auf der Kathode abgelagert.

Die in der Anode verbleibenden Brennstabhüllen und Edelmetalle können zur Endlagerung eingeschmolzen werden. Das Salz kann gereinigt werden, indem es durch Zeolithe geleitet wird. In einem weiteren verfahrenstechnischen Schritt muß die Kathode eingeschmolzen werden und daraus neue Rohlinge für Brennstäbe gegossen werden.

Vorstufe für konventionelle Brennstoffe

Eine Elektroraffination ist nur bei metallischen Brennstoffen direkt möglich. Heutige Leichtwasserreaktoren verwenden keramisches UO2 als Brennstoff. Keramik ist aber nicht elektrisch leitend. Ein gebräuchliches Verfahren der Umwandlung ist das Voloxidation-Verfahren (für volumetric oxidation). Dabei wird der zu recycelnde Brennstoff in einem Vakuum mit Sauerstoff auf etwa 500°C erhitzt. Dadurch wandelt sich UO2 in U3O8 um. Während dieses Verfahrensschrittes werden alle in diesem Zustand gasförmige Spaltprodukte ausgetrieben. Insbesondere Tritium kann auf diese Weise einfach und konzentriert abgeschieden werden.

Internationale Situation

Im Moment führend bei der Entwicklung sind die USA, Russland, Indien, Korea, Japan und Frankreich. Allerdings befindet sich das Verfahren in allen Ländern noch in der Entwicklung. Man kann mit Fug und Recht feststellen, daß die Elektroraffination eine Schwester der Reaktoren mit schnellem Neutronenspektrum ist – die sicherlich die Zukunft sind. Hinzu kommen im Einzelfall noch politische Randbedingungen. So kann Korea beispielsweise nicht das PUREX Verfahren nutzen, um sich nicht dem Verdacht einer atomaren Aufrüstung auszusetzen.

An der Spitze der Entwicklung befindet sich Russland. In Seversk befindet sich ein Pilotprojekt bereits in Bau. Es besteht aus einem mit flüssigem Blei gekühlten Reaktor mit einer Leistung von 300 MWel . Dieser Reaktor ist nicht als Brüter, sondern mit einer Konversionsrate von um die 1 konzipiert. Er soll also lediglich soviel Plutonium produzieren, daß er nur noch mit abgereichertem oder Natururan ergänzt werden muß. Er soll mit MNUP Brennstoff (Mixed Nitride Uran Plutonium) betrieben werden. Dieser Reaktor soll mit einer integrierten Wiederaufbereitung und Brennstoffherstellung versehen werden. Es ist der vorläufige Höhepunkt einer Jahrzehnte andauernden Entwicklung. Typisch russisch ist dabei das Vorgehen in Schritten, wobei im jeweils nächsten Schritt die Betriebserfahrungen des vorhergehenden Reaktortyps einfließen.

REMIX

REMIX-Brennstoff (für regenerierte Mischung) ist ein innovatives russisches Produkt für thermische Leichtwasserreaktoren, die das Herzstück der heutigen Kernkraftindustrie bilden. Dieser Brennstoff wird aus einer Mischung von wiederaufbereitetem Uran und Plutonium hergestellt, die unter Zugabe kleiner Mengen angereicherten Urans erzeugt wird. Im Unterschied zu Uran-Plutonium-Brennstoffen für schnelle Reaktoren (wie MNUP- und MOX-Brennstoff) hat der REMIX-Brennstoff einen geringen Plutoniumgehalt (bis zu 1,5%). Sein Neutronenspektrum unterscheidet sich nicht von gewöhnlichem LWR-Brennstoff aus angereichertem Uran, daher sind das Verhalten von Brennelementen im Reaktorkern und die Menge an Plutonium, die durch Bestrahlung aus Uran herausgelöst wird, im Prinzip ähnlich.

Für Betreiber von Druckwasserreaktoren (VVER-1000 und VVER-1200) bedeutet dies langfristig, daß der REMIX-Brennstoff ohne Änderungen der Reaktorauslegung oder zusätzliche Sicherheitsmaßnahmen benutzt werden kann. Die Einführung eines solchen Brennstoffs ermöglicht die Nutzung von Natururan für Kernkraftwerke durch die Schließung des Kernbrennstoffkreislaufs erheblich zu steigern und den abgebrannten Kernbrennstoff weiterzuverwenden, anstatt ihn zu lagern oder gar zu verbuddeln.

DUPIC

Ein weiterer Weg ist die Verknüpfung von Leichtwasser- und Schwerwasserreaktoren. In den abgebrannten Brennelementen der Leichtwasserreaktoren ist noch etwa 1,5 gew% Spaltstoff enthalten (U235 Pu239). Der Gehalt hängt vom Abbrand ab – bei niedrigem Abbrand ist noch viel enthalten, bei hohem Abbrand entsprechend weniger. Es sind noch ein paar Prozent bei den üblichen Abbränden zwischen 35 MWd/kgU und 50 MWd/kgU vorhanden. Dieser Gehalt an Spaltmaterial entspricht mehr als dem Doppelten von Natururan mit 0,71%. Für einen mittleren Abbrand von 42,5 MWd/kgU bei Leichtwasserreaktoren könnten zusätzlich 15,5 MWd/kgU gewonnen werden, was immerhin 37% mehr Energie entspricht. Nach der Nutzung des DUPIC Brennstoffs in Schwerwasserreaktoren sinkt der Spaltstoffgehalt auf etwa 0,63% bis 0,78%.

Durch die Verknüpfung von Leicht- und Schwerwasserreaktoren über das DUPIC Verfahren ergeben sich folgende Vorteile:

  • Es wird abgebrannter Brennstoff der Leichtwasserreaktoren verbraucht. Das Volumen für Zwischen und Endlagerung verringert sich entsprechend.
  • Es wird weniger Natururan verbraucht. Alle mit der Förderung, Konversion und Anreicherung verbundenen Belastungen werden gespart.
  • Die Menge an abgebranntem Brennstoff der Schwerwasserreaktoren wird durch den höheren Spaltstoffgehalt (ungefähr zweifach gegenüber Natururan) kleiner.

Es sollte dabei nicht vergessen werden, daß es sich hier um den Umgang mit hochaktiven Brennstoffen handelt. Entsprechende Abschirmungen und eine vollständige Handhabung aus der Ferne sind erforderlich. Bisher sind nur kleine Mengen versuchsweise in heißen Zellen hergestellt worden. Bis zu einer industriellen Nutzung ist noch viel Entwicklungsarbeit zu leisten.

Schlusswort

Wie immer in der Technik, wird zuerst der einfachste Weg beschritten. Im Falle der Kerntechnik: Leichtwasserreaktoren, Lagerung der abgebrannten Brennelemente und Aufbereitung in den Ländern, die ohnehin schon über ein erprobtes Verfahren (PUREX) verfügten – dies waren die bekannten „Atommächte“. Nicht viel anders, als beim Papier: Zuerst wurde Papier hergestellt (Reaktoren zur Stromproduktion), dies wurde nach Gebrauch als Müll weggeworfen (abgebrannte Brennelemente). Erst nachdem die Altpapiermengen so groß geworden waren, daß sich ein Recycling wirtschaftlich lohnte, wurden die ersten Altpapiermühlen gebaut – heraus kam das „graue Altpapier“. Nach der Abstimmung des gesamten Kreislaufs aufeinander, entstand das heutige weiße Recyclingpapier. Heute ist Papier ein nachhaltiges Produkt geworden, das zu über 75% im Kreislauf läuft.

In Analogie wird sich das System Kerntechnik ebenfalls schrittweise vom Reaktor, über das Brennstoffrecycling bis zur Abfallnutzung weiter entwickeln. Abfall ist bezüglich der Kernenergie ohnehin mit Vorsicht zu beurteilen. Man muß sich immer wieder vor Augen führen, daß der „Atommüll“ das gesamte Periodensystem abdeckt. Schon heute werden Isotope aus dem Atommüll für z. B. Krebstherapien gewonnen. Es ist alles eine Frage der Wirtschaftlichkeit, Planwirtschaft und Ideologie führen nicht weiter.