Die neue französische Regierung unter Gabriel Attal macht ernst mit der Energie-Souveränität

Edgar L. Gärtner

Wie erwartet, hat die unbeliebte französische Premierministerin Elisabeth Borne am Abend des 8. Januar 2024 Staatspräsident Emmanuel Macron ihren Rücktritt angeboten und Macron hat diesen sofort angenommen. Nachfolger von Madame Borne wurde der erst 34 Jahre alte bisherige Erziehungsminister und Regierungssprecher Gabriel Attal. Dieser gilt als Klon Macrons, weil er wie dieser die Weihen als „Young Global Leader“ des World Economic Forums (WEF) in Davos empfangen hat. Er saß dort im Jahre 2020 zusammen mit der heutigen deutschen Außenministerien Annalena Baerbock, der zeitweiligen finnischen Ministerpräsidentin Sanna Marin und mit Alicia Garza, einer Mitbegründerin der rassistischen Black-Lives-Matter-Bewegung (BLM) in den USA in einer Lehrgangs-Klasse zusammen. Das heißt: Attal ist der direkte Repräsentant jener „Erleuchteten“, die uns ab 2030 den Fleischkonsum, Urlaubsreisen und den Privatbesitz von Pkws verbieten wollen.

Dennoch enthält die am 12. Januar von Attal vorgestellte neue Regierung einige Überraschungen, die von der grün-linken Politi-Szene als „Rechtsruck“ interpretiert werden. Für die Energie- und Klimapolitik ist nun nicht mehr das Umwelt- bzw. Energiewende-Ministerium zuständig, sondern das mächtige Wirtschafts- und Finanzministerium unter dem erfahrenen Super-Minister Bruno La Maire. Dieser gilt schon länger als überzeugter Anhänger der Kernenergie, musste aber aus wahltaktischen Gründen bislang hinter Grünen und Sozialisten zurückstehen. Bislang residierte die deutsche „Erneuerbaren“-Lobby in Gestalt des Office Franco-Allemand de la Transition Ecologique (OFATE) direkt in dem zuletzt von Agnès Pannier-Runacher geleiteten Energiewende-Ministerium. Der neuen deutlich verkleinerten Regierung gehört Pannier-Runancher nicht mehr an.

Staatspräsident Emmanuel Macron, der 2017 nicht zuletzt mithilfe massiver Unterstützung durch die deutsche Bundeskanzlerin Angela Merkel und deren Berliner Gefolgsleute an die Macht gekommen war, hatte in de letzten Jahren versucht, den Konflikt zwischen den „Erneuerbaren“ und der Kernenergie zu entschärfen, indem er dafür sorgte, dass beide Alternativen vom Staat gleichermaßen finanziell gefördert wurden, obwohl das sinnlos ist. Denn Windräder und Photovoltaikanlagen erweisen sich selbst nach dem herrschenden grünen Weltbild durchaus nicht als „klimafreundlicher“ als Kernkraftwerke.

Im Unterschied zur Berliner „Ampel“ sind den Angehörigen der Herrschaftskaste in Frankreich selbstmörderische Aufopferungs-Fantasien für das „Weltklima“ eher fremd. Viele von ihnen träumen noch immer von einer Rückkehr zu Frankreichs einstiger weltpolitischer Bedeutung. Sie sehen deshalb in der Schwächung der deutschen Wirtschaft durch die zügellose Verarmungs- und Gängelungspolitik der Berliner „Ampel“ die Chance, diesem Ziel näher zu kommen. Schon im Februar 2022 hat Emmanuel Macron in einer viel beachteten Rede in der ostfranzösischen Industriestadt Belfort den neuerlichen Ausbau der Kernenergie angekündigt. Damals kündigte er den Bau von sechs neuen Groß-Kernkraftwerken des Tys EPR sowie eine Option von acht weiteren an. Auch modular aufgebaute kleinen Kernkraftwerken (SMR) sollten eine Chance bekommen. Lange ließ Macron dieser Ankündigung keine Taten folgen. Noch immer galt das unter Macrons Amtsvorgänger François Hollande mit den Grünen und Linken vereinbarte Ziel, den Anteil der Kernenergie am nationalen französischen Strommix von über 70 schrittweise auf 50 Prozent zurückzufahren. Das ist nun vorbei. In dem bald zur parlamentarischen Beratung anstehenden Gesetzentwurf über die Energiesouveränität ist fürs erste von „erneuerbaren“ Energien keine Rede mehr, sondern nur noch von Technologieneutralität im Hinblick auf die Ansteuerung der Ziele des Pariser Klimaabkommens von 2015, zu dem sich die französische Regierung weiterhin uneingeschränkt bekennt.

Macron und seine neue Regierung haben den „Rechtsschwenk“, den ihr die Linksgrünen vorwerfen, sicher nicht ganz freiwillig vollzogen. Vielmehr mussten Macron und seine Berater davon Kenntnis nehmen, dass er mit seiner grünen und extrem EU-freundlichen Politik nicht nur in der Nationalversammlung, sondern erst recht bei der breiten Wählerschaft über keine Mehrheit verfügte. Die bisherige Premierministerin Elisabeth Borne hatte nach der für Macron und seine Partei „Renaissance“ ungünstig ausgegangenen Parlamentswahl vom Mai 2022 die undankbare Aufgabe übernommen, wichtige Reformvorhaben wie vor allem die Absenkung des Rentenalter6s mithilfe des von General de Gaulle in die Verfassung der V. Republik eingeführten Artikels 49.3 durchzupeitschen. Dieser erlaubt es der Regierung, im Falle eines parlamentarischen Patts, Gesetze ohne Zustimmung der Parlamentsmehrheit durch Notverordnungen zu erlassen. Elisabeth Borne benutzte den Art. 49.3 der Französischen Konstitution in ihrer kurzen Amtszeit von einem Jahr,  sieben Monaten und einigen Tagen ganze 23 mal! Das führte dazu, dass sie am Ende kaum noch ernstgenommen wurde.

Macron entschloss sich deshalb, das ebenso umstrittene neue Einwanderungsgesetz mit deutlich strengeren Vorgaben nicht mehr mithilfe einer Notverordnung zu erlassen, sondern einen Kompromiss mit der rechten Parlamentsmehrheit zu suchen. Dabei gingen ihm bereits einige seiner linken Minister und Anhänger von der Fahne. So musste sich Macron, um sich an der Macht halten zu können, nun zu einem „Rechtsruck“ entschließen. Neben der Entmachtung des Energiewendeministeriums und der Rückkehr zur Kernenergie zeigt vor allen die Ernennung von Rachida Dati, der ehemaligen Justizmisterin des rechten Präsidenten Nicolas Sarkozy, zur neuen Kulturministerin, wohin der Hase läuft. Die Einwanderer-Tochter Dati, deren Eltern aus Marokko und Algerien stammen und die auf einer katholischen Privatschule erzogen wurde, ist dafür bekannt, dass sie kein Blatt vor den Mund nimmt. Sie wird folglich von der linken Kulturszene als Provokation empfunden. Das gilt wohl auch für Catherine Vautrin, die neue konservative Ministerin für Arbeit und Gesundheit, die den durch den Corona-Schwindel kompromittierten Regierungssprecher und ehemaligen Gesundheitsminister Olivier Veran ablöst.

Warum hat sich Macron für die Ernennung für die Ernennung eines vor allem international noch weitgehend unerfahrenen blutjungen jungen Mannes zum Premierminister entschieden? Der tiefere Grund dafür dürfte im kommenden Wahlkampf zu finden sein. Nicht wenige Beobachter der politischen Entwicklung in Frankreich gehen davon aus, dass Präsident Macron im Spätsommer nach den Wahlen zum Europa-Parlament und dem Ende der prestigeträchtigen Olympischen Spiele von Paris, die den französischen Staat Milliarden kosten werden, die Nationalversammlung auflösen und Neuwahlen ausrufen wird. Dann wird der Jungspund Attal dem mit 28 Jahren noch jüngeren politischen Naturtalent Jordan Bardella gegenüber stehen. Der Migrantensohn mit algerischen und italienischen Wurzeln wurde als Vorsitzender der Le-Pen-Partei Rassemblement National (RN) im vergangenen Jahr zum beliebtesten Politiker Frankreichs gekürt.

Im Unterschied zu Attal, der aus dem schicken Pariser Westen stammt, kommt Bardella aus der vorwiegend von Mietskasernen des Sozialwohnungsbaus dominierten Stadt Drancy im verrufenen Département Seine-Saint-Denis im Nordosten der französischen Hauptstadt. Der durchtrainierte Aikido-Kämpfer hat mit seinem seriösen Auftreten wesentlich dazu beigetragen, die Le-Pen-Partei vom Schwefelgeruch zu befreien und ist zum Hoffnungsträger für die Benachteiligten in den Banlieues geworden. Kein Zweifel: Attal wird es sehr schwer haben in diesem Wahlkampf. Deshalb bedauern es manche, dass der durchaus talentierte junge Mann schon in so jungen Jahren verheizt wird.

 




Kernenergie – ein Segen für die Menschheit

-Nur Deutschland will sie nicht haben-

von Klaus Ridder (Dipl.-Ing.)

Die Bevölkerung unserer Erde nimmt stetig zu. Mehr Menschen brauchen mehr Energie. Die Ressourcen zur Energieerzeugung wie Kohle, Gas und Öl werden weniger. Mit ‚Windmühlen‘ und Photovoltaik, die nur begrenzte Zeit Energie liefern, kann man das Problem nicht lösen, auch nicht mit Bio-Masse oder in Deutschland auch nicht mit Wasserkraft. Doch mit der friedlichen Nutzung der Kernenergie sind nicht alle Menschen einverstanden. Es werden ideologische Barrieren aufgebaut. Warum eigentlich?

Geschichte

Schon im alten Griechenland suchten die Gelehrten nach kleinsten Teilen der Materie. Sie nannten sie „Atome“, das bedeutet „Das Unteilbare“, daran glaubte man 2 Jahrtausende. Erst im letzten Jahrhundert erkannten Physiker, dass man Atome auch spalten kann und dabei wurde sogar Energie freigesetzt. Eine neue Ära der Energieerzeugung begann, als es dem deutschen Forscher Otto Hahn 1938 rein zufällig gelang, Uran-Atomkerne zu spalten.

Bild 1: Der deutsche Physiker und spätere Nobel-Preisträger Otto Hahn entdeckte 1938 die Kernspaltung von Uran.

Die Nachricht von den unheimlichen Kräften, die in Uran-Atomen steckten, drang rasch zu den Wissenschaftlern in anderen Ländern und es wurde eifrig geforscht. Auch dachte man darüber nach, wie man die enorme Energie zu militärischen Zwecken einsetzen konnte. Man baute in den USA noch während des Zweiten Weltkriegs eine Atombombe und setzte diese nach der deutschen Kapitulation am 06.08.1945 beim Krieg gegen Japan in der Stadt Hiroshima ein. Über 200.000 Menschen starben dabei und mehr als 100.000 wurden schwer verletzt.

Die Bombe von Hiroshima hatte gezeigt, wie todbringend man Kernenergie anwenden kann.

Bild 2: Im August 1945 wurde auf die japanische Stadt Hiroshima die erste Atombombe abgeworfen. Das Denkmal dafür

Besorgte Gesichter bei den Wissenschaftlern, so hatte man sich den Beginn des „Atomzeitalters“ nicht gewünscht.

Ich selbst habe die Gedenkstätte in Hiroshima besucht, es war grauenvoll, was sich da abgespielt hatte.

Doch neben der militärischen Weiterentwicklung der Atombombe wurde auch versucht, die Kernspaltung für friedliche Zwecke zu nutzen. In Wien wurde eine UN-Tochter, die Internationale Atomenergie Organisation (IAEO) gegründet, die die friedliche weltweite Nutzung der Kernenergie beaufsichtigen sollte.

Entwicklung der Kernenergie in Deutschland

Das Atom barg aber noch viele Geheimnisse. Man war bestrebt, die enorme Energie aus der Kernspaltung für das tägliche Leben nutzbar zu machen. Daran arbeiteten viele Wissenschaftler in aller Welt – mit großen Erfolg. Es entstanden Kernreaktoren, mit denen man Strom erzeugte, baute Schiffe mit „Atommotoren“ (Frachtschiff Otto Hahn, Eisbrecher und U-Boote) und nutzte radioaktive Stoffe auch in der Medizin.

In der Bundesrepublik Deutschland wurde die Kernforschung von den Alliierten nach dem verlorenen Krieg ab 1955 gestattet, gleichwohl wurde bereits 1961/62 in Kahl (Bayern) das erste deutsche Kernkraftwerk in Betrieb genommen. Und es ging weiter. Auch in der DDR entstanden in Lubmin (5) und Rheinsberg (1) Kernkraftwerke, insgesamt waren mal bis vor der Wende (1990) 32 Kernreaktoren (manche Kernkraftwerke hatten mehrere Kernreaktoren, in Lubmin waren es sogar 5 in Betrieb und weitere im Bau.

Eine beispiellose Erfolgsgeschichte, doch diese Erfolgsgeschichte fand aufgrund politischer und juristischer Querelen und Anti-Atom-Protesten keine Fortsetzung und endete, um es vorwegzunehmen, mit der Abschaltung der letzten 3 Kernreaktoren am 15.04.2023.

Bild 3: 2023 gingen die letzten deutschen Kernkraftwerke (KKW) vom Netz, hier das KKW in Neckarwestheim. Hier der Abtransport abgebrannter  Brennelemente.

Politik hat versagt

Der friedlichen Nutzung der Kernenergie wurde ein hoher Stellenwert als zukunftsorientierter Wirtschaftsbereich eingeräumt, man sah eine Alternative zu den bisher verwendeten Energieträgern Kohle und Wasserkraft. 1955 wurde sogar ein Bundesministerium für Atomfragen eingerichtet, dessen erster Minister kein geringerer als der bayerische Politiker Franz Josef Strauß war. Es gab sogar ein Atomprogramm. Es entstand eine Euphorie pro Kernenergie. Deutsche Firmen wie Siemens waren führend in der Kerntechnik.

Doch die Zustimmung wandelte sich im Verlaufe der Jahre bis zur Wiedervereinigung in der Bundesrepublik Deutschland, nicht aber in der DDR. Es entstand aus der Anti-Atombewegung, auch mit Unterstützung der Kirchen, sogar eine eigene Partei – die GRÜNEN.

Begonnene Vorhaben im Zusammenhang mit der friedlichen Nutzung der Kernenergie wurden eingestellt, dazu gehören der Schnelle Brüter in Kalkar (1991), die Wiederaufarbeitungsanlage in Wackersdorf (1989), die MOX-Brennelementefabrik in Hanau (1991), das Kernkraftwerk in Mülheim-Kärlich (1988), der Thorium-Hochtemperatur-Reaktor(THTR) in Hamm-Uentrop (1989) sowie der DDR-Kernkraftwerke in Lubmin und Rheinsberg (1990).

Bild 4: Der Kugelhaufenreaktor (THTR) war eine deutsche Erfindung, hier ein Modell. Sein Betrieb wurde unter dem damaligen NRW-Ministerpräsidenten Johannes Rau 1989 eingestellt. Das System wurde in China nachgebaut.

Risiken

Das Leben ist mit Gefahren verbunden – das war schon immer so. Und Risiken im Zusammenhang mit der Energieerzeugung gibt es viele: Staudämme können brechen, der Abbau von Kohle in Bergwerken ist sehr gefährlich (tausende Tote jährlich), Windkrafträder können brennen und Flügel verlieren, Öl-Tanker können stranden usw.

Wegen des kerntechnischen Anlagen innewohnenden Gefährdungspotentials ist für alle Bereiche des Umgangs mit radioaktiven Stoffen als eigenes rechtliches Instrumentarium das Atomgesetz geschaffen worden. Sein Zweck: Schutz der Bevölkerung vor den Gefahren der Kernenergie. In der Kerntechnik wurde – erst- und einmalig in dieser systematischen und umfassenden Weise – eine Sicherheitskonzeption derart entwickelt, dass auf Grund theoretischer Überlegungen und wissenschaftlicher Untersuchungen mögliche Störfälle vorausgesehen und die erforderlichen Schutzmaßnahmen eingeplant werden. Über die Einhaltung der Schutzmaßnahmen wachen die Gutachter der Länder und die Reaktorsicherheitskommisssion der Bundesregierung.

Spricht man über Gefahren im Zusammenhang mit der Kernenergie, so kommen spontan 2 Namen: Tschernobyl und Fukushima. Ich werde mal versuchen, beide Ereignisse darzustellen und auch die Risiken beim Transport mit einzubeziehen.

Tschernobyl am 26.05.1986

Der Unfall im russischen Kernkraftwerk Tschernobyl war eine sehr große Katastrophe und Teile Europas wurden, teilweise bis hoch nach Skandinavien, mit einer „radioaktiven Wolke“ überzogen. Laut Untersuchungen der IAEO kamen 41 Personen ums Leben und viele Personen (8.000?) wurden durch radioaktive Strahlen verletzt.

Die Ursache war ein vorsätzlich falsches Verhalten des Betriebspersonals in der Leitzentrale. Das führte dazu, dass der Kernspaltungsprozess außer Kontrolle geriet und einen GAU (= größer anzunehmender Unfall) auslöste.

In einem Kernkraftwerk deutscher Bauart hätte ein solcher Unfall rein technisch nie passieren können.

Fukushima (11.03.2011)

Ein Tsunami löste vor der japanischen Küste eine Welle aus, die die Küste rund um das Kernkraftwerk Fukushima zerstörte und im Kernkraftwerk das dort vorhandene Kühlsystem außer Betrieb setzte. Das führte zu einem GAU.

Etwa 20.000 Menschen wurden durch den Tsunami getötet, im Kernkraftwerk ertrank eine Person. Keine Person wurde durch Strahlung getötet.

In einem Kernkraftwerk deutscher Bauart hätte ein solcher Unfall rein technisch nie passieren können.

Transporte

Transporte mit radioaktiven Stoffen werden immer als besonders gefährlich dargestellt. Dem ist nicht so! Dank der Empfehlungen der IAEO sind die Transporte so sicher, dass es weltweit in 70 Jahren keinen Unfall mit Freisetzung radioaktiver Stoffe gegeben hat. Weltweit hat es beim Transport radioaktiver Stoffe also keinen Toten gegeben und niemand wurde signifikant durch Strahlung geschädigt.

Bild 5: CASTOR Transportbehälter sind eine deutsche Erfindung und unfallsicher. Hier ein BAM-Test im Jahre 1978

Weltweit immer mehr Kernkraftwerke

In Sachen Energie aus Kernkraftwerken ist Deutschland mit dem Ausstieg eine Art ‚Geisterfahrer‘.

Derzeit sind laut der jüngsten IAEO-Jahresprognose 437 Kernkraftwerke in Betrieb und 53 im Bau in 19 Ländern, darunter 9 in Bangladesch, Weißrussland, der Türkei und den Vereinigten Arabischen Emiraten. Diese Länder haben sich erstmals für die nukleare Stromerzeugung entschieden.

Bild 6 In anderen Ländern, hier der Schweiz, werden weiterhin KKW (z.Zt.437) betrieben und noch weiter neue gebaut

„Die jüngsten IAEO-Jahresprojektionen zeigen, dass die Kernenergie weiterhin eine Schlüsselrolle im kohlenstoffarmen Energiemix der Welt spielen wird. In unserem High-Clase-Szenario wird sich die globale nukleare Stromkapazität bis 2050 nahezu verdoppeln. Der Klimaschutz bleibt ein wesentlicher potenzieller Treiber für die Aufrechterhaltung und Ausweitung der Nutzung der Kernenergie“, sagte IAEO-Generaldirektor Rafael Mariano Grossi.

Endlagerung nur ein politisches Problem

Im Zusammenhang mit der friedlichen Nutzung der Kernenergie kommt immer das Argument auf, dass die Endlagerung abgebrannter Brennelemente ja nicht gesichert sei.

Fakt ist, dass andere Länder wie beispielsweise Schweden und auch Finnland die Endlagerung gelöst haben und in Schweden ist der Besuch des Endlagers in Forsmark (nördlich von Stockholm an der Ostseeküste) sogar ein touristisches Erlebnis.

Ein Bild, das draußen, Gebäude, Kleidung, Haus enthält. Automatisch generierte Beschreibung

Bild 7..Endlagerung in Schweden: Das Endlager im schwedischen Forsmark ist betriebsbereit und eine Touristen Attraktion. Man meldet sich im Touristbüro an und fährt mit einem Bus 600m runter ins Endlager.

In Deutschland ist und bleibt die Endlagerung überwiegend ein politisches Problem – und das wird noch Jahrzehnte dauern Mitt der Beendigung der Standortuntersuchung Gorleben und einer erneuten Standortauswahl und -erkundung wird die Endlagerung von hochradioaktiven Abfällen in diesem Jahrhundert unwahrscheinlich. Die Bereitstellung eines Endlagers ist und bleibt eine staatliche Verpflichtung.

2001 wurde die Erkundung des vorgesehenen Endlagers Gorleben vom damaligen Umweltminister Jürgen Trittin eingestellt. Im Moratorium, mit dem die Einstellung besiegelt wurde, steht geschrieben „Es liegen keine Anhaltspunkte vor, dass Gorleben nicht geeignet ist.“ Heute wird immer noch nach einem Endlager gesucht – dazu wurde eine sog. Findungskommission gegründet.

Ein Bild, das Kleidung, Fahrzeug, Person, Rad enthält. Automatisch generierte Beschreibung

Bild 8 Die Erkundungsanlage im Salzstock Gorleben wurde 2001 eingestellt

Zurzeit wird auch an den jeweils außer Betrieb genommenen Kernkraftwerken zwischengelagert, obwohl es 3 Zwischenlager in Aahaus, Lubmin und Gorleben gibt. Die dezentralen Zwischenlager müssen rund um das Jahr bewacht werden und das kostet jährlich viele Millionen Euro.

Bild 9 Gorleben war eines der 3 geplanten Zwischenlager. Die Halle mit den Behältern ist nicht voll, weil Behälter mit den abgebrannten Brennelementen kostenaufwendig an den Kernkraftwerken zwischengelagert werden

Resümee

Bis auf weiteres kann weltweit aufgrund zunehmender Bevölkerungszahl die Energieversorgung nur mit Kernkraftwerken gelöst werden. Der deutsche Ausstieg aus dieser Art der Energieerzeugung ist unverantwortlich.

Dipl.-Ing.Klaus Ridder

Bild 10: Dipl.-Ing Klaus Ridder  ist Experte für den Transport gefährlicher Güter.und Chairman der Arbeitsgemeinschaft Energie und Umwelt – die Realisten (www.ageu-die-realisten.com )

 




Die MINT-freie Übernahme von IPCC-Wahrheiten führt zur intellektuellen Selbstverbrennung

Uli Weber

Mit den Kommentaren ist das immer so eine Sache. Einerseits freut sich jeder Autor über ein positives Feedback auf seinen Artikel, andererseits sind manche Kommentare/Kommentatoren einfach nur nervig. Grob betrachtet steuert etwa ein Viertel der Kommentare etwas Konstruktives zu dem betreffenden Artikel bei, sei es direkt zum Thema oder zum allgemeinen Verständnis. Ein weiteres Viertel besteht aus der Fortführung von Diskussionen oder Auseinandersetzungen zwischen Protagonisten unterschiedlicher Lager oder Auffassungen aus vorherigen Kommentarverläufen, die oftmals schwer zu verfolgen sind. Das nächste Viertel der Kommentare besteht im weitesten Sinne aus Selbstdarstellungen der betreffenden Kommentatoren oder deren erneuter Darstellung ihrer unveränderlichen Positionen. So wird beispielsweise andauernd die Benutzung eines völlig unsinnigen Begriffs aus dem hysterischen Klima-Mainstream in Frage gestellt, und zwar ungeachtet der Tatsache, dass ohne die Benutzung eben dieses Begriffs durch Realisten die Erklärungshoheit gegenüber der betrogenen Öffentlichkeit allein bei den Alarmisten verbleibt.

Das letzte Viertel schwankt dann zwischen Impertinenz und Aggression gegen den Autor bzw. dessen Thesen und/oder verbreitet aus Absicht oder Unvermögen falsche Aussagen zum Thema. Die beiden letzteren Gruppen sind nicht trennscharf auseinanderzuhalten, weil sie inhaltlich und in der Form ihrer Äußerungen in einander übergehen. Nachfolgend schildert der Autor mal ganz wertfrei ein konkretes Beispiel. In dem EIKE-Artikel CO2-Versuch zum Treibhauseffekt[1] von A. Agerius heißt es, Zitat:

Existiert ein aus einer Gegenstrahlung hervorgerufener Treibhauseffekt, müsste ein Anstieg des CO2-Gehaltes in der Luft eine messbare Temperaturerhöhung verursachen. Für einen CO2-Anstieg auf über 6.000 ppm entspräche dies Konzentrationen, wie sie vor 550 Millionen Jahren auf der Erde im Cambrium[2] herrschten. Die Globaltemperatur betrug damals in den geologischen Warmzeiten der Erde über 30 °C. Für einen Treibhauseffekt aus Gegenstrahlung würde man in einem Ursache-Wirkungszusammenhang – wie ihn die „settlet theory“ propagiert ‑ bei einem Konzentrationsanstieg von 400 ppm auf über 6.000 ppm einen Temperaturanstieg von 15 °C auf über 30 °C erwarten…“

Die Aussage von Agerius lautet also, dass bei einer Erhöhung des atmosphärischen CO2-Gehaltes um den Faktor 15 der vorgebliche Treibhauseffekt aus einer ominösen Gegenstrahlung die sogenannte „gemessene globale Durchschnittstemperatur“ von 15°C auf über 30°C erhöhen müsste. Diese Aussage wird in der Kommentarfunktion dann von einem Michael Krüger am 4. Januar 2024 um 13:17 Uhr mit Angabe von etwa einem Viertel des von Agerius genannten Temperaturanstiegs unter Berufung auf den IPCC in Frage gestellt, Zitat:

Für einen Treibhauseffekt aus Gegenstrahlung würde man in einem Ursache-Wirkungszusammenhang – wie ihn die „settlet theory“ propagiert ‑ bei einem Konzentrationsanstieg von 400 ppm auf über 6.000 ppm einen Temperaturanstieg von 15 °C auf über 30 °C erwarten [dort als Zitat gekennzeichnet].

Auch das ist nicht richtig. Gemäß IPCC-Formel ergibt sich bei einer Erhöhung des CO2 von 400 auf 6.000 ppm in der gesamten Atmosphäre im neuen Gleichgewicht, ohne Rückkopplungen:

dT = 5.35 x 0.27 x ln (6.000 / 400) = 3,9 °C Erhöhung.

Und das erst nach einer Climate-Respose-Time von bis zu 10 Jahren.“

Die vorstehende Berechnung ist mathematisch durchaus richtig, aber bildet die angegebene Funktion auch wirklich die physikalischen Vorgaben des IPCC für den vorgeblichen Einfluss der CO2-Verdoppelung auf die sogenannte Globaltemperatur korrekt ab?

Schaunmermal:

Auf dem Bildungsserver heißt es über die Klimasensitivität, leicht bearbeitetes Zitat:

Die Klimasensitivität wird in °C angegeben und steht für die Temperaturänderung, die die Erde bei einer Verdoppelung des vorindustriellen CO2-Gehalts erfahren würde. Eine Verdoppelung des CO2-Gehalts der Atmosphäre von 280 ppm vorindustriell auf 560 ppm wird ohne weitere Maßnahmen gegen die Emission von anthropogenen Treibhausgasen um 2060 erwartet. Gegenwärtig liegt die CO2-Konzentration bei 416 ppm. D.h. etwa der halbe Weg zu einer Verdoppelung ist bereits erfolgt.

Dort wird auch der Unterschied zwischen ECS und TCR erklärt, Zitat:

ECS: Die Gleichgewichts-Klimasensitivität (engl. ECS = equilibrium climate sensistivity) meint den Klimazustand, der eintritt, nachdem das Klimasystem sich an die doppelte Menge von CO2 in der Atmosphäre angepasst hat. Das kann hunderte bis über 1000 Jahre dauern, vor allem weil der Austausch der Erwärmung der Atmosphäre mit der des Ozeans (Erwärmung des Ozeans) sehr langsam erfolgt.

TCR: Die transiente Klimasensitivität bezieht sich auf die Erwärmung zum Zeitpunkt der CO2-Verdoppelung. Dabei geht man von einer Zunahme des Kohlendioxids von 1% jährlich aus. Die Erwärmung ist geringer, weil die Verteilung der Wärme zwischen Ozean und Atmosphäre noch keinen Gleichgewichtszustand erreicht hat.“

Die Klimasensitivität KS von CO2 ist also die Temperaturerhöhung in [°C] pro Verdoppelung des atmosphärischen CO2-Gehaltes oder: KS2xCO2 = ΔT [°C]

Und jetzt schauen wir uns noch einmal die Berechnung aus dem oben zitierten Kommentar an:

dT = 5.35 x 0.27 x ln (6.000 / 400) = 3,9 °C Erhöhung

Die Formel für die Klimasensitivität ΔTs von CO2 lautet nach IPCC (2001):

ΔTs = λ x α x ln (C/C0) in [°C]

mit α = 5.35 [W/m²] und λ = 0,5 °C per [W/m²]

Quelle IPCC (2001): Radiative Forcing of Climate Change 2001 – The Scientific Basis

Referenz: S. 354 and Tabelle 6.2

Lassen wir zunächst einmal die unterschiedlichen Werte für Lambda (λ) außen vor, und stürzen wir uns auf das Wesentliche: Es geht hier um einen konstanten Temperaturanstieg pro Verdoppelung des atmosphärischen CO2-Gehaltes. Dazu haben wir einen „Strahlungsantrieb“ Alpha (α) in [W/m²] für eine CO2-Verdoppelung sowie einen Temperaturanstieg Lambda (λ) in [°C / W/m²]. Der Term „ln(C/C0)“ soll jetzt also bei einer Verdoppelung des atmosphärischen CO2 von C0 ppm auf C=2xC0 ppm den erforderlichen Faktor „1“ liefern.

Kann das der Term „ln (C/C0)“ überhaupt?

Nein, denn „ln“ ist der natürliche Logarithmus zur Basis e = 2,718281828459!

Rechnenmermalmit„e“nach: Wir nehmen mal eine Klimasensitivität (α x λ) = 3°C/(2xCO2), ein C0 von 280 ppm und wollen wissen, um wie viel Grad Celsius die Temperatur bei 560 ppm CO2 ansteigt.

ΔTs = 3°C x ln (560 /280) = 3°C x ln2 = 3°C x 0,69314718 = 2,07944154°C

Wir gehen in die Berechnung von Delta T also mit einer Klimasensitivität von 3°C hinein und kommen bei Verdoppelung des atmosphärischen CO2-Gehaltes mit einem Temperaturanstieg von 2°C wieder heraus. Da ist also irgendetwas ganz gewaltig schief gelaufen, denn nach Vorgabe der Klimasensitivität soll die CO2-Verdoppelung ja nun mal 3°C ergeben. Und da es bei dieser Berechnung um ein Vielfaches von „2“ geht, wäre hier wohl auch eher der binäre Logarithmus angebracht, also schaunmermal:

ΔTs = 3°C x log2 (560 /280) = 3°C x log2 (2) = 3°C x 1 = 3°C

Unddannschaunmernochmalweiter: Im oben zitierten Kommentar wird mit α = 5.35 [W/m²] und λ = 0.27 [°C/ W/m²] gerechnet:

ΔT = 5.35 x 0.27 x ln (6.000 / 400) = 3,9 °C

Probe: ΔT = 1,4445°C x ln (15) = 1,4445°C x 2,7080502 = 3,912°C

Rein rechnerisch stimmt die Berechnung aus dem obigen Kommentar mit dem natürlichen Logarithmus also. Allerdings ergibt sich daraus dann eine völlig abwegige Klimasensitivität mit:

KS2xCO2 = 1,001, obwohl deren Eingangswert [5.35 x 0.27°C = 1,4445°C] betragen hatte.

Also rechnen wir mal mit dem binären Logarithmus und den beiden unterschiedlichen Lambdas:

λ = 0,27°C per [W/m²]: ΔT = 5.35 x 0.27 x log2 (6.000 / 400) °C = 1,854 °C x log2 (15) = 7,244°C

λ = 0,5°C per [W/m²]: ΔT = 5.35 x 0.5 x log2 (6.000 / 400) °C = 2,675 °C x log2 (15) = 10,451°C

Aber was ist mit der vom IPCC vorgegebenen Schwankungsbreite für die Klimasensitivität KS2xCO2? Im IPCC AR6, Section 3, Kapitel 3.1.1. Long-term Climate Change auf Seite 68, 1. Absatz heißt es dazu:

Der wahrscheinliche Bereich der Gleichgewichtsklimasensitivität wurde auf 2,5 °C bis 4,0 °C eingeengt (mit einer besten Schätzung von 3,0 °C).“

Bei KS2xCO2 = λ x α = 3,0°C und dem binären Logarithmus liegt die Berechnung etwa 3°C unter den von Agerius angegebenen 15°C. Der hatte für seine Aussage aber gar keine CO2-Klimasensitivität vorgegeben, rechnen wir also mal mit KS2xCO2 = λ x α = 4,0°C:

ΔT = 3,5 x log2 (6.000 / 400) °C = 4,0°C x log2 (15) = 15,63°C

Die ursprüngliche Frage lautete, ob nach der IPCC-Treibhaustheorie ein atmosphärischer CO2-Konzentrationsanstieg von 400 ppm auf über 6.000 ppm eher einen Temperaturanstieg von 15 °C (Agerius) oder 3,9 °C (Krüger) ergeben würde. Nun, mit einer KS2xCO2 = 4,0°C erhalten wir bei einer Berechnung nach der IPCC-Formel mit dem binären Logarithmus tatsächlich einen Temperaturanstieg von über 15°C. Damit wird also die Aussage von Agerius voll bestätigt, während sich mit einer korrekten binären Berechnung auf Grundlage der besten IPCC-Schätzung von KS2xCO2 = 3,0°C mit ΔT = 11,7°C bereits der dreifache Wert des fragwürdigen MINT-freien Ergebnisses aus Krügers Kommentar ergibt.

Triggerwarnung vor einem altweißen Machospruch! In einer längst vergangenen Zeit, als es noch reine Männerjobs gab, pflegte man eine solche fehlerhaft-besserwisserische Selbstdarstellung unter der Rubrik „Keine Haare am Sack, aber mit’m Arsch vordrängeln“ zu subsummieren. Aber im wokesten Habockistan aller Zeiten ixen wir diesen altweißen Machospruch mal ganz schnell wieder aus: Xxxxx Xxxxx xx Xxxx, xxxx xxx’x Xxxxx xxxxxxxxxxx!

Schlussbemerkung des Autors: Man kann, wie vorstehend nachgewiesen, mit den Angaben vom IPCC rechnen, man kann diese Angaben auch korrigieren und man erhält sogar irgendwelche rechnerischen Ergebnisse. Der Autor betont aber nachdrücklich, dass er weder an die jungfräuliche Geburt der Klimakirche glaubt, also dass CO2 aus sich selbst heraus Energie erzeugen kann, noch an die Erwärmung unserer Erde durch eine klimareligiöse Segnung ihrer eigenen Abstrahlung. Ersteres verletzt den Ersten Hauptsatz der Thermodynamik und Letzteres den Zweiten.

PS. @ Peter Puschner, Prof. Dr.-Ing. am 3. Januar 2024 um 12:51 Uhr: Mit Ihren Vorgaben wäre dieser Artikel nicht möglich gewesen, Zitat:

Alle Berechnungen mit Globaltemperaturen sind falsch, besonders, wenn man dann auch noch das S-B-Gesetz bemüht. Für das „Falsche“ gibt es mehrere Gründe:

Eine Globaltemperatur ist eine Erfindung, sie beruht nicht auf anerkannter Physik. Sie dient nur dazu, das komplexe Klima-Geschehen an einer einzigen Zahl mit Stellen hinter dem Komma festzumachen und erklären zu wollen.“

Machen Sie was draus, das ein Umdenken der breiten Mehrheit bewirken kann!

 




Das Märchen vom Öko-Kollaps auf der Osterinsel

Die einstigen Bewohner der Osterinsel sollen die natürlichen Ressourcen übernutzt haben, was angeblich zu einem ökologischen und kulturellen Niedergang führte. Die populäre Erzählung hat nur einen Haken: Sie stimmt nicht. Das sollte auch den Klimawarnern zu denken geben.

Von Peter Panther

Wer hat sich nicht schon diese Erzählung über die Osterinsel, ein kleines Eiland inmitten des Pazifiks, anhören müssen? Die Geschichte wird meist mit erhobenem Zeigefinger vorgetragen: Die Ureinwohner der Insel hätten die Ressourcen der Insel übernutzt. Sie hätten Bäume gerodet, bis keine mehr da gewesen seien. Die Überbevölkerung und die Abholzung der Wälder hätten zu einem Kollaps von Natur und Kultur geführt.

Erosion habe die einst fruchtbaren Böden weggespült. Die Vegetation sei verarmt. Den Bewohnern sei die Nahrung ausgegangen, was in Verteilungskriege und einen starken Bevölkerungsrückgang gemündet habe. Die Menschen seien sogar zu Kannibalismus gezwungen gewesen sein. Als der Niederländer Jacob Roggeveen  die Osterinsel 1722 entdeckt hat, sei er auf einen kläglichen Rest an verarmten und hungernden Bewohnern gestossen.

Die Botschaft dieses Narrativs ist klar: «Seht her, was auf der Osterinsel passiert ist, wird bald auch der ganzen Welt widerfahren, wenn die Menschheit nicht endlich zu einer nachhaltigen Lebensweise findet.» Die Vorboten des weltweiten Öko-Kollapses seien bereits absehbar – etwa in Form des Klimawandels.

«Paradies auf Erden»

Es gibt nur ein Problem mit der erwähnten Erzählung über die Osterinsel: Sie stimmt nicht. Nachdem schon in den vergangenen 20 Jahren Forschungsresultate publik geworden sind, die dem gängigen Katastrophen-Narrativ widersprechen, zeigt der niederländische Historiker und Journalist Rutger Bregman in seinem Buch «Im Grunde gut» eindrücklich auf, was in Sachen Osterinsel Wahrheit und was Fiktion ist.

Die Hauptaussage von Bregmans Buches ist, dass die Menschen von Natur aus viel bessere Absichten haben und mehr Kooperationssinn zeigen, als ihnen die meisten Anthropologen und Psychologen andichten wollen. Ein Kapitel des Werkes dreht sich um das Schicksal der Menschen auf der entlegenen Pazifikinsel.

Da ist zuerst einmal das Logbuch des Osterinsel-Entdeckers Roggeveen, gemäss dem er und seine Crew keinesfalls auf eine zerfallene Gesellschaft gestossen sind. Die Osterinsulaner werden vom Niederländer als sympathische Gestalten mit muskulösen Körpern beschrieben. Sie bettelten nicht etwa um Essen, sondern boten es im Gegenteil an. Ihr Land soll «ausnehmend fruchtbar» gewesen sein. Roggeveen beschrieb die Insel als «Paradies auf Erden».

Gemäss dem gängigen Narrativ sei Roggeveen auf einige wenige Tausend Bewohner gestossen, während die Insel einst rund 15’000 Einwohner gezählt habe. Auch das ist falsch, wie Autor Bregman aufdeckt. Wissenschaftliche Schätzungen seien nämlich zum Schluss gekommen, dass die Bevölkerung gar nie 15’000 Köpfe umfasst haben könne. «Die Tausenden von Osterinsulanern, die sich gegenseitig gefoltert, getötet und gefressen haben sollen, verfügen über ein ausgezeichnetes Alibi. Es hat sie nie gegeben.»

Die Ressourcen für einen absurden Kult geopfert?

Die Untersuchung eines amerikanischen Anthropologen an 469 vorgefundenen Schädeln sei zudem zum Schluss gekommen, dass davon höchstens zwei Spuren aufgewiesen hätten, die von Kriegshandlungen stammen könnten. Die Kriege um die angeblich stark dezimierten Ressourcen habe es schlicht nicht gegeben.

Als die Niederländer im 18. Jahrhundert die Osterinsel entdeckten, stiessen sie auf Hunderte von übermannshohen Skulpturen mit grossen Gesichtern aus Stein – bezeichnet als «Moai»-Skulpturen. Sie sind noch heute das Wahrzeichen der Insel. Gleichzeitig fehlten auf der Osterinsel tatsächlich die Wälder. Die gängige Erklärung lautet, dass die Inselbewohner solange Palmbäume gefällt hätten, um die Moais zu transportieren bzw. mithilfe der Baumstämme rollend zu bewegen, bis keine mehr da gewesen seien. Die Ureinwohner hätten somit ihre Lebensgrundlage für einen absurden Kult geopfert – genau gleich, so die Mahnung, wie die Weltbevölkerung heute die Ökoressourcen für Autos, Flugzeuge und anderen Luxus übernutze.

Doch auch das kann nicht stimmen – schon rein zahlenmässig nicht: Wie Rutger Bregman aufzeigt, haben die Bewohner für den Transport ihrer Skulpturen insgesamt etwa 15’000 Baumstämme benötigt – während die Wälder aber einst Millionen an Bäumen umfasst haben müssen.

Die Polynesische Ratte killte die Wälder

Die Wahrheit ist, dass die Wälder nicht von den Osterinsulanern dahingerafft wurde, sondern von der Polynesischen Ratte. Diese hatten die Ureinwohner anlässlich der ersten Besiedlung der Insel um das Jahr 1200 eingeschleppt. Die Ratte hat sich millionenfach vermehrt und alle Palmensamen aufgefressen, was zur Entwaldung führte.

Die Rattenplage war zwar auch eine ökologische Katastrophe, aber eine ganz andere als die Erzählung von der Übernutzung der Wälder weismachen will. Jedenfalls hätten sich die Bewohner trotz dem Schwund der Vegetation ausreichend ernähren können, führt Autor Bregman weiter aus – nicht zuletzt dank eines ausgeprägten Erfindergeists, was die Nahrungsproduktion angeht.

Rutger Bregman fasst seine Erkenntnisse zur Geschichte der Osterinsel in knappen Worten zusammen: «Es gab keinen Krieg, keine Hungersnot, keinen Kannibalismus.» Das Verschwinden der Wälder habe die Bewohner zudem «nicht ärmer, sondern produktiver» gemacht. Auch seien die Insulaner «viel klüger und sozialer eingestellt, als die Wissenschaftler lange Zeit geglaubt haben». Die wahre Geschichte der Osterinsel sei eine Geschichte von Widerstandsfähigkeit und Einfallsreichtum. «Es ist keine Botschaft einer Katastrophe, es ist eine Quelle der Hoffnung.»

«Die Klimabewegung braucht einen neuen Realismus»

Der Autor und Historiker wagt eine Verallgemeinerung seiner Erkenntnisse auf die ganze Menschheit: «Ich bin skeptisch, wenn gesagt wird, dass wir zutiefst egoistisch oder, schlimmer noch, eine Plage seien.» Er sei auch skeptisch, «wenn unser Untergang als unvermeidlich hingestellt wird». Denn: «Zu viele Umweltschützer unterschätzen die Wehrhaftigkeit des Menschen.» Bregman spricht zudem die Klimabewegung an: Diese benötige «einen neuen Realismus».

Den Ureinwohnern der Osterinsel ging es schliesslich aber doch noch schlecht – aber erst lange nachdem ihr Eiland von Seefahrern entdeckt worden war: Im 19. Jahrhundert wurden grosse Teile der einheimischen Bevölkerung weggebracht und versklavt, was die meisten dieser Menschen nicht überlebten. Zudem wurden wegen der Kontakte zur Aussenwelt die Pocken auf die Insel eingeschleppt, was zu einer Epidemie führte. Im Jahr 1877 zählte die Osterinsel gerade noch 110 Urbewohner.

 




In Dubai priorisierte der Kanzler die Umstellung der Stahlindustrie, eines der energieschwächsten Sektoren, auf die H₂-Technologie – aber wo sollen die erforderlichen 6 000 Tonnen Wasserstoff pro Tag dargestellt werden?

Dr.-Ing. Erhard Beppler

Fazit

Eine nun priorisierte Umstellung der Stahlherstellung auf die H₂-Technologie über Direktreduktionsverfahren und anschließendem Einschmelzen des Eisenschwammes im Elektroofen (z.Z. 55% der Stahlerzeugung via Hochofen und 45% über Schrotteinschmelzen) erfordert beträchtliche Energiemengen.
Für die Reduktion der Eisenoxide über die Direktreduktion ist eine Anhebung der Stromleistung von z.Z. etwa 65 GW um 9,6 GW bei einem H₂-Verbrauch von 5135 Tonnen Wasserstoff/Tag erforderlich, für das Einschmelzen im Elektroofen (Eisenschwamm und Schrott) um weitere 4,5 GW bei einem H₂-Bedarf für die klimaneutrale Stromerzeugung von 880 t H₂/Tag (Summe: 6015 t H₂/Tag).
Nach Habecks „Osterpaket“ vom 12.05 2021 und einer für 2030 beschlossenen installierten Leistung für Wind von 115 GW und Solar von 215 GW sind 65 GW darstellbar, jedoch ohne die Lösung des Stromspeicherproblems durch die Stromerzeugungsschwankungen über Wind und Sonne. Über die in 2030 angestrebte H₂-Technologie zur Lösung des Stromspeicherproblems ist dann eine zusätzliche Leistung von 39 GW auf 104 GW erforderlich bei einem H₂-Bedarf von 18 000t/Tag.
Wird die Umstellung der Stahlindustrie bis 2030 erwogen, gilt für die Stromleistung in Summe: 104 + 14 = 118 GW bei einem H₂-Bedarf von 18 700 + 6000 = 24 700 t H₂/Tag (Für die Elektrolyse sind dann 222 000 Tonnen reinstes Wasser/Tag erforderlich).
Darin sind nicht enthalten die für 2030 geplante Umstellung auf 15 Mio. E-Autos sowie die Umstellung auf Wärmepumpen mit einem Leitungsbedarf von 33 + 35 = 68 GW sowie die dafür erforderlichen H₂-Mengen von 13 500 t H₂/Tag.
Das Wasserstoff-Kernnetz soll bis 2030 10 GW liefern (2760 t H₂/Tag), nach Fertigstellung 30 GW (8270 t H₂/Tag).
Das ist gemessen am Soll in 2030 von 24 700 + 13 500 = 38 000 t H₂/Tag hoffnungslos wenig.
60% des H₂- Bedarfs soll importiert werden. Entsprechende Schiffe, Anlagen, etc. müssten gebaut werden.
Diese hoffnungslose Umstellung auf die H₂-Technologie erinnert an die Hoffnungslosigkeit der Aussagefähigkeit der Klimamodelle des IPCC.

1.Einleitung

In Dubai sagte der Kanzler: „Deutschland hat sein Ziel, mindestens 6 Milliarden Euro pro Jahr für die internationale Klimafinanzierung bereitzustellen, schon im Jahr 2022 übertroffen“.
Außerdem war in Dubai vom Kanzler zu vernehmen, dass die Regeln für die Stahl- und Zementsektoren Priorität hätten im Sinne einer Anwendung der H2-Technologie.
Bis 2032 soll ein 9700 km langes Wasserstoff-Kernnetz mit Häfen, Speichern, Kraftwerken und wichtigen Industriezentren deutschlandweit miteinander verbunden werden. Dabei sollen etwa 60% vorhandene Erdgasleitungen genutzt werden, was aber durch die Versprödung der Leitungen durch Wasserstoff mit erheblichen Kosten verbunden sein wird, zudem ist H2 hochgradig explosiv. Die H2-Autobahn soll für 20 Milliarden Euro zu haben sein. (Habeck)
Fertiggestellt soll das Wasserstoff- Kernnetz jährlich 270 TWh (etwa 30 GW) transportieren können, im Jahr 2030 etwa 95-130 TWh, entsprechend etwa 10 GW.
Der Energietechnikkonzern Siemens-Energy hat am 08.11.2023 seine erste Fertigungsstraße zur Serienproduktion von Wasserstoffelektrolyseuren im Giga-Maßstab für 30 Mio. Euro eröffnet. Die Produktionskapazität der Straße liegt bei einer Elektrolyse-Leistung von 1 GW und soll bis 2025 auf 3 GW steigen.
Um flexibel auf ein schwankendes Stromangebot über Wind und Sonne reagieren zu können, soll die Elektrolyse mit Hilfe von Protonenaustauschmembranen (PEM-Proton Exchange Membrane) durchgeführt werden.
Thyssenkrupp Nucera setzt auf alkalische Elektrolyse, das bei konstantem Stromangebot die höchsten Wirkungsgrade erzielt.
Bei diesem Stand der Vorbereitungen zur H2-Technologie und den vagen Vorstellungen für den H2-Verbrauch soll im Folgenden zunächst die vom Kanzler priorisierte komplette Umstellung der Stahlherstellung auf Wasserstoff detailliert diskutiert werden.

Die Dekarbonisierung der Stahlherstellung durch Anwendung des Direktreduktionsverfahrens über die Reduktion der Eisemoxide mit Wasserstoff setzt sich verfahrenstechnisch aus folgenden Verfahrensstufen zusammen:
Stufe 1: Reduktion der Eisenoxide im Schachtofen über Wasserstoff (aus didaktischen Gründen wird diese Stufe hier vorgezogen)
Stufe 2: Energiebereitstellung für die Reduktion der Eisenoxide im Schachtofen durch die Stromerzeugung ausschließlich über Wind und Sonne bei dem erforderlichen H2-Bedarf nach Stufe 1
Stufe 3: Energiebereitstellung für das Einschmelzen des Eisenschwammes im Elektroofen über die Stromerzeugung ausschließlich über Wind und Sone mit dem dafür erforderlichen H2-Bedarf
Stufe 4: Energiebereitstellung für das Einschmelzen des Schrottes im Elektroofen über die Stromerzeugung ausschließlich über Wind und Sonne für den dafür erforderlichen H2-Bedarf

2. Hier die nicht unbeträchtlichen Grundlagen für die Berechnung des erforderlichen H2-Bedarfes in den Stufen 1-4

 

Stufe 1: Wird für den Erzeinsatz ausschließlich hämatitisches Erz unterstellt, so gilt für den H2-Verbrauch nach dem Direktreduktionsverfahren folgende stöchiometrische Betrachtungsweise:
FeO3 (160) + 3 H2 (6) = 2 Fe (112) + 3 H2O (54)
Die Zahlen in Klammern entsprechen den Atomgewichten für die Mengenbetrachtungen.
Stufe 2: Die Berechnung des Energiebedarfes für die Reduktion der Eisenoxide im Schachtofen ausschließlich über die Wind- und Sonnenenergie und die Umwandlung in elektrische Energie für die H2-Erzeugung:
Durch die enorme Schwankungsbreite der Wind- und Solarstromerzeugung (Bild 1, Beispiel für eine niedrige Stromleistung in Deutschland) muss der über dem Mittelwert anfallende Strom unmittelbar in Wasserstoff für eine Speicherung umgesetzt werden, was mit erhöhtem Energiebedarf verknüpft ist.


Bild 1: Schematische Darstellung der durchzuführenden Stromspeicherung

Bei einer erforderlichen Leistung von 37 GW oberhalb des Mittelwertes nach Gleichung 2 oder 888 GWh/Tag und einem Anteil nur für die H2-Elektrolyse von 54% ((Tafel 1) errechnet sich dann für das Beispiel in Bild 1 bei einem Energieverbrauch für die H2-Elektrolyse von 47 KWh/kg H2 ein H2-Verbrauch von 10 200 t H2/Tag.
Allgemein gilt: H2-Menge/Tag = GW aus Wind und Sonne oberhalb Mittelwert x 24×1000 X 0,54/47 (Gleichung 4) (1)
Stufe 3 und 4 (1):
Im Falle des Einschmelzens von Eisenschwamm und Schrott müssen die Verfahrensschritte

3.1 Wasserstoffbedarf für die Eisenoxidreduktion beim Direktreduktionsverfahren (Stufe 1)

Die Rohstahlerzeugung in Deutschland liegt bei etwa 42,4 Mio.t/a, davon etwa 45% über den Einsatz von Schrott (19,9 Mio.t).
Damit verbleiben 23,3 Mio. t für die Herstellung von Roheisen im Hochofen (der Anteil über das Direktreduktionsverfahren ist z.Z. gering mit 0,6 Mio. t/a).
Der hier für den Gleichgewichtszustand errechnete H2-Verbrauch wird natürlich in einem durchströmten Schachtofen nicht erreicht werden können. Versuche mit der Reduktion mit reinem Wasserstoff im Schachtofen sind nicht bekannt.

3.2 Energiebedarf für die Stromerzeugung ausschließlich über Wind und Sonne bei dem gegebenen H2-Bedarf nach Stufe 1 für die Reduktion der Eisenoxide im Schachtofen (Stufe 2)

 

4. Energiebedarf für das Einschmelzen des Eisenschwammes im Elektroofen über die Stromerzeugung ausschließlich über Wind und Sonne mit dem erforderlichen H2-Bedarf (Stufe 3)

 

In der letzten Beschlussfassung der Bundesregierung vom 06.04.2022 wurde Habecks „Osterpaket“ vom 12.05.2021 mit der Vorgabe des Ausstieges aus der Kohle erweitert mit dem Ziel eines schnelleren Ausbaues der alternativen Energien bei der Stromerzeugung auf eine installierte Leistung für Wind auf 115 GW (davon 30 GW Wind offshore) und Solar auf 215 GW bis 2030. (3)
Mit dieser Installation können in 2030 64 GW Strom erzeugt werden ohne einen erforderlichen Ausgleich der Stromerzeugungsschwankungen über Wind und Sonne.
Ohne die Stromerzeugung über Kern-, Kohle- und Gaskraftwerke hilft dann nur die Umstellung auf die H2-Technologie im Sinne der Klimaneutralität mit einer Anhebung des Energiebedarfes für die H2-Technologie von 64 GW auf 94 GW (für Wind+Solar+Wasserstoff) einschließlich der üblichen Bioenergie auf 104 GW bei einem Wasserstoffbedarf von 18 700 t H2/Tag. (1)
Da inzwischen die Umstellung auf die H2-Technologie bis 2030 nicht mehr als realistisch angesehen wird, müssten entsprechende Gaskraftwerke gebaut werden. (3)
Sollte der Kanzler mit der Priorisierung die Umstellung der Stahlerzeugung auf die H2-Technologie als Termin 2030 gemeint haben, erhöhen sich dann die H2-Mengen auf 18 700 + 6 000 = 24 700 t H2/Tag (9 Mio. t H2/a), die Stromleistung auf 104 + 14 = 118 GW.

 

5. Weitere bis 2030 vorgesehene Maßnahmen der Bundesregierung

 

An vagen Zukunftsplänen fehlt es der Bundesregierung nicht. Bis 2030 soll nämlich auch noch eine Umstellung auf 15 Mio. E-Autos (von 45 Mio.) und der Ausbau der Wärmepumpen erfolgen bei gleichzeitiger Umstellung auf die H2-Technologie mit einem zusätzlichen Leistungsaufwand von 33 + 35 = 68 GW und einem zusätzlichen H2-Bedarf von 13 500 t H2/Tag. (1)
Bis 2030 wären dann 24 700 + 13 500 = 38 000 t H2/Tag erforderlich entsprechend einer täglichen Wassermenge reinster Art von 342 000 t H2O/Tag.
Von der Bundesregierung werden bis 2030 10 GW H2 zur Verfügung gestellt entsprechend 2760 t H2/Tag (Gleichung 4), gerade einmal 7%.
Die Stromleistung müsste dann auf 104 + 14 (Stahl) + 68 (E-Autos und Wärmepumpen) = 186 GW angehoben werden – hoffnungslos für das vorhandene Stromnetz.
Die z.Z. für 2030 vorgesehenen 115 GW für Wind und 215 für Solar müssten dann entsprechend angehoben werden.
Aber schon jetzt bei den z.Z. installierten etwa 70 GW Solaranlagen übersteigen die Solarstromspitzen um die Mittagszeit im Sommer mit 40 GW teilweise den Strombedarf – also wohin mit den Solarstromspitzen schon in 2030 mit 215 GW? (5)
Auf der Basis des Primärenergieverbrauches (Endenergie einschließlich Wirkungsgrad und Verluste) errechnen sich ausgehend von den Energiezahlen 2021 für die Umstellung aller Sektoren auf die H2-Technologie einschließlich Biomasse eine Stromleistung zur Einstellung der Klimaneutralität von 600 GW, davon für die H2-Technologie 260 GW. (4)
Im Übrigen stellt sich die Frage, wie bei dem Stand der z.Z. vorhandenen Elektrolyse- Anlagen (siehe „Einleitung“) in 6 Jahren eine H2-Menge von 38 000 t H2/Tag bzw. 342 000 t H2O/Tag dargestellt werden können.
Eine Kostenbetrachtung kann im Rahmen dieses Berichtes nicht vorgenommen werden. Mehr als bedenklich ist jedoch, dass 1 Tonne Wasserstoff z.Z. etwa 7 000 Euro kostet, der Kohlenstoff im Koks für die Hochofenroute nur wenige Hundert Euro/Tonne Koks.
Der Kanzler will Milliarden in Afrika für die H2-Herstellung investieren ohne Rücksicht auf die Risiken im Bereich der Rechtssicherheit und der politischen Stabilität.
Letztlich müssten diese H2-Mengen – so sie denn hergestellt werden können – nach Deutschland verschifft werden, entweder über flüssiges Wasserstoff (-253°C), was mit hohen Energieverlusten verknüpft wäre. Schiffe für den Flüssigtransport mit hohem Schiffsvolumen müssten flugs gebaut werden, schließlich wiegt 1 m3 Flüssigwasserstoff 70 Kg, 1m3 Wasser 1000 Kg. Bliebe nur der Transport über Ammoniak.
Nun sollen 60% der erforderlichen H2-Mengen in Afrika dargestellt werden.
Es sei hier nur an das bedauerliche Ende des Gemeinschaftsunternehmens „Desertec“ mit Marokko für die Stromerzeugung erinnert.

6. Zur Aussagefähigkeit der Klimamodelle des IPCC

Nach der Aussage des IPCC ist der CO2-Anstieg der Atmosphäre und der damit verknüpfte Temperaturanstieg seit dem Beginn der Industrialisierung ausschließlich auf die vom Menschen ausgestoßenen CO2 Emissionen zurückzuführen und die Erde soll verglühen, wenn der anthropogene CO2-Ausstoß nicht auf null reduziert wird.
Diese Aussagen beruhen nicht auf Fakten, sondern sind das Ergebnis ausschließlich von Modellbetrachtungen einer „politischen Wissenschaft“ (im Sprachgebrauch des IPCC: „Summeries for Policy-Makers“), deren Interesse nicht objektiv wissenschaftlichen Zielen folgt.
Dennoch: dieses Mantra schwebt seit den 1980er Jahren vor allem über Deutschland und wird von den Parteien und den Medien ahnungslos hochgehalten. Groß ist der finanzielle Nutzen einer Reihe von Befürwortern dieses Mantras auf Kosten der Entwicklung der Energiepreise wie der gesamten deutschen Wirtschaft.
Schon mit einfachsten Stoffbilanzen lässt sich jedoch nachweisen, dass die genannten Modellbetrachtungen einfachsten Bilanzen nicht genügen:
1.Nach Bild 2 gilt stoffbilanzmäßig:

Bild 2: Anstieg der anthropogenen wie der gemessenen CO2-Gehalte

Im Jahre 1970 liegt die Zunahme des menschlich verursachten weltweiten CO2-Gehaltes der Atmosphäre gerade einmal bei 1 ppm, die Zunahme der natürlichen Quellen (Vulkane, abnehmende Löslichkeit des CO2-Gehaltes der Meere mit steigender Temperatur, etc.) bei 24 ppm gemessen an 1870, in 2020 liegen die anthropogene Werte bei 5 ppm, die natürlichen Quellen bei 115 ppm. Wie sollen diese anthropogene CO2-Spuren das Klima beeinflussen?
2. Nach 2010 ist der Eintrag der weltweiten anthropogenen CO2-Emissionen praktisch gleichgeblieben (Bild 3).

Bild 3: Entwicklung der anthropogenen CO2-Emissionen 1960 bis 2021

Dennoch steigen die gemessenen CO2-Gehalte nach Bild 2 nach 2010 unverändert weiter an.
3. In der Corona- Zeit (2020) fielen die menschlich verursachten CO2-Emissionen deutlich ab (Bild 3). Dieser sichtbare Abfall kann bei den gemessenen CO2-Gehalten der Atmosphäre nicht gefunden werden (Bild 2) – ein weiterer Beweis für die Marginalität der anthropogenen CO2-Emissionen und stellt erneut die Aussagefähigkeit der Modellbetrachtungen des IPCC in Frage.
4. Untersuchungen zur Entwicklung des gemessenen Temperaturverlaufes der Atmosphäre in Deutschland zeigen erneut, dass ein mit steigenden CO2-Gehalten der Atmosphäre zu erwartender Temperaturanstieg der Atmosphäre nicht gefunden werden kann (Bild 4). (6)

Bild 4: Temperaturen in Deutschland 1943 bis 2022

5. Im Übrigen gibt es keinen faktischen Beweis für den Einfluss von 0,042 % (420 ppm) CO2 in der Atmosphäre auf einen Treibhauseffekt, geschweige denn von anthropogenen Zugaben in der Höhe von 5 ppm.
6. Der weltweite anthropogene CO2-Anteil in der Atmosphäre liegt in 2020 bei 5 ppm (0,000 5%), der von Deutschland bei nicht messbaren 0.09 ppm (0,000 009%).
Dafür gibt Deutschland unerträgliche Milliarden- Beträge aus mit der Folge nicht bezahlbarer Energiekosten – die Industrien wandern in Länder mit bezahlbaren Energien ab.
Im 15.-17. Jahrhundert wurden Hexen für den Temperaturabfall und die damit ausbleibende Ernte verantwortlich gemacht und hingerichtet.
Selbst Pabst Innozenz VIII erlies eine Enzyklika , in der die Verfolgung und Ausrottung von wetterwendischen Hexen festgeschrieben wurde. (7)
Erst um 1850 stiegen die Temperaturen wieder an, just diesen Zeitraum wählte das IPCC als Basis für den heutigen Temperaturanstieg. Noch in der Mitte des 19.Jahrhunderts war der Hunger durch die niedrigen Temperaturen in Deutschland weit verbreitet.

7. Quellen

1. Beppler, E.: „Wieviel Wasserstoff erfordert die Klimaneutralität in 2045 auf dem Wege über 2030 und welcher Energieverbrauch ist damit verknüpft“, EIKE, 30.06.2023
2. „Energiewende in der Industrie“, Branchensteckbrief der Eisen- und Stahlindustrie
3. Beppler, E. : „Eine technische Analyse von Habecks „Osterpaket“ zum schnellen Ökostromausbau“, EIKE, 04.06.2022
4. Beppler, E.: „Ein hoffnungsloser Aufwand für die Klimaneutralität in 2045 für eine nicht messbare CO2-Konzentration (Teil I)“; EIKE, 12.09.2022
5. Beppler, E.: „Der vorgesehene Ausbau der alternativen Energien zur Absenkung der Energiepreise“, EIKE, 21.10.2023
6. Baritz, M., St. Kämpfe, J. Kowatsch: „Die Daten des Deutschen Wetterdienstes widerlegen den CO2-Treibhauseffekt als alleinigen Temperaturtreiber“, EIKE,21.11.2023
7. Wrightstone, G.: „Hexenjagden korrelieren mit Klima“, EIKE, 21.10.2023