EIKE sagt danke! Ein Jahresrückblick

Sehr geehrte Freunde und Unterstützer unseres Institutes,

das Jahr 2025 war erneut ein klima- und energiepolitisch aufregendes Jahr: Zum Entsetzen der Bundesregierung bezeichnete der amerikanische Präsident Donald Trump das bei uns immer noch herrschende Narrativ von der globalen Erwärmung vor der versammelten UNO als Lüge und Betrug. Die COP30-Konferenz in Brasilien endete mit einem Fiasko für die Klimahysteriker, weil sich kein einziges Land von Bedeutung außerhalb der EU noch zu den Zielen des Pariser Klimaabkommens bekennen wollte. Dazu kam noch, daß sich das berüchtigte Potsdam Institut für Klimafolgenforschung gezwungen sah, eine Studie zu den angeblich riesigen ökonomischen Schäden durch den Klimawandel, 2024 erschienen in der bekannten Zeitschrift Nature, vor einigen Tagen aufgrund massiver Mängel zurückzuziehen – ein in der Wissenschaftswelt geradezu spektakulärer Vorgang. Wir gehörten von Anfang an zu den schärfsten Kritikern dieses Machwerks und haben auf unserer Webseite umfassend darüber berichtet.

Zurücklehnen konnten und können wir uns deshalb aber noch nicht. Ein Schwerpunkt unserer Arbeit lag 2025 auf der Zusammenarbeit mit den vielen neu entstandenen alternativen Medien wie Kontrafunk, Tichys Einblick oder Weltwoche (um nur einige zu nennen). Zum anderen freue ich mich sehr über die neuen wissenschaftlichen Arbeiten aus unserem Kreis, darunter die Studie von Svensmark, H., Enghoff, M. B., Svensmark, J., Thaler, I. & Shaviv, N. J., 2024: Supersaturation and Critical Size of Cloud Condensation Nuclei in Marine Stratus Clouds, in: Geophysical Research Letters 51, 9, 9 p., e2024GL108140. Diese und zwei weitere Fachaufsätze Prof. Svensmarks, die derzeit den Review-Prozeß durchlaufen, sind nicht zuletzt durch Zuschüsse unseres Instituts – Spenden von EIKE-Unterstützern wie Ihnen – ermöglicht worden. Auf diese Veröffentlichungen in namhaften Fachzeitschriften können wir deshalb alle sehr stolz sein. Weitere Fachaufsätze entstehen gerade. Allerdings hat man ihm seitens seiner Universität wegen seiner nichtgenehmen Ansichten sein gesamtes Budget gestrichen und damit deren Fertigstellung wesentlich verzögert.

Ein weiterer Schwerpunkt waren und sind unsere Vorträge und Informationsstände bei diversen Konferenzen, Vereinen und Parteien. Dabei ist besonders vor allem die Hallenser Büchermesse im November zu nennen, wo unser Informationsstand von den mehr als 6000 Besuchern regelrecht überrannt wurde. Allerdings bin ich deswegen persönlich auf einer „Feindesliste“ der Antifa gelandet und die Polizei hat mich daher Anfang November in Kenntnis gesetzt, wie ich mich als gefährdeter „Mandatsträger“ vor der „politisch motivierten Kriminalität“ schützen kann.

2025 neigt sich zwar dem Ende zu, doch planen wir bereits das nächste Jahr. Unsere Konferenz, die dieses Jahr leider nicht stattfinden konnte, weil unsere finanziellen Mittel dafür nicht ausreichten und sich unsere niederländischen Partner kurzfristig von dem Projekt zurückgezogen hatten, soll jetzt in der zweiten Märzhälfte in Lübeck stattfinden. Dazu gibt es seit vorletzter Woche eine verbindliche Vorabsprache mit dem Betreiber eines Tagungszentrums. Drücken Sie uns bitte die Daumen, daß alles funktioniert, denn wir haben uns jetzt entschieden, die gesamte Veranstaltung wieder komplett selbst zu stemmen. Nach einigen negativen Erfahrungen in diesem Jahr scheint das der erfolgversprechendste Weg zu sein.

Damit wir unseren Weg erfolgreich weiter gehen, unsere Konferenz ein Erfolg wird und wir Henrik Svensmark weiterhin helfen können, bitte ich Sie auch in diesem Jahr wieder ganz herzlich, uns mit Ihrer Spende zu helfen. Scheuen Sie sich bitte nicht, uns bei Fragen zu kontaktieren. Auch kleinste Summen bringen uns voran. Leider sind unsere Aktivitäten weiterhin nicht als gemeinnützig anerkannt. Unsere Klage gegen das Finanzamt haben wir im Sommer nach drei Jahren Wartezeit verloren – man hat uns aber seitens des Gerichts in der Urteilsbegründung einen Weg aufgezeigt, um die Gemeinnützigkeit zurückzuerlangen. In diesem Prozeß befinden wir uns jetzt. Es wird aber sicher noch eine Weile dauern, ehe unsere Bemühungen von Erfolg gekrönt sind.

Eine der Pointen des Gerichtsurteils will ich Ihnen aber nicht vorenthalten: EIKE wurde die Gemeinnützigkeit nämlich aberkannt, weil wir uns satzungswidrig (!) für Umweltschutz eingesetzt haben, d.h. auf der Webseite finden sich ein paar wenige Texte, in denen sich Autoren dafür aussprechen, zwischen Klima- und Umweltschutz streng zu unterscheiden. Dagegen ist von dem Vorwurf der Unwissenschaftlichkeit, der uns in einem wirren Gutachten von einem IPCC-Autor gemacht wurde, nichts übriggeblieben. Leider lohnt es sich nicht, dieses Urteil anzufechten. Sie können sich sicherlich denken, warum…

Bei all denen, die in den letzten Tagen bereits an uns gespendet haben, bedanke ich mich schon jetzt.

Mit freundlichen Grüßen und den besten Wünschen für die kommenden Feiertage,

Ihr/Euer

Dr. Holger Thuß

 




Der Beginn der De-Industrialisierung Deutschlands – Angela Merkel, Fukushima und die Ethik-Kommission

Von Günter Keil

Es gibt wohl keine Ereignisse, die die Menschen weltweit dermaßen erschreckt haben, wie die beiden Kernkraft-Unglücke in Tschernobyl und Fukushima. Für die Medien war es eine großartige Chance, ihre Rolle als Berichterstatter von Katastrophen und auch als Mahner und Warner voll auszuspielen.

Die Kalamität für die sogenannten Normalbürger beruht allerdings auf dem Zeitfaktor. Bei besonders verheerenden Unfällen dauern die notwendigen Untersuchungen über die Ursachen, den Ablauf und die Folgen etliche Wochen, in denen von den Medien scheinbar schon alles gesagt worden ist.

Aber es sind keinesfalls nur die Medien, die für das Warten auf die Erklärungen keine Zeit haben, wenn sie doch spontan reagieren müssen. Der Politik geht es genauso. Politiker sehen gerade bei spektakulären Katastrophen die Chance, einige längst geplante Maßnahmen einzuleiten, was sich am Ende in neuen Gesetzen niederschlägt. Die Zusammensetzung des Parlaments garantiert leider, dass in fast allen derartigen Fällen der notwendige Sachverstand fehlt und diese Gesetze passieren. Zwei drastische Beispiele für Reaktorkatastrophen in Kernkraftwerken, von denen später weitgehende Konsequenzen für die deutsche Politik und dann auch für die Industrie ausgingen.

TSCHERNOBYL UND FUKUSHIMA

Diese zwei Reaktorunfälle verbreiteten sofort erhebliche Angst vor weiteren derartigen Ereignissen. Über die genauen Ursachen und den Ablauf dieser Unfälle erfuhr man fast nichts. Beim Unfall in Tschernobyl in der damaligen Sowjetunion wurde von den staatlichen Stellen zunächst nichts berichtet, bis Westwind eine gefährliche Menge radioaktiven Materials nach Westeuropa brachte. Es gab zunächst nur Berichte über ergriffene Maßnahmen. Der Grund kam natürlich heraus: Es handelte sich um eine höchst gefährliche Reaktortechnik, die niemals außerhalb der Sowjetunion bzw. Russlands eingesetzt wurde. Dieser Reaktortyp Druckröhrenreaktor hat die höchst gefährliche Eigenschaft, bei einer Temperaturerhöhung im Kern seine Kernspaltungs-Aktivität zu erhöhen – und zwar sehr schnell. Wenn es in einem solchen Fall nicht gelingt, sofort eine sehr starke Kühlung zu realisieren, „geht der Reaktor durch“ und explodiert. Diesen Reaktortyp betrieb die Sowjetunion zur Produktion atomaren Waffenmaterials. Als man nicht noch mehr davon benötigte, wurden die RMBK zur Stromerzeugung eingesetzt. Ein unbegreiflicher Fehler. Ein geradezu unglaublicher Fall menschlichen Versagens bei der Bedienungsmannschaft kam bei dem Unfall in Tschernobyl noch hinzu: Man versuchte ohne jeden konkreten Anlass einen Test. Die Kühlung wurde abgeschaltet und wenn der Reaktor sich dann aufheizte, wollte man die Kühlung einfach wieder einschalten. So begann es. Die Kühlung wurde ausgeschaltet, aber der Reaktor war schneller und die Wiedereinschaltung der Kühlung war vergebens. Der RMBK explodierte und das Gebäude flog in die Luft. Das radioaktive Material wurde herausgeschleudert. Zu dieser Reaktorkatastrophe gab es zunächst keine Informationen über die Geschehnisse und die unmittelbaren Folgen, jedoch transportierten Westwinde Material nach Westeuropa, wo Alarm ausgelöst wurde.

Zum Unfall in Fukushima: Bei dem Unfall von Fukushima im Januar 2011 lag die Ursache in der verantwortungslosen Nichtbeachtung der notwendigen Vorkehrungen, die angesichts der Lage des Kernkraftwerks an einer regelmäßig von Erd- und Seebeben bedrohten Meeresküste eine Selbstverständlichkeit sein mussten. Das gilt auch für übrige normale Sicherheitsmaßnahmen, die fehlten. In etwa 30-jährigem Rhythmus erfolgen an Japans Küste gefürchtete sogenannte Tsunamis, das sind riesige, von einem Seebeben unter dem Meeresgrund ausgelöste Flutwellen, die Tod und Verwüstung bringen. Es sei denn, man errichtet direkt an der Küste vor zu schützenden Anlagen ausreichend hohe Sperrmauern. Wie hoch sie sein mussten, war seit Jahrhunderten vollkommen klar. Der Bericht der japanischen Regierungskommission schildert den Ablauf der Katastrophe: Das Erdbeben vom 11. März 2011 zerstörte die zum Kraftwerk führende Freileitung, über die es den Strom für seinen Betrieb bezog – speziell für die Kühlpumpen des Reaktors. Das war kein Problem, denn für diesen Fall gab es Notstrom-Diesel, die dann die Kühlwasserpumpen antreiben konnten. Als dann sowohl das schwere Erdbeben und zugleich die durchaus nicht ungewöhnliche 14 Meter hohe Tsunami-Flutwelle kam, überspülte sie problemlos die mit 5,7 Metern viel zu niedrige Sperrmauer und ebenfalls die höhere Position des Kraftwerks, die 4,3 m betrug, und donnerte dann gegen das Untergeschoß des Kraftwerks, in dem die Diesel aufgestellt waren. Was dann kam, war die Folge eines weiteren Versagens bei der Konstruktion der Anlage: Die zum Meer zeigende Tür zum Dieselraum bestand leider aus einem billigen, schwachen Rolltor, das von der Welle leicht durchbrochen wurde. Dann „soffen die Diesel ab.“ Eine Notkühlung gab es nun auch nicht mehr. Das Unglück nahm seinen Lauf, obwohl das Kraftwerk abgeschaltet war – das war aber leider nur kurz vor dem Tsunami erfolgt. Deshalb gab es im Reaktor noch eine erhebliche sog. Restwärme, die das nicht mehr fließende Kühlwasser so hoch erhitzte, dass es in seine chemischen Bestandteile gespalten wurde – in Wasserstoff- und Sauerstoff-Gas. Bekannt unter dem Namen Knallgas. Was auch immer dieses Gasgemisch zündete – es explodierte und riss die Reaktorwandung auf. Wasserdampf aber auch radioaktives Material wurden ausgestoßen. Dessen Menge betrug etwa ein Fünftel der Tschernobyl-Emission. Im Kraftwerk Fukushima-Daiichi gab es keinen einzigen Todesfall; die Meldungen in den Medien sprachen von über tausend Toten. Aber das waren die Opfer der Flutwelle in dem gesamten Areal, das von der Tsunami-Welle erreicht wurde.

Auch hier war menschliches Versagen ein Grund, der bereits in der Konstruktion des Reaktors lag: Die Gefahr einer Knallgasexplosion bei längerem Ausfall der Kühlung ist seit Langem bekannt und alle Reaktoren besitzen daher im Inneren eine Rekombinationseinrichtung, die aus dem gefährlichen Wasserstoff-Sauerstoff-Gemisch „auf kaltem Wege“ Wasser erzeugt. Dieser ältere Reaktor hatte diese jedoch nicht; man hätte sie selbstverständlich längst nachrüsten müssen. Ein weiterer Konstruktionsfehler war das Unterlassen einer Nachrüstung der zu schwachen Druckentlastungsleitungen bei der offenbar veralteten US-Konstruktion. Weiterer Fehler: Kein Einbau von Filtern, die das Entweichen von radioaktiven Partikeln nach außen verhindern. Deutsche Reaktoren besitzen solche Filter, die 99,9 Prozent zurückhalten. Schließlich gab es noch zwei weitere Fehler, die man staatlichen Stellen anlasten muss: Bereits bei dem Bau der viel zu niedrigen Sperrmauer als auch bei der abschließenden Zulassungsprüfung der Anlage hätten sie einschreiten müssen. Vier dieser 7 Fehler – Sperrmauer, Tor zu den Notstromdieseln, Knallgasexplosion sowie unzureichende Schlussabnahme vor Indienststellung – haben ausgereicht.

In Deutschland war dieser Unfall der Anlass für die Auslösung einer Panik in den Medien – und trotz fehlender Informationen auch Anlass für sofortige Maßnahmen der Regierung Merkel gegen die gesamte Kernkraftnutzung. Dass es in Deutschland keine schweren Erdbeben und somit auch keine Tsunamis an der Küste gibt, ist Geologen wohl bekannt. Von diesem Unfall kann man aus den geschilderten Gründen keine Gründe für eine allgemein geltende Unsicherheit von kerntechnischen Anlagen ableiten.

DIE ATOMAUSSTIEGE DEUTSCHLANDS

Es waren zwei. Manche werden sich an den Ausstieg Nr.1 erinnern: Er begann unter der ersten rot-grünen Regierung mit der „Vereinbarung zwischen der Bundesregierung und den Energieversorgungsunternehmen vom 14. Juni 2000“, die „Atomkonsens“ genannt wurde. Als erstes Kernkraftwerk wurde am 14.11.2003 das Kernkraftwerk Stade abgeschaltet. Am 11.5.2005 das KKW Obrigheim. Für alle weiteren Kernkraftwerke gab es eine Begrenzung der restlichen Stromerzeugungsmengen.

Unter dem Kabinett Merkel II wurde 2010 sogar das Atomgesetz durch eine Laufzeitverlängerung geändert: Die 7 vor 1980 in Betrieb gegangenen Reaktoren bekamen weitere 8 Betriebsjahre. Die anderen 10 erhielten 14 zusätzliche Betriebsjahre.

Frau Angela Merkel war also – leider nur bis zum 3.März 2011 (Fukushima!) – die große Förderin der Kernkraft. Es war politisch sehr nützlich für sie.

DEUTSCHLAND STIEG ALS VORBILD TOTAL AUS Fukushima aber war offenbar ein willkommener Anlass für Angela Merkel, schon länger geplante Maßnahmen endlich beschließen zu können. Denn unmittelbar nach dem Unfall beschloss die Kanzlerin den Atomausstieg Nr.2. Dass die zerstörerische Ursache des Ereignisses ein Erdbeben mitsamt folgendem Tsunami war, das war das Einzige, was sie wissen konnte. Dass es Opfer bei der hektischen Evakuierung der nahe am Unfallort lebenden Bevölkerung gab, wusste man ebenfalls. Dass es in unserem Land keine schweren Erdbeben und an der Ostseeküste keine Tsunamis gibt, weiß man eigentlich auch. Aber in Fukushima war es ein Kernkraftwerk, das explodiert war. Und das war ein Ereignis, das Frau Merkel endlich nutzen konnte.

Die Öffentlichkeit war alarmiert und irgendetwas musste geschehen. Angela Merkel lieferte sofort, und zwar bereits 3 Tage nach dem Unfall ein 3-Monate geltendes „Atom-Moratorium“ – also die Stilllegung – für die 7 ältesten Kernkraftwerke. Es sollte eine Vorsichtsmaßnahme darstellen, die jedoch keinen richtigen Sinn machte. Tatsächlich war das aber die Vorbereitung eines viel stärkeren Schlags gegen die Kernkraftwerke. Bereits am 22. März setzte sie eine Ethik-Kommission fest, „die die technischen Risiken der Kernenergie“, die von der Reaktorsicherheits-Kommission RSK festzustellen waren, „ethisch und gesellschaftlich bewerten sollte“, um dann „die Risiken eines früheren Atomausstiegs und die Nebenwirkungen anderer Energieformen abzuwägen“.

Weiter bestimmte sie: Die Ethik-Kommission sollte „eine weitergehende Betrachtungsweise des Umgangs mit Risiken ermöglichen als eine rein technische Sicherheitsprüfung“. Damit war bereits klar erkennbar, dass der Ethik-Kommission die entscheidende Rolle bei der Festlegung der künftigen Energiepolitik zukommen sollte, weshalb die Kanzlerin auch deren personelle Zusammensetzung bestimmte: Sie sollte das gewünschte Ergebnis in Form eines Gutachtens abliefern, dessen Kernforderungen wie gewünscht ausfallen mussten. Störende „technische“ Kenntnisse waren unerwünscht. Es durfte daher kein einziger Energietechnik- oder Energiewirtschafts-Experte Kommissionsmitglied sein. So sah die Liste der Mitglieder dann auch aus: Ehemalige Politiker, Vertreter von Umweltverbänden, sogar zwei Bischöfe.

Die von der Kanzlerin zusammengestellte Aufgabenbeschreibung dieser Kommission wäre selbstverständlich eine große Aufgabe für eine weitgehend mit Fachleuten besetztes Gremium gewesen: Kerntechniker für die Bewertung der Vorteile und der Risiken, Experten für die zahlreichen Sicherheitsfunktionen und für deren Weiterentwicklung, für Umweltauswirkungen, Kosten, Beeinflussung des Stromnetzes, Behandlung der radioaktiven Abfälle sowie bereits eingeleitete Neuentwicklungen. Damit hätte sich dann eine Ethik-Kommission befassen können, die allerdings keine Ruhestandspolitiker gebraucht hätte. Abgeordnete der CDU/CSU kritisierten das Fehlen der aktiven Fachpolitiker der Regierungsparteien in der Ethik-Kommission. Sie gründeten eine eigene „Arbeitsgruppe zur Zukunft der Kernenergie“. Man hat niemals mehr von ihnen etwas gehört.

Kurz vor dem 1. Treffen hat Angela Merkel den Kommissionsmitgliedern noch „weitere Erwartungen“ mitgeteilt: Sie sollten „eine in sich schlüssige Energiewende (sic) zu Neuen Energien erkunden“. Das war die Aufforderung, nichts Geringeres als ein fachlich anspruchsvolles, energietechnische und ökonomische Aspekte beurteilendes Gutachten abzuliefern.

Damit ließ sie endlich die Katze aus dem Sack: Ihr Atomausstieg richtete sich im Grunde gar nicht primär gegen die Kernenergienutzung. Der Unfall von Fukushima war endlich ein perfekt nutzbares Ereignis, um den Beginn ihrer Energiewende hin zu Erneuerbaren Energien einleiten zu können. Das Ergebnis musste zwangsläufig die Abschaffung der bisherigen Energie-Industrie sein, die sonst diese 180-Grad-Wende bekämpfen würde

Damit ernannte sie ihre Ethik-Kommission de facto zur sowohl fachlichen als auch „überfachlichen“ endgültigen Entscheidungskommission für die Energiepolitik. Mit diesem nahezu religiösen Auftrag konnte die sachverständige Reaktorsicherheitskommission natürlich nicht mehr mithalten.

Nach der Ausschaltung der externen Fachleute und der Fachpolitiker der Regierungsparteien übertrug die Kanzlerin damit faktisch den Medien die Bestätigung der Richtigkeit ihres Vorgehens. Auf die Frage in einem Interview, weshalb sie denn die Kernkraft abschaffen wollte, gab sie – wohl nicht gut überlegt, aber zutreffend – die ehrliche Antwort gab: „Wegen der Leute.“ Also wegen der durch die Medien in Panik versetzten Bürger – und nicht etwa wegen der schrecklichen Risiken der Atomtechnik. Der damalige Umwelt-Bundesminister Norbert Röttgen verstieg sich zur Bestätigung dieser Kanzlerin-Erkenntnis zu der Aussage „dass die Sicherheit eben nicht ausrechenbar ist, sondern am Ende eine gesellschaftlich-politische Bewertung ist“. Was sich die RSK, die immer nur prüft, rechnet, abschätzt, vorschlägt und warnt, mal hinter die Ohren schreiben sollte.

Frau Merkel hatte aber mit ihrer Ethik-Kommission vorausschauend noch ein zweites Problem gelöst: Ihre eigene Bundestags-Fraktion, in der aktive Fachpolitiker tätig waren und die vermutlich ihre einsame Entscheidung kritisiert oder sogar auch verhindert hätten. Und deren Vertreter sehr konsequent nicht in die Vorbereitung und Auswahl sowie die Aufgabenstellung der Ethik-Kommission einbezogen wurden. Aber ihr Widerstand kam zu spät.

In ihren Abschlussbericht vom 30. Mai empfahl die Kommission den Ausstieg aus der Kernenergie-Nutzung und forderte, das innerhalb eines Jahrzehnts abzuschließen. Wie es dann weiterging, ist bekannt. Aber wie sieht denn heute unsere Situation hinsichtlich einer zuverlässigen und kostengünstigen Stromversorgung aus? Darüber wurde bis heute schon sehr viel geschrieben; sehr informativ und frei von jeglicher fachfremden Beeinflussung sind die Berichte der Bundesnetzagentur (BNA). Gleiches gilt für den kürzlich erschienenen Systemstabilitäts-Bericht der vier Übertragungsnetz-Betreiber sowie eine Studie von McKinsey über die sog. Wärmewende.

IDEOLOGISCH ABZULEHNENDE KRAFTWERKE SIND ZU SPRENGEN

Einen besonderen Umgang praktiziert Deutschland mit stillgelegten Kraftwerken, die zu den ungeliebten fossilen und nuklearen Anlagen gehören: Sie müssen vernichtet werden, damit sie niemals wieder angeschaltet werden können. Dabei geht es um die Zerstörung von durchaus wieder nutzbaren Kraftwerken, die Baukosten von mehreren Milliarden Euro hatten. Der Atomausstieg führte aber nicht etwa nur zu einer Stilllegung der Kraftwerke, sondern in deutscher Gründlichkeit zur Zerstörung der Anlagen. Die langsame Vernichtung ist der Rückbau, der lange dauert und extrem kostspielig ist. Die Sprengung ist billiger und zugleich eine publikumswirksame Demonstration. Dirk Maxeiner hat dazu festgestellt, dass die Kraftwerkssprengungen jetzt als große Happenings inszeniert werden. Kaum jemand von den begeisterten Zuschauern wird wohl begriffen haben, dass seine mittlerweile sehr hohen Stromrechnungen etwas damit zu tun haben könnten.

– Die erste Sprengung betraf das Kernkraftwerk Philippsburg im Mai 2020. Im Juni 2015 war es stillgelegt worden. – Das Steinkohlekraftwerk Ensdorf wurde am 28.6.2024 „erfolgreich gesprengt“. – Das Steinkohlekraftwerk Ibbenbühren war 2021 vorzeitig stillgelegt worden, nachdem RWE viele Millionen Euro in dessen Modernisierung investiert hatte. – Europas modernstes Kohlekraftwerk Moorburg in Hamburg (1.600 Megawatt) hat eine besondere Geschichte: Es wurde beim zweiten Versuch am 1. Mai 2025 durch Sprengung des Kesselhauses zerstört. Sein 140 m hohe Doppelkamin war bereits im November des Vorjahres gesprengt worden. Seine Bauzeit betrug 8 Jahre; Kosten insgesamt 3 Mrd. Euro. Mitte 2014 wurde es in einem feierlichen Akt vom damaligen Hamburger Bürgermeister Olaf Scholz Betrieb genommen. Nach seinen Worten „Ein Ergebnis der Ingenieurskunst. Es läuft vermutlich 30 bis 40 Jahre.“ Am Ende waren es nicht einmal 6 Jahre. Olaf Scholz wurde später Bundeskanzler. Den Rückbau-Beginn des Ingenieurkunstwerks im Jahr 2023 erlebte er in seiner Amtszeit. Er kommentierte ihn nicht. Auch nicht die Sprengung des Doppelkamins, die im November 2024 erfolgte. Und die endgültige Sprengung am 1.Mai 2025 ebenfalls nicht.

Der Hamburger Senat beschloss am 13.6 2024, bereits nach dem begonnenen Rückbau des Kraftwerks, an dieser Stelle am Hafen ein Wasserstoff-Erzeugungszentrum, d.h. eine riesige Elektrolyseanlage zu bauen, die den neuhochdeutschen Namen „Green Hydrogen Hub“ erhielt. Das Thema Wasserstoff wird weiter unten behandelt.

– Gundremmingen und zwei nicht ganz zusammenpassende Stellungnamen aus Bayern: Die Stilllegung des Kernkraftwerks erfolgte 4 Jahre vor der Sprengung seiner zwei Kühltürme am 25.Oktober 2025 – es war buchstäblich ein Volksfest. Der Bau der Kühltürme begann zwischen 1977 und 1980. Block B war 2017 abgeschaltet worden; Block C 2021. Das Kraftwerk hat einst ein Viertel von Bayerns Stromversorgung geliefert. Ein reaktiviertes Kraftwerk Gundremmingen hätte nach Feststellung von Fachleuten bis zum Jahre 2050 Strom liefern können.

Bayerns Ministerpräsident Söder kommentierte diese Vernichtungsaktion mit dem Satz: „Bayern kann Energiewende“. Unmittelbar danach forderte er eine Rückkehr zur Nuklearenergie. In der WELT AM SONNTAG kritisierte er (Zitat): „Wir drücken die Energiepreise mit staatlichem Geld, anstatt auf günstige Erzeugung zu setzen“. Er forderte (Zitat): „Es geht nicht darum, dass wie früher große Meiler hochgezogen werden. Ich spreche von kleinen, smarten Reaktoren, wie sie es in Kanada bereits gibt.“ Und weiter: “Diese Meiler brauchen nicht solche Subventionen, wie das früher notwendig war.“ Frage: Ist Gundremmingen mit Hilfe von Subventionen gebaut worden? Und war dessen Strom zu teuer? Söder schließlich: “Wir kaufen Atomstrom aus Frankreich und Tschechien, lehnen aber Kernkraft bei uns ab.“

Der Koalitionspartner SPD und auch die Grünen, die mehr Windkraft in Bayern forderten, sowie die Linke lehnten das entschieden ab. Der stärkste Zuspruch sei von der AfD mit ihrer „Arbeitsgemeinschaft Kernkraft“ gekommen.

– Kernkraftwerk Biblis: Die ersten zwei der Kühltürme seien bereits verschwunden“. Nummer 3 und 4 sollten noch im Dezember d.J. zerstört werden. (Bericht „Mannheimer Morgen“ vom 2.12.25). Noch ist es nicht erfolgt.

DIE ALTERNATIVE: STILLLEGEN UND ABWARTEN

Ein anderer Umgang mit stillgelegten Kraftwerken kann in den USA beobachtet werden: Es gibt mehrere aus wirtschaftlichen Gründen stillgelegte Kernkraftwerke. Sie stehen in der Landschaft und stören nicht. Vielleicht kann man sie noch einmal brauchen? Genau das ist jetzt der Fall: Die sehr schnell wachsende KI-Industrie hat einen extremen Strombedarf, der die regionalen Verteilungsnetze an ihre Grenzen bringt. Man baut dafür bereits neue Gaskraftwerke in der Nähe dieser Anlagen. Und nun sind die ruhenden Kernkraftwerke wieder gefragt: Sie werden reaktiviert. De-Mothballing, also Entmotten ist der Name dafür. So kommen die neuen, großen Verbraucher günstig an eine kurzfristig verfügbare, sichere Stromversorgung.

WASSERSTOFF – DIE NÄCHSTE RETTUNG DER ENERGIEWENDE

  • Es ist schon nicht mehr verwunderlich, wenn alte Techniken plötzlich wiederentdeckt werden, um die Energiewende doch noch zu einem Erfolg zu machen. Wasserstoff war ja schon einmal die große Hoffnung, als die Zeppeline den Luftverkehr über den Atlantik eröffneten. Die Katastrophe in Lakehurst bei New York beendete diese gefährliche Technik und Helium war und ist viel zu teuer. Auch als Treibstoff für Fahrzeuge bleibt Wasserstoff wohl chancenlos, wenn sowohl Kosten als auch das Risiko realistisch eingeschätzt werden. Die Versuche einiger Akteure, allen voran selbstverständlich staatliche Stellen, die ja kein eigenes Geld investieren müssten, gewisse Pilotprojekte zu starten, sind nur die fatale Folge der Planwirtschaft, die leider Deutschlands Energiewirtschaft ruiniert. Bereits die anscheinend nicht überall bekannte Tatsache, dass Wasserstoff nicht in der Natur vorkommt, sondern mit Hilfe der beträchtlich Strom verbrauchenden Elektrolyse oder aus Methan hergestellt werden muss, beendet alle Spekulationen für eine bedeutende zusätzliche Anwendung. Wo es keine Alternativen gibt – z.B. in der chemischen Industrie – da wird es verwendet.

Der Bundesrechnungshof erklärte in einem jetzt vorgelegten Sonderbericht das gesamte Superprojekt „Nationale Wasserstoffstrategie“ als offiziell gescheitert. Seine Bewertung: „Trotz milliardenschwerer Förderungen verfehlt die Bundesregierung ihre ambitionierten Ziele beim Hochlauf der Wasserstoffwirtschaft. Es gefährde die Treibstoff Zukunftsfähigkeit Deutschlands.“ Der Bund hatte bereits seit 2024 7 Mrd. Steuergeld zur Verfügung gestellt; weitere Milliarden sind bereits zugesagt worden. Aus den Hamburger Plänen wird wohl nichts werden.

JETZT ALSO ERDGAS

Nun sollen doch fossile Erdgas-Kraftwerke in großer Zahl gebaut werden? Und zwar zur Rettung der Energiewende. Das kann man nicht mehr verstehen, muss man auch nicht. Es ist einfach die deutsche Energie-Planwirtschaft, über die die Washington Post geschrieben hat: „Es ist die dümmste Energiepolitik der Welt.

Ganz aktuell ist der oben erwähnte von der Regierung geplante Bau von 20 neuen Gaskraftwerken, die vor allem die Schwankungen der Leistung der wetterabhängigen Windkraftanlagen, die keine sogenannte Grundlast liefern können, ausgleichen sollen. Ebenso wie Solarstrom-Paneele – sie liefern des Nachts nichts und tagsüber ein Verhalten wie die Windturbinen. Aber Gaskraftwerke können es ebenfalls nicht. Es sind sogenannte Spitzenkraftwerke, die nur kurzzeitig bei Versorgungslücken einspringen. Ihr Strom ist teuer – und im Grundlastbetrieb würden die Turbinen nicht lange leben. Es wurden sogar noch höhere Zahlen als 20 genannt: Der Bericht zur Versorgungssicherheit Strom“ der BNA (s.o.) vom 3.9.2025 teilt mit, dass bis 2025 ein tatsächlicher Bedarf an regelbaren Kraftwerken(s.o.) – d.h. nur Gas- und Kohlekraftwerke – von bis zu 35,5 Gigawatt (also 35500 Megawatt) besteht. Falls man nicht auf die Reaktivierung von Kohlekraftwerken setzen will, sondern das mit neuen Gaskraftwerken vorhat, wäre das nicht nur vollkommen unbezahlbar und weit jenseits jeder Realität. Es gibt zudem ernsthafte Zweifel darüber, ob man vielleicht nur 5 Gaskraftwerke bauen könnte: Der Zeitaufwand für Lieferzeit und Bau eines Gaskraftwerks beträgt nach Ansicht von Experten 40 Monate. Große Gasturbinen werden nur von vier Herstellern produziert: General Electric Vernova, Siemens Energy, Mitsubishi und Harbin. Diese Hersteller haben in der Vergangenheit ihre Produktionskapazität wegen des schlechten Geschäfts verringert. Siemens hatte sogar über einen Verkauf dieser Sparte nachgedacht. Jetzt wird wieder aufgebaut. Die größte Produktionskapazität wird für die Belieferung Asiens eingesetzt; bei GE sind es 39% allein für China. Dort haben die Gaskraftwerke insgesamt bereits eine Kapazität von 151 Gigawatt (GW), 46 GW sind im Bau. Der Vergleich für den Bestand heute: Asien hat z.Zt. 120 GW; die Americas 24 GW und die EU 14 GW. Der Produktions-„Flaschenhals“ sind die Turbinenschaufeln. Es gibt nur wenige Hersteller. Neben den Turbinenschaufeln könnte auch die Versorgung mit großen Schmiedestücken schwierig werden, wird Thomas Thiemann von Siemens Energy zitiert. Als Ergebnis aller dieser Schwierigkeiten und angesichts des Riesenbedarfs Asiens wird über eine lange Warteschlange für die Auftragsgeber der neuen Gaskraftwerke berichtet. Man wird sehen, wie es Deutschland bei diesem Vorhaben ergeht.

Die „neuen“ Techniken Elektromobil und Wärmepumpe, die alles andere als „grün“ sind, werden den Stromverbrauch deutlich erhöhen, was mehr Stromimporte benötigt. Frankreich exportiert viel Strom nach Deutschland, aber es importiert ihn auch von uns. Die enorm ausgebaute Kernkraft hat es den Franzosen erlaubt, billig elektrisch zu heizen. Hier bei uns unvorstellbar. Aber früher hat Frankreich im Winter noch Strom aus Deutschland importiert. Unsere Stromversorgung ist jedoch bereits ausreichend geschädigt worden – die weltweit höchsten Stromkosten und die bereits begonnene Auswanderung stromintensiver Industrieunternehmen beweisen es. Werden wir unseren Nachbarn im Winter beliefern können? Oder werden es vielmehr gerade wir sein, die dauerhaft auf Atomstrom aus Frankreich angewiesen sind?

HYPES

Es ist Neuhochdeutsch. „Hypes“ sind neue Methoden und Techniken, die geradezu wunderbar sind. Wenn das kommt, kann nichts mehr schiefgehen. Bei näherem Betrachten stellen die stets vorhandenen Kritiker fest, dass die Hypes zunächst einmal altbekannt und nur modisch kostümiert sind. Und schon vor längerer Zeit wegen aller möglichen Nachteile bis auf einige sogenannte Nischenanwendungen ad acta gelegt worden sind. Die Energiewende besteht weitgehend auf diesen „neuen“ Hoffnungsträgern: Windgeneratoren – die leider von der Witterung und auch noch von der Physik schwer benachteiligt sind; Photovoltaikanlagen („Solarstrom“), die (mit Ausnahme von Satelliten) für nahezu jegliche zuverlässige Stromversorgung nicht zu gebrauchen sind und für die es ebenfalls keine bezahlbaren Großspeicher gibt; neuerdings die Luftwärmepumpen, die leider in recht kalten Wintern einfach aus der fehlenden Wärmeenergie der eisigen Außenluft keine Heizungswärme gewinnen und sie in die Wohnung „pumpen“ können. Und die dann zwar heizen, aber zu 100 Prozent elektrisch. Die gleichfalls ganz neuen Batterie-Großspeicher für Wind- und Solarstrom beruhen auf keineswegs neuen Batterietechniken, sondern auf alten und nach wie vor teuren. Man ist dabei, sie zu bauen – ihr Geheimnis: An den gespeicherten Kilowattstunden kann man wegen des irrsinnigen Strompreises trotzdem gut verdienen. Auch wenn sie in ca. 2 Stunden leer sind.

Es ist sogar nicht mehr undenkbar, dass wir alle noch halbwegs brauchbaren Kohlekraftwerke aus ihrem Ruhestand holen, um wenigstens im Winter die Situation von etwa 1965 zu erreichen. Das wäre übrigens eine sehr gute Nachricht für unsere letzte Hoffnung: Die Lausitz. Deren Tagebau. Zurück zum Brikett. Das ist auch für Kaminöfen bestens geeignet.

An dem gelungenen Trick mit der Ethik-Kommission werden wir voraussichtlich noch eine Zeitlang zu knabbern haben.

 

 

 




Offener Brief an Ministerpräsident Dr. Mario Voigt zur Windkraft in Thüringen

an:

Thüringer Staatskanzlei: poststelle@tsk.thueringen.de

Mit der Bitte um Weitergabe an die Landtagsfraktionen durch die Poststelle

Persönlich an Dr. Frank Augsten (BSW): info@bsw-thl.de

Presse: chefredaktion@thueringer-allgemeine.de; chefredaktion@otz.de; Kontakt@pix1.de;

chefredaktion@tlz.deinfo@verlag-frank.de

Sehr geehrter Herr Ministerpräsident Dr. Mario Voigt,

am 04.12.2025 demonstrieren Vertreter der Thüringer Bürgerinitiativen vor dem Thüringer Landtag gegen den weiteren Ausbau der Windkraft im Wald. 2021 hatten Sie dazu als Fraktionsvorsitzender der CDU eine Rede gehalten. Ihre damalige Position gegen Windkraft im Wald, welche vielen Menschen gefiel, enttäuscht diese nach Ihrer jähen Wendung heute bitter. MP Mario Voigt – Was verabredet ist, gilt?

https://vera-lengsfeld.de/2025/12/03/mp-mario-voigt-was-verabredet-ist-gilt/

Die Demonstranten und Bürger in den betroffenen Regionen stehen mit dem Rücken zur Wand. Ihre Heimat und die Natur würden durch den Bau von Windindustrie-anlagen heute und für kommende Generationen unwiederbringlich zerstört. Deshalb kochten die Emotionen hoch, vor allem, wenn Politiker in ihren Reden sagen, was jeder aus dem Fernsehen und der Zeitung kennt. Besonders Ihr Minister Thilo Kummer (BSW) und Ihr Energiepolitische Sprechers Thomas Gottweiß (CDU) ernteten viel Missfallen. Herr Gottweiß begründete die Wendung damit, das Bundesverfassungsgericht habe auf Antrag von Waldbesitzern für die Windkraft im Wald entschieden. Jeder weiß inzwischen, wie viel Geld die Grundstückseigentümer pro Windrad und Jahr an Pacht erhalten. Und jeder weiß auch, welche Partei eine Vielzahl von Bürgermeistern, Landräten, Ministerpräsidenten, den Bundeskanzler, den Vorsitzenden des Bundesverfassungsgerichts sowie die, von Angela Merkel und Emmanuel Macron, auf den Thron der EU gehobene Ursula von der Leyen, stellt. Nur Mut, sehr geehrter Herr Ministerpräsident, menschengemachte Gesetzte kann man ändern, Naturgesetze nicht. Diese werden stets obsiegen. Wenngleich dies mit sehr viel Leid und Schmerz verbunden ist. Die Geschichte kennt leider zahlreiche Beispiele.

Wahnsinn. Der linke Fahrgast behauptet, dass 70 % der Abgeordneten Beteiligung an Windkraftanlagen hätten, und bis zu 10 Jahren nach Förderung ohne Anschluss kann man kassieren!

Einen Lichtblick gab es aber noch bei den Reden. Der Fraktionsvorsitzende (BSW) Dr. Frank Augsten bekannte, dass er sich vor dem Klimawandel fürchtet, und brachte zum Ausdruck, er wünsche sich einen sachlichen Dialog mit den Anti-Windkraft-Demonstranten. Diesen Dialog kann Herr Dr. Augsten gerne haben. Ich erkläre mich für den technisch/physikalischen Teil und zum Thema Klimawandel gern dazu bereit. Ich warte auf Terminvorschläge zur Besprechung, auf der man die Agenda einer sachbezogenen Diskussion festlegen sollte und freue mich darauf.

Ich möchte Ihnen hier, angesichts der Sorgen und Nöte der Betroffenen, ein paar technisch/physikalischer Sachverhalte zur Windkraft nahebringen. Ich tue dies mit größtmöglicher Sorgfalt in den Quellen und Abschätzungen aber auch mit Offenheit meiner Aussagen. Verbunden mit der Aufforderung, den Ausbau der Windkraft in Thüringen sofort zu beenden. Wenngleich meine Worte, dem Strom der politisch-medialen Vorgaben entgegenstehen mögen, könnten sie ein Zeitzeugnis der Physik sein, an dem sich Politik und Medien nicht nur heute, sondern auch in Zukunft messen lassen mögen.

Windkraft als tragende Säule der Energieversorgung eines Industrielandes ist ein Kampf gegen die Physik

Die Gründe dafür sind so klar und einfach nachvollziehbar, dass jeder sie verstehen sollte. Windstrom kann nur generiert werden, wenn der Wind weht. Die vom Wind dargebotene Leistung nimmt mit der dritten Potenz der Windgeschwindigkeit ab. Dies führt dazu, dass sich die mittlere elektrische Leistung pro Quadratmeter Rotorfläche (Leistungsdichte) lediglich im Bereich einer klassischen Glühlampe (40 – 100 W) bewegt, die man permanent betreiben könnte, falls man den Strom denn speichern könnte. Was aber angesichts der schieren Dimension nicht geht. Auch folgt daraus, dass all dies Milliarden Quadratmeter Rotorfläche und hunderttausende Windräder bedeutet. Um dies zu erkennen, bedarf es Zahlen, nicht Narrativen oder Meinungen. Der Grund für die geringe Leistungsdichte der Windkraft ist die geringe Dichte der Luft. Daran kann keine Konstruktion eines noch so großen Windrades etwas ändern. Hinzu kommt, dass es praktisch unmöglich ist, Strom großtechnisch in den für eine Energiewende erforderlichen Dimensionen zu speichern. Dagegen sprechen alle realistisch betrachteten Zahlen. Jede volatile Einspeisung zwischen de facto Null und Maximalleistung destabilisiert das Stromnetz und erfordert 100%-Backup-Kraftwerke zur Bereitstellung von Regelleistung. Dies bedeutet einen zweiten Kraftwerkspark, der zu den gleichen Fixkosten permanent durchlaufen könnte, aber wegen der Vorrangeinspeisung von Windstrom nur zeitweise gebraucht wird. Aktuell sind dies konventionelle Kraftwerke, deren geplante Stilllegung fortschreitet. Das Bestreben diese, koste es was es wolle, durch Batteriespeicher zu ersetzten, wird angesichts der schieren Dimension scheitern. Hinzu kommen Probleme der Regel-Elektronik, die nicht 1:1 die Eigenschaften der Sinus-Spannung von Großkraftwerken mit deren rotierenden Massen nachbilden kann.

Der gesetzlich vorgeschriebene Einbau von sogernannten intelligenten Stromzählern (Smartmeter) zur individuellen Begrenzung des Bezugs von Strom pro Haushalt stellt die gesamte Praxis der Stromversorgung seit über 100 Jahren auf den Kopf und bestimmt nicht nur den Tagesablauf jedes Menschen entspr. der Wetterlage. Dies eröffnet auch ein Bonus-Malus-System nach Vorbild eines Sozial-Kredit-Systems wie in China, aus dem es kein Entrinnen geben kann. Ist es schade oder bezeichnend, dass wird davon aus der Presse nichts erfahren? Obgleich es heißt, Smartmeter seien unersetzlich für die Energiewende. Doch warum eigentlich?

Windkraft entzieht der Atmosphäre kinetische Energie, ergo Windgeschwindigkeit, die für andere Windräder nicht mehr zur Verfügung steht. Windkraft kannibalisiert sich damit selbst. Die der Atmosphäre maximal entnehmbare Leistung beträgt lt. einer Veröffentlichung eines Max-Planck-Instituts in Jena nur 0,5 – 2,0 W/m2 Landschaftsfläche. Dies stellt nicht nur die Windkraftplanung für Thüringen komplett zur Disposition, sondern auch die des Bundes. Dass durch Windkraft zwangsläufig gewaltige Eingriffe in das atmosphärische System der Erde erfolgen, wird durch immer mehr Studien und Fakten offensichtlich. Austrocknung und Erwärmung der Landschaft durch Luftverwirbelung, Abregnen durch Veränderung des Luftdruckes sind nur ein Teil der komplexen Auswirkungen. Aktuell wird der Atmosphäre über Deutschland durch Windkraft jährlich eine Energie entzogen, die dem Äquivalent von etwa 8.500 Hiroshima-Bomben entspricht. Entgegen den Behauptungen, Windkraft würde immer günstiger, steigen die Strom- und Energie-Preise, was zu massiven Insolvenzen und zur Abwanderung der Industrie führt. Auf einen kurzen Nenner gebracht, heißt die Formel: Decarbonisierung ist gleich Deindustrialisierung. Doch das Narrativ vom „bösen CO2“, das unerlässliche Pflanzennahrung für die Photosynthese der Pflanzen ist, bröckelt. China und Indien, die lt. der UN „Entwicklungsländer“ sind, hatten noch nie Obligationen in Sachen CO2, gem. Pariser Klimaabkommen (Art. 4/4) der gleichen UN. Zur diesjährigen Klimakonferenz COP30 in Brasilien waren Regierungsvertreter von China, Indien, USA und Russland gar nicht erst angereist. Diese vier Länder verursachen ca. 60 % der anthropogenen CO2-Emissionen. US-Präsident Donald Trump sprach auf der UN-Vollversammlung von „Klima-Schwindel“ (Climate Hoax) und in den USA wurde CO2 von der Liste der Luftschadstoffe gestrichen. Die USA sind erneut aus dem Pariser Klimaabkommen ausgestiegen, da dieses, lt. US-Präsident Donald Trump, nur CO2-Emissionen samt Arbeitsplätzen aus den USA nach China verlagern würde. Und zwar, weil China nicht von diesem Abkommen betroffen ist, und nur „ermutigt“ (encouraged) wird, sich irgendwann Ziele zur Senkung von CO2-Emissionen, entspr. seiner nationalen Umstände, zu setzten. Warum sagen uns dies Politik, Fernseher und Presse nicht? Hat etwa keiner das Pariser Klima-Abkommen (Art. 4/4) gelesen?

Das Pariser-Klima-Abkommen

https://sustainabledevelopment.un.org/content/documents/17853paris_agreement.pdf

Windkraft wird in den USA nicht mehr staatlich gefördet und muss sich deshalb dem Wettbewerb stellen. Dies wird deren Ende bedeuten, da Windkraft nicht nach Bedarf liefern kann und nun selbst für Speicherung sorgen müsste, deren Kosten nicht mehr auf die Allgemeinheit abgewälzt werden können. Große Firmen und Fonds haben „Klimaneutralität“ (was auch immer das sein mag?) von ihrer Agenda gestrichen. Die unausweichlichen Veränderungen schreiten in den USA voran. In Deutschland hingegen dient das Narrativ, den Klimawandel, vorgeblich verursacht durch CO2, zu kontrollieren und ein von der UN propagiertes Temperatur-Ziel einzustellen, weiterhin dazu, den Ausbau der Windkraft voranzutreiben. Wer heute mit dieser Begründung, Windräder, vor allem auch im Wald, genehmigt und baut, sollte sich auch morgen noch dafür verantworten können, damit das Richtige getan zu haben.

Zum vertiefenden Verständnis der folgenden Darlegungen könnte die detaillierte „Stellungnahme zum Regionalplan Ostthüringen“ des Autors hilfreich sein

(S. 7. „Physikalische Grundlagen und Vergleich von Windrädern“)

https://my.hidrive.com/lnk/V4yWDdtT9

Die physikalischen Limitierungen der Windkraft sind:

  1. die geringe Leistungsdichte bezogen auf den Landschaftsverbrauch, was einen exorbitanten Landschaftsverbrauch bedingt, der weit über die aktuellen Flächenplanungen hinaus geht.
  2. die hohe Volatilität der Stromeinspeisung, das Pendeln zwischen NULL und Maximum führt zwangsläufig zur Destabilisierung des Stromnetzes und erfordert 100%-Backup Kraftwerke
  3. die physikalische Unmöglichkeit der Stromspeicherung in großtechnischen Dimensionen, einschließlich der „grünen“ Wasserstoff-Technologie
  4. der sich daraus ergebende exorbitante Material- und Ressourcen-Verbrauch

zu 1.) Die geringe Leistungsdichte (W/m2) der Windkraft ergibt sich aus:

  1. der geringen mittleren Leistung pro Quadratmeter Rotorfläche in der Größen-ordnung einer Glühlampe (40 – 100 W/m2 Rotorfläche). Diese Zahlen ergeben sich aus den Leistungsdichten gem. Herstellerangaben (bei Nennleistung) und dem Kapazitätsgrad von ca. 20-25 % für die wetterbedingte Verfügbarkeit der Windkraft im Binnenland (entspr. 1.750 – 2.200 Volllaststunden).
  2. Daraus folgt, dass eine nennenswerte (mittlere) Leistung zur Stromversorgung Rotorflächen bis zu einer Milliarde Quadratmeter erfordert. In Bezug auf die Primärenergie (Strom, Verkehr, Heiz- und Industriewärme) wäre dies mehrere Milliarden Quadratmeter Rotorfläche. Dies würde hunderttausende Windräder (mit Rotorflächen von 20.000 – 30.000 m2) erfordern. Und somit, unter Berück-sichtigung der notwenigen Abstände untereinander und zu den Ortschaften, unabdingbar das ganze Land in ein einziges Elektrizitätswerk voller Windräder verwandeln. Ohne den Strom für lange Dunkelflauten speichern zu können
  3. der Leistung, welche der Atmosphäre bezogen auf die Landschaftsfläche entnehmbar ist. Diese Limitierung folgt aus dem Energieerhaltungssatz. Das Äquivalent der durch Windkraft aktuell über Deutschland entnommenen Energie (ca. 140 TWh) liegt in der Größenordnung von ca. 8.500 Hiroshima Bomben (je 6*1013 J), ein Maß in der Geologie für Vulkanausbrüche usw.). Da die, der Atmosphäre durch Windkraft entnommene kinetische Energie, in elektrische Energie gewandelte wird, führt dies zwangsläufig zur Verringerung der Windgeschwindigkeit. Damit nehmen sich Windräder gegenseitig den Wind weg, was sich mit jedem Ausbau verstärkt. Windkraft kannibalisiert sich selbst. Die der Atmosphäre entnehmbare max. Leistung beträgt 0,5 – 2.0 W/m2 (MW/km2). Diese Werte wurden durch das Max-Planck-Institut für Biogeochemie Jena in einer Fachzeitschrift publiziert und vom MDR-Wissen verbreitet. Physical limits of wind energy within the atmosphere and its use as renewable energy: From the theoretical basis to practical implications

https://www.schweizerbart.de/papers/metz/detail/30/97450/Physical_limits_of_wind_energy_within_the_atmosphere_and_its_use_as_renewable_energy_From_the_theoretical_basis_to_practical_implications

  1. Selbst auf einem Bierdeckel lässt sich daraus abschätzen, dass für eine Energiewende (in Bezug auf die Primärenergie) die gesamte Fläche von Deutschland bei einer sich kannibalisierenden Windkraft nicht ausreichen würde, selbst wenn alles voller Windräder stehen würde. Die politisch proklamierten Ausbauziele von 2,2% sind eine reine Illusionen.
  2. Der Grund für die extrem geringe Leistung der Windkraft ist die geringe Dichte der Luft, die im Vergleich zur Dichte von Wasser über 800-fach geringer ist. Hinzu kommt, der max. physikalische Wirkungsgrad 0,48 für Dreiflügler, der prinzipiell nicht überschritten werden kann.
  3. Da Strom nur einen Anteil von ca. 20 % an der Primärenergie (Energiewende) hat, wären alle Zahlen um den Faktor fünf hochzurechnen. Dies ohne die Berücksichtigung von Wirkungsgradverlusten. Weshalb hier bei der „Ersten Näherung“ auch eine mögliche Sektor-Koppelung unberücksichtigt bleibt.

zu 2.) Die hohe Volatilität von Wind- und Solarstrom führt zu:

  1. einem wetterbedingten Pendeln der Stromeinspeisung zwischen de facto NULL und Maximalleistung. Da sich Strom-Verbrauch und Erzeugung in engen Grenzen die Waage halten müssen, um die Netzfrequenz (50,0 +/- 0,2 Hz) konstant zu halten, erfordert dies zu 100% regelbare Kraftwerke oder Batteriespeicher. Dies bedeutet bei Wind- & PV-Strom mit Vorrangeinspeisung einen zusätzlichen Schatten-Kraftwerk- Park, der nur zeitweise Strom liefert, aber ständig Fix-Kosten verursacht. Dies führt u.a. zu hohen Strompreisen.

Bei weiterem Ausbau von Wind- und PV-Strom wird die notwendige Regel-leistung größer und die Netzstabilität nimmt ab. Zunehmend volatile Ein-speisung überdehnt u.a. die notwendige Regelleistung. Der „Systemstabilitäts-bericht Stromnetz 2025 der Übertragungsnetzbetreiber“ stellt „dringenden Handlungsbedarf“ hinsichtlich der Netzstabilität fest. Dies ist nichts anderes als eine indirekte Warnung vor einem Blackout, mit all seinen Folgen. Dieser Feststellung steht der Bau weiterer Windparks diametral entgegen.

https://www.bundesnetzagentur.de/DE/Fachthemen/ElektrizitaetundGas/NEP/Strom/Systemstabilitaet/Bewertung2025.pdf?__blob=publicationFile&v=4

  1. Batteriespeicher in der Größenordnung von Dutzenden TWh, um eine längere Dunkelflaute (wie 28 Tage im Jahr 1972) zu überstehen, übersteigen jegliche denkbare Dimension und Kosten. Zumal man nicht nur Strom, sondern die gesamte Primärenergie (Energiewende) berücksichtigen muss.
  2. Aktuelle Batteriespeicher im hunderte MWh- und MW-Bereich bei Kosten von Mrd. EUR sind der sprichwörtliche „Tropfen auf den heißen Stein“ und dienen allein der Netzstabilisierung. Doch können Batterien nur bedingt nachbilden, womit konventionelle Kraftwerke mit ihren schweren rotierenden Massen seit mehr als 100 Jahren die Stabilität des Stromnetztes und die Versorgungs-sicherheit garantieren. Dies sind u.a. positive und negative Regelleistung, Momentanreserve, Taktung zur Netz-Synchronisation, saubere Sinus-Spannung ohne Oberwellen, Blindleistung, ggf. Schwarzstart-Fähigkeit. Windräder und PV-Anlagen speisen über Wechselrichter in das Netz ein und brauchen ein stabiles, synchron laufendes Netz zur Taktvorgabe für ihre eigene Synchronisation. Immer mehr Wechselrichter ohne Synchronisation durch konventionelle Kraftwerke verhalten sich wie ein stetig wachsendes Orchester ohne Dirigenten.

zu 3.) physikalische Unmöglichkeit der Stromspeicherung in großtechnischen Dimensionen

  • Elektrische Energie (umgangssprachlich Strom) kann in großtechnischen Dimensionen nur durch Umwandlung in andere Energieformen und Rück-verstromung in elektrische Energie gespeichert werden. Die effektivste Form ist derzeit die Umwandlung in mechanische potentielle Energie mittels Pump-speicherwerke (PSW). Das größte PSW in Deutschland ist Goldisthal mit 1.060 MW und 8.500 MWh, ca. 12 Mio. m3 Wasser für ca. 8 Stunden und einer Fallhöhe von ca. 300 m. Alle 40 PSW in Deutschland zusammen haben eine Kapazität von 40 GWh bei 6 GW Leistung. Dies recht rein rechnerisch für 30 Minuten Stromversorgung, praktisch keine Sekunde, da die Leistung von 6.000 MW bei einer Last von ca. 60.000 MW viel zu gering ist. Diese Zahlen mögen einen Einblick in die Dimensionen geben. Wobei PSW seit über 100 Jahren gebaut wurden, um Lastspitzen auszugleichen, nicht um Wind- und Solarstrom zu speichern. Die Tageserzeugung Strom von ca. 1,6 TWh entsprich etwa 200 PSW Goldisthal. Strom entspricht ca. 20% der Primär-energie. 1972 gab es eine Dunkelflaute von 28 Tagen. Den Rest mag jeder auf einem Bierdeckel selbst abschätzen.
  • Batteriespeicher werden aktuell gebaut, um Regelreserve bereits zu halten zur Netzstabilisierung, Frequenzhaltung, Systembildung, Blindleistung usw. Eine aktuelle Baumaßnahme ist der 50-Megawatt-Batteriespeicher „Big Batterie“ (Lausitz, Schwarze Pumpe) mit einer Kapazität von 53 MWh zu Kosten von ca. 25 Mio. EUR. Dies sind Baukosten von 470 EUR/kWh. Die Batterie wäre rechnerisch nach einer Stunde leer. Ein Tagesäquivalent Strom (1,6 TWh) entspricht jedoch ca. 30.000 Stck. zu Kosten von 750 Mrd. EUR.

Auf dem Gelände der gesprengten Kühltürme des KKW Gundremmingen ist ein Batteriespeicher mit 700 MWh und 400 MW Leistung zu Kosten von 230 Mio. EUR geplant. Die Batterie wäre rechnerisch nach ca. 100 Minuten leer. Dies bei Baukosten von 330 EUR/kWh. Ein Tagesäquivalent Strom (1,6 TWh) entspricht ca. 2.200 Stck. zu Kosten von 500 Mrd. EUR.

Das KKW Gundremmingen hatte eine max. Leistung von 2.938 MW konnte also pro Tag max. 70.500 MWh produzieren. Ein Vergleich von Kapazität, Leistung und Kosten gibt einen Einblick zur Realität von Batteriespeichern. Strom ist ca. 20% der Primärenergie. 1972 gab es eine Dunkelflaute von 28 Tagen. All dies führt nicht nur zu gigantischen Kosten, sondern auch zu einem gigantischen Materialverbrauch. Und dies im Vergleich mit einem gesprengten KKW das den, bei der Regierung so beliebten „CO2-freien Strom“, hätte weiter liefern können.

zu 4.) Der hohe Material- und Ressourcen-Verbrauch ist eine unabdingbare Folge der:

  • geringen Leistungsdichte, da dies sehr viele Windräder, und damit sehr viel Material (Stahl, Stahlbeton, Rotorblätter, Kupfer, Seltene Erden, Verbund-werkstoffe, usw.) erfordert. Da Windräder weiträumig in der Landschaft verteilt sind, erfordert dies den Netzausbau (Stromkabel, Masten) zum Anschluss der Windräder und zur Verteilung (auch über extrem aufwendige Hochspannungs-Gleichstrom-Übertragungs-Leitungen, HGÜ). Der gigantische Materialaufwand samt Netzausbau ist eine unabwendbare Folge der geringen Leistungsdichte und damit der Ineffizienz der Windkraft im Vergleich zu konventionellen Kraftwerken mit weitaus höherer Leistungsdichten.
  • hohen Volatilität, also wetterbedingt schwankende Stromeinspeisung zwischen NULL und Maximalleistung. Dies erfordert 100%-Backup Kraftwerke für alle volatilen Erzeuger (Windkraft und PV), die nur durch regelbare konventionelle Kraftwerke oder gigantische Batteriespeicher darstellbar sind. Mehrfache Kraftwerkpars und eine Vielzahl von Notfall-Regeleingriffen (Redispatch) ins Stromnetz zu Kosten von Milliarden EUR sind die Folgen.
  • Die angepriesene Wasserstofftechnologie (p2g2p) entpuppt sich schon auf den ersten Blick als Totgeburt. Sie wandelt wertvolle, universell einsetzbare elektrische Energie in nur bedingt direkt einsetzbare chemische Bindungs-energie. Um diese wiederum in Strom zu wandeln, ist in diesen Dimensionen eine Wärmekraftmaschine, wie eine Spitzenlast-Gasturbine, unabdingbar. Jede Wärmekraftmaschine unterliegt dem Carnot-Prozess, der (gemäß 2. Hauptsatz der Thermodynamik) von der Eingangs- und Ausgangstemperatur des Prozesses bestimmt wird. (Anmerkung: aus diesem Grund hatte das KKW Gundremmingen zwei Kühltürme, die jüngst gesprengt wurden).

Der Wirkungsgrad einer Spitzenlast-Gasturbine beträgt ca. 0,35. Dies ist der kleinste Wirkungsgrad in der Systemkette. Er dominiert daher den System-Wirkungsgrad, der wegen der Multiplikation der Teil-Wirkungsgrade stets kleiner ist, als der kleinste Teil-Wirkungsgrade. Bei einem sich daraus ergebenden Systemwirkungsgrad von bestenfalls 0,2 funktioniert solch ein „Speicher“ wie eine Geldvernichtungsmaschine in die man 5 EUR hinein streckt, um bei Bedarf 1 EUR zu erhalten. Mehr muss man zur Wasserstoff-technologie (p2g2p) eigentlich nicht wissen. Wenn noch Wasserverbrauch, Umwandlungstechnik, Transport und Kosten hinzukommen, ahnt man, warum die sogenannte „grüne Wasserstofftechnologie“ weltweit niemand vor- oder nachmacht. Wer die Wirtschaftsnachrichten verfolgt, wie „RWE steigt beim Namibia-Wasserstoff-Projekt aus“, oder „ArcelorMittal weist Milliarden-Subventionen zu „grünem Stahl“ zurück“, weiß, was die Stunde geschlagen hat. Deutschen Unternehmen, die angesichts der Deindustrialisierung nicht abwandern können, hängen hingegen an den Subventions-Töpfen.

Stromversorgung als Luxus – mittels Bonus-Malus-System

Stromverbrauch und -Erzeugung müssen sich unabdingbar die Waage halten. Weltweit und seit über 100 Jahren geschieht dies, indem die Kraftwerksleistung zu jeder Sekunde dem Verbrauch angepasst wird. Dazu dient ein abgestuftes System, nach welcher Zeit, welche Kraftwerke wo ihre Leistung anpassen. Bei Last-schwankungen halten die ersten Sekunden die schweren Turbinensätze und Generatoren der konventionellen Kraftwerke mit ihrer Rotationsenergie bei 3.000 U/min als Momentanreserve die Netzfrequenz (50 Hz) im Rahmen der Toleranz von (0,2 Hz). Danach greifen abgestuft weitere (komplexe) Regelmaßnahmen. Ein Mangel an Momentanreserve war eine der Ursachen des Blackouts in Spanien.

Das „Smartmeter“ – der „Intelligente Stromzähler“

In Deutschland ist hingegen eine andere „Lösung“ vorgesehen. Künftig soll bei fehlender Leistung von Wind- und Solarstrom der Verbrauch reduziert werden. Aktuell geschieht dies bereits durch die Abschaltung (Lastabwurf) von Groß-verbrauchern, wie den Aluminium-Hütten. Der Tag an dem der Strom knapp wurde

https://www.faz.net/aktuell/wirtschaft/der-tag-an-dem-der-strom-knapp-wurde-probleme-bei-solar-und-windkraft-15984238.html

Diese Umlage für „abschaltbare Lasten“ o. ä. findet sich auf unserer Stromrechnung, welche die betroffenen Firmen entschädigt. Diese ist nun (rechte Tasche-linke Tasche) steuerfinanziert. Wenn weitere konventionelle Kraftwerke abgeschaltet werden, und diese nicht mehr als Regelleistung zur Verfügung stehen, bleibt nur ein weiterer Lastabwurf bei Strommangel, der darin besteht, den Stromverbrauch (die Leistung) für jeden Haushalt individuell zu begrenzen. Dazu dient das gesetzlich vorgeschriebene „Smartmeter“ – der „Intelligente Stromzähler“. Dieser „zählt“ also nicht nur und ist auch nicht nur „fernauslesbar“, sondern auch „fernsteuerbar“. Das Ganze nennt sich euphemistisch „Demand-Side-Management“. Dies wird den Stromkunden, die nicht zufällig „etwas mit Elektrotechnik“ studiert haben, in all seinen ungeahnten Möglichkeiten (geflissentlich?) vorenthalten. Mittels „Smartmeter“ kann für jeden Haushalt und zu jeder Zeit die Leistungsentnahme begrenzt werden. Dies bedeutet, Strom wird zum Privileg und Luxusgut und bestimmt den gesamten Tagesablauf. Der darin besteht, zu Kochen, wenn die Sonne scheint und zu Waschen, wenn der Wind weht. All dies kann die KI einer zentralen Agentur steuern. Das mögen viele nicht „glauben“, weil sie es sich „nicht vorstellen“ können. Obgleich Olaf Scholz und Robert Habeck dies, (etwa verklausuliert), genau so gesagt haben. Wenn zu wenig Strom aus Sonne und Wind generiert wird, gibt es weniger Strom, selbst für Wärmepumpen und E-Autos.

Darüber entscheidet die Netzagentur (O-Ton Scholz & Habeck ab ca. 11:30)

https://www.youtube.com/watch?v=GntMgRdlHlE

Fazit: Die Versorgungssicherheit ist nur gewährleistet, wenn eine Bundes-behörde jederzeit den Stromverbrauch von jedermann kontrollieren kann.

Dies wird den Leuten mit warmen Worten, dass „Wäschewaschen nichts kostet, außer Wasser und Waschpulver, wenn der Wind weht“ von Robert Habeck als „intelligent“ verkauft. Wenngleich mit zittriger Stimme. Man muss sich schon sehr „vor dem Klimawandel fürchten“ vor dem der Fernseher unablässig warnt, und sich selbst „zur Rettung der Welt“ berufen fühlen, um solch einem Konzept zuzustimmen, das einem totalitärem Missbrauch Tür und Tor öffnen könnte. Wie lautete doch der Rat von Immanuel Kant? „Habe Mut, Dich Deines eigenen Verstandes zu bedienen“.

Intelligenter Stromzähler – intelligente Energiepolitik?

Doch wie soll es nun weiter gehen? Wer liefert bei längeren Dunkelflauten den Strom? Windräder können es nicht sein, die stehen bei Flaute still, ebenso wie PV-Anlagen bei nebeligem Wetter kaum Strom liefern. Adäquate Langzeitspeicher gibt es nicht. Könnte das europäische Verbundnetz liefern, zu Höchstpreisen, wenn bei uns der Strom knapp ist? Mit Stromnetzen, die eine begrenzte Übertragungsleistung haben? Doch wie nun verkündet wurde, sollen dutzende neue Gasturbinenkraftwerke gebaut werden. Niemand in der Welt hat darauf gewartet, dass Deutschland plötzlich und unerwartet solche bauen will. Andere Länder haben langfristig geplant. Wie realistisch sind neue Gasturbinenkraftwerke in Deutschland angesichts der Liefer-zeiten von Gasturbinen, Transformatoren und den Zeiten für Projektierung und Bau? Und womit sollten diese betrieben werden, mit LNG (Gas), das ein Vielfaches von Pipeline-Gas kostet? Das Deutschland zwar über den noch intakten Strang von Nordstream-2 beziehen könnte (was Russland angeboten hat), was Deutschland jedoch ablehnt? Um entsprechend Langfristverträgen mit Russland für Gas zu zahlen, das man nicht bezieht? Kernkraftwerke wurden stillgelegt, die Kühltürme gesprengt, ebenso wie der Schornstein des modernen Steinkohlekraftwerkes Hamburg Moorburg. Beim Rückzug des Militärs nennt man dies „verbrannte Erde“. Der Bericht der Netzbetreiber spricht von „dringendem Handlungsbedarf“, gemeint ist die Netzstabilität. Doch diese würde durch neue Windräder noch instabiler. Smartmeter, die es lt. Robert Habeck „intelligent“ gestatten würden, zu „Kochen, wenn die Sonne scheint und zu Waschen, wenn der Wind weht“, sind bisher nur für Anschlussleistungen > 6 kW und PV-Anlagen > 7 kWp eingeführt. Die intelligente Gängelung, pardon, des Demand-Side-Managements, eines Großteils der 83 Mio. Einwohner, mittels Smartmeter ist noch in der Fertigstellung bis 2030. Doch was könnte uns nun angesichts der bisherigen intelligenten Energiepolitik helfen? Vielleicht das Aufstellen von Windrädern im Wald, die bei Flaute (und wenig Wind) allesamt stillstehen? Und falls sie sich doch drehen, das Netz weiter destabilisieren? Fragen über Fragen.

Geht es nicht um weitaus mehr, als eine Entscheidung des Bundesverfassungs-gerichts zugunsten von Waldbesitzern parlamentarisch umzusetzen? Geht es denn nicht vorrangig sowohl um die Versorgungssicherheit als auch um den Erhalt der Thüringer Wälder, vom Holzland über das Vogtland bis zum Thüringer Wald und der Rhön? Die Demonstranten und betroffen Menschen erwarten darauf eine Antwort.

Ich trage gern zu der von Herrn Dr. Frank Augsten (BSW) angeregten, offenen Debatte bei und würde mich über Terminvorschläge Ihrer Regierungskoalition sehr freuen.

Mit freundlichem Gruß

Dieter Böhme

Weiterführende Fachartikel des Autors

Leistungsdichte der Erneuerbaren

https://www.epochtimes.de/meinung/physiker-leistungsdichte-entzaubert-energiewende-hoher-flaechenverbrauch-von-erneuerbaren-a4885121.html

Infraschall aus der Sicht eines Physikers

https://www.epochtimes.de/wissen/technik/infraschall-aus-sicht-eines-physikers-die-unhoerbare-gefahr-a4999657.html

 




Klimakrise auf der Venus

Die Venus wird gern als höllisch heißes Beispiel dafür angeführt, was der Treibhauseffekt alles anrichten kann. Ein genauerer Blick auf den Planeten offenbart jedoch, wie sehr er sich von der Erde unterscheidet und wie hanebüchen daher solche Venusvergleiche sind.

Von Uta Böttcher

Der Planet Venus wird von klimafixierten Weltuntergangspropheten gerne als Beispiel für eine „Erde auf Steroiden“ genannt, denn Venus hat in ihrer Atmosphäre einen CO2-Gehalt von 96,5 Prozent und eine durchschnittliche Oberflächentemperatur von 464 Grad Celsius. Das geschieht, um die Angst vor einer irdischen Klimakrise auf einem hohen Level zu halten. Sie tun das, um unpopuläre und – im Hinblick auf das Globalklima – wirkungslose und – im Hinblick auf Lebensqualität der Bevölkerung und wirtschaftliche Lage – unsinnige Maßnahmen zur Reduktion von CO2 möglichst ohne Gegenwehr umsetzen zu können. Selbst die Wissenschaftlichen Dienste des Deutschen Bundestages bedienen sich dieser Vergleiche. Es wird damit suggeriert, dass die Erde auf dem besten Wege ist, eine ähnlich hohe Globaltemperatur zu entwickeln. Dieser Vergleich ist nicht nur hochgradig ärgerlich sondern aus naturwissenschaftlicher Sicht völliger Unsinn, denn: Die Vorgänge in der Atmosphäre des Planeten Venus sind nicht mit den Gegebenheiten auf der Erde vergleichbar.

Nähe zur Sonne

Den Planeten Venus sehen wir manchmal am frühen Morgen am Osthimmel oder direkt nach Sonnenuntergang am Westhimmel als strahlend hellen weißen Punkt. Das liegt daran, dass Venus auf einer Bahn zwischen Erde und Sonne nahe um die Sonne kreist, und deshalb nie weit von der Sonne wegkommt. Sie ist nach Merkur der Sonne am nächsten. Die Venus kreist also näher um die Sonne als die Erde, nämlich im Abstand von 108 Millionen Kilometer, während die Erde einen Abstand von 150 Millionen Kilometern wahrt. Dadurch bekommt die Venus beinahe doppelt so viel Sonnenenergie ab wie die Erde.

Dichte und mächtige Gashülle

Die blendend weiße Farbe wird dadurch verursacht, dass wir auf die Gashülle von Venus blicken, die das Sonnenlicht reflektiert. Wir wissen zwar, dass die Venus ein Gesteinsplanet ist, können aber ihre Atmosphäre nicht durchschauen: Auf der Venus reicht die Troposphäre bis zu einer Höhe von 60 Kilometern (Erde: 10 bis 15 Kilometer), mit einem CO2-Gehalt von 96,5 Prozent und Wolken aus Schwefelsäure (H2SO4). Die Säure kondensiert zu Tröpfchen, die stabil in drei verschieden hohen Schichten schweben. Diese gelblich-weißen Wolken sind es, die den größten Teil des Sonnenlichts reflektieren. Dadurch ist die Venusatmosphäre undurchsichtig, und der Planet erscheint als weißer Punkt am Himmel. Diese Gashülle sorgt dafür, dass 75 Prozent des einfallenden Sonnenlichtes reflektiert werden (Albedo).

Extrem hoher Oberflächendruck

Auf der Venus herrscht ein Oberflächendruck von 92 bar, also 92-fach höher als auf der Erde (0,042 Prozent CO2 und einem Druck von 1 bar). Sie bekommt zwar fast doppelt so viel „Roh-Energie“ von der Sonne, reflektiert aber 75 Prozent davon sofort wieder zurück ins All (Erde: ca. 30 Prozent). Die restlichen 25 Prozent Sonnenenergie werden praktisch vollständig von der Atmosphäre absorbiert. Diese Absorption zusammen mit dem hohen Druck führen zu einer durchschnittlichen Oberflächentemperatur von 464 Grad Celsius. Welchen Anteil an der hohen Temperatur auf der Venus der hohe atmosphärische Druck und welchen Anteil der hohe CO2-Gehalt beiträgt, wird in der Wissenschaft kontrovers diskutiert.

Sehr langsame Rotation

Ein Umlauf der Venus um die Sonne (siderisches Jahr oder Bahnperiode) dauert 225 Erdtage. Eine Rotation um die eigene Achse dauert 243 Erdtage (siderischer Tag). Dabei dreht sie sich retrograd, also in die „falsche Richtung“ im Vergleich zur Erde. Dadurch hat ein Sonnen-Tag, also die Zeit von Sonnenaufgang zu Sonnenaufgang, auf der Venus eine Dauer von 117 Erdtagen: Die sonnenbeschienene Seite heizt sich monatelang auf. Dennoch kühlt die Nachtseite kaum ab: Der Temperaturunterschied auf der Venus zwischen Tagseite, Nachtseite, Äquator und Pol beträgt nicht einmal zehn Grad Celsius weil die dichte Atmosphäre Wärme gut speichert und weiterleitet.

Keine Corioliskraft

Durch die sehr langsame Rotation des Planeten, gibt es praktisch keine Corioliskraft. Auf der Erde verursacht diese seitwärts wirkende Kraft drei große Zirkulationszellen in der Atmosphäre. Diese sogenannten Hadley-Zellen sind riesige Wärme-Förderbänder, die für eine sowohl horizontale als auch vertikale Durchmischung der Luftmassen sorgen. Auf der Erde bewirkt die Corioliskraft, dass die Luft auf der Nordhalbkugel nach rechts abgelenkt wird, wodurch Tiefdruckgebiete gegen den Uhrzeigersinn und Hochdruckgebiete im Uhrzeigersinn rotieren – auf der Südhalbkugel ist es genau umgekehrt. Auf der Venus gibt es nur eine schwache rotierende Zirkulation ohne Hadley-Zellen. Dadurch bleibt die Wärme in der unteren Atmosphäre gefangen.

Kein Magnetfeld

Venus ist von Zusammensetzung und Größe her der Erde sehr ähnlich: Sie hat 95 Prozent des Erddurchmessers und 81,5 Prozent der Erdmasse. Die Venus begann ihre Entwicklung vor etwa 4,5 Milliarden Jahren als Erdzwilling, zunächst mit heißer, flüssiger Gesteinsoberfläche, dann mit frühen Ozeanen aus kondensiertem Wasserdampf, die für zwei bis drei Milliarden Jahre existieren konnten.

Ihre Nähe zur Sonne führte zur Verdampfung der Ozeane: Wasserdampf ist ein enorm starkes Treibhausgas, die Venustemperatur stieg stark an. In der oberen Atmosphäre spaltete die energiereiche UV-Strahlung der Sonne die H2O-Moleküle in Wasserstoff-Ionen und Sauerstoff auf. Weil die Venus kein Magnetfeld besitzt, konnten die geladenen Partikel des Sonnenwinds die leichten H+-Ionen ins All davontragen. Der Sauerstoff blieb größtenteils zurück und bildete CO2.

Die Erde besitzt ein dynamisches Magnetfeld: Der Erdkern besteht aus einem Eisen-Nickel-Gemisch, wobei der äußere Kern flüssig ist und sich in Konvektionsströmen um den – durch den enorm großen Druck – festen inneren Kern bewegt. Er wird in Bewegung gehalten durch ständige Wärmezufuhr und – ganz ähnlich wie die Luftmassen in der Atmosphäre – die Corioliskraft. Durch zahlreiche nebeneinander liegende Ströme mit spiralförmigen Fließbewegungen des äußeren Eisen-Nickel-Kerns werden Magnetfelder induziert, mit dem Ergebnis unseres dipolaren Erdmagnetfeldes. Es lenkt den Sonnenwind ab und schützt so die Erdatmosphäre. Auf der Venus hingegen konnte der Wasserstoff ins All entweichen, und zurück blieb die heutige 92-bar-CO2-Atmosphäre mit Schwefelsäurewolken.

Keine Ozonschicht

Die Venus besitzt keine Ozonschicht, die energiereiche Strahlungsanteile der Sonne in großer Höhe abfängt. Auf der Erde haben wir die stratosphärische Ozonschicht – ja, es gibt sie noch! –, in der sich besonders viel Ozon befindet. Sie schützt alles, was darunter ist, vor der ultravioletten Strahlung der Sonne. Denn: Die Sonne sendet neben sichtbarem Licht und Wärme auch UV-Strahlung, und besonders energiereich sind die UV-B- und UV-C-Strahlung. Ozonmoleküle absorbieren fast die gesamte UV-C-Strahlung (Wellenlänge unter 280 Nanometer) und den größten Teil der UV-B-Strahlung (Wellenlänge 280 – 315 Nanometer), was verhindert, dass diese die Erdoberfläche erreicht und das Leben auf der Erde schädigt. Dabei absorbiert ein Ozonmolekül (O3) ein UV-Photon und zerfällt dadurch in ein Sauerstoff-Molekül (O2) und ein einzelnes Sauerstoffatom (O). Diese Beiden verbinden sich sofort wieder zu neuem Ozon. Dieser Chapman-Zyklus genannte Prozess wandelt die UV-Energie in Wärme um, und dabei regeneriert sich ständig das Ozon.

Keine Plattentektonik

Venus hatte auch einmal einen flüssigen äußeren Planetenkern und aktiven Vulkanismus. Dieser zeigte sich dort eher in horizontalen Ausbrüchen und Rissen in der Venuskruste, nicht verbunden mit aktiver Kontinentalplatten-Bewegung wie auf der Erde. Dazu fehlten ihr die großen Ozeane: Das Wasser dient als Schmierung und erleichtert die Plattenbewegung besonders in den Zonen, wo die riesigen Gesteinsplatten in tiefere Schichten abtauchen. Inzwischen ist bei der Venus auch der metallische Kern vollständig auskristallisiert und fest, wodurch ein Magnetfeld fehlt.

Auf der Erde sorgt nach wie vor die Plattentektonik, angetrieben von der inneren Wärme und den – daraus resultierenden – Konvektionsströmen im Erdmantel für eine ständige Gesteinserneuerung. Diese dynamische Erdkruste sorgt für eine effektive Speicherung von überschüssigem CO2, zum Beispiel in den Kalkgesteinen. Dieser Kreislauf ist auf der Erde bis heute aktiv, während sich auf der Venus niemals ein solcher Prozess entwickeln konnte.

Wonderful World

Unsere Erde ist ein blaues Juwel, umgeben von der endlosen Schwärze des Kosmos. Dieser Planet ist nicht nur unser Zuhause; er ist ein Wunderwerk der Natur, ein perfektes Zusammenspiel von Kräften und Bedingungen, das genau jetzt, in diesem Moment, ideal zu uns passt. Er ist genau richtig platziert: Nicht zu nah an der Sonne, wo alles verdampfen würde wie auf der Venus, nicht zu weit entfernt, wo alles einfrieren würde wie auf dem Mars. In der „Goldilocks-Zone“ – gerade richtig warm, damit flüssiges Wasser existiert, das Fundament allen Lebens. Unsere Atmosphäre ist ein Meisterwerk: 78 Prozent Stickstoff, 21 Prozent Sauerstoff – der perfekte Mix, den wir atmen, ohne darüber nachzudenken, wie perfekt das eigentlich für uns ist. Sie schützt uns vor tödlicher Strahlung, hält die Wärme wie eine sanfte Decke und erzeugt das blaue Himmelszelt, das uns tagtäglich begeistert. Grund zur Panik? Im Gegenteil! Und deshalb möchte ich diesen Venus-Vergleich bitte nicht mehr lesen oder hören. Einen schönen Gruß auch an die Wissenschaftlichen Dienste des Deutschen Bundestages.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Zu stark für Stromnetze? Sind wir bereit für ein zweites Carrington-Ereignis?

Vor 166 Jahren beschädigte ein starker Sonnensturm das Telegrafennetz. Kann sich ein solches Ereignis heute wiederholen? Einige Forscher halten einen mindestens so starken Sonnensturm für wahrscheinlich. Doch es gibt einfache Tipps zum Selbstschutz. 

von Maurice Foregeng

In Kürze:

  • 1859 legte ein Sonnensturm vielerorts das Telegrafensystem lahm, auch bekannt als das Carrington-Hodgson-Ereignis.
  • Forscher haben Daten, wonach die Erde künftig mit noch stärkeren Sonnenstürmen rechnen muss.
  • Eine ähnlich große Sonnenfleckenkonstellation wie 1859 hat die Sonne gerade jetzt – und zur Erde gerichtet.
  • Der Raumfahrtingenieur Willie Soon schildert, wie jeder sich auf ein entsprechendes Katastrophenszenario vorbereiten kann.

Im Mai 2024 traf ein großer Sonnensturm die Erde, der Polarlichter in weiten Teilen Deutschlands auftreten ließ. Auch in manchen US-Bundesstaaten und in Südrussland konnten die Menschen dieses spektakuläre Schauspiel bewundern.

Was viele nicht wissen: Dieser Sturm war laut Wissenschaftlern der unabhängigen Forschergruppe CERES „der extremste der instrumentellen Aufzeichnungen“ seit 1937. In jenem Jahr begannen die systematischen Aufzeichnungen.

Carrington-Hodgson-Ereignis 2.0?

Doch ein paar Jahrzehnte früher soll es eine noch stärkere Sonneneruption gegeben haben, die als Sonnensturm die Erde getroffen hat. Gemeint ist das Carrington-Hodgson-Event aus dem Jahr 1859. Die britischen Astronomen Richard Carrington und Richard Hodgson haben den solaren Ausstoß damals unabhängig voneinander beobachtet.

Der Sonnensturm war so extrem, dass er das Telegrafensystem weltweit stark störte. Einige Telegrafenstationen gerieten aufgrund der in den Leitungen induzierten Spannung in Brand.

In diesen Tagen besteht die Möglichkeit, dass ein Sonnensturm von ähnlicher Stärke wie 1859 auf die Erde zufliegt. Denn die Wissenschaftler an verschiedenen Instituten beobachten in Echtzeit einen Sonnenfleckenkomplex, der in Richtung Erde zeigt. Diese sogenannte „aktive Region“ ist ähnlich großflächig wie die Flecken beim Carrington-Hodgson-Ereignis.

Die CERES-Forscher gehen anhand ihrer Datenlage davon aus, „dass die Erde in Zukunft Sonneneruptionen erwarten könnte, die noch größer sind als das Carrington-Hodgson-Event von 1859.“

Aktuell befindet sich die Sonnenaktivität auf dem Maximum ihres etwa elfjährigen Sonnenzyklus, wo die meisten Sonnenflecken entstehen. In den vergangenen Tagen ist die Anzahl der Sonnenflecken laut Daten des Royal Observatory in Belgien deutlich gestiegen.

Sonnensturm

Anzahl der Sonnenflecken (EISN) von Anfang November bis 5. Dezember 2025.

Foto: WDC-SILSORoyal Observatory of Belgium, Brusselshttps://doi.org/10.24414/qnza-ac80CC BY-NC 4.0

Welche Auswirkungen drohen?

Heute besitzt unsere Zivilisation eine vollkommen andere technische Entwicklungsstufe als 1859. Während damals die fortschrittlichste Entwicklung das Telegrafennetz war, verlassen wir uns heute auf großflächige Stromnetze, GPS-Systeme, Kommunikationsnetze und Satelliten.

Im schlimmsten Fall droht bei einem starken Sonnensturm ein kompletter Ausfall der genannten Netze und Systeme. Also kein Strom, kein Telefon, keine Wasserversorgung und mehr. Es könnte Tage oder unter Umständen Wochen dauern, bis die Betreiber die wichtigsten Funktionen wiederhergestellt haben.

 

Raumsonde beobachtet Polsprung im Magnetfeld der Sonne

Willie Soon: Vorbereitung ist möglich

„Die Gesellschaft muss sich auf die Möglichkeit noch größerer Sonnenstürme vorbereiten, die zu weitverbreiteten technologischen Störungen führen könnten“, sagte der Physiker Velasco Herrera.

Der US-amerikanische Raumfahrtingenieur Willie Wei-Hock Soon gibt hier Hoffnung. Er teilte der Epoch Times mit, dass sich „normale Menschen eindeutig vollständig auf einen katastrophalen Ausfall der Stromnetze und sogar der elektronischen Kommunikationsmittel vorbereiten können“. Das Wichtigste das jeder tun kann: „Sorgen Sie für ausreichend Trockennahrung und Wasser und sogar Brennstoffe und eine lokale Stromerzeugung“, empfahl Soon.

Darüber hinaus ist es ratsam, wichtige Geräte vom Stromnetz zu trennen, um diese vor einer möglichen Überspannung zu schützen. Bei Stromausfall funktionieren auch Geldautomaten nicht mehr. Etwas Bargeld in Reserve zu haben, kann im Krisenfall essenziell sein. Ebenso sollte das Auto für eine flexiblere Reichweite genügend Sprit im Tank haben. Die üblichen Dinge für einen Stromausfall wie Taschenlampe, Kerzen und Campingkocher sollten ebenfalls bereitstehen.

Werden wir rechtzeitig informiert?

Wenn eine bedrohliche Sonneneruption stattfindet, die Richtung Erde rast, ist ein zeitnaher Informationsfluss wichtig, um nicht unerwartet im Dunkeln zu stehen. Wie auch bei Sonnenwinden im vergangenen Jahr kursierten in der Medienwelt bereits entsprechende Ankündigungen.

„Die Wissenschaft kann hier helfen, wenn sie richtig und ordnungsgemäß betrieben wird“, teilte Soon mit. Dabei verwies er auf die bestehende Idee, fünf Satelliten an den sogenannten Lagrange-Punkten L1 bis L5, also den Orbitalpositionen zu platzieren. So wären die großen Sonneneruptionen und koronalen Massenauswürfe besser zu beobachten als derzeit.

Aktuell beobachten die Astronomen die Sonne nur mit einem Satelliten auf Position L1, also der Position zwischen Erde und Sonne. Soon meinte hierzu: „Dies ist die kostengünstigste Möglichkeit, die Sonne kontinuierlich mit den geringsten Raketentreibstoffkosten zu überwachen.“

Sonnensturm

Die Fünf Lagrange-Punkte. In der Mitte befindet sich die Sonne, rechts die Erde auf ihrer Umlaufbahn um die Sonne. Aktuell befindet sich nur auf dem L1-Punkt ein Satellit, der die Sonne beobachtet.

Foto: gemeinfrei

Sollte sich ein starker Sonnensturm mit zu erwartenden katastrophalen Konsequenzen abzeichnen, ist in Deutschland das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) für die Weitergabe von Warnungen an die Bevölkerung zuständig.

Aktuelle Lage

Am Donnerstagmorgen, 4. Dezember, um 3:50 Uhr deutscher Zeit ging vom erwähnten aktuellen Sonnenfleckenkomplex ein etwas größerer Ausstoß aus. Das Portal „Spaceweather“ teilte zuletzt mit, dass dieser Sonnensturm „doch auf die Erde treffen könnte“.

Demnach sei „am 7. Dezember ein Direktschlag oder Beinahe-Treffer möglich, der möglicherweise einen kleinen geomagnetischen Sturm der Klasse G1 auslösen könnte“. Dabei handelt es sich um einen geringfügigen geomagnetischen Aufprall und damit der niedrigsten Stufe.

Auf dem Portal „spaceweatherlive“ kann man zudem nahezu in Echtzeit beobachten, wie intensiv die Eruptionen der Sonne sind. Dort gelistet sind auch zwei Eruptionen der Kategorie M, die am Samstagabend registriert wurden. Einer davon erreichte „fast Klasse X“, jener Klasse, die im Frühsommer für farbenfrohe Polarlichter auch über Deutschland sorgte. Sollten die jüngsten Ereignisse die Erde erreichen, ist damit am Montag oder Dienstag zu rechnen.

Der Beitrag erschien zuerst bei EpochTimes hier