Welcher Weltuntergang darf es denn sein? – EIKE im Gespräch mit Kontrafunk

Wirtschaft und Gesellschaft: Der große Klimaschwindel

Frank Wahlig im Gespräch mit Axel Robert Göhring

Welcher Weltuntergang darf es denn sein? Die Erde brennt, und die Menschheit fackelt ab. Der Meeresspiegel steigt, und sintflutgleich sterben die Menschen in den Küstenregionen. Das Klima wandelt sich. Das tut es immer schon. Aber stimmen denn die Alarmmeldungen der Klimaaktivisten, stimmen die Computermodelle, die einen menschengemachten Klimawandel belegen wollen? Frank Wahlig spricht mit dem Naturwissenschaftler Dr. Axel Göhring über die Liebe der Deutschen zum Weltuntergang und darüber, welche brillanten Geschäfte sich damit einfädeln lassen.

Kontrafunk ist ein seit einigen Jahren etablierter kritischer Radiosender, der die Arbeit der öffentlich-rechtlichen Sendeanstalten übernommen hat. In der Schweiz und Österreich kann man Kontrafunk sogar im Radio hören (Tipp für unsere A/CH-Leser).




Frankreich: Kernenergie und „Erneuerbare“ vertragen sich schlecht

Verdoppelung der Stromkosten befürchtet

von Edgar L. Gärtner

Auf der Welt gibt es nicht nur menschliche Kulturen, die kaum oder gar nicht miteinander koexistieren können (etwa tribalistischer Kannibalismus mit dem Mordverbot des jüdisch-christlichen Dekalogs), sondern auch Techniken der Elektrizitätsversorgung, die schlecht oder gar nicht miteinander verträglich sind. Das bekannteste historische Beispiel dafür ist die Jahre lange heftige Auseinandersetzung zwischen dem genialen Erfinder Thomas Alva Edison und der fortbestehenden Firma Westinghouse um die Elektrizitätsübertragung mittels Gleich- oder Wechselstromsystemen. Dieser Konflikt erforderte damals eine klare Entscheidung für eine der beiden unterschiedlichen Übertragungstechniken. Nur in besonderen Situationen gelten die beiden Techniken als kompatibel. Auf eine ähnliche weitreichende Entscheidungssituation steuert derzeit unser Nachbarland Frankreich zu.

Mit einem Kernenergie-Anteil von über 70 Prozent und einem Anteil der Wasserkraft um die 20 Prozent gilt die französische Elektrizitätsversorgung, im Unterschied zur deutschen, als eher zukunftsfähig, Probleme bereiten lediglich die hohen Investitionskosten der geplanten neuen sechs großen Kernreaktoren vom Typ EPR2 sowie die Finanzierung der Entwicklung kleiner modularer Kernreaktoren (SMR), die im Unterschied zu den großen eine flexible und verbrauchsnahe Elektrizitätserzeugung ermöglichen. (Gerade steht das von mir bei EIKE vorgestellte Startup Naarea vor dem Konkurs, weil ihm die finanziellen Mittel fehlen, um seinen SMR-Prototypen marktfähig zu machen.)

Der Staat ist pleite, aber für Zufallsenergien ist noch Geld da

Statt für die Entwicklung innovativer und tragfähiger SMR-Konzepte ist aber beim französischen Pleite-Staat und in der europäischen Wirtschaft anscheinend noch immer mehr als genug Kapital für die unkontrollierte Expansion der so genannten erneuerbaren Wind- und Solarenergie vorhanden. Da der französische Staatspräsident Emmanuel Macron und seine Freunde weiterhin auf der Welle des woken Zeitgeistes segeln wollen, setzen sie dem Druck grüner Investoren und politischer Bewegungen keinen Widerstand entgegen. Zwar haben sie ihre Bemühungen, auch in Frankreich (unausgesprochen) einen „Atomausstieg“ nach deutschem Vorbild anzubahnen, nach einem Anflug von Realismus inzwischen aufgeben müssen und in Brüssel erreicht, dass die Kernenergie in der EU-Taxonomie des „Green Deal“ als kohlenstoffarm bzw. „nachhaltig“ durchgeht. Doch stemmt sich Emmanuel Macron im Verein mit Ursula von der Leyen und anderen Spitzenpolitikern der EU mit allen ihnen zur Verfügung stehenden Mitteln gegen die von Donald Trump in Davos verkündete Stunde der Wahrheit über die „Erneuerbaren“.

So setzt die „Macronie“, wie viele Franzosen Macons Regime missbilligend bezeichnen, im letzten Entwurf des noch nicht verabschiedeten dritten französischen Plans für die Entwicklung der Energieversorgung in den kommenden zehn Jahren (Programmation Pluriannuelle de l’Energie, PPE3) auf eine angebliche Komplementarität zwischen steuerbaren und wetterabhängigen Energiequellen, indem sie eine Vervielfältigung der Offshore-Windräder um den Faktor 50 (!), die Verdoppelung der Zahl der landgestützten Windkraft- und eine Verfünffachung der Photovoltaikanlagen vorsieht. Auf Druck der in Paris immer noch präsenten deutschen „Energiewende“-Lobby haben die Macronisten zusammen mit Linksradikalen und Grünen offenbar beschlossen, den Kernreaktoren, die sie ursprünglich abschalten wollten, aber wegen der harten Realität nicht konnten, eine ähnliche Rolle zuzuweisen wie den Gaskraftwerken in Deutschland. Statt ständig und verlässlich die Grundlast der Stromversorgung zu sichern, sollen sie in Zukunft vorwiegend, wenn nicht ausschließlich als „Lückenbüßer“ für die Überbrückung der Nächte und windarmer Wetterlagen dienen. Die „Erneuerbaren“ sollen wie in den deutschen Elektrizitätsnetzen absoluten Vorrang bekommen und die Kernkraftwerke sollen entsprechend der jeweiligen Wetterlage öfters schnell hoch- und runtergefahren werden, nicht selten mehrmals am Tag.

Kernkraftwerke nur noch Lückenbüßer?

Die macronistischen Technokraten verlangen daher in ihren Plänen ex- oder implizit eine große Modulationsfähigkeit der Kernkraftwerke. Doch für diesen wechselnden Einsatz sind die Kernkraftwerke – insbesondere die zwischen 1978 und 1999 erbauten, welche nach der erfolgten offiziellen Laufzeitverlängerung noch lange am Netz bleiben sollen – überhaupt nicht ausgelegt. Die Wellen ihrer Turbinen müssten bei einem längeren Stillstand künstlich weitergedreht werden, damit sie sich nicht mit einem bremsenden Schleier aus Oxidationsprodukten überziehen. Das würde ein Wiederanfahren schwierig machen. Die Ingenieure gehen davon aus, dass die Auslastung der meisten Anlagen gefahrlos nur um etwa 20 Prozent schwanken kann. Größere Schwankungen müssten zu einem vorzeitigen Verschleiß der Anlagen führen.

Das ist den Ingenieuren seit längerem bekannt. Schon Anfang 2023 gab es dazu eine parlamentarische Anhörung. Bis Ende 2025 sollte der staatliche Elektrizitätsversorger EDF einen detaillierten Bericht über die mit der häufigen Modulation der Leistung von Kernkraftwerken verbundenen technischen und gesundheitlichen Risiken vorlegen. Doch Bernard Fontana, seit Mai 2025 neuer Generaldirektor von EDF, ließ Mitte Januar auf dem Schweizer Elektrizitätskongress in Bern durchblicken, dass die Regierung unter Präsident Emmanuel Macron und Premierminister Sébastien Lecornu die Veröffentlichung des Berichts blockiert, um nicht zusätzlich Wasser auf die Mühlen der in Frankreich starken Kritiker des woken Windrad-Wahns zu leiten. Einige Details des offiziell noch geheimen Rapports waren über die Gewerkschaften der Führungskräfte an die Öffentlichkeit gelangt. Fontana beteuerte zwar, EDF habe nach wie vor die Absicht, den kompletten Bericht zu veröffentlichen. Dieser sei aber in der vorliegenden Form „non publiable“.

Doch die Pro-Kernenergie-Initiative „Documentaire et Liberté“ weist in einem Post auf „X“ auf gleichzeitig vom Netzbetreiber RTE veröffentlichte Projektionen hin, aus denen hervorgeht, dass die PPE3 tatsächlich die Umwandlung des Rückgrats der französischen Stromversorgung in einen Lückenbüßer vorsehen. Zwar wird auch heute die Leistung der KKW bereits moduliert, und zwar insgesamt über eine Spanne von 12 Terawattstunden (TWh). Dabei stand aber die wirtschaftliche Optimierung des KKW-Einsatzes im Vordergrund. Würde die PPE3 hingegen buchstabengetreu umgesetzt, wäre bis 2035 mit einer Regulierungs-Spanne von über 100 TWh zu rechnen. Dadurch würde die Kernenergie wahrscheinlich ihre technischen, ökologischen und wirtschaftlichen Vorteile gegenüber anderen Energiequellen verlieren. Die In der PPE3 vorgesehene massive Förderung der „Erneuerbaren“ käme damit lediglich über einen kleinen Umweg zum Ziel „Atomausstieg“.

Verdoppelung des Strompreises durch „Erneuerbare“

Schon bisher führte der wachsende Anteil wetterabhängiger Energiequellen an der französischen Elektrizitätsversorgung neben der Einbindung Frankreichs in das Merit Order Tarifsystem der EU zur allmählichen Verdoppelung der Stromrechnungen französischer Haushalte in den vergangenen 10 Jahren. Allein zwischen 2023 und 2024 stieg der Preis für Haushaltstrom um 18 Prozent. Durch die Umsetzung der PPE3 würde sich der Strompreis bis 2035 noch einmal verdoppeln, rechnet der Ingenieur Fabien Bouglé vor. Dabei sind die Erzeugerpreise in den letzten Jahren relativ konstant geblieben. Explodiert sind Steuern und Zuschläge für die Subvention und die Netzanbindung des dezentral an Land oder Offshore erzeugten Solar- und Windstroms. Nur die völlige Abkehr vom irrsinnigen Ziel der Kohlenstoff-Neutralität durch die Förderung der „Erneuerbaren“ könnte die Franzosen wieder in den Genuss der Vorteile preisgünstigen Atomstroms zurückbringen.




Horst Lüdecke: Kampf gegen die Physik & warum die deutsche Energiewende scheitert – Kontrafunk befragt EIKE

Kontrafunk ist ein seit einigen Jahren etablierter kritischer Radiosender, der die Arbeit der öffentlich-rechtlichen Sendeanstalten übernommen hat. In der Schweiz und Österreich kann man Kontrafunk sogar im Radio hören (Tipp für unsere A/CH-Leser).

Seitdem die Energiewende zu einer der wichtigsten Zielsetzungen deutscher Politik erklärt wurde, sprechen alle von Energie und Strom – aber wissen sie auch, was das ist? Es wird Zeit für Aufklärung. Was ist das physikalische Phänomen, das wir umgangssprachlich als Strom bezeichnen? Wie wird er erzeugt? Welche Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland gibt es? Im Vortrag wird jene Kernfrage unserer Stromversorgung untersucht, die allen technisch besser informierten Zeitgenossen den Schlaf raubt: Wie weit können die bisherigen, mit Kohle und Gas betriebenen Grundlastkraftwerke durch die neuen Methoden ersetzt werden?

EIKE-Pressesprecher Horst-Joachim Lüdecke spricht im Format „Audimax“

Hier auch das pdf der Vorlesung

Kampf gegen die Physik, warum die deutsche Energiewende scheitert

Der moderne Mensch braucht immer mehr Energie. Kostengünstige Energie und insbesondere preiswerte elektrische Energie sind die wichtigsten Aktivposten einer erfolgreichen Industrienation.  Bei zu hohen Energiepreisen verliert ein Industrieland seine Konkurrenzfähigkeit und steigt wirtschaftlich ab. Elektrische Energie ist zumindest in Industrieländern zur weltweit wichtigsten Energieform geworden.

Dies wird einem erst richtig bewusst, wenn elektrische Energie durch einen Blackout plötzlich fehlt. Während etwa Unterbrechungen der Benzinversorgung nur teure Hindernisse für den Verkehr, die Produktion und das Geschäftsleben sind, bricht dagegen bei einem Blackout plötzlich unsere gesamte technische Lebensgrundlage weg. Kassen und Kühlanlagen in Supermärkten, Licht, Telefon, Radio, Fernsehen, Handy, Wasserversorgung, Bahn und Straßenbahn, kurz alle mit Strom betriebene Technik ist nicht mehr nutzbar. Bisherige Erfahrungen zeigen, dass nach wenigen Tagen Blackout die Supermärkte geplündert werden. Die Ordnungskräfte sind ohne Strom machtlos, nach mehr als einer Woche herrscht gefährliches Chaos. Notstromaggregate in Krankenhäusern haben, wenn überhaupt, nur für die gesetzlich vorgeschriebenen vierundzwanzig Stunden Sprit. Schon bei Stromunterbrechung von einem Tag kann eine Fertigungsstrecke mit Flüssigmetall nur noch verschrottet werden, weil das geschmolzene Metall inzwischen abgekühlt ist und fest wurde. Für eine große Aluminium- oder Kupferhütte, bedeutet dies unter Umständen den wirtschaftlichen Zusammenbruch.

Trotz des höchsten Stellenwertes von elektrischer Energie in Industrienationen ist ihr Anteil vergleichsweise klein im Vergleich mit allen anderen genutzten Energieformen wie im Wesentlichen   von Wärme aus Verbrennung von Kohle, Gas und Erdöl. Weltweit machte Strom im Jahr 2024 je nach Datenquelle zwischen 12 und 17 Prozent der weltweit genutzten Energie aus, in Deutschland waren es genau 15 Prozent. Die weit vorwiegenden Energieträger sind sowohl weltweit als auch in Deutschland immer noch Kohle, Gas und Erdöl. Die hierzulande so propagierten Methoden der Windräder und Photovoltaik zur Stromerzeugung machen weltweit nur jeweils 1 Prozent der Gesamtenergie aus und spielen praktisch keine Rolle. Auch der weltweite Anteil der Kernenergie von etwa 4,5 Prozent ist relativ klein. Die deutschen Zahlen für Wind und Sonne sind zwar etwas höher, aber ebenfalls unbedeutend. Wie kann das aber sein, denn die Medien nennen doch beeindruckend hohe Zahlen? Dieser Widerspruch wird hier später noch aufgeklärt. Seit Kurzem kam künstliche Intelligenz in die Schlagzeilen, nicht zuletzt wegen ihres hohen Stromverbrauchs. Falls sich ihr prognostizierter Anstieg bewahrheiten sollte, ist in hochindustrialisierten Ländern mit einem spürbaren Anstieg der Stromerzeugung zu rechnen.

Woher kommt eigentlich die von uns genutzte Energie? Energie kann schließlich weder erzeugt noch vernichtet werden. Sie steckt in natürlichen Quellen und wird aus der Umwelt bezogen wie aus den fossilen Energiequellen Kohle, Erdöl, Erdgas sowie aus Uran ferner aus Sonnenstrahlung, Wind, Wasserkraft und Biomasse. Die aus diesen Quellen insgesamt gewonnene Energie eines Landes ist seine Primärenergie. Endenergie sind die umgewandelten Energie-Träger wie Kraftstoffe, Heizöl, heißes Wasser als Fernwärme und so weiter. Nutzenergie ist das, was vom Verbraucher verwendet wird, hier insbesondere die elektrische Energie.

Die technischen und physikalischen Eigenschaften von elektrischer Energie, ihre Besonderheiten und die Gründe ihres höchsten Stellenwerts sind die Stationen der Vorlesung. So werden insbesondere die Vorteile von elektrischer Energie gegenüber anderen Energieformen behandelt. Weitere Stationen sind „Die Physik und Technik von elektrischer Energie in Erzeugung, Verbrauch und Speicherung“. Die deutsche Energiewende basiert im wesentlichen auf den im großen Maßstab eingesetzten neuen Methoden der Windräder und Photovoltaik, die ausschließlich elektrische Energie erzeugen. Als Folge dieser neuen Energiepolitik hat Deutschland inzwischen weltweit die höchsten Strompreise. Daher behandelt die letzte Vorlesungs-Station „die Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland.“ Es wird dort auch auf die folgende Kernfrage unserer Stromversorgung eingegangen, die allen technisch besser informierten gewissenhaften Zeitgenossen den Schlaf raubt: Wie weit können überhaupt unsere bisherigen Grundlastkraftwerke mit Kohle und Gas durch die neuen Methoden ersetzt werden? Ferner wird auf die Frage eingegangen, ob das komplette Umkrempeln unserer ehemals bestens funktionierenden Stromwirtschaft, das rücksichtslos gegen unsere überlebenswichtige energieintensive Industrie durchgezogen wird, überhaupt noch vernünftig ist und das Prinzip der Verhältnismäßigkeit einhält.

Ihnen ist inzwischen vielleicht aufgefallen, dass sowohl von elektrischer Energie als auch von elektrischem Strom oder kurz Strom die Rede war, so dass vielleicht der Eindruck entstand, Strom sei mit elektrischer Energie identisch. Das ist aber nicht der Fall. Aber welche Bezeichnungen sind dann korrekt? Die physikalischen Begriffe der Elektrotechnik sind zwar eindeutig definiert und unverwechselbar, nur kümmert sich die Umgangssprache oft nicht darum. So sind zum Beispiel die Bezeichnungen Strommenge oder Stromverbrauch physikalisch unsinnig. Natürlich ist mit Strom fast immer die elektrische Energie gemeint. Weil „elektrische Energie“ aber zu sperrig ist, machen Umgangssprache und sogar Stadtwerke auf der Rechnung einfach Strom daraus. Man sollte hier nachsichtig sein. Die korrekte Ausdrucksweise wird in dieser Vorlesung eingehalten, wenn sie für das Verständnis wichtig ist. Ansonsten wird aber auch hier dem üblichen und nicht immer korrekten Sprachgebrauch gefolgt. Außerdem wissen Sie dann schon aus der Vorlesung, was gemeint ist.

Mit den bitte nicht zu verwechselnden physikalischen Größen Energie und Leistung soll der folgende  kurze Überblick beginnen: „Leistung ist Energie-pro-Zeit“, umgekehrt wird daraus „Energie ist Leistung-mal-Zeit“. Dieser grundlegende Zusammenhang wird uns immer wieder begegnen.  Was ist jetzt aber elektrischer Strom oder kurz Strom? Er ist eine Flussgröße und keine Energiegröße. Strom ist fließende elektrische Ladung, meist von negativ geladenen Elektronen durch einen Stromleiter. Der Elektronenfluss wird von einem elektrischen Potentialunterschied angetrieben wie aus einer Batterie oder einem elektrischen Generator. Diese Bewegung von Elektronen kann nur in Stromleitern erfolgen, das sind vorwiegend geeignete Metalle, meistens Kupfer aber auch Silber, Gold und Aluminium, wobei Silber und Gold sogar noch besser als Kupfer leiten können. In metallischen Stromleitern sind die äußeren Elektronen ihrer Atome relativ frei beweglich, so dass sie sich in Richtung eines elektrischen Potentialgefälles bewegen können.

Die Gravitation spielt beim Strom keine Rolle. Es ist daher auch keine zusätzliche Energie aufzuwenden wenn eine elektrische Leitung ansteigt – im Gegensatz etwa zum Energieaufwand beim wiederholten Transport von Kohle von einem tiefgelegenen zu einem höhergelegenen Ort, den man dann als  zusätzlichen Kostenfaktor ansehen könnte. Aber auch Wasser, das Chloride, Sulfate oder Carbonate enthält, leitet Strom. Sich in der Badewanne zu föhnen ist daher keine gute Idee und könnte tödlich enden, selbst wenn die heute vorgeschriebenen Fehlerstrom-Schutzschalter gefährliche Stromschläge im Bad abwenden. Der Schutzschalter erkennt, wenn nicht aller verbrauchter Strom des Badezimmers über den Null-Leiter abfließt, weil ein Teil unzulässig über Erde, also hier über das Badewasser der Wanne abgeht. Er unterbricht dann sehr schnell in etwa 0,3 Sekunden die Stromzufuhr.

Die Strömungsgeschwindigkeit der Elektronen in einem Stromleiter beträgt erstaunlicherweise nur wenige Millimeter pro Sekunde, auch bei höheren Stromstärken, weil dann auch entsprechend größere Leiterdurchschnitte verwendet werden. Im Gegensatz zu den fast kriechenden Elektronen verbreiten sich aber Änderungen wie zum Beispiel das Absperren des Stroms oder ein elektromagnetischer Impuls mit bis 90 Prozent der Lichtgeschwindigkeit von 300.000 km/s im Stromleiter. Strom als fließende Elektronen erzeugt im Leiter stets ein wenig Reibungswärme, so dass es selbst bei günstigsten Höchstspannungs-Gleichstrom-Übertragungen in Freileitungen zu Verlusten von etwa 3-4 Prozent pro 1000 km Länge kommt. Verlustfreie elektrische Leitfähigkeit als sogenannte Supraleitung gibt es zwar, aber nur in speziellen Metall-Legierungen bei ausreichender Kühlung. Der Rekord der Sprungtemperatur liegt heute – nur im Labor und leider noch nicht in der praktischen Anwendung – bei minus 23 Grad Celsius wobei das hochkomplexe Leitermaterial auch noch unter extrem hohen Druck stehen musste.  In der Praxis werden supraleitende Magnetspulen zum Beispiel im Teilchenbeschleuniger der Genfer Großforschungseinrichtung CERN eingesetzt, wobei bis minus 271 Grad Celsius mit superfluidem Helium gekühlt wird. Das sind nur 2 Grad über dem absoluten Temperaturnullpunkt.

Nun zu den physikalischen Einheiten, der uns hier interessierenden elektrischen Größen. In Deutschland ist seit 1960 das kohärente internationale Einheitensystem SI wie système international gültig. Für die Maßeinheiten werden die Namen maßgeblicher Entdecker von physikalischen Gesetzen genommen, der Anfangsbuchstabe ist dann die Kurzbezeichnung der Maßeinheit. So in der Elektrotechnik für den Strom das A für André Ampere, für die elektrische Spannung das V für Alessandro Volta, und für die elektrische Leistung das W für James Watt. Energie hat die Maßeinheit J für James Joule. Die Sekunde ist ein kleines s zur besseren Unterscheidung.

Fangen wir mit Strom als Fluss von elektrischer Ladung an. Alle Flussgrößen sind Quotienten mit der Zeit im Nenner. Mit der Maßeinheit Coulomb für die elektrische Ladung ist Coulomb-pro-Sekunde die Maßeinheit von Stromstärke als das Ampere. Ein Coulomb enthält übrigens satte 6,2 Trillionen Elektronen-Ladungen, das ist eine Eins mit 18 folgenden Nullen. Die Maßeinheit der elektrischen Spannung ist das Volt. Die Leistung Joule-durch-Sekunde ist in der Elektrotechnik kürzer das identische Watt. Und weil Energie Leistung-mal-Zeit ist, wird die elektrische Energie zu Watt-mal-Sekunde oder kurz Wattsekunde, praktischer meist Kilowattstunde. Eine Wattsekunde ist identisch mit einem Joule. Kilowattstunden finden Sie auf Ihrer Stromrechnung. Man zahlt für die verbrauchte Menge elektrischer Energie und nicht oder höchstens nur einmal für die elektrische Leistung, die nur zur Verfügung steht. Beim Autokauf ist es ähnlich. Im Kaufpreis ist die Leistung des Motors enthalten. Nur für die verbrauchte Energie beim Fahren ist jedesmal beim tanken zu zahlen.

Volt, Ampere und Watt sind durch den einfachen Zusammenhang Volt-mal-Ampere ist Watt miteinander verknüpft. Er kommt hier später immer mal wieder vor. Eine erste Begegnung mit diesem Zusammenhang wären vielleicht die dicken Kabel an der Autobatterie, wobei die Frage aufkommen könnte, warum diese Kabel bei mickrigen 12 Volt der Batterie so dick sind. Die Autobatterie muss aber nicht nur beim Starten des Anlassers ordentlich Leistung in Watt aufbringen. Das kann sie aber bei den wenigen 12 Volt wegen „Volt-mal-Ampere gleich Watt“ nur mit ausreichend viel Strom und der braucht eben dicke Kabel.

Noch weitere Eigenschaften von Strom sind interessant: Eine stromdurchflossene Leitung enthält praktisch keine Energie und sei sie noch so groß wie vielleicht eine 600 Kilometer lange 380.000 Volt Freileitung mit 700 Megawatt. Die elektrische Leistung eines Strom-Erzeugers und seine gelieferte Energie entsprechen ferner genau denen des Verbrauchers, von den geringen Wärmeverlusten der Stromleitung abgesehen. Um in großen Stromnetzen dieses Gleichgewicht von jetzt vielen Erzeugern und noch zahlreicheren Verbrauchern bei sich ändernden Verbrauchswerten einzuhalten, sind Erzeuger erforderlich, die sich problemlos den Verbrauchswerten anpassen können. Das war im ehemalig bestens funktionierenden Stromnetz Deutschlands bis etwa zum Ende des zwanzigsten Jahrhunderts auch der Fall. Mit der Energiewende und ihren jetzt bevorzugten Methoden der Stromerzeugung aus Wind und Sonne entstand dagegen eine bis jetzt ungelöste und hochbrisante Problematik bei der Aufrechterhaltung dieses unabdingbaren Gleichgewichts. Darauf wird hier später noch im Detail eingegangen.

Die Geschichte von Strom und Elektrizität begann im antiken Griechenland, als die elektrischen Eigenschaften von Bernstein durch Reibung entdeckt wurden. Die späteren Entdecker-Namen reichen, um nur wenige zu nennen, von William Gilbert über Benjamin Franklin, Alessandro Volta, André Ampere bis hin zu Nicola Tesla. Erst der Schottische Physiker James Clerk Maxwell erreichte einen endgültigen physikalischen Abschluss mit seinen berühmten elektromagnetischen Feldgleichungen, die man später auf vier Grundgleichungen komprimierte. Die Maxwell-Gleichungen beschreiben vollständig alle Phänomene elektromagnetischer Felder in einem System von vier linearen partiellen Differentialgleichungen erster Ordnung. Später kam als Ergänzung die davon unabhängige Lorentzkraft hinzu, die ein geladenes Teilchen in einem elektromagnetischen Feld erfährt. Diese Bewegung von geladenen Teilchen konnte erst nach Maxwell mit Hilfe der speziellen Relativitätstheorie von Albert Einstein genau beschrieben werden.

Die Maxwell-Gleichungen sind nicht aus noch tieferen physikalischen Gesetzen herleitbar. Sie sind vielmehr die geniale Zusammenfassung aller vor Maxwell entdeckten physikalischen Gesetze von Elektrizität und Elektromagnetismus. Solch eine grundsätzlich nicht mehr zu verbessernde Zusammenstellung wird als ein physikalisches Grundsystem bezeichnet. Grundsysteme prägen unser Weltverständnis. In den Maxwell-Gleichungen ist der gesamte Elektromagnetismus sowie alles von Wellenausbreitung, über Antennen, elektrische Schaltkreise, bis hin zu Elektro-Motoren enthalten, einfach alles. Die Maxwell-Gleichungen sind unverändert auch ein wichtiger Baustein der modernsten physikalischen Feldtheorien wie der Quantenelektrodynamik. Ein physikalisches Grundsystem kann etwa so charakterisiert werden: Es wird mit mathematischen Gleichungen der Systemgrößen beschrieben, alle eingehenden Größen sind messbar, und schließlich bestätigen Messungen die rechnerischen Ergebnisse des Grundsystems mit prinzipiell beliebiger Genauigkeit. Der letzte Punkt ist der wichtigste. Weitere physikalische Grundsysteme sind die allgemeine Relativitätstheorie, die Quantenmechanik und die schon erwähnte Quantenelektrodynamik.

Natürlich ist es in der elektrotechnischen Praxis mit den Maxwell-Gleichungen allein noch nicht getan, denn den konkreten Anwendungen sind noch Materialgleichungen hinzuzufügen. So ist zum Beispiel der Widerstandsfaktor im Ohmschen Gesetz vom Material abhängig. Schließlich werden Lösungen der Maxwell-Gleichungen benötigt, wenn beispielsweise der optimale Aufbau eines neu konstruierten Elektromotors berechnet werden soll. Analytische Lösungen sind hier aber nur in einfachsten Spezialfällen möglich. Die Lösungen der Maxwell-Gleichungen zusammen mit allen Materialgleichungen können nur numerisch aber dennoch beliebig genau mit dem Computer berechnet werden. Dabei wird das stetige System der Maxwell-Gleichungen in ein diskretes System umgewandelt. Aus Differentialquotienten werden Differenzenquotienten. Numerisch wird der Raum wie beispielsweise der eines Elektromotors, der optimiert werden soll, in finite Elemente mit Stützstellen und Gittern aufgeteilt. Je kleiner die finiten Elemente, umso genauer wird die Lösung.

Bei der täglichen Nutzung von Strom wird man mit Gleichstrom und Wechselstrom bekannt. Alle mit Batterien betriebenen Geräte wie zum Beispiel Heckenscheren, die ohne lästige Stromkabel auskommen, werden von Gleichstrom-Motoren angetrieben. Im Gegensatz dazu wird bei uns die Geschirrspülmaschine oder der Haarföhn mit 230 Volt Wechselstrommotoren betrieben. Warum gibt es die Trennung in Gleichstrom und Wechselstrom überhaupt?

Ursprung der Trennung war um 1890 ein technisch-wirtschaftlicher Stromkrieg zwischen Thomas Edison und George Westinghouse um die geeignete Technik für Beleuchtung. Dabei ging es um viel Geld von Marktanteilen. Edison war für Gleichstrom, Westinghouse für Wechselstrom. Westinghouse gewann diesen Krieg. Bei Gleichstrom bleibt die Stromrichtung konstant, bei Wechselstrom ändert sie sich periodisch. Weltweit ist die Wechselstromfrequenz 50 Hertz, also 50 Wechsel pro Sekunde. 50 Hertz wurden in Europa und dem größten Teil der Welt als bester Kompromiss für alle Anwendungen von Wechselstrom angesehen. Die ebenfalls noch verwendeten 60 Hertz spielen – außer in den USA – nur noch eine untergeordnete Rolle. Neben einfachem Wechselstrom gibt es auch Dreiphasenwechselstrom, der als Drehstrom bezeichnet wird. Er ist bei viel Leistung von Vorteil wie zum Beispiel bei großen Wasserboilern oder Wärmepumpen und hat drei Anschlüsse im Gegensatz zum Wechselstrom mit zwei Anschlüssen.

Westinghouse setzte sich durch, weil der maßgebende Vorteil von Wechselstrom gegenüber Gleichstrom die Möglichkeit ist, Spannung mit dem relativ einfachen elektrischen Bauelement „Transformator“ auf höhere oder tiefere Spannungen zu transformieren. An der Leistung ändert sich dabei nichts, von Wärmeverlusten abgesehen. Ein Transformator ist im Prinzip ein U-förmiger Eisenkern mit gegenüberliegenden Spulen aus isoliertem Kupferdraht. Damit kann die Spannung von Freileitungen beliebig erhöht werden wie zum Beispiel hierzulande maximal bis auf 380.000 Volt, um die Stromstärken und damit die Kabelquerschnitte für die hohen Leistungen solcher Freileitungen noch wirtschaftlich klein zu halten. Hier begegnet uns wieder die Beziehung Volt-mal-Ampere ist Watt – je höher die Spannung, umso weniger Ampere und Kupfer sind nötig.

Nur bei extrem langen Höchstspannungs-Freileitungen ab 800 Kilometer aufwärts wird auch wieder Gleichstrom eingesetzt, weil dort die Übertragungsverluste trotz der Konverterverluste durch die Spannungserhöhung mit Transformatoren sowie der Verluste bei Umwandlung von Wechselstrom in Gleichstrom und umgekehrt wieder kleiner als bei reiner Wechselspannung werden. Der Transformator und damit das kaufmännische weniger Kupfer bei längeren Stromleitungen war der entscheidende Vorteil, mit dem Westinghouse seinen Punktsieg errang.  Bei Verwendung von Gleichstrom ist es dagegen vorteilhaft, dass es keine störende Blindleistung gibt. Dieser Effekt war Edison und Westinghouse bei ihrem Streit aber noch nicht bekannt. Wegen Abwesenheit von Blindleistung wird Gleichstrom heute meist bei Energieübertragung durch Seekabel verwendet. Die Umwandlung von Wechselstrom oder Drehstrom in Gleichstrom und umgekehrt erfolgt in sogenannten Stromrichterstationen.

Nach diesem Überblick soll nun die Energie behandelt werden, insbesondere die elektrische Energie. Alle Energie, die auf der Erde vorzufinden ist, ist entweder umgewandelte Sonnenenergie, die in fossilen Brennstoffen schlummert oder Kernenergie aus Kernspaltung. Zur Kernenergie und ihren Gegnern sei eine kurze Anmerkung erlaubt: Die Kernenergie ist keine Erfindung des Leibhaftigen, sondern völlig natürlich und wurde vom modernen Menschen nur wiederentdeckt. Im afrikanischen Gabun fand man fünfzehn natürliche Kernreaktoren, die durch eine Verkettung von ganz natürlichen Umständen kritisch wurden, über eine halbe Millionen Jahre aktiv waren, insgesamt einige hundert Terawattstunden Wärme erzeugten und vor bereits 1,5 Milliarden Jahren erloschen sind.  Zurück zu den natürlichen Umgebungsenergien. Zu denen zählt die Strahlungsenergie der Sonne, die ebenfalls aus Kernenergie stammt, hier aber aus Kernfusion. Ferner gibt es noch die Bewegungsenergien von Wind, Meeresströmungen und Gezeiten, die aus der Bewegungsenergie unseres planetarischen Systems Erde und Mond kommen.

Gezeiten, Meeresströmungen und Wind erzeugen Reibungswärme, die letztlich wieder als Strahlung ins Weltall verschwindet. Die Rotationsenergie der Erde wird durch diese Reibungsverluste verringert und als Folge davon wird die Umdrehungsdauer der Erde, also die Tagesdauer, immer länger. Zudem entfernt sich dadurch auch der Mond immer weiter von der Erde und zwar um 3,83 Zentimeter pro Jahr. Die Tageslänge erhöht sich zwar nur um etwa 20 Sekunden über eine Million Jahre, aber das addiert sich mit der Zeit. Seit Aussterben der Dinosaurier vor 65 Millionen Jahren ist unsere Tageslänge immerhin schon 22 Minuten größer geworden. Wenn man es ganz genau will, entziehen auch die unnatürlichen Windräder dem Wind Energie und verstärken damit weiter die Vergrößerung unserer Tagesdauer.

Energie kann weder erzeugt noch vernichtet, sondern nur von einer Energieform in eine andere umgewandelt werden. Dabei entstehen stets Verluste, in aller Regel als Wärme wie zum Beispiel in Maschinen mit bewegten Teilen als Reibungswärme. Wenn allerdings Wärme in eine andere Energieform wie zum Beispiel in elektrische Energie oder mechanische Energie umgewandelt werden soll, geht das in größerem Maßstab nur mit Wärmekraftmaschinen, wobei physikalisch grundsätzliche Verluste unvermeidbar sind. Nur über thermoelektrische Hybridmaterialien können geringe Strommengen direkt erzeugt werden. Der französische Physiker Sadi Carnot hat die physikalische Gesetzmäßigkeit von Wärmekraftmaschinen um 1824 mit seinem berühmten Carnot-Prozess entdeckt und damit ungewollt gleich auch noch die neue physikalische Disziplin Thermodynamik gegründet. Das Prinzip des Carnot-Prozesses ist eine von mehreren Formulierungen des zweiten Hauptsatzes der Wärmelehre und gehört zu einem für die ingenieurtechnische Anwendung wichtigsten Prinzip überhaupt.

Jede Wärmekraftmaschine hat ein Wärmereservoir hoher Temperatur und eines mit tieferer Temperatur. In größeren Anwendungen wird dabei meist Gas oder Wasserdampf genutzt. In einem Gas-und-Dampfkraftwerk, kurz GUD, wird beides kombiniert, wobei übrigens mit dem Begriff Kraftwerk immer die Erzeugung von Strom gemeint ist. Im GUD erzeugen die noch heißen Gase am Ausgang der Gasturbine Dampf für eine parallellaufende Dampfturbine.

Nun zum zweiten Hauptsatz der Thermodynamik: Er besagt, dass in Wärmekraftmaschinen ein theoretischer Bestwirkungsgrad nicht überschritten werden kann. Man erhält seinen Wert, indem man die Temperaturdifferenz der beiden Reservoire durch die Temperatur des wärmeren Reservoirs teilt. Dies zeigt schon, dass für gute Wirkungsgrade die Temperaturdifferenz möglichst hoch sein sollte. Daher vermutet man richtig, dass beispielsweise elektrische Energie aus deutscher Erdwärme dem Verfahren von Kohleverbrennung hoffnungslos unterlegen ist. In Island, wo sich heiße Erdzonen extrem nahe unter der Oberfläche befinden, ist das aber anders. Die elektrische Energie von Island kommt tatsächlich zu 29 Prozent aus Geothermie, die restlichen 71 Prozent aus Wasserkraft – um dieses Geschenk der Natur ist Island zu beneiden.

Zurück zu Carnot. Der Wirkungsgrad eines Benzinmotors ist seine mechanische Antriebsenergie geteilt durch die Verbrennungswärme des Benzins. Er beträgt wegen des Carnot-Prozesses nur ungefähr 0,3 oder 30 Prozent – beim Diesel geht es herauf bis 45 Prozent. Das theoretische Carnot-Prinzip geht über die spezielle Wärmekraftmaschine weit hinaus, denn der zweite Hauptsatz der Thermodynamik besagt auch noch, dass Wärme durch überhaupt keine periodisch arbeitende Maschine vollständig in Arbeit umgesetzt werden kann, und sei sie noch so raffiniert gebaut. Auch wir Menschen unterliegen dem zweiten Hauptsatz der Thermodynamik, denn wenn wir Körperenergie einsetzen, wird es uns warm. Auch unsere Erde muss dem zweiten Hauptsatz gehorchen. Hier ist das warme Reservoir die Sonne und das kalte Reservoir der dunkle Weltraum. Weitere, dem zweiten Hauptsatz unterliegenden Anwendungen sind der Kühlschrank, der aus Strom im Kühlfach Kälte und außen an seiner Rückwand Wärme erzeugt. Die jüngst propagierte Wärmepumpe funktioniert, anschaulich ausgedrückt, wie ein umgekehrt laufender Kühlschrank. Sie ist wesentlich energieeffizienter als die Wärmeerzeugung mit einer simplen elektrischen Widerstandsheizung.

Die Umwandlung von elektrischer Energie in mechanische Energie mittels eines Elektromotors und auch der umgekehrte Vorgang sind dagegen prinzipiell verlustfrei, von unvermeidbaren geringfügigen Reibungsverlusten abgesehen. Elektrische Energie und mechanische Energie zählt man daher zu den wertvollen Energien, weil ihre Umwandlung in andere Energieformen prinzipiell verlustfrei ist. Wärme ist dagegen die am wenigsten wertvolle Energie, weil ihre Umwandlung in andere Energiearten dem grundlegenden Carnot-Verlust unterliegt.

Die Menge an elektrischer Energie, die mit Kohle, Mineralöl oder Erdgas betriebene Kraftwerke weltweit erzeugen, übertrifft bei weitem die aller anderen Methoden. Kernkraftwerke könnte man noch dazuzählen, weil die Kernspaltung Wärmeenergie erzeugt, die dann genauso wie in den fossilen Kraftwerken über Dampfturbinen in elektrische Energie umgewandelt wird. Ferner werden noch Wind, Sonneneinstrahlung und Biomasse zur Stromerzeugung eingesetzt. Wegen der prinzipiellen Carnot-Verluste könnte man annehmen, dass Stromerzeugung aus Wärme generell ungünstiger sei als Strom aus Wind oder Sonne. Dies trifft nicht zu. Es wird sich später noch zeigen, dass die Vorteile fehlender Carnot-Verluste bei der Stromerzeugung aus Wind und Sonne sogar völlig vernachlässigbar sind, wenn man diese Vorteile mit den grundlegenden Nachteilen von Wind und Sonne vergleicht.

Elektrische Energie kann nur in geringen Mengen direkt gespeichert werden. Das erfolgt mit passiven elektrischen Bauelementen wie Kondensatoren. Selbst sogenannte Superkondensatoren können aber nur um 20 Wattstunden Energie pro Kilogramm Kondensatorgewicht speichern. Das reicht für Anwendungen wie die sogenannte Powerbank, die aufgeladen und mit relativ kleinen Abmessungen und geringem Gewicht als nützliches Werkzeug im Fahrzeug mitgenommen wird. Damit kann man auch in einem großen Fahrzeug wieder den Anlasser starten, wenn die Batterie schlapp gemacht hat. Die hohe aber nur sehr kurze von der Powerbank aufrechterhaltene Leistung reicht dafür aus. Hier geht es aber jetzt um elektrische Energie, die um mehrere Größenordnungen größer sein muss als die in Powerbanks. Sie wäre zu speichern, um beispielsweise für die Überbrückung eines längeren Blackouts zu sorgen. Das geht nur durch indirekte Speicherung von Energie mit chemischen, hochgewichtigen und kostspieligen Batterien – heute meist Lithium-Ionen-Batterien. Eine andere Lösung wären Pumpspeicheranlagen, die die Lageenergie von Wasser zwischen einem Berg und dem zugehörigen Tal nutzen.

Die Energiekosten von Lithium-Ionen-Batterien werden unterschiedlich angegeben. Sie liegen aktuell am günstigsten bei etwa 100.000 Euro für eine Megawattstunde. Als Anschauungsbeispiel wollen wir verlangen, dass bei einem längeren bundesweiten Blackout, wenigstens für einen Tag die elektrische Energie Deutschlands durch derartige Batterien überbrückt werden sollte und nach den Kosten fragen. Die Realisierbarkeit dieses Szenarios ist mühelos abzuschätzen: Das Umweltbundesamt nennt im Schnitt etwa 550 Terawattstunden benötigter elektrischer Energie in Deutschland pro Jahr. 550-durch-365 Tage sind 1,5 Terawattstunden, die unsere Batterien an einem einzigen Tag ersetzen müssten. Mit 100.000 Euro für eine Megawattstunde kostet der Ersatz aus Batteriestrom 150 Milliarden Euro. Die zusätzlichen Kosten für die Anschlusstechnik der Batterien, ihre Lagerung, ihr Aufladen etc. sind dabei unberücksichtigt, auch nicht die Kosten von Batterieverschleiß durch allmählichen Verlust der Leistung aufgrund von Alterung. Die dramatische Kapazitätsabnahme von Batterien bei Kälte soll ebenfalls keine Rolle spielen. Unsere elementare Abschätzung reicht bereits aus, um zu belegen, dass die Batterielösung aus wirtschaftlichen Gründen völlig unrealistisch ist.

Es bleiben dann in Deutschland nur noch Pumpspeicherwerke übrig wie das hierzulande größte – Goldisthal in Thüringen –, dessen technische Werte wir verwenden wollen. Große Staudämme haben wir nicht, und alle anderen immer wieder einmal vorgeschlagenen Lösungen sind noch teurer. Pumpspeicherwerke verfügen über ein Wasser-Reservoir im Tal und eines auf dem Berg. Ist für das Pumpspeicherwerk ausreichend Strom aus dem Netz verfügbar, wird von der Tal-Pumpturbine in das obere Reservoir Wasser gepumpt, das Pumpspeicherwerk wird sozusagen geladen. Fehlt Strom, wird das Wasser unter Ausnutzung seiner Lageenergie im oberen Reservoir über die 800 Meter lange Wasserleitung von Goldisthal wieder von der Tal-Pumpturbine in elektrische Energie umgewandelt. Die maximal gespeicherte Energiemenge von Goldisthal beträgt 8,5 Gigawatt-Stunden. Die kürzeste Entleerungsdauer beträgt eine Stunde, dabei ist die Maximalleistung ca. 1 Gigawatt. Für den Ausgleich eines vollen Tages Blackout in Deutschland, bräuchte man unter großzügiger Weglassung der nicht mehr zu vernachlässigenden Reibungsverluste der Wasserleitung mindestens 180 Pumpspeicherwerke mit der Leistung von Goldisthal. Deutschland hat für Pumpspeicherwerke aber nicht einmal die topographischen Voraussetzungen.

Vor dem näheren Eingehen auf die Erzeugungsmethoden von elektrischer Energie in Deutschland ist eine aktuelle Bestandsaufnahme sinnvoll, um eine konkrete Vorstellung über die Größenverhältnisse zu erhalten: Elektrische Energie hat, wie schon erwähnt, hierzulande nur einen Anteil von 15 Prozent an der deutschen Primärenergie, weltweit ist der Wert ähnlich. 80 Prozent der Primärenergie Deutschlands kommen immer noch aus Kohle, Erdöl und Erdgas, weltweit ist dieser Anteil etwa gleich groß. Deutschland unterscheidet sich daher in der Primärenergie mit den beiden Werten 15 Prozent elektrischer Energie und 80 Prozent Energie aus fossilen Brennstoffen kaum von der weltweiten Situation.

Ganz anders sieht es dagegen bei den Methoden zur Erzeugung von elektrischer Energie aus. Hier macht Deutschland zusammen mit wenigen Ländern eine auffällige Ausnahme im weltweiten Vergleich. Im Jahr 2024 wurde die elektrische Energie Deutschlands zu etwa 37 Prozent aus Kohle und Erdgas, aber bereits schon zu 31 Prozent aus Windrädern und zu 14 Prozent aus Photovoltaik erzeugt. Weltweit sind dagegen Kohle und Erdgas mit 47 Prozent deutlich stärker, Wind mit 8 Prozent und Photovoltaik mit 7 Prozent viel schwächer. Deutschland betreibt eine deutliche Verschiebung seiner Erzeugungsmethoden von Strom hin zu mehr Wind und Sonne und weg von Kohle und Gas. Ob dieser Sonderweg technisch und wirtschaftlich sinnvoll ist, und welche Konsequenzen er für die Versorgungssicherheit mit Strom nach sich zieht, wird hier noch näher untersucht.

Bezieht man freilich für Deutschland die Anteile von Wind und Photovoltaik nicht auf die elektrische Energie, sondern auf die Primärenergie, bleibt von den eindrucksvollen Zahlen nichts mehr übrig, nämlich nur 4,5 Prozent Primärenergie-Anteile aus Wind- und 1,8 Prozent aus Photovoltaik. Weltweit ist es noch einmal weniger. Nur 1 Prozent der Primärenergie aus Wind und 1 Prozent aus Photovoltaik wurden schon erwähnt. Die stolzen Erfolgsmeldungen in den öffentlich rechtlichen Sendern über deutsche Windenergie von 31 Prozent, wobei dabei oft gerne vergessen wird zu erwähnen, dass diese Zahl sich nur auf elektrische Energie bezieht, sind korrekt. Die wohl wichtigere Zahl von nur 4,5 Prozent Wind an der Primärenergie war dagegen in den Öffentlichrechtlichen noch nie zu vernehmen. Somit ist der Widerspruch der in den Medien genannten Zahlen mit den realen Verhältnissen geklärt.

Die viel wichtigeren wesentlich kleineren Anteile von Wind- und Sonnenstrom an der Primärenergie werden salopp verschwiegen, weil die langfristige Planung über die jetzige Energiewende hinaus die sogenannte Sektorenkoppelung vorsieht. Dabei soll der Einzelsektor „elektrische Energie“ auf alle Sektoren bis hin zur Wärmedämmung von Gebäuden erweitert werden. Sektorenkoppelung ist im Klartext auch Dekarbonisierung, denn so gut wie alle Primärenergie soll dabei nur noch aus CO2-freiem Strom von Wind und Sonne kommen. Dies bei heute mickrigen 4,5 Prozent Windstromanteil trotz 30.000 Windräder. Der Energieexperte Professor André Thess, Institutsleiter der Universität Stuttgart, hat die Kosten von Dekarbonisierung bis 2045 rechnerisch gut nachvollziehbar zu 10 Billionen Euros geschätzt. Diese Summe belegt, dass den politischen Planern des Abersinns Energiewende und auch noch Sektorenkopplung jede Wirklichkeitsnähe, jedes Verständnis von Physik und Technik und jede Beachtung von Verhältnismäßigkeit abgeht.

Will man nun ganz allgemein die in modernen Batterien gespeicherte elektrische Energie mit der aus fossilen Brennstoffen oder Uran vergleichen, benötigt man die hier schon einmal verwendete Energiedichte als Quotient von Energie pro Gewicht. Ihre Maßeinheit ist die Wattsekunde durch Kilogramm. Lehrreich ist der Vergleich der Energiedichte einer modernen Lithium-Ionen-Batterie von 0,2 Kilowattstunden-pro-Kilogramm, mit der Energiedichte von Dieseltreibstoff von 5,3 Kilowattstunden pro Kilogramm, wobei in dieser Zahl die prinzipiellen Carnot-Verluste des Diesels mitberücksichtigt sind. Wir werden diesen Wert später noch einmal brauchen. Die 5,3 Kilowattstunden des Diesel dividiert durch die 0,2 der Batterie ergeben rund 26. Diesel hat also einen 26-fachen Energievorsprung vor einem E-Auto, beim Benziner ist der Vorsprung nur um etwa 20% kleiner. Oder anders ausgedrückt: Ein Diesel-Auto hat bei gleichem Gewicht im Tank wie ein E-Auto 26 Mal mehr Antriebsenergie zur Verfügung. Die geringe Reichweite von E-Autos wird nun besser verständlich. Hinzu kommt, dass E-Autos bei Temperaturen unter Null Grad Celsius dramatisch an verfügbarer Reichweite verlieren.

Wichtiger und interessanter ist dann allerdings der Vergleich der Energieeffizienz von Wind mit Kohle. Er erfordert den Begriff der Leistungsdichte als Leistung pro Fläche, also Watt-pro-Quadratmeter. Die Art der Fläche hängt von der Anwendung ab, hier wird die „verbrauchte Bodenfläche der jeweiligen Methode“ verwendet. Bei Windrädern ist dabei zu beachten, dass sie aus technischen und Kosten-Gründen in Windparks, oder genauer ausgedrückt, in Windrad-Industriegebieten installiert werden. Dort sind Mindestabstände gegen leistungsmindernde gegenseitige Strömungsbeeinflussung erforderlich. Über das Jahr 2024 und ganz Deutschland Onshore gemittelt betrug die mittlere Wind-Leistungsdichte 3,7 Watt-pro-Quadratmeter Bodenfläche. Für Kohle sind es dagegen um die 8000 Watt-pro-Quadratmeter Bodenfläche. Der Flächenverbrauch eines Windrads ist also mehrtausendfach größer als der von einem Kohlekraftwerk. Die 3,7 Watt pro Quadratmeter werden hier später noch einmal benötigt.

Unterschiedliche Leistungsdichten sind für den realen Nutzen der miteinander verglichenen Methoden absolut ausschlaggebend. Je höher die Leistungsdichte einer Methode zur Erzeugung von elektrischer Energie ist, um so effizienter, naturschonender und materialschonender ist sie. Das erkennt man sofort, wenn man die Definition Leistungsdichte ist Leistung-durch-Fläche umkehrt und als Leistung ist Leistungsdichte-mal-Fläche formuliert. Bei zu geringer Leistungsdichte benötigt man eine sehr große Fläche, damit das Produkt Leistungsdichte-mal-Fläche, also die gewünschte Leistung, noch ausreichend groß wird. Große Systemflächen bedeuten zudem noch großen Materialverbrauch des Systems. Man braucht dabei nur an Windrad-Riesenmonster zu denken, bei denen ausschließlich die zu geringe Leistungsdichte der Grund ist, warum sie so riesig sind. In einem schon älteren Artikel der ZEIT wurden Energien aus Wind und Sonne wegen ihrer Sanftheit dagegen als optimal umweltschonend bezeichnet. Das ist bereits absurd, denn es ist genau umgekehrt. Je sanfter eine Methode der Stromerzeugung ist, um so kleiner ist ihre Leistungsdichte, und um so größer ist ihr Flächenverbrauch, ihr Materialaufwand und ihre Umweltschädigung.

Historisch verlief die bisherige Entwicklung aller technischen Energiemethoden grundsätzlich immer von kleineren zu höheren Leistungsdichten. Das Umgekehrte gab es nie. Das Aufkommen von Windrädern verletzt dieses – man ist versucht zu sagen Naturgesetz – weil es den Weg zurück ins energetische Mittelalter beschreitet. Windräder basieren trotz modernster eingebauter Technik auf der mittelalterlichen Methode der Windmühle. Selbst modernste Technik vermag aber nicht die physikalischen Gesetzmäßigkeiten des mittelalterlichen Windmühlenprinzips auszuhebeln. Man kann aus der Wind-Leistungsdichte von den schon erwähnten 3,7 Watt pro Quadratmeter Bodenfläche nun auch den Flächenverbrauch bei hypothetisch allem Strom Deutschlands aus Onshore-Wind abschätzen. Das Ergebnis nähert sich der Gesamtfläche Thüringens. Bei Sektorenkoppelung wären es 15 Mal Gesamtfläche mehr. Das belegt wieder wie schon betont die meilenweite Entfernung der deutschen Energiepolitik von Wirklichkeit und Verhältnismäßigkeit.

Das hier bisher Geschilderte wird von der begutachteten wissenschaftlichen Fachliteratur vollumfänglich bestätigt. Es handelt sich dabei um eine begutachtete Studie von Weißbach und Mitautoren, die im Fachjournal Energy des renommierten Elsevier-Verlags erschien. Um sie zu lesen, tippe man den Titelbeginn der Studie „Energy intensities, energy returned on invested“ ins Suchfenster von Google Scholar und klicke danach rechts unten auf „alle 17 Versionen“. Dort findet sich ein pdf des papers. Bild 3 auf Seite 219 zeigt die Verhältnisse an gelben Balken mit Schrägstrichen, wobei die Effizienz von acht Methoden von Photovoltaik bis hin zu Kernenergie miteinander verglichen werden. Das Ergebnis ist überdeutlich: Wind, Photovoltaik und Biomasse sind die ungünstigsten Methoden zur Erzeugung von elektrischer Energie überhaupt, sie liegen sogar unter der im Bild 3 eingetragenen ökonomischen Schwelle von OECD-Ländern und kommen daher für die Erzeugung elektrischer Energie großen Maßstabs nicht in Frage. Zu geringe Leistungsdichte bei der Erzeugung von elektrischer Energie mit Wind, Sonne und Biomasse wird hier im Folgenden als ihr „erster Fundamentalmangel“ bezeichnet. Es gibt nun aber noch einen zweiten Fundamentalmangel, der nur Wind- und Sonne betrifft.

Die dringend erforderliche Bekanntheit des ersten Fundamentalmangels von Wind- und Sonnenstrom wird leider durch weitgehende Unkenntnis des Begriffs „Leistungsdichte“ verhindert. Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist dagegen wesentlich anschaulicher und daher besser bekannt. Er hat es schon bis in alle Medien geschafft. Es ist die Wetterabhängigkeit von Wind- und Sonnen-Energie, der die Stromlieferungen dieser beiden Methoden zufällig und zappelig macht.

Zufalls-Strom kann ohne weitere Maßnahmen nicht in das deutsche Wechselstromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund schon für Glättung sorgt, weil irgendwo immer Wind wehen würde, hat eine ausführliche Studie des technischen Fachverbands für Energieanlagenbetreiber VBG widerlegt. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“ Zitatende. Die Studie steht nach eingeben in Ihrem Browser von „VGB-Studie: Windenergie in Deutschland und Europa“ frei im Internet.

Die erwähnten Backup-Systeme sind heute schnell reagierende Gaskraftwerke, Kohlekraftwerke oder auch alte Ölkraftwerke. Diskussionswürdige Stromspeicherlösungen gibt es nicht, wie es hier bereits belegt wurde. Man muss daher für ausfallenden Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, das die Gesamtkosten der Stromversorgung mit Wind- und Photovoltaikanlagen zumindest verdoppelt. Genau dies ist bereits erfolgt, aber unvollständig. Schaut man sich die Grafiken der stündlichen Energieeinspeisungen von Wind- und Sonnenstrom an, fallen die extremen Fluktuationen auf, bei Wind noch wesentlich stärker als bei Sonne.

Das liegt an folgendem physikalischen Gesetz für alle Strömungsmaschinen, so auch für Windräder. Ihre Leistung ist grob proportional zur dritten Potenz der Windgeschwindigkeit. Nur grob, weil die nur für Windräder gültige Betz-Joukowsky-Grenze noch eine Rolle spielt. Ist die Windgeschwindigkeit nur noch halb so groß, halbiert sich nicht die erbrachte Leistung wie man eigentlich vermuten könnte, sondern wird zu ½ hoch drei gleich 1/8 oder 12 Prozent. Windräder in schwachwindigen Wäldern sind daher besonders unsinnig. Der zweite Fundamentalmangel und das v-hoch-3 Gesetz bewirken, dass Onshore-Windräder über Deutschland und das Jahr gemittelt nur etwa 20% ihrer Nennleistung erbringen, Offshore ist es etwa das Doppelte.

Ein Dieselauto zu betanken reicht bereits aus, um die Schwächen von Windrädern zu veranschaulichen. Durch den Zapfhahn einer Tankstelle fließen etwa 0,7 Liter Diesel pro Sekunde, das sind etwa 2000 Kilogramm pro Stunde unter Berücksichtigung des spezifischen Gewichts von Diesel. Multipliziert man dies mit der schon erwähnten Diesel-Energiedichte von 5,3 Kilowattstunden-pro-Kilogramm, ergibt sich für den strömenden Dieseltreibstoff eine Leistung von 12 Megawatt. Im Zahlenwert 5,3 ist der Carnot-Verlust bereits berücksichtigt. Auf der anderen Seite hat ein modernes Windrad wie zum Beispiel die Enercon E-160 EP5 mit 5 Megawatt Nennleistung nur 20 Prozent Realleistung, gemittelt über ganz Deutschland und ein Jahr. Das sind ein Megawatt. Tanken Sie Diesel, so erfolgt dies demnach mit rund der 10-fachen Realleistung eines großen Windrads. Oder anders ausgedrückt: Ein einziger Diesel-Füllhahn hat die gleiche Leistung wie zusammen 10 große deutsche Windräder. Dies macht der Diesel-Füllhahn aber, ohne die insgesamt 70.000 Tonnen Material der 10 Windräder inklusive der Fundamente und auch ohne die von den 10 Windrädern belegte Bodenfläche von etwa 270 Hektar zu bemühen. Die fast unwahrscheinlich erscheinenden extremen Zahlen dieses Beispiels sind leider zutreffend und belegen die fatalen Konsequenzen der zu geringen Leistungsdichte von Wind.

Die Photovoltaik zeigt als Besonderheit einen deutlichen Leistungshügel mit dem Gipfel im Sommer. Im Winter kommt nur noch wenig Sonnenstrom an, nachts das ganze Jahr überhaupt nichts.

Noch einmal zurück zum zweiten Fundamentalmangel. Infolge der Abschaltung aller deutschen Kernkraftwerke, der Beseitigung von selbst mit modernsten Filtern ausgestatteten Kohlekraftwerke und infolgedessen zunehmenden Wind- und Sonnenstroms, entsteht immer öfter die Situation von Stromunterdeckung oder umgekehrt von Stromüberschuss, der genauso gefährlich ist. Wenn zu viel Wind herrscht und auch noch die Sonne mithilft, muss Strom ans Ausland verkauft oder sogar gegen Aufpreis verschenkt werden. Im Fall von zu wenig Strom müssen die fossilen Ersatzkraftwerke gestartet oder Strom vom Ausland eingekauft werden. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten. Bereits bei höheren Abweichungen als ± 0,2 Hertz droht ein großflächiger Blackout wie er erst jüngst im einem Großbereich von Spanien Portugal und Südfrankreich vorkam. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihren problemlos dem schwankenden Verbrauch anpassbaren Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist ohne Ersatzkraftwerke oder die Mithilfe französischer Kernkraftwerke nicht in der Lage, immer den Strombedarf zu decken. Fossile Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und daher wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen.

Inzwischen sind zur Aufrechterhaltung sicherer Stromversorgung sogenannte dispatch-Maßnahmen in drei Regelungsstufen erforderlich. Primäre Stufe sind Störungen im Sekundbereich, sekundäre im Bereich mehrerer Minuten und tertiäre ab 15 Minuten aufwärts. Von Hand können meist nur im Tertiärbereich Ersatzstromquellen zugeschaltet oder vom Netz genommen werden. Solche Maßnahmen gab es bis Ende des zwanzigsten Jahrhunderts nur in einstelliger Anzahl pro Jahr. Heute liegt die Anzahl der jährlichen dispatch-Eingriffe – automatisch oder von Hand – bei rund Zwanzigtausend, und ihre jährlichen Kosten gehen in die Milliarden Euro.

Wegen ihrer extrem kurzen Reaktionszeit ist die Primärregelung kritisch und entscheidend. Sie kann weder durch Eingreifen per Hand noch durch automatische dispatch-Regelung erfolgen. Fällt beispielsweise ein großer Umspannungstransformator durch einen Defekt, Terroranschlag, oder Blitzschlag aus, ist dies ein Vorgang im Sekundenbereich. Die inzwischen vorliegenden Fachuntersuchungen der Gründe des jüngsten großen Blackouts in Spanien deuten tatsächlich auf das Fehlen ausreichender Primärregelung. Zu wenige Grundlastkraftwerke liefen und zu viel Sonnenstrom wurde eingespeist.

Die einzige Abhilfe bei Sekundenstörungen vermag nur die Physik zu liefern. Es sind die extrem hohen Rotationsenergien der Dampfturbinen-Rotoren aller Grundlastkraftwerke mit Kohle und ehemals Uran. Plötzliche Leistungsungleichgewichte durch Störungen im Sekundenbereich werden durch Abbremsen oder Beschleunigen dieser riesigen Rotoren verzögerungsfrei ausgeglichen. Ihre Rotorwellen sind bis 40 m lang, können bis 300 Tonnen wiegen und drehen sich mit genau der Netzfrequenz von 50 Hertz oder 3000 Umdrehungen pro Minute. Bei plötzlichem Leistungsabfall infolge einer schnellen Netzstörung springen sie ohne jedwedes Zutun ein und bügeln die Störung ausreichend lang weg bis die Sekundärregelung eingreifen kann. Kurz, die einzige Lösung der Primärregelungsproblematik ist die ausreichende Rotationsenergie aller Stromerzeuger im deutschen Stromnetz. Sie gibt es nur mit ausreichend vielen Grundlastkraftwerken. Kommt der Strom nur noch aus Wind und Sonne, ist das deutsche Wechselstromnetz grundsätzlich instabil und nicht mehr regelbar.

Daraus ergibt sich die dringende Frage wie viele Grundlastkraftwerke unabdingbar vorhanden sein müssen. Exakt ist sie nicht zu beantworten. Die Mindestanzahl an Grundlastkraftwerken hängt von der aktuellen Netzstruktur und davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW ging dieser überlebenswichtigen Frage in einer Fachstudie nach. Sie ist nach Eingabe des Titels „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“ in Ihren Browser als pdf verfügbar. Als Ergebnis wird eine Mindestregelleistung von 20 Gigawatt für den Regelblock Deutschland angegeben, was einem Drittel der mittleren Gesamtleistung von etwa 60 Gigawatt an deutschem Strom entspricht. Mit den momentan noch vorhandenen Rotationsmassen der Grundlastkraftwerke und zusätzlichem Einkauf von Strom im Ausland scheint die erforderliche Sicherheit gegen Blackout vielleicht gerade noch vorhanden zu sein. Man bewegt sich aber auf stark schwankendem Terrain. Tatsächlich trägt die aktuelle Energiewende Deutschlands nicht nur zur maßgeblichen Schädigung seiner Industrie bei. Die Versorgung mit Heizenergie ist in einem wirklich kalten Winter nicht mehr sicher. Und zu all dem wird auch noch durch das weiter geplante Abschalten von Kohlekraftwerken in unverantwortlicher Weise das Blackout-Risiko erhöht. Die bei einem längeren Blackout zu erwartenden Personenschäden werden dabei billigend in Kauf genommen.

 




Profiteure der Klima-Panikindustrie: Die Versicherungswirtschaft

Axel Bojanowski von der Welt berichtete kürzlich vom aktuellen Bericht der Münchener Rückversicherung (Marke: Munich Re), die jährlich eine Auflistung der zu bezahlenden Folgen von Naturkatastrophen liefert. Der Hauptgrund angeblich – von den Massenmedien ungeprüft übernommen: der Klimakollaps!

Eine Rückversicherung („Re“) versichert andere Versicherungsunternehmen, deren direkte Kunden die Bürger und Firmen sind. Die „Münchener Rückversicherungs-Gesellschaft Aktiengesellschaft in München“ ist die größte ihrer Art auf der Welt. Somit verfügt die Münchener Rück über einen der größten Datensätze zu Katastrophenschäden. Nur – ist die Verknüpfung mit dem behaupteten menschlichen Klimawandel Tatsache oder Marketing?

Die großen Massenmedien jedenfalls lassen sich die übliche Katastrophenmeldung natürlich nicht entgehen. So schreibt der Spiegel:

Analyse von Rückversicherer Waldbrände in Los Angeles waren die teuerste Naturkatastrophe im Jahr 2025

Der Deutschlandfunk steht nicht zurück:

Munich Re: Klimawandel treibt Schäden durch Naturkatastrophen nach oben

n-TV mag auch nicht kleckern, sondern klotzt:

Klimawandel als Treiber – Naturkatastrophen verursachen Schäden von 224 Milliarden Dollar

Schlußendlich die Tagesschau:

Wetterextreme in Industrieländern Naturkatastrophen kosten immer mehr Wohlstand

Der Wissenschafts-Journalist Bojanowski ist bekannt für seine erhellenden zeithistorischen Hintergrund-Einsichten, die dem Tagesschau-Seher entgehen. So erinnert er daran, daß die Versicherungswirtschaft schon recht früh das Klimathema als Marketing-Maßnahme entdeckte. 1988 wurde der Weltklimarat ins Leben gerufen, und 1995 fand die erste weltweit beachtete Klimakonferenz in Berlin statt. (Eigentlich gab es schon 1988 in Hamburg eine erste UN-Konferenz dazu, aber eher unbeachtet.)

Bojanowski dazu:

Vor 31 Jahren ging es los. Im März 1995, zwei Tage vor Beginn der ersten UN-Klimaverhandlungen in Berlin, trafen sich Manager großer Versicherungen mit den Vertretern von Banken, Umweltverbänden und Firmen der Solarenergiebranche, um die globale Erwärmung als Geschäftsfeld auszuloten. Sie witterten angesichts der aufgekommenen Klimadebatte ihre Chance.

Die Münchener Rück wurde trotz ihrer relativen Unbekanntheit beim Endverbraucher (Versicherungsnehmer) im Spiegel damals schon als „erstes Opfer des Treibhauseffekts“ bezeichnet. Man sieht – die Profiteurs- und Interessensgruppen aus Medien und Wirtschaft können sehr gut zusammenarbeiten.




Woher kommt der Strom? Regenerativ wieder schwach 

 3. Analysewoche 2026 von Rüdiger Stobbe

In der dritten Analysewoche des Jahres 2026 bleibt die Windstromerzeugung, aber auch die PV-Stromerzeugung wieder insgesamt schwach.  An keinem Tag der Woche wurde der Bedarf Deutschland auch nur annähernd regenerativ gedeckt. Zum Wochenende kam es ab Freitag nach Wegfall der PV-Stromerzeugung zu einer Flautenphase. Die Residuallast lag trotz es geringeren Wochenendbedarfs zwischen 28 und 48 GW. An den Tagen zuvor kam es wegen des stärkeren Bedarfs sogar zu noch höheren Residuallasten. In der Spitze wurden gut 60 GW erreicht. Die PV-Stromerzeugung ging am Montag praktisch gegen Null. In der Spitze der sechs Stunden Erzeugungsdauer am Montag waren nur 2,5 GW zu verzeichnen. An den übrigen Tagen wurden 8 bis 20 GW zur Mittagsspitze erreicht. Der Bedarf lag einige Male über 70 GW. Es musste Strom importiert und fossil hinzuerzeugt werden, um ihn zu decken. Nur an den etwas windintensiveren Zeiten kam es zu Nettoexporten. Unter dem Strich wurden knapp 100 MWh netto exportiert. Der Strom-Durchschnittspreis lag bei knapp 110€/MWh, wobei die Stromhöchstpreise meistens wie gewohnt nach Wegfall der PV-Stromerzeugung und den notwendigen Stromimporten anfielen.

Einen Überblick über die wichtigsten Aspekte der dritten Analysewoche 2026 gibt Agora-Energiewende. Diese NGO erstellt auch Prognosen, wie die Stromerzeugung aussehen würde, wenn die Erneuerbaren einen bestimmten Ausbaugrad erreicht hätten. Wir nehmen den möglichen Prognose-Höchstwert von 86 Prozent Ausbaurate. Die Residuallasten bleiben hoch. Der gestiegene Bedarf fordert seinen fossilen Tribut.

In diesem Zusammenhang mein wiederkehrender Appell an die Verantwortlichen von „Unsererdemokratie“ und die „Freunde der Energiewende“: Stoppen Sie die Energiewende. Streichen Sie die CO2-Steuern und bauen Sie wieder eine kostengünstige, verlässliche Energieversorgung auf, bevor es zu spät ist. Hören Sie auf, einer Schimäre nachzujagen. Die Energiewende ist zum Scheitern verurteilt.

Tageswerte

Jeder Tag beginnt mit dem Überblick, den Agora-Energiewende zur Verfügung stellt. Die smard.de-Charts und -Tabellen ermöglichen vielfältige Analysen. Erkunden Sie das Potential.  

Fast keine PV-Stromerzeugung. Die Strompreise.

Über Tag steigt die Windstromerzeugung an. Die Strompreise.

Erheblicher Windstromrückgang. Kaum PV-Strom. Die Strompreise.

Etwas mehr PV-Strom, Windstrom „erholt“ sich etwas.  Die Strompreise.

Der Windstrom sinkt in die Wochenendflaute.  Die Strompreise.

Die regenerative Stromerzeugung produziert auf niedrigem Niveau. Die Strompreise.

Sonntag, 4.1.2026

Regenerativ zieht wieder etwas an. Die Strompreise.

 

„Goldgräberstimmung“ bei den „Energiewendern“

von Peter Hager

Mit Großbatteriespeicher lässt sich richtig Geld verdienen.

Unsere Nachbarländer nutzen schon länger Differenzgeschäfte beim Import und Export von Strom mit Deutschland (das wurde in dieser Kolumne schon mehrfach thematisiert): Wird in Deutschland viel Wind- und Sonnenstrom erzeugt sinkt der Börsenstrompreis deutlich und wird zum Teil auch negativ. Abends bei Wegfall des Sonnenstroms steigt der Börsenstrompreis dann meist wieder an. Mit dem zum Teil sehr hohen täglichen Schwankungen beim Börsenstrompreis lassen sich richtig gute Geschäfte machen (Motto: Strom günstig einkaufen und teuer verkaufen).

Der weitere Zubau bei PV- und Windkraftanlagen in den letzten Jahren (die nicht bedarfsorientiert produzieren) verstärkt weiter dieses Geschäftsmodell.

Laut einer Analyse von Naturstrom sind in 2025 die Stunden mit Negativpreisen an der deutschen Strombörse (Day-Ahead) auf einen neuen Höchststand gestiegen (insbesondere zu den Spitzenzeiten der PV-Stromerzeugung).

  • 2025: 573 h
  • 2024: 457 h
  • 2023: 301 h

Auch die Stunden mit Day-Ahead-Preisen von über 200 EUR/MWh gehen nach oben:

  • 2025: 162 h
  • 2024: 129 h
  • 2023: 112 h

Was für unsere Nachbarländer schon länger sehr lukrativ ist, macht den Einsatz von Großbatteriespeichern (in den letzten Jahren sind die Preise insbesondere bei chinesischen Herstellern deutlich gesunken) auch für die „Energiewender“ in Deutschland zunehmend attraktiv. 

Dies begründet den großen Run auf Anschlusszusagen für Großbatteriespeicher bei den Übertragungs- sowie Verteilnetzbetreiber (ÜNB/VNB).

Dabei sind auch Großbatteriespeicher typische Kurzzeitspeicher für die Überbrückung von wenigen Stunden bis maximal ein paar Tagen. Als Speicher für Dunkelflauten sind sie dagegen nicht geeignet, denn ein entleerter Batteriespeicher kann während einer Dunkelflaute nur begrenzt oder gar nicht nachgeladen werden. 

Laut dem enervis BESS-Index (dieser wird monatlich ermittelt) konnten im Jahr 2025 beim Betrieb eines Großbatteriespeichers Erlöse für Börsenpreis sowie Systemleistungen von rund 10.000 EUR pro MW und Monat im Durchschnitt erzielt werden. Das bedeutet, dass ein 100-MW-Speicher etwa 12 Mio €/Jahr Umsatz generiert. Davon gehen allerdings Kapitalkosten, Abnutzung, Finanzierung, Netzanschluss und Steuern ab. Hinzu kommt, dass viele Batteriespeicher die Nachfrage erhöhen und der Strom-Preis wahrscheinlich nicht auf dem aktuell hohen Niveau der nachfrageschwachen und angebotsstarken Zeiten, zum Beispiel im Sommer zur Mittagsspitze, bleiben wird. Das Modell ist attraktiv, aber kein Selbstläufer trotz der Netzentgeltsubvention, denn netzgekoppelte Großbatteriespeicher (Übertragungs- bzw. Verteilnetz) sind von Netzentgelten befreit sind. Diese Regelung gilt mittlerweile für die Inbetriebnahme bis August 2029 und ab der Inbetriebnahme für 20 Jahre.

Laut einer aktuellem BDEW-Umfrage liegen bei den ÜNB-/VNB Netzanschlussanträge für Großbatteriespeicher (ab 1 MW) von etwa 720.000 MW vor. Bisher zugesagte Netzanschlüsse belaufen sich auf etwa 78.000 MW. Derzeit sind in Deutschland laut den Battery-Charts Großbatteriespeicher mit einer Leistung von ca. 2.500 MW und einer Kapazität von ca. 3.600 MWh installiert (Dezember 2025).

So planen u.a. die großen Energieversorger an den Standorten ehemaliger KKW neue Großbatteriespeicherprojekte. Dabei können vorhandene Netzanschlüsse an das Übertragungsnetz genutzt werden, was Umsetzungszeit und Investitionskosten reduziert:

  • Gundremmingen (RWE): 400 MW Leistung und einer Kapazität von 700 MWh
  • Brunsbüttel (Vattenfall): 254 MW Leistung und einer Kapazität von 700 MWh
  • Philippsburg (EnBW): 400 MW Leistung und einer Kapazität von 800 MWh

Die „Energiewende“ läuft auch hier wieder aus dem Ruder:

  • Die Höhe der Anschlussbegehren von etwa 720.000 MW (Papier-Reservierungen / Platzhalteranträge) übertrifft bei Weitem die Übertragungsfähigkeit des Netzes (etwa 80.000 MW Höchstlast)
  • Die Prüfung der Netzanschlussanträge erfolgt heute nach dem zeitlichen Eingang der Anfrage und nicht nach deren Projektreife.
  • Dies überlastet die jeweiligen Netzbetreiber zunehmend.
  • Ein übergeordneter Rahmen, der die knappen Netzkapazitäten berücksichtigt und den netzdienlichen Betrieb regelt, fehlt bisher.

Quellen:

 

Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.