Ende September 2025 erhielt ich die Anfrage vom Kontrafunk (hier), ob ich nicht einmal in seinem Format „Vorlesung“ über Strom vortragen könne – Vorlesungsdauer eine Stunde. Ich sagte zu, weil diese Dauer ausreicht, um neben Allgemeinem zur elektrischen Energie auch detailliert auf die Probleme der deutschen Energiewende einzugehen. Die deutsche Energiewende passte zum Thema wie die „Faust aufs Auge“, denn mit Windrädern und Photovoltaik als ihren Grundpfeilern wird ausschließlich Strom erzeugt. Und dass dies nicht unproblematisch ist, weiß heute jedes Kind. Die angeblichen Vorzüge der Energiewende – propagiert von ihren Profiteuren und dem ÖRR – hat zu Verunsicherung in der Bevölkerung geführt. Vielleicht sei ja doch etwas dran, ist oft zu hören. Mein Ziel war daher: Einmal den ausführlichen physikalischen Nachweis zu erbringen, dass die zwei Fundamentalmängel der deutschen Energiewende ihre Anwendung in einem Industrieland ausschließen. Oder genauer: Die deutsche Energiewende zu analysieren und zu belegen, was sie wirklich ist, nämlich degrowth, Rückkehr ins energetische Mittelalter und Nirwana jeder Vernunft.
Die Vorlesung erhielt vom Kontrafunk den Titel „Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert“. Die Vorlesung kann unter dem Kontrafunk-Link
https://kontrafunk.radio/de/sendung-nachhoeren/kultur-und-wissenschaft/kontrafunkkolleg/audimax-horst-joachim-luedecke-kampf-gegen-die-physik-warum-die-deutsche-energiewende-scheitert
frei angehört werden. Nachfolgend ist auch ihr Text angegeben, um bei Bedarf interessierende Einzelheiten nachlesen zu können. Einziger Unterschied zur gesprochenen Vorlesung im Kontrafunk sind dabei einige Internet-Links zu relevanten Quellen, die im Text anklickbar sind, verbal dagegen beschrieben werden mussten, damit Zuhörer sie im Browser bei Bedarf googeln konnten.
Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert
Horst-Joachim Lüdecke
24. Oktober 2025
Der moderne Mensch braucht immer mehr Energie. Kostengünstige Energie und insbesondere preiswerte elektrische Energie sind die wichtigsten Aktivposten einer erfolgreichen Industrienation. Bei zu hohen Energiepreisen verliert ein Industrieland seine Konkurrenzfähigkeit und steigt wirtschaftlich ab. Elektrische Energie ist zumindest in Industrieländern zur weltweit wichtigsten Energieform geworden.
Dies wird einem erst richtig bewusst, wenn elektrische Energie durch einen Blackout plötzlich fehlt. Während etwa Unterbrechungen der Benzinversorgung nur teure Hindernisse für den Verkehr, die Produktion und das Geschäftsleben sind, bricht dagegen bei einem Blackout plötzlich unsere gesamte technische Lebensgrundlage weg. Kassen und Kühlanlagen in Supermärkten, Licht, Telefon, Radio, Fernsehen, Handy, Bahn und Straßenbahn, kurz alle mit Strom betriebene Technik ist nicht mehr nutzbar. Bisherige Erfahrungen zeigen, dass nach wenigen Tagen Blackout die Supermärkte geplündert werden. Die Ordnungskräfte sind ohne Strom machtlos, nach mehr als einer Woche herrscht gefährliches Chaos. Notstromaggregate in Krankenhäusern haben, wenn überhaupt, nur für die gesetzlich vorgeschriebenen vierundzwanzig Stunden Sprit.
Trotz des höchsten Stellenwertes von elektrischer Energie in Industrienationen ist ihr Anteil vergleichsweise klein im Vergleich mit allen anderen genutzten Energieformen wie im Wesentlichen von Wärme aus Verbrennung von Kohle, Gas und Erdöl. Weltweit machte Strom im Jahr 2024 je nach Datenquelle zwischen 12 und 17 Prozent der weltweit genutzten Energie aus, in Deutschland waren es genau 15 Prozent. Die weit vorwiegenden Energieträger sind sowohl weltweit als auch in Deutschland immer noch Kohle, Gas und Erdöl. Die hierzulande so propagierten Methoden der Windräder und Photovoltaik zur Stromerzeugung machen weltweit nur jeweils 1 Prozent der Gesamtenergie aus und spielen praktisch keine Rolle. Auch der weltweite Anteil der Kernenergie von etwa 4,5 Prozent ist relativ klein. Die deutschen Zahlen für Wind und Sonne sind zwar etwas höher, aber ebenfalls unbedeutend. Wie kann das aber sein, denn die Medien nennen doch beeindruckend hohe Zahlen? Dieser Widerspruch wird hier später noch aufgeklärt.
Woher kommt eigentlich die von uns genutzte Energie? Energie kann schließlich weder erzeugt noch vernichtet werden. Sie steckt in natürlichen Quellen und wird aus der Umwelt bezogen wie aus den fossilen Energiequellen Kohle, Erdöl, Erdgas sowie aus Uran ferner aus Sonnenstrahlung, Wind, Wasserkraft und Biomasse. Die aus diesen Quellen insgesamt gewonnene Energie eines Landes ist seine Primärenergie. Endenergie sind die umgewandelten Energie-Träger wie Kraftstoffe, Heizöl, heißes Wasser als Fernwärme und so weiter. Nutzenergie ist das, was vom Verbraucher verwendet wird, hier insbesondere die elektrische Energie.
Die technischen und physikalischen Eigenschaften von elektrischer Energie, ihre Besonderheiten und die Gründe ihres höchsten Stellenwerts sind die Stationen der Vorlesung. So werden insbesondere die Vorteile von elektrischer Energie gegenüber anderen Energieformen behandelt. Weitere Stationen sind „Die Physik und Technik von elektrischer Energie in Erzeugung, Verbrauch und Speicherung“. Die deutsche Energiewende basiert im wesentlichen auf den im großen Maßstab eingesetzten neuen Methoden der Windräder und Photovoltaik, die ausschließlich elektrische Energie erzeugen. Als Folge dieser neuen Energiepolitik hat Deutschland inzwischen weltweit die höchsten Strompreise. Daher behandelt die letzte Vorlesungs-Station „die Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland.“ Es wird dort auch auf die folgende Kernfrage unserer Stromversorgung eingegangen, die allen technisch besser informierten gewissenhaften Zeitgenossen den Schlaf raubt: Wie weit können überhaupt unsere bisherigen Grundlastkraftwerke mit Kohle und Gas durch die neuen Methoden ersetzt werden? Ferner wird auf die Frage eingegangen, ob das komplette Umkrempeln unserer ehemals bestens funktionierenden Stromwirtschaft, das rücksichtslos gegen unsere überlebenswichtige energieintensive Industrie durchgezogen wird, überhaupt noch vernünftig ist und das Prinzip der Verhältnismäßigkeit einhält.
Ihnen ist inzwischen vielleicht aufgefallen, dass sowohl von elektrischer Energie als auch von elektrischem Strom oder kurz Strom die Rede war, so dass vielleicht der Eindruck entstand, Strom sei mit elektrischer Energie identisch. Das ist aber nicht der Fall. Aber welche Bezeichnungen sind dann korrekt? Die physikalischen Begriffe der Elektrotechnik sind zwar eindeutig definiert und unverwechselbar, nur kümmert sich die Umgangssprache oft nicht darum. So sind zum Beispiel die Bezeichnungen Strommenge oder Stromverbrauch physikalisch unsinnig. Natürlich ist mit Strom fast immer die elektrische Energie gemeint. Weil „elektrische Energie“ aber zu sperrig ist, machen Umgangssprache und sogar Stadtwerke auf der Rechnung einfach Strom daraus. Man sollte hier nachsichtig sein. Die korrekte Ausdrucksweise wird in dieser Vorlesung eingehalten, wenn sie für das Verständnis wichtig ist. Ansonsten wird aber auch hier dem üblichen und nicht immer korrekten Sprachgebrauch gefolgt. Außerdem wissen Sie dann schon aus der Vorlesung, was gemeint ist.
Mit den bitte nicht zu verwechselnden physikalischen Größen Energie und Leistung soll der folgende kurze Überblick beginnen: „Leistung ist Energie-pro-Zeit“, umgekehrt wird daraus „Energie ist Leistung-mal-Zeit“. Dieser grundlegende Zusammenhang wird uns immer wieder begegnen. Was ist jetzt aber elektrischer Strom oder kurz Strom? Er ist eine Flussgröße und keine Energiegröße. Strom ist fließende elektrische Ladung, meist von negativ geladenen Elektronen durch einen Stromleiter. Der Elektronenfluss wird von einem elektrischen Potentialunterschied angetrieben wie aus einer Batterie oder einem elektrischen Generator. Diese Bewegung von Elektronen kann nur in Stromleitern erfolgen, das sind vorwiegend geeignete Metalle, meistens Kupfer aber auch Silber, Gold und Aluminium, wobei Silber und Gold sogar noch besser als Kupfer leiten. In metallischen Stromleitern sind die äußeren Elektronen ihrer Atome relativ frei beweglich, so dass sie sich in Richtung eines elektrischen Potentialgefälles bewegen können.
Die Gravitation spielt beim Strom keine Rolle. Es ist daher auch keine zusätzliche Energie aufzuwenden wenn eine elektrische Leitung ansteigt – im Gegensatz etwa zum Energieaufwand beim wiederholten Transport von Kohle von einem tiefgelegenen zu einem höhergelegenen Ort, den man dann als zusätzlichen Kostenfaktor ansehen könnte. Aber auch Wasser, das Chloride, Sulfate oder Carbonate enthält, leitet Strom. Die Strömungsgeschwindigkeit der Elektronen in einem Stromleiter beträgt erstaunlicherweise nur wenige Millimeter pro Sekunde, auch bei höheren Stromstärken, weil dann auch entsprechend größere Leiterdurchschnitte verwendet werden. Im Gegensatz zu den fast kriechenden Elektronen verbreiten sich aber Änderungen wie zum Beispiel das Absperren des Stroms oder ein elektromagnetischer Impuls mit bis 90 Prozent der Lichtgeschwindigkeit von 300.000 km/s im Stromleiter. Strom als fließende Elektronen erzeugt im Leiter stets ein wenig Reibungswärme, so dass es selbst bei günstigsten Höchstspannungs-Gleichstrom-Übertragungen in Freileitungen zu Verlusten von etwa 3-4 Prozent pro 1000 km Länge kommt. Verlustfreie elektrische Leitfähigkeit als sogenannte Supraleitung gibt es zwar, aber nur in speziellen Metall-Legierungen bei ausreichender Kühlung. In der Praxis werden supraleitende Magnetspulen zum Beispiel im Teilchenbeschleuniger der Genfer Großforschungseinrichtung CERN eingesetzt, wobei bis minus 271 Grad Celsius mit superfluidem Helium gekühlt wird. Das sind nur 2 Grad über dem absoluten Temperaturnullpunkt.
Nun zu den physikalischen Einheiten, der uns hier interessierenden elektrischen Größen. Für die Maßeinheiten werden die Namen maßgeblicher Entdecker von physikalischen Gesetzen genommen, der Anfangsbuchstabe ist dann die Kurzbezeichnung der Maßeinheit. So in der Elektrotechnik für den Strom das A für André Ampere, für die elektrische Spannung das V für Alessandro Volta, und für die elektrische Leistung das W für James Watt. Energie hat die Maßeinheit J für James Joule. Die Sekunde ist ein kleines s zur besseren Unterscheidung.
Fangen wir mit Strom als Fluss von elektrischer Ladung an. Alle Flussgrößen sind Quotienten mit der Zeit im Nenner. Mit der Maßeinheit Coulomb für die elektrische Ladung ist Coulomb-pro-Sekunde die Maßeinheit von Stromstärke als das Ampere. Die Maßeinheit der elektrischen Spannung ist das Volt. Die Leistung Joule-durch-Sekunde ist in der Elektrotechnik kürzer das identische Watt. Und weil Energie Leistung-mal-Zeit ist, wird die elektrische Energie zu Watt-mal-Sekunde oder kurz Wattsekunde, praktischer meist Kilowattstunde. Eine Wattsekunde ist identisch mit einem Joule. Kilowattstunden finden Sie auf Ihrer Stromrechnung. Man zahlt für die verbrauchte Menge elektrischer Energie und nicht oder höchstens nur einmal für die elektrische Leistung, die nur zur Verfügung steht. Beim Autokauf ist es ähnlich. Im Kaufpreis ist die Leistung des Motors enthalten. Nur für die verbrauchte Energie beim Fahren ist jedesmal beim tanken zu zahlen.
Volt, Ampere und Watt sind durch den einfachen Zusammenhang Volt-mal-Ampere ist Watt miteinander verknüpft. Er kommt hier später immer mal wieder vor. Eine erste Begegnung mit diesem Zusammenhang wären vielleicht die dicken Kabel an der Autobatterie, wobei die Frage aufkommen könnte, warum diese Kabel bei mickrigen 12 Volt der Batterie so dick sind. Die Autobatterie muss aber nicht nur beim Starten des Anlassers ordentlich Leistung in Watt aufbringen. Das kann sie aber bei den wenigen 12 Volt wegen „Volt-mal-Ampere gleich Watt“ nur mit ausreichend viel Strom und der braucht eben dicke Kabel.
Noch weitere Eigenschaften von Strom sind interessant: Eine stromdurchflossene Leitung enthält praktisch keine Energie und sei sie noch so groß wie vielleicht eine 600 Kilometer lange 380.000 Volt Freileitung mit 700 Megawatt. Die elektrische Leistung eines Strom-Erzeugers und seine gelieferte Energie entsprechen ferner genau denen des Verbrauchers, von den geringen Wärmeverlusten der Stromleitung abgesehen. Um in großen Stromnetzen dieses Gleichgewicht von jetzt vielen Erzeugern und noch zahlreicheren Verbrauchern bei sich ändernden Verbrauchswerten einzuhalten, sind Erzeuger erforderlich, die sich problemlos den Verbrauchswerten anpassen können. Das war im ehemalig bestens funktionierenden Stromnetz Deutschlands bis etwa zum Ende des zwanzigsten Jahrhunderts auch der Fall. Mit der Energiewende und ihren jetzt bevorzugten Methoden der Stromerzeugung aus Wind und Sonne entstand dagegen eine bis jetzt ungelöste und hochbrisante Problematik bei der Aufrechterhaltung dieses unabdingbaren Gleichgewichts. Darauf wird hier später noch im Detail eingegangen.
Die Geschichte von Strom und Elektrizität begann im antiken Griechenland, als die elektrischen Eigenschaften von Bernstein durch Reibung entdeckt wurden. Die späteren Entdecker-Namen reichen, um nur wenige zu nennen, von William Gilbert über Benjamin Franklin, Alessandro Volta, André Ampere bis hin zu Nicola Tesla. Erst der Schottische Physiker James Clerk Maxwell erreichte einen endgültigen physikalischen Abschluss mit seinen berühmten elektromagnetischen Feldgleichungen, die man später auf vier Grundgleichungen komprimierte. Die Maxwell-Gleichungen beschreiben vollständig alle Phänomene elektromagnetischer Felder in einem System von vier linearen partiellen Differentialgleichungen erster Ordnung. Später kam als Ergänzung die davon unabhängige Lorentzkraft hinzu, die ein geladenes Teilchen in einem elektromagnetischen Feld erfährt. Diese Bewegung von geladenen Teilchen konnte erst nach Maxwell mit Hilfe der speziellen Relativitätstheorie von Albert Einstein genau beschrieben werden.
Die Maxwell-Gleichungen sind nicht aus noch tieferen physikalischen Gesetzen herleitbar. Sie sind vielmehr die geniale Zusammenfassung aller vor Maxwell entdeckten physikalischen Gesetze von Elektrizität und Elektromagnetismus. Solch eine grundsätzlich nicht mehr zu verbessernde Zusammenstellung wird als ein physikalisches Grundsystem bezeichnet. Grundsysteme prägen unser Weltverständnis. In den Maxwell-Gleichungen ist der gesamte Elektromagnetismus sowie alles von Wellenausbreitung, über Antennen, elektrische Schaltkreise, bis hin zu Elektro-Motoren enthalten, einfach alles. Die Maxwell-Gleichungen sind unverändert auch ein wichtiger Baustein der modernsten physikalischen Feldtheorien wie der Quantenelektrodynamik.
Natürlich ist es in der elektrotechnischen Praxis mit den Maxwell-Gleichungen allein noch nicht getan, denn den konkreten Anwendungen sind noch Materialgleichungen hinzuzufügen. So ist zum Beispiel der Widerstandsfaktor im Ohmschen Gesetz vom Material abhängig. Schließlich werden Lösungen der Maxwell-Gleichungen benötigt, wenn beispielsweise der optimale Aufbau eines neu konstruierten Elektromotors berechnet werden soll. Analytische Lösungen sind hier aber nur in einfachsten Spezialfällen möglich. Die Lösungen der Maxwell-Gleichungen zusammen mit allen Materialgleichungen können nur numerisch aber dennoch beliebig genau mit dem Computer berechnet werden. Dabei wird das stetige System der Maxwell-Gleichungen in ein diskretes System umgewandelt. Aus Differentialquotienten werden Differenzenquotienten.
Bei der täglichen Nutzung von Strom wird man mit Gleichstrom und Wechselstrom bekannt. Alle mit Batterien betriebenen Geräte wie zum Beispiel Heckenscheren, die ohne lästige Stromkabel auskommen, werden von Gleichstrom-Motoren angetrieben. Im Gegensatz dazu wird bei uns die Geschirrspülmaschine oder der Haarföhn mit 230 Volt Wechselstrommotoren betrieben. Warum gibt es die Trennung in Gleichstrom und Wechselstrom überhaupt?
Ursprung der Trennung war um 1890 ein technisch-wirtschaftlicher Stromkrieg zwischen Thomas Edison und George Westinghouse um die geeignete Technik für Beleuchtung. Dabei ging es um viel Geld von Marktanteilen. Edison war für Gleichstrom, Westinghouse für Wechselstrom. Westinghouse gewann diesen Krieg. Bei Gleichstrom bleibt die Stromrichtung konstant, bei Wechselstrom ändert sie sich periodisch. Weltweit ist die Wechselstromfrequenz 50 Hertz, also 50 Wechsel pro Sekunde. 50 Hertz wurden in Europa und dem größten Teil der Welt als bester Kompromiss für alle Anwendungen von Wechselstrom angesehen. Die ebenfalls noch verwendeten 60 Hertz spielen – außer in den USA – nur noch eine untergeordnete Rolle.
Westinghouse setzte sich durch, weil der maßgebende Vorteil von Wechselstrom gegenüber Gleichstrom die Möglichkeit ist, Spannung mit dem relativ einfachen elektrischen Bauelement „Transformator“ auf höhere oder tiefere Spannungen zu transformieren. An der Leistung ändert sich dabei nichts, von Wärmeverlusten abgesehen. Ein Transformator ist im Prinzip ein U-förmiger Eisenkern mit gegenüberliegenden Spulen aus isoliertem Kupferdraht. Damit kann die Spannung von Freileitungen beliebig erhöht werden wie zum Beispiel hierzulande maximal bis auf 380.000 Volt, um die Stromstärken und damit die Kabelquerschnitte für die hohen Leistungen solcher Freileitungen noch wirtschaftlich klein zu halten. Hier begegnet uns wieder die Beziehung Volt-mal-Ampere ist Watt – je höher die Spannung, umso weniger Ampere und Kupfer sind nötig.
Der Transformator und damit das kaufmännische weniger Kupfer bei längeren Stromleitungen war der entscheidende Vorteil, mit dem Westinghouse seinen Punktsieg errang. Bei Verwendung von Gleichstrom ist es dagegen vorteilhaft, dass es keine störende Blindleistung gibt. Wegen Abwesenheit von Blindleistung wird Gleichstrom heute meist bei Energieübertragung durch Seekabel verwendet.
Nach diesem Überblick soll nun die Energie behandelt werden, insbesondere die elektrische Energie. Alle Energie, die auf der Erde vorzufinden ist, ist entweder umgewandelte Sonnenenergie, die in fossilen Brennstoffen schlummert oder Kernenergie aus Kernspaltung. Zur Kernenergie und ihren Gegnern sei eine kurze Anmerkung erlaubt: Die Kernenergie ist keine Erfindung des Leibhaftigen, sondern völlig natürlich und wurde vom modernen Menschen nur wiederentdeckt. Im afrikanischen Gabun fand man fünfzehn natürliche Kernreaktoren, die durch eine Verkettung von ganz natürlichen Umständen kritisch wurden, über eine halbe Millionen Jahre aktiv waren, insgesamt einige hundert Terawattstunden Wärme erzeugten und vor bereits 1,5 Milliarden Jahren erloschen sind. Zurück zu den natürlichen Umgebungsenergien! Zu denen zählt die Strahlungsenergie der Sonne, die ebenfalls aus Kernenergie stammt, hier aber aus Kernfusion. Ferner gibt es noch die Bewegungsenergien von Wind, Meeresströmungen und Gezeiten, die aus der Bewegungsenergie unseres planetarischen Systems Erde und Mond kommen.
Gezeiten, Meeresströmungen und Wind erzeugen Reibungswärme, die letztlich wieder als Strahlung ins Weltall verschwindet. Die Rotationsenergie der Erde wird durch diese Reibungsverluste verringert und als Folge davon wird die Umdrehungsdauer der Erde, also die Tagesdauer, immer länger. Zudem entfernt sich dadurch auch der Mond immer weiter von der Erde und zwar um 3,83 Zentimeter pro Jahr. Die Tageslänge erhöht sich zwar nur um etwa 20 Sekunden über eine Million Jahre, aber das addiert sich mit der Zeit. Seit Aussterben der Dinosaurier vor 65 Millionen Jahren ist unsere Tageslänge immerhin schon 22 Minuten größer geworden.
Energie kann weder erzeugt noch vernichtet, sondern nur von einer Energieform in eine andere umgewandelt werden. Dabei entstehen stets Verluste, in aller Regel als Wärme wie zum Beispiel in Maschinen mit bewegten Teilen als Reibungswärme. Wenn allerdings Wärme in eine andere Energieform wie zum Beispiel in elektrische Energie oder mechanische Energie umgewandelt werden soll, geht das in größerem Maßstab nur mit Wärmekraftmaschinen, wobei physikalisch grundsätzliche Verluste unvermeidbar sind. Der französische Physiker Sadi Carnot hat die physikalische Gesetzmäßigkeit von Wärmekraftmaschinen um 1824 mit seinem berühmten Carnot-Prozess entdeckt und damit ungewollt gleich auch noch die neue physikalische Disziplin Thermodynamik gegründet. Das Prinzip des Carnot-Prozesses ist eine von mehreren Formulierungen des zweiten Hauptsatzes der Wärmelehre und gehört zu einem für die ingenieurtechnische Anwendung wichtigsten Prinzip überhaupt.
Jede Wärmekraftmaschine hat ein Wärmereservoir hoher Temperatur und eines mit tieferer Temperatur. In größeren Anwendungen wird dabei meist Gas oder Wasserdampf genutzt. In einem Gas-und-Dampfkraftwerk, kurz GUD, wird beides kombiniert, wobei übrigens mit dem Begriff Kraftwerk immer die Erzeugung von Strom gemeint ist. Im GUD erzeugen die noch heißen Gase am Ausgang der Gasturbine Dampf für eine parallellaufende Dampfturbine.
Nun zum zweiten Hauptsatz der Thermodynamik: Er besagt, dass in Wärmekraftmaschinen ein theoretischer Bestwirkungsgrad nicht überschritten werden kann. Man erhält seinen Wert, indem man die Temperaturdifferenz der beiden Reservoire durch die Temperatur des wärmeren Reservoirs teilt. Dies zeigt schon, dass für gute Wirkungsgrade die Temperaturdifferenz möglichst hoch sein sollte. Daher vermutet man richtig, dass beispielsweise elektrische Energie aus deutscher Erdwärme dem Verfahren von Kohleverbrennung hoffnungslos unterlegen ist. In Island, wo sich heiße Erdzonen extrem nahe unter der Oberfläche befinden, ist das aber anders. Die elektrische Energie von Island kommt tatsächlich zu 29 Prozent aus Geothermie, die restlichen 71 Prozent aus Wasserkraft – um dieses Geschenk der Natur ist Island zu beneiden.
Zurück zu Carnot. Der Wirkungsgrad eines Benzinmotors ist seine mechanische Antriebsenergie geteilt durch die Verbrennungswärme des Benzins. Er beträgt wegen des Carnot-Prozesses nur ungefähr 0,3 oder 30 Prozent – beim Diesel geht es herauf bis 45 Prozent. Das theoretische Carnot-Prinzip geht über die spezielle Wärmekraftmaschine weit hinaus, denn der zweite Hauptsatz der Thermodynamik besagt auch noch, dass Wärme durch überhaupt keine periodisch arbeitende Maschine vollständig in Arbeit umgesetzt werden kann, und sei sie noch so raffiniert gebaut. Auch wir Menschen unterliegen dem zweiten Hauptsatz der Thermodynamik, denn wenn wir Körperenergie einsetzen, wird es uns warm. Auch unsere Erde muss dem zweiten Hauptsatz gehorchen. Hier ist das warme Reservoir die Sonne und das kalte Reservoir der dunkle Weltraum. Weitere, dem zweiten Hauptsatz unterliegenden Anwendungen sind der Kühlschrank, der aus Strom im Kühlfach Kälte und außen an seiner Rückwand Wärme erzeugt. Die jüngst propagierte Wärmepumpe funktioniert, anschaulich ausgedrückt, wie ein umgekehrt laufender Kühlschrank. Sie ist wesentlich energieeffizienter als die Wärmeerzeugung mit einer simplen elektrischen Widerstandsheizung.
Die Umwandlung von elektrischer Energie in mechanische Energie mittels eines Elektromotors und auch der umgekehrte Vorgang sind dagegen prinzipiell verlustfrei, von unvermeidbaren geringfügigen Reibungsverlusten abgesehen. Elektrische Energie und mechanische Energie zählt man daher zu den wertvollen Energien, weil ihre Umwandlung in andere Energieformen prinzipiell verlustfrei ist. Wärme ist dagegen die am wenigsten wertvolle Energie, weil ihre Umwandlung in andere Energiearten dem grundlegenden Carnot-Verlust unterliegt.
Die Menge an elektrischer Energie, die mit Kohle, Mineralöl oder Erdgas betriebene Kraftwerke weltweit erzeugen, übertrifft bei weitem die aller anderen Methoden. Kernkraftwerke könnte man noch dazuzählen, weil die Kernspaltung Wärmeenergie erzeugt, die dann genauso wie in den fossilen Kraftwerken über Dampfturbinen in elektrische Energie umgewandelt wird. Ferner werden noch Wind, Sonneneinstrahlung und Biomasse zur Stromerzeugung eingesetzt. Wegen der prinzipiellen Carnot-Verluste könnte man annehmen, dass Stromerzeugung aus Wärme generell ungünstiger sei als Strom aus Wind oder Sonne. Dies trifft nicht zu. Es wird sich später noch zeigen, dass die Vorteile fehlender Carnot-Verluste bei der Stromerzeugung aus Wind und Sonne sogar völlig vernachlässigbar sind, wenn man diese Vorteile mit den grundlegenden Nachteilen von Wind und Sonne vergleicht.
Elektrische Energie kann nur in geringen Mengen direkt gespeichert werden. Das erfolgt mit passiven elektrischen Bauelementen wie Kondensatoren. Selbst sogenannte Superkondensatoren können aber nur um 20 Wattstunden Energie pro Kilogramm Kondensatorgewicht speichern. Hier geht es aber jetzt um elektrische Energie, die um mehrere Größenordnungen größer sein muss als die in Powerbanks. Sie wäre zu speichern, um beispielsweise für die Überbrückung eines längeren Blackouts zu sorgen. Das geht nur durch indirekte Speicherung von Energie mit chemischen, hochgewichtigen und kostspieligen Batterien – heute meist Lithium-Ionen-Batterien. Eine andere Lösung wären Pumpspeicheranlagen, die die Lageenergie von Wasser zwischen einem Berg und dem zugehörigen Tal nutzen.
Die Energiekosten von Lithium-Ionen-Batterien werden unterschiedlich angegeben. Sie liegen aktuell am günstigsten bei etwa 100.000 Euro für eine Megawattstunde. Als Anschauungsbeispiel wollen wir verlangen, dass bei einem längeren bundesweiten Blackout, wenigstens für einen Tag die elektrische Energie Deutschlands durch derartige Batterien überbrückt werden sollte und nach den Kosten fragen. Die Realisierbarkeit dieses Szenarios ist mühelos abzuschätzen: Das Umweltbundesamt nennt im Schnitt etwa 550 Terawattstunden benötigter elektrischer Energie in Deutschland pro Jahr. 550-durch-365 Tage sind 1,5 Terawattstunden, die unsere Batterien an einem einzigen Tag ersetzen müssten. Mit 100.000 Euro für eine Megawattstunde kostet der Ersatz aus Batteriestrom 150 Milliarden Euro. Die zusätzlichen Kosten für die Anschlusstechnik der Batterien, ihre Lagerung, ihr Aufladen etc. sind dabei unberücksichtigt, auch nicht die Kosten von Batterieverschleiß durch allmählichen Verlust der Leistung aufgrund von Alterung. Die dramatische Kapazitätsabnahme von Batterien bei Kälte soll ebenfalls keine Rolle spielen. Unsere elementare Abschätzung reicht bereits aus, um zu belegen, dass die Batterielösung aus wirtschaftlichen Gründen völlig unrealistisch ist.
Es bleiben dann in Deutschland nur noch Pumpspeicherwerke übrig wie das hierzulande größte – Goldisthal in Thüringen –, dessen technische Werte wir verwenden wollen. Große Staudämme haben wir nicht, und alle anderen immer wieder einmal vorgeschlagenen Lösungen sind noch teurer. Pumpspeicherwerke verfügen über ein Wasser-Reservoir im Tal und eines auf dem Berg. Ist für das Pumpspeicherwerk ausreichend Strom aus dem Netz verfügbar, wird von der Tal-Pumpturbine in das obere Reservoir Wasser gepumpt, das Pumpspeicherwerk wird sozusagen geladen. Fehlt Strom, wird das Wasser unter Ausnutzung seiner Lageenergie im oberen Reservoir über die 800 Meter lange Wasserleitung von Goldisthal wieder von der Tal-Pumpturbine in elektrische Energie umgewandelt. Die maximal gespeicherte Energiemenge von Goldisthal beträgt 8,5 Gigawatt-Stunden. Die kürzeste Entleerungsdauer beträgt eine Stunde, dabei ist die Maximalleistung ca. 1 Gigawatt. Für den Ausgleich eines vollen Tages Blackout in Deutschland, bräuchte man unter großzügiger Weglassung der nicht mehr zu vernachlässigenden Reibungsverluste der Wasserleitung mindestens 180 Pumpspeicherwerke mit der Leistung von Goldisthal. Deutschland hat für Pumpspeicherwerke aber nicht einmal die topographischen Voraussetzungen.
Vor dem näheren Eingehen auf die Erzeugungsmethoden von elektrischer Energie in Deutschland ist eine aktuelle Bestandsaufnahme sinnvoll, um eine konkrete Vorstellung über die Größenverhältnisse zu erhalten: Elektrische Energie hat, wie schon erwähnt, hierzulande nur einen Anteil von 15 Prozent an der deutschen Primärenergie, weltweit ist der Wert ähnlich. 80 Prozent der Primärenergie Deutschlands kommen immer noch aus Kohle, Erdöl und Erdgas, weltweit ist dieser Anteil etwa gleich groß. Deutschland unterscheidet sich daher in der Primärenergie mit den beiden Werten 15 Prozent elektrischer Energie und 80 Prozent Energie aus fossilen Brennstoffen kaum von der weltweiten Situation.
Ganz anders sieht es dagegen bei den Methoden zur Erzeugung von elektrischer Energie aus. Hier macht Deutschland zusammen mit wenigen Ländern eine auffällige Ausnahme im weltweiten Vergleich. Im Jahr 2024 wurde die elektrische Energie Deutschlands zu etwa 37 Prozent aus Kohle und Erdgas, aber bereits schon zu 31 Prozent aus Windrädern und zu 14 Prozent aus Photovoltaik erzeugt. Weltweit sind dagegen Kohle und Erdgas mit 47 Prozent deutlich stärker, Wind mit 8 Prozent und Photovoltaik mit 7 Prozent viel schwächer. Deutschland betreibt eine deutliche Verschiebung seiner Erzeugungsmethoden von Strom hin zu mehr Wind und Sonne und weg von Kohle und Gas. Ob dieser Sonderweg technisch und wirtschaftlich sinnvoll ist, und welche Konsequenzen er für die Versorgungssicherheit mit Strom nach sich zieht, wird hier noch näher untersucht.
Bezieht man freilich für Deutschland die Anteile von Wind und Photovoltaik nicht auf die elektrische Energie, sondern auf die Primärenergie, bleibt von den eindrucksvollen Zahlen nichts mehr übrig, nämlich nur 4,5 Prozent Primärenergie-Anteile aus Wind- und 1,8 Prozent aus Photovoltaik. Weltweit ist es noch einmal weniger. Nur 1 Prozent der Primärenergie aus Wind und 1 Prozent aus Photovoltaik wurden schon erwähnt. Die stolzen Erfolgsmeldungen in den öffentlich rechtlichen Sendern über deutsche Windenergie von 31 Prozent, wobei dabei oft gerne vergessen wird zu erwähnen, dass diese Zahl sich nur auf elektrische Energie bezieht, sind korrekt. Die wohl wichtigere Zahl von nur 4,5 Prozent Wind an der Primärenergie war dagegen in den Öffentlichrechtlichen noch nie zu vernehmen. Somit ist der Widerspruch der in den Medien genannten Zahlen mit den realen Verhältnissen geklärt.
Die viel wichtigeren wesentlich kleineren Anteile von Wind- und Sonnenstrom an der Primärenergie werden salopp verschwiegen, weil die langfristige Planung über die jetzige Energiewende hinaus die sogenannte Sektorenkoppelung vorsieht. Dabei soll der Einzelsektor „elektrische Energie“ auf alle Sektoren bis hin zur Wärmedämmung von Gebäuden erweitert werden. Sektorenkoppelung ist im Klartext auch Dekarbonisierung, denn so gut wie alle Primärenergie soll dabei nur noch aus CO2-freiem Strom von Wind und Sonne kommen. Dies bei heute mickrigen 4,5 Prozent Windstromanteil trotz 30.000 Windräder. Der Energieexperte Professor André Thess, Institutsleiter der Universität Stuttgart, hat die Kosten von Dekarbonisierung bis 2045 rechnerisch gut nachvollziehbar zu 10 Billionen Euros geschätzt (hier). Diese Summe belegt, dass den politischen Planern des Abersinns Energiewende und auch noch Sektorenkopplung jede Wirklichkeitsnähe, jedes Verständnis von Physik und Technik und jede Beachtung von Verhältnismäßigkeit abgeht.
Will man nun ganz allgemein die in modernen Batterien gespeicherte elektrische Energie mit der aus fossilen Brennstoffen oder Uran vergleichen, benötigt man die hier schon einmal verwendete Energiedichte als Quotient von Energie pro Gewicht. Ihre Maßeinheit ist die Wattsekunde durch Kilogramm. Lehrreich ist der Vergleich der Energiedichte einer modernen Lithium-Ionen-Batterie von 0,2 Kilowattstunden-pro-Kilogramm, mit der Energiedichte von Dieseltreibstoff von 5,3 Kilowattstunden pro Kilogramm, wobei in dieser Zahl die prinzipiellen Carnot-Verluste des Diesels mitberücksichtigt sind. Wir werden diesen Wert später noch einmal brauchen. Die 5,3 Kilowattstunden des Diesel dividiert durch die 0,2 der Batterie ergeben rund 26. Diesel hat also einen 26-fachen Energievorsprung vor einem E-Auto, beim Benziner ist der Vorsprung nur um etwa 20% kleiner. Oder anders ausgedrückt: Ein Diesel-Auto hat bei gleichem Gewicht im Tank wie ein E-Auto 26 Mal mehr Antriebsenergie zur Verfügung. Die geringe Reichweite von E-Autos wird nun besser verständlich. Hinzu kommt, dass E-Autos bei Temperaturen unter Null Grad Celsius dramatisch an verfügbarer Reichweite verlieren.
Wichtiger und interessanter ist dann allerdings der Vergleich der Energieeffizienz von Wind mit Kohle. Er erfordert den Begriff der Leistungsdichte als Leistung pro Fläche, also Watt-pro-Quadratmeter. Die Art der Fläche hängt von der Anwendung ab, hier wird die „verbrauchte Bodenfläche der jeweiligen Methode“ verwendet. Bei Windrädern ist dabei zu beachten, dass sie aus technischen und Kosten-Gründen in Windparks, oder genauer ausgedrückt, in Windrad-Industriegebieten installiert werden. Dort sind Mindestabstände gegen leistungsmindernde gegenseitige Strömungsbeeinflussung erforderlich. Über das Jahr 2024 und ganz Deutschland Onshore gemittelt betrug die mittlere Wind-Leistungsdichte 3,7 Watt-pro-Quadratmeter Bodenfläche. Für Kohle sind es dagegen um die 8000 Watt-pro-Quadratmeter Bodenfläche. Der Flächenverbrauch eines Windrads ist also mehrtausendfach größer als der von einem Kohlekraftwerk. Die 3,7 Watt pro Quadratmeter werden hier später noch einmal benötigt.
Unterschiedliche Leistungsdichten sind für den realen Nutzen der miteinander verglichenen Methoden absolut ausschlaggebend. Je höher die Leistungsdichte einer Methode zur Erzeugung von elektrischer Energie ist, um so effizienter, naturschonender und materialschonender ist sie. Das erkennt man sofort, wenn man die Definition Leistungsdichte ist Leistung-durch-Fläche umkehrt und als Leistung ist Leistungsdichte-mal-Fläche formuliert. Bei zu geringer Leistungsdichte benötigt man eine sehr große Fläche, damit das Produkt Leistungsdichte-mal-Fläche, also die gewünschte Leistung, noch ausreichend groß wird. Große Systemflächen bedeuten zudem noch großen Materialverbrauch des Systems. Man braucht dabei nur an Windrad-Riesenmonster zu denken, bei denen ausschließlich die zu geringe Leistungsdichte der Grund ist, warum sie so riesig sind. In einem schon älteren Artikel der ZEIT wurden Energien aus Wind und Sonne wegen ihrer Sanftheit dagegen als optimal umweltschonend bezeichnet. Das ist bereits absurd, denn es ist genau umgekehrt. Je sanfter eine Methode der Stromerzeugung ist, um so kleiner ist ihre Leistungsdichte, und um so größer ist ihr Flächenverbrauch, ihr Materialaufwand und ihre Umweltschädigung.
Historisch verlief die bisherige Entwicklung aller technischen Energiemethoden grundsätzlich immer von kleineren zu höheren Leistungsdichten. Das Umgekehrte gab es nie. Das Aufkommen von Windrädern verletzt dieses – man ist versucht zu sagen Naturgesetz – weil es den Weg zurück ins energetische Mittelalter beschreitet. Windräder basieren trotz modernster eingebauter Technik auf der mittelalterlichen Methode der Windmühle. Selbst modernste Technik vermag aber nicht die physikalischen Gesetzmäßigkeiten des mittelalterlichen Windmühlenprinzips auszuhebeln. Man kann aus der Wind-Leistungsdichte von den schon erwähnten 3,7 Watt pro Quadratmeter Bodenfläche nun auch den Flächenverbrauch bei hypothetisch allem Strom Deutschlands aus Onshore-Wind abschätzen. Das Ergebnis nähert sich der Gesamtfläche Thüringens. Bei Sektorenkoppelung wären es 15 Mal Gesamtfläche mehr. Das belegt wieder wie schon betont die meilenweite Entfernung der deutschen Energiepolitik von Wirklichkeit und Verhältnismäßigkeit.
Das hier bisher Geschilderte wird von der begutachteten wissenschaftlichen Fachliteratur vollumfänglich bestätigt. Es handelt sich dabei um eine begutachtete Studie von Weißbach und Mitautoren, die im Fachjournal Energy des renommierten Elsevier-Verlags erschien. Um sie zu lesen, tippe man den Titelbeginn der Studie „Energy intensities, energy returned on invested“ ins Suchfenster von Google Scholar und klicke danach rechts unten auf „alle 17 Versionen“ (hier). Dort findet sich ein pdf des papers. Bild 3 auf Seite 219 zeigt die Verhältnisse an gelben Balken mit Schrägstrichen, wobei die Effizienz von acht Methoden von Photovoltaik bis hin zu Kernenergie miteinander verglichen werden. Das Ergebnis ist überdeutlich: Wind, Photovoltaik und Biomasse sind die ungünstigsten Methoden zur Erzeugung von elektrischer Energie überhaupt, sie liegen sogar unter der im Bild 3 eingetragenen ökonomischen Schwelle von OECD-Ländern und kommen daher für die Erzeugung elektrischer Energie großen Maßstabs nicht in Frage. Zu geringe Leistungsdichte bei der Erzeugung von elektrischer Energie mit Wind, Sonne und Biomasse wird hier im Folgenden als ihr „erster Fundamentalmangel“ bezeichnet. Es gibt nun aber noch einen zweiten Fundamentalmangel, der nur Wind- und Sonne betrifft.
Die dringend erforderliche Bekanntheit des ersten Fundamentalmangels von Wind- und Sonnenstrom wird leider durch weitgehende Unkenntnis des Begriffs „Leistungsdichte“ verhindert. Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist dagegen wesentlich anschaulicher und daher besser bekannt. Er hat es schon bis in alle Medien geschafft. Es ist die Wetterabhängigkeit von Wind- und Sonnen-Energie, der die Stromlieferungen dieser beiden Methoden zufällig und zappelig macht.
Zufalls-Strom kann ohne weitere Maßnahmen nicht in das deutsche Wechselstromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund schon für Glättung sorgt, weil irgendwo immer Wind wehen würde, hat eine ausführliche Studie des technischen Fachverbands für Energieanlagenbetreiber VBG widerlegt. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“ Zitatende. Die Studie steht nach eingeben in Ihrem Browser von „VGB-Studie: Windenergie in Deutschland und Europa“ frei im Internet (hier).
Die erwähnten Backup-Systeme sind heute schnell reagierende Gaskraftwerke, Kohlekraftwerke oder auch alte Ölkraftwerke. Diskussionswürdige Stromspeicherlösungen gibt es nicht, wie es hier bereits belegt wurde. Man muss daher für ausfallenden Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, das die Gesamtkosten der Stromversorgung mit Wind- und Photovoltaikanlagen zumindest verdoppelt. Genau dies ist bereits erfolgt, aber unvollständig. Schaut man sich die Grafiken der stündlichen Energieeinspeisungen von Wind- und Sonnenstrom an, fallen die extremen Fluktuationen auf, bei Wind noch wesentlich stärker als bei Sonne.
Das liegt an folgendem physikalischen Gesetz für alle Strömungsmaschinen, so auch für Windräder. Ihre Leistung ist grob proportional zur dritten Potenz der Windgeschwindigkeit. Nur grob, weil die nur für Windräder gültige Betz-Joukowsky-Grenze noch eine Rolle spielt. Ist die Windgeschwindigkeit nur noch halb so groß, halbiert sich nicht die erbrachte Leistung wie man eigentlich vermuten könnte, sondern wird zu ½ hoch drei gleich 1/8 oder 12 Prozent. Windräder in schwachwindigen Wäldern sind daher besonders unsinnig. Der zweite Fundamentalmangel und das v-hoch-3 Gesetz bewirken, dass Onshore-Windräder über Deutschland und das Jahr gemittelt nur etwa 20% ihrer Nennleistung erbringen, Offshore ist es etwa das Doppelte.
Ein Dieselauto zu betanken reicht bereits aus, um die Schwächen von Windrädern zu veranschaulichen. Durch den Zapfhahn einer Tankstelle fließen etwa 0,7 Liter Diesel pro Sekunde, das sind etwa 2000 Kilogramm pro Stunde unter Berücksichtigung des spezifischen Gewichts von Diesel. Multipliziert man dies mit der schon erwähnten Diesel-Energiedichte von 5,3 Kilowattstunden-pro-Kilogramm, ergibt sich für den strömenden Dieseltreibstoff eine Leistung von 12 Megawatt. Im Zahlenwert 5,3 ist der Carnot-Verlust bereits berücksichtigt. Auf der anderen Seite hat ein modernes Windrad wie zum Beispiel die Enercon E-160 EP5 mit 5 Megawatt Nennleistung nur 20 Prozent Realleistung, gemittelt über ganz Deutschland und ein Jahr. Das sind ein Megawatt. Tanken Sie Diesel, so erfolgt dies demnach mit rund der 10-fachen Realleistung eines großen Windrads. Oder anders ausgedrückt: Ein einziger Diesel-Füllhahn hat die gleiche Leistung wie zusammen 10 große deutsche Windräder. Dies macht der Diesel-Füllhahn aber ohne die insgesamt 70.000 Tonnen Material der 10 Windräder inklusive der Fundamente und auch ohne die von den 10 Windrädern belegte Bodenfläche von etwa 270 Hektar zu bemühen. Die fast unwahrscheinlich erscheinenden extremen Zahlen dieses Beispiels sind leider zutreffend und belegen die fatalen Konsequenzen der zu geringen Leistungsdichte von Wind.
Die Photovoltaik zeigt als Besonderheit einen deutlichen Leistungshügel mit dem Gipfel im Sommer. Im Winter kommt nur noch wenig Sonnenstrom an, nachts das ganze Jahr überhaupt nichts.
Noch einmal zurück zum zweiten Fundamentalmangel. Infolge der Abschaltung aller deutschen Kernkraftwerke, der Beseitigung von selbst mit modernsten Filtern ausgestatteten Kohlekraftwerken und infolgedessen zunehmenden Wind- und Sonnenstroms, entsteht immer öfter die Situation von Stromunterdeckung oder umgekehrt von Stromüberschuss – der genauso gefährlich ist. Wenn zu viel Wind herrscht und auch noch die Sonne mithilft, muss Strom ans Ausland verkauft oder sogar gegen Aufpreis verschenkt werden. Im Fall von zu wenig Strom müssen die fossilen Ersatzkraftwerke gestartet oder Strom vom Ausland eingekauft werden. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten. Bereits bei höheren Abweichungen als ± 0,2 Hertz droht ein großflächiger Blackout wie er erst jüngst im einem Großbereich von Spanien Portugal und Südfrankreich vorkam. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihren problemlos dem schwankenden Verbrauch anpassbaren Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist ohne Ersatzkraftwerke oder die Mithilfe französischer Kernkraftwerke nicht in der Lage, immer den Strombedarf zu decken. Fossile Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und daher wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen.
Inzwischen sind zur Aufrechterhaltung sicherer Stromversorgung sogenannte dispatch-Maßnahmen in drei Regelungsstufen erforderlich. Primäre Stufe sind Störungen im Sekundbereich, sekundäre im Bereich mehrerer Minuten und tertiäre ab 15 Minuten aufwärts. Von Hand können meist nur im Tertiärbereich Ersatzstromquellen zugeschaltet oder vom Netz genommen werden. Solche Maßnahmen gab es bis Ende des zwanzigsten Jahrhunderts nur in einstelliger Anzahl pro Jahr. Heute liegt die Anzahl der jährlichen dispatch-Eingriffe – automatisch oder von Hand – bei rund Zwanzigtausend (hier), und ihre jährlichen Kosten gehen in die Milliarden Euro.
Wegen ihrer extrem kurzen Reaktionszeit ist die Primärregelung kritisch und entscheidend. Sie kann weder durch Eingreifen per Hand noch durch automatische dispatch-Regelung erfolgen. Fällt beispielsweise ein großer Umspannungstransformator durch einen Defekt, Terroranschlag, oder Blitzschlag aus, ist dies ein Vorgang im Sekundenbereich. Die inzwischen vorliegenden Fachuntersuchungen der Gründe des jüngsten großen Blackouts in Spanien deuten tatsächlich auf das Fehlen ausreichender Primärregelung. Zu wenige Grundlastkraftwerke liefen und zu viel Sonnenstrom wurde eingespeist.
Die einzige Abhilfe bei Sekundenstörungen vermag nur die Physik zu liefern. Es sind die extrem hohen Rotationsenergien der Dampfturbinen-Rotoren aller Grundlastkraftwerke mit Kohle und ehemals Uran. Plötzliche Leistungsungleichgewichte durch Störungen im Sekundenbereich werden durch Abbremsen oder Beschleunigen dieser riesigen Rotoren verzögerungsfrei ausgeglichen. Ihre Rotorwellen sind bis 40 m lang, können bis 300 Tonnen wiegen und drehen sich mit genau der Netzfrequenz von 50 Hertz oder 3000 Umdrehungen pro Minute. Bei plötzlichem Leistungsabfall infolge einer schnellen Netzstörung springen sie ohne jedwedes Zutun ein und bügeln die Störung ausreichend lang weg bis die Sekundärregelung eingreifen kann. Kurz, die einzige Lösung der Primärregelungsproblematik ist die ausreichende Rotationsenergie aller Stromerzeuger im deutschen Stromnetz. Sie gibt es nur mit ausreichend vielen Grundlastkraftwerken. Kommt der Strom nur noch aus Wind und Sonne, ist das deutsche Wechselstromnetz grundsätzlich instabil und nicht mehr regelbar.
Daraus ergibt sich die dringende Frage wie viele Grundlastkraftwerke unabdingbar vorhanden sein müssen. Die Mindestanzahl an Grundlastkraftwerken hängt von der aktuellen Netzstruktur und davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW ging dieser überlebenswichtigen Frage in einer Fachstudie nach. Sie ist nach Eingabe des Titels „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“ (hier) in Ihren Browser als pdf verfügbar. Als Ergebnis wird eine Mindestregelleistung von 20 Gigawatt für den Regelblock Deutschland angegeben, was einem Drittel der mittleren Gesamtleistung von etwa 60 Gigawatt an deutschem Strom entspricht. Mit den momentan noch vorhandenen Rotationsmassen der Grundlastkraftwerke und zusätzlichem Einkauf von Strom im Ausland scheint die erforderliche Sicherheit gegen Blackout vielleicht gerade noch vorhanden zu sein. Man bewegt sich aber auf stark schwankendem Terrain. Tatsächlich trägt die aktuelle Energiewende Deutschlands nicht nur zur maßgeblichen Schädigung seiner Industrie bei. Die Versorgung mit Heizenergie ist in einem wirklich kalten Winter nicht mehr sicher. Und zu all dem wird auch noch durch das weiter geplante Abschalten von Kohlekraftwerken in unverantwortlicher Weise das Blackout-Risiko erhöht.