China: Viel heiße Luft!

Das „Nengchu-1“ genannte Druckluftspeicherkraftwerk ging Anfang 2024 in Yingcheng ans Netz ging und läuft seit Januar 2025 im kommerziellen Betrieb.

Von PETER WÜRDIG |

So will man die Energiewende zum Erfolg bringen, zumindest in China. Dort nämlich geht jetzt die „Größte Druckluftspeicher-Anlage der Welt“ ans Netz, wie die Plattform „t3n“ berichtet.

Das könnte zumindest auf die Leistung zutreffen, die mit 300 Megawatt (MW) angegeben wird. Die Aufgabe: die sog. „Erneuerbaren“ liefern ihre Leistung nur wetterabhängig, also stark schwankend, mal kommt zu viel, das man nicht verwerten kann, mal kommt wenig oder gar nichts.  Im elektrischen Netz muss aber in jeder Sekunde die verbrauchte Leistung mit der eingespeisten übereinstimmen, sonst gibt es technische Störungen bis hin zum Blackout. Also braucht man Speicher, die den notwendigen Ausgleich schaffen.

Man beginnt zunächst mit kalter Luft, und bei einem Überangebot von elektrischer Leistung wird nun diese Luft in einem Kessel (oder in einer unterirdischen Kaverne) komprimiert, und dabei wird die Luft dann so richtig heiß. Das ist das Problem: bei der Komprimierung von Gasen, also auch von Luft, reagieren diese adiabatisch, das heißt also, die Gase werden warm, und ein Teil der Energie geht in die Erwärmung.

Jeder kennt diesen Effekt, wenn man einen Fahrradreifen aufpumpt, wird auch die Pumpe wärmer. Die Chinesen haben dieses Problem zumindest in Teilen gelöst. Die entstehende Wärme wird abgeleitet und in einem Wärmespeicher aufbewahrt. Wenn nun Leistung fehlt und die Druckluft arbeiten soll, also Druck abgegeben wird, um einen Generator für die Rückverstromung anzutreiben, tritt der umgekehrte Effekt ein – die Luft kühlt sich stark ab.

Nun wird, und das ist der Trick, die gespeicherte Wärme verwendet, um die Druckluft in einer brauchbaren Temperatur zu halten. Auf diese Weise wird ein Wirkungsgrad von 64 bis 70 Prozent erreicht, das ist ja schon mal ganz beachtlich. Zum Vergleich ist zu erwähnen, dass bei der jetzt in Deutschland propagierten Speicherung über Wasserstoff ein Wirkungsgrad von etwa 20 Prozent erreicht wird. Es kommt hinzu, chinesische Luft ist deutlich preiswerter als grüner Wasserstoff!

Es bleiben aber Fragen offen. Der Wärmespeicher, dessen Wärme für die Rückerwärmung der Luft gebraucht wird, ist nicht verlustfrei isoliert. Das bedeutet, die Haltedauer für die Speicherung insgesamt ist auf wenige Stunden begrenzt, bei längerer Dauer müsste man dann von außen zusätzlich Wärme zuführen. Eine Dunkelflaute kann aber deutlich länger dauern und für die Versorgung von PV-Anlagen reicht es schon mal gar nicht. Denn bei diesen müsste man ja die elektrische Leistung, die im Sommer erreicht wird, für den Winter speichern.

Über die Kosten der Speicherung erfährt man auch nichts, Betrieb und Wartung einer solchen Anlage ist nicht zum Nulltarif zu haben. Diese Kosten sind ja auch der Grund, warum es in Deutschland bisher nicht gelungen ist, auch nur eine kleine Insel vollständig mit erneuerbaren Energien zu versorgen. Erinnert sei hier an das Projakt „Smart region Pellworm“, die Versuche dort wuden schon nach zwei Jahren wieder aufgegeben, wie PI-NEWS berichtete.

Nach dem Pariser Klima-Abkommen erhält China erhebliche Mittel aus der übrigen Welt (und auch aus Deutschland). Ob die dazu beigetragen haben, die Pressluftspeicher-Anlagen zu finanzieren, bleibt offen.

Für die Kapazität dieser Anlage wird ein Wert von 1500 Megawattstunden  (MWh) angegeben. Zum Vergleich dazu: das größte Pumpspeicherwerk Deutschlands, Goldisthal, hat eine Kapazität von 8480 MWh, also mehr als das fünffache, und der Wirkungsgrad liegt zwischen 85 und 90 Prozent. Dagegen sieht die „Größte Druckluftspeicher-Anlage der Welt“  doch vergleichsweise bescheiden aus.

Dann muss man auch fragen, wie viele dieser „Größten Druckluftspeicher-Anlagen der Welt“ man in Deutschland bräuchte, um nur die Windkraft zu versorgen? Der elektrische Bedarf liegt bei etwa 60 GW, die Windkraft deckt davon die Hälfte, also 35 GW. Für den gesamten Bedarf muss man das noch mal mit fünf multiplizieren, macht 175 GW. Die Druckluft-Anlage hat eine Leistung von 300 Mega-Watt, also 0,3 GW. Das bedeutet, wir brauchen dann 583 Anlagen und man wird sich wohl nach anderen Lösungen umsehen müssen (oder die Energiewende aufgeben).

 




Mit dem Bekenntnis zur Klimaneutralität in 2045 durch die neue Bundesregierung wird der deutsche Weg ins Mittelalter nun im Grundgesetz verankert – eine erschreckende Wegbeschreibung bis 2045

Dr.-Ing. Erhard Beppler

Fazit

Nach den Vorstellungen der neuen Regierung soll das „Pariser Abkommen“ befolgt werden, d. h. Klimaneutralität in 2045.
An den bisher gemachten Kostenabschätzungen im Billionenbereich für die Einstellung der Klimaneutralität wird sich wenig ändern können. Wohl aber werden die Strompreise für die Betriebe, etc. abgesenkt, d.h. die Kosten werden von den Stromkunden zu den Steuerzahlern verschoben, wo doch die Staatsquote schon bei 49,5% liegt.
Der Weg Deutschlands bis 2045 wird im Folgenden beschrieben.
Ausgehend von 2024 mit installierten 163 GW über die „alternativen Energien“ Wind und Sonne wurden im Mittel 24 GW Stromleistung erzeugt, 26 GW über die Energieträger Braunkohle, Steinkohle und Erdgas, in Summe also etwa 50 GW.
Um in 2024 50 GW nur über Wind und Sonne zu erzeugen, wäre die Installation von
163 X 50/24 = 340 GW erforderlich.
Da über die Stromerzeugung nur über Wind und Sonne die Stromerzeugung nicht zielgerecht an den Strombedarf angepasst werden kann, muss Wasserstoff erzeugt werden über H2-Elektrolyseure. Wasserstoff wird als Schlüssel für die Klimaneutralität in Europa gesehen.
Um 1 GW über Wind und Sonne zu erzeugen, müssen zunächst ½ GW für die Erzeugung von Wasserstoff aufgebracht werden mit einem Wirkungsgrad von 40% für die Herstellung (47 KWh/kg H2), Speicherung (5 KWh/kg H2) und Verstromung (35 KWh/kg H2) – in Summe 87KWh/kg H2.
Für die Erzeugung einer Stromleistung von 1 GW über Wind und Sonne einschließlich der Erzeugung von Wasserstoff müssen dann
1 GW = ½ GW + ½ GW/0,4 oder 1 GW = ½ GW + 1,25 GW = 1,75 GW (Gleichung 1)
aufgebracht werden.
Für die Erzeugung von 50 GW in 2024 oder in 2045 (bei gleichem Strombedarf) über Wind, Sonne und Wasserstoff wären dann 50 X 1,75 = 87,5 GW erforderlich , oder 37,5 GW nur für Wasserstoffdarstellung.
Für die Erzeugung von 87,5 GW sind dann einschließlich der Wasserstoffherstellung

163 X 87,5/24 (s.o.) = 594 GW (Gleichung 2)
zu installieren.
Von den 37,5 GW für die Herstellung, Speicherung und Verstromung des Wasserstoffes sind dann 47/87 X 100 = 54% (s.o.) nur für die H2-Darstellung erforderlich oder
37,5 GW X 24 h X 0,54 = 487 GWh/Tag . (Gleichung 3)
Daraus errechnet sich ein täglicher Wasserstoffverbrauch über
487 GWh/Tag und 47 KWh/kg H2 von 10 360 Tonnen H2/ Tag
nur für die Erzeugung von 50 GW.

Aber die Zielsetzung ist die Klimaneutralität der gesamten Energien in 2045, also die ausschließliche Stromerzeugung über Wind, Sonne und Wasserstoff.
In 2024 liegt der Primärenergieverbrauch über die Energieträger Braunkohle, Steinkohle, Mineralöl, Erdgas bei 255 GW, der im Folgenden im Sinne der Klimaneutralität auf 2045 übertragen wird.
Von den 255 GW müssen zunächst die bereits berücksichtigten 26 GW für die Stromerzeugung über Braunkohle, Steinkohle und Erdgas abgezogen werden.
Es gilt dann für die Stromerzeugung in 2045 nach Gleichung 1 für den Primärenergiebedarf:
GW = (255-24) GW X 1,75 = 404 GW, nur für die H2-Darstellung: 404 – (255-24)= 173 GW.
Gemäß Gleichung 2 errechnet sich dann für die Erzeugung von 404 GW für den Primärenergiebedarf eine Installation von
163 X 404/24 = 2743 GW.
Nach Gleichung 3 sind dann für die 173 GW nur für die Herstellung, Speicherung und Verstromung des Wasserstoffes
173 X 24 h X 0,54 = 2242 GWh/Tag erforderlich. Daraus errechnet sich ein täglicher H2-Verbrauch über 2242 GWh/Tag und 47 KWh/kg H2 von 47 700 Tonnen H2/Tag.

Das ergibt dann einen erforderlichen H2-Verbrauch einschließlich des Verbrauches für die Stromerzeugung in 2045 von 10 360 + 47 700 = 58 000 Tonnen, was einem Wasserbedarf von 464 000 Tonnen/Tag entspricht – wo auch immer diese Mengen aufgebracht werden können.
Bereits in 2024 zeigten sich im Winter durch den zunehmenden Zubau von Wind- und Solaranlagen vermehrt Dunkelflauten, d.h. die Stromleistungen über Wind und Sonne fielen ab auf etwa 10 GW über mehrere Tage bei sonstigen „alternativen Energien“ von etwa 7 GW bei einem Strombedarf zwischen 40 und 70 GW. Es fehlen dann zwischen 20 und 50 GW. Hilfe kommt zur Zeit von Nachbarländern mit Stromimporten bis über 15 GW.
Es ist müßig, bei einer erforderlichen Stromleistung in 2045 von 404 GW + 87,5 GW (Strom) über dieses Thema zu diskutieren.
Die Solarstromspitzen um die Mittagszeit lagen bereits in 2023 bei einer installierten Solarstromleistung von 70 GW bei 40 GW bei einer mittleren Stromnachfrage von etwa 50 GW – z.Z. liegen die installierten Solaranlagen bei 102 GW oder möglichen 40/70 X 102 = 58 GW in der Mittagszeit.
Auch hier erübrigt sich eine Diskussion für 2045 bei einer Stromleistung von 404 GW + 87,5 GW (Strom).
Erinnert sei an den kürzlichen Stromausfall in Spanien, wo bei einer Gesamtstromleistung von etwa 30 GW 19 GW nur über Solarstrom plötzlich ausfielen.
Dieser deutsche Weg ins Mittelalter soll nun vollzogen werden bei einem anthropogenen CO2-Eintrag in die Atmosphäre von etwa 4,7 ppm/a (0,000 47%), knapp 2% von Deutschland oder 0,09 ppm (0,000 009%) – nicht messbar.
Diesen einsamen Weg geht Deutschland wohl wissend, dass die großen Verursacher der anthropogenen CO2-Emissionen wie China, Russland, USA, etc. von den abstrusen Vorstellungen Deutschlands weit entfernt sind.

1.Einleitung

Die neue Bundesregierung bekennt sich zum „Pariser Abkommen“ sowie zu den europäischen und deutschen Klimazielen, d.h. Klimaneutralität in 2045.
Zudem werden eine Reihe von Maßnahmen aufgeführt, um die Strompreise abzusenken, insbesondere in der Industrie.
Die konventionelle Gasförderung in Deutschland soll vorangetrieben werden. Bis 2030 sollen Gaskraftwerke mit 20 GW Leistung entstehen, die als Rückgrat für den volatilen Solar- und Windstrom gelten.
Die CO2-Abscheidung, – Verbesserung oder – Nutzung soll für schwer vermeidbare Emissionen sowie Gaskraftwerke genutzt werden (CCS und CCU).
Der Wiederbetrieb von Kernkraftwerken ist nicht in Sicht.
Ein „Monitoring“ soll bis zur Sommerpause klären, wieviel Strom in Zukunft erforderlich ist und welchen Ausbau die „Erneuerbaren“ wie die Netze, und nicht zuletzt der Wasserstoffhochlauf erfahren soll.
Festgehalten wird am System der CO2-Bepreisung als zentraler Baustein. Man will den Emissionshandel europäisch und international vorantreiben, d.h. Benzin, Diesel. Heizöl, etc. werden schrittweise nicht unerheblich teurer.
Das Bekenntnis zum „Pariser Abkommen“ bedeutet, dass die Klimaneutralität bis 2045 oberstes Ziel mit all den damit verknüpften Problemen erhalten bleibt wie insbesondere die Zurverfügungstellung der erheblichen H2-Mengen sowie das Problem der sicheren Anpassung der Stromerzeugung an den Strombedarf.
Im Folgenden wird in einem ersten Schritt das Problem der Wasserstoffversorgung am Beispiel der z.Z. erforderlichen Stromleistung von 50 GW aufgezeigt mit dem Problem der Dunkelflauten wie der Solarstromspitzen in der Mittagszeit, um anschließend auf die Hoffnungslosigkeit der Einstellung der Klimaneutralität für den gesamten Primärenergiebedarf in 2045 einzugehen.

2. Eine technische Wegbeschreibung von der Erzeugung von CO2-freiem Strom zunächst nur für eine Stromleistung von 50 GW

Zunächst ein kurzer Rückblick auf den Ausbau der Stromerzeugung über die Wind- und Solaranlagen von 2010 bis 2024. (Bild 1) (1)


Bild 1: Ausbau der Wind- und Solaranlagen

Die installierte Wind- und Solarleistung stieg von 41 GW in 2010 auf 163 GW in 2024 an, der erforderliche Strombedarf lag um 50 GW. Die Schwankungsbreite der Stromversorgung über Wind und Sonne wird in Bild 1 und Tafel 1 sichtbar (vgl. auch später). Die mittlere Stromerzeugung über Wind und Sonne liegt in 2024 bei etwa 24 GW. Etwa 26 GW werden über die Energieträger Braunkohle, Kohle und Erdgas beigesteuert.
Im Einzelnen schwanken die Leistungen der Wind- und Solaranlagen in 2024 wie folgt (Tafel 1): (2)

Tafel 1

Um die Stromleistung nur über Wind und Sonne von 24 GW auf 50 GW anzuheben, müsste dann bei gleichem Verhältnis von Wind- zu Solarstrom 163 X 50/24 = 340 GW installiert werden.
Damit würde zwar in Summe eine für 50 GW angepasste Stromerzeugung dargestellt werden, aber diese Stromleistung würde zwischen null und etwa 340 GW schwanken können, d.h. eine zielgerechte Anpassung der Stromleistung an den geforderten Strombedarf wäre nicht möglich, wie am folgenden Beispiel erläutert wird. (Bild 2)


Bild 2: Beispiel für die Schwankungsbreite der Windstromerzeugung

Um 40 GW gezielt über Wind (und Sonne) darzustellen, müssen für den über 40 GW anfallenden Strom von 20 GW H2-Elektrolyseure her, um mit den 20 GW Wasserstoff zu erzeugen, zu speichern und über die H2-Verstromung wieder in Strom zurückzuführen.
Das ist dann nicht umsonst zu haben. (Kapitel 2.3)

2.1 Das Problem der Dunkelflauten

Im Winter 2024/2025 hat die Entstehung von Dunkelflauten (niedrige Stromerzeugung über Wind- und Solaranlagen über längere Zeiten) vermehrt zugenommen.
Die Ausbildung von Dunkelflauten nimmt naturgemäß im Winter durch die zurückgehende Solarstromerzeugung zu, natürlich auch durch den zunehmenden Ausbau von Wind- und Solaranlagen.
Im Folgenden wird an einem Beispiel (25.02. – 02.03.2025) das Problem der Dunkelflauten aufgezeigt. (Bild 3) (3)

Bild 3: Stromerzeugung der „alternativen Stromerzeuger“ und Strombedarf in Dunkelflauten

Im genannten Zeitraum werden zunächst nur die „alternativen Energien“ Laufwasser, Biomasse, Wind offshore, Wind onshore und Solarstrom dargestellt – ebenso der Strombedarf von etwa 50 GW, der jedoch tagsüber an 70 GW heranreicht, nachts bis 40 GW absinkt.
Die Stromerzeugung über Laufwasser und Biomasse schwanken um 7 GW, Wind onshore und offshore sowie Solarstrom um 10 GW – d.h. die Lücken bis zum Strombedarf nehmen Werte zwischen 20 und 50 GW an, die über Braunkohle, Kohle, Erdgas sowie Nettostromimporte bis 11 GW ausgeglichen werden müssen. (Bild 4) Die Stromimporte über Nachbarländer können zeitweise Werte über 15 GW annehmen.

Bild 4: Ausgleich der diversen Stromlücken durch unterschiedliche Energieträger einschließlich Nettostromimporte (rot) in Dunkelflauten

Großkraftwerke haben Kapazitäten um 1 GW, Gaskraftwerke eher um 0,5 GW. Ohne die Hilfe der Nachbarländer wäre eine höhere Anzahl an Großkraftwerken erforderlich.
Zu den Stromlieferanten aus dem Ausland zählen Österreich, Belgien, Schweiz, Tschechoslowakei, Niederlande, Norwegen, Polen, Schweden.
Deutschland bewegt sich in einer Komfort-Zone, solange diese Länder Strom liefern können. Aber erster Unmut wird laut.
Natürlich steigen die Strompreise bei einer Stromverknappung gehörig an.
Nun gelten die o.g. Zahlen nur für eine Wind- und Solarleistung von 24 GW. (s.o.) Alleine eine Umstellung auf 50 GW würde die Stromlücke von 20- 50 GW mehr als verdoppeln – ganz zu schweigen von den in 2045 erforderlichen Stromleistungen über Wind, Sonne und H2 alleine für den gesamten Primärenergieverbrauch von 404 GW. (vgl. Kapitel 3)
Wenn die Bundesregierung bis 2030 eine Kapazität für Gaskraftwerke von 20 GW als Rückgrat für die volatilen Wind- und Solaranlagen plant, ist das nur ein Tropfen auf einen heißen Stein und entspricht nicht der Zielsetzung der Klimaneutralität in 2045.

2.2 Das Problem der Solarstromspitzen um die Mittagszeit

In einer früheren Arbeit (4) war bereits darauf hingewiesen worden, dass bei einer installierten Solarleistung von 70 GW in 2023 im Sommer um die Mittagszeit Solarstromspitzen von 40 GW entstehen bei stündlichen Zu- bzw. Abnahmen bis zu 8,5 GW/h. Ausgeglichen wurden diese schnellen Veränderungen über Braunkohle (3 GW), Kohle (2 GW), Erdgas (4,1 GW), Pumpspeicher (5 GW) und wieder insbesondere über Nettostromimporte (15,4 GW).
Inzwischen sind die installierten Solaranlagen auf 102 GW ausgebaut, davon 63 GW oder 475 000 Anlagen fernsteuerbar und 39 GW oder 4 388 000 Anlagen nicht fernsteuerbar. (5)
Wird in 2023 von einem Verhältnis von Höhe der Solarstromspitzen zu installierter Solarleistung von 40:70 ausgegangen, werden in diesem Sommer bereits Solarstromspitzen von 40/70 X 102 = 58 GW zu erwarten sein, wenn nicht gegengesteuert werden kann.
Entsprechend wird sich die stündliche Veränderung der Solarstromspitzen beim Auf- und Abbau von 8,5 GW/h in 2023 entsprechend erhöhen, was zu einer massiven Gefährdung der Stromversorgung führen wird.
Zudem wird die Stromversorgung vermehrt gefährdet, wenn zusätzlich zu den Solarspitzen sog. „Hellbrisen“ hinzukommen, plötzlicher zusätzlicher Windstrom.
Erinnert sei an den kürzlichen Stromausfall in Spanien, wo bei einer Gesamtstromleistung von etwa 30 GW 19,1 GW nur über Solarstrom plötzlich ausfielen.
Auch hier darf bereits auf die in 2045 zu erwartenden Stromleistungen von 404 GW nur für den gesamten Primärenergiebedarf hingewiesen werden, (vgl. Kapitel 3)

2.3 Der erforderliche Aufwand für die Herstellung, Speicherung und Verstromung von Wasserstoff nur für eine Stromleistung von 50 GW

Der energetische Aufwand für die Herstellung von Wasserstoff in Elektrolyseuren, die Speicherung sowie die Verstromung setzt sich im Wesentlichen wie folgt zusammen: (6)

Der sich daraus ergebende Wirkungsgrad von 40% ist bewusst hoch angesetzt worden.
Es gilt dann für einen Leistungsbedarf von 50 GW einschließlich der Herstellung und Verarbeitung des Wasserstoffes:
a) Nach Bild 2 errechnet sich die Stromleistung unterhalb und oberhalb des Mittelwertes einschließlich des Energieaufwandes für die H2-Herstellung wie folgt:
GW = GW/2 + GW/2/0,4 = 50/2 + 50/2/0,4 = 25 + 25/2/0,4 = 87,5 GW oder allgemein
1 GW = ½ GW + ½ GW/0,4 oder 1 GW = ½ GW + 1,25 GW = 1,75 GW (Gleichung 1)
b) In 2024 wurden bei einer mittleren Stromleistung von 50 GW etwa 24 GW über Wind und Sonne beigestellt, wofür 163 GW über Wind- und Solaranlagen diese Leistung beisteuerten (Bild 1, Tafel 1), 26 GW über Braunkohle, Kohle, Erdgas.
Für die Erzeugung von 50 GW in 2024 oder 2045 über Wind, Sonne und Wasserstoff wären dann 50 X 1,75 = 87,5 GW erforderlich , oder 37,5 GW nur für Wasserstoffdarstellung.
Für die Erzeugung von 87,5 GW sind dann einschließlich der Wasserstoffherstellung

163 X 87,5/24 (s.o.) = 594 GW (Gleichung 2)
zu installieren.
Von den 37,5 GW für die Herstellung, Speicherung und Verstromung des Wasserstoffes sind dann 47/87 X 100 = 54% (s.o.) nur für die H2-Darstellung erforderlich oder
37,5 GW X 24 h X 0,54 = 487 GWh/Tag (Gleichung 3)
Daraus errechnet sich ein täglicher Wasserstoffverbrauch über
487 GWh/Tag und 47 KWh/kg H2 von 10 360 Tonnen H2/ Tag
nur für die Erzeugung von 50 GW.
Aber zur Einstellung der Klimaneutralität in 2045 gehört nicht nur die hier diskutierte Stromerzeugung.

3. Der Weg der kompletten Umstellung aller in Deutschland eingesetzten Energien wie Braunkohle, Kohle, Erdgas, Mineralöl auf Wind, Sonne und Wasserstoff

Die Zielsetzung Deutschlands ist die Klimaneutralität Deutschlands in 2045.
Der Primärenergieverbrauch in Deutschland lag 1990 bei 14 905 Petajoule oder 473 GW, in 2023 bei 10 735 Petajoule oder 338 GW. Nach ersten Schätzungen des bdew liegt der Primärenergieverbrauch in 2024 bei 10 487 Petajoule oder 330 GW.
Dabei lag der Anteil der „Erneuerbaren Energien“ in 1990 bei 1,3%, in 2023 bei 19,6%, in 2024 bei 20%. (bdew)
2023 2024 2045 (bei gleichbleibender
Erzeugung)
% GW % GW GW
Steinkohle 8,7 29,4 7,2 23,7 23,7
Braunkohle 8,3 28,1 7,6 25,1 25,1
Mineralöl 33,6 120,3 36,6 120,8 120,8
Erdgas 24,7 83,5 25,9 85,5 85,5
Kernenergie 0,7 2,4 – – –
„Erneu. Energien“ 19,6 66,2 20,0 66
Sonstige 2,3 7,8 2,7 8,9
Summe 338 330 255 Tafel 3

Der Zielsetzung der neuen Regierung folgend muss zur Einstellung der Klimaneutralität in 2045 auf die Energieträger Braunkohle, Steinkohle Erdgas, Mineralöl verzichtet werden zugunsten der ausschließlichen Stromerzeugung über Wind, Sonne und Wasserstoff – rechnerisch zunächst von 255 GW. (Tafel 3)
Dazu muss die für die Stromerzeugung aus Wind und Sonne bereits umgesetzten 24 GW abgezogen werden: 255 – 24 = 231 GW (vgl. Kapitel 2.3)

Es gilt dann der gleiche Rechengang wie bei der Umstellung der Stromerzeugung von 50 GW.
Gleichung 1 für die erforderliche Stromleistung:
GW = (255-24) GW X 1,75 = 404 GW, nur für die H2-Darstellung: 404 – (255-24)= 173 GW.
Gemäß Gleichung 2 errechnet sich dann für die Erzeugung von 404 GW eine Installation von
163 X 404/24 = 2743 GW.
Nach Gleichung 3 sind dann für die 173 GW nur für die Herstellung, Speicherung und Verstromung des Wasserstoffes
173 X 24 h X 0,54 = 2242 GWh/Tag erforderlich. Daraus errechnet sich ein täglicher H2-Verbrauch 2242 GWh/Tag und 47 KWh/kg H2 von 47 700 Tonnen H2/Tag.

Damit liegt der erforderliche H2-Verbrauch einschließlich des Verbrauches für die Stromerzeugung in 2045 bei 10 360 + 47 700 = 58 000 Tonnen, was einem Wasserbedarf von 464 000 Tonnen/Tag entspricht – wo auch immer diese Mengen aufgebracht werden sollen.
Bei diesen Berechnungen wird davon ausgegangen, dass das Verhältnis von Stromerzeugung von Wind zu Sonne gleichbleibt.
Sicher wird die Stromerzeugung in 2045 höher liegen als in 2024 – aber das prüft die Bundesregierung in ihrem „Monitoring“.
Nach ersten Kostenbetrachtungen für den Einsatz von importiertem Wasserstoff mit dem Trägermedium Ammoniak liegt der Strompreis unter Berücksichtigung des Importes, der Aufspaltung in H2 (Cracken), die Kosten des Crackers sowie die Verluste bei der Stromerzeugung bei 49 ct/KWh, damit 5 mal höher als der heutige Börsenpreis von 9 ct/KWh. (Strompreis USA 3,5 ct/KWh). (11)

4. Schlussbetrachtung

Der mit der Einstellung der Klimaneutralität in 2045 verbundene erforderliche Zubau an Wind- und Solaranlagen einschließlich der für die Klimaneutralität unabdingbaren H2-Mengen muss nicht zuletzt auch vor dem Hintergrund betrachtet werden, welchen Anteil eigentlich die Menschen weltweit sowie Deutschland für den Anstieg der CO2-Gehalte der Atmosphäre beitragen.
Nach der Aussage des IPCC wird der Anstieg der CO2-Gehalte der Atmosphäre ausschließlich durch den CO2-Ausstoß der Menschen bestimmt als Ursache für den Temperaturanstieg bis zum Verglühen der Erde.
Nach früheren Arbeiten steigt der CO2-Gehalt der Atmosphäre von 1870 (Ende der „Kleinen Eiszeit“ mit großen Hungersnöten) bis 2020 von 290 ppm auf 410 ppm an. (Bild 5) (9)


Bild 5: CO2-Gehalt der Atmosphäre sowie ihr anthropogener Anteil

Dieser Anstieg wird durch den anthropogenen CO2-Eintrag in die Atmosphäre von nur 4,7 ppm/a (2020) verursacht, der Rest von rund 115 ppm durch andere Einflüsse (Temperaturanstieg Meere (10), Vulkane, etc.). Diese Aussagen beziehen sich auf Messungen und Stoffbilanzen, nicht auf Modellbetrachtungen. Bei diesem CO2-Anstieg ist zu bedenken, dass durch die gemessene Begrünung der Erde ein nicht unerheblicher Anteil des CO2-Gehaltes der Atmosphäre bereits abgebaut worden ist.
Der deutsche Anteil an den 4,7 ppm/a (0 000 47%) in 2020 liegt bei kleiner 2%, also 0,09 ppm/a (0,000 009%), nicht messbar.
Zudem hat eine Darstellung der weltweiten anthropogenen CO2-Emissionen aller Länder von 1960 bis 2023 gezeigt, dass dieser Ausstoß ab etwa 2011 eine deutliche Abflachung erfährt bis hin zu einem leichte Abfall. Aber die gemessenen CO2-Gehalte der Atmosphäre zeigen nicht die geringsten Veränderungen. (8)
Schließlich muss sich das IPCC auch die Frage gefallen lassen, wieso nach der letzten Eiszeit ohne menschlichen Einfluss derartige Temperaturanstiege zustande kamen wie in Bild 6 aufgezeigt.

Bild 6: Warm- und Kaltphasen nach der letzten Eiszeit

Im Übrigen macht die Anwendung des CCS-Verfahrens zum Abbau der CO2-Gehalte der Atmosphäre keinen Sinn, da die CO2-Gehalte der Atmosphäre mit denen der Meere im Gleichgewicht stehen. (10)
Bei der geplanten Einstellung der Klimaneutralität in 2045 durch die Bundesregierung wird sich an den bisher gemachten Kostenabschätzungen für die Energiewende von bis zu 10 Billionen EURO wenig ändern. (7)
Vor diesem Hintergrund ist eine Rückbesinnung auf die Stromerzeugung über Braunkohle für 3-4 ct/KWh, etc. dringend geboten, das Gleiche gilt für die Kernenergie.
Nun sind wegen der hohen Energiepreise schon viele Industrien abgewandert und der Trend hält an.
Sollte Deutschland dem Weg der Einstellung der Klimaneutralität über Wasserstoff bis 2045 folgen – und das auch noch bei einem nicht messbarem Beitrag des deutschen CO2-Anteiles in der Atmosphäre – so wird die Abwanderung der Industrie aus Deutschland zu mittelalterlichen Verhältnissen führen. Die großen Verursacher der anthropogenen CO2-Emissionen wie China, Russland, USA, etc. sind von den abstrusen Vorstellungen der Deutschen weit entfernt.
Ungeachtet aller Fakten predigen die Ökoideologen und der Kommerz ihre Weltuntergangszenarien unverändert weiter – sie wissen um die Macht der Angst.

Quellen

1.Schuster, R.: Mitteilung vom 07.08.2024
2. Beppler, E.: „Eine Diskussion der zahlreichen Unzulänglichkeiten der Energiewende offenbart ein hoffnungsloses Debakel in Deutschland“; EIKE, 23.09.2024
3. www.Stromdaten.info
4. Beppler, E.: „Der vorgesehene Ausbau der alternativen Energien zur Absenkung der…“; EIKE, 21.10.2023
5. Schuster, R.: Mitteilung 01.03.2025
6. Beppler, E.: „Wieviel Wasserstoff erfordert die Klimaneutralität in 2045 auf dem Wege über 2030 und welche Energieverbräuche sind damit verknüpft“; EIKE, 30.06 2023
7. Prof. Andre Thess, Universität Stuttgart
8. Beppler, E.: „Die energiepolitische Geisterfahrt Deutschlands“; EIKE, 27.04.2024
9. Beppler, E.: „Quantifizierung der marginalen anthropogenen CO2-Gehalte der Atmosphäre – ein seit Jahrzehnten überfälliger Schritt“; EIKE, 16.12.2020
10. Beppler, E.: „Über allen Fakten zur Energiewende thronen Ideologie und der Kommerz, ungeachtet des beschleunigten Niederganges Deutschlands“; EIKE, 15.01 2025
11.Das Deindustrialisierungskonzept des Herrn Robert H., von F.Vahrenholt: EIKE,10.08.2024

 

 




Teil 1: Der vorgetäuschte Erfolg – Das Framing der Energiewende

von Frank Henning

Die deutsche Energiewende scheitert vor sich hin, die Verursacher wollen es nicht wahrhaben. Große Teile der Bevölkerung halten das Vorhaben für erfolgreich, schließlich ist genug Strom in der Dose. Vor allem hilft eine umfangreiche Konstruktion an Framing, Mythen und Tatsachenverdrehung, den Schein zu wahren.

Der deutschen Energiewende geht es schlecht. Das ist die so ziemlich einhellige Meinung aller, die sich mit dem Thema etwas näher beschäftigen. Selbst staatliche Stellen wie das Bundesfinanzministerium oder der Bundesrechnungshof stellen schlechte Zeugnisse aus, letzterer sogar am laufenden Band. Der McKinsey-Energiewende-Index liefert regelmäßig Zahlen zur mangelhaften Zielerreichung. Universitäten und Hochschulen warnen mit wissenschaftlicher Expertise, sofern sie nicht als Geldempfänger entsprechend eingenordet sind.

Auch die Befürworter sind unzufrieden, sie möchten, dass es schneller geht, also ehrgeiziger, entschiedener, ambitionierter, und welche scheinprogressiven Vokabeln es noch so gibt. Trotzdem geht ein beruhigendes Rauschen durch den Blätterwald regierungsbegleitender Zeitungen; die Bilder im TV zeigen weiße Windkraftrotoren über wogenden Getreidefeldern mit glänzenden PV-Modulen am Rand. Das führt dazu, dass ein großer Teil der Bevölkerung gelassen bleibt. Bisher ist ja noch nichts passiert. Die Strompreise steigen, aber es wird ja alles teurer. Dass das vor allem auch mit gestiegenen Strom- und CO2-Preisen zusammenhängt, diese Abhängigkeit können Linearfernsehzuschauer eher selten herstellen.

Nun sind die Grundlagen des Betriebs von Strom- und Wärmenetzen nicht in BILD-Manier mit einem großen Foto und drei Sätzen darstellbar. Längere Texte konzentriert zu lesen, einen Podcast oder Film bis zum Ende zu hören und zu sehen, das ist nicht das Merkmal der heutigen Mediennutzer. Hier müssen Häppchen serviert werden, möglichst in Bildern, denn das Lesevermögen ist insbesondere bei der nachwachsenden Generation immer schwächer ausgeprägt. Emotionen gibt es in Emojis, Meinungen mit Daumen hoch oder runter. Der sprachliche Ausdruck von Sachverhalten, Emotionen oder Meinungen ist vielen zu kompliziert, bei abnehmendem Wortschatz der Schulabgänger gibt es zunehmend Wortfindungsprobleme

Das macht es den Branchen und Lobbys der „Erneuerbaren“ und ihren poltischen Armen bei Rot-Grün leicht, einen verfälschten Eindruck der Energiewende zu vermitteln. Das geschieht teils unauffällig, oft ist es ein Nudging mit neutralem Anstrich. Welche Instrumente kommen zum Einsatz?

Lügen und gezielte Falschaussagen

Glatte Lügen sind selten anzutreffen, weil leicht zu identifizieren. Dass man sie trotzdem hin und wieder in den Medien findet, zeugt vom intellektuellen Niveau in der Medienblase. Ein Paradebeispiel dafür war die Meldung in der ARD über die angebliche Erfindung eines TV-Geräts, das Strom erzeugt. Zeitgeistlich passend wurde es noch mit einer Rassismus-Geschichte angereichert: Die „Erfindung“ kam aus Afrika.

Im Gegensatz zu den platten Lügen gibt es gezielte Falschaussagen, die sich etabliert haben und öffentlich nicht mehr in Zweifel gezogen werden. Ein Klassiker dafür ist die Behauptung, Kernkraftwerke (KKW) seien nicht regelbar. Seltsamerweise kommen die meisten Journalisten nicht auf die Idee, das zu hinterfragen. Die Wahrheit ist, die Anlagen sind sogar gut regelbar, es ist aber kaum erforderlich. Infolge niedriger Betriebskosten standen sie in der sogenannten Merit-Order, der wirtschaftlichen Einsatzreihenfolge der Kraftwerke, ganz links und halfen, die Grundlast abzudecken.

Ähnliche Märchen gibt es auch zu den Kohlekraftwerken, die trägen „Tanker“, die ebenfalls als schlecht regelbar gelten. Dabei wurden selbst alte Kraftwerke durch Modernisierung in einen gut regelfähigen Zustand versetzt. Sie haben inzwischen einen breiteren Regelbereich als früher, gleichwohl dauern die Anfahrprozesse länger als bei Gaskraftwerken.

Würden diese beiden Behauptungen zu den Regelfähigkeiten stimmen, wäre uns das Netz schon öfters um die Ohren geflogen. Die Einspeisegradienten von Sonnen- und Windstrom erreichen fast 10.000 Megawatt (MW) pro Stunde, das erfordert eine gleichermaßen flexible und ergänzende Residuallast.

Fehlender Kontext

„Kernkraft ist zu teuer“ ist ein Standardspruch der Anti-Atom-Gemeinde. Dann führt man die 34 Milliarden Euro teure Investition im britischen Hinkley Point an oder auch Flamanville in Frankreich oder Olkiluoto in Finnland. Richtig ist, dass alle drei Projekte aus dem Ruder gelaufen sind, auch weil in Europa seit Jahrzehnten keine KKW gebaut wurden und Know-How verloren gegangen ist. Verschwiegen werden eine mindestens 60-jährige Laufzeit (fast drei Generationen von Windkraftanlagen), sichere und regelbare Stromlieferungen und wenig Aufwand zur Integration des Stroms ins Netz, also kaum Redispatch und wenig Erfordernis zum Netzausbau.

Auch stellt man keine Zahlen gegenüber. Die 34 Milliarden entsprechen etwa zwei Jahren deutscher EEG-Förderung. Der Unterschied ist: Läuft Hinkley Point, verdient es Geld, aber ab dem dritten Jahr muss die EEG-Umlage mit Steuergeld wieder aufgefüllt werden, um die Ökostromanlagen überhaupt am Leben zu erhalten.

Es gäbe weltweit keine Atomendlager, lautet eine weitere immer wiederkehrende Behauptung. Falsch, in Finnland geht gerade eines in Betrieb, in Schweden wird gebaut, Frankreich und die Schweiz haben Standorte gefunden, die Aufzählung ist nicht abschließend. In grüner Verbohrtheit kommt auch nicht die Frage auf, ob es Alternativen zu Endlagern gibt. Die gibt es, sind aber in Deutschland allesamt verboten. Angefangen von Aufarbeitung und Verkauf, Transmutation oder Maßnahmen einer Kreislaufwirtschaft. Hier müsste die reaktionäre 80er-Jahre Anti-Atom-Politik endlich beendet werden, auch wenn es den Senioren Jürgen Trittin, Jochen Flasbarth, Hans-Josef Fell und anderen nicht gefällt. Sie halten die Grünen in Deutschland immer noch in ideologischer Geiselhaft und verhindern den Generationswechsel, den finnische und schwedische Grüne schon vollzogen haben.

„Erneuerbarer“ Strom sei billig, hört man immer wieder. Das stimmt zum Teil, wenn man nur die Gestehungskosten betrachtet. Hier sind Windkraftanlagen an der Küste günstig, die Photovoltaik eher im Mittelmeerraum oder südlicher. Die Gestehungskosten haben aber nichts mit den am Markt erzielbaren Preisen und vor allem den Folgekosten zu tun. Stromverkauf ist ein Echtzeitgeschäft und der Preis schwankt bei uns stark durch die Launen des Wettergottes. Da aber der Einspeisevorrang auch zur Produktion zur Unzeit führt, fallen erhebliche Folgekosten durch Netzeingriffe, Redispatch oder negative Preise an. Das treibt die Kosten im Gesamtsystem.

Seit dem Start des EEG im Jahr 2000 kennt der Strompreis nur eine Richtung – nach oben. Warum nun bei immer weiterem Zubau von „Erneuerbaren“ dieser wieder fallen soll, ist das Geheimnis grüner Fachpolitiker_*Innen. Wer es tiefergehend wissen möchte, der sei auf die Publikation von Frau Professor Grimm und anderen verwiesen: „Stromgestehungskosten von Erneuerbaren sind kein guter Indikator für zukünftige Stromkosten“.

Eine weitere falsche Behauptung wird sogar ministeriell gestreut (vom ehemaligen Ministerium für Wirtschaft und Klima – MWK): Es gäbe keine Grundlast mehr. Hier zeigt sich die Ahnungslosigkeit der Beamten, die eigentlich nur die Entbehrlichkeit von Grundlastkraftwerken begründen wollen. Die Grundlast betrifft, wie aus dem Wort hervorgeht, nur die Last, also den Bedarf. Sie beträgt im Minimum jahreszeitabhängig zwischen 30 und 40 Gigawatt (GW). Während die schwankende Mittel- und Spitzenlast auch null sein kann, ist die Grundlast immer vorhanden – sonst wäre das Land stromlos. Im Unterschied zu früher sind allerdings so viel „Erneuerbare“ am Netz, dass sie die früher meist konstant durchlaufenden Grundlastkraftwerke zeitweise zum Abregeln zwingen. Also: Es gibt Grundlast und es wird sie immer geben, wer sie bedient, ist eine andere Frage.

Halbwahrheiten

Neben Fehlinformation kommen auch Halbwahrheiten zum Zug. Sie sind schwieriger zu erkennen, denn die halbe Wahrheit mag richtig sein, aber durch das Weglassen anderer Wahrheiten entsteht ein falsches Bild. Die halbe Wahrheit ist meistens eine ganze Lüge, so ein jüdisches Sprichwort. Die Methode ist häufig in der Erfolgsberichterstattung über die „Erneuerbaren“ zu finden. Ein starker Zubau an Wind- und Solaranlagen in China wird bejubelt, ohne den gleichzeitig starken Ausbau an Kohle-, vor allem aber Kernkraft dort zu erwähnen.

Die Gefahren einer globalen Temperaturerhöhung werden penetrant beschworen, die Vorteile eines höheren CO2-Gehalts der Luft aber nicht erwähnt. Die Blattmasse der Nordhalbkugel nahm in den vergangenen 40 Jahren stark zu, Ergebnis höherer Temperaturen und gestiegener Pflanzennahrung in der Luft. Das ist gut für die landwirtschaftlichen Erträge und die wachsende Weltbevölkerung, wird aber nicht publiziert, weil es bestimmten Interessen entgegensteht. „Starkes erstes Quartal bei der Windenergie“ titelte die „Lausitzer Rundschau“ am 24. April. Die Meldung bezog sich aber nur auf mehr Genehmigungen und zurückgegangene Bearbeitungszeiten von Anträgen. Kein Wort dazu, dass die Windstromproduktion im ersten Quartal historisch erbärmlich niedrig ausfiel.

Der Abstand geplanter polnischer Kernkraftwerke zur deutschen Grenze wird thematisiert und als Gefahr dargestellt, nicht aber der emissionssenkende Effekt auf die CO2-lastige polnische Energiewirtschaft.

Besonders gut verwenden lassen sich Durchschnittszahlen produzierter Elektroenergie. „Wer in Kilowattstunden argumentiert, hat entweder die Physik nicht verstanden oder nutzt Fehlinterpretationen und Missverständnisse bewusst aus“, schätzt Professor Holger Watter von der Hochschule Flensburg ein. Mit ihnen lässt sich verschleiern, dass Stromerzeugung ein Echtzeitgeschäft ist und Produktion und Verbrauch sekundengenau im Einklang stehen müssen. „Erneuerbare“ Strommengen, zum falschen Zeitpunkt produziert, sind nicht nur nicht hilfreich, sondern zeitweise ausgesprochen kontraproduktiv. Sie können zu volkswirtschaftlich schädlichen negativen Preisen führen und auch zu Belastungen des Stromnetzes, die die Versorgungssicherheit gefährden.

Für die der Zusammenhänge unkundige leichtgläubige Bevölkerung entsteht zudem der falsche Eindruck, dass mit steigenden Mengen „erneuerbaren“ Stroms die Dekarbonisierung und die Energiewende immer näher rücken würden. Die naive Schlussfolgerung lautet: Wenn wir jetzt schon mehr als 50 Prozent Naturstrom im Netz haben, dann brauchen wir nur nochmal die gleiche Anzahl an Ökostromanlagen, um das Ziel zu erreichen. Das ist sachlich völlig falsch, denn der Ökostrommenge stehen fast null Prozent Systemverantwortung (Spannungs- und Frequenzregelung) gegenüber, es wird für Wind- und Photovoltaik-Anlagen ein nahezu vollständiges Backup-System gebraucht. Wir benötigen also zwei Systeme für eine Versorgungsaufgabe. Deshalb macht mehr Ökostrom das System teurer, nicht billiger.

Im nächsten Teil: Falsche Bilder, Populistische Vereinfachungen, Hippe Kunstworte und mehr.

Der Beitrag erschien zuerst bei TE hier

 




Der Galilei-Prozess steht am Ende des Mittelalters – die Klima-Justiz heute dagegen ganz am Anfang!

von Uli Weber

Vorwort: Man schreibt heute sämtliche Klimaveränderungen dem CO2-Ausstoß unserer industriellen Kultur durch die Nutzung fossiler Energierohstoffe zu und macht inzwischen nicht einmal mehr vor dem Wetter halt. Aber nicht das Wetter ist klimaabhängig, sondern das Wetter definiert überhaupt erst durch seinen 30-jährigen regionalen Durchschnitt dieses regionale Klima. Genauso, wie viele Wege nach Rom führen, so kann man auch das CO2-Klimaparadigma aus ganz unterschiedlichen Richtungen angreifen. Während mein hemisphärisches Konvektionsmodell ganz ohne den ominösen „natürlichen atmosphärischen Treibhauseffekt“ auskommt, kann man vorgeb­liche CO2-Effekte auch ganz für sich allein widerlegen, indem man sie einfach als „wahr“ annimmt, sie auf der Basis gesicherter wissenschaftlicher Erkenntnisse weiterentwickelt, und sie am Ende zu einem inhärenten Widerspruch („wahr=falsch“) führt. Hier folgt jetzt ein solcher Widerspruchsbeweis („wahr=falsch“) gegen das verfas­sungs­gerichtlich festgestellte nationale CO2-Budget von kumulativ 6,7 Gigatonnen für den Zeitraum 2020 bis 2030. Denn, wie nachfolgend nachgewiesen werden wird, ist das globale CO2-Budget fortlaufend erneuerbar und Deutschlands 2%-iger Anteil daran beträgt immerhin gut eine Gigatonne pro Jahr.

Physik ist eigentlich eine ganz simple Wissenschaft; mein alter Physiklehrer pflegte oft zu sagen, man benötige nur einen Zettel, einen Bleistift – und seinen Kopf:

  1. Bei einem behaupteten physikalischen Zusammenhang lässt sich bereits aus den direkt beteiligten physikalischen Größen deren qualitative Abhängigkeit herleiten.
  2. Die experimentelle Überprüfung des behaupteten physikalischen Zusammenhangs führt entweder zu einem reproduzierbaren quantitativen Ergebnis – oder wenn nicht, dann ist hier schon mal Schluss.
  3. Eine Überprüfung von Zusammenhang und Ergebnis im Rahmen der gesicherten Physik führt dann entweder zur Widerspruchsfreiheit– oder erfordert einen Neustart.

In der sogenannten Klimawissenschaft ist das aber alles ganz anders, denn deren Beweisführung bleibt üblicherweise bei [A] stecken, wird mit klima-missionarischem Eifer medial verbreitet und versagt dann bereits bei [B]. Nehmen wir als Beispiel mal das sogenannte Klimaurteil des Bundesverfassungs­gerichtes vom 24. März 2021, das unter Punkt 19 auf einer annähernd linearen Beziehung zwischen der Gesamtmenge an emittierten klimawirksamen Treibhausgasen und dem Anstieg der mittleren Oberflächen­temperatur aufbaut, Zitat mit Hervorhebungen:

„Bis zu welcher Höhe und mit welcher Geschwindigkeit die Temperatur weiter ansteigt, hängt vom Anteil der Treibhausgase in der Atmosphäre und damit maßgeblich vom Umfang der anthropogen emittierten Treibhausgase ab, insbesondere vom CO2-Ausstoß (IPCC, a.a.O., S. 17 f., 26). Denn zwischen der Gesamtmenge an emittierten klimawirksamen Treibhausgasen und dem Anstieg der mittleren Oberflächentemperatur besteht eine annähernd lineare Beziehung (SRU, Demokratisch regieren in ökologischen Grenzen ‒ Zur Legitimation von Umweltpolitik, Sondergutachten, 2019, S. 36).

Damit stellt sich das Bundesverfassungsgericht gegen den Vatikan der Klimareligion, den sogenannten „Weltklimarat“ (IPCC). Denn in dessen TAR Full Report Kapitel 6 “Radiative Forcing of Climate Change” gibt der IPCC in Tabelle 6.2 auf Seite 358 Formeln für den vorgeblichen Strahlungsantrieb ∆F [Wm−2] von sogenannten Klimagasen an; für das „Radiative Forcing“ von Kohlenstoffdioxid (CO2) ergibt sich folgende logarithmische Funktion:

∆F = α ln(C/C0) mit α=5.35 (IPCC TAR Kapitel 6 Tabelle 6.2 auf Seite 358)

Unter III. heißt es im Beschluss des Bundesverfassungsgerichtes vom 24. März 2021 dann weiter, Zitat:

Der durch Menschen verursachte Klimawandel lässt sich nach derzeitigem Stand nur durch die Reduktion von CO2-Emissionen maßgeblich aufhalten.“ (Rn 31)

Und in (2) Subsumtion wird unter (a) ein „ab 2020 verbleibendes konkretes nationales CO2-Restbudget 6,7 Gigatonnen“ (Rn. 231) angegeben, das „durch die in § 4 Abs. 1 Satz 3 KSG in Verbindung mit Anlage 2 zugelassenen CO2-Mengen bis 2030 bereits weitgehend aufgezehrt“ würde. Aber selbst dann, wenn man an einen menschengemachten Klimawandel durch die Nutzung fossiler Energien glaubt, sollte man sich nicht gleich verfassungsjuristisch ins physikalische Bockshorn jagen lassen. Denn es schadet vom wissenschaftlichen Standpunkt her sicherlich nicht, die vorgeblichen Zusammenhänge einmal näher zu betrachten und mit zusätzlichen Fakten abzugleichen:

Die Klimawirksamkeit von CO2 wird üblicherweise als „Klimasensitivität“ in Grad pro Verdoppelung angegeben. Das IPCC gibt dafür eine Spanne von 1,5 bis 4,5 [°/2xCO2] an. Der ursprüngliche vorindustrielle atmosphärische CO2-Gehalt soll 280 ppm betragen haben. Bis zum Jahre 2015 hatte der Mensch aus der Nutzung fossiler Energieträger etwa 1.400 Gt CO2 zusätzlich in die Atmosphäre eingebracht (Quelle) und damit den CO2-Gehalt der Atmosphäre auf 400 ppm erhöht:

http://scilogs.spektrum.de/klimalounge/files/IPCC-Synthesebericht-Abb-5b-ori.jpgAbbildung 1: „Erwärmung versus kumulative CO2-Emissionen – Quelle: IPCC Synthesebericht (2014)

Der dortige Text zu dieser Abbildung, Zitat:Zusammenhang von kumulativen CO2-Emissionen und globaler Erwärmung. Die Zahlen an den „Blasen“ geben die in den verschiedenen Szenarien erreichte CO2-Konzentration in der Atmosphäre an. Die auf der vertikalen Achse angegebene Temperatur gilt zu dem Zeitpunkt, an dem die auf der horizontalen Achse angegebene Emissionsmenge erreicht wird. Das heißt: die noch folgende weitere Erwärmung allein aufgrund der thermischen Trägheit im System ist hier noch nicht einkalkuliert.

Die Aussagen über das verbleibende globale CO2-Budget basieren offenbar auf dem Blasenwert aus der obigen IPCC-Grafik mit:

480-530 ppm ≅ 3.000 Gt CO2 ≅ ΔT 1,75-2,0 °C

Vergleichen wir diese Werte einmal mit den vorstehend aufgeführten zusätzlichen Fakten:

Der vorindustrielle CO2–Gehalt in unserer Atmosphäre soll 280 ppm oder 0,028% betragen haben. Im 20. Jahrhundert ist dann einiges dazugekommen, wobei der stärkste Anstieg auf den Zeitraum 1965-1980 fällt:

Abbildung 2: Der globale industrielle CO2-Ausstoß im 20. Jahrhundert aus diversen Quellen
Grafik aus: Klimahysterie ist keine Lösung (SW-Ausgabe)

Fassen wir mal zusammen:

Zwischen 1900 und 1948 stieg der globale industrielle CO2-Ausstoß von ca. 2 auf 5 Gt.

Zwischen 1948 und 1965 stieg der globale industrielle CO2-Ausstoß von ca. 5 auf 10 Gt.

Zwischen 1965 und 1980 stieg der globale industrielle CO2-Ausstoß von ca. 10 auf 20 Gt.

Und zwischen 1980 und 2002 stieg der globale industrielle CO2-Ausstoß von ca. 20 auf 25 Gt.

Zum Stand 2023 betrug der globale industrielle CO2-Ausstoß etwa 37,8 Gigatonnen. Die CO2-Klimapanik begann Anfang der 1980-er Jahre mit dem Ende der medial verbreiteten „neuen Eiszeit“-Panik aus den 1970-er Jahren. Denn mit dem vorgeblichen Klimakatastrophen-Auslöser CO2 war der Politik plötzlich der Schlüssel in die Hände gefallen, um den Mehrwehrt der westlichen industriellen Entwicklung sowie das Leben selbst besteuern zu können. Und da die MINT-Fächer die natürlichen Feinde der Schlafschafe sind, ist auch nicht damit zu rechnen, dass der grundlegende Systemfehler der anthropogenen Klimakatastrophe jemals verstanden wird. Denn die Grundrechenarten und der Dreisatz stellen sich dem Verständnis eines MINT-fernen Schlafschafs unüberwindbar in den Weg:

Für den Zeitraum zwischen 1900 und 2015 summiert sich der anthropogene CO2-Eintrag auf insgesamt etwa 1.400 Gigatonnen (Gt) und hatte zu einer Erhöhung des atmosphärischen CO2-Gehaltes um 0,012% auf 0,040% oder 400 ppm geführt. Zwischen dem anthropogenen CO2-Ausstoß und dem atmosphärischen CO2-Gehalt ergibt sich also folgender Zusammenhang:

(1) X Gt CO2 ≅ 280 ppm mit X = „natürliche“ atmosphärische CO2-Menge [Gt CO2]

(2) X Gt CO2 + 1.400 Gt CO2 ≅ 400 ppm

(3) = (2) – (1) 1.400 Gt CO2 ≅ 120 ppm

Die ursprüngliche atmosphärische CO2-Gesamtmenge „X [Gt CO2]“ ergibt sich dann aus den Zeilen (1) und (3) mit einem einfachen Dreisatz zu:

X Gt CO2 = 280 ppm x 1.400 Gt CO2 / 120 ppm = 3.200 Gt CO2

Wir können aus dem IPCC-Blasenwert mit (480-530 ppm ≅ 3.000 Gt CO2 ≅ 1,75-2,0 ΔT °C) einmal ganz vorsichtig eine mittlere CO2-Konzentration von 510 ppm für einen maximalen anthropogenen Temperaturanstieg unter 2 Grad entnehmen. Diese 510 ppm entsprechen dann knapp 6.000 Gt CO2. Abzüglich der natürlichen atmosphärischen CO2-Menge ergibt sich daraus also ein ursprüngliches globales Emissionsbudget von 2.800 Gt CO2 für eine Temperaturerhöhung unter 2 Grad, das sogar noch um 200 GT CO2 kleiner ist, als im IPCC-Bubble angegeben wird. Von diesem ursprünglich verfügbaren globalen CO2-Budget von 2.800 Gt CO2 wären bereits 1.400 Gt CO2 „verbraucht“. Dieser Wert stimmt übrigens auch recht gut mit den Angaben der Bundeszentrale für politische Bildung überein, nach denen sich die Konzentration von CO2 seit Beginn der Industrialisierung um ca. 40 Prozent erhöht haben soll.

Nach der hier durchgeführten Abschätzung würde eine Erhöhung des vorindustriellen atmosphärischen CO2-Gehaltes auf 510 ppm also weitere 1.400 Gt CO2 (=2.800 Gt CO2– 1.400 Gt CO2) erfordern, um nach der oben abgebildeten IPCC-Grafik schließlich eine atmosphärische Temperaturerhöhung von insgesamt etwa 1,75-2,0 °C auszulösen. Bei einem weltweiten jährlichen CO2-Ausstoß von konstant 30 Gigatonnen würde es ab dem Jahre 2015 dann noch etwa 45 Jahre bis zu einem angeblich anthropogen verursachten Temperaturanstieg von insgesamt knapp 2 Grad Celsius dauern, also etwa bis zum Jahr 2060.

Die Aussage über eine kumulative Wirkung von CO2 zur Bemessung des verfügbaren CO2-Budgets in dem zitierten Urteil des Bundesverfassungsgerichtes ist aber nur insoweit korrekt, wie sich dieses CO2 auch noch in der Atmosphäre befindet. Und da widersprechen sich die geehrten Gelehrten doch sehr heftig, denn danach reicht die „atmosphärische Lebenserwartung“ von CO2 von Jahren bis zu Jahrhunderten. Allerdings hatte es mit den Atomwaffenversuchen der 1960-er Jahre einen Großversuch für die „atmosphärische Lebenserwartung“ von CO2 gegeben. Bei diesen Atomwaffenversuchen war nämlich das radioaktive C14-Isotop vermehrt erzeugt worden und dessen „atmosphärische Lebensdauer“ gemessen worden:

Abbildung 3: Atmosphärisches 14CO2 in der zweiten Hälfte des 20. Jahrhunderts
Quelle Wikipedia – Autor Hokanomono – gemeinfrei

Übersetzung der Erklärung: „Die Abbildung zeigt das 14C/12C-Verhältnis relativ zum natürlichen CO2-Gehalt in der Atmosphäre als Funktion der Zeit in der zweiten Hälfte des 20. Jahrhunderts. Das Diagramm wurde mit gnuplot aus atmosphärischen Radiokarbondaten in Wellington, Neuseeland (1954 n. Chr. bis 1993 n. Chr.) und am Vermuntsee, Österreich (1959 n. Chr. bis 1983 n. Chr.) erstellt. Die SVG-Datei von gnuplot wurde manuell verbessert. Die Datenquellen liefern die Daten als D14C. Für das Diagramm wurde der absolute prozentuale moderne Wert unter der Annahme berechnet, dass jede Messung im selben Jahr wie die jeweilige Probenahme durchgeführt wurde.“

Nun haben Isotope üblicherweise dieselben chemischen Eigenschaften wie das Normalelement, nur bei der Physik wird es etwas komplizierter. Wenn wir jetzt einmal den Peak vom 10. Oktober 1963 und seinen Abfall über die Folgejahre betrachten, dann sind 80% des erzeugten C14-Isotops bereits innerhalb von etwa 20 Jahren aus der Atmosphäre verschwunden. Damit wären wir bereits deutlich unter der üblicherweise angesetzten Abklingschwelle von [1/e] entsprechend etwa 37%. Wir dürften daher für die „atmosphärische Lebenserwartung“ von anthropogenem CO2 mit vorsichtigen 50 Jahren bei einer CO2-Restmenge kleiner 2% gar nicht mal so falsch liegen und stellen erstaunt fest:

Huch, das globale CO2-Budget ist ja gar nicht kumulativ, sondern fortlaufend „erneuerbar“!

Denn mit dieser „atmosphärischen Lebenserwartung“ von etwa 50 Jahren für das anthropogene CO2 in unserer Atmosphäre beträgt das fortlaufende globale CO2-Budget für den anthropogenen CO2-Ausstoß etwa:

2.800 Gigatonnen CO2 pro 50 Jahre: 2.800 Gt CO2 / 50 Jahre = 56 Gt / Jahr

Bei einem aktuellen anthropogenen CO2-Ausstoß von deutlich unter 40 Gigatonnen pro Jahr ist also mit jährlich 56 Gt für die wirtschaftliche Entwicklung der 3. Welt auch noch jede Menge Luft nach oben, ohne das ominöse 2-Grad Ziel überhaupt anzurühren. Von einem überlebenswichtigen Zwang zu Null-CO2-Emmissionen ab 2050 kann also selbst dann keine Rede sein, wenn man tatsächlich an einen menschengemachten Klimawandel durch CO2-Emmissionen glauben möchte.

Ein nachprüfbar berechnetes globales CO2-Budget von jährlich bis zu 56 Gigatonnen CO2 kann also die klimareligiös befürchtete menschengemachte Klimaerwärmung ohne die angestrebte Dekarbonisierung der Welt dauerhaft unter 2 Grad halten – selbst wenn man denn dem Wahn von der anthropogenen CO2–Katastrophe voll verfallen wäre. Die Dekarbonisierung der Welt bis zum Jahr 2100 erweist sich damit zum wiederholten Male als eine völlig unnötige, von Klimaaber­glauben getriebene Selbstkasteiung der Mensch­heit. Und mit dieser menschen­feindlichen Agenda wollen die grünen Klihmer jetzt zielgerichtet unsere kohlenstoff-basierte industrielle Lebensgrundlage zerstören und unseren daraus resultierenden Lebensstandard vernichten.

Also vorwärts in die Vergangenheit, ihr CO2-Klimaschafe – wir sehen uns dann im Mittelalter!

PS: Deutschlands 2%-iger Anteil an diesem erneuerbaren globalen CO2-Budget von jährlich 56 Gigatonnen beträgt also fortlaufend gut 1 Gigatonne pro Jahr. Aber was soll’s, in einem hunderttausende Kilometer von der Bonner Republik entfernen Land, in dem nach der Wahl eines neuen Parlaments noch schnell mal das „geschäftsführende“ über eine Verfassungsänderung abstimmt, sollte es auch kein großes Problem sein, den 2. Hauptsatz der Thermodynamik mal eben per Gerichtsurteil an den menschen­gemachten CO2-Klima­aberglauben anzupassen…

 




Das spanische Menetekel

Was in Spanien genau zum Blackout führte? Wir wissen es noch nicht. Was wir aber wissen, ist, dass es in Deutschland jeden einzelnen Tag passieren kann.

Von Manfred Haferburg

 

Ein großer Teil der iberischen Halbinsel war für einen Tag „schwarz“ – das heißt, es gab am 28. April 2025 um 12:33 Uhr einen großflächigen Blackout, der fast ganz Spanien, große Teile Portugals und ein paar Gebiete in Frankreich erfasst hatte. 60 Millionen Menschen waren ohne Strom. Zum Glück waren die Ingenieure in den Netzleitstellen – wie schon so oft  vorher –  clever und fix genug, das Ausbreiten des Blackouts im Europäischen Verbundnetz zu stoppen und den „Dominoeffekt“ des Netzzusammenbruchs zu unterbrechen.

Zum Glück blieben auch ein paar Gebiete in Spanien und Portugal verschont, so dass man nicht von einem totalen Netzzusammenbruch berichten muss. Dies ist wichtig, denn wenn es bei einem großflächigem Netzausfall noch ein paar Inseln gibt, die nicht schwarz sind, dann wirken die wie Rettungsboote, mit deren Hilfe der Wiederaufbau des Netzes viel einfacher und schneller erfolgen kann. So konnten Großkraftwerke mit dem Strom der Nachbarn angefahren werden und dann erst Strominseln versorgen, die nach und nach zu einem Stromnetz aufgebaut werden. Das ist ein komplizierter Vorgang, der auch schon mal mehrere Tage dauern kann, wie wir jüngst in Kubabeobachten konnten.

In den betroffenen Gebieten jedoch trat das ein, was die Energiewende-Schwurbler schon lange vorhersagen – das öffentliche Leben brach sofort in sich zusammen. Die Züge der Bahn und des Nahverkehrs blieben einfach stehen und mussten evakuiert werden. Das betraf sowohl Fernzüge auf freier Strecke als auch U-Bahnen in ihren Tunneln. Die Fahrgäste mussten teils viele Stunden in den Zügen ausharren, bis Hilfe eintraf und sie entweder auf freier Strecke aus den unklimatisierten Zügen holte und sie über Schotter und Schwellen in Richtung Rettung stolpern konnten. Noch schlimmer traf es diejenigen, die durch die Tunnel der U-Bahn mit Notbeleuchtung und Taschenlampen ins Freie geleitet wurden. Das ist vielleicht für junge sportliche Menschen ein Abenteuer, aber für Betagte oder Behinderte eher ein Albtraum.

Nach einem Tag waren immer noch nicht alle Aufzüge evakuiert

Hunderte Aufzüge blieben stehen, wo sie eben waren, und die Menschen konnten sich nicht selbst befreien. Dies ist vielleicht einer der schlimmsten Schrecken eines Blackouts, auf wenigen Quadratmetern einer Aufzugskabine mit wildfremden Menschen zusammengepfercht viele Stunden auf Rettung warten zu müssen. Nach einem Tag waren immer noch nicht alle Aufzüge evakuiert. Man sollte sich schon mal gedanklich damit vertraut machen, wie man sich verhält, wenn einen in einer solchen Situation ein menschliches Rühren überfällt.

Auf den Straßen der großen Städte kam es auf Grund des Ausfalls der Verkehrsleiteinrichtungen zu einem Verkehrschaos. Flughäfen, Bahnhöfe und öffentliche Einrichtungen wurden geschlossen. Ein Fußballstadion wurde evakuiert. Beim Tennis Masters 1000 saßen die Zuschauer plötzlich im Dunklen. Geschäfte, Banken, Tankstellen mussten schließen, da sie ohne Strom nicht einmal ihre Türen auf- und zumachen konnten, von den Kassen, Kühlanlagen, Treibstoffpumpen gar nicht zu reden.

An den nicht funktionierenden Geldautomaten bildeten sich lange Hoffnungs-Schlangen. Wohl dem, der ein paar Scheine im Strumpf hatte – auch wenn es dafür nichts mehr gab. Telefondienste und Internet fielen aus, nicht einmal die Netzbetreiber konnten auf die Schnelle ein Situationsbild erstellen, da auch ihre Telefone nicht mehr funktionierten. In einigen Regionen Spaniens wurde erstmals in der Geschichte der Notstand ausgerufen. Und der spanische Staatschef hielt eine Rede ans Volk, die mangels Strom niemand sehen konnte. Es entstand aber auch kein Schaden dadurch.

Man muss den Spaniern bescheinigen, dass es nach bisherigen Erkenntnissen ruhig blieb und die Menschen diszipliniert und gelassen reagierten. Es gibt Bilder von großen Menschenmassen vor den geschlossenen Bahnhöfen, die geduldig auf irgendeine Lösung hofften. Die befürchteten Plünderungen blieben aus, jedenfalls drang keine derartige Meldung durch. Auch gab es noch keine Berichte über Todesfälle. Das ist verständlich, denn in den meisten Regionen gab es am 29.4. wieder Strom. Frankreich und Marokko halfen mit Anfahrstrom für die Großkraftwerke aus. Wer glaubt, dass man mit Solar- und Windkraft ein Netz wiederaufbauen kann, der weiß nicht, wie ein Netz funktioniert.

Die Energiewende-Durchhalte-Experten in Deutschland

Nach dem Blackout kommen jetzt ganze Völkerstämme von Experten und schauen in ihre Glaskugeln, um mit Theorien über die Ursache des iberischen Blackouts zu fachsimpeln. Manche sagen, dass eine Hochspannungsleitung von Spanien nach Frankreich vom Übermaß des spanischen Mittags-Solarstroms überwältigt wurde und ausfiel. So erklärt sich der plötzliche Leistungsabfall von 15 Gigawatt innerhalb von 5 Sekunden (das sind 15 Großkraftwerke) zwischen Frankreich und Spanien in dieser Zeit. Der Leitungsausfall könnte einen Domino-Effekt ausgelöst haben. Das sieht nachvollziehbar aus. Es wird auch über einen Brand in Frankreich spekuliert, was die Franzosen aber verneinen. Andere sagen, dass es auf Grund hoher Temperaturschwankungen in Spanien zu einer „Anomalie“ gekommen sei – eine eher kühne These. Ein Richter lässt gar den Verdacht der Sabotage kritischer Infrastruktur prüfen. Putins Hacker jedenfalls schließen die Spanier aus.

Die Experten mögen recht haben, oder nicht, das zeigt – vielleicht – das Ergebnis der Untersuchung der Netzbetreiber. Derzeit gilt: „Nichts genaues weiß man nicht“.

Aber natürlich kommen auch die Energiewende-Durchhalte-Experten in Deutschland wieder aus ihren Löchern. N-TV zitiert den Chef der Bundesnetzagentur, den grünen Klaus Müller:

Dass sich etwas Ähnliches hier in Deutschland ereignen könnte, hält der Chef der Bundesnetzagentur, Klaus Müller, aber für nahezu ausgeschlossen. „Das ist sehr unwahrscheinlich“, sagt Müller in der ARD-Tagesschau. Das deutsche Stromnetz sei redundant ausgelegt. „Konkret bedeutet das, dass eine Leitung immer ausfallen kann und eine andere Leitung einspringen würde.“ Es gebe mehrere Sicherungssysteme im Stromnetz, und für den Fall der Fälle gebe es sogenannte Schwarzstartkraftwerke, die das Stromnetz auch ohne externe Energieversorgung wieder aufbauen könnten. „Das heißt, Deutschland ist gut vorbereitet“, sagt Müller.”

Würde ich als Chef der Bundesnetzagentur, der gerne Minister werden würde, an seiner Stelle auch sagen. Doch hörte er sich im September letzten Jahres noch ganz anders an.

Die Bundesnetzagentur fordert Abschaltmöglichkeiten für Sonnenkraftanlagen, um Solar-Blackouts zu verhindern. „Verteilnetzbetreiber müssen in die Lage versetzt werden, bei kritischen Netzsituationen Solaranlagen zu steuern, um die Netze stabil zu halten“, sagte Behördenpräsident Klaus Müller im Interview mit der „Neuen Osnabrücker Zeitung“. „Es führt kein Weg daran vorbei, neue Solaranlagen steuerbar zu machen.“ Die entsprechenden Gesetzesänderungen müsse der Bundestag schon „ab diesem Herbst“ verabschieden. „Dann können alle Akteure das alles schnell genug an den Start bringen.“

Sie vermuten richtig, lieber Leser. Geschehen ist seither genau – nichts. Und die Netzbetreiber haben dem Herrn Netzagenturchef  schon vor einem Jahr widersprochen – Deutschland beherrscht nicht einmal in jedem Fall das n-1 Kriterium mehr (die Achse berichtete schon im Februar 2024 hier) Aber dann haben wir ja die Schwarzstart-Kraftwerke, die wir nach dem Blackout anfahren können – nicht wahr, Herr Müller? Was meinte der grüne Müller, wenn er die Steuerbarkeit von Kleinsolaranlagen fordert?

Mit der Energiewende kamen politische Thekentänzer

Das Stromnetz ist die komplizierteste Maschine, die je von Menschen gebaut wurde. Der Bau hat 120 Jahre gedauert. Die Maschine funktioniert so, dass in jeder Sekunde genau so viel Strom erzeugt wird, wie gerade verbraucht wird. Wird mehr oder weniger verbraucht, als gerade erzeugt wird, gerät die Maschine außer Takt. In unserem Fall heißt der Takt der Maschine: Frequenz von genau 50 Hertz = 3.000 Umdrehungen pro Minute. Bei Drehzahlerhöhung auf 51,5 Hertz – das heißt 3.090 U/min oder beim Absinken auf 47,5 Herz – das entspricht 2.850 U/min – bricht das Netz zusammen, weil dann die Kraftwerke sich zum Schutz der riesigen Turbogeneratoren automatisch abschalten. Es kommt zum Blackout.

Dieser Wert von ~2.900 bis ~3.100 Umdrehungen pro Minute muss eingehalten werden, obwohl die Verbraucher machen können, was sie wollen. Die Netzbetreiber mussten und konnten die Kraftwerksleistung in einem komplizierten Verfahren stets dem Verhalten der Verbraucher anpassen, indem sie Kraftwerke hoch- oder runterfahren ließen. Die Netzbetreiber können ein Lied davon singen, was geschieht, wenn bei einem Spiel der Fußballweltmeisterschaft die Halbzeit angepfiffen wird und Millionen Fußballfans vom Fernseher aufspringen und Bratpfanne oder Kaffeekessel anwerfen.

Mit der Energiewende begannen politische Thekentänzer, die nicht mal verstanden, wie das Netz funktioniert, es mit Unsummen von fremden Geld so umzubauen, dass nicht nur die Verbraucher machen, was sie wollen, sondern auch die Stromerzeuger das machen, was Wind und Sonne gerade so hergeben. Diese neuen vielgepriesenen „Kraftwerke heißen Windräder und Solarkollektoren. Bekanntlich aber ist das Wetter sehr launisch und ziemlich schwer vorhersagbar – auch wenn manche „Wissenschaftler“ glauben, die Temperatur im Jahre 2100 vorhersagen zu können, obwohl sie noch nicht mal sicher das Wetter der nächsten Woche wissen. Außerdem lassen sich die „Erneuerbaren“ vom Netzbetreiber nur in eine Richtung – nämlich nach unten – steuern. Der Netzbetreiber kann nicht befehlen: Wind, blase mehr oder Sonne, scheine heller.

Das Netz „läuft über“

Langsam aber sicher werden die Solaranlagen für die Netze ein Problem. Die Solarbetreiber werden gefördert, was das Zeug hält. Photovoltaik-Anlagen zahlen keine Mehrwertsteuer, keine Stromsteuer und auch keine Netzgebühr, sie haben auch keinerlei Verantwortlichkeit für die Netzsicherheit, die bleibt bei den immer weniger werdenden Großkraftwerken.

Durch diese unmäßige Förderung wurden Millionen auch weniger begüterte Menschen ermutigt, mit staatlichen Subventionen Kleinstsolaranlagen auf Dächer und Balkone zu bauen. Die sind aber vom Netzbetreiber noch nicht einmal abregelbar, weil sich eine Regelung nicht lohnt. Sind es aber Millionen, dann erzeugen sie ein gigantisches Klumpenrisiko, das sich rein nach Wetter allein in Deutschland zu fast 40 Gigawatt addiert – notabene – nicht regelbar.

Der Deutschlandstromverbrauch beträgt aber je nach Wochen- und Feiertag so zwischen 55 und 75 Gigawatt, wobei immer auch etwa mindestens 15 Gigawatt Großkraftwerks-Leistung laufen müssen, um durch die Masseträgheit der Großgeneratoren die Drehzahl einigermaßen stabil zu halten. Solaranlagen haben keine Masseträgheit, und Windturbinen sind einfach zu leicht, um das leisten zu können. Wenn wir jetzt an einem Feiertag um 12.33 Uhr volle Sonne haben, der Wind fröhlich weht und nur 55 Gigawatt Strom verbrauchen, dann sind wir an allen Grenzen angelangt. 40 Gigawatt – das ist das Äquivalent von 35 großen Kernkraftwerken – ballern unsteuerbar Solarstrom von den Balkonen und Dächern ins Netz, und der Netzbetreiber kann auch keine Großkraftwerke mehr abregeln, da sonst das Netz ins Oszillieren gerät. Das Netz „läuft über“.

Das bedeutet, das der nicht benötigte Strom in die Nachbarländer abfließt. Dann bekommen die viel Geld für die Abnahme. Können sie ihn auch nicht verbrauchen, bleibt ihnen nur, sich von unserem Netz zu trennen.

Der Netzbetreiber kann dann innerhalb Deutschlands nur noch zu Notmaßnahmen greifen, indem er ganze Landstriche mit vielen Solaranlagen einfach abschaltet. Die haben dann einen Brownout, also lokal einen kleinen Blackout – jedenfalls haben sie keinen Strom. Das betrifft wohl meist Baden-Württemberg, Sachsen-Anhalt und Bayern mit besonders viel Solarstrom.

Was in Spanien genau zum Blackout führte? Wir wissen es noch nicht. Was wir aber wissen, ist, dass es in Deutschland jeden einzelnen Tag passieren kann – im Winter bei Dunkelflaute und im Sommer bei Hellbrise. Oder einfach so, aus einem nicht trivial erklärlichen Grund. Und die Politiker tanzen weiter auf der Theke ihren Energiewende-Tango.

Lesen Sie zum gleichen Thema: Blackout (1) – Eine Serie aus aktuellem Anlass

Der Beitrag erschien zuerst bei ACHGUT hier