Ein Alarmbrief an den Kanzler

von Peter Würdig

Und es ist wirklich Alarm:

denn „noch nie waren so viele gute Arbeitsplätze bedroht !“ Darüber berichtete jetzt Merkur: Energie-Alarmbrief erreicht Merz: „Nie waren so viele gute Arbeitsplätze bedroht“ Nun, das ist wirklich keine überraschende Nachricht, denn die De-Industrialisierung ist sei einiger Zeit voll im Gange. Deutschland ist trauriger Spitzenreiter, was die Höhe des Strompreises betrifft, und da der Preis für elektrische Energie in vielen Produkten der Industrie (und auch des Mittelstandes) eine wichtige Rolle spielt, können viele Firmen mit der Konkurrenz des Auslands nicht mehr mithalten. Besonders aus den kriselnden Industrie-Branchen kommt jetzt massive Kritik. So meldeten sich nun die Arbeitnehmervertreter der ostdeutschen Chemie- und Stahlindustrie zu Wort. Beide Branchen stecken seit längerem im deutschen Rezessions-Dilemma fest.

Das falsche Rezept.

Für die Politik ist das kein neues Problem, und nun versucht es die Bundesregierung unter Kanzler Merz mit der Senkung der Stromsteuer für die Industrie. Wenn wir eine Situation hätten, dass auf einem angemessenem Netto-Preis für elektrische Energie eine viel zu hohe Steuer läge, dann wäre das eine richtige Maßnahme. Tatsächlich ist die Situation jedoch genau umgekehrt: es sind eben nicht zu hohe Steuern, die sind ja vergleichsweise angemessen, denn dass Verbrauchsgüter mit Steuern belegt sind, ist ganz normal, die Leistungen der staatlichen Verwaltung müssen ja bezahlt werden. Tatsache ist jedoch leider, dass der Preis von Strom vor Steuern schon viel zu hoch ist, das hat man mit der Energiewende geschafft. Damit ist das jetzige Verfahren, das ja auch noch für eine heftige Diskussion gesorgt hat, da die privaten Haushalte nicht entlastet werden sollen, nur ein Placebo-Effekt. Und nun äußern sich die Vertreter der Branchen deutlich: Die Pläne des Merz-Kabinetts, Unternehmen im Bereich der gestiegenen Energiepreise zu entlasten, gehen ihnen ganz klar nicht weit genug. Dies geht aus einem Brandbrief hervor, in dem sich die Vertreter der ostdeutschen Stahl- und Chemieindustrie direkt an den Bundeskanzler gewendet haben. Um an den Kern der Problems heranzugehen fehlt der Politik offensichtlich der Mut und auch die Kraft. Es kommt ein Weiteres hinzu: wenn Steuern gesenkt werden stellt sich die Frage der Gegenfinanzierung, welche Leistungen der Verwaltung sollen gekürzt werden, oder sollen noch höhere Schulden aufgenommen werden ?

Energiewende misslungen ?

Die Branche spart in ihrem Brandbrief nicht mit deutlichen Formulierungen. Der im Kabinett beschlossene Booster geht den Unternehmen nicht weit genug. Man wolle „keine Subventionen nach Gutsherrenart, sondern vernünftige Rahmenbedingungen“. Die Energiewende an sich wird im Brief als „bislang gründlich misslungen“ bezeichnet.

Kann man die Energiewende wirklich als „gründlich misslungen“ bezeichnen ? Das hängt davon ab, was mit der Energiewende bezweckt werden soll. Wenn der Zweck der Energiewende ist, dass sich die Besitzer von großen Flächen, also die Windmühlenbarone, die Taschen stopfen können für eine Leistung, die im freien Markt niemand freiwillig abnehmen würde, dann muss man die Energiewende als hervorragend gelungen bezeichnen. Sollte damit jedoch eine preiswerte Energie-Versorgung für ein Industrieland gemeint gewesen sein, dann hätte man das ja auch ganz anders anfangen müssen, nicht mit dem EEG und einer ausufernden Planwirtschaft, sondern zunächst ein Versuch im Kleinen, wie z.B. mit dem Projekt „Smart region Pellworm“, EIKE hatte darüber berichtet, hier: Vom Winde verweht – die Pellworm-Pleite, lebendige Eindrücke aus einer „Smart region“ – EIKE – Europäisches Institut für Klima & Energie und hier: Wenn schon pleite, dann aber richtig ! Ein Nachruf auf die „Smart region Pellworm“ – EIKE – Europäisches Institut für Klima & Energie Man hätte diese Ergebnisse auswerten müssen statt das dann alles unter den Teppich zu kehren, da schon der Versuch für eine kleine Insel gründlich misslungen war.

Wie geht es weiter ?

Nun müssen wir leider erwarten, dass die Energiewende weiter noch gründlicher misslingen wird, denn der weitere Ausbau von Windmühlen und PV-Anlagen geht ungehemmt weiter, was im Brandbrief auch deutlich kritisiert wird. Tausende von Windkraftanlagen und PV-Anlagen sind errichtet worden, wofür Subventionen von vielen Milliarden aufgebracht worden sind. Allerdings, keine einzige dieser Anlagen ist in der Lage, Energie verbrauchsgerecht zu liefern. Für jede dieser Windmühlen oder „Balkon-Kraftwerke“ braucht man ein Backup-Kraftwerk, das die wetterabhängig schwankende Erzeugung sekundengenau ausgleicht. Die letzten drei noch verbliebenen Kernkraftwerke, die für diese Aufgabe hervorragend geeignet waren, wurden unter der Regierung Scholz abgeschaltet und dann zerstört. Das Kraftwerk Moorburg in Hamburg, eines der modernsten Kohlekraftwerke, wurde jüngstens abgeschaltet und abgerissen, und die noch verbliebenen Kohlekraftwerke sollen ebenfalls abgerissen werden. Für die dann fehlende

Grundlast-Versorgung sollen Gaskraftwerke mit einer Leistung von bis zu 20 GW errichtet werden, und nicht nur der Aufbau dieser Werke erfordert Subventionen ohne Ende, niemand weiß auch bisher, wo das Gas dafür herkommen soll und was das kosten wird. Eine wirkliche Entlastung können Industrie, Mittelstand und private Verbraucher nicht erwarten, es kommen im Gegenteil immens steigende Kosten auf uns zu.

 

 




Der nächste Heizungs-Schlag

Wer glaubte oder hoffte, mit Habecks Abgang sei der Spuk des „Heizungsgesetzes“ vergangen, hat sich gründlich getäuscht. Jetzt ist der nächste Irrsinn in Arbeit, die „Dekarbonisierung der Fernwärme“.

von Dr. Klaus-Dieter Humpich

Was für den Marxisten die „Klassenfrage“, ist für die CDU/CSU – und alle anderen Anhänger von UnsereDemokratie – der „menschengemachte Klimawandel“. Beides Irrlehren, die lediglich dem eigenen Machterhalt dienen. Schien nun der „Grüne Wasserstoff“ gerade als unverkäuflich, ist der nächste Irrsinn in Arbeit, die „Dekarbonisierung der Fernwärme“.

Fernwärme – der Transport von einer Zentrale zu den Wohnhäusern – ist beileibe kein neuer Gedanke. Es begann in den USA schon am Ende des 19. Jahrhunderts. Damals war der Transport der Kohle (Heizöl und Erdgas gab es noch nicht) und Asche das unmittelbare Problem. In Chicago hatte man sogar eine eigene U-Bahn für diesen Zeck unterhalten. Der Transport von heißem Wasser bzw. Dampf war die weitaus elegantere Lösung. Außerdem führte die kontrollierte Verbrennung in einer zentralen Kesselanlage gegenüber zahlreichen einzelnen Feuerstätten zu einer erhebliche Verbesserung der Luftqualität.

In den 1920er Jahren ging man in Berlin, Hamburg, München usw. noch einen Schritt weiter: Da auch der Stromverbrauch in den wachsenden Städten zunahm, baute man Kraftwerke in deren Nähe. Dort wurde die Abwärme der Stromerzeugung in das örtliche Fernwärmenetz eingespeist. Damit war das non plus ultra der „Energieerzeugung“ erreicht. Durch ständige Nachrüstung der Kraftwerke mit Abgasreinigungsanlagen waren bald die Abgase sauberer als die angesaugte Stadtluft. Kohle war ein heimischer Rohstoff und ließ sich für Monate bevorraten.

Für kleinere Städte kamen BHKW (Blockheizkraftwerke) auf der Basis von Motoren oder Gasturbinen infrage. Allerdings erfordern diese Heizöl oder Erdgas als Brennstoff. Üblich ist auch das Einsammeln von Abwärme aus der Müllverbrennung und manchen industriellen Prozessen (Chemie, Stahl etc.). Ausschlaggebend für die notwenigen Investitionen und die Technik ist die Vorlauftemperatur im Netz. Einerseits kann man um so mehr Wärmequellen mitnehmen, desto geringer die Temperatur ist, andererseits werden die notwendigen Rohre dicker und die Investitionen steigen.

Als sinnvoll haben sich maximale Temperaturen (am kältesten Tag) von 110°C bei reiner Heizung und 150°C für eine eventuelle Kälteerzeugung (Klimaanlagen) seit Jahrzehnten bewährt. Niedrigere Temperaturen werden zwar immer wieder vorgeschlagen, sind aber weder wirtschaftlich noch praktikabel. Geradezu albern ist die Abwärmenutzung von Rechenzentren. Die Computer fordern möglichst geringe Temperaturen zur Leistungssteigerung. Solch geringe Temperaturen könnte man höchstens in einem angrenzenden Neubau (Fußboden- und Wandheizung) verwenden.

Ein weiterer technischer Zombie ist die Erdwärmenutzung in Deutschland – immer wieder neu verkauft, aber auch immer wieder stillgelegt. Ebenso die geliebte „Großwärmepumpe“. Damit sie nicht zur rein elektrischen Heizung degeneriert, braucht sie eine Wärmequelle mit möglichst hoher Temperatur im Winter (Meer, Fluss, See) und möglichst milde Winter (geringe Vorlauftemperaturen).

Der nächste Weg in den Ruin

Wenn man die Studie zur Preisregulierung von Fernwärme des Bundesministeriums für Wirtschaft und Energie liest, kann einem nur angst und bange werden. Sie beginnt mit dem Glaubensbekenntnis „Deutschland hat sich das Ziel gesetzt, bis 2045 klimaneutral zu werden.“ Warum und wieso bis 2045, wird nicht erklärt. Aber es wird messerscharf gefolgert: „Bis 2045 soll sich demnach die Zahl der Fernwärmeanschlüsse in Deutschland in etwa verdreifachen. Das geht mit enorm hohen Investitionen einher.“ Eigentlich ist damit schon alles gesagt. Ein Wachstum um 300 Prozent in nur zwanzig Jahren bei einer ausgereiften Technik ist mehr als unwahrscheinlich – auf jeden Fall aber unwirtschaftlich, sonst wäre es schon lange geschehen.

Allerdings gibt es einen entscheidenden Unterschied zu den Träumen vom „grünem Stahl“: Die Stahlindustrie kann abwandern, wir nicht. Hier findet ganz unverschämt ein Angriff auf unsere Portemonnaies statt. Wer nicht zahlen kann, wird zwangsgeräumt! So ist das halt im schönsten Deutschland aller Zeiten.

Insbesondere der Ausbau der Fernwärmenetze sollte deshalb weiterhin durch öffentliche Mittel unterstützt werden, da die Abschreibungs- und Nutzungszeiträume den Finanzierungszeitraum bei Weitem überschreiten. Würden sämtliche Investitionskosten vollständig an die jeweiligen Netzkundinnen und -künden weitergegeben, würde das die Bezahlbarkeit der Wärmeversorgung für einen wesentlichen Teil der Haushalts- und Gewerbekunden stark gefährden.

Wie weit sich diese Regierung schon von der Marktwirtschaft entfernt hat, hätte man uns nicht deutlicher mitteilen können. „Öffentliche Mittel“ müssten auch vorher durch Enteignung von uns allen eingetrieben werden. Auch im 3. Sozialismus hintereinander wird mit Sicherheit kein Geld auf Bäumen wachsen. Typen wie Klingbeil haben auf alles die immer gleiche Antwort: „Aufgrund der absehbar hohen notwendigen Investitionen sind neue Finanzierungsmöglichkeiten für die Fernwärmetransformation zu prüfen, um sozialverträgliche Fernwärmepreise zu ermöglichen.“ Noch mehr Staatsverschuldung, damit die Party (kurzfristig) weiterlaufen kann? Leute, diesmal gibt es kein Beitrittsgebiet. Diesmal wird die Suppe allein ausgelöffelt.

In Deutschland werden derzeit mehr als zwei Drittel der Fernwärme aus Kohle und Erdgas erzeugt. Weniger als 30 Prozent aus Biomasse und Abwärme. Wie leichtfertig in UnsereDemokratie Gesetze zusammengeschustert werden, zeigt der §29 des Wärmeplanungsgesetzes, in dem ein Anteil von „mindestens 30 Prozent aus erneuerbaren Energien, unvermeidbarer Abwärme oder einer Kombination“ bis zum 1. Januar 2030 bzw. mindestens 80 Prozent bis 2040 vorgeschrieben wird. Wo sollen denn in so kurzer Zeit die Biomasse, die Flüsse etc. bereitgestellt werden? Gar nicht von den nötigen Kesseln und Wärmepumpen zu reden. Ganz nebenbei wäre das auch das Ende der Kraft-Wärme-Kopplung in Deutschland.

Wie viel Ideologie und Wunschdenken vorausgesetzt werden muss, steht im Klimaschutzgesetz. Danach muss die Jahresemissionsmenge von 118 Millionen Tonnen CO2 im Jahr 2020 auf 70 Millionen Tonnen 2030 bei den Gebäuden gesenkt werden. Wir erschaffen uns also in den nächsten fünf Jahren völlig neue Städte, um das Ziel einer Absenkung auf 59 Prozent zu erreichen. Gleichzeitig wollen sie auch noch 400.000 Wohnungen pro Jahr zusätzlich bauen. Respekt, solche Fünf-Jahres-Pläne hätte sich nicht einmal Erich Honecker getraut.

Der Finanzbedarf

Die Studie geht davon aus, dass bis 2045 die Zahl der angeschlossenen Wohngebäude um 177 Prozent von 1,3 Millionen auf 3,6 Millionen ansteigt. Dadurch soll die Wärmenachfrage (nur) um 51 Prozent zunehmen, denn vorher werden ja alle Gebäude saniert. Wunschdenken auch hier. Der Investitionsbedarf wird hierfür mit 43,5 Milliarden Euro bis 2030 und weiteren 74 Milliarden Euro bis 2045 abgeschätzt. 60 Prozent der Investitionen sollen dabei auf das Rohrnetz und 40 Prozent  auf „klimafreundliche Erzeugungsanlagen“ entfallen. Hinzu kommen natürlich noch die Modernisierungskosten für die Mieter. Absehbar würden die Nebenkosten die eigentliche Miete drastisch übersteigen. Werden wir also ein Volk von Obdachlosen?

Wie immer erschallt der Ruf nach Subventionen. Diesmal gleich in vier Modulen:

  1. Transformationspläne und Machbarkeitsstudien,
  2. Systemische Förderung für Neubau und Bestandsnetze,
  3. Einzelmaßnahmen und
  4. Betriebskostenförderung

Für all das sollen knapp 3 Milliarden Euro im Haushalt 2026 zur Verfügung gestellt werden.

Wie es die Anderen machen

Kein Fernwärmenetz kann ad hoc ausgebaut werden. In unseren Städten sind die Straßen bereits voll mit Leitungen. Jede zusätzliche Leitung erfordert umfangreiche Planung, Abstimmung mit anderen Versorgern und Umverlegungen. Allein die Kosten für den Straßenbau sind nur vertretbar, wenn ohnehin eine Sanierung ansteht. Private Unternehmen haben deshalb immer einen stetigen Ausbau ihrer Netze vorgenommen. Jede Investition muss sich rechnen. Kommunale Betriebe setzen meist auf eine Mischkalkulation. Geht die Kalkulation nicht auf, muss halt der Steuerzahler ran. Oft auch in der Form erhöhter Abgaben (z.B. Parkgebühren, Müllabfuhr usw.).

Interessant ist auch ein Blick ins Ausland. Dort ist man oft viel weiter, weil man mit dem Ausbau spätestens nach der Ölkrise 1976 angefangen hat. Meistens hat man auch nicht nur auf Erdgas als Energieträger gesetzt. Gerade in „den fünf neuen Ländern“ hat man mit großem Aufwand flächendeckend ein Gasnetz neu aufgebaut, welches man nun wieder abreißen will. In den Ländern, in denen man konsequent bei Kohle geblieben ist, hat man jetzt einen gewissen Vorteil. Man geht die Umstellung (direkt) auf Kernenergie an. So sind z.B. in den skandinavischen Ländern kleine Heizreaktoren in Vorbereitung. Sie verbinden ideal Versorgungssicherheit, Umweltschutz und Kosten miteinander.

 

Dr. Klaus-Dieter Humpich studierte Maschinenbau und Energie- und Verfahrenstechnik mit Schwerpunkt Kerntechnik, bevor er zehn Jahre am Institut für Kerntechnik in der Technischen Universität Berlin arbeitete. Seit 20 Jahren ist er freiberuflich im Bereich Energietechnik tätig. Dieser Beitrag erschien zuerst auf seinem Blog.

 




Wie viele Schwankungen verträgt unser Stromnetz?

Ein spanischer Blackout und die deutsche Systemsicherheit

Die vier deutschen Übertragungsnetzbetreiber legten im Juli einen so genannten Systemstabilitätsbericht vor. In ihm sind Handlungsempfehlungen genannt, die teils dringend sind. Der „Iberoout“, der große Stromausfall vom 28. April auf der iberischen Halbinsel, hat den Bericht offenbar geprägt.

von Frank Hennig

Der so genannte „Iberoout“ vom 28. April 2025 hat viel Aufmerksamkeit erregt, Diskussionen ausgelöst und er wird Folgen bei den europäischen Netzbetreibern haben. Zunächst: War es überhaupt ein Blackout? Die Rede ist auch von einem großen Stromausfall oder einem Schwarzfall. Nach gängiger Lesart muss ein Stromausfall länger andauern (ein bis mehrere Tage) und regional übergreifend sein, um als Blackout bezeichnet werden zu können. Nach knapp 16 Stunden waren hier alle Verbraucher wieder versorgt, aber räumlich war die Wirkung beträchtlich in Form des kompletten Territoriums Spaniens und Portugals und eines kleinen Teils des französischen Netzes. Angesichts dessen scheint mir die Einordnung als Blackout möglich.

Spanien war bisher vorbildlich oder übermütig, je nach Sichtweise, im Ausbau von Wind und Photovoltaik (PV) und strebt ehrgeizig in die Dekarbonisierung. Über Jahre hinweg stieg die Einspeisung von Wind- und Solarstrom stark an auf Kosten konventioneller Kraftwerksleistung. War dies einer der Gründe für diesen Blackout?

Der ziemlich komplizierte Ablauf des Netzbetriebes bis zum Ausfall und danach ist im Auswertungsbericht der ENTSO-E, des Dachverbandes der europäischen Netzbetreiber, nachlesbar. Hier eine kurze, stark vereinfachte Zusammenfassung:

28. April, 12:33 Uhr

Am 28. April 2025 traten bereits ab etwa 10:30 Uhr stärkere Spannungsschwankungen im spanischen Netz auf, die zunächst korrigiert werden konnten. Ab etwa 12:00 Uhr wiederholten sich diese und nahmen zu. Es gab Langzeit-Pendelungen durch das ganze europäische Netz, sie schwappten in abgeschwächter Form bis ans andere Ende des „Stromsees“ nach Litauen. Später kam es zur Trennung des spanischen vom französischen Netz, dadurch war die Regelfähigkeit auf der iberischen Halbinsel stark eingeschränkt und die n-1-Sicherheit (bei Ausfall eines Netzelements müssen alle Kunden trotzdem versorgt werden können) war nicht mehr gegeben. Nach 12:33 Uhr kollabierte das Netz innerhalb weniger Sekunden.

Eine Fehlfunktion eines Wechselrichters in einer PV-Großanlage in Bajadoz hatte zusammen mit anderen Faktoren zu Spannungsspitzen geführt, der Ausfall von weiteren Erzeugungsanlagen war die Folge. Das Stromüberangebot im Netz führte zu Überspannung, Erzeuger fielen aus, es kam zur Unterfrequenz und Sicherheitsabschaltungen bei Erzeugern und Verbrauchern.

Dieser Wechselrichter im Verbund mit anderen Störfaktoren war sozusagen der erste Dominostein, der fiel, oder der Tropfen, der das Fass zum Überlaufen brachte. Innerhalb weniger Sekunden waren ganz Spanien und Portugal stromlos.

In dieser unklaren Situation wurde medial schnell aus der Hüfte geschossen. Atmosphärische Störungen könnten Einfluss gehabt haben oder Putin sei schuld, in dieser Zeit ohnehin der Universalschuldige. Das alles erwies sich schon nach kurzer Zeit als falsch. Der Einfluss des großen PV-Anteils im Netz wurde thematisiert, die Wechselrichter mit ihrem Beitrag zu Oberschwingungen seien schuld. Die PV-Fans verwiesen schnell auf die Netzbetreiber, die nicht ordnungsgemäß reagiert hätten (was nicht ganz falsch ist). Und außerdem – ätsch – hätten die „Atomkraftwerke“ wohl auch nicht helfen können.

Ohne in die Details zu gehen, gilt als gesichert, dass der Anteil regelbarer Kraftwerksleistung und der Anlagen mit Blindleistungskompensation zu niedrig war. Nur etwa 25 Prozent des Stroms kam aus konventionellen Kraftwerksanlagen mit rotierenden Massen, 75 Prozent aus kaum regelbarer natürlicher Zufallseinspeisung.

Insbesondere die PV-Einspeisung erfolgt in die unteren Spannungsebenen, aber die Blindleistung und damit die Spannung wird über die Höchstspannungsebene geregelt. Der Frequenzausgleich war über eine zu niedrige Momentanreserve (Schwungmassen) unzureichend, die restliche regelbare Kraftwerksleistung zu gering. Ausländische Hilfe war nur begrenzt möglich, es gibt nur Interkonnektoren (grenzüberschreitende Verbindungsleitungen) in drei Länder – Frankreich, Portugal und Marokko. Eine davon, nach Frankreich, stand zudem nicht mehr zur Verfügung.

Als Fazit kann man zusammenfassen:

Das System hatte seine Regelfähigkeit verloren.

In den Wochen danach war zu beobachten, dass der „dargebotsunabhängige“ Anteil von Strom aus konventionellen Kraftwerken von den Netzbetreibern in Spanien bei etwa 40 Prozent gehalten wurde.

Kann ein solches Ereignis auch bei uns auftreten? Prinzipiell ja, denn auch bei uns ist die Momentanreserve gesunken und im internationalen Vergleich niedrig:

Quelle: TechForFuture, Florian Blümm

Was uns aber vom spanischen Netz unterscheidet, ist die enge Einbindung ins mitteleuropäische Netz über knapp 30 Interkonnektoren. Zudem sind unsere direkten Nachbarn (Frankreich, Schweiz, Polen, Tschechien) mit großen Momentanreserven am Netz, wovon wir generell bei der Versorgungssicherheit partizipieren können, oder, um es deutlicher zu sagen – schmarotzen.

Die Frage, ob der Iberoout in Deutschland eine neue Bewertung der Lage auslöst, ließ TE folgende Presseanfrage an die Bundesnetzagentur (BNA) stellen:

„Sieht die BNA die Notwendigkeit einer Begrenzung des Anteils fluktuierender Einspeisung ins Netz (PV- und Windstrom) resp. sieht die BNA eine mindestens erforderliche Bereitstellung von regelbarer Leistung aus rotierenden Massen mit entsprechender Möglichkeit, SDL bereitzustellen (in prozentualem Anteil oder als Leistungsangabe in GW bzw. GVA)? Welchen Anteil an Strom aus dargebotsunabhängiger Stromeinspeisung ins Netz sehen Sie als notwendig an?“

Die Antwort lautete wie folgt:


„Zur Gewährleistung der Systemstabilität bedarf es eines Zusammenspiels unterschiedlicher Instrumente. Dazu werden zusätzliche Netzwerkelemente wie beispielsweise rotierende Phasenschieber, neue Erzeuger (Erneuerbare-Energien-Anlagen oder Kraftwerke) und Batteriespeicher mit systemstabilisierenden Eigenschaften zählen.“

Das war im Grunde keine Antwort sondern aus der rechten unteren Schublade eines Praktikantenschreibtisches im Vorzimmer gezogen. Neue Erzeuger in Form von „Erneuerbare-Energien-Anlagen“ wie Wind und PV stabilisieren nicht das System, sondern bewirken das Gegenteil, indem sie permanent Schwankungen eintragen. Deshalb unterscheidet die BNA selbst nach dargebotsabhängiger und nicht dargebotsabhängiger Stromeinspeisung. „Erneuerbare“ in einen Topf mit (regelbaren) Kraftwerken zu werfen, könnte man Windkraft-Propagandisten durchgehen lassen, nicht aber einer Behörde, die sich professionell mit dem System befassen und Zusammenhänge verstehen sollte.

Der Systemstabilitätsbericht

Aber vor diesem aktuellen Hintergrund entstand die aktuelle Einschätzung der deutschen Systemstabilität. Nach Paragraf 12i des Energiewirtschaftsgesetzes (EnWG) ist durch die vier Übertragungsnetzbetreiber (ÜNB) erstmalig 2025 und danach zweijährig ein Systemstabilitätsbericht zu erstellen, danach gibt die Regulierungsbehörde (BNA) eine Bewertung ab. Der Bericht wie auch die Bewertung liegen nunmehr vor. Auch wenn zum Zeitpunkt der Berichtserstellung die Auswertung der ENTSO-E zum Iberoout noch nicht vorlag, stehen der Bericht und die Bewertung durch die Behörde offensichtlich unter dem Eindruck des spanischen 28. April.

Durch die BNA wurden in der Bewertung für das deutsche System insgesamt 37 „erhebliche Handlungsbedarfe“ identifiziert mit entsprechenden Handlungsempfehlungen, die zum Teil einen „kollektiven Handlungsdruck“ erzeugen und prioritär zu behandeln seien. Es geht um die Weiterentwicklung der Netzsicherheitsprozesse, um die transiente Stabilität im untersuchten Szenario der Langfristanalyse für das Jahr 2030. Für eine Vielzahl von Fehlersituationen sei diese Stabilität nicht gegeben. Nur durch massive Anstrengungen im Bereich der identifizierten Ge­genmaßnahmen könne diese Situation verbessert werden.

Dringend seien Maßnahmen zur Spannungs- und Frequenzstabilisierung notwendig, also zur Bereitstellung von Blindleistung und großer Momentanreserven. Dies erfolgte bisher (kostenlos) durch konventionelle Kraftwerke, nun braucht es – welch Überraschung – Ersatz.

Volt statt Watt

Die Spannungshaltung ist eine der beiden Achillesfersen im Netz, ihre Nichtbeherrschung ging dem Ausfall in Spanien voraus. Um den Sollwert zu halten, ist die Blindleistung so zu regeln, dass die Schwankungen durch die Verbraucher ausgeglichen werden. Das geschah und geschieht bisher vor allem über die Stufenschaltwerke großer (Kraftwerks-)Transformatoren. Mit deren Reduzierung werden verschiedene über die Netzentgelte zu finanzierende technische Anlagen nötig wie STATCOM-Anlagen, die in den Schaltanlagen der Netzbetreiber installiert werden. In gewissem Umfang können auch Wechselrichter von PV-Anlagen nachts zur Spannungsregelung beitragen.

Nötig werden auch als Motoren im Netz mitlaufende Generatoren mit gekuppelten Schwungmassen, die die Blindleistungsregelung und die Momentanreserve absichern sollen.

Rotierende Massen als Bügeleisen

Die stabile Netzfrequenz, der maßgebende Parameter für das ausgeglichene Verhältnis aus Produktion und Verbrauch, ist das Rückgrat der Stromversorgung in einem Drehstromnetz. Offensichtlich gibt es viel Unwissen über die geringe zulässige Schwankungsbreite.

Nur zwischen 49,8 und 50,2 Hertz darf die Frequenz schwanken, dazu ein bildlicher Vergleich: Als Autofahrer stünde die Aufgabe, die Motordrehzahl bei 3.000 Umdrehungen pro Minute zu halten, abweichen dürfte man dann nur von 2.988 bis 3.012. Dann wäre ein sehr sensibler Gasfuß vonnöten und im Netz geht es wie auf der Straße nicht nur geradeaus. Kurven und Berge durch wechselnden Bedarf, vor allem schwankenden Wind gibt es jede Menge. Man kann die Arbeit der Kolleginnen und Kollegen in den Netzleitstellen nicht hoch genug würdigen.

Die BNA fordert nun, in den Technischen Anschlussregeln Mindestanforderungen zur Erbringung von Momentanreserve festzuschreiben (da war TE mit der Presseanfrage etwas der Behörde voraus). Diese Reserve kann im Wesentlichen nur durch konventionelle Kraftwerke mit rotierenden Massen geliefert werden, auch wenn einige Windkraftanlagen über ihre Wechselrichter Strom netzbildend einspeisen können, den nötigen Wind vorausgesetzt.

Die BNA legt in ihrer Bewertung gleichermaßen fest, zunächst dringlich alle Daten zum Netzbetrieb zu erfassen. Offensichtlich war dies bisher nur unzureichend der Fall. Mit dem weiteren Ausbau der PV werde die Marktintegration an Grenzen stoßen, also nicht mehr möglich sein. Zu viele Akteure hätten bisher keine hinrei­chenden Anreize, ihre Einspeisung an Marktsignalen zu orientieren.

Das ist der eigentliche Knackpunkt, verursacht durch ein anarchisches Erneuerbare Energien Gesetz (EEG) aus dem Jahr 2000. Es gehört abgeschafft oder in der Art reformiert, dass sich die inzwischen großen Kapazitäten an Wind- und PV-Erzeugern netzdienlich verhalten müssen und es kein Geld mehr gibt für Produktion zur falschen Zeit.

Stromversorgung im Großversuch

Die Politik mehrerer Bundesregierungen förderte seit Jahrzehnten den maximierten, aber unkoordinierten Ausbau der „Erneuerbaren“. Wirtschaftsministerin Reiche (CDU) hat nun eine Studie in Auftrag gegeben, um zunächst den Stand der „Wende“ zu ermitteln. Das hatte ihr Vorgänger Habeck trotz Festlegung im Paragrafen 54 des Kohleverstromungsbeendigungsgesetzes (KVBG) nicht geschafft oder nicht schaffen wollen.

Netzbetreiber, Wissenschaftler und andere Fachkundige, die sich warnend zum Thema äußerten, wurden oft in billigster Manier als Fortschrittsfeinde, Klimaleugner oder Kohlelobbyisten denunziert. Dabei gibt es in Deutschland schon lange keine Kohle- oder Atomlobby mehr. Aufschlussreich ist, wer sich an dieser Diskussion zur Netzstabilität nicht beteiligt. Von Agora-Energiewende oder dem DIW mit Multi-Spezialistin Frau Professor Kemfert habe ich bisher Begriffe wie Blindleistung und Momentanreserve nicht vernommen. Frau Kemfert geht bekanntlich davon aus, dass Moleküle im Netz fließen.

Viele kleinteilige Maßnahmen fordert die BNA in ihrer Bewertung des ÜNB-Berichts. Die wirksamste und sicherste Handlungsempfehlung wäre ein Moratorium des Ausbaus an PV- und Windkraftanlagen, bis die vorgeschlagenen Empfehlungen umgesetzt sind und der Netzausbau aufgeholt hat.

Auch hieran zeigt sich, dass diese deutschnationale Energiewende keinen Masterplan hat. Denn dann wäre die jetzige Sitaution vorhergesehen worden und es würde nicht einen plötzlichen „kollektiven Handlungsdruck“ geben.

Um nicht zugeben zu müssen, dass die Energiewende keinem übergreifenden Plan folgt, werden verschleiernde Formulierungen bemüht. Die Bezeichnung der Energiewende als „unserer Mondlandung“ ist grundsätzlich falsch. Die Amerikaner gaben bezogen auf heutige Preise etwa 120 Milliarden Dollar dafür aus, danach war das Projekt erledigt. Die Energiewende kostete uns bisher mindestens 600 Milliarden Euro und die Skala ist nach oben offen. Allein der Netzausbau bis 2030 erfordere einen „mittleren dreistelligen Milliardenbetrag“.

Die Energiewende sei unser „Jahrhundertprojekt“. Auch das ist falsch, denn es wird nicht nach Projektstruktur gearbeitet. Diese sieht regelmäßiges Monitoring der durchgeführten Maßnahmen vor, was Ministerin Reiche nun offenbar erstmalig veranlasst.

Näher an der Wahrheit liegt Professor Fratzscher vom DIW, der in seinem Buch „Die Deutschland-Illusion“ schon 2015 sinngemäß schrieb, dass allen klar sein müsse, dass es sich bei der Energiewende um ein Experiment handle. Christoph Frei, der damalige Generalsekretär des Weltenergierates, sprach von Deutschland als dem größten Freiluftlaboratorium auf dem Energiesektor.

Sicher ist, dass die Mehrheit der Bevölkerung nicht Teilnehmer eines energiewirtschaftlichen Großexperiments sein will, sondern eine Energieversorgung nach dem Grundsatz des Paragrafen 1 des EnWG und des energiepolitischen Zieldreiecks bevorzugt. Anstelle Experimente im Labor durchzuführen, gingen und gehen mehrere Bundesregierungen „voll ins Risiko – und vielleicht gelingt es ja auch“ (Robert Habeck). Was passiert, wenn es nicht gelingt, darüber hat man sich offenbar keine Gedanken gemacht. Nach einem bereits gescheiterten realsozialistischen Experiment auf deutschen Boden haben die Menschen im Land wenig Neigung, die Laborratten für grüne Klimafantasien sein zu wollen.

Inzwischen geht der Test weiter, wie viele Schwankungen unser Netz noch ertragen kann, ohne dass Spannung und Frequenz aus dem Ruder laufen. Wir werden es irgendwann wissen, wenn sich Politik nicht ändert.

Der Beitrag erschien zuerst bei TE hier

 




Die Apokalypse ist fester Bestandteil der abendländischen Kultur

Der “Klimakollaps” ist nur die antichristliche Form einer biblischen Denkfigur

Edgar L. Gärtner

 

Wer den Grünen aller Parteien und NGOs mit ihrer ständig wiederholten Warnung vor einem drohenden “Klimakollaps” apokalyptisches Denken vorwirft und stattdessen die Einhaltung der Regeln sauberer naturwissenschaftlicher Methodik anmahnt, greift meiner Meinung nach zu kurz. Denn sowohl die Endzeiterwartung als auch die modernen Naturwissenschaften haben einen gemeinsamen Ursprung: die christliche Bibel. Ohne den Glauben an die Apokalypse gäbe es wohl keine moderne Naturwissenschaft.

Der Begriff „Apokalypse” darf allerdings nicht gedankenlos gleichgesetzt werden mit einer Katastrophe. Aus dem Griechischen übersetzt bedeutet Apokalypse schlicht „Entschleierung” oder „Offenbarung”. Es gibt dafür, historisch gesehen, nur eine Quelle: das einzige prophetische Buch des Neuen Testaments, bekannt unter dem Namen “Offenbarung des Johannes” oder auch „Die Offenbarung Jesu Christi durch Johannes“. Es handelt sich dabei um eine Serie von Briefen an verschiedene von der römischen Verfolgung bedrängte christliche Gemeinden im Vorderen Orient, die wahrscheinlich gegen Ende des 1. Jahrhunderts nach Christi Geburt entstanden sind und spätestens seit dem von Kaiser Konstantin einberufenen ökumenischen Konzil von Nicäa im Jahre 325 als integraler Bestandteil des Neuen Testaments gelten.

Die Apokalypse, die von Jesus bei seiner Himmelfahrt versprochene Wiederkunft am Ende der Zeit, ist vermutlich kein plötzliches Ereignis, sondern eine längere Abfolge von Plagen und Prüfungen, denen nur eine Minderheit wahrhaft Gläubiger widersteht, während falsche Propheten wie der “Antichrist” ihre Tarnung verlieren. Es geht darin also um eine längere Periode, in deren Verlauf die verschiedenen politischen und ökonomischen Akteure ihr heilsames oder zerstörerisches Wesen offenbaren.

Die Wahrheit kommt auf den Tisch

Aktuell steht vor allem die Entlarvung des von moralischem Narzissmus und Selbsthass geprägten Schuldkomplexes der “Gutmenschen” an. Es geht dabei nicht nur die Irrationalität ihrer naturwidrigen Gender-Ideologie mit 70 frei wählbaren Geschlechtern und die vorgeblich humane Politik offener Grenzen, sondern auch um die inzwischen in Gesetze gegossene Erzählung von der immer rascher herannahenden Klimakrise durch Überhitzung unseres Planeten. Diese soll durch die Drosselung der Wirtschaft und die drastische Einschränkung der individuellen Freiheit verhindert werden, dient aber immer öfter auch der Rechtfertigung terroristischer Anschläge im Namen des “Klimaschutzes”.

US-Präsident Donald Trump hat angekündigt, in seiner zweiten Amtszeit diese lebensgefährlichen Verirrungen radikal zu bekämpfen. Die kürzliche Aufhebung der unter US-Präsident Barack Obama von dienstbaren Wissenschaftlern ausgesprochenen Klassifizierung des lebenswichtigen Pflanzennährstoffs Kohlenstoffdioxid als gesundheitsgefährdenden Schadstoff („Endangerment Finding“) durch den neuen Leiter der Environment Protection Agency (EPA) zeigt, dass die US-Regierung auf dem besten Weg ist, mithilfe der Analyse regierungsunabhängiger Institute Cfact und Heartland in den USA oder die Website WUWT oder auch EIKE in Deutschland die Wahrheit über Mensch und Klima zu retablieren.

Maßgebliche Gruppierungen evangelikaler Christen und bibeltreuer Katholiken vermuten, dass wir uns nun schon seit Jahren mitten im Prozess der Apokalypse befinden. Da ich kein Theologe bin, vermag ich nicht zu entscheiden, ob bereits die Gründung des Staates Israel im Jahre 1948 den Beginn der Apokalypse markiert, oder jene recht haben, die im Massaker der islamistischen Terrororganisation Hamas an den Teilnehmern eines israelischen Festivals am 7. Oktober 2023 den Startschuss des Prozesses der Entschleierung sehen. (Ich verweise hier auf den “gewagten” Beitrag des mir persönlich bekannten Ingenieurs Ronald Woldag im Magazin “eigentümlich frei”.) Woldag macht in der Heiligen Schrift einen siebenjährigen Zyklus von Zerstörung und Konsolidierung, gekennzeichnet durch große Drangsal und geistige Verwirrung, aus. Der vorletzte Zyklus begann seiner Meinung nach im November 2013 mit den z.T. blutigen Unruhen und dem nachfolgenden Sturz der gewählten ukrainischen Regierung in Kiew, die von US-Geheimdiensten und Soros-NGOs finanziell gefördert wurden. Wir befinden uns danach heute mitten im letzten Zyklus, der 2020 mit dem Syrien-Krieg und dem illegalen Eindringen von Millionen junger Muslime nach Westeuropa begann. Woldag erwartet, dass die Auseinandersetzung zwischen destruktiven Nihilisten und konstruktiven Konservativen sich noch bis Ostern 2027 verschärfen wird. Kein Mensch weiß, was danach kommt.

Die Schlüsselrolle der Kalenderreform

Die Behauptung, die modernen Naturwissenschaften hätten sich nur in einem vom Glauben an die Apokalypse geprägten christlichen Umfeld entwickeln können, wird heute von vielen Beobachtern nicht geteilt, denn sie setzt voraus, dass es historische Gesetze, eine Geschichtsmorphologie im Sinne von Oswald Spengler gibt, die sich hinter dem Rücken der politischen und ökonomischen Akteure durchsetzt. Für den bekannten Frankfurter bzw. Heidelberger Mediävisten Johannes Fried hingegen steht hingegen der enge geistige Zusammenhang zwischen dem Christentum und der Entwicklung der naturwissenschaftlichen Methodik in seiner Geschichte des Weltuntergangs unter dem Titel “Dies Irae” außer Frage. Schon früher hat kein Geringerer als der unfreiwillige Entdecker der Quantenphysik, der Nobelpreisträger Max Planck, darauf hingewiesen.

Fried sieht diesen Zusammenhang weniger in der Übernahme des platonischen und aristotelischen Logos durch die europäischen Kirchenväter Augustinus von Hippo und Thomas von Aquin, sondern in der von der Apokalypse des Johannes und der Zerstörung des zweiten Jerusalemer Tempels im Jahre 70 nach Christus ausgehenden Endzeiterwartung, die bis zum heutigen Tag fortwirkt. Die Bibel sagt nur, das Ende könne jeden Tag kommen und die Christus-Gläubigen sollten sich durch eine anständige und liebevolle Lebensführung auf die Wiederkunft Christi und das folgende Jüngste Gericht vorbereiten.

Zumindest in der römisch-katholischen Kirche gilt das Dogma, nach dem Tod der letzten von Jesus Christus eingesetzten Apostel könne es keine echten Propheten mehr geben. (Bei den anderen Konfessionen kenne ich mich weniger aus.) Der Kirchenvater Augustinus von Hippo (354-430) rechnete in einigen Schriften polemisch mit allerlei Spekulationen und astrologischen Weissagungen ab. Jüngere Gelehrte schlugen aber Augustinus‘ Warnungen in den Wind und gaben dem Reiz des Verbotenen nach, indem sie auszurechnen versuchten, wie viel Jahre seit der angenommenen Erschaffung der Welt vor wenigen Jahrtausenden noch bis zum Weltende übrigblieben, oder hielten nach kosmischen Zeichen Ausschau, die den nahenden Untergang ankündigen sollten.

Die wichtigsten Anstöße für die im 12. Jahrhundert in Europa aufblühende Naturforschung kamen jedoch von Ungereimtheiten der Zeitrechnung. Schon Kaiser Karl der Große (748-814) hatte sich, unterstützt seinem angelsächsischen Berater Alkuin, mit großem Eifer um eine Verbesserung des Kalenders gekümmert. Durch die Beobachtung der Tag- und Nachtgleichen und der Gestirne war aufgefallen, dass der julianische Kalender dem realen Zeitlauf hinterherhinkte und dass christliche Feiertage folglich zur falschen Zeit begangen wurden. Erst die auf strenger Naturbeobachtung beruhende, noch heute gültige gregorianische Kalenderreform von 1582 bereinigte diese Probleme durch die Streichung von zehn Tagen und die Einführung von Schaltjahren weitgehend. Dadurch bekamen vor allem Astronomie, Mathematik und Physik großen Auftrieb.

Dagegen regte sich jedoch Widerstand seitens der inzwischen auf den Plan getretenen Lutheraner. Diese hielten den neuen Kalender zwar nicht für falsch, aber wegen des ihrer Ansicht nach ohnehin bevorstehenden Weltendes für überflüssig. Denn Luthers Reformation wurde von ihnen selbst als apokalyptischer Vorgang gedeutet – allerdings im Zeichen der Hoffnung. Nicht wenige von der Amtskirche als Häretiker gebrandmarkte Prediger wie Thomas Müntzer und andere sahen in der vermeintlich nahenden Apokalypse das Signal für den sozialen Aufstand.

Die Wirkung der katholischen „Gegenreformation“

In der römisch-katholischen Kirche hingegen spielte die Apokalypse nach dem von Kaiser Karl V. einberufenen ökumenischen Reformkonzil von Trient (1545-1563) keine große Rolle mehr. Dieses Konzil startete die als „Gegenreformation“ bekanntgewordene Läuterung und Professionalisierung der römisch-katholischen Kirche, die im Prinzip bis heute Bestand hat, auch wenn der staatsnahe deutsche Katholizismus mehr und mehr zur woken Sekte verkommt. Denn das für das Abendland charakteristische apokalyptische Lebensgefühl verschwand auch während der nachfolgenden Zeit der „Aufklärung“ nicht. Heute erlangen spekulative Computersimulationen über das Versiegen von Rohstoffquellen oder die Aufheizung des Klimas wohl vor allem deshalb eine so große Glaubwürdigkeit, weil sie auf ein Publikum treffen, das die lineare Geschichtsauffassung des Christentums und 2.000 Jahre apokalyptische Kultur verinnerlicht hat.

Ohne den Einfluss des Christentums und das Eingreifen aufgeschlossener Päpste ist die Ablösung des ptolemäischen Weltbildes mit komplizierten Hyperzyklen durch das Kopernikanische bzw. Keplersche Modell um die Sonne kreisender Planeten kaum vorstellbar. Die vom damaligen Papst beauftragten Forschungen des Domherren Nikolais Kopernikus dienten ausdrücklich der Kalenderrefom. Die in Bertolt Brechts Drama über die Verurteilung des Physikers Galileo Galilei durch die kirchliche Inquisition verbreitete Version des Konflikts zwischen Wissen und Glauben hält der wissenschaftshistorischen Forschung nicht stand. Galilei wurde nachweislich vom einflussreichen Papstberater und bis heute als Kirchenlehrer anerkannten Kardinal Robert Bellarmin (1542-1621) unterstützt, aber nicht nur aus diplomatischen Gründen um Zurückhaltung gebeten. Ausschlaggeben für die (milde!) Bestrafung Galileis war dessen dogmatisches und großsprecherisches Auftreten.

Siegeszug der naturwissenschaftlichen Methode

Die Missverständnisse zwischen Galilei und der kirchlichen Hierarchie konnten den Siegeszeug der von Galilei erfolgreich angewandten nüchternen Forschungsmethode im christlichen Europa jedenfalls nicht aufhalten. In dem damals zivilisatorisch weiter fortgeschrittenen chinesischen Reich hatte die von Galilei etablierte naturwissenschaftliche Forschungsmethode zunächst keine Chance. Es fehlte dem Konfuzianismus der dafür notwenige transzendentale Wahrheitsbegriff des mittelalterlichen Kirchenlehrers Thomas von Aquin (1225-1274): Wahrheit als Übereinstimmung zwischen Denken und Sein bzw. zwischen dem Bewusstsein und den feststellbaren Tatsachen. Konfuzianismus und Buddhismus hingegen kannten nur einen pragmatischen Wahrheitsbegriff, bei dem die persönliche Gesichtswahrung im Vordergrund steht.

Der thomistische Wahrheitsbegriff, der auf Aussagen von Augustinus, Plotin und anderen Denkern der Spätantike aufbaut, beruht auf der mit dem christlichen Schöpfungsglauben einhergehenden Vorstellung oder Einsicht, dass Erde und Weltall, menschliche Gesellschaft und Natur den gleichen physikalischen Gesetzen unterliegen, aber offen bleiben für göttliche Eingriffe. Isaac Newton (1643-1727), dem Vollender der klassischen Physik, war durchaus bewusst ohne göttliche Hand die Planeten nicht lange auf ihren Bahnen ziehen würden.

Durch den größten dieser Eingriffe, die Menschwerdung Jesu Christi, wurde die Geschichte zur Heilsgeschichte: Zwischen dem Kreuzestod Jesu Christi und der bei dessen Himmelfahrt versprochenen Wiederkunft in Form des Jüngsten Gerichts. Das unterscheidet die christliche Geschichtsauffassung von nicht abrahamitischen Religionen oder materialistischen Ideologien, in denen zyklische Auffassungen der Geschichte im Sinne eines Wechsels zwischen Werden und Vergehen von Kulturen oder technische Vorstellungen von Fortschritt im Sinne der Verlängerung der durchschnittlichen Lebenserwartung und der stetigen Verbesserung der Bedürfnisbefriedigung der Menschen überwiegen.

Für gläubige Christen ist nicht die liberale Demokratie und der damit einhergehende materielle Wohlstand das Ziel der Geschichte, sondern die Wiederkunft des Herrn Jesus Christus, die Apokalypse. Das unterstreicht der hinter dem Wahlsieg von Donald Trump und seines Vize JD Vance stehende deutschstämmige US-Milliardär Peter Thiel (geb. 1967) am Schluss eines im Jahre 2007 veröffentlichten Aufsatzes: „Im Gegensatz zu Leo Strauss weiß der christliche Staatsmann oder die christliche Staatsfrau, dass das moderne Zeitalter nicht von Dauer sein wird und letztlich etwas ganz anderem Platz machen wird. Man darf niemals vergessen, dass eines Tages alles offenbart werden wird, dass alle Ungerechtigkeiten aufgedeckt werden und dass diejenigen, die sie begangen haben, zur Rechenschaft gezogen werden.” Wir können also davon ausgehen, dass die Erwartung der Apokalypse politisch einflussreich bleiben wird, solange es genügend Menschen gibt, die daran glauben. (5. August 2025)

 




Globale Erntemengen steigen trotz (wegen) Klimawandel

Die Erderwärmung schade den landwirtschaftlichen Erträgen: Diese Warnung hört man immer wieder. Richtig ist, dass die Ernteerträge fast ungebremst weiter zunehmen. Der höhere CO₂-Gehalt in der Atmosphäre dürfte sich sogar positiv auswirken.

Von Peter Panther

 

Vor einigen Wochen war es wieder so weit: Warnungen vor einbrechenden Erntemengen machten Schlagzeilen. «Klimaerwärmung verringert die Ernte in den nächsten Jahren um acht Prozent», schrieb etwa die «Zeit». Die Meldung bezog sich auf eine Studie im Fachblatt «Nature», geschrieben von Forschern der amerikanischen Stanford University. Sie hatten untersucht, wie sich der Klimawandel auf die globale Landwirtschaft auswirkt.

Das Resultat der Studie: Jede zusätzliche Erwärmung um ein Grad Celsius reduziere die Fähigkeit der Welt, Nahrungsmittel zu produzieren, um täglich 120 Kilokalorien pro Person oder um 4,4 Prozent des empfohlenen Tagesverbrauchs. «Wenn sich das Klima um drei Grad erwärmt, ist das so, als würde jeder Mensch auf der Welt das Frühstück auslassen», liess sich Solomon Hsiang zitieren, einer der Hauptautoren. Insgesamt sei bis 2100 ein Rückgang der Ernteerträge um acht Prozent zu erwarten.

Erntemengen nehmen trotz Klimawandel zu

Axel Bojanowski, Chefreporter Wissenschaft bei der «Welt», hat in einem bemerkenswerten Artikel aber auf drei fundamentale Fehler hingewiesen, was die «Nature»-Studie und die Berichterstattung darüber angeht. So beruhe die Forschungsarbeit auf dem Erwärmungsszenario RCP8.5, das anerkannterweise auf einer völlig unrealistischen Steigerung der Nutzung fossiler Brennstoffe beruhe. Weiter lasse die Studie technische Innovationen ausser Acht, was mit Blick auf die Erfahrungen in der Landwirtschaft der letzten Jahrzehnte unsinnig erscheine. Insbesondere wegen der sogenannten Grünen Revolution und moderner Technik hätten sich die Ernteerträge verdreifacht.

Vor allem aber, so schreibt Bojanowski, werde die Botschaft der Studie falsch interpretiert. Zwar sei dort mehrfach von globalen «Produktionsrückgängen» und «Verlusten» die Rede. Tatsächlich aber prognostiziere die Studie lediglich, «dass die Erträge langsamer wachsen könnten als ohne Klimawandel, sie also sehr wahrscheinlich insgesamt weiter steigen werden». Mit anderen Worten: Der landwirtschaftliche Ertrag wird wegen der Erderwärmung allenfalls etwas weniger schnell zunehmen als ohne.

So sieht es auch die UN-Landwirtschaftsbehörde FAO. In ihrem Bericht «Die Zukunft von Lebensmitteln und Landwirtschaft – Alternative Wege bis 2050» schreibt sie, dass die künftigen Erntemengen vor allem von der Verfügbarkeit von Traktoren, Dünger und Bewässerung abhängten. «Bis Mitte des Jahrhunderts könnten die globalen Ernteerträge um 30 Prozent steigen, in den ärmsten Teilen der Welt, wie etwa in Afrika südlich der Sahara, wären Steigerungen von 80 bis 90 Prozent möglich.» Der Klimawandel spiele dabei eine untergeordnete Rolle, auch wenn örtlich mehr Dürre drohe.

Seit 2000 ein Fünftel mehr Nahrung pro Person

So ist bisher auch nichts von einem nennenswerten negativen Einfluss der Erderwärmung auf die landwirtschaftlichen Erträge zu erkennen. Im Gegenteil sind die Erntemengen zwischen 2000 und 2022 um satte 56 Prozent gestiegen, wie dem Statistischen Jahrbuch 2024 der FAO zu entnehmen ist – und das, obwohl gleichzeitig die landwirtschaftlich genutzten Flächen um zwei Prozent zurückgegangen sind. Weil gleichzeitig die Weltbevölkerung nur um 31 Prozent zugenommen hat, stehen einem einzelnen Menschen heute durchschnittlich fast 20 Prozent mehr Nahrungsmittel zur Verfügung als zur Zeit der Jahrtausendwende.

Konkret konnten die weltweiten Erträge an Mais während der 22 Jahre um schwindelerregende 87 Prozent erhöht werden. Beim Gemüse resultierte ein Plus von 71 Prozent und beim Obst ein solches von 62 Prozent. Die Gründe dafür sind vielfältig: besseres Saatgut, effektiverer Dünger, gezieltere Pflanzenschutzmittel, verbesserte Bewässerung sowie allgemein eine verstärkte Mechanisierung und Digitalisierung. Und es soll in diesem Stil weitergehen. Die OECD und die FAO stellten 2023 in Aussicht, dass die Ernteerträge innerhalb der nächsten zehn Jahre (bis 2033) um weitere zwölf Prozent steigen.

Höhere Temperaturen und andere Folgen des Klimawandels, die angeblich auf mehr CO₂ in der Atmosphäre zurückzuführen sind, könnten sich zwar in begrenztem Mass negativ auf die Erntemengen auswirken. Allerdings sind auch gegenteilige Effekte möglich: Denn wärmere Bedingungen fördern in der Regel das Pflanzenwachstum. Das könnte nicht nur dort zu grösseren Ernten führen, wo heute schon Landwirtschaft betrieben wird, sondern neu auch Ackerbau zulassen, wo dieser heute noch nicht möglich ist – etwa in weiten Teilen Skandinaviens, Russlands und Kanadas.

CO₂ fördert das Pflanzenwachstum

Und es gibt noch einen anderen wichtigen Effekt, der von der Wissenschaft und dem Medienbetrieb fast komplett ignoriert wird: CO₂ – als eine der Voraussetzungen der Photosynthese – fördert das Gedeihen der Pflanzen. Steigt der Gehalt von Kohlendioxid in der Atmosphäre, steigen auch die Erntemengen. Das amerikanische Center for the Study of Carbon Dioxide and Global Change – eine wissenschaftliche Institution zur Erforschung der Wirkung von CO₂ – hat dazu Versuche angestellt.

Die Ergebnisse sind einschlägig: Ein Anstieg des Kohlendioxid-Gehalts um 300 Parts per Million (ppm) – soviel, wie bis Ende dieses Jahrhunderts verglichen mit der vorindustriellen Zeit zu erwarten ist – steigert die Produktivität von Pflanzen um durchschnittlich etwa ein Drittel. Der Ertrag bei Getreide wie Weizen oder Reis erhöht sich dabei um 43 Prozent, bei Früchten und Melonen um 24 Prozent, bei Gemüse um 44 Prozent und bei Hülsenfrüchten wie Erbsen und Bohnen um 37 Prozent.

Bereits die bisherige Steigerung des CO₂ in der Atmosphäre hat laut diesem Forschungscenter die Erntemengen um etwa 15 Prozent erhöht. Das «Klimagift» CO₂ erweise sich als grosse Glück, um den Hunger in der Welt zu vermeiden, kommentierten die Wissenschaftler Fritz Vahrenholt und Sebastian Lüning in ihrem Buch «Unerwünschte Wahrheiten – Was Sie über den Klimawandel wissen sollten» von 2020. Weiter schrieben sie: «Wer sagt es den Schülerinnen und Schülern von ‘Fridays for Future’, dass wir ohne den CO₂-Anstieg ganz gewiss zu wenig Nahrungsmittel hätten, um die Welt satt zu machen?» Der Verbrauch fossiler Brennstoffe könnte sich am Ende also als Segen für die Versorgung der Welt mit Lebensmitteln erweisen.