Der nächste Heizungs-Schlag

Wer glaubte oder hoffte, mit Habecks Abgang sei der Spuk des „Heizungsgesetzes“ vergangen, hat sich gründlich getäuscht. Jetzt ist der nächste Irrsinn in Arbeit, die „Dekarbonisierung der Fernwärme“.

von Dr. Klaus-Dieter Humpich

Was für den Marxisten die „Klassenfrage“, ist für die CDU/CSU – und alle anderen Anhänger von UnsereDemokratie – der „menschengemachte Klimawandel“. Beides Irrlehren, die lediglich dem eigenen Machterhalt dienen. Schien nun der „Grüne Wasserstoff“ gerade als unverkäuflich, ist der nächste Irrsinn in Arbeit, die „Dekarbonisierung der Fernwärme“.

Fernwärme – der Transport von einer Zentrale zu den Wohnhäusern – ist beileibe kein neuer Gedanke. Es begann in den USA schon am Ende des 19. Jahrhunderts. Damals war der Transport der Kohle (Heizöl und Erdgas gab es noch nicht) und Asche das unmittelbare Problem. In Chicago hatte man sogar eine eigene U-Bahn für diesen Zeck unterhalten. Der Transport von heißem Wasser bzw. Dampf war die weitaus elegantere Lösung. Außerdem führte die kontrollierte Verbrennung in einer zentralen Kesselanlage gegenüber zahlreichen einzelnen Feuerstätten zu einer erhebliche Verbesserung der Luftqualität.

In den 1920er Jahren ging man in Berlin, Hamburg, München usw. noch einen Schritt weiter: Da auch der Stromverbrauch in den wachsenden Städten zunahm, baute man Kraftwerke in deren Nähe. Dort wurde die Abwärme der Stromerzeugung in das örtliche Fernwärmenetz eingespeist. Damit war das non plus ultra der „Energieerzeugung“ erreicht. Durch ständige Nachrüstung der Kraftwerke mit Abgasreinigungsanlagen waren bald die Abgase sauberer als die angesaugte Stadtluft. Kohle war ein heimischer Rohstoff und ließ sich für Monate bevorraten.

Für kleinere Städte kamen BHKW (Blockheizkraftwerke) auf der Basis von Motoren oder Gasturbinen infrage. Allerdings erfordern diese Heizöl oder Erdgas als Brennstoff. Üblich ist auch das Einsammeln von Abwärme aus der Müllverbrennung und manchen industriellen Prozessen (Chemie, Stahl etc.). Ausschlaggebend für die notwenigen Investitionen und die Technik ist die Vorlauftemperatur im Netz. Einerseits kann man um so mehr Wärmequellen mitnehmen, desto geringer die Temperatur ist, andererseits werden die notwendigen Rohre dicker und die Investitionen steigen.

Als sinnvoll haben sich maximale Temperaturen (am kältesten Tag) von 110°C bei reiner Heizung und 150°C für eine eventuelle Kälteerzeugung (Klimaanlagen) seit Jahrzehnten bewährt. Niedrigere Temperaturen werden zwar immer wieder vorgeschlagen, sind aber weder wirtschaftlich noch praktikabel. Geradezu albern ist die Abwärmenutzung von Rechenzentren. Die Computer fordern möglichst geringe Temperaturen zur Leistungssteigerung. Solch geringe Temperaturen könnte man höchstens in einem angrenzenden Neubau (Fußboden- und Wandheizung) verwenden.

Ein weiterer technischer Zombie ist die Erdwärmenutzung in Deutschland – immer wieder neu verkauft, aber auch immer wieder stillgelegt. Ebenso die geliebte „Großwärmepumpe“. Damit sie nicht zur rein elektrischen Heizung degeneriert, braucht sie eine Wärmequelle mit möglichst hoher Temperatur im Winter (Meer, Fluss, See) und möglichst milde Winter (geringe Vorlauftemperaturen).

Der nächste Weg in den Ruin

Wenn man die Studie zur Preisregulierung von Fernwärme des Bundesministeriums für Wirtschaft und Energie liest, kann einem nur angst und bange werden. Sie beginnt mit dem Glaubensbekenntnis „Deutschland hat sich das Ziel gesetzt, bis 2045 klimaneutral zu werden.“ Warum und wieso bis 2045, wird nicht erklärt. Aber es wird messerscharf gefolgert: „Bis 2045 soll sich demnach die Zahl der Fernwärmeanschlüsse in Deutschland in etwa verdreifachen. Das geht mit enorm hohen Investitionen einher.“ Eigentlich ist damit schon alles gesagt. Ein Wachstum um 300 Prozent in nur zwanzig Jahren bei einer ausgereiften Technik ist mehr als unwahrscheinlich – auf jeden Fall aber unwirtschaftlich, sonst wäre es schon lange geschehen.

Allerdings gibt es einen entscheidenden Unterschied zu den Träumen vom „grünem Stahl“: Die Stahlindustrie kann abwandern, wir nicht. Hier findet ganz unverschämt ein Angriff auf unsere Portemonnaies statt. Wer nicht zahlen kann, wird zwangsgeräumt! So ist das halt im schönsten Deutschland aller Zeiten.

Insbesondere der Ausbau der Fernwärmenetze sollte deshalb weiterhin durch öffentliche Mittel unterstützt werden, da die Abschreibungs- und Nutzungszeiträume den Finanzierungszeitraum bei Weitem überschreiten. Würden sämtliche Investitionskosten vollständig an die jeweiligen Netzkundinnen und -künden weitergegeben, würde das die Bezahlbarkeit der Wärmeversorgung für einen wesentlichen Teil der Haushalts- und Gewerbekunden stark gefährden.

Wie weit sich diese Regierung schon von der Marktwirtschaft entfernt hat, hätte man uns nicht deutlicher mitteilen können. „Öffentliche Mittel“ müssten auch vorher durch Enteignung von uns allen eingetrieben werden. Auch im 3. Sozialismus hintereinander wird mit Sicherheit kein Geld auf Bäumen wachsen. Typen wie Klingbeil haben auf alles die immer gleiche Antwort: „Aufgrund der absehbar hohen notwendigen Investitionen sind neue Finanzierungsmöglichkeiten für die Fernwärmetransformation zu prüfen, um sozialverträgliche Fernwärmepreise zu ermöglichen.“ Noch mehr Staatsverschuldung, damit die Party (kurzfristig) weiterlaufen kann? Leute, diesmal gibt es kein Beitrittsgebiet. Diesmal wird die Suppe allein ausgelöffelt.

In Deutschland werden derzeit mehr als zwei Drittel der Fernwärme aus Kohle und Erdgas erzeugt. Weniger als 30 Prozent aus Biomasse und Abwärme. Wie leichtfertig in UnsereDemokratie Gesetze zusammengeschustert werden, zeigt der §29 des Wärmeplanungsgesetzes, in dem ein Anteil von „mindestens 30 Prozent aus erneuerbaren Energien, unvermeidbarer Abwärme oder einer Kombination“ bis zum 1. Januar 2030 bzw. mindestens 80 Prozent bis 2040 vorgeschrieben wird. Wo sollen denn in so kurzer Zeit die Biomasse, die Flüsse etc. bereitgestellt werden? Gar nicht von den nötigen Kesseln und Wärmepumpen zu reden. Ganz nebenbei wäre das auch das Ende der Kraft-Wärme-Kopplung in Deutschland.

Wie viel Ideologie und Wunschdenken vorausgesetzt werden muss, steht im Klimaschutzgesetz. Danach muss die Jahresemissionsmenge von 118 Millionen Tonnen CO2 im Jahr 2020 auf 70 Millionen Tonnen 2030 bei den Gebäuden gesenkt werden. Wir erschaffen uns also in den nächsten fünf Jahren völlig neue Städte, um das Ziel einer Absenkung auf 59 Prozent zu erreichen. Gleichzeitig wollen sie auch noch 400.000 Wohnungen pro Jahr zusätzlich bauen. Respekt, solche Fünf-Jahres-Pläne hätte sich nicht einmal Erich Honecker getraut.

Der Finanzbedarf

Die Studie geht davon aus, dass bis 2045 die Zahl der angeschlossenen Wohngebäude um 177 Prozent von 1,3 Millionen auf 3,6 Millionen ansteigt. Dadurch soll die Wärmenachfrage (nur) um 51 Prozent zunehmen, denn vorher werden ja alle Gebäude saniert. Wunschdenken auch hier. Der Investitionsbedarf wird hierfür mit 43,5 Milliarden Euro bis 2030 und weiteren 74 Milliarden Euro bis 2045 abgeschätzt. 60 Prozent der Investitionen sollen dabei auf das Rohrnetz und 40 Prozent  auf „klimafreundliche Erzeugungsanlagen“ entfallen. Hinzu kommen natürlich noch die Modernisierungskosten für die Mieter. Absehbar würden die Nebenkosten die eigentliche Miete drastisch übersteigen. Werden wir also ein Volk von Obdachlosen?

Wie immer erschallt der Ruf nach Subventionen. Diesmal gleich in vier Modulen:

  1. Transformationspläne und Machbarkeitsstudien,
  2. Systemische Förderung für Neubau und Bestandsnetze,
  3. Einzelmaßnahmen und
  4. Betriebskostenförderung

Für all das sollen knapp 3 Milliarden Euro im Haushalt 2026 zur Verfügung gestellt werden.

Wie es die Anderen machen

Kein Fernwärmenetz kann ad hoc ausgebaut werden. In unseren Städten sind die Straßen bereits voll mit Leitungen. Jede zusätzliche Leitung erfordert umfangreiche Planung, Abstimmung mit anderen Versorgern und Umverlegungen. Allein die Kosten für den Straßenbau sind nur vertretbar, wenn ohnehin eine Sanierung ansteht. Private Unternehmen haben deshalb immer einen stetigen Ausbau ihrer Netze vorgenommen. Jede Investition muss sich rechnen. Kommunale Betriebe setzen meist auf eine Mischkalkulation. Geht die Kalkulation nicht auf, muss halt der Steuerzahler ran. Oft auch in der Form erhöhter Abgaben (z.B. Parkgebühren, Müllabfuhr usw.).

Interessant ist auch ein Blick ins Ausland. Dort ist man oft viel weiter, weil man mit dem Ausbau spätestens nach der Ölkrise 1976 angefangen hat. Meistens hat man auch nicht nur auf Erdgas als Energieträger gesetzt. Gerade in „den fünf neuen Ländern“ hat man mit großem Aufwand flächendeckend ein Gasnetz neu aufgebaut, welches man nun wieder abreißen will. In den Ländern, in denen man konsequent bei Kohle geblieben ist, hat man jetzt einen gewissen Vorteil. Man geht die Umstellung (direkt) auf Kernenergie an. So sind z.B. in den skandinavischen Ländern kleine Heizreaktoren in Vorbereitung. Sie verbinden ideal Versorgungssicherheit, Umweltschutz und Kosten miteinander.

 

Dr. Klaus-Dieter Humpich studierte Maschinenbau und Energie- und Verfahrenstechnik mit Schwerpunkt Kerntechnik, bevor er zehn Jahre am Institut für Kerntechnik in der Technischen Universität Berlin arbeitete. Seit 20 Jahren ist er freiberuflich im Bereich Energietechnik tätig. Dieser Beitrag erschien zuerst auf seinem Blog.

 




Wie viele Schwankungen verträgt unser Stromnetz?

Ein spanischer Blackout und die deutsche Systemsicherheit

Die vier deutschen Übertragungsnetzbetreiber legten im Juli einen so genannten Systemstabilitätsbericht vor. In ihm sind Handlungsempfehlungen genannt, die teils dringend sind. Der „Iberoout“, der große Stromausfall vom 28. April auf der iberischen Halbinsel, hat den Bericht offenbar geprägt.

von Frank Hennig

Der so genannte „Iberoout“ vom 28. April 2025 hat viel Aufmerksamkeit erregt, Diskussionen ausgelöst und er wird Folgen bei den europäischen Netzbetreibern haben. Zunächst: War es überhaupt ein Blackout? Die Rede ist auch von einem großen Stromausfall oder einem Schwarzfall. Nach gängiger Lesart muss ein Stromausfall länger andauern (ein bis mehrere Tage) und regional übergreifend sein, um als Blackout bezeichnet werden zu können. Nach knapp 16 Stunden waren hier alle Verbraucher wieder versorgt, aber räumlich war die Wirkung beträchtlich in Form des kompletten Territoriums Spaniens und Portugals und eines kleinen Teils des französischen Netzes. Angesichts dessen scheint mir die Einordnung als Blackout möglich.

Spanien war bisher vorbildlich oder übermütig, je nach Sichtweise, im Ausbau von Wind und Photovoltaik (PV) und strebt ehrgeizig in die Dekarbonisierung. Über Jahre hinweg stieg die Einspeisung von Wind- und Solarstrom stark an auf Kosten konventioneller Kraftwerksleistung. War dies einer der Gründe für diesen Blackout?

Der ziemlich komplizierte Ablauf des Netzbetriebes bis zum Ausfall und danach ist im Auswertungsbericht der ENTSO-E, des Dachverbandes der europäischen Netzbetreiber, nachlesbar. Hier eine kurze, stark vereinfachte Zusammenfassung:

28. April, 12:33 Uhr

Am 28. April 2025 traten bereits ab etwa 10:30 Uhr stärkere Spannungsschwankungen im spanischen Netz auf, die zunächst korrigiert werden konnten. Ab etwa 12:00 Uhr wiederholten sich diese und nahmen zu. Es gab Langzeit-Pendelungen durch das ganze europäische Netz, sie schwappten in abgeschwächter Form bis ans andere Ende des „Stromsees“ nach Litauen. Später kam es zur Trennung des spanischen vom französischen Netz, dadurch war die Regelfähigkeit auf der iberischen Halbinsel stark eingeschränkt und die n-1-Sicherheit (bei Ausfall eines Netzelements müssen alle Kunden trotzdem versorgt werden können) war nicht mehr gegeben. Nach 12:33 Uhr kollabierte das Netz innerhalb weniger Sekunden.

Eine Fehlfunktion eines Wechselrichters in einer PV-Großanlage in Bajadoz hatte zusammen mit anderen Faktoren zu Spannungsspitzen geführt, der Ausfall von weiteren Erzeugungsanlagen war die Folge. Das Stromüberangebot im Netz führte zu Überspannung, Erzeuger fielen aus, es kam zur Unterfrequenz und Sicherheitsabschaltungen bei Erzeugern und Verbrauchern.

Dieser Wechselrichter im Verbund mit anderen Störfaktoren war sozusagen der erste Dominostein, der fiel, oder der Tropfen, der das Fass zum Überlaufen brachte. Innerhalb weniger Sekunden waren ganz Spanien und Portugal stromlos.

In dieser unklaren Situation wurde medial schnell aus der Hüfte geschossen. Atmosphärische Störungen könnten Einfluss gehabt haben oder Putin sei schuld, in dieser Zeit ohnehin der Universalschuldige. Das alles erwies sich schon nach kurzer Zeit als falsch. Der Einfluss des großen PV-Anteils im Netz wurde thematisiert, die Wechselrichter mit ihrem Beitrag zu Oberschwingungen seien schuld. Die PV-Fans verwiesen schnell auf die Netzbetreiber, die nicht ordnungsgemäß reagiert hätten (was nicht ganz falsch ist). Und außerdem – ätsch – hätten die „Atomkraftwerke“ wohl auch nicht helfen können.

Ohne in die Details zu gehen, gilt als gesichert, dass der Anteil regelbarer Kraftwerksleistung und der Anlagen mit Blindleistungskompensation zu niedrig war. Nur etwa 25 Prozent des Stroms kam aus konventionellen Kraftwerksanlagen mit rotierenden Massen, 75 Prozent aus kaum regelbarer natürlicher Zufallseinspeisung.

Insbesondere die PV-Einspeisung erfolgt in die unteren Spannungsebenen, aber die Blindleistung und damit die Spannung wird über die Höchstspannungsebene geregelt. Der Frequenzausgleich war über eine zu niedrige Momentanreserve (Schwungmassen) unzureichend, die restliche regelbare Kraftwerksleistung zu gering. Ausländische Hilfe war nur begrenzt möglich, es gibt nur Interkonnektoren (grenzüberschreitende Verbindungsleitungen) in drei Länder – Frankreich, Portugal und Marokko. Eine davon, nach Frankreich, stand zudem nicht mehr zur Verfügung.

Als Fazit kann man zusammenfassen:

Das System hatte seine Regelfähigkeit verloren.

In den Wochen danach war zu beobachten, dass der „dargebotsunabhängige“ Anteil von Strom aus konventionellen Kraftwerken von den Netzbetreibern in Spanien bei etwa 40 Prozent gehalten wurde.

Kann ein solches Ereignis auch bei uns auftreten? Prinzipiell ja, denn auch bei uns ist die Momentanreserve gesunken und im internationalen Vergleich niedrig:

Quelle: TechForFuture, Florian Blümm

Was uns aber vom spanischen Netz unterscheidet, ist die enge Einbindung ins mitteleuropäische Netz über knapp 30 Interkonnektoren. Zudem sind unsere direkten Nachbarn (Frankreich, Schweiz, Polen, Tschechien) mit großen Momentanreserven am Netz, wovon wir generell bei der Versorgungssicherheit partizipieren können, oder, um es deutlicher zu sagen – schmarotzen.

Die Frage, ob der Iberoout in Deutschland eine neue Bewertung der Lage auslöst, ließ TE folgende Presseanfrage an die Bundesnetzagentur (BNA) stellen:

„Sieht die BNA die Notwendigkeit einer Begrenzung des Anteils fluktuierender Einspeisung ins Netz (PV- und Windstrom) resp. sieht die BNA eine mindestens erforderliche Bereitstellung von regelbarer Leistung aus rotierenden Massen mit entsprechender Möglichkeit, SDL bereitzustellen (in prozentualem Anteil oder als Leistungsangabe in GW bzw. GVA)? Welchen Anteil an Strom aus dargebotsunabhängiger Stromeinspeisung ins Netz sehen Sie als notwendig an?“

Die Antwort lautete wie folgt:


„Zur Gewährleistung der Systemstabilität bedarf es eines Zusammenspiels unterschiedlicher Instrumente. Dazu werden zusätzliche Netzwerkelemente wie beispielsweise rotierende Phasenschieber, neue Erzeuger (Erneuerbare-Energien-Anlagen oder Kraftwerke) und Batteriespeicher mit systemstabilisierenden Eigenschaften zählen.“

Das war im Grunde keine Antwort sondern aus der rechten unteren Schublade eines Praktikantenschreibtisches im Vorzimmer gezogen. Neue Erzeuger in Form von „Erneuerbare-Energien-Anlagen“ wie Wind und PV stabilisieren nicht das System, sondern bewirken das Gegenteil, indem sie permanent Schwankungen eintragen. Deshalb unterscheidet die BNA selbst nach dargebotsabhängiger und nicht dargebotsabhängiger Stromeinspeisung. „Erneuerbare“ in einen Topf mit (regelbaren) Kraftwerken zu werfen, könnte man Windkraft-Propagandisten durchgehen lassen, nicht aber einer Behörde, die sich professionell mit dem System befassen und Zusammenhänge verstehen sollte.

Der Systemstabilitätsbericht

Aber vor diesem aktuellen Hintergrund entstand die aktuelle Einschätzung der deutschen Systemstabilität. Nach Paragraf 12i des Energiewirtschaftsgesetzes (EnWG) ist durch die vier Übertragungsnetzbetreiber (ÜNB) erstmalig 2025 und danach zweijährig ein Systemstabilitätsbericht zu erstellen, danach gibt die Regulierungsbehörde (BNA) eine Bewertung ab. Der Bericht wie auch die Bewertung liegen nunmehr vor. Auch wenn zum Zeitpunkt der Berichtserstellung die Auswertung der ENTSO-E zum Iberoout noch nicht vorlag, stehen der Bericht und die Bewertung durch die Behörde offensichtlich unter dem Eindruck des spanischen 28. April.

Durch die BNA wurden in der Bewertung für das deutsche System insgesamt 37 „erhebliche Handlungsbedarfe“ identifiziert mit entsprechenden Handlungsempfehlungen, die zum Teil einen „kollektiven Handlungsdruck“ erzeugen und prioritär zu behandeln seien. Es geht um die Weiterentwicklung der Netzsicherheitsprozesse, um die transiente Stabilität im untersuchten Szenario der Langfristanalyse für das Jahr 2030. Für eine Vielzahl von Fehlersituationen sei diese Stabilität nicht gegeben. Nur durch massive Anstrengungen im Bereich der identifizierten Ge­genmaßnahmen könne diese Situation verbessert werden.

Dringend seien Maßnahmen zur Spannungs- und Frequenzstabilisierung notwendig, also zur Bereitstellung von Blindleistung und großer Momentanreserven. Dies erfolgte bisher (kostenlos) durch konventionelle Kraftwerke, nun braucht es – welch Überraschung – Ersatz.

Volt statt Watt

Die Spannungshaltung ist eine der beiden Achillesfersen im Netz, ihre Nichtbeherrschung ging dem Ausfall in Spanien voraus. Um den Sollwert zu halten, ist die Blindleistung so zu regeln, dass die Schwankungen durch die Verbraucher ausgeglichen werden. Das geschah und geschieht bisher vor allem über die Stufenschaltwerke großer (Kraftwerks-)Transformatoren. Mit deren Reduzierung werden verschiedene über die Netzentgelte zu finanzierende technische Anlagen nötig wie STATCOM-Anlagen, die in den Schaltanlagen der Netzbetreiber installiert werden. In gewissem Umfang können auch Wechselrichter von PV-Anlagen nachts zur Spannungsregelung beitragen.

Nötig werden auch als Motoren im Netz mitlaufende Generatoren mit gekuppelten Schwungmassen, die die Blindleistungsregelung und die Momentanreserve absichern sollen.

Rotierende Massen als Bügeleisen

Die stabile Netzfrequenz, der maßgebende Parameter für das ausgeglichene Verhältnis aus Produktion und Verbrauch, ist das Rückgrat der Stromversorgung in einem Drehstromnetz. Offensichtlich gibt es viel Unwissen über die geringe zulässige Schwankungsbreite.

Nur zwischen 49,8 und 50,2 Hertz darf die Frequenz schwanken, dazu ein bildlicher Vergleich: Als Autofahrer stünde die Aufgabe, die Motordrehzahl bei 3.000 Umdrehungen pro Minute zu halten, abweichen dürfte man dann nur von 2.988 bis 3.012. Dann wäre ein sehr sensibler Gasfuß vonnöten und im Netz geht es wie auf der Straße nicht nur geradeaus. Kurven und Berge durch wechselnden Bedarf, vor allem schwankenden Wind gibt es jede Menge. Man kann die Arbeit der Kolleginnen und Kollegen in den Netzleitstellen nicht hoch genug würdigen.

Die BNA fordert nun, in den Technischen Anschlussregeln Mindestanforderungen zur Erbringung von Momentanreserve festzuschreiben (da war TE mit der Presseanfrage etwas der Behörde voraus). Diese Reserve kann im Wesentlichen nur durch konventionelle Kraftwerke mit rotierenden Massen geliefert werden, auch wenn einige Windkraftanlagen über ihre Wechselrichter Strom netzbildend einspeisen können, den nötigen Wind vorausgesetzt.

Die BNA legt in ihrer Bewertung gleichermaßen fest, zunächst dringlich alle Daten zum Netzbetrieb zu erfassen. Offensichtlich war dies bisher nur unzureichend der Fall. Mit dem weiteren Ausbau der PV werde die Marktintegration an Grenzen stoßen, also nicht mehr möglich sein. Zu viele Akteure hätten bisher keine hinrei­chenden Anreize, ihre Einspeisung an Marktsignalen zu orientieren.

Das ist der eigentliche Knackpunkt, verursacht durch ein anarchisches Erneuerbare Energien Gesetz (EEG) aus dem Jahr 2000. Es gehört abgeschafft oder in der Art reformiert, dass sich die inzwischen großen Kapazitäten an Wind- und PV-Erzeugern netzdienlich verhalten müssen und es kein Geld mehr gibt für Produktion zur falschen Zeit.

Stromversorgung im Großversuch

Die Politik mehrerer Bundesregierungen förderte seit Jahrzehnten den maximierten, aber unkoordinierten Ausbau der „Erneuerbaren“. Wirtschaftsministerin Reiche (CDU) hat nun eine Studie in Auftrag gegeben, um zunächst den Stand der „Wende“ zu ermitteln. Das hatte ihr Vorgänger Habeck trotz Festlegung im Paragrafen 54 des Kohleverstromungsbeendigungsgesetzes (KVBG) nicht geschafft oder nicht schaffen wollen.

Netzbetreiber, Wissenschaftler und andere Fachkundige, die sich warnend zum Thema äußerten, wurden oft in billigster Manier als Fortschrittsfeinde, Klimaleugner oder Kohlelobbyisten denunziert. Dabei gibt es in Deutschland schon lange keine Kohle- oder Atomlobby mehr. Aufschlussreich ist, wer sich an dieser Diskussion zur Netzstabilität nicht beteiligt. Von Agora-Energiewende oder dem DIW mit Multi-Spezialistin Frau Professor Kemfert habe ich bisher Begriffe wie Blindleistung und Momentanreserve nicht vernommen. Frau Kemfert geht bekanntlich davon aus, dass Moleküle im Netz fließen.

Viele kleinteilige Maßnahmen fordert die BNA in ihrer Bewertung des ÜNB-Berichts. Die wirksamste und sicherste Handlungsempfehlung wäre ein Moratorium des Ausbaus an PV- und Windkraftanlagen, bis die vorgeschlagenen Empfehlungen umgesetzt sind und der Netzausbau aufgeholt hat.

Auch hieran zeigt sich, dass diese deutschnationale Energiewende keinen Masterplan hat. Denn dann wäre die jetzige Sitaution vorhergesehen worden und es würde nicht einen plötzlichen „kollektiven Handlungsdruck“ geben.

Um nicht zugeben zu müssen, dass die Energiewende keinem übergreifenden Plan folgt, werden verschleiernde Formulierungen bemüht. Die Bezeichnung der Energiewende als „unserer Mondlandung“ ist grundsätzlich falsch. Die Amerikaner gaben bezogen auf heutige Preise etwa 120 Milliarden Dollar dafür aus, danach war das Projekt erledigt. Die Energiewende kostete uns bisher mindestens 600 Milliarden Euro und die Skala ist nach oben offen. Allein der Netzausbau bis 2030 erfordere einen „mittleren dreistelligen Milliardenbetrag“.

Die Energiewende sei unser „Jahrhundertprojekt“. Auch das ist falsch, denn es wird nicht nach Projektstruktur gearbeitet. Diese sieht regelmäßiges Monitoring der durchgeführten Maßnahmen vor, was Ministerin Reiche nun offenbar erstmalig veranlasst.

Näher an der Wahrheit liegt Professor Fratzscher vom DIW, der in seinem Buch „Die Deutschland-Illusion“ schon 2015 sinngemäß schrieb, dass allen klar sein müsse, dass es sich bei der Energiewende um ein Experiment handle. Christoph Frei, der damalige Generalsekretär des Weltenergierates, sprach von Deutschland als dem größten Freiluftlaboratorium auf dem Energiesektor.

Sicher ist, dass die Mehrheit der Bevölkerung nicht Teilnehmer eines energiewirtschaftlichen Großexperiments sein will, sondern eine Energieversorgung nach dem Grundsatz des Paragrafen 1 des EnWG und des energiepolitischen Zieldreiecks bevorzugt. Anstelle Experimente im Labor durchzuführen, gingen und gehen mehrere Bundesregierungen „voll ins Risiko – und vielleicht gelingt es ja auch“ (Robert Habeck). Was passiert, wenn es nicht gelingt, darüber hat man sich offenbar keine Gedanken gemacht. Nach einem bereits gescheiterten realsozialistischen Experiment auf deutschen Boden haben die Menschen im Land wenig Neigung, die Laborratten für grüne Klimafantasien sein zu wollen.

Inzwischen geht der Test weiter, wie viele Schwankungen unser Netz noch ertragen kann, ohne dass Spannung und Frequenz aus dem Ruder laufen. Wir werden es irgendwann wissen, wenn sich Politik nicht ändert.

Der Beitrag erschien zuerst bei TE hier

 




Die Apokalypse ist fester Bestandteil der abendländischen Kultur

Der “Klimakollaps” ist nur die antichristliche Form einer biblischen Denkfigur

Edgar L. Gärtner

 

Wer den Grünen aller Parteien und NGOs mit ihrer ständig wiederholten Warnung vor einem drohenden “Klimakollaps” apokalyptisches Denken vorwirft und stattdessen die Einhaltung der Regeln sauberer naturwissenschaftlicher Methodik anmahnt, greift meiner Meinung nach zu kurz. Denn sowohl die Endzeiterwartung als auch die modernen Naturwissenschaften haben einen gemeinsamen Ursprung: die christliche Bibel. Ohne den Glauben an die Apokalypse gäbe es wohl keine moderne Naturwissenschaft.

Der Begriff „Apokalypse” darf allerdings nicht gedankenlos gleichgesetzt werden mit einer Katastrophe. Aus dem Griechischen übersetzt bedeutet Apokalypse schlicht „Entschleierung” oder „Offenbarung”. Es gibt dafür, historisch gesehen, nur eine Quelle: das einzige prophetische Buch des Neuen Testaments, bekannt unter dem Namen “Offenbarung des Johannes” oder auch „Die Offenbarung Jesu Christi durch Johannes“. Es handelt sich dabei um eine Serie von Briefen an verschiedene von der römischen Verfolgung bedrängte christliche Gemeinden im Vorderen Orient, die wahrscheinlich gegen Ende des 1. Jahrhunderts nach Christi Geburt entstanden sind und spätestens seit dem von Kaiser Konstantin einberufenen ökumenischen Konzil von Nicäa im Jahre 325 als integraler Bestandteil des Neuen Testaments gelten.

Die Apokalypse, die von Jesus bei seiner Himmelfahrt versprochene Wiederkunft am Ende der Zeit, ist vermutlich kein plötzliches Ereignis, sondern eine längere Abfolge von Plagen und Prüfungen, denen nur eine Minderheit wahrhaft Gläubiger widersteht, während falsche Propheten wie der “Antichrist” ihre Tarnung verlieren. Es geht darin also um eine längere Periode, in deren Verlauf die verschiedenen politischen und ökonomischen Akteure ihr heilsames oder zerstörerisches Wesen offenbaren.

Die Wahrheit kommt auf den Tisch

Aktuell steht vor allem die Entlarvung des von moralischem Narzissmus und Selbsthass geprägten Schuldkomplexes der “Gutmenschen” an. Es geht dabei nicht nur die Irrationalität ihrer naturwidrigen Gender-Ideologie mit 70 frei wählbaren Geschlechtern und die vorgeblich humane Politik offener Grenzen, sondern auch um die inzwischen in Gesetze gegossene Erzählung von der immer rascher herannahenden Klimakrise durch Überhitzung unseres Planeten. Diese soll durch die Drosselung der Wirtschaft und die drastische Einschränkung der individuellen Freiheit verhindert werden, dient aber immer öfter auch der Rechtfertigung terroristischer Anschläge im Namen des “Klimaschutzes”.

US-Präsident Donald Trump hat angekündigt, in seiner zweiten Amtszeit diese lebensgefährlichen Verirrungen radikal zu bekämpfen. Die kürzliche Aufhebung der unter US-Präsident Barack Obama von dienstbaren Wissenschaftlern ausgesprochenen Klassifizierung des lebenswichtigen Pflanzennährstoffs Kohlenstoffdioxid als gesundheitsgefährdenden Schadstoff („Endangerment Finding“) durch den neuen Leiter der Environment Protection Agency (EPA) zeigt, dass die US-Regierung auf dem besten Weg ist, mithilfe der Analyse regierungsunabhängiger Institute Cfact und Heartland in den USA oder die Website WUWT oder auch EIKE in Deutschland die Wahrheit über Mensch und Klima zu retablieren.

Maßgebliche Gruppierungen evangelikaler Christen und bibeltreuer Katholiken vermuten, dass wir uns nun schon seit Jahren mitten im Prozess der Apokalypse befinden. Da ich kein Theologe bin, vermag ich nicht zu entscheiden, ob bereits die Gründung des Staates Israel im Jahre 1948 den Beginn der Apokalypse markiert, oder jene recht haben, die im Massaker der islamistischen Terrororganisation Hamas an den Teilnehmern eines israelischen Festivals am 7. Oktober 2023 den Startschuss des Prozesses der Entschleierung sehen. (Ich verweise hier auf den “gewagten” Beitrag des mir persönlich bekannten Ingenieurs Ronald Woldag im Magazin “eigentümlich frei”.) Woldag macht in der Heiligen Schrift einen siebenjährigen Zyklus von Zerstörung und Konsolidierung, gekennzeichnet durch große Drangsal und geistige Verwirrung, aus. Der vorletzte Zyklus begann seiner Meinung nach im November 2013 mit den z.T. blutigen Unruhen und dem nachfolgenden Sturz der gewählten ukrainischen Regierung in Kiew, die von US-Geheimdiensten und Soros-NGOs finanziell gefördert wurden. Wir befinden uns danach heute mitten im letzten Zyklus, der 2020 mit dem Syrien-Krieg und dem illegalen Eindringen von Millionen junger Muslime nach Westeuropa begann. Woldag erwartet, dass die Auseinandersetzung zwischen destruktiven Nihilisten und konstruktiven Konservativen sich noch bis Ostern 2027 verschärfen wird. Kein Mensch weiß, was danach kommt.

Die Schlüsselrolle der Kalenderreform

Die Behauptung, die modernen Naturwissenschaften hätten sich nur in einem vom Glauben an die Apokalypse geprägten christlichen Umfeld entwickeln können, wird heute von vielen Beobachtern nicht geteilt, denn sie setzt voraus, dass es historische Gesetze, eine Geschichtsmorphologie im Sinne von Oswald Spengler gibt, die sich hinter dem Rücken der politischen und ökonomischen Akteure durchsetzt. Für den bekannten Frankfurter bzw. Heidelberger Mediävisten Johannes Fried hingegen steht hingegen der enge geistige Zusammenhang zwischen dem Christentum und der Entwicklung der naturwissenschaftlichen Methodik in seiner Geschichte des Weltuntergangs unter dem Titel “Dies Irae” außer Frage. Schon früher hat kein Geringerer als der unfreiwillige Entdecker der Quantenphysik, der Nobelpreisträger Max Planck, darauf hingewiesen.

Fried sieht diesen Zusammenhang weniger in der Übernahme des platonischen und aristotelischen Logos durch die europäischen Kirchenväter Augustinus von Hippo und Thomas von Aquin, sondern in der von der Apokalypse des Johannes und der Zerstörung des zweiten Jerusalemer Tempels im Jahre 70 nach Christus ausgehenden Endzeiterwartung, die bis zum heutigen Tag fortwirkt. Die Bibel sagt nur, das Ende könne jeden Tag kommen und die Christus-Gläubigen sollten sich durch eine anständige und liebevolle Lebensführung auf die Wiederkunft Christi und das folgende Jüngste Gericht vorbereiten.

Zumindest in der römisch-katholischen Kirche gilt das Dogma, nach dem Tod der letzten von Jesus Christus eingesetzten Apostel könne es keine echten Propheten mehr geben. (Bei den anderen Konfessionen kenne ich mich weniger aus.) Der Kirchenvater Augustinus von Hippo (354-430) rechnete in einigen Schriften polemisch mit allerlei Spekulationen und astrologischen Weissagungen ab. Jüngere Gelehrte schlugen aber Augustinus‘ Warnungen in den Wind und gaben dem Reiz des Verbotenen nach, indem sie auszurechnen versuchten, wie viel Jahre seit der angenommenen Erschaffung der Welt vor wenigen Jahrtausenden noch bis zum Weltende übrigblieben, oder hielten nach kosmischen Zeichen Ausschau, die den nahenden Untergang ankündigen sollten.

Die wichtigsten Anstöße für die im 12. Jahrhundert in Europa aufblühende Naturforschung kamen jedoch von Ungereimtheiten der Zeitrechnung. Schon Kaiser Karl der Große (748-814) hatte sich, unterstützt seinem angelsächsischen Berater Alkuin, mit großem Eifer um eine Verbesserung des Kalenders gekümmert. Durch die Beobachtung der Tag- und Nachtgleichen und der Gestirne war aufgefallen, dass der julianische Kalender dem realen Zeitlauf hinterherhinkte und dass christliche Feiertage folglich zur falschen Zeit begangen wurden. Erst die auf strenger Naturbeobachtung beruhende, noch heute gültige gregorianische Kalenderreform von 1582 bereinigte diese Probleme durch die Streichung von zehn Tagen und die Einführung von Schaltjahren weitgehend. Dadurch bekamen vor allem Astronomie, Mathematik und Physik großen Auftrieb.

Dagegen regte sich jedoch Widerstand seitens der inzwischen auf den Plan getretenen Lutheraner. Diese hielten den neuen Kalender zwar nicht für falsch, aber wegen des ihrer Ansicht nach ohnehin bevorstehenden Weltendes für überflüssig. Denn Luthers Reformation wurde von ihnen selbst als apokalyptischer Vorgang gedeutet – allerdings im Zeichen der Hoffnung. Nicht wenige von der Amtskirche als Häretiker gebrandmarkte Prediger wie Thomas Müntzer und andere sahen in der vermeintlich nahenden Apokalypse das Signal für den sozialen Aufstand.

Die Wirkung der katholischen „Gegenreformation“

In der römisch-katholischen Kirche hingegen spielte die Apokalypse nach dem von Kaiser Karl V. einberufenen ökumenischen Reformkonzil von Trient (1545-1563) keine große Rolle mehr. Dieses Konzil startete die als „Gegenreformation“ bekanntgewordene Läuterung und Professionalisierung der römisch-katholischen Kirche, die im Prinzip bis heute Bestand hat, auch wenn der staatsnahe deutsche Katholizismus mehr und mehr zur woken Sekte verkommt. Denn das für das Abendland charakteristische apokalyptische Lebensgefühl verschwand auch während der nachfolgenden Zeit der „Aufklärung“ nicht. Heute erlangen spekulative Computersimulationen über das Versiegen von Rohstoffquellen oder die Aufheizung des Klimas wohl vor allem deshalb eine so große Glaubwürdigkeit, weil sie auf ein Publikum treffen, das die lineare Geschichtsauffassung des Christentums und 2.000 Jahre apokalyptische Kultur verinnerlicht hat.

Ohne den Einfluss des Christentums und das Eingreifen aufgeschlossener Päpste ist die Ablösung des ptolemäischen Weltbildes mit komplizierten Hyperzyklen durch das Kopernikanische bzw. Keplersche Modell um die Sonne kreisender Planeten kaum vorstellbar. Die vom damaligen Papst beauftragten Forschungen des Domherren Nikolais Kopernikus dienten ausdrücklich der Kalenderrefom. Die in Bertolt Brechts Drama über die Verurteilung des Physikers Galileo Galilei durch die kirchliche Inquisition verbreitete Version des Konflikts zwischen Wissen und Glauben hält der wissenschaftshistorischen Forschung nicht stand. Galilei wurde nachweislich vom einflussreichen Papstberater und bis heute als Kirchenlehrer anerkannten Kardinal Robert Bellarmin (1542-1621) unterstützt, aber nicht nur aus diplomatischen Gründen um Zurückhaltung gebeten. Ausschlaggeben für die (milde!) Bestrafung Galileis war dessen dogmatisches und großsprecherisches Auftreten.

Siegeszug der naturwissenschaftlichen Methode

Die Missverständnisse zwischen Galilei und der kirchlichen Hierarchie konnten den Siegeszeug der von Galilei erfolgreich angewandten nüchternen Forschungsmethode im christlichen Europa jedenfalls nicht aufhalten. In dem damals zivilisatorisch weiter fortgeschrittenen chinesischen Reich hatte die von Galilei etablierte naturwissenschaftliche Forschungsmethode zunächst keine Chance. Es fehlte dem Konfuzianismus der dafür notwenige transzendentale Wahrheitsbegriff des mittelalterlichen Kirchenlehrers Thomas von Aquin (1225-1274): Wahrheit als Übereinstimmung zwischen Denken und Sein bzw. zwischen dem Bewusstsein und den feststellbaren Tatsachen. Konfuzianismus und Buddhismus hingegen kannten nur einen pragmatischen Wahrheitsbegriff, bei dem die persönliche Gesichtswahrung im Vordergrund steht.

Der thomistische Wahrheitsbegriff, der auf Aussagen von Augustinus, Plotin und anderen Denkern der Spätantike aufbaut, beruht auf der mit dem christlichen Schöpfungsglauben einhergehenden Vorstellung oder Einsicht, dass Erde und Weltall, menschliche Gesellschaft und Natur den gleichen physikalischen Gesetzen unterliegen, aber offen bleiben für göttliche Eingriffe. Isaac Newton (1643-1727), dem Vollender der klassischen Physik, war durchaus bewusst ohne göttliche Hand die Planeten nicht lange auf ihren Bahnen ziehen würden.

Durch den größten dieser Eingriffe, die Menschwerdung Jesu Christi, wurde die Geschichte zur Heilsgeschichte: Zwischen dem Kreuzestod Jesu Christi und der bei dessen Himmelfahrt versprochenen Wiederkunft in Form des Jüngsten Gerichts. Das unterscheidet die christliche Geschichtsauffassung von nicht abrahamitischen Religionen oder materialistischen Ideologien, in denen zyklische Auffassungen der Geschichte im Sinne eines Wechsels zwischen Werden und Vergehen von Kulturen oder technische Vorstellungen von Fortschritt im Sinne der Verlängerung der durchschnittlichen Lebenserwartung und der stetigen Verbesserung der Bedürfnisbefriedigung der Menschen überwiegen.

Für gläubige Christen ist nicht die liberale Demokratie und der damit einhergehende materielle Wohlstand das Ziel der Geschichte, sondern die Wiederkunft des Herrn Jesus Christus, die Apokalypse. Das unterstreicht der hinter dem Wahlsieg von Donald Trump und seines Vize JD Vance stehende deutschstämmige US-Milliardär Peter Thiel (geb. 1967) am Schluss eines im Jahre 2007 veröffentlichten Aufsatzes: „Im Gegensatz zu Leo Strauss weiß der christliche Staatsmann oder die christliche Staatsfrau, dass das moderne Zeitalter nicht von Dauer sein wird und letztlich etwas ganz anderem Platz machen wird. Man darf niemals vergessen, dass eines Tages alles offenbart werden wird, dass alle Ungerechtigkeiten aufgedeckt werden und dass diejenigen, die sie begangen haben, zur Rechenschaft gezogen werden.” Wir können also davon ausgehen, dass die Erwartung der Apokalypse politisch einflussreich bleiben wird, solange es genügend Menschen gibt, die daran glauben. (5. August 2025)

 




Globale Erntemengen steigen trotz (wegen) Klimawandel

Die Erderwärmung schade den landwirtschaftlichen Erträgen: Diese Warnung hört man immer wieder. Richtig ist, dass die Ernteerträge fast ungebremst weiter zunehmen. Der höhere CO₂-Gehalt in der Atmosphäre dürfte sich sogar positiv auswirken.

Von Peter Panther

 

Vor einigen Wochen war es wieder so weit: Warnungen vor einbrechenden Erntemengen machten Schlagzeilen. «Klimaerwärmung verringert die Ernte in den nächsten Jahren um acht Prozent», schrieb etwa die «Zeit». Die Meldung bezog sich auf eine Studie im Fachblatt «Nature», geschrieben von Forschern der amerikanischen Stanford University. Sie hatten untersucht, wie sich der Klimawandel auf die globale Landwirtschaft auswirkt.

Das Resultat der Studie: Jede zusätzliche Erwärmung um ein Grad Celsius reduziere die Fähigkeit der Welt, Nahrungsmittel zu produzieren, um täglich 120 Kilokalorien pro Person oder um 4,4 Prozent des empfohlenen Tagesverbrauchs. «Wenn sich das Klima um drei Grad erwärmt, ist das so, als würde jeder Mensch auf der Welt das Frühstück auslassen», liess sich Solomon Hsiang zitieren, einer der Hauptautoren. Insgesamt sei bis 2100 ein Rückgang der Ernteerträge um acht Prozent zu erwarten.

Erntemengen nehmen trotz Klimawandel zu

Axel Bojanowski, Chefreporter Wissenschaft bei der «Welt», hat in einem bemerkenswerten Artikel aber auf drei fundamentale Fehler hingewiesen, was die «Nature»-Studie und die Berichterstattung darüber angeht. So beruhe die Forschungsarbeit auf dem Erwärmungsszenario RCP8.5, das anerkannterweise auf einer völlig unrealistischen Steigerung der Nutzung fossiler Brennstoffe beruhe. Weiter lasse die Studie technische Innovationen ausser Acht, was mit Blick auf die Erfahrungen in der Landwirtschaft der letzten Jahrzehnte unsinnig erscheine. Insbesondere wegen der sogenannten Grünen Revolution und moderner Technik hätten sich die Ernteerträge verdreifacht.

Vor allem aber, so schreibt Bojanowski, werde die Botschaft der Studie falsch interpretiert. Zwar sei dort mehrfach von globalen «Produktionsrückgängen» und «Verlusten» die Rede. Tatsächlich aber prognostiziere die Studie lediglich, «dass die Erträge langsamer wachsen könnten als ohne Klimawandel, sie also sehr wahrscheinlich insgesamt weiter steigen werden». Mit anderen Worten: Der landwirtschaftliche Ertrag wird wegen der Erderwärmung allenfalls etwas weniger schnell zunehmen als ohne.

So sieht es auch die UN-Landwirtschaftsbehörde FAO. In ihrem Bericht «Die Zukunft von Lebensmitteln und Landwirtschaft – Alternative Wege bis 2050» schreibt sie, dass die künftigen Erntemengen vor allem von der Verfügbarkeit von Traktoren, Dünger und Bewässerung abhängten. «Bis Mitte des Jahrhunderts könnten die globalen Ernteerträge um 30 Prozent steigen, in den ärmsten Teilen der Welt, wie etwa in Afrika südlich der Sahara, wären Steigerungen von 80 bis 90 Prozent möglich.» Der Klimawandel spiele dabei eine untergeordnete Rolle, auch wenn örtlich mehr Dürre drohe.

Seit 2000 ein Fünftel mehr Nahrung pro Person

So ist bisher auch nichts von einem nennenswerten negativen Einfluss der Erderwärmung auf die landwirtschaftlichen Erträge zu erkennen. Im Gegenteil sind die Erntemengen zwischen 2000 und 2022 um satte 56 Prozent gestiegen, wie dem Statistischen Jahrbuch 2024 der FAO zu entnehmen ist – und das, obwohl gleichzeitig die landwirtschaftlich genutzten Flächen um zwei Prozent zurückgegangen sind. Weil gleichzeitig die Weltbevölkerung nur um 31 Prozent zugenommen hat, stehen einem einzelnen Menschen heute durchschnittlich fast 20 Prozent mehr Nahrungsmittel zur Verfügung als zur Zeit der Jahrtausendwende.

Konkret konnten die weltweiten Erträge an Mais während der 22 Jahre um schwindelerregende 87 Prozent erhöht werden. Beim Gemüse resultierte ein Plus von 71 Prozent und beim Obst ein solches von 62 Prozent. Die Gründe dafür sind vielfältig: besseres Saatgut, effektiverer Dünger, gezieltere Pflanzenschutzmittel, verbesserte Bewässerung sowie allgemein eine verstärkte Mechanisierung und Digitalisierung. Und es soll in diesem Stil weitergehen. Die OECD und die FAO stellten 2023 in Aussicht, dass die Ernteerträge innerhalb der nächsten zehn Jahre (bis 2033) um weitere zwölf Prozent steigen.

Höhere Temperaturen und andere Folgen des Klimawandels, die angeblich auf mehr CO₂ in der Atmosphäre zurückzuführen sind, könnten sich zwar in begrenztem Mass negativ auf die Erntemengen auswirken. Allerdings sind auch gegenteilige Effekte möglich: Denn wärmere Bedingungen fördern in der Regel das Pflanzenwachstum. Das könnte nicht nur dort zu grösseren Ernten führen, wo heute schon Landwirtschaft betrieben wird, sondern neu auch Ackerbau zulassen, wo dieser heute noch nicht möglich ist – etwa in weiten Teilen Skandinaviens, Russlands und Kanadas.

CO₂ fördert das Pflanzenwachstum

Und es gibt noch einen anderen wichtigen Effekt, der von der Wissenschaft und dem Medienbetrieb fast komplett ignoriert wird: CO₂ – als eine der Voraussetzungen der Photosynthese – fördert das Gedeihen der Pflanzen. Steigt der Gehalt von Kohlendioxid in der Atmosphäre, steigen auch die Erntemengen. Das amerikanische Center for the Study of Carbon Dioxide and Global Change – eine wissenschaftliche Institution zur Erforschung der Wirkung von CO₂ – hat dazu Versuche angestellt.

Die Ergebnisse sind einschlägig: Ein Anstieg des Kohlendioxid-Gehalts um 300 Parts per Million (ppm) – soviel, wie bis Ende dieses Jahrhunderts verglichen mit der vorindustriellen Zeit zu erwarten ist – steigert die Produktivität von Pflanzen um durchschnittlich etwa ein Drittel. Der Ertrag bei Getreide wie Weizen oder Reis erhöht sich dabei um 43 Prozent, bei Früchten und Melonen um 24 Prozent, bei Gemüse um 44 Prozent und bei Hülsenfrüchten wie Erbsen und Bohnen um 37 Prozent.

Bereits die bisherige Steigerung des CO₂ in der Atmosphäre hat laut diesem Forschungscenter die Erntemengen um etwa 15 Prozent erhöht. Das «Klimagift» CO₂ erweise sich als grosse Glück, um den Hunger in der Welt zu vermeiden, kommentierten die Wissenschaftler Fritz Vahrenholt und Sebastian Lüning in ihrem Buch «Unerwünschte Wahrheiten – Was Sie über den Klimawandel wissen sollten» von 2020. Weiter schrieben sie: «Wer sagt es den Schülerinnen und Schülern von ‘Fridays for Future’, dass wir ohne den CO₂-Anstieg ganz gewiss zu wenig Nahrungsmittel hätten, um die Welt satt zu machen?» Der Verbrauch fossiler Brennstoffe könnte sich am Ende also als Segen für die Versorgung der Welt mit Lebensmitteln erweisen.

 




Globales Klimarecht ohne Evidenz? – Das IGH-Gutachten als Meilenstein globaler Technokratur

von Hans-Christian Hansel

Am 23. Juli 2025 veröffentlichte der Internationale Gerichtshof (IGH) ein Gutachten, das eine vermeintlich epochale Wende in der internationalen Klimapolitik markieren soll: Erstmals wird ein rechtlich argumentierter Anspruch auf Klimaschutz als Völkerrechtsnorm etabliert. Staaten werden damit verpflichtet, „ernsthafte“ Maßnahmen gegen den Klimawandel zu ergreifen, insbesondere zur Begrenzung der globalen Erwärmung durch Reduktion von Treibhausgasemissionen. Das Gutachten wird von den Öko- und Klimaaktivisten als historisch gefeiert. Tatsächlich aber markiert es einen dramatischen Wendepunkt: Es stützt sich auf eine einseitige, ideologisch aufgeladene Deutung der Klimaforschung, die weder wissenschaftlich unumstritten noch demokratietheoretisch legitimiert ist.

Dieses Gutachten steht exemplarisch für den globalen Vormarsch einer technokratischen Herrschaftsordnung, die unter dem Vorwand der „Klimarettung“ und dem Nimbus vin „Klimagerechtigkeit“ einen überstaatlichen Zugriff auf politische Entscheidungsgewalt legitimieren will. Es zementiert ein fragwürdiges Klimanarrativ juristisch und bereitet den Weg für eine weltweite öko-autoritaire Governance, die mit dem klassischen Ideal rechtsstaatlicher Souveränität nicht mehr vereinbar ist, eine Art globaler Technokratur!.

I. Eine wissenschaftliche Nebelwand: Der angebliche CO2-Konsens

Das IGH stützt sich explizit auf die Prämisse, dass der menschengemachte Ausstoß von CO2 der Hauptverursacher des Klimawandels sei. Diese Behauptung wird von einem Teil der Klimaforschung vertreten, insbesondere vom IPCC, der jedoch selbst als politisiertes Gremium mit fragwürdigen Auswahlverfahren für Daten und Modelle bekannt ist. Was als „wissenschaftlicher Konsens“ verkauft wird, ist in Wahrheit ein technokratischer Kunstgriff: Dissidentenstimmen wie die der renommierten Klimawissenschaftler Judith Curry, Richard Lindzen, Henrik Svensmark oder Nir Shaviv werden systematisch marginalisiert oder diskreditiert. Diese verweisen auf alternative Ursachen wie solare Zyklen, kosmische Strahlung, ozeanische Oszillationen und langfristige natürliche Klimavariabilität – also auf eine Komplexität, die sich nicht auf das einfache Narrativ vom CO2 als Klima-Teufel reduzieren lässt.

Indem das IGH diese kontroverse Lage ignoriert und sich vollständig auf die CO2-Hypothese stützt, verlässt es den Boden der erkenntnistheoretischen Redlichkeit. Das Urteil operiert mit einer politisch aufgeladenen, einseitigen Deutung der Wirklichkeit – nicht mit objektivierbarem Wissen. Wissenschaft wird zur juristisch verwertbaren Ideologie degradiert.

II. Judicial Activism und die Aushöhlung demokratischer Souveränität

Das IGH-Gutachten ist rechtlich nicht bindend, wird aber schon jetzt als Blaupause für künftige Klagen gegen Staaten oder Konzerne herangezogen. Hier offenbart sich ein Mechanismus transnationaler Rechtssetzung ohne demokratische Legitimation. Eine supranationale Gerichtsbarkeit dehnt ihren Einflussbereich aus, ohne für ihre normativen Entscheidungen politisch verantwortlich zu sein. Das Prinzip der Volkssouveränität wird so systematisch untergraben.

Dabei wird eine neue Art von globalem „Klimastrafrecht“ entworfen: Wer die herrschende Klimanarration infrage stellt oder sich den vorgeschriebenen Maßnahmen widersetzt, wird nicht nur als politisch unvernünftig, sondern als völkerrechtlich schuldig gebrandmarkt. Die Klimapolitik transformiert sich zur moraljuristischen Ersatzreligion mit Sanktionierungsinstrumentarium.

III. Die Gefahr der öko-technokratischen Weltinnenpolitik

In Verbindung mit anderen Gerichtsurteilen – etwa des Europäischen Gerichtshofs für Menschenrechte (EGMR) im Fall der „KlimaSeniorinnen Schweiz“ – ergibt sich ein Gesamtbild: Eine neue Form globaler Gouvernementalität nimmt Gestalt an, die sich nicht mehr auf demokratische Prozesse, sondern auf scheinobjektive Notwendigkeiten stützt.

Die Grundlage dieser Entwicklung ist das Dogma der „planetaren Grenzen“: Weil der Planet gerettet werden müsse, seien nationale Parlamente, individuelle Freiheitsrechte oder wirtschaftliche Souveränität zweitrangig. Diese Ideologie legitimiert tiefgreifende Eingriffe – von CO2-Budgets über Mobilitätsrestriktionen bis hin zur Reindustrialisierung im Sinne der „Green Transition“. Der IGH liefert dafür die völkerrechtliche Rahmung. Das Recht wird zur Exekutive des Klimanarrativs.

IV. Reparationslogik und postkoloniale Instrumentalisierung

Besonders brisant ist die implizite Reparationslogik, die das Gutachten fördert. Staaten wie Vanuatu, die das Verfahren initiiert haben, sehen sich als Opfer historischer Emissionen der Industrieländer. Der IGH stützt diese Sicht implizit, indem er eine Pflicht zur Schadensvermeidung und ggf. -wiedergutmachung formuliert. Damit wird der Klimadiskurs in eine postkoloniale Moralphantasie überführt, in der westliche Staaten Buße leisten sollen für ihren „Kohlenstoffwohlstand“. Dass viele Entwicklungsländer heute massiv von fossilen Energien abhängen, wird dabei systematisch ausgeblendet.

V. Das Klimaurteil als technokratischer Wendepunkt

Das IGH-Gutachten markiert keine juristische Sternstunde, sondern einen autoritativen Kipppunkt: Das Völkerrecht wird in den Dienst eines einseitigen, wissenschaftlich umstrittenen und politisch aufgeladenen Klimanarrativs gestellt. Statt Freiheitsrechte zu schützen, werden sie konditioniert. Statt demokratische Willensbildung zu ermöglichen, wird diese durch außerparlamentarische, transnationale Instanzen verdrängt.

Die Idee der Klimagerechtigkeit wird so zur Projektionsfläche einer neuen Weltinnenpolitik, deren Legitimation nicht mehr aus dem Volk, sondern aus vermeintlicher Notwendigkeit erwächst. Der Internationale Gerichtshof fungiert damit nicht als neutrale Instanz, sondern als juristischer Arm einer ideologisch motivierten Global Governance. Wer das Klimaurteil als „Meilenstein“ feiert, übersieht: Es ist auch ein Grabstein für die Prinzipien der politischen Freiheit im Anthropozän.

Berlin, 26. Juli 2025

Frank-Christian Hansel MdA