118 neue Gaskraftwerke bis 2035 nötig: Bundesnetzagentur alarmiert über fehlende Kapazitäten

Um Deutschlands Stromversorgung auch in Zukunft sicherzustellen, sind viele neue steuerbare Kraftwerke nötig. Das steht im neuen Bericht zur Versorgungssicherheit der Bundesnetzagentur. Der Bedarf ist gewaltig und vermutlich dennoch nicht ausreichend.

von Maurice Forgeng

Um Deutschlands Stromversorgung auch in Zukunft sicherzustellen, sind viele neue steuerbare Kraftwerke nötig. Das steht im neuen Bericht zur Versorgungssicherheit der Bundesnetzagentur. Der Bedarf ist gewaltig und vermutlich dennoch nicht ausreichend.

Laut Bundesnetzagentur sollen Gaskraftwerke in Deutschland künftig die Versorgungssicherheit garantieren.

In Kürze:

  • Die Bundesnetzagentur veröffentlichte Anfang September den Bericht zur Versorgungssicherheit.
  • Die binnen zehn Jahren erforderlichen bis zu 35,5 Gigawatt Reservekapazität entsprechen einem neuen Gaskraftwerk pro Monat.
  • Ein Solarverband kritisiert, dass Potenziale von Batterieparks nicht ausreichend erwähnt wurden, und fordert die Überarbeitung des Berichts.
  • Der aktuelle Systemstabilitätsbericht der Übertragungsnetzbetreiber zeigt seinerseits, wie viele Aspekte im Stromnetz „nicht ausgereift“ sind.
  • Erneut wird ein Kapazitätsmechanismus genannt, der bereits mit einer neuen Stromsteuer in Verbindung gebracht wurde.

Wie stabil ist das deutsche Stromnetz im Rahmen der Energiewende?

Dieser Frage hat sich die Bundesnetzagentur mit dem Bericht zu Stand und Entwicklung der Versorgungssicherheit im Bereich der Versorgung mit Elektrizität gewidmet. Im Juni 2025 erschien dazu auch der Systemstabilitätsbericht der deutschen Übertragungsnetzbetreiber TenneT, 50 Hertz, Ampiron und TransnetBW.

Riesige neue Kraftwerkskapazitäten benötigt

Das am 3. September 2025 erschienene Monitoring der Bundesnetzagenturanalysiert die Entwicklung im Stromsystem bis zum Jahr 2035. Klaus Müller, Präsident der Bundesnetzagentur, teilte zusammenfassend dazu mit:

„Die Stromversorgung ist auch in Zukunft sicher, wenn zusätzliche steuerbare Kapazitäten errichtet werden.“

Damit teilte der Bundesnetzagentur-Chef klar mit, dass das deutsche Stromsystem dringend mehr grundlastfähige Kraftwerke benötigt. Diese müssen auch dann Strom liefern können, wenn die Windkraft und Photovoltaik aufgrund schlechter Wetterbedingungen zu wenig Strom bereitstellen. Da die aktuelle Regierung am Atomausstieg festhält und die Kohlekraftwerke ebenfalls bis spätestens 2038 vom Netz gehen sollen, bleibt nur die Verstromung von Erdgas.

Konkret müssen laut der Energiebehörde bis 2035 zusätzliche Reservekraftwerke mit bis zu 22,4 Gigawatt (GW) elektrischer Leistung entstanden sein, sofern das Zielszenario eintritt. In diesem werde Deutschland künftig alle energiewirtschaftlichen und energiepolitischen Ziele erreichen.

Ein Bild, das Text, Screenshot, Diagramm, Reihe enthält. KI-generierte Inhalte können fehlerhaft sein.

Ausbauziele der installierten Leistung von hauptsächlich Wind- und Photovoltaikanlagen in Deutschland (interpoliert).

Foto: Bundesnetzagentur

Neben dem starken Ausbau von Wind und Solar beinhalten diese „hohe Flexibilitätspotentiale bei neuen Verbrauchern“ ebenso wie Wärmepumpen, Stromspeicher, Elektroautos oder Elektrolyseure. Die Bundesnetzagentur nennt zudem die Installation geeigneter Messsysteme. Für E-Autos ist in diesem Rahmen angedacht, dass sie ihren Strom dem Netz in Mangelzeiten teilweise zur Verfügung stellen. Auch die Industrie solle ihren Stromverbrauch flexibel anpassen, ihn also bei Strommangel herunterfahren.

Falls die Zubauziele verfehlt werden und die Flexibilität zu gering ausfällt, hat die Bundesnetzagentur zusätzlich das Szenario „verzögerte Energiewende“ errechnet. Dabei wären steuerbare Kapazitäten von bis zu 35,5 GW nötig. Da ein einfaches Gasturbinenkraftwerk im Schnitt rund 300 Megawatt (MW) an Leistung bringen kann, wären dafür 118 Gaskraftwerke nötig. Selbst beim Zielszenario wären noch 75 solcher Kraftwerke nötig.

Beachtenswert ist zudem, dass die Ausbauziele in Deutschland im Jahr 2035 mehr als 500 GW an installierter Leistung durch „erneuerbare“ Energien vorsehen. Trotz der erheblichen Überkapazität der Erneuerbaren fordert die Energiebehörde damit, dass neue Grundlastkraftwerke ein Drittel bis über die Hälfte des jetzigen Strombedarfs decken können müssen.

Bereits berücksichtigt hat die Energiebehörde in ihrer Rechnung geplante Stilllegungen bestehender Kraftwerke. Würde keines der bestehenden Kraftwerke stillgelegt werden, wären im Zielszenario noch 42 und bei der „verzögerten Energiewende“ 85 der genannten Gaskraftwerke nötig.

Zugleich gibt die Behörde für das Jahr 2035 einen Jahresstromverbrauch von 941 Terawattstunden an, also fast das Doppelte wie aktuell.

Ereignet sich dann eine Dunkelfraute, also das Fehlen von Wind und Sonnen, wie vom 11. bis 14. Dezember 2024 wäre laut der Simulation des Portals „Energy Charts“die Zusatzstromerzeugung bei Weitem nicht ausreichend. Auch bei Erreichen der Ausbauziele wären in diesem Fall bis über 116 GW steuerbare Kapazität nötig.

 

Ein Bild, das Text, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Simulierte Stromerzeugung für Deutschland mit den geplanten Windkraft- und Solarwerten und der von der Behörde geschätzte Jahresstromverbrauch von 941 Terawattstunden. Als Relevanz dienen die Wind- und Solarwerte von Kalenderwoche 50 aus dem Jahr 2024.

Foto: Bildschirmfoto/energy-charts.info/Fraunhofer ISE

Verzögerte Energiewende wahrscheinlicher?

Wahrscheinlicher dürfte jedoch das Eintreten des Szenarios „verzögerte Energiewende“ sein. Wie Bundeswirtschaftsministerin Katherina Reiche (CDU) bereits angekündigt hat, will sie Betreiber von Windkraft- und Solaranlagen künftig mehr zur Verantwortung ziehen, indem sie sich beispielsweise an den Netzausbaukosten beteiligen sollen. Das könnte die Attraktivität dieser „erneuerbaren“ Kraftwerke spürbar reduzieren und den bisweilen gut laufenden Ausbau abbremsen.

Zudem soll in Kürze das Ergebnis der Prüfung der deutschen Energiewende folgen. Wie Reiche bereits andeutete, müsse sich der Zubau der „Erneuerbaren“ am Netz orientieren und nicht umgekehrt. Das lässt vermuten, dass die Regierung den Fokus bald weniger auf den Zubau der Erneuerbaren und mehr auf den Netzausbau legt, um die Versorgungssicherheit zu erhöhen.

Die Versorgungssicherheit ist im Zielszenario laut Bundesnetzagentur nur dann gewährleistet, wenn etwa der Netzausbau wie geplant verwirklicht wird. Wie der Bundesrechnungshof im vergangenen Jahr festgestellt hat, liegt dieser rund sieben Jahre im Rückstand.

Umsetzung der Reserve fragwürdig

Diese neue Kraftwerkskapazität müsste innerhalb der kommenden zehn Jahre betriebsbereit sein. Gemessen an der reinen Bauzeit wäre dies ein mehr als realistischer Rahmen. Der Bau des Gaskraftwerks Leipheim mit 300 MW hat knapp 24 Monate beansprucht. Allerdings müssen im Vorfeld Kraftwerksstandorte festgelegt und genehmigt werden, was zusätzlich Zeit benötigt.

Um bis 2035 besagte 118 Gaskraftwerke zur Verfügung zu haben, müsste jeden Monat ein solches Kraftwerk fertiggestellt werden. Um eine mehrtägige Dunkelflaute zu überbrücken, sind 387 Gaskraftwerke nötig und es müssten – parallel zum Ausbau der Erneuerbaren – mindestens drei Gaskraftwerke pro Monat entstehen.

Dass eine politische Ankündigung nicht zu einer schnellen Umsetzung führt, zeigte bereits die Forderung des früheren Wirtschaftsministers Robert Habeck (Grüne). Bereits vor zwei Jahren sprach er davon, umgehend 8,8 GW an neuen Kraftwerken, möglichst wasserstofffähige Gaskraftwerke, auszuschreiben. Dem folgte bis heute kein Realisierungsansatz. Die aktuelle Bundeswirtschaftsministerin Katherina Reiche (CDU) spricht von Ausschreibungen von „mindestens 20 Gigawatt Gaskraftwerken“.

Ein Bild, das Text, Screenshot, Zahl, Schrift enthält. KI-generierte Inhalte können fehlerhaft sein.

Ausgangsbestand der steuerbaren Kraftwerke und Speicher in Deutschland am 01.02.2024.

Foto:, Bundesnetzagentur

Systemstabilitätsbericht zeigt massive Sicherheitslücken

Mit dem Systemstabilitätsbericht 2025 wollten die deutschen Übertragungsnetzbetreiber den aktuellen Stand der einzelnen Stabilitätsaspekte unserer Stromnetze darstellen. Das soll die eingangs gestellte Frage ebenso beantworten.

Ein Bild, das Text, Screenshot, Schrift, Zahl enthält. KI-generierte Inhalte können fehlerhaft sein.

Entwicklungsstand der Bedarfsermittlung der einzelnen Stabilitätsaspekte.

Foto: Bundesnetzagentur, Systemstabilitätsbericht 2025

Die beiden Aspekte Frequenz- und Spannungsstabilität schneiden bei der Untersuchung noch am besten ab. Die Netzfrequenz liegt im europäischen Verbundnetz bei 50 Hertz. Diesen Wert müssen die Netzbetreiber möglichst konstant halten. Dazu muss die Stromerzeugung jederzeit genauso groß sein wie der Stromverbrauch. Die Spannungsstabilität beschreibt das Aufrechterhalten der Netzspannung.

Sowohl Frequenz- als auch Spannungsstabilität können die Übertragungsnetzbetreiber ermitteln und den Systembedarf definieren. Ebenso können sie bei Abweichungen Gegenmaßnahmen entwickeln, um diese stabil zu halten. Allerdings ist bei beiden Aspekten der Systembedarf noch nicht gedeckt. Sprich, TenneT und Co. können im Netz nicht die benötigten Strommengen halten, um das Netz stabil zu halten.

Das liegt unter anderem an der zunehmend fehlenden Momentanreserve, also mechanisch rotierende Schwungmassen von Turbinen in Großkraftwerken. Sie stabilisieren das Netz, da sie Spannungs- und Frequenzstörungen kompensieren können. Photovoltaik- und Windkraftanlagen können dies nicht. Sie speisen elektronisch über Wechselrichter ihren Strom in die Netze ein und sind vielmehr auf ein stabiles Netz angewiesen. Je mehr Wechselrichter und je weniger Momentanreserve, desto instabiler die Netze. Das führte im April letztlich zum Stromausfall auf der iberischen Halbinsel.

Noch „nicht ausgereift“

Deutlich kritischer sieht es bei der sogenannten „Transienten Stabilität“ aus, also wie sich das Netz bei Schwankungen verhält. Hier ist noch kein Bereich ausgereift. Die Methodik zur Ermittlung befindet sich noch „in Entwicklung“, die übrigen Bereiche sind noch „nicht ausgereift“. Auch hier spricht der Bericht von den rotierenden Massen:

„Die Analyse zeigt eine Verbesserung der Systemstabilität bei Erhöhung der Momentanereserve, wohingegen eine Reduktion der Momentanereserve zu einer Verschlechterung führt.“

Die Bilanz der allgemeinen „Netzstärke“ gleicht der „Transienten Stabilität“. So steht im Systemstabilitätsbericht: „Netzfolgende Stromrichter [Wechselrichter von Wind und Solar] tragen unter konservativen Annahmen hingegen nicht zur Netzstärke bei.“ Das bedeutet: Je mehr einspeisende Wechselrichter am Netz sind, umso instabiler wird das System.

Der letzte Aspekt, die „Harmonische Stabilität“, schneidet von allen Aspekten am schlechtesten ab. Hier ist jeder Bereich bisher „nicht ausgereift“. Die „Harmonische Stabilität“ beschreibt, wie gut es Wechselrichtern gelingt, „keine unzulässigen Schwingungen auszubilden“. Wechselrichter erzeugen solche Schwingungen. Das bedeutet, wenn ein Wechselrichter eine Oberschwingung aussendet, darf ein andere diese nicht auffangen und verstärken. Ein Netz mit viel Momentanreserve kann Oberschwingungen gut abfangen.

In Spanien haben diese Schwingungen zu einer erhöhten Netzspannungen geführt, was wiederum den Blackout auslöste.

Der Bundesverband Solarwirtschaft (BSW-Solar) begrüßt, dass der neue Bericht zur Versorgungssicherheit den Ausbau der „Erneuerbaren“ betont. Gleichzeitig kritisiert der Verband die mangelnde Erwähnung der Potenziale von Batteriespeichern für die Versorgungssicherheit.

Zwar schrieb die Bundesnetzagentur unter anderem: „Speicher werden eine immer wichtigere Funktion einnehmen. Schon heute können sich besonders Batteriespeicher im Strommarkt refinanzieren, wie die aktuelle Ausbaudynamik beweist. In bestimmten Marktsituationen können Speicher den Bedarf an zusätzlichen Kraftwerkskapazitäten reduzieren.

Dennoch forderte BSW-Solar die Überarbeitung des Berichts. Laut dem Verband habe die Bundesnetzagentur die Potenziale von Batteriegroßspeichern unzureichend abgebildet. Damit sei eine zentrale Realität der Energiewende ausgeblendet.

Dazu erklärte Carsten Körnig, Hauptgeschäftsführer des Bundesverbandes Solarwirtschaft: „Während Netzbetreiber bereits heute Zusagen für viele Gigawatt[stunden] an Speicherkapazitäten erteilt haben und bundesweit Anschlussanfragen in dreistelliger Gigawatt-Höhe vorliegen, bleibt der Bericht bei den Zahlen von gestern stehen und geht sogar realitätsfern von einem Rückbau stationärer Batteriespeicher aus.“ Körnig warf der Energiebehörde eine systematische Unterschlagung der Großspeicher vor.

Hierbei ist jedoch zu beachten, dass Batteriespeicher selbst keinen Strom erzeugen können. Sie speichern diesen nur zwischen. Daher können sie Kraftwerke nicht ersetzen.

Aktuell liegt die installierte Kapazität aller deutschen Batteriespeicher bei 20,7 Gigawattstunden (GWh), die der netzdienlichen Großspeicher bei nur knapp 3 GWh. Es besteht ein akuter Anschlussstau, sodass viele, die einen Batteriepark errichten wollen, teilweise zehn Jahre und länger warten müssen. Das liegt wiederum an der mangelnden Netzinfrastruktur.

Kommt ein Kapazitätsmechanismus?

Im Bericht der Bundesnetzagentur sagte Müller: „Unser Monitoring unterstreicht die Bedeutung der von der Bundesregierung geplanten Kraftwerksstrategie. Die weiteren notwendigen Kapazitäten sollten über einen Kapazitätsmechanismus bereitgestellt werden. Außerdem ist es wichtig, dass immer mehr Stromverbraucher flexibel auf Strompreise reagieren.“

Das bedeutet: Um den zusätzlichen Bedarf an neuen Kraftwerkskapazitäten zu finanzieren, ist ein sogenannter Kapazitätsmechanismus nötig. Dies soll laut dem Bericht eine technologieneutrale Finanzierungsmethode sein.

Dazu kursierte Anfang August das Gerücht einer neuen Stromsteuer. Das Wirtschaftsministerium hat dies allerdings nicht bestätigt. Stattdessen gebe es bei den „Möglichkeiten der Finanzierung“ noch „keine Festlegungen“. Auch der aktuelle Bericht zur Versorgungssicherheit bestätigt, dass der Kapazitätsmechanismus „zurzeit von der Bundesregierung erarbeitet“ wird.

Bis ausreichend Reservekraftwerke errichtet sind, bleibt die Versorgungssicherheit im deutschen Stromnetz ein Fragezeichen. Verzögerungen beim Ausbau der „Erneuerbaren“ würden laut der Energiebehörde die Versorgungssicherheit beeinflussen. Je mehr Strom aus Erneuerbaren erzeugt wird, desto wichtiger aber auch und rentabler werden Speicher und Nachfrageflexibilitäten.

Das Monitoring bestätigt, dass die zu transportierenden Energiemengen in den kommenden Jahren weiter ansteigen. Um diesen Veränderungen gerecht zu werden, bedarf es eines weiteren raschen Netzausbaus. Die Ergebnisse zeigen auch, dass Redispatchmaßnahmen in den kommenden Jahren notwendig bleiben. Diese haben in den vergangenen Jahren immer wieder neue Rekordwerte erreicht. Auch für 2025 wird ein neuer erwartet.

Der Beitrag erschien zuerst bei EPOCH Times hier

 

top-article-image

Laut Bundesnetzagentur sollen Gaskraftwerke in Deutschland künftig die Versorgungssicherheit garantieren.

Foto: Ruediger Fessel/iStock, Canva, Collage: Epoch Times

author-image

Maurice Forgeng

13. September 2025

Lesedauer: 14 Min.

In Kürze:

  • Die Bundesnetzagentur veröffentlichte Anfang September den Bericht zur Versorgungssicherheit.
  • Die binnen zehn Jahren erforderlichen bis zu 35,5 Gigawatt Reservekapazität entsprechen einem neuen Gaskraftwerk pro Monat.
  • Ein Solarverband kritisiert, dass Potenziale von Batterieparks nicht ausreichend erwähnt wurden, und fordert die Überarbeitung des Berichts.
  • Der aktuelle Systemstabilitätsbericht der Übertragungsnetzbetreiber zeigt seinerseits, wie viele Aspekte im Stromnetz „nicht ausgereift“ sind.
  • Erneut wird ein Kapazitätsmechanismus genannt, der bereits mit einer neuen Stromsteuer in Verbindung gebracht wurde.

 

Wie stabil ist das deutsche Stromnetz im Rahmen der Energiewende?

Dieser Frage hat sich die Bundesnetzagentur mit dem Bericht zu Stand und Entwicklung der Versorgungssicherheit im Bereich der Versorgung mit Elektrizität gewidmet. Im Juni 2025 erschien dazu auch der Systemstabilitätsbericht der deutschen Übertragungsnetzbetreiber TenneT, 50 Hertz, Ampiron und TransnetBW.

MEHR DAZU

Stromversorgung „sehr zuverlässig“? – Mr. Blackout: „Instabilstes Netz seit 50 Jahren“

Stromversorgung „sehr zuverlässig“? - Mr. Blackout: „Instabilstes Netz seit 50 Jahren“

Riesige neue Kraftwerkskapazitäten benötigt

Das am 3. September 2025 erschienene Monitoring der Bundesnetzagenturanalysiert die Entwicklung im Stromsystem bis zum Jahr 2035. Klaus Müller, Präsident der Bundesnetzagentur, teilte zusammenfassend dazu mit:

„Die Stromversorgung ist auch in Zukunft sicher, wenn zusätzliche steuerbare Kapazitäten errichtet werden.“

Damit teilte der Bundesnetzagentur-Chef klar mit, dass das deutsche Stromsystem dringend mehr grundlastfähige Kraftwerke benötigt. Diese müssen auch dann Strom liefern können, wenn die Windkraft und Photovoltaik aufgrund schlechter Wetterbedingungen zu wenig Strom bereitstellen. Da die aktuelle Regierung am Atomausstieg festhält und die Kohlekraftwerke ebenfalls bis spätestens 2038 vom Netz gehen sollen, bleibt nur die Verstromung von Erdgas.

Konkret müssen laut der Energiebehörde bis 2035 zusätzliche Reservekraftwerke mit bis zu 22,4 Gigawatt (GW) elektrischer Leistung entstanden sein, sofern das Zielszenario eintritt. In diesem werde Deutschland künftig alle energiewirtschaftlichen und energiepolitischen Ziele erreichen.

Ein Bild, das Text, Screenshot, Diagramm, Reihe enthält. KI-generierte Inhalte können fehlerhaft sein.

Ausbauziele der installierten Leistung von hauptsächlich Wind- und Photovoltaikanlagen in Deutschland (interpoliert).

Foto: FfE, Bundesnetzagentur

Neben dem starken Ausbau von Wind und Solar beinhalten diese „hohe Flexibilitätspotentiale bei neuen Verbrauchern“ ebenso wie Wärmepumpen, Stromspeicher, Elektroautos oder Elektrolyseure. Die Bundesnetzagentur nennt zudem die Installation geeigneter Messsysteme. Für E-Autos ist in diesem Rahmen angedacht, dass sie ihren Strom dem Netz in Mangelzeiten teilweise zur Verfügung stellen. Auch die Industrie solle ihren Stromverbrauch flexibel anpassen, ihn also bei Strommangel herunterfahren.

MEHR DAZU

Bundesnetzagentur: Industrie soll sich jetzt an schwankende Stromerzeugung anpassen

Bundesnetzagentur: Industrie soll sich jetzt an schwankende Stromerzeugung anpassen

118 neue Gaskraftwerke – trotz 500 GW „Erneuerbare“

Falls die Zubauziele verfehlt werden und die Flexibilität zu gering ausfällt, hat die Bundesnetzagentur zusätzlich das Szenario „verzögerte Energiewende“ errechnet. Dabei wären steuerbare Kapazitäten von bis zu 35,5 GW nötig. Da ein einfaches Gasturbinenkraftwerk im Schnitt rund 300 Megawatt (MW) an Leistung bringen kann, wären dafür 118 Gaskraftwerke nötig. Selbst beim Zielszenario wären noch 75 solcher Kraftwerke nötig.

Beachtenswert ist zudem, dass die Ausbauziele in Deutschland im Jahr 2035 mehr als 500 GW an installierter Leistung durch „erneuerbare“ Energien vorsehen. Trotz der erheblichen Überkapazität der Erneuerbaren fordert die Energiebehörde damit, dass neue Grundlastkraftwerke ein Drittel bis über die Hälfte des jetzigen Strombedarfs decken können müssen.

Bereits berücksichtigt hat die Energiebehörde in ihrer Rechnung geplante Stilllegungen bestehender Kraftwerke. Würde keines der bestehenden Kraftwerke stillgelegt werden, wären im Zielszenario noch 42 und bei der „verzögerten Energiewende“ 85 der genannten Gaskraftwerke nötig.

Zugleich gibt die Behörde für das Jahr 2035 einen Jahresstromverbrauch von 941 Terawattstunden an, also fast das Doppelte wie aktuell.

MEHR DAZU

Rauf oder runter? Rätsel um Entwicklung des deutschen Strombedarfs

Rauf oder runter? Rätsel um Entwicklung des deutschen Strombedarfs

Ereignet sich dann eine Dunkelfraute, also das Fehlen von Wind und Sonnen, wie vom 11. bis 14. Dezember 2024 wäre laut der Simulation des Portals „Energy Charts“die Zusatzstromerzeugung bei Weitem nicht ausreichend. Auch bei Erreichen der Ausbauziele wären in diesem Fall bis über 116 GW steuerbare Kapazität nötig.

 

Ein Bild, das Text, Screenshot enthält. KI-generierte Inhalte können fehlerhaft sein.

Simulierte Stromerzeugung für Deutschland mit den geplanten Windkraft- und Solarwerten und der von der Behörde geschätzte Jahresstromverbrauch von 941 Terawattstunden. Als Relevanz dienen die Wind- und Solarwerte von Kalenderwoche 50 aus dem Jahr 2024.

Foto: Bildschirmfoto/energy-charts.info/Fraunhofer ISE

Verzögerte Energiewende wahrscheinlicher?

Wahrscheinlicher dürfte jedoch das Eintreten des Szenarios „verzögerte Energiewende“ sein. Wie Bundeswirtschaftsministerin Katherina Reiche (CDU) bereits angekündigt hat, will sie Betreiber von Windkraft- und Solaranlagen künftig mehr zur Verantwortung ziehen, indem sie sich beispielsweise an den Netzausbaukosten beteiligen sollen. Das könnte die Attraktivität dieser „erneuerbaren“ Kraftwerke spürbar reduzieren und den bisweilen gut laufenden Ausbau abbremsen.

Zudem soll in Kürze das Ergebnis der Prüfung der deutschen Energiewende folgen. Wie Reiche bereits andeutete, müsse sich der Zubau der „Erneuerbaren“ am Netz orientieren und nicht umgekehrt. Das lässt vermuten, dass die Regierung den Fokus bald weniger auf den Zubau der Erneuerbaren und mehr auf den Netzausbau legt, um die Versorgungssicherheit zu erhöhen.

Die Versorgungssicherheit ist im Zielszenario laut Bundesnetzagentur nur dann gewährleistet, wenn etwa der Netzausbau wie geplant verwirklicht wird. Wie der Bundesrechnungshof im vergangenen Jahr festgestellt hat, liegt dieser rund sieben Jahre im Rückstand.

MEHR DAZU

Nicht mehr zeitgemäß? Ministerin Reiche denkt über Ende der Solarförderung nach

Nicht mehr zeitgemäß? Ministerin Reiche denkt über Ende der Solarförderung nach

Keine Windräder auf der Schwend: Anwohner stimmen gegen neuen Windpark

Keine Windräder auf der Schwend: Anwohner stimmen gegen neuen Windpark

Umsetzung der Reserve fragwürdig

Diese neue Kraftwerkskapazität müsste innerhalb der kommenden zehn Jahre betriebsbereit sein. Gemessen an der reinen Bauzeit wäre dies ein mehr als realistischer Rahmen. Der Bau des Gaskraftwerks Leipheim mit 300 MW hat knapp 24 Monate beansprucht. Allerdings müssen im Vorfeld Kraftwerksstandorte festgelegt und genehmigt werden, was zusätzlich Zeit benötigt.

Um bis 2035 besagte 118 Gaskraftwerke zur Verfügung zu haben, müsste jeden Monat ein solches Kraftwerk fertiggestellt werden. Um eine mehrtägige Dunkelflaute zu überbrücken, sind 387 Gaskraftwerke nötig und es müssten – parallel zum Ausbau der Erneuerbaren – mindestens drei Gaskraftwerke pro Monat entstehen.

Dass eine politische Ankündigung nicht zu einer schnellen Umsetzung führt, zeigte bereits die Forderung des früheren Wirtschaftsministers Robert Habeck (Grüne). Bereits vor zwei Jahren sprach er davon, umgehend 8,8 GW an neuen Kraftwerken, möglichst wasserstofffähige Gaskraftwerke, auszuschreiben. Dem folgte bis heute kein Realisierungsansatz. Die aktuelle Bundeswirtschaftsministerin Katherina Reiche (CDU) spricht von Ausschreibungen von „mindestens 20 Gigawatt Gaskraftwerken“.

Ein Bild, das Text, Screenshot, Zahl, Schrift enthält. KI-generierte Inhalte können fehlerhaft sein.

Ausgangsbestand der steuerbaren Kraftwerke und Speicher in Deutschland am 01.02.2024.

Foto: FfE, Bundesnetzagentur

Systemstabilitätsbericht zeigt massive Sicherheitslücken

Mit dem Systemstabilitätsbericht 2025 wollten die deutschen Übertragungsnetzbetreiber den aktuellen Stand der einzelnen Stabilitätsaspekte unserer Stromnetze darstellen. Das soll die eingangs gestellte Frage ebenso beantworten.

Ein Bild, das Text, Screenshot, Schrift, Zahl enthält. KI-generierte Inhalte können fehlerhaft sein.

Entwicklungsstand der Bedarfsermittlung der einzelnen Stabilitätsaspekte.

Foto: Bundesnetzagentur, Systemstabilitätsbericht 2025

Die beiden Aspekte Frequenz- und Spannungsstabilität schneiden bei der Untersuchung noch am besten ab. Die Netzfrequenz liegt im europäischen Verbundnetz bei 50 Hertz. Diesen Wert müssen die Netzbetreiber möglichst konstant halten. Dazu muss die Stromerzeugung jederzeit genauso groß sein wie der Stromverbrauch. Die Spannungsstabilität beschreibt das Aufrechterhalten der Netzspannung.

Sowohl Frequenz- als auch Spannungsstabilität können die Übertragungsnetzbetreiber ermitteln und den Systembedarf definieren. Ebenso können sie bei Abweichungen Gegenmaßnahmen entwickeln, um diese stabil zu halten. Allerdings ist bei beiden Aspekten der Systembedarf noch nicht gedeckt. Sprich, TenneT und Co. können im Netz nicht die benötigten Strommengen halten, um das Netz stabil zu halten.

Das liegt unter anderem an der zunehmend fehlenden Momentanreserve, also mechanisch rotierende Schwungmassen von Turbinen in Großkraftwerken. Sie stabilisieren das Netz, da sie Spannungs- und Frequenzstörungen kompensieren können. Photovoltaik- und Windkraftanlagen können dies nicht. Sie speisen elektronisch über Wechselrichter ihren Strom in die Netze ein und sind vielmehr auf ein stabiles Netz angewiesen. Je mehr Wechselrichter und je weniger Momentanreserve, desto instabiler die Netze. Das führte im April letztlich zum Stromausfall auf der iberischen Halbinsel.

MEHR DAZU

Überspannung führte zu Spainout – was führte zur Überspannung?

Überspannung führte zu Spainout - was führte zur Überspannung?

Energiewende am Limit? Stromeinspeisung durch „Erneuerbare“ im ersten Halbjahr gefallen

Energiewende am Limit? Stromeinspeisung durch „Erneuerbare“ im ersten Halbjahr gefallen

Noch „nicht ausgereift“

Deutlich kritischer sieht es bei der sogenannten „Transienten Stabilität“ aus, also wie sich das Netz bei Schwankungen verhält. Hier ist noch kein Bereich ausgereift. Die Methodik zur Ermittlung befindet sich noch „in Entwicklung“, die übrigen Bereiche sind noch „nicht ausgereift“. Auch hier spricht der Bericht von den rotierenden Massen:

„Die Analyse zeigt eine Verbesserung der Systemstabilität bei Erhöhung der Momentanereserve, wohingegen eine Reduktion der Momentanereserve zu einer Verschlechterung führt.“

Die Bilanz der allgemeinen „Netzstärke“ gleicht der „Transienten Stabilität“. So steht im Systemstabilitätsbericht: „Netzfolgende Stromrichter [Wechselrichter von Wind und Solar] tragen unter konservativen Annahmen hingegen nicht zur Netzstärke bei.“ Das bedeutet: Je mehr einspeisende Wechselrichter am Netz sind, umso instabiler wird das System.

Der letzte Aspekt, die „Harmonische Stabilität“, schneidet von allen Aspekten am schlechtesten ab. Hier ist jeder Bereich bisher „nicht ausgereift“. Die „Harmonische Stabilität“ beschreibt, wie gut es Wechselrichtern gelingt, „keine unzulässigen Schwingungen auszubilden“. Wechselrichter erzeugen solche Schwingungen. Das bedeutet, wenn ein Wechselrichter eine Oberschwingung aussendet, darf ein andere diese nicht auffangen und verstärken. Ein Netz mit viel Momentanreserve kann Oberschwingungen gut abfangen.

In Spanien haben diese Schwingungen zu einer erhöhten Netzspannungen geführt, was wiederum den Blackout auslöste.

MEHR DAZU

Deutschland ist wieder Strompreis-Europameister

Deutschland ist wieder Strompreis-Europameister

Solarwirtschaft kritisiert Speicherlücke im Bericht

Der Bundesverband Solarwirtschaft (BSW-Solar) begrüßt, dass der neue Bericht zur Versorgungssicherheit den Ausbau der „Erneuerbaren“ betont. Gleichzeitig kritisiert der Verband die mangelnde Erwähnung der Potenziale von Batteriespeichern für die Versorgungssicherheit.

Zwar schrieb die Bundesnetzagentur unter anderem: „Speicher werden eine immer wichtigere Funktion einnehmen. Schon heute können sich besonders Batteriespeicher im Strommarkt refinanzieren, wie die aktuelle Ausbaudynamik beweist. In bestimmten Marktsituationen können Speicher den Bedarf an zusätzlichen Kraftwerkskapazitäten reduzieren.“

MEHR DAZU

Zu viel Wind- und Solarstrom? Drosselungen erreichen neuen Rekordwert

Zu viel Wind- und Solarstrom? Drosselungen erreichen neuen Rekordwert

Diese drei Stromerzeuger können eine weltweite Energiekrise verhindern

Diese drei Stromerzeuger können eine weltweite Energiekrise verhindern

Dennoch forderte BSW-Solar die Überarbeitung des Berichts. Laut dem Verband habe die Bundesnetzagentur die Potenziale von Batteriegroßspeichern unzureichend abgebildet. Damit sei eine zentrale Realität der Energiewende ausgeblendet.

Dazu erklärte Carsten Körnig, Hauptgeschäftsführer des Bundesverbandes Solarwirtschaft: „Während Netzbetreiber bereits heute Zusagen für viele Gigawatt[stunden] an Speicherkapazitäten erteilt haben und bundesweit Anschlussanfragen in dreistelliger Gigawatt-Höhe vorliegen, bleibt der Bericht bei den Zahlen von gestern stehen und geht sogar realitätsfern von einem Rückbau stationärer Batteriespeicher aus.“ Körnig warf der Energiebehörde eine systematische Unterschlagung der Großspeicher vor.

Hierbei ist jedoch zu beachten, dass Batteriespeicher selbst keinen Strom erzeugen können. Sie speichern diesen nur zwischen. Daher können sie Kraftwerke nicht ersetzen.

Aktuell liegt die installierte Kapazität aller deutschen Batteriespeicher bei 20,7 Gigawattstunden (GWh), die der netzdienlichen Großspeicher bei nur knapp 3 GWh. Es besteht ein akuter Anschlussstau, sodass viele, die einen Batteriepark errichten wollen, teilweise zehn Jahre und länger warten müssen. Das liegt wiederum an der mangelnden Netzinfrastruktur.

MEHR DAZU

Philippsburg: Kernkraftwerk weicht Megabatteriepark – Verein: „Ein Rückschritt“

Philippsburg: Kernkraftwerk weicht Megabatteriepark - Verein: „Ein Rückschritt“

Boom der Batterieparks – eingebremst durch Anschlussstau

Boom der Batterieparks - eingebremst durch Anschlussstau

Kommt ein Kapazitätsmechanismus?

Im Bericht der Bundesnetzagentur sagte Müller: „Unser Monitoring unterstreicht die Bedeutung der von der Bundesregierung geplanten Kraftwerksstrategie. Die weiteren notwendigen Kapazitäten sollten über einen Kapazitätsmechanismus bereitgestellt werden. Außerdem ist es wichtig, dass immer mehr Stromverbraucher flexibel auf Strompreise reagieren.“

Das bedeutet: Um den zusätzlichen Bedarf an neuen Kraftwerkskapazitäten zu finanzieren, ist ein sogenannter Kapazitätsmechanismus nötig. Dies soll laut dem Bericht eine technologieneutrale Finanzierungsmethode sein.

Dazu kursierte Anfang August das Gerücht einer neuen Stromsteuer. Das Wirtschaftsministerium hat dies allerdings nicht bestätigt. Stattdessen gebe es bei den „Möglichkeiten der Finanzierung“ noch „keine Festlegungen“. Auch der aktuelle Bericht zur Versorgungssicherheit bestätigt, dass der Kapazitätsmechanismus „zurzeit von der Bundesregierung erarbeitet“ wird.

MEHR DAZU

Wirbel um neue Steuer für alle Stromkunden: Wirtschaftsministerium verweist auf Prüfstatus

Wirbel um neue Steuer für alle Stromkunden: Wirtschaftsministerium verweist auf Prüfstatus

Blackout-Angst: Deutliche Mehrheit sieht Stromausfall als größtes Infrastrukturrisiko

Blackout-Angst: Deutliche Mehrheit sieht Stromausfall als größtes Infrastrukturrisiko

Bis ausreichend Reservekraftwerke errichtet sind, bleibt die Versorgungssicherheit im deutschen Stromnetz ein Fragezeichen. Verzögerungen beim Ausbau der „Erneuerbaren“ würden laut der Energiebehörde die Versorgungssicherheit beeinflussen. Je mehr Strom aus Erneuerbaren erzeugt wird, desto wichtiger aber auch und rentabler werden Speicher und Nachfrageflexibilitäten.

Das Monitoring bestätigt, dass die zu transportierenden Energiemengen in den kommenden Jahren weiter ansteigen. Um diesen Veränderungen gerecht zu werden, bedarf es eines weiteren raschen Netzausbaus. Die Ergebnisse zeigen auch, dass Redispatchmaßnahmen in den kommenden Jahren notwendig bleiben. Diese haben in den vergangenen Jahren immer wieder neue Rekordwerte erreicht. Auch für 2025 wird ein neuer erwartet.

Dieser Artikel hat mich besonders interessiert!

Stellen Sie eine Frage zum Artikel

Maurice Forgeng

Maurice Forgeng

Der Beitrag erschien zuerst bei EPOCH Times hier

 




Nehmen Waldbrände wirklich zu?

Laut Harald Lesch droht die „Mega-Katastrophe“, auch bei uns in Deutschland. Denn Waldbrände würden immer mehr, immer schlimmer, immer heftiger, so das gängige Bild in deutschen Leitmedien. Und Tatsache: Spanien erlebte 2025 eine außergewöhnlich heftige Waldbrandsaison. Ist das wirklich der Klimawandel, der sich da zeigt, wie in vielen Medien behauptet?

von Marco Pino Tronberend

Auch andernorts kam es in den vergangenen Jahren zu starken Waldbränden. Doch ob Kalifornien, Australien oder bei uns in Europa – überall gilt: Die Schwankungen bei Waldbränden sind enorm, zwischen waldbrandschwachen und waldbrandstarken Jahren liegt ein Vielfaches. Diesen Umstand nutzen Leitmedien aus, das Prinzip dabei: Selektive Berichterstattung. Das Rekordjahr in Kalifornien wird zur Megastory im Spiegel, das rekordschwache Jahr hingegen ist nicht mal eine Randnotiz wert.

Mit diesen und anderen Methoden entsteht medial das Bild sich stetig verschlimmernder Zustände. Ein Blick auf Zahlen, Daten und Fakten hingegen führt zu ganz anderen Eindrücken, umso mehr, wenn dabei größere, also klimarelevante Zeiträume betrachtet werden. In dieser Folge nehmen wir das Thema Waldbrände genauer unter die Lupe – und werden sehen, wie viel am Ende von der klimabedingten „Mega-Katastrophe“ des Herrn Lesch übrig bleibt…

Marco Pino’s Adlerauge Folge 2: Nehmen Waldbrände wirklich zu?

unter diesem Link: https://youtu.be/RIoDP4VG9AI




Der Matthäus-Effekt, Monokulturen und die natürliche Auslese schlechter Wissenschaft

John Ridgway

Jeder Politiker, der vor der Herausforderung steht, die Öffentlichkeit vor einer natürlichen Bedrohung wie einer Pandemie oder dem Klimawandel zu schützen, wird gerne betonen, wie sehr er sich „an die Wissenschaft hält“ – womit er meint, dass er sich von der vorherrschenden wissenschaftlichen Meinung des Tages leiten lässt. Wir würden uns wünschen, dass dies der Fall ist, weil wir der wissenschaftlichen Methode als einem selektiven Prozess vertrauen, der sicherstellt, dass schlechte Wissenschaft nicht lange überleben kann. Das ist keine Realität, die ich hier ignorieren möchte, aber ich möchte sie auf jeden Fall in den richtigen Kontext stellen. Das Problem ist, dass die wissenschaftliche Methode nicht das einzige Auswahlkriterium ist, und wenn man alle anderen berücksichtigt, ergibt sich ein viel undurchsichtigeres Bild – sicherlich keines, das klar genug ist, um ein vorherrschendes Narrativ auf einen erkenntnistheoretischen Sockel zu stellen.

Rückkopplung ist alles

Von allen Auswahlkriterien, die innerhalb einer wissenschaftlichen Gemeinschaft gelten, ist das vielleicht grundlegendste nicht die Begutachtung wissenschaftlicher Arbeiten durch Fachkollegen, sondern eines, das sich wie folgt zusammenfassen lässt:

„Denn wer hat, dem wird gegeben, und er wird im Überfluss haben; wer aber nicht hat, dem wird auch noch genommen, was er hat.“ (Matthäus 25:29, RSV).

Dies ist der sogenannte Matthäus-Effekt [1], auch bekannt als „kumulativer Vorteil“. Es handelt sich um eine positive Rückkopplung, die dazu dient, Ruhm und Einfluss in die Hände einiger weniger Auserwählter zu legen. Dies gilt im Allgemeinen für das Leben, aber auch speziell für die Wissenschaft. Beispielsweise werden Arbeiten, die bereits eine beträchtliche Anzahl von Zitaten erhalten haben, tendenziell noch öfter zitiert werden, schon allein deshalb, weil eine derzeit große Anzahl von Zitaten die Wahrscheinlichkeit weiterer Verweise erhöht, die sich aus einer zufälligen Auswahl aus bestehenden Zitierlisten ergeben. Dieses bibliometrische Phänomen, bei dem Erfolg weiteren Erfolg nach sich zieht, wurde erstmals vom Physiker Derek de Solla Price untersucht, der dessen im Wesentlichen stochastische Eigenschaften hervorhob:

„Es zeigt sich, dass ein solches stochastisches Gesetz durch die Beta-Funktion bestimmt wird, die nur einen freien Parameter enthält, und dies wird durch eine schiefe oder hyperbolische Verteilung approximiert, wie sie in der Bibliometrie und verschiedenen sozialwissenschaftlichen Phänomenen weit verbreitet ist.“ [2]

In der Praxis wird die Auswahl jedoch alles andere als zufällig sein, da Faktoren wie Einfluss und Prestige ebenfalls die Wahrscheinlichkeit bestimmen, mit der die Arbeit einer Person zitiert wird. So oder so, der bekanntere Wissenschaftler wird noch erfolgreicher werden.

Der Matthäus-Effekt hat auch Einfluss auf die Chancen, dass ein Artikel überhaupt veröffentlicht wird. Wenn ein Herausgeber oder Gutachter mit der Qualität der bisherigen Veröffentlichungen eines Autors vertraut ist, fällt es ihm leichter, den latenten Wert eines eingereichten Artikels zu beurteilen, was die Chancen des Autors erhöht, seine Publikationsliste zu erweitern. Ein weniger bekannter Autor hat diesen Vorteil nicht. Dies führt zu einer positiven Rückkopplung, die zu einer Monokultur führen kann, welche auf den Arbeiten einer relativ kleinen Anzahl dominanter Autoren basiert. Auch hier kann der Matthäus-Effekt rein statistischer Natur sein und erfordert keine besonderen Vorurteile oder Voreingenommenheit. Die Wissenschaftsphilosophen Remco Heesen und Jan-Willem Romeijn, die diesen Effekt untersucht haben, drücken es so aus:

Dieser Artikel befasst sich mit Vorurteilen, die nicht auf den Vorurteilen von Herausgebern oder Gutachtern beruhen, sondern vielmehr auf den statistischen Merkmalen der redaktionellen Entscheidungsfindung… Selbst wenn es Herausgebern gelingt, ihre Entscheidungsprozesse von unbewussten Vorurteilen zu befreien, bleiben ihnen dennoch Vorurteile rein statistischer Natur. Die statistischen Vorurteile tragen zur bereits bestehenden Tendenz hin zu einer Monokultur in der Wissenschaft bei: einem rein statistischen Matthäus-Effekt. [3]

Es gibt tatsächlich eine Reihe von Möglichkeiten, wie sich Monokulturen entwickeln können, wobei jede davon mit dem Matthäus-Effekt einhergeht. Ein Beispiel dafür ist die Rückkopplung, bei der Finanzierung zu Erfolg führt, was wiederum zu mehr Finanzierung führt. Auch die Forschungsinteressen eines hochrangigen Fakultätsmitglieds beeinflussen die Einstellungspolitik und verstärken damit das Interesse der Fakultät an diesen Forschungsbereichen [4]. Nehmen wir zum Beispiel die wissenschaftliche Monokultur, die sich innerhalb der Grundlagenphysik schnell entwickelt hat. Der Physiker Lee Smolin erklärte dies bereits 2006:

„Die aggressive Förderung der Stringtheorie hat dazu geführt, dass sie zum wichtigsten Ansatzpunkt für die Erforschung der großen Fragen der Physik geworden ist. Fast alle Teilchenphysiker mit einer Festanstellung am renommierten Institute for Advanced Study, einschließlich seines Direktors, sind Stringtheoretiker; die einzige Ausnahme ist eine Person, die vor Jahrzehnten eingestellt worden ist.“ [5]

Diese Dominanz ist nicht das Ergebnis der wissenschaftlichen Methode, da das entscheidende Element auffällig fehlt, mit welchem Theorien experimentell überprüft werden. Es handelt sich nicht um eine Theorie, die ihre Konkurrenten verdrängt hat, indem sie sich als besser überprüfbar erwiesen hat oder eine bessere experimentelle Verifizierbarkeit aufweist. Ihre anfängliche Anziehungskraft beruhte auf einigen frühen und recht spektakulären theoretischen Erfolgen, aber seitdem ist die Stringtheorie in einer Reihe von obskuren und völlig unüberprüfbaren mathematischen Vermutungen versunken, die nicht einmal als Theorie im üblichen Sinne gelten können. Im Gegenteil, die letztendliche Dominanz der Stringtheorie scheint das Ergebnis positiver Rückkopplungen zu sein, bei denen akademischer Erfolg weitaus wichtiger wurde als wissenschaftliche Leistungen. Lee Smolin schreibt dazu:

„Auch wenn die Stringtheorie auf wissenschaftlicher Seite zu kämpfen hat, hat sie innerhalb der akademischen Welt triumphiert.“

Der Aufstieg der Stringtheorie zur Dominanz ist ein klassisches Beispiel dafür, was der Matthäus-Effekt bewirken kann, wenn die wissenschaftliche Methode kompromittiert wird. Als solches ist sie eine warnende Geschichte für jeden wissenschaftlichen Bereich, in dem Theoriebildung und Modellierung letztendlich die Möglichkeiten der experimentellen Bestätigung übersteigen.

Ein weiteres Problem von Monokulturen besteht darin, dass sie zu einer potenziell unzuverlässigen Darstellung führen können, die als gesellschaftlicher Leuchtturm für normatives Denken fungiert. Je stärker diese Darstellung wird und je mehr sich gesellschaftliche Einstellungen verfestigen, desto größer wird auch die Macht, innerhalb der wissenschaftlichen Gemeinschaft ein höheres Maß an Übereinstimmung zu erzwingen. Der Konsens wird zu einer sich selbst verstärkenden sozialen Dynamik, im Guten wie im Schlechten. Dies ist ein Beispiel für eine Klasse von Phänomenen, die von den Organisationswissenschaftlern Jörg Sydow und Georg Schreyögg untersucht worden sind:

„In den meisten Fällen sind Organisationen und auch organisationsübergreifende Netzwerke, Märkte oder Bereiche durch eine Dynamik gekennzeichnet, die weitgehend außerhalb der Kontrolle der Akteure zu liegen scheint… Unter dieser meist verborgenen und sich herausbildenden Dynamik scheinen sich selbst verstärkende Prozesse von besonderer Bedeutung zu sein; sie entfalten ihre eigene Dynamik und verwandeln einen möglicherweise positiven Kreislauf in einen negativen (Masuch, 1985).“ [6]

Natürlich muss niemand, der in eine solche Dynamik geraten ist, von einer Täuschung ausgehen. Allerdings sind Politik und Manipulation der Menschheit nicht fremd, sodass Voreingenommenheit und Betrug weiterhin optionale Extras bleiben. Insbesondere muss man befürchten, dass das Wachstum der KI die Wahrscheinlichkeit der Entwicklung problematischer Monokulturen erhöht. David Comerford, Professor für Wirtschaft und Verhaltenswissenschaften an der Universität Stirling, betont:

„Noch vor wenigen Jahren dauerte es Monate, um eine einzige wissenschaftliche Arbeit zu verfassen. Heute kann eine einzelne Person mithilfe von KI innerhalb weniger Stunden mehrere wissenschaftliche Arbeiten erstellen, die gültig erscheinen.“ [7]

Da es sich beim Matthäus-Effekt um ein Zahlenspiel handelt, muss alles, was wissenschaftliche Arbeiten im industriellen Maßstab generieren kann, Anlass zur Sorge geben. Und es gibt Hinweise darauf, dass solche Artikel zunehmend von Ghostwritern im Auftrag von Unternehmen verfasst werden – sogenanntes „Resmearch“. David Comerford erklärt:

„Während die überwiegende Mehrheit der Forscher motiviert ist, die Wahrheit aufzudecken und ihre Ergebnisse gründlich zu überprüfen, geht es bei Resmearch nicht um die Wahrheit – es geht nur darum zu überzeugen.“

Und das noch bevor man die Möglichkeit in Betracht zieht, dass Einzelpersonen KI nutzen könnten, um ihre Produktivität zu steigern und so den Matthäus-Effekt zu ihren Gunsten auszunutzen. So oder so hat KI die Kosten für die Erstellung solcher Arbeiten auf praktisch null reduziert und damit den Druck auf die wissenschaftliche Methode erhöht, dem Entstehen potenziell unzuverlässiger Monokulturen entgegenzuwirken.

Die natürliche Auslese schlechter Wissenschaft

Monokulturen sind zwar zu vermeiden, aber sie basieren in der Regel nicht auf schlechter Wissenschaft. Tatsächlich gibt es in der Wissenschaft immer eine leitende Hand, die dies verhindern soll. Die Arbeit wird routinemäßig von Fachkollegen auf ihre Qualität und ihren Wert hin bewertet, und eine solche Überprüfung sollte der guten Wissenschaft zugute kommen. Nur scheinen die Beweise darauf hinzudeuten, dass schlechte Wissenschaft trotz dieser Überprüfung immer noch gedeihen kann. Es gibt noch eine weitere Auswahlinstanz, die jedoch keineswegs als korrigierende Kraft wirkt, schlechte Arbeiten herausfiltert und sowohl rein statistische als auch durch Voreingenommenheit bedingte positive Rückmeldungen entfernt, sondern vielmehr schlechte Wissenschaft fördern kann. Die Erklärung für diesen problematischen Effekt wurde von Paul E. Smaldino und Richard McElreath geliefert. Die Einleitung ihrer Zusammenfassung gibt einen Überblick über die Situation:

„Ein schlechtes Forschungsdesign und eine mangelhafte Datenanalyse begünstigen falsch-positive Ergebnisse. Trotz ständiger Forderungen nach Verbesserungen werden solche mangelhaften Methoden weiterhin angewendet, was darauf hindeutet, dass sie nicht nur auf Missverständnissen beruhen. Die Beibehaltung mangelhafter Methoden ist zum Teil auf Anreize zurückzuführen, die diese begünstigen und zu einer natürlichen Selektion schlechter Wissenschaft führen. Diese Dynamik erfordert keine bewusste Strategie – kein absichtliches Betrügen oder Faulenzen – seitens der Wissenschaftler, sondern lediglich, dass Veröffentlichungen ein wesentlicher Faktor für den beruflichen Aufstieg sind.“ [8]

Das hier angesprochene mangelhafte Forschungsdesign und die unzureichenden Datenanalysen beziehen sich auf den Missbrauch von p-Werten und Variationen zum Thema Datenmanipulation, die in den Verhaltenswissenschaften seit vielen Jahren weit verbreitet sind. Das Problem entsteht dadurch, dass Veröffentlichungen die wichtigste Form der Belohnung darstellen, für Veröffentlichungen jedoch positive Ergebnisse erforderlich sind, was wiederum Verfahren fördert, die zu falsch positiven Ergebnissen führen. Richard Horton, Herausgeber von The Lancet, weist auf die Notwendigkeit geeigneter Anreize hin:

„Ein Teil des Problems besteht darin, dass niemand einen Anreiz hat, richtig zu liegen. Stattdessen werden Wissenschaftler dazu angeregt, produktiv und innovativ zu sein.“ [9]

Smaldino und McElreath betonen, dass keine Strategie erforderlich ist:

„In diesem Artikel wird argumentiert, dass einige der stärksten Anreize in der heutigen Wissenschaft schlechte Forschungsmethoden und den Missbrauch statistischer Verfahren aktiv fördern, belohnen und verbreiten. Wir bezeichnen diesen Prozess als natürliche Selektion schlechter Wissenschaft, um darauf hinzuweisen, dass er weder bewusste Strategien noch Betrug seitens der Forscher erfordert. Stattdessen entsteht er aus der positiven Auswahl von Methoden und Gewohnheiten, die zu Veröffentlichungen führen.“

Sie weisen weiterhin auf die offensichtliche Tatsache hin, dass „Methoden, die mit größerem Erfolg in der akademischen Laufbahn verbunden sind, sich bei sonst gleichen Bedingungen tendenziell verbreiten“. Man möchte gerne glauben, dass sich nur die guten Verfahren verbreiten, aber das ist eindeutig nicht der Fall. Es verbreiten sich diejenigen, die am stärksten mit beruflichem Erfolg verbunden sind, und dazu gehört leider eine Reihe von Kriterien, die nur teilweise mit der Qualität der Arbeit korrelieren. In diesem Fall gilt: Je geringer die statistische Aussagekraft der Daten, desto größer die Chancen auf eine Veröffentlichung – und eine Veröffentlichung scheint jeder zu wollen.

Glücklicherweise ist dies kein Problem, bei dem die wissenschaftliche Methode tatenlos zusieht. Replikation und Reproduzierbarkeit sind ihre Eckpfeiler, und infolgedessen hat sich das Fehlverhalten in der berüchtigten „Reproduzierbarkeitskrise“ innerhalb der Wissenschaft manifestiert. Die Meinungen darüber, wie ernst das Problem ist, gehen auseinander; einige behaupten, die Krise sei existenziell, während andere das Problem für etwas übertrieben halten. Niemand behauptet jedoch, dass das Problem leicht zu beheben sei, was nicht verwunderlich ist, da es seine Wurzeln in den Belohnungsstrukturen hat, welche die akademische Welt stützen [10].

Wohin führt uns das nun?

Die sozialen Strukturen und Belohnungsmechanismen innerhalb der Wissenschaft sind so beschaffen, dass sowohl gute als auch schlechte Wissenschaft von einer natürlichen Selektion profitieren kann, und für Laien kann es sehr schwierig sein zu erkennen, in welche Richtung die Selektion bei der Schaffung eines vorherrschenden Narrativs gewirkt hat. Die Stärke des Konsens‘ zu kennen ist bei weitem nicht so wichtig wie das Verständnis der zugrunde liegenden Prozesse, und es wäre naiv anzunehmen, dass diese ausschließlich von der wissenschaftlichen Methode bestimmt werden. Hinzu kommen statistische Effekte, die die akademische Welt für die Entstehung potenziell schädlicher Monokulturen prädisponieren, was einen weiteren Grund darstellt, der Versuchung zu widerstehen, die vorherrschende Darstellung automatisch zu akzeptieren.

Es sollte jedoch beachtet werden, dass dies keine anti-wissenschaftliche Haltung ist. Gerade weil soziale Dynamik Ideen unabhängig von ihrer epistemologischen Gültigkeit festigen kann, ist die wissenschaftliche Methode so wichtig. Dennoch sollte eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes das Verständnis mit sich bringen, dass die wissenschaftliche Methode nicht hoffen kann, die Launen und Zufälligkeiten der Konsensbildung hundertprozentig zu beseitigen. Insbesondere kann sie nicht hoffen, die Auswirkungen des statistischen Matthäus-Effektes und dessen Neigung zur Schaffung von Monokulturen vollständig zu vermeiden. Eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes sollte daher auch das Verständnis beinhalten, dass es wirklich nicht notwendig ist, sich auf die Idee eines wissenschaftlichen Vorwands zu berufen. Es gibt keine Verschwörung, sondern nur Wissenschaftler, die ihre Arbeit tun.

Anmerkungen:

[1] Der Begriff wurde erstmals im Zusammenhang mit der Wissenschaftssoziologie von Robert K. Merton und Harriet Anne Zuckerman geprägt. Siehe Merton R.K. 1968 “The Matthew effect in science”, Science, New Series, Vol 159, No. 3810, pp. 56-63. https://repo.library.stonybrook.edu/xmlui/bitstream/handle/11401/8044/mertonscience1968.pdf?sequence=1&isAllowed=y.

[2] de Solla Price, Derek J. 1976, “A general theory of bibliometric and other cumulative advantage processes”, J. Amer. Soc. Inform. Sci., 27 (5): 292–306, https://doi.org/10.1002/asi.4630270505.

[3] Heesen R., Romeijn JW. 2019 “Epistemic Diversity and Editor Decisions: A Statistical Matthew Effect”, Philosophers’ Imprint, Vol. 19, No. 39, pp. 1-20. http://hdl.handle.net/2027/spo.3521354.0019.039.

[4] Tatsächlich hat der Respekt vor älteren Fakultätsmitgliedern einen großen Anteil daran, wenn es darum geht, einen Konsens zu erzielen. Siehe Perret C. and Powers S. T. 2022, “An investigation of the role of leadership in consensus decision-making”, Journal of Theoretical Biology, Vol 543, 111094, https://doi.org/10.1016/j.jtbi.2022.111094.

[5] Smolin L. 2006 “The Trouble With Physics”, page xx, ISBN 978-0-141-01835-5.

[6]  Sydow, J., Schreyögg, G. 2013 “Self-Reinforcing Processes in Organizations, Networks, and Fields — An Introduction”. In: Sydow, J., Schreyögg, G. (eds) Self-Reinforcing Processes in and among Organizations. Palgrave Macmillan, London. https://doi.org/10.1057/9780230392830_1.

[7] Comerford D. 2025 “We risk a deluge of AI-written ‘science’ pushing corporate interests – here’s what to do about it”. The Conversation. https://theconversation.com/we-risk-a-deluge-of-ai-written-science-pushing-corporate-interests-heres-what-to-do-about-it-264606.

[8] Smaldino P.E., McElreath R. 2016 “The natural selection of bad science”, R. Soc. Open Sci., 3: 160384, http://doi.org/10.1098/rsos.160384.

[9] Horton R. 2015 “Offline: What is medicine’s 5 sigma?”, The Lancet, Volume 385, Issue 9976 p1380. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(15)60696-1/fulltext.

[10] Leyser O., Kingsley D., Grange J. 2017, “Opinion: The science ‘reproducibility crisis’ – and what can be done about it”. University of Cambridge – Research News. https://www.cam.ac.uk/research/news/opinion-the-science-reproducibility-crisis-and-what-can-be-done-about-it.

Link: https://judithcurry.com/2025/09/08/the-matthew-effect-mono-cultures-and-the-natural-selection-of-bad-science/#more-32386

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie: Keine Beschleunigung des Meeresspiegel-Anstiegs

H. Sterling Burnett

Eine neue Studie niederländischer Forscher findet keine Hinweise auf eine globale Beschleunigung des Meeresspiegelanstiegs aufgrund des Klimawandels. Die Autoren sagen, dass ihr Ansatz zur Untersuchung des Meeresspiegelanstiegs bisher noch nicht verfolgt worden ist. Anstatt Extrapolationen aus Klimamodellen oder kurzfristigen Satellitendaten vorzunehmen, führten sie eine Untersuchung von Pegelmessstationen auf der ganzen Welt durch, die über mindestens 60 Jahre hinweg Daten in der Datenbank des Permanent Service for Mean Sea Level erfasst haben. Von 1.500 Stationen erfüllten 200 die Kriterien.

Die von Fachkollegen begutachtete Arbeit „A Global Perspective on Local Sea Level Changes” wurde im Journal of Marine Science and Engineering veröffentlicht.

Die Langzeitdaten der Gezeitenmessstationen zeigten, dass die durchschnittliche Geschwindigkeit des Meeresspiegelanstiegs bis 2020 nur etwa 1,5 mm pro Jahr oder 15 cm pro Jahrhundert betrug – weniger als die Hälfte des Anstiegs, den der Weltklimarat (IPCC) und ein Großteil der Fachliteratur angibt.

„Das ist deutlich weniger als die 3 bis 4 mm/Jahr, die Klimawissenschaftler in wissenschaftlichen Publikationen und den Medien oft angeben“, sagte Hessel G. Voortman, der Hauptautor der Studie, gegenüber dem unabhängigen Journalisten Michael Shellenberger, berichtet National Review. „Es ist verrückt, dass das noch nicht gemacht wurde.

Ich habe 2021 mit dieser Forschung begonnen, indem ich die Literatur durchgesehen habe und mich fragte: ‚Wer hat die Prognosen mit den Beobachtungen verglichen?‘ Antwort: tatsächlich niemand!“, sagte Voortman zu Shellenbeger.

Als Wasserbauingenieur mit 30 Jahren Erfahrung, der weltweit an Projekten zum Hochwasserschutz und zur Anpassung der Küsteninfrastruktur beteiligt ist, hatte ihm seine Erfahrung bereits gezeigt, dass die Prognosen eines signifikanten Anstiegs der Geschwindigkeit des Meeresspiegelanstiegs falsch waren.

„Aus der Praxis kannte ich bereits die Situation, dass die Prognosen zum Meeresspiegelanstieg die Beobachtungen übertrafen“, erklärte Voortman gegenüber Shellenberger.

Im Jahr 2023 veröffentlichte Voortman eine Studie über die Küste der Niederlande, die zeigte, dass sich der Meeresspiegelanstieg dort in den letzten Jahrzehnten nicht beschleunigt hatte.

In Bezug auf die Forschung, die sich auf Satellitenbilder stützt und behauptet, dass sich der Anstieg des Meeresspiegels seit 1993, also seit Beginn der Satellitenmessungen, deutlich beschleunigt habe, sagt Voortman, dass diese Daten die periodischen Schwankungen, die in den Langzeitaufzeichnungen auftreten, nicht berücksichtigen: „Wenn man dies berücksichtigt, verschwindet die beschleunigte Rate als Folge des jüngsten Klimawandels.“

Die Geschwindigkeit des Meeresspiegelanstiegs befand sich 1993 in einer ihrer periodischen Tiefphasen, während sie 2020 einen Höchststand erreichte, sagt Voortman.

Ein kleiner Prozentsatz der 200 untersuchten Stationen zeigte „bemerkenswerte, manchmal statistisch signifikantes Ansteigen oder Absinken des Meeresspiegels“, erklärte Voortman gegenüber Shellenberger, aber da diese Stationen in der Regel in der Nähe anderer Stationen lagen, die keine beschleunigten Veränderungen aufwiesen, ist es „unwahrscheinlich, dass ein globales Phänomen wie die durch CO₂ verursachte globale Erwärmung die Ursache ist“.

Für Standorte, an denen die Anstiegsrate entweder zugenommen oder sogar abgenommen hat, und zwar in einem Maße, das nicht mit den langfristigen Trends der nahe gelegenen Stationen übereinstimmt, sagt Voortman, dass lokale Faktoren wie Erdbeben, umfangreiche Bauarbeiten, Grundwasserentnahme, Bodensenkungen oder -verdichtungen oder postglaziale Effekte „fast immer“ die lokalen Trends erklären.

Die modellbasierten Schätzungen des IPCC überschätzen die tatsächliche durchschnittliche Geschwindigkeit des Meeresspiegelanstiegs „erheblich“ um bis zu 2 mm pro Jahr, was mehr als doppelt so viel ist wie die Geschwindigkeit des Meeresspiegelanstiegs, die sich in den Gezeitenmessdaten zeigt, heißt es in der Studie.

Aus praktischer Sicht ist es laut Voortman entscheidend, diese Differenz zu berücksichtigen.

„Bei der Planung von Küsteninfrastrukturen berücksichtigen Ingenieure seit langem den Anstieg des Meeresspiegels”, erklärt Voortman im Interview mit Shellenberger. „Sowohl Messungen als auch Prognosen sind wichtige Informationsquellen, und für die praktische Anwendung ist es entscheidend, die Unterschiede zwischen ihnen zu verstehen.”

Obwohl Voortman und sein Kollege möglicherweise die ersten waren, die eine systematische Untersuchung der Daten von Langzeit-Gezeitenmessstationen durchgeführt haben, haben andere, darunter das Heartland Institute, bereits zuvor noch längerfristige Daten aus einer Stichprobe von Stationen untersucht und sind zu einem ähnlichen Ergebnis gekommen. Von den vom Heartland Institute untersuchten Stationen, von denen einige über Daten aus mehr als 100 Jahren verfügten, hatten einige nur einen sehr geringen oder gar keinen Anstieg der Hintergrundrate des Meeresspiegelanstiegs verzeichnet, einige verzeichneten einen weit über dem Durchschnitt liegenden Anstieg, während andere Stationen sogar einen Rückgang des Meeresspiegels verzeichneten. Die unterschiedlichen Veränderungsraten zwischen den Stationen lassen sich nur durch Veränderungen der lokalen Bedingungen erklären und nicht durch Trends, die durch den globalen Klimawandel verursacht werden.

Quellen: National Review; Journal of Marine Science and Engineering; The Heartland Institute; Nongovernmental International Panel on Climate Change

Link: https://heartland.org/opinion/climate-change-weekly-555-my-comments-on-the-doe-climate-report/, zweite Meldung

——————————————–

Auch bei Cap Allon findet sich am 12. September eine Kurzmeldung zum Meeresspiegel:

Meeresspiegel: Kein Runaway-Anstieg

Die Satellitenaufzeichnungen der NASA zeigen, dass der globale mittlere Meeresspiegel seit Ende 2023 um 3 mm gesunken ist – von 100,7 mm auf 97,6 mm bis September 2025. Bei der oft zitierten Anstiegsrate von 3,4 mm/Jahr hätten wir einen Anstieg von fast +7 mm erwarten müssen. Stattdessen hat sich die Kurve abgeflacht, ja ist sogar rückläufig.

Kurze Zeiträume ändern nichts am langfristigen Kontext, aber natürliche Zyklen dominieren eindeutig.

Während des La Niña-Ereignisses 2010–11 führten starke Regenfälle dazu, dass so viel Wasser an Land gelangte, dass der Meeresspiegel in weniger als einem Jahr um etwa 5 mm sank.

Gezeitenmessgeräte mit Aufzeichnungen, die 150 Jahre zurückreichen, zeigen Gleiches: einen langsamen, stetigen Anstieg von ~1–2 mm/Jahr, der im 19. Jahrhundert mit dem Ende der Kleinen Eiszeit begann. Satelliten wurden erst 1993 eingesetzt (Höhenmessung des Meeresspiegels) und stützen sich auf „Anpassungen”, die die Rate auf 3,4 mm/Jahr erhöhen, doch selbst sie zeigen Pausen und Einbrüche, die der Darstellung einer unaufhaltsamen Beschleunigung widersprechen.

Eine statistische Auswertung von 204 Pegelmesspunkten weltweit aus dem Jahr 2025 ergab, dass 95 % keine statistisch signifikante Beschleunigung des modernen Anstiegs aufweisen. Die wenigen, die eine Beschleunigung aufweisen, reflektieren lokale geologische Gegebenheiten (Landbewegungen, Bodensenkungen) – nicht das globale Klima.

Im Durchschnitt beträgt die beobachtete Anstiegsrate nur 1,5–1,9 mm/Jahr und liegt damit deutlich unter den von den IPCC-Modellen angenommenen ~3,4 mm/Jahr.

Es gibt keine Anzeichen für eine globale Beschleunigung, keinen unaufhaltsamen Anstieg und keine drohende „versinkende Welt”. Die Daten zeigen eine unvorhersehbare, aber moderate Veränderung, die mit natürlichen Schwankungen und einer leichten Erholung von der Kleinen Eiszeit im Einklang steht.

Quellen: NASA, CSIRO, PSMSL, Voortman & De Vos (2025)

Link: https://electroverse.substack.com/p/stanleys-cold-august-snow-forecast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




UK vor Stromausfällen: Net Zero-Desaster zeichnet sich ab

Cap Allon

Innerhalb von nur fünf Jahren wird ein Drittel der britischen Gaskraftwerke – die in den 1990er Jahren gebaut worden sind – zusammen mit den meisten Kernreaktoren stillgelegt werden.

„Unter diesen Umständen wären wir nicht in der Lage, die Nachfrage zu decken“, warnt die Energieberaterin Katherine Porter. „Wir müssten rationieren.“ Neue Gaskraftwerke könnten die Lücke nicht schließen, merkt sie an: „Die Vorlaufzeit für den Kauf einer Gasturbine beträgt acht Jahre.“ Kohle, die in drei Jahren verfügbar ist, könnte die einzige Alternative sein. Die Regierung hat jedoch deutlich gemacht, dass Netto-Null Vorrang vor der Energiesicherheit hat.

Die derzeitige Energiegewinnsteuer erhöht die effektiven Steuern für Nordsee-Betreiber auf über 100 %. „Harbour Energy gab an, in einigen Fällen sogar 110 % zu zahlen“, erklärt Porter. Unternehmen bauen Arbeitsplätze in Großbritannien ab und verlagern ihre Aktivitäten ins Ausland, was bedeutet, dass dem Finanzministerium bereits Steuereinnahmen entgehen. Bis zum Jahr 2030 wird es außerdem gezwungen sein, Milliardenbeträge für Stilllegungsrabatte auszuzahlen – Geld, das es nicht hat.

Der von der Labour-Partei auserkorene Retter, die Windenergie, kann sich auch nach 35 Jahren Subventionen noch nicht selbst tragen. Die Entwickler sagen nun, dass sie einen garantierten Preis von 83 £ für jede Megawattstunde Strom benötigen, die sie produzieren, obwohl der durchschnittliche Großhandelspreis nur 73 £ beträgt. Mit anderen Worten: Windkraft ist immer noch teurer als Gasstrom, und die Verbraucher sollen die Differenz ausgleichen. Selbst mit diesem Aufschlag von 13 % hat Ørsted sein Vorzeigeprojekt Hornsea 4 Offshore aufgegeben, weil es sich wirtschaftlich immer noch nicht rechnete.

Die Produktionszahlen sind nicht besser. Trotz mehr Windkraftanlagen sank die Windenergieerzeugung in UK im letzten Jahr um 6 %. Die Importe aus Europa gingen um 10 % zurück, und der Gasverbrauch musste um 17 % steigen, um den Ausfall auszugleichen. Windkraftanlagen erzeugen nur etwa 35 % ihrer angegebenen Kapazität, was bedeutet, dass sie an zwei von drei Tagen wenig oder gar nichts erzeugen. Das zwingt das System dazu, Gaskraftwerke als Reserve bereitzuhalten, kostspielige neue Netzanschlüsse zu abgelegenen Standorten zu verlegen, Milliarden für die Abschaltung von Turbinen zu zahlen, wenn das Netz deren Leistung nicht aufnehmen kann, und weitere Milliarden für den Ausgleich der ständigen Schwankungen auszugeben, die mit wetterabhängiger Energie einhergehen.

„Die Endkosten für erneuerbare Energien sind für den Verbraucher deutlich höher als die für Gas“, folgert Porter.

Die Kernenergie, die einzige ernstzunehmende CO2-freie Grundlastenergiequelle, ist in bürokratischen Hürden versunken. Kepco baut in Südkorea Reaktoren in weniger als neun Jahren für 6 Milliarden Dollar (Kori 3 & 4). Großbritannien stolpert mit Kosten von 35 Milliarden Pfund pro Anlage (Hinkley Point C). „Das liegt alles an unserem lächerlich dummen Regulierungssystem“, sagt Porter.

Fracking bleibt unter seismischen Grenzwerten verboten, die „dem Fallenlassen eines Stifts auf den Boden entsprechen“.

Und währenddessen altert das Stromnetz. Transformatoren aus den 1960er- und 1970er-Jahren fallen aus. Der Stromausfall in Heathrow im März war eine Warnung. Dennoch fließen die Ausgaben in neue Anschlüsse für erneuerbare Energien, anstatt in den Ersatz von Geräten, deren Lebensdauer abgelaufen ist.

„Wir steuern auf eine Situation zu, in der wir nicht nur sehr teure Energie haben, sondern auch unsichere Energie“, schließt Porter. Die Net-Zero-Besessenheit der Regierung treibt Großbritannien in wirtschaftliche und buchstäbliche Dunkelheit. Und wofür?

Fossile Brennstoffe sind das Rückgrat des Wohlstands. Großbritannien bleibt, wie die meisten westlichen Nationen, zurück.

Link: https://electroverse.substack.com/p/stanleys-cold-august-snow-forecast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE