Die lokale Kapazitätsauktion des Energieversorgers zeigte eine Realität, die die Linke in Washington nicht wegdiskutieren kann

Watts up with that, Terry L. Headley

Die jüngste Auktion des örtlichen Energieversorgers PJM, um gesicherte Stromversorgung zu erhalten, wurde zum maximal zulässigen Preis von 333 US-Dollar pro Megawatt abgeschlossen. Die verfügbaren Energiekapazitäten reichten aber dennoch nicht aus. Selbst zum Höchstpreis konnte der Markt nicht genügend Strom liefern, um PJMs eigene Zuverlässigkeitsstandards zu erfüllen.

Kapazitätsauktionen dienen einem einzigen Zweck: die Stromversorgung sicherzustellen, wenn das System stark beansprucht wird. Nicht an einem milden Frühlingsnachmittag. Sondern am schlimmsten Tag des Jahres – wenn die Nachfrage ihren Höhepunkt erreicht, die Anlagen überlastet sind und das Wetter gegen die Stromerzeugung arbeitet. Diese Auktion hat diesen Standard auf die Probe gestellt und das System als unzureichend befunden.

PJM wurde 1927 als Zusammenschluss dreier Energieversorgungsunternehmen gegründet, die Kunden in Pennsylvania und New Jersey versorgten. 1956, mit dem Beitritt zweier Energieversorgungsunternehmen aus Maryland, wurde daraus die Pennsylvania-New Jersey-Maryland Interconnection

Das geschah nicht über Nacht. Der Strombedarf steigt seit Jahren. Rechenzentren schossen wie Pilze aus dem Boden. Elektrifizierungsauflagen führten zu einer zusätzlichen Belastung des Stromnetzes. Bevölkerungsverschiebungen veränderten Ort und Zeit des Stromverbrauchs. Energieversorger, Regulierungsbehörden und Planer hatten die Entwicklung vorhergesehen. Prognosen wurden veröffentlicht, Warnungen ausgesprochen. Niemand wurde überrascht.

Das Angebot hinkte derweil deutlich hinterher.

Der Bau neuer, bedarfsgerechter Kraftwerke dauert Jahre, von der Genehmigung über die Finanzierung bis hin zum Bau. Diese Zeiträume verlängerten sich, anstatt sich zu verkürzen. Projekte verstrickten sich in behördlichen Prüfungen. Rechtsstreitigkeiten wurden zur Normalität. Die Wartelisten für Netzanschlüsse zogen sich über Jahre hin. Gleichzeitig wurden bestehende Kraftwerke: Kohle-, Gas- und Kernkraftwerke – vorzeitig stillgelegt. Die Rechnung ging nicht mehr auf.

Kapazitätsmärkte belohnen keine guten Absichten. Sie vergüten Leistung, wenn etwas schiefgeht. Strom, der auch bei hoher Netzbelastung fließt, erzielt seinen vollen Wert. Wetterabhängiger Strom hingegen nicht, da sich das Wetter nicht steuern lässt. Batterien helfen zwar, aber nur für eine begrenzte Zeit. Neue Kraftwerke lassen sich nicht auf Knopfdruck bereitstellen.

Jahrzehntelang stützten Kohle-, Erdgas- und Kernkraftwerke das Stromnetz. Sie liefen Tag und Nacht. Sie waren bei Hitzewellen und Kälteeinbrüchen im Einsatz. Sie sorgten für gesunde Reservemargen und stabile Preise. Politische Entscheidungen beschleunigten ihren Ausstieg, bevor Ersatz bereitstand.

Bei der Auktion wurde einfach gezählt, was übrigblieb.

Als die Gebote die Preisobergrenze erreichten, hatte PJM immer noch nicht genügend zuverlässige Kapazitäten gesichert. Das ist kein Marktversagen, sondern ein Angebotsmangel. Man kann keinen Strom von Kraftwerken kaufen, die nicht mehr existieren, egal wie hoch das Gebot ist.

Die Preis-Obergrenze erfüllte ihren Zweck – sie begrenzte die Stromkosten für die Kunden. Sie erzeugte keine Megawatt aus dem Nichts. Eine Anhebung der Obergrenze hätte die Preise erhöht, ohne den Strommangel zu beheben. Der Schaden war bereits Jahre zuvor entstanden.

Nun wird die Rechnung fällig.

Die Kapazitätskosten dieser Auktion werden sich über Jahre hinweg in den Strompreisen niederschlagen. Haushalte werden unabhängig von Brennstoffpreisen oder Wetterlage höhere monatliche Rechnungen erhalten. Unternehmen werden mit höheren Fixkosten konfrontiert sein, die ihre Gewinnmargen schmälern und ihre Wettbewerbsfähigkeit schwächen. Hersteller werden diese Kosten in ihre Investitionsentscheidungen einbeziehen – oder ob sie überhaupt investieren. Dies sind die realen Kosten, die entstehen, wenn man so tut, als spiele das Angebot keine Rolle.

Die politische Rhetorik zum Schutz von Familien mit niedrigem Einkommen verliert an Bedeutung, wenn Strom knapper und teurer wird. Strompreise richten sich nach physikalischen Gesetzen und der Infrastruktur, nicht nach Parolen. Schrumpfende Reservemargen und weniger zuverlässige Kraftwerke bedeuten höhere Kosten. Die Stromkunden tragen diese Kosten jedes Mal.

Jahrelang gingen Planer davon aus, dass neue Kapazitäten irgendwie entstehen würden, obwohl die Vorschriften deren Ausbau erschwerten. Auch die Pensionierungen von Fachpersonal nahmen zu. Der Ersatz von Mitarbeitern verzögerte sich. Hoffnung ersetzte die sorgfältige Planung. Diese Auktion bewertete dieses Risiko.

PJM hielt sich an seine Regeln. Der Markt funktionierte wie geplant. Er legte den Zustand des Systems offen, das ihm die politischen Entscheidungsträger übergeben hatten. Die Nachfrage wächst weiter. Rechenzentren werden weiterhin gebaut. Die Elektrifizierungspolitik führt weiterhin zu zusätzlicher Belastung. Die Prognosen für die Spitzenlast steigen weiter.

Die Angebotsengpässe bestehen weiterhin. Genehmigungen dauern nach wie vor Jahre. Die Wartelisten für Netzanschlüsse sind weiterhin lang. Die Finanzierung bleibt ungewiss. Weitere Stilllegungen sind bereits geplant. Ein kurzfristiger Anstieg verlässlicher Kapazitäten steht nicht bereit. Unter diesen Umständen sind höhere Kapazitätspreise keine Überraschung, sondern unvermeidlich.

Zuverlässigkeit wird aufgebaut, nicht deklariert. Kraftwerke und Übertragungsleitungen brauchen Zeit. Fachkräfte und intakte Brennstoffversorgungsketten sind entscheidend. Entscheidungen von heute wirken sich Jahre später auf Auktionen aus. Die Reservemargen dienen als Stoßdämpfer des Systems – und sie schwinden.

Diese Auktion hat das Ergebnis gemessen.

Solange sich die Politik nicht ändert und eine zuverlässige Stromversorgung gewährleistet wird, wird sich dieser Trend fortsetzen. Die Kapazitäten werden knapper. Die Preise werden steigen. Die Kunden werden die Folgen tragen.

Die Auktion sendete ein klares Signal in Megawatt und Dollar. Die Linke in Washington mag versuchen, das Ganze zu beschönigen, aber das Stromnetz wird es nicht.

Terry L. Headley, MBA, ist Gründer von The Hedley Company – Communications & Research for Energy. Der ehemalige Journalist verfügt über mehr als 25 Jahre Erfahrung in der Analyse von Strommärkten, Brennstoffversorgung und Energiepolitik mit Schwerpunkt auf Netzstabilität und den realen Kostenfolgen von Energieentscheidungen für Haushalte, Unternehmen und regionale Wirtschaften.

Dieser Artikel wurde ursprünglich von RealClearEnergy veröffentlicht und über RealClearWire zur Verfügung gestellt.

https://wattsupwiththat.com/2025/12/29/the-pjm-capacity-auction-sent-a-message-the-washington-left-cant-spin-away/

Die Energiewende führt zur Strommangel-Wirtschaft und zur sozialen Spaltung

Ein aktueller Kommentar unter vorstehendem Beitrag von Herrn Peter Kraus, 17. November 2025 5:20
Die erneuerbaren übernehmen immer mehr Anteile in der deutschen Netzstrombereitstellung.

Meine Antwort:

Als ein Beispiel für diese volatile Energielieferung, kann man sich einen Herzkranken vorstellen, der täglich seine frisch zubereitete Medizin benötigt. Frisch gepresst, denn am nächsten Tag ist diese verdorben.

Die Meldung: „Erneuerbare Medizin“ hat im letzten Jahr bereits 63% Medizin [für ~ 230 Tage] geliefert. Die Sonne schien besonders oft, während Wind etwas schwächelte. Mit dem weiteren Ausbau der sauberen Energieerzeuger, wird dieser Anteil weiter steigen. Auch konnte Deutschland seine Medizinüberschüsse ins Ausland abgeben. Obwohl mehr exportiert wurde, mussten nur etwa gleichviel Ausgleichzahlungen für die Abnahme an die Ausländischen Bezieher bezahlt werden.

Okay, macht 135 Tage, an denen nichts geliefert wurde. Der Patient ist leider verstorben, aber zum Glück im Winter, da ist draußen eh‘ nichts los

– Ironie off – Demmig




Wirtschaftliche Entwicklung schützt am besten vor dem Klimawandel

Die Zahl der Todesopfer wegen klimabedingter Katastrophen hat in den letzten Jahren stark abgenommen. Denn die Menschen können sich immer besser gegen Stürme, Hochwasser und Dürren wappnen. Der wichtigste Treiber dieser erfreulichen Entwicklung ist Wohlstand.

Von Peter Panther

Zwar liegen die definitiven Zahlen noch nicht vor, aber 2025 könnte das Jahr mit den bisher wenigsten Klimatoten gewesen sein. Zumindest bis zur Jahreshälfte ging der Trend in diese Richtung: Laut einem Bericht von Aon, einem internationalen Unternehmen für Versicherungsberatung, kamen im ersten Halbjahr 2025 weltweit 7700 Menschen wegen Naturkatastrophen ums Leben – so wenige wie noch nie. Zu den erfassten Katastrophen zählen insbesondere Stürme, Überschwemmungen, Erdrutsche, Dürren und Brände – also alles Ereignisse, die oft in Verbindung mit dem Klimawandel gebracht werden.

Die Meldung über die rekordtiefen Zahlen liegt im Trend. Bereits 2024 forderten Naturkatastrophen gemäss dem Bericht «Climate and Catastrophe Insight 2025» von Aon «nur» 18’100 Todesopfer. Diese Zahl lag weit unter dem Schnitt des 21. Jahrhunderts mit 72’400 Toten pro Jahr.

Die Apologeten der Klimakrise wollen zwar weismachen, die Erderwärmung führe zu immer häufigeren und heftigeren Unwetterkatastrophen und darum auch zu mehr Klimatoten. «Klimawandel tötet. Er tötet.» So beschwor etwa der spanische Ministerpräsident Pedro Sánchez im letzten September das angebliche Unheil.  Derweil warnte die ehemalige EU-Kommissarin Stella Kyriakides 2024, der Klimawandel würde zwischen 2030 und 2050 weltweit zu zusätzlichen 250’000 Todesfällen pro Jahr führen.

Unwetter-Sterblichkeit ging um 99 Prozent zurück

Die Tendenz geht allerdings klar in die entgegengesetzte Richtung: Laut einem Bericht der Uno ist die Zahl der Todesopfer wegen Naturkatastrophen in der Zeit von 2014 bis 2023 gegenüber dem vorangegangenen Jahrzehnt um 36 Prozent zurückgegangen. Berücksichtigt man das Bevölkerungswachstum während dieser Zeit, hat sich das Risiko, wegen einer Naturkatastrophe ums Leben zu kommen, sogar mehr als halbiert. Konkret ist die Katastrophen-Sterblichkeit innerhalb dieser zehn Jahre von 1,61 auf 0,79 jährliche Todesfälle pro 100’000 Menschen zurückgegangen.

Langfristig gesehen ist die positive Entwicklung noch viel eindrücklicher: Gemäss den Zahlen der Internationalen Disaster Datenbank EM-Dat in Belgien hat die Zahl der Todesopfer wegen klimabedingter Katastrophen seit den 1920er-Jahren bis zu den 2010er-Jahren um unglaubliche 96 Prozent abgenommen. Weil sich die Zahl der Erdbewohner während diesen 90 Jahren ungefähr vervierfacht hat, ist das Risiko, wegen Unwettern ums Leben zu kommen, sogar um 99 Prozent zurückgegangen. Mit anderen Worten: Heute stirbt verglichen mit früher praktisch niemand mehr wegen eines Sturm, eines Hochwassers oder einer Dürre.

Den Grund für diesen erfreulichen Trend muss man nicht lange suchen: Die Menschen können sich immer besser vor Unwetterereignissen schützen. Sie haben auch gelernt, Feuerkatastrophen zu verhindern. Konkret verfügen sie zum Beispiel über stabilere Bauten und wirkungsvolle Dämme. Präzise Wettervorhersagen sowie neue Tools wie Warn-Apps kündigen ein mögliches Unheil jeweils rechtzeitig im Voraus an. Passiert doch einmal etwas, stehen leistungsfähige Rettungsdienste sowie gut ausgerüstete Spitäler bereit. Auch verbesserte Prävention spielt eine Rolle, etwa bei der Vorbeugung gesundheitlicher Probleme vor allem wegen Kälte aber auch Hitze.

Wirtschaftlich unterentwickelte Nationen leiden mehr

Sicher spielt die technologische Entwicklung eine zentrale Rolle beim verbesserten Schutz vor klimabedingten Extremereignissen. Leisten kann man sich all diese Vorsorge- und Nothilfemassnahmen aber nur, wenn man über genügend finanzielle Ressourcen verfügt. Gesellschaften oder Nationen, die wirtschaftlich unterentwickelt sind, leiden entsprechend mehr.

So forderte der Hurrikan Katrina 2005 in den USA rund 1800 Todesopfer. Drei Jahre später führte der Zyklon Nargis in Myanmar jedoch zu über 138’000 Toten, obwohl dieser Sturm etwas schwächer als Katrina war. Aber in den USA war das Bruttoinlandsprodukt (BIP) rund 60 mal höher als in Myanmar. Darum konnten sich die Amerikaner dank einer deutlich robusteren Infrastruktur und guten Warnsystemen viel besser vor den Folgen des Sturmes schützen.

Forscher belegen den Zusammenhang zwischen wirtschaftlichem Wohlstand und effizientem Katastrophenschutz immer wieder. So war 2015 eine Publikation der EU-Plattform Climate ADAPT insgesamt 6873 Naturkatastrophen in den Jahren von 1994 und 2013 nachgegangen. Das Resultat: «Im Durchschnitt starben pro Katastrophe mehr als dreimal so viele Menschen in Ländern mit niedrigem Einkommen wie in Ländern mit hohem Einkommen.»

91 Prozent der Todesfälle wegen Naturkatastrophen in Entwicklungsländern

2016 war in einem Bericht des UN-Büros für Katastrophenvorsorge (UNDRR) zu lesen, dass in den 20 vorangegangenen Jahren 1,35 Millionen Menschen wegen Naturkatastrophen ums Leben gekommen waren – knapp die Hälfte davon wegen wetter- und klimabedingter Gefahren. Das UNDRR hielt fest: «Die überwältigende Mehrheit dieser Todesfälle ereignete sich in Ländern mit niedrigem und mittlerem Einkommen.»

Ebenso kam 2021 eine Erhebung der Weltmeteorologie-Organisation (WMO) zum Ergebnis, dass über 91 Prozent der Todesfälle wegen Naturkatastrophen in den vorangegangenen 50 Jahren in Entwicklungsländern zu beklagen waren. 2023 errechneten zudem schwedische Forscher in einer Studie im Fachblatt «Nature», dass die Sterberate wegen Überschwemmungen zwischen 1990 und 2018 in Ländern mit hohem Bruttoinlandsprodukt (BIP) 22-mal tiefer als in Ländern mit niedrigem BIP lag.

Es ist von daher offensichtlich: Wer die Zahl der Klimatoten weiter senken will, muss dafür sorgen, dass sich arme Länder wirtschaftlich möglichst gut entwickeln können. Dazu ein eindrückliches Beispiel: 1970 starben in Bangladesch zwischen 300’000 und 500’000 Menschen wegen des Zyklons Bhola. 2020 forderte der Zyklin Amphan mit vergleichbarer Stärke im selben Land aber nur 26 Todesopfer. Bangladesh war inzwischen viel reicher geworden und hatte unter anderem ein leistungsfähiges Frühwarnsystem gegen Stürme eingerichtet.

Der sogenannte Klimaschutz bringt am Ende mehr Klimatote

Wohlstand bietet eindeutig den besten Schutz vor klimabedingten Katastrophen. Ob Unwetter im Zuge der Erderwärmung allenfalls etwas häufiger und stärker werden, ist jedoch von untergeordneter Bedeutung. Wirtschaftliche Entwicklung ist aber nur möglich, wenn ausreichend kostengünstige Energie bereitsteht. Ein rascher Ausstieg aus fossilen Brennstoffen würde aber viele Länder um ihre Entwicklungschancen bringen. Das Ergebnis eines solchen «Klimaschutzes» wären am Ende mehr statt weniger Klimatote.

 




Energieversorgung der Entwicklungsländer: Gewinnen China und Russland das Rennen?

Von Klaus-Dieter Humpich

Wie sieht die Struktur einer optimale Energieversorgung aus? Deutschlands Weg ist prohibitiv teuer. In Entwicklungsländern wird der Ausbau fossiler Kraftwerke weiter zunehmen, sie sind der billigste und schnellste Weg aus der Armut, die Kernenergie benötigt hohen Kapitaleinsatz. Wenn der Westen dafür keine pragmatischen Lösungen anbietet, werden China und Russland die Sieger sein.

Langsam verflüchtigen sich die Visionen vom Wasserstoff aus Namibia oder Strom aus der Sahara. Macht nichts. Die Schlangenölverkäufer können ja versuchen, die sogenannten Entwicklungsländer mit wetterabhängigen Energien für den Klimaschutz zu beglücken. Vielleicht sogar wirksamer als Fahrradwege in den Anden.

Immer noch beliebter Trick aus dem Reich der Hütchenspieler ist der Vergleich der „Levelized cost of Energy“ (LCOE): Bei dieser Methode summiert man alle Kosten (Investition, Betrieb, Brennstoff) über die Lebensdauer und teilt sie durch die in diesem Zeitraum produzierte Energie (€/MWh). Eigentlich kann man eine solche Rechnung nur nachträglich ausführen. Will man geplante Anlagen miteinander vergleichen, bewegt man sich auf dem Gebiet der Schätzung – mit allen Unwägbarkeiten:

Die Baukosten sind stark von der Bauzeit abhängig. Je länger diese dauert, müssen die Preise für die Komponenten vorfinanziert (Kredite, Eigenkapital) werden.

Die vollständigen Betriebskosten (Wartung, Ersatzteile, Verbrauchsstoffe etc.). Hier gilt grundsätzlich, erprobte Technik ist genauer bekannt, neue Technologien eher unwägbar.

Es gibt keine technische Lebensdauer. Man kann jede Anlage durch Reparatur und Modernisierung nahezu beliebig am Leben erhalten. Üblich ist es daher, die Lebensdauer bei wirtschaftlichen Betrachtungen bis zu einer notwendigen Generalüberholung anzunehmen bzw. Restwerte abzuziehen. So wird bei Windmühlen die wirtschaftliche Lebensdauer mit 20 Jahren, bei (modernen) Kernkraftwerken mit 60 Jahren angesetzt.

Rechnerische Zinsen. Die zu bezahlenden Zinsen richten sich besonders nach der Bonität des Schuldners. Insofern macht es Sinn, wenn der „Staat“ (kostenpflichtige) Bürgschaften oder direkt Geld zur Verfügung stellt.

Ein dunkles Kapitel sind Subventionen. Insbesondere die wetterabhängigen Energien rechnen sich nicht. Aus politischen Überzeugungen werden sie meist hoch subventioniert. Nach über 20 Jahren kann man wohl kaum noch von „Starthilfen“ sprechen – eher handelt es sich um Fehlinvestitionen.

Angebot und Nachfrage

Favorit bei den staatstragenden Medien sind Phrasen wie … kann soundso viele Haushalte versorgen… Das ist ziemlich plumper Unsinn. Keine Windmühle und kein Sonnenkollektor kann auch nur einen einzigen Haushalt (voll) versorgen, geschweige denn ein Stahlwerk oder eine Chemiefabrik. Elektrische Energie, die das Netz flutet (Hellbrise), ist nicht nur völlig wertlos, sondern muss auch noch kostenpflichtig entsorgt werden (negative Preise an der Strombörse). Für die Zeiträume der Dunkelflaute muss ein Backup-System einspringen. Selbstverständlich muss der Endkunde das mitbezahlen. Einen Anhaltspunkt für die tatsächlichen Erzeugungskosten bieten die Preise an der Strombörse zu Zeiten hoher Nachfrage, bei geringer Erzeugung von Zufallstrom. Deshalb war früher die Bezeichnung „additive Energien“ weit treffender als „alternative Energien“. Wind und Sonne sind nämlich genau keine Alternative zu einer konventionellen Stromversorgung.

Speicherung ist auch keine befriedigende Lösung. Elektrische Energie lässt sich großtechnisch nicht speichern. Es ist deshalb immer eine Umwandlung mit anschließender Rückwandlung nötig. Bei jeder Wandlung entstehen unweigerlich Verluste. Mit anderen Worten, es sind nicht nur die Investitionen für die Speicher (Batterien, Wasserkraftwerke usw.) nötig, sondern es müssen auch zusätzliche Windmühlen und Photovoltaik nur zur Abdeckung der Verluste gebaut werden. Speicherung ist wegen der geringen Auslastung (rund 15 Prozent in Deutschland) solcher Erzeugungsarten technisch und wirtschaftlich unmöglich: Steile und spitze Gebirge (Angebot) und flache, aber weite Täler (Nachfrage).

Thermische Kraftwerke kann man unmittelbar an den Verbrauchsschwerpunkten betreiben. Bei den wetterabhängigen Energien muss man sich nach den geologischen Gegebenheiten (Windstärken) richten. Hinzu kommen noch andere Randbedingungen, wie landwirtschaftliche Nutzflächen, Besiedelung etc. Besonders nachteilig ist die geringe Energiedichte. Man muss nicht nur großflächig einsammeln (Windpark) sondern anschließend noch diese Energie über weite Strecken (Hochspannungsleitungen) transportieren. Alles zusätzliche Kosten, die bei einem konventionellen Netz gar nicht entstehen.

Eine neue Studie

In einer Studie von Bayesian. Energy und Radiant Energy Group wird die Struktur einer optimale Energieversorgung untersucht. Die Zahl der Menschen weltweit, die keine ausreichende Stromversorgung haben, ist seit der Jahrtausendwende stark gesunken. Gleichwohl haben geschätzt 750 Millionen keinen Zugang zu einer gesicherten Stromversorgung. Die meisten von ihnen leben im sogenanten „Sub Sahara Afrika“. Dort wird in 62 Ländern nicht einmal das „moderne Minimum“ von 1.000 kWh/Jahr und Einwohner erreicht. Nur so viel zu den Themen Industrialisierung, Elektromobilität usw. Bekanntlich ist das „pro Kopf Einkommen“ direkt mit dem Energieverbrauch gekoppelt – mit anderen Worten: Diese Länder stecken in der Armutsfalle fest.

In der Studie werden die acht Länder: Ghana, Ruanda, Nigeria, Süd-Afrika, Indien, Indonesien, Philippinen und Brasilien für einen Pfad „netto Null“ bis 2050 simuliert. Gemeint ist damit, es findet 2050 keine Stromerzeugung mehr aus fossilen Energien statt, d.h. nur noch „Alternative Energien“ und/oder Kernenergie sind im Gebrauch. Das dürfte, für sich genommen, eine reine Illusion sein. Ferner geht die Studie davon aus, dass bis 2050 alle betrachteten Länder einen Verbrauch von 1.000 kW/Jahr und Einwohner erreichen. Es werden Wachstumsraten zwischen 2,1 und 8,4 Prozent jährlich unterstellt.

Das Netto-Null-Emissions-Szenario der IEA (International Atomic Energy Agency) prognostiziert, dass die Nuklearkapazität von 416 GW heute auf 1.017 GW bis 2050 weltweit steigen wird – ein 2,5-facher Anstieg in 25 Jahren. Dieser Ausbau wird sich vornehmlich auf die Industrieländer konzentrieren, da Kernkraftwerke sehr kapitalintensiv sind. Reaktoren in Entwicklungsländern gehen nur, wenn der Projektentwickler die Finanzierung mitbringt. Das wiederum bevorzugt staatliche Lieferanten (Russland in der Türkei, Ungarn, Indien, Bangladesh und Ägypten, China in Pakistan). Russland führt gerade Krieg, und China hat große Probleme mit seinen Seidenstraßen-Projekten. Frankreich hat eh kein Geld, und die USA sind sehr strategisch ausgerichtet. Alles in allem keine guten Aussichten zumindest für rohstoffarme Länder wie Ruanda.

Eine große Hoffnung liegt deshalb auf den SMR. Kleine Reaktoren erfordern per se eine geringere Investition. Werden sie (irgendwann) in Serie gebaut, wie z.B. Flugzeuge, ist die Zeit zwischen Planung und Fertigstellung so kurz, dass die finanziellen Risiken handhabbar sind. Dem steht die praktische Erfahrung entgegen. Große Reaktoren (AP1000, Hualong, VVER usw.) sind eingeführt und erprobt. Dies erleichtert nicht zuletzt die Ausbildung von Fachpersonal. Wenn hier nicht bald mutige Entscheidungen gefällt werden, entwickelt sich ein weiteres Henne-Ei-Problem der Kerntechnik.

Die Ergebnisse

Additive Energien sind besonders günstig, solange ihre Schwankungen durch vorhandene fossile Kraftwerke ausgeglichen werden können. Diese brauchen dann zwar weniger Brennstoff, aber ihre Auslastung sinkt durch die Verdrängung, was zu höheren spezifischen Kapitalkosten führt. Der denkbare – aber nicht zu erreichende – Fall ist die Vollversorgung einer Volkswirtschaft nur durch wetterabhängige Energien. In diesem Fall sind entsprechende Speicher zwingend notwendig, um Dunkelflauten zu überbrücken. Die Studie (Simulation mit dem Program CONVEXITY der Bayesian Energy’s zur Netzerweiterung und Betriebsoptimierung) benutzt diesen Grenzwert als Bezugsgröße. Solche „Weltmodelle“ benötigen eine Vielzahl von Daten für jedes einzelne betrachtete Land:

  • Kenntnisse der Geographie zur Auslegung des Transportnetzes
  • Wetterdaten
  • Wahrscheinliche Entwicklung des Stromverbrauchs
  • Wahrscheinlicher Ausbau der Kernenergie in Abhängigkeit der finanziellen Möglichkeiten und sonstigen Randbedingungen.

Letztendlich sind auch für Ausbaupläne in so einem relativ kurzen Zeitraum von 25 Jahren eine Menge Annahmen – um nicht zu sagen Spekulationen – nötig. Man beschränkte sich deshalb auf drei Varianten: Vollständiger Rückbau aller fossilen Kraftwerke bis 2050 und ab da, Vollversorgung durch „Erneuerbare“ mit gemäßigtem und optimistischem Ausbau der Kernenergie.

Nicht überraschend sind die Ergebnisse der Simulationen. Mit Abstand die kostengünstigste Lösung ist der Ausbau ohne Einschränkungen, d.h. unter weiterer Verwendung fossiler Energien. Diese Lösung ist um so günstiger, je weniger entwickelt das Land ist – schließlich haben einst alle Industrieländer diesen Pfad beschritten. Mit zunehmendem „Reichtum“ kann und wird dann der Umweltschutz berücksichtigt werden. Wer das für eine schreckliche Perspektive hält, sollte sich schleunigst mal mit den Konsequenzen von Armut beschäftigen. Wie sonst hätte z.B. China in so kurzer Zeit etwa 250 Millionen Menschen aus bitterster Armut herausführen können? Das teuerste Extrem ist die ausschließliche Versorgung durch „alternative“ Energien. Damit ein solches System überhaupt funktionieren kann, sind gewaltige Speicher und Transportleitungen nötig.

Modellrechnungen in die Zukunft sind prinzipiell ungenau und bieten viele Möglichkeiten unterschiedlicher Interpretation – und auch Manipulationen. Gleichwohl sind sie sehr nützlich, um Relationen zu vergleichen. Wenn, wie hier, durchweg ein Faktor vier zwischen einer unregulierten und einer Vollversorgung durch „alternative Energien“ liegt, ist das ein überzeugendes Ergebnis. Mit anderen Worten: Gerade in „Entwicklungsländern“, was nur eine andere Bezeichnung für „kapitalarm“ ist, wird der Ausbau der fossilen Energien weiter zunehmen – Indien und China sind eindrucksvolle Beispiele. „King Coal“ hat 2025 wieder einen neuen Verbrauchsrekord weltweit (rund 8,8 Milliarden Tonnen) erzielt.

Die Kernenergie erlebt eine Renaissance weltweit. Bezüglich der Entwicklungsländer gibt es jedoch ernsthafte Hindernisse bezüglich Kapital, Ausbildung und Politik. Die Kapitalnachfrage ist immens, zumal viele Sektoren in Entwicklungsländern bessere Renditen versprechen. Der Mangel an Industrie ist Fluch und Chance zugleich. Es müssen dringend Fachkräfte ausgebildet werden. Eine (langsame) Lokalisierung der Fertigung bedeutet einen gewaltigen Schub für die Industrialisierung, im Gegensatz zu Stahltürmen mit Plastikflügeln. Nicht zu unterschätzen ist gerade bei Sonnenenergie der riesige Flächenbedarf. Hierbei handelt es sich südlich der Sahara überwiegend um dringend benötigte landwirtschaftliche Flächen. In tropischen Gebieten gibt es enorme technische Schwierigkeiten beim Bau von Überlandleitungen (mangelnde Infrastruktur) und gewaltige Umweltbelastungen (Abholzung von Regenwald etc.).

Wenn die Industrie „im Westen“ nicht schnellstens Paketlösungen (Bau, Finanzierung, Betrieb und Ausbildung) anbietet, wird sie gewaltige Marktanteile an China und Russland verlieren, zumal sozialistische Länder immer bereit sind, einen Preis für politische Einflüsse zu zahlen. Damit kein Missverständnis entsteht, hiermit ist keine staatliche Entwicklungshilfe gemeint, sondern private Initiative.

Der Beitrag erschien zuerst auf bei ACHGUT hier

 

 




Europas größte Insektenfabrik ist bankrott – diese „Lebensmittel“ wollte keiner kaufen

Von Jo Nova

Im Erneuerbare-Energien-Hype der frühen 2020er-Jahre sammelte Ÿnsect 600 Millionen Euro ein , um die Lebensmittelkette neu zu erfinden und alternative Lebensmittel zu entwickeln, die die Grenzen des Planeten respektieren. Rund 200 Millionen Dollar dieser Finanzierung stammten von Steuerzahlern.

08.12.2025 von Oliver Morrison

Die Liquidierung der französischen Insektenzucht – einst ein Vorzeigeunternehmen für Insektenprotein – befeuert die Debatte darüber, welches Geschäftsmodell die Zukunft des Sektors prägen wird: die industrielle Insektenzucht für die menschliche Ernährung oder kleinere, diversifiziertere Systeme mit Fokus auf Tierfutter und Bodengesundheit.

… es wird erwartet, dass in Großbritannien mehr Unternehmen und Start-ups im Markt mit essbaren Insekten profitieren werden

https://www.agtechnavigator.com /Article/2025/12/08/ynsects-collapse-raises-big-questions-is-feed-and-fertiliser-the-future-of-insect-farming/

Doch in Rekordzeit, scheinbar bevor das Projekt richtig begonnen hatte, war es schon wieder Geschichte. Konkurs. Und das nicht, weil kein Mensch Mehlwürmer essen wollte [kennen Sie jemand?],  sondern weil es auch keinen großen Markt für Tierfutter gab [Gartenvögel und Reptilien mögen diese jedoch, zahlen aber nix dafür]. Auch Landwirte wollten offenbar nicht das Zwei- bis Zehnfache für „nachhaltiges“ Rinderfutter ausgeben. Also verlagerte das Unternehmen seinen Fokus auf hochwertiges Tierfutter, wo anspruchsvolle Tierhalter bereit sind, Geld auszugeben – doch auch dieser Markt scheiterte.

Mit Dank an Tom Nelson

Wie die Realität das Insekt vernichtet, das französische Startup, das über 600 Millionen Dollar für die Insektenzucht eingesammelt hatte

Von Anna Heim, TechCrunch

Das Scheitern des Unternehmens kommt kaum überraschend, da Ÿnsect bereits seit Monaten mit Schwierigkeiten zu kämpfen hatte. Dennoch gibt es viel zu analysieren, wie ein Startup trotz einer Finanzierungsrunde von über 600 Millionen Dollar, unter anderem von Downey Jr.s FootPrint Coalition, Steuerzahlern und vielen anderen, in Konkurs gehen konnte.

Letztendlich konnte Ÿnsect sein Ziel, die Nahrungskette mit Insektenprotein zu revolutionieren, nicht erreichen. Man sollte das Scheitern jedoch nicht vorschnell auf die Abneigung vieler Westler gegenüber Insekten zurückführen. Die menschliche Ernährung stand nie im Mittelpunkt.

Es geht doch nur ums Geld…

Und die Einnahmen waren das Problem. Laut öffentlich zugänglichen Daten erreichte der Umsatz der Hauptgesellschaft von Ÿnsect im Jahr 2021 mit 17,8 Millionen Euro (ca. 21 Millionen US-Dollar) seinen Höchststand – eine Zahl, die Berichten zufolge durch interne Transfers zwischen Tochtergesellschaften verzerrt wurde. Bis 2023 hatte das Unternehmen einen Nettoverlust von 79,7 Millionen Euro (94 Millionen US-Dollar) angehäuft.

In den eitlen, euphorischen Tagen des Klimakommunismus hielten es einige Bürokraten für sinnvoll, 200 Millionen Dollar dafür auszugeben, Kühe mit Insekten zu füttern, um so die Niederschläge im Jahr 2100 n. Chr. zu verändern.

Die Verteidiger des Glaubens werden sagen, dass diese Insektenfabrik viel zu schnell expandierte und nicht die Insekten, sondern das Management versagte. Doch die Fabrik war von Anfang an von Problemen geplagt – darunter Krankheiten, Parasiten und fette Würmer, die die Maschinen verstopften.

Die größte Ironie dabei ist, dass Insekten hohe Temperaturen für schnelles Wachstum benötigen, und genau diese Energiekosten brachten sie um:

Wie der Weltmarktführer im Insektenbereich in den Bankrott rutschte:

Hinter dieser vielversprechenden Präsentation treten die technischen Schwierigkeiten schnell zutage. Mit dem Versuch, Mehlwürmer (Tenebrio molitor) zu züchten, begibt sich das Unternehmen auf relativ unbekanntes Terrain. Es sieht sich mit zahlreichen Problemen konfrontiert: Krankheiten, Parasiten, übermäßig fette Würmer, die die Maschinen verstopfen usw. Hinzu kommt, dass Insekten für schnelles Wachstum hohe Temperaturen (über 25 °C) benötigen, was zu hohen Energiekosten führt, die durch die aufgrund des Krieges in der Ukraine gestiegenen Preise noch verschärft werden.

Das ist ein Drache, der seinen eigenen Schwanz frisst.

Die grüne Revolution scheitert an den hohen Energiekosten. Ganz abgesehen davon, dass die Illusionen von Wetterkontrolle unfähige Manager anziehen.

https://joannenova.com.au/2026/01/europes-biggest-insect-factory-goes-bankrupt-ze-bugs-are-not-even-dog-food/

 

Wer mal googelt, findet auch in Deutschland viele Artikel zu Insekten in Lebensmitteln, hier nur eine kleine Auswahl

 

Bundesamt für Verbraucherschutz

Klare Regeln für Insekten als Lebensmittel

Umfassende Sicherheitsbewertung vor der Zulassung – Kennzeichnung auf dem Etikett vorgeschrieben, 14.03.2023

In der EU sind bisher vier Insektenarten als Lebensmittel zugelassen:

    • Larve des Mehlkäfers (Tenebrio molitor) – auch Mehlwurm genannt
    • Wanderheuschrecke (Locusta migratoria)
    • Hausgrille (Acheta domesticus)
    • Larven des Getreideschimmelkäfers (Alphitobius diaperinus) – auch Buffalowurm genannt

https://www.bvl.bund.de/SharedDocs/Pressemitteilungen/01_lebensmittel/2023/2023_03_14_PM_Weltverbrauchertag.html

 

Verbraucherzentrale

Insekten essen: Eine Alternative zu herkömmlichem Fleisch?

    • … Insekten sind klimafreundlicher
      Studien zeigen, dass der Einsatz von Insekten in der Lebensmittelproduktion im Vergleich zur Fleischerzeugung klimafreundlicher ist: Sie brauchen weniger Platz und Wasser als Rinder, Schweine oder Hühner und verursachen im Allgemeinen weniger Treibhausgas-Emissionen. Kritiker sehen die benötigte Betriebstemperatur für die Zucht von Insekten problematisch. In den Betriebsstätten sind etwa 25 bis 30 Grad Celsius notwendig. Dadurch beeinflussen Standort und Klima, wie groß der Klimavorteil ist.

https://www.verbraucherzentrale.de/wissen/lebensmittel/auswaehlen-zubereiten-aufbewahren/insekten-essen-eine-alternative-zu-herkoemmlichem-fleisch-33101

 

Trolli, M&Ms, Milka: In diesen beliebten Lebensmitteln stecken Insekten und ihre Bestandteile

Insekten und ihre Bestandteile werden schon lange von der Lebensmittelindustrie verwendet. Sie befinden sich auch in Markenprodukten wie M&Ms, Trolli und bestimmten Milka-Sorten. Andere Hersteller verkaufen Lebensmittel mit Ausscheidungen von Insekten.

https://utopia.de/ratgeber/trolli-mundms-milka-in-diesen-beliebten-lebensmitteln-stecken-insekten-und-ihre-bestandteile-v2_462685/

 

E-Nummern-Liste: Diese Zusatzstoffe können gefährlich werden

https://utopia.de/ratgeber/lebensmittel-zusatzstoffe-e-nummern-liste_31704/

 

Welche Vögel fressen Mehlwürmer?

https://www.vivara.de/blog/information/tipps-ratgeber/Welche-Vogel-fressen-Mehlwurmer

 




Spuren des Carrington-Ereignisses des Jahres 1859 in Baumringen

Anthony Watts

Eine von der Universität Helsinki koordinierte Forschungsgruppe konnte einen Anstieg der Radiokohlenstoff-Konzentration in Bäumen in Lappland messen, der nach der Carrington-Eruption auftrat. Diese Entdeckung hilft bei der Vorbereitung auf gefährliche Sonnenstürme.

Das Carrington-Ereignis von 1859 ist einer der größten Sonnenstürme, die in den letzten zwei Jahrhunderten aufgezeichnet worden waren. Es zeigte sich in Form von weißen Lichtblitzen auf einer riesigen Sonnenfleckengruppe, Bränden in Telegrafenstationen und Störungen bei geomagnetischen Messungen sowie Polarlichtern sogar in tropischen Regionen.

In einer gemeinsamen Studie der Universität Helsinki, des Natural Resources Institute Finland und der Universität Oulu wurde erstmals in Baumringen ein Anzeichen für einen Anstieg der Radiokohlenstoff-Konzentrationen nach dem Carrington-Sturm festgestellt. Bisher wurden Radiokohlenstoffspuren nur bei weitaus intensiveren Sonnenstürmen nachgewiesen.

Entdeckung durch eine kosmische Markierung

Begegnungen zwischen stark magnetisierten Wolken geladener Teilchen, die von der Sonne freigesetzt werden und als Sonnenplasmaflüsse bekannt sind, und dem Erdmagnetfeld führen zu geomagnetischen Stürmen. Das Erdmagnetfeld lenkt die Teilchen des Sonnensturms hauptsächlich über die Polarregionen in die Atmosphäre. Die sichtbarste Folge dieses Phänomens sind Polarlichter.

In der oberen Atmosphäre können ausreichend hochenergetische Teilchen durch Kernreaktionen auch Radiokohlenstoff (¹⁴C) erzeugen, ein radioaktives Isotop des Kohlenstoffs. Im Laufe von Monaten und Jahren gelangt Radiokohlenstoff als Teil des atmosphärischen Kohlendioxids in die untere Atmosphäre und schließlich durch Photosynthese in Pflanzen. Der Prozess der Photosynthese bewahrt die im Kohlendioxid enthaltenen Informationen in den Jahresringen der Bäume.

Um die im Radiokohlenstoff enthaltenen Informationen zu gewinnen, werden Proben aus dem Holzmaterial entnommen, das im Laufe einzelner Jahre gewachsen ist. Die Proben werden zu Zellulose verarbeitet und die Zellulose durch Verbrennen und chemische Reduktion zu reinem Kohlenstoff. Der Anteil an Radiokohlenstoff im reinen Kohlenstoff wird mit einem Teilchenbeschleuniger gemessen.

„Radiokohlenstoff ist wie ein kosmischer Marker, der Phänomene im Zusammenhang mit der Erde, dem Sonnensystem und dem Weltraum beschreibt“, sagt Markku Oinonen, Direktor des Labors für Chronologie der Universität Helsinki, der die Studie leitete.

Kartierung von Sonnenstürmen

Ein dem Carrington-Ereignis in der heutigen Zeit entsprechender Sonnensturm würde Strom- und Mobilfunknetze stören und große Probleme für Satelliten- und Navigationssysteme verursachen, was beispielsweise zu Problemen im Flugverkehr führen würde. Aus diesem Grund ist eine genaue Kenntnis des Sonnenverhaltens für die Gesellschaft von Vorteil.

Sonnenstürme, die kleiner und häufiger sind als die Carrington-Stürme, können heutzutage mit Messgeräten und Satelliten studiert werden, während größere Stürme beispielsweise durch die Messung der Radiokohlenstoffkonzentration in Baumringen untersucht werden können.

Bislang war es nicht möglich, mittelgroße Stürme wie das Carrington-Ereignis, die in der heutigen Zeit nicht mehr auftreten, mit herkömmlichen Radiokarbon-Verfahren gezielt zu untersuchen. Diese aktuelle Studie eröffnet einen potenziellen neuen Weg zur Untersuchung der Häufigkeit von Stürmen in der Größenordnung des Carrington-Ereignisses, was dazu beitragen könnte, sich besser auf zukünftige Bedrohungen vorzubereiten.

Immer genauere Informationen zum Kohlenstoffkreislauf

Die Ergebnisse wurden anhand eines numerischen Modells zur Radiokohlenstoffproduktion und zum Radiokohlenstofftransport interpretiert, das von Forschern der Universität Oulu entwickelt worden war.

„Das dynamische Modell zum Kohlenstofftransport in der Atmosphäre wurde speziell entwickelt, um geografische Unterschiede in der Verteilung von Radiokohlenstoff in der Atmosphäre zu beschreiben“, erklärt die Postdoktorandin Kseniia Golubenko von der Universität Oulu.

Bedeutsam in der kürzlich veröffentlichten Studie war, wie sich der Radiokohlenstoffgehalt von Bäumen in Lappland von dem von Bäumen in niedrigeren Breitengraden unterschied. Die ersten Messungen wurden im Beschleunigerlabor der Universität Helsinki durchgeführt, während Wiederholungsmessungen in zwei anderen Laboren die bisherigen Unsicherheiten deutlich reduzierten.

Die Entdeckung kann zu einem besseren Verständnis der atmosphärischen Dynamik und des Kohlenstoffkreislaufs aus der Zeit vor den vom Menschen verursachten Emissionen fossiler Brennstoffe beitragen und die Entwicklung immer detaillierterer Kohlenstoffkreislaufmodelle ermöglichen.

„Es ist möglich, dass der durch die Sonneneruption verursachte Überschuss an Radiokohlenstoff entgegen der allgemeinen Auffassung über seine Bewegung in erster Linie über die nördlichen Regionen in die untere Atmosphäre transportiert wurde“, mutmaßt Doktorand Joonas Uusitalo vom Labor für Chronologie.

Andere Radiokarbon-Quellen

„Es ist auch möglich, dass die zyklische Veränderung der Radiokohlenstoffproduktion in der oberen Atmosphäre, verursacht durch die Schwankungen der Sonnenaktivität, zu den lokalen Unterschieden auf Bodenhöhe geführt hat, die wir in unseren Ergebnissen festgestellt haben“, fügt Uusitalo hinzu.

Laut Uusitalo wird der größte Teil des Radiokarbons durch galaktische kosmische Strahlung außerhalb des Sonnensystems erzeugt, auch wenn außergewöhnlich starke Sonnenstürme einzelne Ausbrüche des Isotops in der Atmosphäre verursachen. Die kosmische Strahlung wiederum wird durch den Sonnenwind abgeschwächt, einen kontinuierlichen Partikelstrom, der von der Sonne ausgeht und in 11-Jahres-Zyklen zwischen stärker und schwächer schwankt.

Das Thema erfordert weitere Untersuchungen. Historische Aufzeichnungen zeigen, dass es auch in den Jahren 1730 und 1770 zu bedeutenden geomagnetischen Stürmen kam, weshalb deren Verfolgung wahrscheinlich als Nächstes im Mittelpunkt stehen wird.

Die kürzlich veröffentlichte Studie wurde als Gemeinschaftsprojekt des Labors für Chronologie und der Fakultät für Physik der Universität Helsinki sowie des finnischen Instituts für natürliche Ressourcen durchgeführt. Forscher der Universität Oulu, der Universität Nagoya, der Universität Yamagata und der ETH Zürich haben ebenfalls zu dieser Studie beigetragen. Die Studie wurde vom finnischen Forschungsrat, der finnischen Kulturstiftung und der Emil-Aaltonen-Stiftung finanziert.

Original-Artikel: Joonas Uusitalo, Kseniia Golubenko, Laura Arppe, Nicolas Brehm, Thomas Hackman, Hisashi Hayakawa, Samuli Helama, Kenichiro Mizohata, Fusa Miyake, Harri Mäkinen, Pekka Nöjd, Eija Tanskanen, Fuyuki Tokanai, Eugene Rozanov, Lukas Wacker, Ilya Usoskin, Markku Oinonen. Transient Offset in 14C After the Carrington Event Recorded by Polar Tree Rings. AGU, 2024. DOI: 10.1029/2023GL106632

Link: https://wattsupwiththat.com/2026/01/03/finding-the-1859-carrington-event-in-tree-rings/

Übersetzt von Christian Freuer für das EIKE