Status und Trends bei der Wiederaufbereitung von abgebrannten Kernbrennstoffen

Von Dr. Humpich

Die Wiederaufbereitung abgebrannter Kernbrennstoffe (Ökosprech: „Atommüll“) ist das zentrale Bindeglied für eine nachhaltige Nutzung der Kernenergie. Durch das Recycling werden aus dem Abfall unterschiedlich verwendbare Materialien gewonnen. Man kann sie zur Energieerzeugung weiter verwenden und man kann dadurch die Problematik der „Endlagersuche“ beträchtlich entschärfen. In diesem Sinne ist das Verbuddeln von abgenutzten Brennelementen ökologisch, ökonomisch und sicherheitstechnisch die unbefriedigendste Lösung. Vornehmste Aufgabe der Wiederaufbereitung ist die Trennung der Spaltprodukte – der nuklearen „Asche“ der Kernspaltung – von den Aktinoiden (Uran, Plutonium usw.). Aus den Aktinoiden kann durch schnelle Neutronen weitere Energie gewonnen werden. Wenn Brennelemente für konventionelle Leicht- und Schwerwasserreaktoren nicht mehr geeignet sind – man nennt das „abgebrannt“ – enthalten sie immer noch mindestens 95% Material aus dem Energie gewonnen werden kann. Spätestens hier wird klar, welche Verschwendung ein Wegwerfen als „Atommüll“ nach deutschem Gusto wäre.

Die Einordnung der Wiederaufbereitung

Alle Verfahren zur Trennung von abgebranntem Kernbrennstoff sind chemische Prozesse. Entgegen der Behauptung von „Atomkraftgegnern“ werden dabei keine neuen radioaktiven Elemente erzeugt. Es werden höchstens radioaktive Stoffe verschleppt und dadurch Bauteile kontaminiert. Die können aber wieder gereinigt werden. Auf jeden Fall strahlen solche Verunreinigungen weniger als der ursprüngliche Kernbrennstoff und können deshalb lediglich auf Sondermülldeponien gelagert werden. Man unterscheidet Nassverfahren und pyrochemische Prozesse.

Nassverfahren

Der typische Vertreter eines Nassverfahrens ist der PUREX (plutonium uranium reduction extraction) Prozess, wie er z. B. in der französischen Anlage in La Hague industriell angewendet wird. Seit 2010 werden dort durchschnittlich 1050 to pro Jahr aufgearbeitet und dabei 10,5 to Plutonium und 1000 to/a sog. RepU (reprocessed uranium) zurückgewonnen. Das Plutonium wird unverzüglich zur Melox Anlage in Marcoule zur Verarbeitung zu MOX-Brennstäben (mixed oxide) transportiert. Aus diesen 120 to/a wird Brennstoff für 24 Druckwasserreaktoren der EdF mit je 900 MWel gewonnen. Beim PUREX-Verfahren wird der abgebrannte Brennstoff in Salpetersäure aufgelöst. Es entstehen diverse Salze in wässriger Lösung. Diese Lösung wird kräftig mit einem organischen Lösungsmittel (30% Tributylphosphat gelöst in Kerosin) durchmischt. Dabei gehen Uran und Plutonium in die organische Phase über und die Spaltprodukte und minoren Aktinoide verbleiben in der wässrigen Lösung. 99,9% des Uran und Plutonium werden zurück gewonnen und etwa 3% des ursprünglichen Brennstoffs bleiben als hoch aktiver Abfall zurück und werden anschließend verglast. Die Trennung beider Phasen erfolgt rein physikalisch – Öl schwimmt auf Wasser. Uran und Plutonium werden durch einen weiteren Schritt (Umwandlung der +2 Ionen in den +3 Oxidationszustand durch z. B. Eisen) voneinander getrennt, indem das Plutonium dadurch in diese wässrige Phase übergeht.

Das primäre Ziel bei diesem Verfahren ist die Gewinnung möglichst reinen Plutoniums. Das ist zwar günstig für die Herstellung von MOX-Brennstoff, kann aber andererseits auch zur „Plutonium-Bombe“ führen. Die Befürchtungen sind so ernsthaft, daß ein Austausch der Technologie nur sehr beschränkt ist. So hat man den Vereinigten Emiraten den Bau eines Kernkraftwerks nur gestattet, weil sie ausdrücklich auf eine eigene Anreicherung und Wiederaufbereitung verzichtet haben. Andererseits verfügt Japan in Rokkasho über eine Anlage mit einer Kapazität von 800 to/a, die 4 to/a Plutonium für 80 to/a MOX-Brennstoff gewinnen kann. Das Konzept gegen die Weiterverbreitung von Kernwaffen (Proliferation) steht auf etwas wackeligen Füßen. Wo ein Wille ist, ist auch ein Weg: Israel, Nord Korea, Iran usw. Deshalb die Bestrebungen (siehe später) Verfahren zu entwickeln, mit denen man gar kein waffengrädiges Plutonium herstellen kann.

Für das weitere Verständnis ist wichtig, daß die minoren Aktinoide mit den Spaltprodukten zusammenbleiben. Sie werden gemeinsam in Glas aufgelöst und in Kannen zur Endlagerung abgefüllt. Hier ergibt sich das erdachte „Endlagerproblem“: Die Kannen werden in Bunkern gelagert, bis so viele kurzlebige Spaltprodukte zerfallen sind, daß die resultierende Wärmeproduktion auf ein erträgliches Maß abgesunken ist. Die zulässigen Oberflächentemperaturen (etwa 60°C) werden durch die Tonschichten im geologischen Tiefenlager in Bure bestimmt. Die Spaltprodukte zerfallen in etwa 300 Jahren bis auf Werte von Uranerz. Sie wären damit ungefährlich, da Menschen seit Jahrtausenden mit solchen natürlichen Strahlenbelastungen umgehen. Es bleibt allerdings das Problem mit den minoren Aktinoiden: Sie sind sehr langlebig, aber als 𝜶-Strahler relativ harmlos – so lange man sie nicht isst oder trinkt. Daraus leitet sich die Endlagerung möglichst tief unter der Erde ab.

Das PUREX-Verfahren ist seit Jahrzehnten erprobt und das einzige Verfahren mit dem Anlagen im industriellen Maßstab betrieben werden. Es hat aber noch einen weiteren (politisch) gravierenden Nachteil: Es verwendet organische Lösungsmittel. Organische Lösungsmittel werden durch ionisierende Strahlung zersetzt. Einziger Weg ist die Zwischenlagerung abgebrannter Brennelemente um die Strahlenbelastung zu senken. Zwischenlager sind deshalb nicht der Ausdruck „eines nicht weiter Wissens“, sondern eine technische Lösung für ein bestimmtes Verfahren zur Wiederaufbereitung. Der Kostenvorteil einer „großen Chemieanlage“ ist gleichzeitig ein prinzipieller Nachteil für kleine Länder. So hat man sich in Schweden und Finnland für eine aufwendige Langzeit-Lagerung entschieden. Man legt Tunnelsysteme im Granit an und verpackt die Brennstäbe aufwendig in Kupferbehältern. So hat man notfalls „ewig“ Zeit für die Auswahl eines Verfahrens. Auch hier erweist sich die hohe Energiedichte der Kernspaltung als Vorteil. Die durchaus hohen Investitionen finanzieren sich durch die Umlage auf die erzeugte Kilowattstunde im Zehntel Cent Bereich.

Die Umstellung auf schnelle Reaktoren

In Reaktoren mit schnellem (energiereichem oder harten) Neutronenspektrum kann man auch U238 und die minoren Aktinoide (Neptunium, Americium usw.) spalten. In den Anfängen der Kerntechnik glaubte man noch, daß zumindest die wirtschaftlich gewinnbaren Uranmengen sehr begrenzt seien. Ein fataler – wenngleich glücklicher – Irrtum. In den 1950er Jahren träume man von einer voll elektrifizierten Welt (Ähnlichkeiten mit heutigen Schlangenölverkäufern der Wind und Sonnenbranche sind mehr als zufällig). Man wollte einen möglichst schnellen Bau von Kernkraftwerken bei vermeintlicher Knappheit von Uran. Die Antwort sollte der „Schnelle Brüter“ sein. Man wollte mit ihm mehr Plutonium produzieren als man verbrauchte. „Verdoppelungszeit“ war das Schlagwort der Stunde. Gemeint ist damit die Betriebsdauer eines schnellen Brüters, bis er soviel Überschuss an Plutonium produziert hat, daß damit ein Zwilling in Betrieb genommen werden kann.

Heute ist die Situation eine andere. Einerseits ist der Preis für Natururan immer noch so gering, daß man weiterhin Leichtwasser- und Schwerwasserreaktoren bauen kann. Andererseits verfügen wir über hunderte Tonnen Plutonium in abgebrannten Brennstäben, bzw. sogar fertig aufbereitet. Wir könnten somit mehrere schnelle Reaktoren sofort bauen. Im Gegenteil würden diese unsere Lagerkosten beträchtlich verringern. Wir haben auch bereits mehre Prototypen erfolgreich im Betrieb. Die Sache hat nur einen Haken: Schnelle Reaktoren erfordern wesentlich höhere Investitionen. Bis sich die Schere schließt, höhere Betriebskosten durch steigende Brennstoffkosten, gesunkene Investitionskosten für schnelle Reaktoren durch Skaleneffekte, werden noch einige Jahrzehnte vergehen.

Pyrochemische Verfahren

Für einen schnellen Reaktor wäre also eine Mischung aus Uran, Plutonium und den minoren Aktinoiden geeignet. Daraus ergeben sich zwei gravierende Vorteile: Das Aufbereitungsverfahren ist für die Herstellung von Kernwaffen ungeeignet und man erhält einen sehr kurzlebigen Atommüll. Er kann in einem geologischen Tiefenlager verschwinden, muß aber nicht. Ferner ist das Verfahren eher für kleine Anlagen geeignet. Es gibt daher in Russland die Bestrebung eine Wiederaufbereitung in das Kernkraftwerk zu integrieren. In das Kraftwerk würde nur abgereichertes Uran als Ersatz für die Energieproduktion nach geliefert und die wenigen Spaltprodukte könnten am Kraftwerk bis zu dessen Stilllegung gelagert werden. Transporte von „Atommüll“ würden sich beträchtlich verringern.

Die Elektroraffination von geschmolzenem Salz ist ein pyrochemisches Verfahren, das sich ideal für die Wiederaufbereitung von Metallen eignet. Die Vorteile des geschmolzenen Salz-Elektro-Raffinierungsprozesses gegenüber dem wässrigen Prozess für metallische Brennstoffe sind:

  • Eine reduzierte Anzahl von Schritten, da sich der Brennstoff während des gesamten Prozesses im metallischen Zustand befindet.
  • Besonders geeignet für nur kurzzeitig gekühlte Brennstoffe mit hohem Abbrand. Die anorganischen Lösungsmittel widerstehen den höheren Strahlungsleistungen viel besser als organische Reagenzien. Die Verkürzung der Umlaufzeit kann zu einer kürzeren Verdoppelungszeit führen.
  • Man kann höhere Mengen an abgebranntem Brennstoff in kleineren Anlagen handhaben als bei wässrigen Prozessen (notwendige Verdünnung).
  • Reduzierte Kritikalität aufgrund des Fehlens von Moderatoren (organische und wässrige Lösungsmittel).
  • Fast keine hoch radioaktiven flüssigen Abfälle.
  • Inhärente Sicherheit gegen militärische Nutzung durch die gemeinsame Abscheidung von Uran, Plutonium und minoren Aktinoiden.

Die Herausforderungen sind:

  • Hohe Betriebstemperaturen und die Verwendung von korrosiven Salzen, die eine technologische Herausforderung bei der Materialauswahl bedeuten.
  • Da die Salze hygroskopisch und die Metalle pyrophorisch sind, erfordert der Prozess eine inerte Atmosphäre mit sehr niedrigem Feuchtigkeits- und Sauerstoffgehalt um eine Selbstentzündung zu verhindern.
  • Trennfaktoren für Spaltprodukte sind etwa 1000-mal niedriger als bei wässrigen Prozessen.
  • Bisher noch begrenzte Erfahrungen, meist im Labormaßstab.

Elektroraffination mit Salz

Am bekanntesten ist der Prozess der Raffination von metallischem Brennstoff in einer Salzschmelze, wie er im US-Programm für schnelle Brüter (EBR-II 1964–1994 und Integral Fast Reactor IFR 1986–1994) angewendet wurde. In einem Tiegel wird Lithium- und Kaliumchlorid Salz bei 500 °C aufgeschmolzen. Die in Stücke zerschnittenen Brennstäbe kommen in einen Drahtkorb, der in die Salzschmelze getaucht wird. Die Elemente des abgenutzten Brennstabs lösen sich in der Salzschmelze auf. Der Drahtkorb bildet die Anode. Die Kathode besteht aus geschmolzenem Kadmium. Wird ein Strom angelegt, wandern Uran, Plutonium und die minoren Aktinoide gemeinsam zu der Kathode. Die Spaltprodukte verbleiben im Salz gelöst. Stark vereinfacht, hängt der „Weg“ den die Elemente nehmen, von der Stabilität der gebildeten Chloride ab: Die Elemente, deren Chloride hochstabil sind, sind leicht zu oxidieren und werden als Chloride in die Elektrolytphase übertragen. Sie sind nur schwer zu reduzieren und bleiben daher in der Elektrolytphase. Edelmetalle, deren Chloride am wenigsten stabil sind, werden nicht oxidiert und bleiben so bei der Anode. Die „Brennstoffe“ Uran und Plutonium und und auch die minoren Aktinoide, deren Chloride von mittlerer Stabilität sind, werden durch den Elektrolyten transportiert und dann auf der Kathode abgelagert.

Die in der Anode verbleibenden Brennstabhüllen und Edelmetalle können zur Endlagerung eingeschmolzen werden. Das Salz kann gereinigt werden, indem es durch Zeolithe geleitet wird. In einem weiteren verfahrenstechnischen Schritt muß die Kathode eingeschmolzen werden und daraus neue Rohlinge für Brennstäbe gegossen werden.

Vorstufe für konventionelle Brennstoffe

Eine Elektroraffination ist nur bei metallischen Brennstoffen direkt möglich. Heutige Leichtwasserreaktoren verwenden keramisches UO2 als Brennstoff. Keramik ist aber nicht elektrisch leitend. Ein gebräuchliches Verfahren der Umwandlung ist das Voloxidation-Verfahren (für volumetric oxidation). Dabei wird der zu recycelnde Brennstoff in einem Vakuum mit Sauerstoff auf etwa 500°C erhitzt. Dadurch wandelt sich UO2 in U3O8 um. Während dieses Verfahrensschrittes werden alle in diesem Zustand gasförmige Spaltprodukte ausgetrieben. Insbesondere Tritium kann auf diese Weise einfach und konzentriert abgeschieden werden.

Internationale Situation

Im Moment führend bei der Entwicklung sind die USA, Russland, Indien, Korea, Japan und Frankreich. Allerdings befindet sich das Verfahren in allen Ländern noch in der Entwicklung. Man kann mit Fug und Recht feststellen, daß die Elektroraffination eine Schwester der Reaktoren mit schnellem Neutronenspektrum ist – die sicherlich die Zukunft sind. Hinzu kommen im Einzelfall noch politische Randbedingungen. So kann Korea beispielsweise nicht das PUREX Verfahren nutzen, um sich nicht dem Verdacht einer atomaren Aufrüstung auszusetzen.

An der Spitze der Entwicklung befindet sich Russland. In Seversk befindet sich ein Pilotprojekt bereits in Bau. Es besteht aus einem mit flüssigem Blei gekühlten Reaktor mit einer Leistung von 300 MWel . Dieser Reaktor ist nicht als Brüter, sondern mit einer Konversionsrate von um die 1 konzipiert. Er soll also lediglich soviel Plutonium produzieren, daß er nur noch mit abgereichertem oder Natururan ergänzt werden muß. Er soll mit MNUP Brennstoff (Mixed Nitride Uran Plutonium) betrieben werden. Dieser Reaktor soll mit einer integrierten Wiederaufbereitung und Brennstoffherstellung versehen werden. Es ist der vorläufige Höhepunkt einer Jahrzehnte andauernden Entwicklung. Typisch russisch ist dabei das Vorgehen in Schritten, wobei im jeweils nächsten Schritt die Betriebserfahrungen des vorhergehenden Reaktortyps einfließen.

REMIX

REMIX-Brennstoff (für regenerierte Mischung) ist ein innovatives russisches Produkt für thermische Leichtwasserreaktoren, die das Herzstück der heutigen Kernkraftindustrie bilden. Dieser Brennstoff wird aus einer Mischung von wiederaufbereitetem Uran und Plutonium hergestellt, die unter Zugabe kleiner Mengen angereicherten Urans erzeugt wird. Im Unterschied zu Uran-Plutonium-Brennstoffen für schnelle Reaktoren (wie MNUP- und MOX-Brennstoff) hat der REMIX-Brennstoff einen geringen Plutoniumgehalt (bis zu 1,5%). Sein Neutronenspektrum unterscheidet sich nicht von gewöhnlichem LWR-Brennstoff aus angereichertem Uran, daher sind das Verhalten von Brennelementen im Reaktorkern und die Menge an Plutonium, die durch Bestrahlung aus Uran herausgelöst wird, im Prinzip ähnlich.

Für Betreiber von Druckwasserreaktoren (VVER-1000 und VVER-1200) bedeutet dies langfristig, daß der REMIX-Brennstoff ohne Änderungen der Reaktorauslegung oder zusätzliche Sicherheitsmaßnahmen benutzt werden kann. Die Einführung eines solchen Brennstoffs ermöglicht die Nutzung von Natururan für Kernkraftwerke durch die Schließung des Kernbrennstoffkreislaufs erheblich zu steigern und den abgebrannten Kernbrennstoff weiterzuverwenden, anstatt ihn zu lagern oder gar zu verbuddeln.

DUPIC

Ein weiterer Weg ist die Verknüpfung von Leichtwasser- und Schwerwasserreaktoren. In den abgebrannten Brennelementen der Leichtwasserreaktoren ist noch etwa 1,5 gew% Spaltstoff enthalten (U235 Pu239). Der Gehalt hängt vom Abbrand ab – bei niedrigem Abbrand ist noch viel enthalten, bei hohem Abbrand entsprechend weniger. Es sind noch ein paar Prozent bei den üblichen Abbränden zwischen 35 MWd/kgU und 50 MWd/kgU vorhanden. Dieser Gehalt an Spaltmaterial entspricht mehr als dem Doppelten von Natururan mit 0,71%. Für einen mittleren Abbrand von 42,5 MWd/kgU bei Leichtwasserreaktoren könnten zusätzlich 15,5 MWd/kgU gewonnen werden, was immerhin 37% mehr Energie entspricht. Nach der Nutzung des DUPIC Brennstoffs in Schwerwasserreaktoren sinkt der Spaltstoffgehalt auf etwa 0,63% bis 0,78%.

Durch die Verknüpfung von Leicht- und Schwerwasserreaktoren über das DUPIC Verfahren ergeben sich folgende Vorteile:

  • Es wird abgebrannter Brennstoff der Leichtwasserreaktoren verbraucht. Das Volumen für Zwischen und Endlagerung verringert sich entsprechend.
  • Es wird weniger Natururan verbraucht. Alle mit der Förderung, Konversion und Anreicherung verbundenen Belastungen werden gespart.
  • Die Menge an abgebranntem Brennstoff der Schwerwasserreaktoren wird durch den höheren Spaltstoffgehalt (ungefähr zweifach gegenüber Natururan) kleiner.

Es sollte dabei nicht vergessen werden, daß es sich hier um den Umgang mit hochaktiven Brennstoffen handelt. Entsprechende Abschirmungen und eine vollständige Handhabung aus der Ferne sind erforderlich. Bisher sind nur kleine Mengen versuchsweise in heißen Zellen hergestellt worden. Bis zu einer industriellen Nutzung ist noch viel Entwicklungsarbeit zu leisten.

Schlusswort

Wie immer in der Technik, wird zuerst der einfachste Weg beschritten. Im Falle der Kerntechnik: Leichtwasserreaktoren, Lagerung der abgebrannten Brennelemente und Aufbereitung in den Ländern, die ohnehin schon über ein erprobtes Verfahren (PUREX) verfügten – dies waren die bekannten „Atommächte“. Nicht viel anders, als beim Papier: Zuerst wurde Papier hergestellt (Reaktoren zur Stromproduktion), dies wurde nach Gebrauch als Müll weggeworfen (abgebrannte Brennelemente). Erst nachdem die Altpapiermengen so groß geworden waren, daß sich ein Recycling wirtschaftlich lohnte, wurden die ersten Altpapiermühlen gebaut – heraus kam das „graue Altpapier“. Nach der Abstimmung des gesamten Kreislaufs aufeinander, entstand das heutige weiße Recyclingpapier. Heute ist Papier ein nachhaltiges Produkt geworden, das zu über 75% im Kreislauf läuft.

In Analogie wird sich das System Kerntechnik ebenfalls schrittweise vom Reaktor, über das Brennstoffrecycling bis zur Abfallnutzung weiter entwickeln. Abfall ist bezüglich der Kernenergie ohnehin mit Vorsicht zu beurteilen. Man muß sich immer wieder vor Augen führen, daß der „Atommüll“ das gesamte Periodensystem abdeckt. Schon heute werden Isotope aus dem Atommüll für z. B. Krebstherapien gewonnen. Es ist alles eine Frage der Wirtschaftlichkeit, Planwirtschaft und Ideologie führen nicht weiter.

 




Die Kohle bleibt: Ampel halbiert Gaskraftwerks-Pläne

In der neuen Kraftwerksstrategie der Bundesregierung schrumpfen die geplanten Gaskraft-Kapazitäten wie eine Eiskugel im Sommerurlaub – und noch nicht einmal die wird es geben.

von Manfred Haferburg

Verdruckst melden die staatstragenden Medien, dass die Ampel-Regierung (mit einjähriger Verzögerung) die neue Kraftwerksstrategie verkündet hat. Dass dies mit einer so großen Verspätung geschah, fanden viele Berichterstatter nicht so wichtig. Auch ist die unwesentliche Information unter die Redaktionstische gefallen, dass die geplanten 17 bis 21 Gigawatt Gaskraftwerke nunmehr auf „bis zu 4 mal 2,5 GW“ auf die Hälfte reduziert wurde, natürlich ohne Begründung.

Sie haben wohl darauf gehofft, dass es auch außerhalb ihrer Redaktionsstuben niemanden gibt, der noch 4 mal 2,5 im Kopf ausrechnen kann und sich darüber hinaus noch daran erinnert, dass vor wenigen Monaten 21 GW neue Gaskraftwerke geplant waren. Dafür haben sie etwas Neues erfunden, den „Sondertopf“. Der Autor hat einen Verdacht, was das sein könnte.

Die Bundesregierung verkündete am 1. Februar 2023 stolz auf ihrer Website: Energieversorgung mit Strom sicher: „Bundeswirtschaftsminister Robert Habeck hat im Kabinett den Bericht der Bundesnetzagentur vorgestellt. Die Stromversorgung sei sicher, sagte der Minister. ,Dies gilt auch, wenn der Stromverbrauch durch neue Verbraucher wie Elektromobile und Wärmepumpen deutlich steigt und der Kohleausstieg bis 2030 erfolgt‘, betonte er. Der Bericht wurde vom Kabinett verabschiedet.

Zentral sei, so Habeck, dass die Verbraucher und Verbraucherinnen jederzeit sicher mit Strom versorgt würden. Diese Stromversorgungssicherheit werde die Regierung auch beim Umbau des Stromsystems auf 100 Prozent erneuerbaren Strom gewährleisten. Diesem Ziel diene das sehr genaue Monitoring der einzelnen Schritte und Etappen.

Der neue Bericht zur Energieversorgungssicherheit der Bundesnetzagentur zeigt, dass auch bei einem Kohleausstieg vor 2030 die Stromversorgung in den Jahren 2025 bis 2031 sicher ist. Dafür braucht es flexible Kraftwerke, einen schnellen Ausbau der Erneuerbaren Energien und eine flexiblere Nachfrage.“

Flexible Kraftwerke und wenn ja, wie viele?

Schauen wir mal in diesen Bericht der Bundesnetzagentur, um herauszufinden, was flexible Kraftwerke sind und wenn ja, wie viele:

Bericht zu Stand und Entwicklung der Versorgungssicherheit im Bereich der Versorgung mit Elektrizität Stand: Januar 2023

Investitionen in konventionelle Anlagen und neue Technologien der zukünftigen marktseitigen Versorgungssicherheit liegen Investitionen in neue konventionelle Anlagen sowie in neue Technologien (wie beispielsweise Flexibilitätsoptionen) zugrunde (vgl. Kapitel D 3.1 und E 3). So zeigen die Modellergebnisse für Deutschland bereits ab 2023 die Aktivierung bestehender Kapazitäten an Netzersatzanlagen und den Aufbau von Lastverschiebepotentialen. Beide Untersuchungen zeigen ferner einen Zubau von neuen erdgasbefeuerten Erzeugungskapazitäten, je nach Modellrechnung in der Größenordnung von rund 17 GW bis 21 GW bis 2031. 

Der Minister kündigte an, im ersten Halbjahr 2023 eine Kraftwerksstrategie vorzulegen, damit die Kraftwerke gebaut werden, die ein klimaneutrales Stromsystem benötigt. Neue Kraftwerke müssen etwa auch mit Wasserstoff arbeiten können und so von Anfang an geplant werden. Entsprechend werde die Bundesregierung den Rahmen setzen.”

Handlungsempfehlungen zur Gewährleistung der Versorgungssicherheit mit Elektrizität Empfehlungen der Bundesregierung gemäß § 63 Abs. 2 EnWG

2.2 Zubau steuerbarer Erzeugungsleistung

Im Monitoringbericht zur Versorgungssicherheit wird ein Zubau von neuen erdgasbefeuerten Erzeugungskapazitäten, je nach Modellrechnung, in der Größenordnung von insgesamt rund 17 GW bis 21 GW bis 2031 ermittelt.

Die Strategie passt vorn und hinten nicht

Das mit der Kraftwerksstrategie scheint aber für die Ampel nicht so dringend gewesen zu sein. Die für das erste Halbjahr 2023 angekündigte Kraftwerksstrategie kommt nunmehr ein knappes Jahr später. Bis zur Fertigstellung der Gaskraftwerke im Jahre 2031 sind nun nicht mehr acht Jahre zur Verfügung, sondern nur noch sieben. 20 Gigawatt Gas-Kraftwerksleistung entspricht 40 Gas-Großkraftwerken der 500-MW-Klasse oder, zum Vergleich, etwa 20 Kernkraftwerken.

Sieben Jahre für das Erstellen von 40 Ausschreibungen, die Suche nach 40 Investoren, das Finden von 40 geeigneten Standorten, das Projektieren von 40 Kraftwerken, 40 Planfeststellungsverfahren und Genehmigungen, die Suche geeigneter Auftragnehmer, die 40 Kraftwerke entwickeln und bauen (es gibt weltweit eine Handvoll, die das könnten), die Erschließung der 40 Standorte mit zugehöriger Infrastruktur, Gas- und Netzanschluss sowie Betriebspersonal, der Bau und Inbetriebsetzung der 40 Kraftwerke und nicht zuletzt die Bereitstellung von genügend Gas für 40 große Gaskraftwerke gleichzeitig. Hier fehlen mir nach wie vor die Worte für einen Kommentar.

Das Investitionsvolumen wurde bis vor Kurzem noch mit 60 Milliarden Euro angegeben. Die sollte der Steuerzahler und der Stromkunde berappen, weil diese Gaskraftwerke aufgrund der Vorrangeinspeisung der Wind- und Solarerzeugung nach dem Erneuerbare-Energien-Gesetz (EEG) auf keinen Fall wirtschaftlich betrieben werden können. Sie dürfen nur produzieren, wenn kein Wind weht und/oder keine Sonne scheint. Sie verbrennen außerdem den teuersten Energieträger auf dem Markt, nämlich LNG-Erdgas. Von dem ist nicht einmal mehr sicher, dass es genügend davon gibt, seit Opa Biden vor zwei Wochen im Wahlkampf den Umweltschutz entdeckt und die Export-Lieferverträge auf den Prüfstand gestellt hat. Von Wasserstoff für diese Gasturbinen kann bis 2030 überhaupt keine Rede sein – nicht einmal in einem Kinderbuch eines bekannten deutschen Märchenautors.

Trotzdem bleibt die Bundesregierung offiziell bei ihrem Ziel, bis 2030 aus der Kohle auszusteigen. Das passt allerdings nicht so ganz zu der Tatsache, dass die Bundesnetzagentur, die ja bekanntlich eine Behörde der Bundesregierung ist, erst kürzlich die Laufzeit diverser alter Kohlekraftwerke als Netzreserve bis 2031 verlängert hat.

So verlässlich wie die Reichweitenangabe eines Elektroautos

Die staatstragenden Medien bringen verdruckst und versteckt einen nahezu wörtlich gleichlautenden Bericht über die neue Kraftwerksstrategie der Bundesregierung. Keine Rede ist mehr von 17 bis 21 Gigawatt.

Stattdessen heißt es nun am 5. Februar 2024 in der Süddeutschen Zeitung:

„Bundesregierung einigt sich auf Kraftwerksstrategie: Wenn die Sonne nicht scheint und der Wind nicht weht, sollen zunächst Gaskraftwerke die nötige Energie bereitstellen. Später sollen sie mit klimafreundlichem Wasserstoff betrieben werden.

Die Bundesregierung hat sich nach langen Diskussionen auf eine Strategie zum Bau wasserstofffähiger Gaskraftwerke in Deutschland geeinigt. Bundeskanzler Olaf Scholz (SPD), Wirtschaftsminister Robert Habeck (Grüne) und Finanzminister Christian Lindner (FDP) hätten die wesentlichen Elemente einer Kraftwerksstrategie sowie Festlegungen zu weiteren Vorhaben vereinbart, heißt es in einer gemeinsamen Mitteilung.

Die Kraftwerksstrategie soll den Rahmen schaffen für Investitionen in moderne, hochflexible und klimafreundliche Kraftwerke, die in der Lage sind, künftig mit Wasserstoff betrieben zu werden. Kurzfristig sollen neue Gaskraftwerke ausgeschrieben werden, die eine Kapazität von bis zu viermal 2,5 Gigawatt haben. Die Förderungen sollen aus dem Klima- und Transformationsfonds finanziert werden, einem Sondertopf des Bundes. Wie es aus Koalitionskreisen heißt, liegen die Kosten bei ungefähr 16 Milliarden Euro für die kommenden etwa 20 Jahre.

Über einen sogenannten Kapazitätsmechanismus könnten Betreiber in einigen Jahren dafür honoriert werden, dass sie Kraftwerkskapazitäten vorhalten. Dafür sollen nun Konzepte erarbeitet werden, bis zum Sommer soll es eine politische Einigung innerhalb der Bundesregierung geben.

Geht es eventuell noch schwammiger als „eine Kapazität von bis zu viermal 2,5 Gigawatt“? Die Förderungen sollen aus dem Klima- und Transformationsfonds finanziert werden, einem „Sondertopf des Bundes“.

Vier mal 2,5 Gigawatt sind nach Adam Riese 10 Gigawatt. Und die sind nicht sicher, sondern sie heißen „bis zu“. Das ist ungefähr so verlässlich wie die Reichweitenangabe eines Elektroautos deutscher Produktion bei minus 20 Grad Celsius. Und was bitte ist ein „Sondertopf“? Ist das ein Behälter für Sondervermögen, der am Ende eines jeden Regenbogens zu finden ist?

Wo sind die 7 bis 11 Gigawatt geblieben?

Und wo sind denn die 17 bis 21 Gigawatt aus dem Bericht der Bundesnetzagentur von vor einem Jahr geblieben? Geplant sind „bis zu“ 10 Gigawatt. Fehlen da nicht mindestens 7 bis 11 Gigawatt Kraftwerkskapazität? Nur mal so zur Erinnerung: Das ist ungefähr die Kraftwerksleistung der Kernkraftwerke, die unsere weise Regierung in den letzten drei Jahren verschrotten ließ. Werden die 7 bis 11 GW nun nicht mehr gebraucht: „… so dass die Verbraucher und Verbraucherinnen jederzeit sicher mit Strom versorgt würden“ ( Habeck, Februar 2023)?

Wir haben die Unmöglichkeit der Realisierung der Gaskraftwerkspläne von 17 bis 21 GW, nämlich den Bau von vielen Dutzend Großkraftwerken bis 2031 in mehreren Artikeln auf Achgut.com beschrieben. Was sind wir dafür beschimpft worden, zum Beispiel als „Energiewende-Hasser“.

Doch es ist soweit, wir legen mal noch eine Schippe nach: Liebes Wirtschaftsministerium, lieber Wirtschaftsminister, liebe Bundesnetzagentur, auch die „bis zu vier mal 2,5 Gigawatt H2-Ready-Gaskraftwerke“ der neuesten Kraftwerksstrategie wird es bis 2030 nicht geben.

Wir freuen uns schon auf Eure nächste Kraftwerksstrategie, in der wissenschaftlich begründet wird, warum der  Weiterbetrieb der alten Kohlekraftwerke gut fürs Klima ist. Oder warum an den täglichen Stromrationierungen die böse Realität in der bösen Welt da draußen schuld ist.

Der Artikel erschien zuerst bei ACHGUT hier

 




Wie die Treibhaushypothese sich etablieren konnte! Teil II

von Gerhard Grasruck

Es ist kein Zufall, dass sich auf Basis der Treibhaus-Klimahypothese – also der Theorie, dass Treibhausgase, insbesondere Kohlendioxid, gewissermaßen der Einstellregler für das Klima sind – das mit großem Abstand bedeutendste ökoalarmistische Narrativ etablieren konnte: Zum einen lässt sich hier durch die Möglichkeit der Umdeutung ganz natürlicher Wettererscheinungen als bedrohliche Folgen eines vermeintlichen menschlich verursachten Klimawandels eine augenscheinliche Widerlegung zumindest erschweren. Das ist in anderen Fällen schwieriger; beim Waldsterben zum Beispiel war es für jeden der Augen im Kopf hatte offensichtlich, dass der Wald lustig vor sich hingrünte und gar nicht daran dachte abzusterben, so dass schließlich nichts anderes übrigblieb als die ganze Sache möglichst geräuschlos wieder in der Versenkung verschwinden zu lassen.

Insbesondere jedoch ist aufgrund der zentralen Rolle, welche fossile Energieträger in unserer Industriegesellschaft einnehmen, der Umfang der Zwangsmaßnahmen für welche die Treibhaus-Klimahypothese als Vorwand dienen kann, fast unbegrenzt. Diese politisch-ideologischen Nützlichkeit ist der Grund, weshalb die Treibhaus-Klimahypothese trotz der erdrückenden Last der gegen sie sprechenden Fakten[1] weiterhin propagiert wird.

Unter diesen Umständen drängt sich die Frage auf: wie war es angesichts ihrer massiven Probleme eigentlich möglich, dass die Treibhaus-Klimahypothese überhaupt jemals ernsthaft in Betracht gezogen werden konnte? Hier ist zu bedenken, dass gegen Ende des 19. Jahrhunderts, als nach dem ersten Versuch einer quantitativen Ausarbeitung der Hypothese durch den schwedischen Chemiker Svante Arrhenius diese in das Rampenlicht der wissenschaftlichen Öffentlichkeit rückte[2], das Wissen über das Klima und seine Geschichte noch sehr lückenhaft war. Insbesondere war praktisch nichts über historische Konzentrationen von Treibhausgasen wie Kohlendioxid bekannt; unter diesen Umständen konnte sie als zumindest nicht offensichtlich unplausibel durchgehen.

An dieser Situation änderte sich lange Zeit nicht viel, was tragisch ist. Denn wenn die Informationen, die wir heute haben – insbesondere die Tatsache, dass sich keine kausale Veränderung der Temperatur als Reaktion auf Änderungen in der Kohlendioxidkonzentration beobachten lässt – zur Verfügung gestanden hätten, wäre eine Etablierung der Treibhaus-Klimahypothese kaum möglich gewesen. Leider waren jedoch umfassendere und einigermaßen zuverlässige Rekonstruktionen von historischen Kohlendioxidkonzentrationen erst zu einem Zeitpunkt verfügbar, als die Anhänger der Treibhaus-Klimahypothese bereits fest im Sattel saßen und in der Lage waren durch rasch zusammengezimmerte Ad Hoc-Theorien, dem Herausschreiben von nicht ins Bild passenden klimatischer Perioden aus dem historischen Klimaverlauf oder schlichtem Totschweigen der Widersprüche in der Lage, die Bedrohung durch die historischen Daten zu entschärfen.

Zunächst allerdings verlor die Treibhaus-Klimahypothese, nach einer kurzen Phase der Aufmerksamkeit Anfang des 20. Jahrhunderts, schnell wieder an Zuspruch. Spektroskopische Messungen deuteten auf eine Überlappung der Absorptionsbereiche des Kohlendioxids und des Wasserdampfs hin, so dass es erschien, als ob Veränderungen der Kohlendioxidkonzentration keine Auswirkungen haben könnten. In den darauffolgenden Jahrzehnten blieb die Treibhaus-Klimahypothese daher eher eine Randerscheinung. Dies änderte sich in den fünfziger Jahren: Elektronische Computer erleichterten die zuvor sehr mühseligen Berechnungen des atmosphärischen Strahlungstransports und die nun möglichen höheren Auflösungen in der Spektroskopie legten nahe, dass die Absorptionsbereiche des Kohlendioxids und des Wasserdampfs sich wohl doch nicht vollständig überlappten und so klimatische Auswirkungen zumindest rein prinzipiell möglich erschienen. Nicht zuletzt spielte auch militärisches Interesse eine Rolle, da man die Möglichkeiten der Ortung von Flugzeugen anhand ihrer Infrarotsignatur untersuchen wollte. All dies führte dazu, dass auch das Interesse an der Treibhaus-Klimahypothese wieder zunahm.

Zunächst war dies aber nicht ganz unumstritten. Erwähnenswert in diesem Zusammenhang ist eine Arbeit aus dem Jahr 1963 des Meteorologen Fritz Möller, einem Pionier der atmosphärischen Strahlungsforschung, in welcher er versucht zu berechnen, wie sich eine positive Wasserdampfrückkopplung – ein unerlässlicher Bestandteil der Treibhaus-Klimahypothese, um überhaupt auf nennenswerte Temperaturerhöhungen zu kommen – auswirken würde.[3] Er muss feststellen, dass er auf diese Art und Weise praktisch beliebige Werte für eine Erwärmung erhalten kann – was, wie er betont, nichts mit dem Verhalten der realen Atmosphäre zu tun hat.[4] Er versucht, eine Erklärung für den Aufstieg der Treibhaus-Klimahypothese trotz ihrer offensichtlichen Schwächen zu finden:

“Gründe, weshalb CO2 Schwankungen so oft als Ursachen für klimatische Variabilität angenommen werden sind möglicherweise: (1) Der CO2 Gehalt der Atmosphäre ist so bemerkenswert einheitlich über Raum und Zeit, dass es möglich ist langfristige Schwankungen des Durchschnittswertes zu beobachten. Das ist für fast alle anderen Faktoren, welche die Strahlungsprozesse beeinflussen können, unmöglich. Wolken, Wasserdampf und Temperatur zeigen starke Schwankungen je nach Tag, Jahreszeit, Breitengrad und zwischen Ozeanen und Kontinenten. Beobachtungen sind so spärlich über etwa 60 Prozent der Erdoberfläche, das eine Veränderung in diesen Faktoren nicht erkannt werden kann. Die CO2 Konzentration ist der einzige Faktor über dessen Veränderungen wir Bescheid wissen. (2) Der Einfluss von CO2 Schwankungen auf langwellige Strahlung erscheint offensichtlich, da der physikalische Wirkungsmechanismus relativ gut verstanden ist. Es ist allerdings weitaus schwieriger, seine meteorologische Bedeutung und Auswirkungen zu interpretieren.”

Demnach ist Grund für die Etablierung der Hypothese für Kohlendioxid als Klima-“Einstellregler” also lediglich, dass bevor Satellitenbeobachtungen verfügbar waren, dies so ziemlich der einzige Faktor war, welcher sich halbwegs zuverlässig quantifizieren ließ; man fühlt sich an den alten Witz über den betrunkenen Mann erinnert, welcher nachts der besseren Beleuchtung wegen seine Schlüssel unter der Straßenlaterne sucht, obwohl er sich eigentlich sicher ist, dass er sie bei den dunklen Büschen nebenan verloren hat.

Trotz dieser sicherlich plausiblen Punkte gibt es aber gute Gründe anzunehmen, dass der durchschlagende Erfolg der “Renaissance” der Treibhaus-Klimahypothese in den fünfziger und sechziger Jahren ohne deren nunmehr politische Dimension so nicht möglich gewesen wäre. Dieser Aspekt war neu – vorher hatten Vertreter der Treibhaus-Klimahypothese eine mögliche Erwärmung durch menschliche Emissionen durchweg positiv bewertet.

So argumentierte etwa der amerikanische Geologe Thomas Chrowder Chamberlin in einer 1899 erschienenen Arbeit[5] für ein gleichmäßigeres Klima als Folge von erhöhten Kohlendioxidkonzentrationen – ganz im Gegensatz zu heutigen Warnungen vor klimatischen „Extremereignissen“:

„Eine zweite Auswirkung der Zu- und Abnahme des atmosphärischen Kohlendioxids ist die jeweilige Angleichung bzw. Differenzierung der Oberflächentemperaturen. … Es wird postuliert, dass eine Erhöhung der thermischen Absorption der Atmosphäre die Temperatur ausgleicht und dazu neigt, die Schwankungen zu beseitigen, die mit diesen Zufälligkeiten einhergehen. Umgekehrt führt eine Verringerung der thermischen Absorption in der Atmosphäre zu einer Verstärkung all dieser Schwankungen. Eine sekundäre Auswirkung der Intensivierung der Temperaturunterschiede ist eine Zunahme der atmosphärischen Bewegungen in dem Bemühen, das Gleichgewicht wiederherzustellen.“

Der bereits erwähnte Pionier der Treibhaus-Klimahypothese Svante Arrhenius selbst schreibt in seinem 1908 erschienenen populärwissenschaftlichem Buch „Das Werden der Welten“: „Da nun warme und Eiszeiten wechselten, auch nachdem der Mensch auf Erden aufgetreten war, müssen wir uns die Frage vorlegen: ist es wahrscheinlich, dass wir in den nächsten geologischen Zeitabschnitten von einer neuen Eiszeit heimgesucht werden, die uns aus unserm Land fort nach Afrikas heißerem Klima treiben wird? Es scheint, als ob wir eine solche Furcht nicht zu hegen brauchten. Schon die für Industriezwecke nötige Kohlenverbrennung ist geeignet, den Kohlensäuregehalt der Luft merkbar zu vermehren. …. Durch Einwirkung des erhöhten Kohlensäuregehaltes der Luft hoffen wir uns allmählich Zeiten mit gleichmäßigeren und besseren klimatischen Verhältnissen zu nähern, besonders in den kälteren Teilen der Erde; Zeiten, da die Erde um das Vielfache erhöhte Ernten zu tragen vermag zum Nutzen des rasch anwachsenden Menschengeschlechtes.“[6]

Der britische Ingenieur und Erfinder Guy Stewart Callendar, ein weiterer wichtiger früher Vertreter der Treibhaus-Klimahypothese, schließt eine 1938 erschienenen Arbeit, wo er versucht eine Temperaturerhöhung in den vorangegangenen Jahrzehnten mit einer Erhöhung der Kohlendioxidkonzentration zu erklären, folgendermaßen ab:

„Zusammenfassend lässt sich sagen, dass die Verbrennung fossiler Brennstoffe, egal ob es sich um Torf von der Oberfläche oder um Öl aus 10.000 Fuß Tiefe handelt, sich für die Menschheit über die Bereitstellung von Wärme und Strom hinaus in mehrfacher Hinsicht als nützlich erweisen dürfte. Zum Beispiel würde sich der oben erwähnte geringfügige Anstieg der Durchschnittstemperatur an der nördlichen Anbaugrenze als von Bedeutung erweisen und das Wachstum von Pflanzen an günstigen Standorten ist direkt proportional zu der Kohlendioxidkonzentration. In jedem Fall sollte sich die Wiederkehr der tödlichen Gletscher auf unbestimmte Zeit verschieben.“[7]

Der namhafte Physiker und Chemiker Walther Nernst hatte sogar die Idee, nicht wirtschaftlich abbaubare Kohleflöze anzuzünden, um mehr von dem wohltätigen Kohlendioxid freizusetzen.[8]

Mit diesen Einschätzungen waren sie im Einklang mit den Erfahrungen aus der Klimageschichte. Die Neuauflage der Treibhaus-Klimahypothese ab den fünfziger Jahren jedoch, beeinflusst durch die zu dieser Zeit aufkeimenden Ideologie des Öko-Alarmismus, malte ein düsteres Bild der prognostizierten Klimaerwärmung – wenn dieses auch vorerst eher vage blieb, denn die Klima-„Modelle“ mit denen heute versucht wird, dies plausibel zu machen, hatten sich noch nicht etabliert.

Damit wurde der Grundstein für die Etablierung der Treibhaus-Klimahypothese als Legitimationsideologie für massive staatliche Zwangsmaßnahmen unter dem Vorwand der Gefahren einer vermeintlichen menschlich verursachten Klimaveränderung gelegt – zunächst implizit, später dann immer mehr auch ganz explizit. Als retardierendes Moment, um einmal einen Begriff aus der Dramaturgie zu bemühen, wirkte zunächst noch die Abkühlung des Klimas von den fünfziger bis in die siebziger Jahre, welche dazu führte das zunächst einmal Aerosole als Übeltäter für einen vermeintlich menschlich verursachte Klimawandel – in negativer Richtung – angeklagt wurden. Ab den späten siebziger Jahren nahm die Treibhaus-Klimahysterie dann aber Fahrt auf – mit den bekannten Folgen.

  1. Warum die Treibhaus-Klimahypothese falsch ist
  2. Svante Arrhenius 1896, On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground
  3. Fritz Möller 1963, On the influence of changes in the CO2 concentration in air on the radiation balance of the Earth’s surface and on the climate
  4. Dies wurde dahingehend kritisiert, dass Möller bei seinen Berechnungen, wie er selbst anmerkt, Konvektion nicht berücksichtigt und bei deren Berücksichtigung die Verstärkung weniger extrem sei. An der Grundaussage ändert dies aber nichts – auch mit der reduzierten Verstärkung ist es für einen Klimamodellierer weiterhin möglich, fast beliebige Erwärmungen zu erzielen.
  5. T. C. Chamberlin 1899, An Attempt to Frame a Working Hypothesis of the Cause of Glacial Periods on an Atmospheric Basis
  6. Svante Arrhenius 1908, Das Werden der Welten, S. 55-57
  7. G. S. Callendar 1938, The artificial production of carbon dioxide and its influence on temperature
  8. Oral History Interviews | James Franck and Hertha Sponer Franck – Session V | American Institute of Physics (aip.org)

 




Belege deuten auf eine Rückkehr des Grand Solar Minimums

Cap Allon

Die Vergangenheit ist unsere Kristallkugel.

Die geringe Sonnenaktivität, insbesondere ihr Einfluss auf Wolken und den Jetstream, stört die Wettermuster auf dem gesamten Planeten. Und obwohl die Abkühlung das allgemeine Thema ist, sind extreme Hitzeperioden zu erwarten, ebenso wie eine Zunahme von Überschwemmungen und Dürren.

Im Gegensatz zur modernen Theorie der globalen Erwärmung, die eine ähnliche „unanfechtbare Absicherung“ behauptet, wird das Große Solare Minimum (GSM) durch eine Fülle von Beweisen gestützt, die mit der heutigen Angstmacherei nicht mithalten können: historische Dokumentation und Proxydaten, zum Beispiel, was bedeutet, dass, wenn sich tatsächlich ein GSM bildet, wiederkehrende Muster identifizierbar sein sollten.

Für Indien gibt es Daten, die darauf hindeuten, dass sich das Land, ja die gesamte südasiatische Region, während der Großen Solaren Minima sowohl abkühlt als auch „austrocknet“. Dürren werden zur Norm, wenn die Sonne schwächelt, was zu Ernteausfällen und Hungersnöten führt.

Laut einer Studie mit dem Titel „Little Ice Age in Mughal India: Solar Minima Linked to Droughts?“, veröffentlicht von der American Geophysical Union:

„Der Vergleich mit den Monsun-Variabilitätskurven, die durch eine detaillierte Analyse verschiedener Proxies wie der biologischen Oberflächenproduktivität und der Messung der Dicke von jährlich erzeugten Schichten in einem fast 1200 Jahre zurückreichenden Sedimentkern aus dem nordöstlichen Arabischen Meer gewonnen wurden, hat gezeigt, dass die Variabilität der Sonnenaktivität mit einer Abnahme der Niederschlagsintensität während des Monsuns im Indischen Ozean während der Kleinen Eiszeit korreliert. Insbesondere nahm die Intensität der Niederschläge erheblich ab“.

Die Studie enthält diese Abbildung (unten) – einen Vergleich der Kurven zwischen der Variabilität der Gesamtsonneneinstrahlung (TSI) (linkes Feld) und dem Gehalt an organischem Kohlenstoff (Corg) (rechtes Feld).

„Corg ist ein Indikator für die Oberflächenproduktivität“, heißt es in der Studie weiter, „und kann daher als Index für die Intensität der Monsunregenfälle verwendet werden.“

„Die akute Hungersnot in den Jahren 1662-1665 … passt gut zu den niedrigen Werten sowohl der TSI als auch des organischen Kohlenstoffs, die durch das Maunder-Minimum verursacht wurden.“

Die Analyse kommt zu dem Schluss:

„Die Korrelationen zwischen dem Spörer- und dem Maunder-Minimum einerseits und schweren, lang anhaltenden Dürren auf dem indischen Subkontinent andererseits sind eindeutig.“

Heute erlebt Indien zwar eine unbestreitbare Abkühlung (siehe die IITM-Studie, die zeigt, dass „Kältewellen“ in den letzten Jahrzehnten zugenommen haben), hat aber auch gerade einen der trockensten Januarmonate erlebt, die seit 1901 verzeichnet wurden.

Im Januar erhielt das Land nur 7,2 mm Niederschlag, eine Zahl, die deutlich unter der Norm liegt und mit anderen rekordverdächtig niedrigen Jahren wie 2007 (Sonnenminimum des Zyklus 23), 2018 (Sonnenminimum des Zyklus 24) und auch 1946 (Sonnenminimum des Zyklus 17) gleichzieht.

Vor allem der Nordwesten Indiens verzeichnete „alarmierend niedrige 3,1 mm Niederschlag, den zweitniedrigsten seit 1901“, berichtet indiatoday.in.

Um auf die oben genannte Studie zurückzukommen, enthält die Analyse auch diesen Leckerbissen, der Europa betrifft:

„Interessant sind auch historische Vergleiche zwischen den Königshöfen und dem bäuerlichen Leben in Europa und dem Mogulreich [Indien] im gleichen Zeitraum. Die Regierungszeit des ‚Sonnenkönigs‘, Ludwig XIV. von Frankreich, überschnitt sich mit den Jahren des Maunder-Minimums. Während der Sonnenkönig die Opulenz von Schloss Versailles ausbaute, erlebte das einfache Volk, das für eine gute Ernte auf die Sonne angewiesen war, schwierige Zeiten. Nahrungsmittelknappheit brachte viel Not und Leid über die Menschen.“

Bleibt man in Europa, so ist das Mittelmeerbecken eine weitere gut dokumentierte Region mit zunehmenden Dürren während der GSMs.

Laut einer Studie von Josep Barriendos, et al. (Dez. 2023):

„… waren Dürre-Episoden während des Dalton-Minimums [1790-1830] häufiger und schwerer als in der zweiten Hälfte des neunzehnten Jahrhunderts. Darüber hinaus gab es während des gesamten zwanzigsten Jahrhunderts kaum Dürreepisoden von ähnlicher Schwere. [In den letzten beiden Jahrzehnten wurde jedoch ein ähnliches Muster schwerer Dürren festgestellt, das dem während des Dalton Solar Minimum (insbesondere zwischen 1812 und 1825) ähnelt.)

Die Dürren kehren nach Südasien und in den Mittelmeerraum zurück, genau so, wie man es während des Beginns eines GSM erwartet.

[Dazu passt diese aktuelle Meldung über einen Wassermangel in Spanien. A. d. Übers.]

Das alles ist schon einmal passiert, liebe Klimaalarmisten, und die Beweise dafür deuten auf die Sonne hin.

[SILSO/Tony Heller]

Die folgende Graphik habe ich seit Längerem nicht gezeigt:

Historische Sonnenfleckenaktivität, mit einem weiteren „Maunder-ähnlichen“ GSM am Ende.

Link: https://electroverse.substack.com/p/cyprus-is-white-alaskas-pandemic?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE

 




Ganz falsch: Grüne Politik würde Minderheiten und der Arbeiterklasse zugutekommen

Nick Pope, Mitwirkender, 28. Januar 2024, Daily Caller News Foundation

Die Klimaagenda der Biden-Regierung, die Vizepräsidentin Kamala Harris kürzlich verabschiedet hat, umfasst schätzungsweise eine Billion US-Dollar an Staatsausgaben. Die Regierung behauptet, das Programm ist speziell darauf ausgelegt, die Interessen von Gemeinschaften von Minderheiten in den Vordergrund zu stellen. Gleichzeitig sollen angeblich grüne Arbeitsplätze für Arbeiter geschaffen werden, welche möglicherweise ihren Arbeitsplatz in der Industrie oder anderen emissionsintensiven Wirtschaftszweigen verlieren. Experten erklären jedoch, dass beide demografischen Gruppen letztendlich von allen Bevölkerungsgruppen den größten finanziellen Stress durch die grüne Agenda erleiden.

In den kommenden Jahrzehnten will die Regierung Biden das amerikanische Stromnetz umgestalten, die Massenproduktion und den Einsatz vergleichsweise teurer Elektrofahrzeuge vorschreiben. Die Amerikaner werden zur Verwendung effizienterer und oft teurerer Haushaltsgeräte gezwungen. Die Regierungen der Bundesstaaten und Kommunen sollen bei der Ausarbeitung aktualisierter Bauvorschriften im Hinblick auf die „Dekarbonisierung“ von Gebäuden unterstützt werden. Die Regierung hat Subventionsprogramme aufgelegt oder anderweitig beträchtliche Summen an Steuergeldern ausgegeben, um jedes dieser Ziele zu erreichen, und wendet in vielen Fällen ihre sogenannten „Justice40“-Richtlinien auf ihre Umweltausgaben an.

Die „Justice40“-Initiative schreibt vor, dass Bundesbehörden sich darum bemühen, sicherzustellen, dass „40 % des Gesamtnutzens bestimmter Bundesinvestitionen an benachteiligte Gemeinschaften fließen, die marginalisiert, unterversorgt und durch Umweltverschmutzung überlastet sind“. so das Weiße Haus. Die Initiative weist die Bundesbehörden faktisch an, die Rasse in den Mittelpunkt bestimmter Klima- und Infrastrukturausgabenprogramme zu stellen, auch wenn die Regierung dies nicht explizit angibt .

Die wichtigste Säule in Bidens Klimaagenda ist der Inflation Reduction Act (IRA), der im August 2022 in Kraft trat. An dem Tag, an dem der Gesetzentwurf in Kraft trat, versprach das Weiße Haus, dass der IRA „die Energiekosten für schwarze Familien senken und neue Energie schaffen wird. Es werden tausende von guten Arbeitsplätzen geschaffen und das alles bei gleichzeitiger Reduzierung der Klimaverschmutzung und Gewährleistung einer sauberen und sicheren Energieversorgung der Zukunft.“

„Viel zu lange wurden Gemeinden, die die Hauptlast der Kraftwerks- und Industrieverschmutzung tragen, außen vor gelassen und zurückgelassen“, sagte John Podesta, der leitende Berater des Präsidenten für Innovation und Umsetzung sauberer Energie, im November 2023. „Der Inflation Reduction Act und die Justice40-Initiative von Präsident Biden ändern das, indem sie benachteiligten Gemeinden neue Investitionen, saubere Energie und gut bezahlte Arbeitsplätze bringen.“

Aber Donna Jackson, die Direktorin für Mitglieder des schwarzen Führungsnetzwerks Project 21 des National Center, ist nicht davon überzeugt, dass die Ausgaben und der Schwerpunkt der Regierung auf „ Umweltgerechtigkeit “ tatsächlich irgendeinen Unterschied für die Bevölkerungsgruppe machen werden, auf die solche Initiativen angeblich abzielen:

 „Eine der obersten Prioritäten für schwarze Gemeinden ist der Besitz von Eigenheimen. Umweltpolitische Maßnahmen verteuern die Kosten für den Bau von Häusern. Die Materialien werden ständig teurer und die Umweltauflagen verursachen zusätzliche Kosten, was alles zu höheren Immobilienpreisen beiträgt. Neue und bezahlbare Wohnbauprojekte werden aufgrund von Umweltproblemen häufig entweder verzögert oder ganz storniert, was wiederum zur Wohnungsknappheit verschärft, was dann auch die Immobilienpreise weiter in die Höhe treibt…. Für Gemeinden mit niedrigeren Bildungsquoten und Minderheiten, ist die grüne Agenda zur Deindustrialisierung des Landes eine finanzielle Katastrophe.

Beispielsweise versucht die Environmental Protection Agency (EPA – Umweltbehörde), die Luftqualitätsstandards für Feinstaub zu aktualisieren, ein Schritt, vor dem Führungskräfte aus der Industrie  im November 2023 gewarnt hatten. Die Umsetzung und Durchsetzung vernichtet Arbeitsplätze und schwächt Amerikas Industriekapazitäten.

„Wir werden gute Arbeitsplätze für Millionen Amerikaner schaffen … und wir werden alles tun, um den verheerenden Auswirkungen des Klimawandels standzuhalten und Umweltgerechtigkeit zu fördern“, sagte Biden während der Rede zur Lage der Nation 2022.

Abgesehen von den Kosten für den Kauf eines Eigenheims werden die Bemühungen der Verwaltung zur Effizienzsteigerung von Haushaltsgeräten auch die alltäglichen Lebenshaltungskosten in einem Eigenheim verteuern, sagte OH Skinner, der Geschäftsführer der Alliance for Consumers, gegenüber DCNF. Seine Organisation hat errechnet, dass die von der Biden-Regierung erlassene Flut an gerätebezogenen Vorschriften amerikanische Hausbesitzer mindestens 9.000 US-Dollar mehr kosten könnte:

„In Städten, in denen es wirklich schwer ist, die Miete zu zahlen, ist es brutal, wenn man die Stromrechnungen in die Höhe treibt. Wenn man die Kosten für die Installation von Geräten in die Höhe treibt, ist das noch schlimmer. Für Menschen, die kurz davor stehen, ein Haus zu erwerben, verschlingt diese Politik ihre Budgets, ohne ihnen eine Wahl zu lassen. Diese Maßnahmen treffen Familien viel härter und sind sehr schmerzhaft für Menschen, die es nicht ausgleichen können, wenn ihr Leben noch teurer wird, als es durch die Inflation ohnehin schon ist.“

Neben einer stabilen und gut bezahlten Beschäftigung ist Wohneigentum ein Grundpfeiler des „amerikanischen Traums“ und ein wichtiges Instrument für die sozioökonomische Mobilität zwischen den Generationen. Bei den Eigenheimbesitzern machte das Eigenkapital im Jahr 2021 im Durchschnitt 45 % ihres Nettovermögens aus.

Im Jahr 2022 betrug das mittlere Haushaltseinkommen für Afroamerikaner etwa 52.800 US-Dollar und für hispanische Haushalte 62.800 US-Dollar, verglichen mit 81.000 US-Dollar für weiße Haushalte, so die Peter G. Peterson Foundation. Im Juni 2023 kontrollierten die oberen 10 % der amerikanischen Haushalte etwa 70 % des gesamten Haushaltsvermögens, während die unteren 50 % nur 2,5 % des gesamten Haushaltsvermögens des Landes besaßen.

„Höhere Energiekosten sind eine regressive Steuer für die am wenigsten Wohlhabenden und schaden ihnen unverhältnismäßig … Indem Energie teurer und weniger zuverlässig gemacht wird, werden die wirtschaftlichen Möglichkeiten für die am wenigsten Wohlhabenden in der Gesellschaft verringert“, sagt Jonathan Lesser, außerordentlicher Wissenschaftler am Manhattan Institute und Präsident von Continental Economics. „Der beste Ansatz zur Förderung verbesserter wirtschaftlicher Bedingungen für einkommensschwache Einwohner (jeder Hautfarbe) besteht darin, eine erschwingliche, zuverlässige und reichliche Energieversorgung sicherzustellen. Dadurch wird eine solide Grundlage für Wirtschaftswachstum, steigende Löhne usw. geschaffen.“

„Ich vermute, dass die Mitglieder vieler Umweltgruppen fast ausschließlich aus wohlhabenden Progressiven und wenigen Minderheiten bestehen“, so Lesser weiter. „Ich glaube nicht, dass es bei der grünen Politik darum geht, das Leben der marginalisierten Gemeinschaften zu verbessern. Es geht um mehr Macht und mehr Geld für die Eliten“.

Das Weiße Haus reagierte nicht sofort auf eine Bitte um Stellungnahme.

Demmig, – auch eine grüne Lüge

All content created by the Daily Caller News Foundation, an independent and nonpartisan newswire service, is available without charge to any legitimate news publisher that can provide a large audience. All republished articles must include our logo, our reporter’s byline and their DCNF affiliation. For any questions about our guidelines or partnering with us, please contact licensing@dailycallernewsfoundation.org.

https://dailycaller.com/2024/01/28/greens-claim-policies-benefit-minorities-working-class-experts-dead-wrong/

Übersetzt durch Andreas Demmig