Nur verfügbarer Strom hat Wert !

Eine sichere und preiswerte Energieversorgung ist nur mit fossilen und nuklearen Brennstoffen möglich. Wind- und Solarstrom ist nicht sicher verfügbar. (Hydro- und Biogas-Strom ist für Deutschland mengenmäßig bedeutungslos)

 

Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB

Energie hat nur Wert, wenn sie bei Bedarf verfügbar ist. Das ist bei den vom Wetter gesteuerten Wind-, Solar- und Laufwasser-Stromerzeugern nicht der Fall (Fakepower). Mal gibt es zu wenig, mal zu viel Strom. Gibt es zu wenig Strom, müssen Kraftwerke oder teure, verlustreiche Speicher die Strommenge auf den Bedarf regeln. Zuviel Strom führt zur Überlastung des Netzes. Dann müssen rechtzeitig Fakepoweranlagen abgeschaltet werden. Sonst unterbrechen Überlastsicherungen die Stromzufuhr (Blackout).

Das heißt: Wir können auf Kraftwerke nicht verzichten. Die Vision, Deutschland  in 20 Jahren ausschließlich mit Fakepower zu versorgen, ist Utopie. Regelkraftwerke müssen die Netzleistung sichern. Darüber hinaus kann in Deutschland mit Fakepoweranlagen nicht die für das Land benötigte Energie gewonnen werden. Der Flächenbedarf dafür ist zu groß und die Energieverluste bis zum Verbraucher steigen durch lange Leitungen und unzureichende Speicher in nicht bezahlbare Höhen. Deutschland ist und bleibt ein Energie-Importland.

 

Energiespeicher sind keine Lösung

Energiespeicher in der benötigten Kapazität sind weder darstellbar noch bezahlbar. Für weitere Pumpspeicherwerke fehlen Platz und Fallhöhe. Batteriespeicher sind teuer und schwer. Sie brauchen seltene Metalle, die nur begrenzt verfügbar sind. Die Betriebsdauer ist mit etwa 10 Jahren kurz. Beide Speichertypen haben Verluste von rund 20 Prozent. Die Speicherung von Energie als Wasserstoff ist die Zauberformel der Energie-Ideologen. Sie wissen offensichtlich nicht, dass bei der elektrolytischen Erzeugung, dem Transport und der Speicherung von Wasserstoff, sowie der Wiederverstromung in Gaskraftwerken mehr als 80 Prozent der eingesetzten Fakepower verloren geht. Darüber hinaus muss das Speichervolumen verdreifacht werden, weil Wasserstoff nur ein Drittel der Energiedichte (kWh/m³) von Erdgas hat. Damit steigen auch die Transportkosten auf das Dreifache. Für die Speicherung von Wasserstoff fehlen geeignete Kavernen. Zurzeit wird erst getestet, ob er in Salzkavernen ohne wesentliche Verluste eingelagert werden kann.

Fakepower kann Deutschland nicht sicher und ausreichend mit bezahlbarer Energie versorgen. Die Erzeugung ist unzuverlässig und teuer. Auf dem Weg zum Verbraucher geht viel Energie verloren. Günstig sind dagegen Energieträger, die pro Kilogramm oder pro Kubikmeter viel Energie gespeichert haben. Sie können preiswert zum Verbraucher transportiert und gelagert werden. Erst dort sollte die gespeicherte Energie entsprechend dem Bedarf freigesetzt und in geforderte Energieform (Wärme, Strom, Arbeit) umgewandelt werden.

 

Wir brauchen Energieträger hoher Dichte

 

Die Tabelle zeigt die geringe Energiedichte der sogenannten erneuerbaren Energien im Vergleich mit fossilen Brennstoffen. Das Einsammeln und Verdichten von Fakepower erfordert viel Fläche, neue Leitungen, Transformatoren, Gleich- und Wechselrichter sowie Speicher, die in der erforderlichen Größenordnung nicht realisierbar sind. Die Energiewende muss scheitern. Ohne fossile und Kernbrennstoffe ist die Versorgung eines Industrielandes nicht möglich. Wir werden auch in hundert Jahren noch diese Energiequellen nutzen.

 

Energieträgern für Kraftwerke

Energieträger Energiedichte

 

Anmerkungen
Kernbrennstäbe 5.000.000 kWh / kg Strahlung
Erdöl             12 kWh / kg Wärme
Steinkohle               8 kWh / kg Wärme
Braunkohle               5 kWh / kg Wärme
Erdgas             10 kWh / m³ Wärme
Wasserstoff              3,5 kWh / m³ Wärme
Holz               5 kWh / kg Wärme

 

Energiedichte „regenerativer“ Energieträger

Energieträger Energiedichte
Wasser   0,00028 kWh / kg Fallhöhe 100 m
Wind 0,000016 kWh / m³ Windgeschwindigkeit 10 m/s
Sonne 100 kWh / m² . Jahr Photovoltaik
Biomasse 6 kWh / m² . Jahr Wärme
Batterie 0,3 kWh / kg Strom

 

Wir können auf Treibstoffe aus Erdöl und Erdgas und Kohle wegen ihrer hohen Energiedichte nicht verzichten. 1 Kilogramm Benzin hat mehr Antriebsenergie als 10 Kilogramm Batterie. Die Ladeleistung für fossile Treibstoffe übersteigt 7000 kW an jeder normalen Tankstelle. Ein mit 70 Liter gefüllter Tank mit einem Gewicht von weniger als 100 kg hat genug Energie für 1000 Kilometer. Ersatztreibstoff kann in einfachen Kanistern im Kofferraum mitgenommen werden.

 

Batterien sind teure und schwere Energiespeicher

Batterien sind dagegen teure und schwere Energiespeicher, ungeeignet. für Flugzeuge, längere Notstromversorgung, weite Schiffstransporte und viele andere Antriebe. Das hat auch die EU in Brüssel verstanden. Einsatzfahrzeuge der Polizei, Krankentransporte  usw. sind vom zukünftigen Verbot fossiler Treibstoffe ausgenommen. Lange Ladezeiten und hohe geforderte Ladeleistungen verstärken das Problem.7 Stunden dauert das Laden einer 80 kWh-Batterie mit der 11 kW-Wallbox zu Haus. Öffentliche Ladestellen haben meist 22 kW Leistung und verkürzen die Ladezeit auf die Hälfte. Die höchsten Ladeleistungen, die an wenigen Stellen angeboten werden, erreichen 400 kW. Damit wird die Ladezeit auf knapp 7 Minuten verringert. Gleichzeitig verringert sich aber auch die Betriebszeit der teuren Batterie merklich.

 

Hohe Energieverluste auf den Weg zum Verbraucher

Energie ist nur wertvoll, wenn sie genutzt wird. Sie muss mit möglichst geringen Verlusten zum Verbraucher gebracht werden. Das gilt sowohl für die Transport- wie auch für die Lagerkosten. Die fossilen Energieträger Kohle, Erdöl und Erdgas haben wegen ihrer hohen Energiedichte geringe Transportkosten pro Kilowatt. Sie können beim Verbraucher in größeren Mengen gelagert werden. Am günstigsten ist  Kohle. Sie kann einfach auf Halde geschüttet werden und bleibt über viele Jahre verfügbar. Erdöl braucht dagegen große Behälter. Bewährt haben sich Kavernen in Salzstöcken. In solchen Salzkavernen sind in Deutschland Erdöl und Treibstoffe für 3 Monate als Notreserve eingelagert. Für Kohlekraftwerke wurde eine verpflichtende Notreserve mit der Energiewende abgeschafft. Erdgas wird gleichfalls in Kavernen unter 70 bis 250 Bar Druck für die Winterzeit bevorratet. Ob mit dem Einfuhrstopp für russisches Gas das Angebot aus anderen Ländern für die Winterzeit ausreicht, wird die Zukunft zeigen. In jedem Fall wird es Flüssiggas sein, das dreimal teurer ist als Pipelinegas.

 

Transport- und Speicherverluste

Transport und das Lagern von Strom aus Wind- und Solaranlagen ist dagegen ein großes Problem mit hohen Verlusten. Die Anlagen erzeugen Strom nach Wetterlaune. Zur Befriedung des Bedarfs müsste er in großen Mengen gespeichert werden. Das ist jedoch nicht möglich. Die einzigen bekannten Speicher sind Kondensatoren. Sie haben eine sehr geringe Kapazität, die eine Stromversorgung nicht sichern kann. Strom kann nur in Energieträgern mit hohen Verlusten gespeichert werden: In Pumpspeichern oder Druckspeichern als mechanische Energie mit Verlusten von 20 bis 40 Prozent, in Batterien mit Verlusten von 20 Prozent, als Wasserstoff mit Verlusten von mehr als 80 Prozent. Wenn alle Speicher voll sind, reicht die Kapazität zur Vollversorgung von Deutschland für weniger als eine Stunde!

 

Unsinnige Klimaziele

Es ist ein Trauerspiel. Klimahysterie und einseitige Bewertung des Kohlendioxids nur im Hinblick auf eine unbewiesene Erderwärmung führt Deutschland in den wirtschaftlichen Niedergang. Wir brauchen mehr jederzeit verfügbare Energie für die Industrie, aber auch für Hilfsgeräte zur Betreuung der alternden Bevölkerung. Wohlstand ist nur mit mehr verlässlicher und bezahlbarer Energie möglich. Doch die alte und die neue Bundesregierung halten an den Klimazielen fest und haben sie sogar in der Verfassung verankert. Ein Unsinn. Man muss an dem  gesunden Menschenverstand der Bundestagsabgeordneten zweifeln, die dafür gestimmt haben.

Die grünen Ideologen und die Profiteure der Energiewende indoktrinieren die Bevölkerung mit ständiger Wiederholung, die Energiewende sei notwendig zur Rettung des Klimas. Wir werden ständig von fast allen Medien darauf hingewiesen, der Klimawandel sei schuld an Trockenheit und zu viel Regen, an hohen Temperaturen und zu großer Kälte, an Stürmen und Überschwemmungen, an Missernten und vielem mehr. Unterstützt wird die Indoktrination durch Wissenschaftler, die ihre Fachkenntnisse verleugnen und Forschungsergebnisse einseitig im Sinne der Regierung veröffentlichen. Veröffentlichungen, die die Klimapolitik hinterfragen, werden mit Entzug von staatlichen Forschungsgeldern bestraft. Wie weit muss Deutschland noch sinken, bis eine realistische und marktwirtschaftliche Energiepolitik ohne Subventionen die Wirtschaft wieder antreibt?

 

 

 

 




Treibhausdämmerung: Der Faktor 4 macht aus unserer Erde eine Halbdunkelwelt

Uli Weber

Von UN und IPCC über Politik, Medien, zehntausende GONGOs, MINT- und MINT-ferne Wissen­schaften, Kirchen aller Konfessionen sowie demokratische Institutionen bis hin zum Bundesver­fassungs­gericht ist man einhellig der Meinung, die Welt würde verglühen, wenn der Mensch weiterhin fossile Energieträger zur Aufrechterhaltung seiner industriellen Kultur verwendet, weil er damit den CO2-getriebenen „natürlichen atmosphärischen Treibhauseffekt“ verstärken würde. Wenn Kirchen und Wissenschaft an einem Strang ziehen, muss man sehr vorsichtig sein. Und wenn dann noch ein hohes Gericht dazu kommt, dann beginnt der alte Galileo schon mal vorsichtshalber im Grab zu rotieren. Also fangen wir mal ganz von vorne an. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch sogenannte Infrarot-aktive Gase die Abstrahlung unserer Erde behindern und so die vorgeblich „natürliche“ Temperatur um 33 Grad auf die gemessene Durchschnitts­temperatur erhöhen. Schon mit dem Begriff „atmosphärischer Treibhauseffekt“ entfernt man sich aber von der seriösen Physik, wie die nachstehende Abbildung beweist:

Abbildung 1: Die Unterbrechung des konvektiven Luftaustauschs in einem Treibhaus

Die Sonne erwärmt die Erdoberfläche – und natürlich auch den Boden eines Treibhauses. Das Glasdach dieses Treibhauses verhindert nun aber ganz profan das Abfließen von Wärme durch das Aufsteigen warmer Luft, und deshalb ist es im Treibhaus wärmer als in seiner Umgebung. Dieses Aufsteigen warmer und deshalb leichterer Luft hilft in freier Wildbahn den Greifvögeln und Segelfliegern, weite Strecken ohne Kraftanstrengung beziehungsweise eigenen Antrieb zurückzulegen. Konvektion ist also ein von der Schwerkraft angetriebener Materietransport und hat überhaupt nichts mit Strahlung zu tun. Denn der Treibhauseffekt erzeugt physikalisch nicht etwa zusätzliche Wärme, sondern verhindert lediglich das Abfließen von bereits erzeugter Wärme. Die Nationale deutsche Akademie der Wissenschaften Leopoldina erklärt nun den ominösen atmosphärischen Treibhauseffekt in ihrem „Factsheet“ nun folgendermaßen, Zitat:

Der Treibhauseffekt: Eine einfache Energiebilanz bestimmt die Temperatur auf der Erde

  • Der Schlüssel zum naturwissenschaftlichen Verständnis der menschengemachten globalen Erwärmung liegt in der Energiebilanz unseres Planeten und der Physik des Treibhauseffekts.
  • Die Sonneneinstrahlung trifft auf die Erde, ein Drittel dieser Strahlung wird reflektiert, der Rest aufgenommen. Die Erde strahlt langwellige Wärmestrahlung ab und gleicht dadurch die von der Sonne kommende kurzwellige Strahlung aus (stabiles Klima).
  • Wasserdampf, Kohlendioxid- und Methan-Moleküle in der Atmosphäre behindern die Abstrahlung von Wärme von der Erdoberfläche und strahlen einen Teil davon wieder zurück. Ohne diesen natürlichen Treibhauseffekt läge die globale Durchschnittstemperatur nicht bei rund 14°C, sondern bei −18 °C. Leben wäre dann nicht möglich.
  • Durch die Verbrennung fossiler Stoffe hat sich die Konzentration von Kohlendioxid in der Atmosphäre erhöht. Dadurch wird mehr Wärme auf die Erde zurückgestrahlt. Die Temperatur an der Erdoberfläche und in der unteren Atmosphäre erhöht sich.
  • Der durch den Menschen verursachte Treibhauseffekt verändert die Energiebilanz der Erde und hat zu einem Überschuss des Energieflusses von 0,6 Watt/m2 geführt.
  • Rückstände der Verbrennung fossiler Stoffe in der Atmosphäre (Aerosole) haben jedoch gleichzeitig einen kühlenden Effekt.“

Und das nachstehende Faktor4-Bildchen für „die Energiebilanz der Erde“ soll diese Zusammenhänge offenbar erklären – mag ja sein, dass die aktuell geehrten Gelehrten der Leopoldina den Unterschied zwischen Energie und Leistung noch nicht ganz verstanden haben. Von ihren mehr als 7.000 ernannten Mitgliedern hebt die Leopoldina Marie Curie, Charles Darwin, Albert Einstein, Johann Wolfgang von Goethe, Alexander von Humboldt, Justus von Liebig und Max Planck besonders hervor. Zumindest die Herren Einstein und Planck wären sicherlich mit der Erklärung über­fordert, wie denn aus einer absorbierten solaren Strahlungsleistung von 160 W/m² an den Hauptsätzen der Thermodynamik vorbei eine Oberflächenabstrahlung von 398 W/m² entstehen sollte – und eine ominöse „Gegenstrahlung“ von 342 W/m² bringt diese fehlerhafte Physik auch nicht in Ordnung. Das Paradoxon dieser „Gegenstrahlung“, die selbst erst ihre eigenen Entstehung bewirkt, hatte ich als „paranormalen Chuck-Norris-Kreisprozess“ in diesem Artikel ausführlich aufgedröselt.

Abbildung 2 (Leopoldina): „Der Klimawandel bringt die Energiebilanz der Erde aus dem Gleichgewicht“ (in Watt pro Quadratmeter), Bildunterschrift: „Wie kommt es zum Klimawandel? Die Erwärmung der Atmosphäre entsteht dann, wenn die Rückstrahlung der Sonnenenergie durch die Erhöhung der Konzentrationen der Treibhausgase reduziert wird. Die Erhöhung der Konzentrationen der Treibhausgase bewirkt eine Abstrahlung aus größerer Höhe der Atmosphäre, wo es kälter ist. Dadurch gelangt weniger Wärmestrahlung zurück in den Weltraum. Den Überschuss an Energie messen wir als Erwärmung der Erdoberfläche und der unteren Atmosphäre. Die in Klammern angegebenen Zahlen geben den Unsicherheitsbereich an.“

Wir können dem „Factsheet“ der hoch wissenschaftlichen Leopoldina also schon mal folgende „harten“ physikalischen Informationen über diesen natürlichen Treibhauseffekt (THE) entnehmen:

  1. Die Erde erhält (340-100=) 240 W/m² temperaturwirksame Sonneneinstrahlung.
  2. Ohne den THE läge die globale Durchschnittstemperatur bei −18 °C.
  3. Erst der THE erhöht die Durchschnittstemperatur der Erde um 32K auf 14°C.

So, und jetzt schauen wir uns die wirklichen geometrischen Verhältnisse auf der sonnenbestrahlten Erde mit den originären Eckpunkten einmal genauer an:

Abbildung 4: Die geometrischen Verhältnisse auf der sonnenbestrahlten Erde im Äquinoktium mit der sogenannten „gemessenen globalen NST“, die beim Faktor4-Modell einen THE erfordert

Das Flächenverhältnis zwischen der auf einer Kreisfläche mit dem Erdradius einfallenden Sonneneinstrahlung, der Tagseite der Erde und ihrer Gesamtfläche beträgt [1:2:4]. Und jetzt erkennen wir auch sofort den alten Feind des Stefan-Boltzmann-Gesetzes, nämlich die globale Mittelung der Sonneneinstrahlung mittels des ominösen Faktors „4“. Denn es ist intellektuell schon ziemlich abgedreht, einen linearen Durchschnittswert über Tag und Nacht mathematisch in einer physikalischen T^4-Beziehung zu verwursten und damit dann auch noch einen weltbewegenden Klimaalarm anzuzetteln.

Die Sonneneinstrahlung auf unserer Erde ist von der Tageszeit, der Jahreszeit und von der geografischen Breite abhängig, wird aber als eindimensionaler Durchschnitt dargestellt:

Im Klimawahn berechnet man die Kreisfläche der einfallenden Sonnenstrahlung in Quadratmetern, multipliziert diese mit der Solarkonstanten sowie den 86.400 Sekunden des 24h-Tages und erhält eine Energiemenge in Joule. Diese teilt man dann wiederum durch die 86.400 Sekunden des 24h-Tages und die Gesamtfläche der Erde in Quadratmetern und – schwuppdiwupp – behauptet man, mit dieser Viertelung der Solarkonstanten auf 340 W/m² sogar die Erddrehung berücksichtigt zu haben. Die Klimakirche multipliziert also mit und dividiert durch 86.400 Sekunden, und das ergibt erstaun­licherweise gar keine Veränderung. Und auch die Multiplikation mit 10^6 von qkm auf qm bei Kreis­fläche und Erdoberfläche ergibt keinerlei Veränderung des originären Flächenverhältnisses von 1:4; es bleibt einfach beim Faktor4. Denn wie man es auch dreht und wendet, im Grunde teilt man die Solarkon­stante einfach nur durch den ominösen Faktor4 und berücksichtigt dabei überhaupt nichts.

ERKENNTNIS: Bei der Faktor4-Mittelung vergeht der Unterschied zwischen Tag und Nacht in einem Einheitsgrau. Denn man kann jede Formel durch eine Multiplikation mit X/X „aufpeppen“, ohne dass sich das Ergebnis verändert. Ob man also eine Berechnung erst mit einer beliebigen Anzahl von Sekunden multipliziert und dann wieder durch dieselbe Zahl teilt oder in China platzt ein Sack Reis, das ist völlig egal und ändert gar nichts am Ergebnis – außer dass man damit dreist über die Tatsache hinwegtäuschen kann, die Solarkonstante nicht nur über die sonnenbeschienene Tagseite, sondern auch gleich noch über die dunkle Nachtseite der Erde mitgemittelt zu haben.

Und erst dieser Umstand schafft dann den Raum für einen sogenannten „natürlichen atmosphäri­schen Treibhauseffekt“ von 155 W/m² als Korrekturfaktor gegenüber der gemessenen Realität. Selbstverständlich können Sie diesen antiwissenschaftlichen Hokuspokus auch mit den Sekunden für ein ganzes Jahr machen und behaupten, damit die Jahreszeiten berücksichtigt zu haben, oder, noch anspruchsvoller, Sie nehmen die WMO-Klimadefinition von 30 Jahren und haben damit sogar das Weltklima berücksichtigt (Sarc aus). Die Klimakirche vereinheitlicht also eben mal eindimensional über Tag und Nacht, Sommer und Winter sowie alle Klimazonen unserer Erde durch eine Viertelung der Solarkonstanten. Eine solchermaßen fehlerhaft „berechnete Normaltemperatur“ unserer Erde ignoriert eine Menge Phänomene, die uns realphysikalisch eigentlich lieb und teuer sein sollten:

  • Den regelmäßigen Wechsel von Tag und Nacht.
  • Den regelmäßigen Wechsel der Jahreszeiten.
  • Die höchst unterschiedlichen natürlichen Klimate auf unserer Erde.

Die genannten Unterschiede lässt eine eindimensionale „globale Durchschnittstemperatur“ von 15°C, die vorgeblich auf einem konstanten THE von 33K beruht, nämlich einfach verschwinden – und in der weiteren Betrachtung der Klimakirche spielen all diese zyklisch solar gesteuerten Phänomene dann auch überhaupt keine Rolle mehr; denn man fokussiert da lieber auf das menschengemachte CO2.

In keiner einzelnen Sekunde der Sonneneinstrahlung spielt die Erdrotation irgendeine Rolle. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist lediglich ein frei erfundener eindimen­sionaler Korrekturwert, der eine missbräuchliche lineare Tag&Nacht-Durchschnittsberechnung mit dem Stefan-Boltzmann-Gesetz an die gemessene und durchschnittsverwurstete Realität anpasst. Von der ominösen „globalen Durchschnittstemperatur“ führt daher kein Weg mehr zurück in die solar gesteuerte Realität, sondern er führt direkt in den selbstzerstörerischen CO2-Klimawahn.

Selbstverständlich werden wir trotzdem mit panikerzeugenden Veränderungen charakter­istischer Klimaeigenschaften bombardiert: Die polaren Gletscher werden weniger, die Wüsten dagegen mehr, die tropischen Regenwälder brennen und der Meeresspiegel frisst Inseln und Hafen­städte. Wenn wir uns jetzt einmal die tatsächliche Sonneneinstrahlung über 24 Stunden im Äquinoktium ansehen, dann können wir eine einheitliche Tag&Nacht-Verteilung über alle Breitenkreise erkennen, wobei der jeweilige Halbstundenwert als Mittelwert für das angegebene Zeitfenster aufgetragen wurde:

Abbildung 5: Die Netto-Strahlungsleistung in W/m² für alle Breitenkreise von 90°N bis 90°S über 24 Stunden im Äquinoktium mit 12:00 Uhr=Sonnenstand im Zenit

Diese und die nachfolgende Abbildung sind farbcodierte Excel-Tabellen. Am linken Rand ist jeweils die geografische Breite von 90°N bis 90°S aufgetragen und horizontal die Stundenintervalle des 24h-Tages, die eine ebene 360°-Projektion der Erde repräsentieren. Als Durchschnittswerte für die Stundenintervalle sind jeweils die Halbstundenwerte angegeben.

Über den Tagesverlauf (6h-18h) verändert sich die örtliche solare Strahlungsleistung (bei einem Sonnenstand im Zenit um 12:00 Uhr) in Abhängig­keit vom örtlichen Azimut und Zenitwinkel – und nachts (18h-6h) ist es dann stockdunkel. Auch das generelle Absinken der solaren Strahlungs­leistung zu den Polen hin (hier: nach oben und unten) ist in dieser Abbildung deutlich zu erkennen. Die Erwärmung unserer Erde ist nun mal ein solarer Echtzeitvorgang, denn es erwärmt an jedem Ort immer nur die augenblickliche Sonneneinstrahlung – und nachts ist’s dort halt dunkel!

So, und jetzt machen wir mal die Faktor4-Probe: Wir addieren die hier dargestellte und von einer Kreis­fläche einfallende solare Strahlungsleistung über die 86.400 Sekunden des 24h-Tages auf, teilen die solare Ein­strahlungsfläche durch die Gesamtfläche der Erde und rechnen dann wieder auf eine Sekunde zurück. Und siehe da, die gesamte Tag&Nacht-Fläche der Grafik inklusive der Nachtseite wird mit einer Nettoeinstrahlung von 235W/m² mittelgrau, denn es kommt dabei genau der ominöse Faktor4 heraus. Und zwar ist es ganz egal, ob Sie über eine Sekunde, eine Minute, eine Stunde, einen Tag oder eine Woche mitteln. Und deshalb gibt es auch zwischen dem Faktor4-THE-Modell und der Realität auf unserer Erde überhaupt keine Verbindung. Nichts, aber auch gar nichts am THE-Modell weist auf eine Breitenabhängigkeit oder gar eine Tag/Nacht-Abhängigkeit der örtlichen solaren Einstrahlung hin. Dagegen zeichnet das aus der solaren Nettostrahlungsleistung abgeleitete S-B-Temperaturäquivalent für alle Breiten­kreise von 90°N bis 90°S die Abhängigkeit der terrestrischen Temperaturgenese von Tageszeit und geografischer Breite deutlich nach:

Abbildung 6: Das S-B-Temperaturäquivalent in °C aus der Netto-Sonneneinstrahlung für alle Breitenkreise von 90°N bis 90°S über 24 Stunden im Äquinoktium
(Wert für Std:30 als Mittelwert für Std-Std+1 mit 12:00 Uhr= Sonnenstand im Zenit)

Um es von vorn herein nochmal ganz deutlich zu machen: Das hier dargestellte S-B-Temperatur­äquivalent wird nirgendwo auf unserer Erde tatsächlich erreicht. Vielmehr wird sofort mit Beginn der örtlichen Erwärmung ständig Wärme in die globalen Zirkulationssysteme abgeleitet, überwiegend durch Konvektion und Verdunstung. Wasser und Wasserdampf spielen hier eine überragende Rolle. Während die Temperatur in den Tropen über 24h nur schwach um die 30°C schwankt, können die Temperaturen in Wüstengebieten tagsüber gerne mal über 50°C ansteigen, um nachts auf einstellige Werte zurückzufallen. Und in der Polarnacht fällt die Ortstemperatur nicht etwa auf Minuswerte jenseits 200°C, sondern sie wird durch die Wärmezufuhr aus den globalen Zirkulationen deutlich oberhalb von minus 100°C gehalten. Wie die nachfolgende Abbildung beweist, reicht bereits die einfache Berechnung des breitenabhängigen S-B-Temperaturäquivalents aus, um ganz grob die geografischen Klimazonen nach Köppen und Geiger nachzuzeichnen:

Abbildung 7: „Present and future Köppen-Geiger climate classification maps at 1-km resolution“

Quelle: Wikipedia aus Nature Scientific Data DOI:10.1038/sdata.2018.214

Mit Overlay S-B-Temperaturäquivalent in °C aus der Netto-Sonneneinstrahlung für alle Breitenkreise von 90°N bis 90°S zwischen 11-13h im Äquinoktium (12:00 Uhr= Sonnenstand im Zenit)

Bereits das einfache Bild der breitenabhängigen solaren Einstrahlung im Äquinoktium als Overlay des mittäglichen S-B-Temperaturäquivalents ist in der Lage, die geografischen Klimazonen unserer Erde ganz grob nachzuzeichnen. Für das eindimensionale Faktor4-THE-Modell sind dagegen keinerlei Grafiken mit globalen Verteilungen bekannt. Vielmehr gilt die physikalisch fehlerhaft gemittelte temperatur­wirksame solare Durchschnittsstrahlungsleistung von 235 W/m² sogar eindimensional für die Polarnacht der Winterhemisphäre – was für ein pseudowissenschaftlicher Riesenbullfisch.

Wie wir also gesehen haben, leitet sich die ominöse „natürliche“ Temperatur der Erde von -18°C aus einer mathematischen Fehlanwendung des physikalischen S-B-Gesetzes her. Diese fehlerhafte globale Durchschnittsberechnung für die Sonneneinstrahlung kann daher weder Tag und Nacht, noch die Jahreszeiten oder gar die Klimazonen unserer Erde abbilden, sondern vereinheitlicht das alles einfach zu einem eindimensionalen orwell’schen Einheitsbrei: Tag ist Nacht, die Jahreszeiten sind alle gleich und Polkappen, Wüsten und tropische Regenwälder unterscheiden sich klimatisch überhaupt nicht voneinander. Erst mit einer hemisphärischen Betrachtung eröffnet sich der Bezug zur Realität. So übersteigt die tatsächliche örtliche solare Strahlungsleistung in den Tropen den fehlerhaften globalen Faktor4-Durchschnitt um ein Vielfaches. Dort in den Tropen, dem Klimamotor unserer Erde, erreicht das S-B-Temperatur­äquivalent leicht über 80°C, was bei einer real um 30°C schwankenden Orts­temperatur in der Spitze zu einem Abfluss von etwa 460 Joule pro Quadratmeter und Sekunde in die globalen Zirkulationen führt. Einen Abgleich zwischen dem fehlerhaften Faktor4-THE-Modell und meinem hemisphärischen Konvektionsmodell finden Sie am Ende dieses Artikels.

Im Verlauf eines 24h-Tages im Äquinoktium wird die Erde während ihrer 360° Grad Drehung einmal vollständig beleuchtet und bleibt gleichzeitig im selben Zeitraum, um 180 Grad (=12 Stunden) verschoben, völlig dunkel, wenn wir einmal von Streulicht absehen:
Wenn wir nämlich die Erddrehung aus der Sonnenperspektive mit 12:00 Uhr „Sonnenzeit“ für den senkrechten äquatorialen Sonnenstand betrachten, dann dreht sich die Erde unter der Sonneneinstrahlung kontinuierlich nach Osten weg. Aber in jeder Sekunde des 24h-Tages ist immer eine Hemisphäre beleuchtet und eine dunkel, auf der beleuchteten Hemisphäre herrscht Tageslicht und auf der gegenüber liegenden Hemisphäre herrscht Nacht. Infolge der Umdrehung unserer Erde um ihre Achse leiten sich daraus im Äquinoktium im Verlauf von 24 Stunden zwei völlig unterschiedlich beleuchtete Flächen her:

Fläche [Tag]: Im Verlauf von 24 Stunden dreht sich die Erde einmal komplett unter der Sonnenein­strah­lung hindurch, was in Summe zu einer nacheinander vollständig beleuchteten Erdoberfläche führt.

Fläche [Nacht]: Die der Sonne abgewandte dunkle Hälfte der Erde wandert, um 180° gegen die Tagfläche versetzt, in 24 Stunden ebenfalls nacheinander über die gesamte Erdoberfläche.

Im Ergebnis müssen wir also für den 24h-Tag auf der Erde die Fläche [Tag] und die Fläche [Nacht] unterscheiden und gesondert betrachten. Dem Grunde nach stehen sich zwei ganz unterschiedliche Betrach­tungsweisen für die Sonneneinstrahlung auf unserer Erde unvereinbar gegenüber, eine realistische Darstellung von Tag & Nacht und eine völlig falsche, weil eindimensionale globale Faktor4-Mittelung. Denn bei einer solchen Betrachtung zählt im wahrsten Sinne des Wortes nur die Physik der allerersten Sekunde – alles andere kürzt sich nämlich rechnerisch wieder gegeneinander heraus:

Das Faktor4-Modell (@4 PI R²): Die Klimakirche hat nun nicht einmal die Flächen [Tag] und [Nacht] gemittelt, was zumindest die Breitenabhängigkeit der solaren Einstrahlung erhalten und damit auch ein breitenabhängiges Hilfskonstrukt THE begründet hätte. Der Faktor4-Trick besteht vielmehr darin, die auf der Tagseite der Erde einfallende Sonnenstrahlung ganz platt und gleichmäßig über die gesamte Erdoberfläche zu verteilen. Und dabei werden dann eben mal sämtliche astrono­mischen Gesetzmäßigkeiten der Rotation unserer Erde und deren Bewegung um die Sonne vernichtet:

  • Der regelmäßige Wechsel von Tag und Nacht.
  • Der regelmäßige Wechsel der Jahreszeiten.
  • Die breitenabhängigen natürlichen Klimate unserer Erde.

=> Das Faktor4-Modell mittelt also die einfallende Sonnenstrahlung über die Gesamtfläche der Erde zu einer eindimensionalen 24h-Halbdunkelfläche. Dieser Vorgang stellt eine völlige Negierung der vorliegenden geometrischen und astronomischen Verhältnisse dar; denn von Vereinfachung kann man hier wirklich nicht mehr sprechen. Trotzdem, oder vielmehr gerade deshalb, sind diese eindimensionalen Werte für die solare Strahlungsleistung, die „natürliche“ Durchschnittstemperatur und den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ für einen MINT-fernen Nachrichtenverbraucher mit abgeschlossener Grundschulausbildung völlig plausibel und nachvollziehbar. Es ist also eine hervorragende Missionierungsleistung der Klimakirche, den variablen Beleuchtungseffekt bei einer komplexen Planetenbewegung in leicht verständliche eindimensionale Glaubenswerte umgewandelt zu haben.

Das hemisphärische Modell (vereinfacht: @2 PI R²): Die auf der Tagseite der Erde einfallende Sonnenstrahlung wird breitenabhängig korrekt nach Azimut und Zenitwinkel für jede individuellen Ortslage berechnet. Und wenn die Sonne nicht scheint (Nachtseite), dann ist‘s halt dunkel.

=> Im hemisphärischen Modell bestehen die beiden 24h-Flächen [Tag] und [Nacht] gleichberechtigt nebeneinander. Dieses Modell ist daher in der Lage, den regelmäßigen Wechsel von Tag und Nacht, den Wechsel der Jahreszeiten sowie grob die breitenabhängigen Klimate unserer Erde darzustellen:

Abbildung 8: Die Netto-Strahlungsleistung in W/m² für alle Breitenkreise von 90°N bis 90°S über 24 Stunden im Äquinoktium mit 12:00 Uhr= Sonnenstand im Zenit
Oben rechts: Die aus dem Faktor4 abgeleitete 24h-Halbdunkelfläche der Erde zum Vergleich

Der Faktor4 für die Verteilung der solaren Einstrahlung auf die gesamte Erdoberfläche vermischt also Tag & Nacht über alle geografischen Breiten und macht unsere Erde damit zu einer Halbdunkelwelt mit einer antiphysikalischen „natürlichen Temperatur“, die im Abgleich mit der Realität sogar noch einen sogenannten „natürlich­en atmosphärischen Treibhauseffekt“ als artifiziellen Korrekturwert erfordert. Die übliche finale Ausrede der Klimakirche, diese ominöse Temperatur durch ein religions­stiftendes „Reverse Engineering“ aus der terrestrischen Abstrahlung hergeleitet haben zu wollen, ist physikalisch eben­falls nur notdürftiges Klimagefasel. Denn eine solche Herleitung ignoriert über die vorstehende Kritik hinaus sogar noch die natürliche Abfolge der solar induzierten Temperaturgenese auf unserer Erde [Einstrahlung -> Temperaturgenese -> Abstrahlung] und damit die materiebedingte natürliche Umkehrung der Vektorrichtung zwischen Einstrahlung und Abstrahlung. Wie man unschwer erkennen kann, findet die terrestrische Temperaturgenese zwischen Einstrahlung und Abstrahlung statt. Die Berechnung einer „natürlichen“ Temperatur aus der Abstrahlung unserer Erde ist demnach eine THE-erzeugende antiphysikalische Übersprunghandlung.

Am Ende stehen wir damit vor einer vorsätzlichen Inversion des Lebens auf unserer Erde, denn der Homo climaticus hat den Klimaeinfluss unseres Zentralgestirns willkürlich marginalisiert und verleumdet stattdessen das Photosynthesegas allen Lebens als Beelzebub der Selbstverbrennung. Die sogenannte Klimakatastrophe ist also tatsächlich menschen­gemacht. Erst durch das auf Grundschulniveau reduzierte Tag=Nacht-Faktor4-Beleuchtungsmodell unserer Erde, das einen eindimensionalen THE als artifiziellen Korrekturfaktor benötigt, hat der Mensch selber die religiöse Grundlage für diese imaginäre CO2-Bedrohung erschaffen. Und wir versuchen jetzt gerade verzweifelt, unseren höchstrichterlich bestätigten Einfluss auf diese menschengemachte THE-Erfindung zu unterbinden, indem wir unsere industrielle Lebensgrundlage und die Zukunft unserer Nachkommen zerstören…

Weitere Informationen: Die korrekte Berechnung für die Durchschnittstemperatur der Taghemisphäre unserer Erde wird in dem Artikel „Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ vorgestellt. Den Grund, weshalb die durch den Faktor4 „globalisierte“ Sonnenein­strahlung physikalisch gar nicht in der Lage ist, die gemessenen Temperaturen auf der Erde darzustellen, hatte ich in dem Artikel „Kelvin allein zu Haus: Der Unterschied zwischen zwei Watt ist deren Umgebungstemperatur“ ausführlich beschrieben. Die im THE-Paradigma ungelöste Problematik zwischen den Vektorrichtungen von Einstrahlung und Abstrahlung wird in dem Artikel „Zeigt der Poynting-Vektor auf „Mittelerde“ oder auf die sogenannte ‚Abstrahlungshöhe‘?“ beleuchtet. Und die Aufrechterhaltung der Nachttempera­tur durch den Wärmeinhalt der globalen ozeanischen Zirkulationen wird in dem Artikel „Die sogenan­nte ‚gemessene globale Durchschnittstemperatur‘ wird von den Ozeanen bestimmt“ erläutert. Einen Wegweiser durch meine hemisphärischen EIKE-Artikel hatte ich in „BACK TO EARTH…“ zusammengefasst.

PS: Bevor sich jetzt die üblichen Verdächtigen ganz furchtbar aufregen bitte ich diese um eine Erklärung, wie denn die durchschnittliche globale temperaturwirksame Solarleistung, nach unterschiedlichen Quellen 235-240 W/m², eigentlich in die Polarnacht kommt – vielleicht in lichtundurchlässig verspiegelten Spezialcontainern der Marke Schilda?
Und der abgedrehte Modefuzzi möge mir bloß mit seinen Wintermänteln vom Leibe bleiben und sich darauf beschränken, meine EIKE-Beiträge für die Klimainquisition zu zählen und zu dokumentieren…




Die Probleme einfach mit Geld zuschütten

Ökologische Klimapolitik ist gescheitert

Scholz und Habeck haben ihre These, die ökologische Klimapolitik könne Motor für Wachstum und Wohlstand sein, selbst widerlegt. Die ökologische Klimapolitik ruiniert vielmehr die deutsche Wirtschaft. Damit es munter so weitergehen kann, braucht die neue Bundesregierung die Billion zusätzliche Staatsverschuldung.

Von Alexander Horn

Dem in Deutschland gängigen Narrativ folgend, hatte die Ampelkoalition den Weg in Richtung Klimaneutralität mit ausschließlich erneuerbaren Energien stets als besonders segensreich für wirtschaftliches Wachstum und Wohlstand gepriesen. Noch im März 2023, als die Coronakrise überwunden war und auch die wirtschaftlichen Belastungen durch den Ukrainekrieg schwanden, verkaufte der ehemalige Bundeskanzler Olaf Scholz (SPD) die Klimapolitik als Wachstumsmotor. „Wegen der hohen Investitionen in den Klimaschutz“ werde es in Deutschland alsbald ein „Wirtschaftswunder“ mit „Wachstumsraten […] wie zuletzt in den 1950er und 1960er Jahren“ geben. Zeitgleich sekundierte der ehemalige Bundeswirtschaftsminister Robert Habeck „Deindustrialisierung“ sei nur ein „Schlagwort […], das in interessierten Kreisen zirkuliert“. Es werde „der Wirklichkeit und Dynamik überhaupt nicht gerecht“. Vielmehr sei Deutschland im Vergleich zu den USA und China nicht nur konkurrenzfähig, sondern sogar „megastark“.

Diese Seifenblasen sind inzwischen geplatzt, denn es ist weder gelungen, die nun offensichtlich von den energieintensiven Branchen ausgehende Deindustrialisierung zu bemänteln, noch ist der wirtschaftliche Niedergang durch Investitionen in den Klimaschutz ausgeglichen oder sogar überkompensiert worden. Während ihrer Amtszeit haben Scholz und Habeck ihre eigene These, wonach die ökologische Klimapolitik ein Motor für Wachstum und Wohlstand sein könne, durch ihr krachend gescheitertes Experiment selbst widerlegt.

Dieser vermeintliche klimapolitische Motor hat trotz gigantischer Subventionen von inzwischen mehreren Hunderten Milliarden Euro, die allein über das EEG in die erneuerbaren Energien gepumpt wurden, sowie der unter der Ampelkoalition völlig aus dem Ruder gelaufenen Subventionen zur Förderung „sauberer“, vermeintlich CO2-freier Technologien, die von der Chip-, Batteriezellen-, Wärmepumpen-, Solarmodul- und Wasserstoffproduktion bis hin zur Förderung von Wärmedämmung und Elektromobilität usw. reichen, nicht gezündet. All diese Subventionen sollten hinreichend private Investitionen generieren und zumindest so viel Wirtschaftswachstum generieren, um den klimapolitisch verursachten Niedergang anderer Branchen auszugleichen. Diese Rechnung ist nicht aufgegangen. Die deutsche Wirtschaft verliert wegen steigender Energiekosten und stagnierender bzw. seit zwei Jahren sogar rückläufiger Arbeitsproduktivität immer schneller an Wettbewerbsfähigkeit.

Seit im Frühjahr 2023 die letzten verbleibenden Kernkraftwerke in Deutschland abgeschaltet wurden, prognostizierte Habeck in regelmäßigen Abständen wirtschaftliches Wachstum. In der Realität stellte sich jedoch immer wieder aufs Neue eine wirtschaftliche Schrumpfung ein. Zuletzt musste Habeck trotz der inzwischen bereitstehenden Billionen zur Ankurbelung der Konjunktur – vor allem mittels Rüstungs- und Infrastrukturausgaben – bei der Vorstellung seiner Frühjahrsprojektion erstmals sogar vorab einräumen, dass in diesem Jahr nur 0,0 Prozent Wachstum drin seien. Gemäß Habeckscher Lesart wird die deutsche Wirtschaft demnach im dritten Jahr in Folge schrumpfen, wovon etwa auch die Deutsche Industrie- und Handelskammer (DIHK) ausgeht, die mit einer weiteren Schrumpfung von 0,5 Prozent in diesem Jahr rechnet. Verantwortlich hierfür seien der amerikanische Präsident Trump und dessen Zollpolitik, verkündete Habeck, nachdem er in den vergangenen Jahren den russischen Präsidenten Putin als Schuldigen für die merkwürdigerweise noch immer hohen und weiter steigenden Energie- und Strompreise sowie die daraus resultierende wirtschaftliche Krise verantwortlich ausgemacht hatte.

Klimapolitische Talfahrt

Für steigende Energie- und Stromkosten, die die Ampelkoalition trotz der Übernahme der EEG-Umlage von etwa 7 Cent/kWh in den Staatshaushalt und der Streichung der Stromsteuer von etwa 1,5 Cent/kWh für Industriekunden nicht bremsen konnte, ist die seit Jahrzehnten immer weiter forcierte ökologische Klimapolitik verantwortlich. Sie setzt praktisch ausschließlich auf die Verhinderung des Klimawandels durch eine drastische Senkung des Energieverbrauchs, um den verbleibenden Bedarf mit den nur begrenzt verfügbaren erneuerbaren Energien decken zu können. Da vor allem Wind- und Solarstrom jedoch vergleichsweise teuer sind und zudem wegen ihrer Volatilität hohe Systemkosten verursachen, steigen die Strompreise mit zunehmendem Anteil der Erneuerbaren am Bruttostromverbrauch.

Weil der Anteil der Erneuerbaren auf inzwischen etwa 60 Prozent des Bruttostromverbrauchs gestiegen ist, liegen die Strompreise für private Haushalte heute etwa dreimal so hoch wie noch Anfang der 2000er Jahre. Hätte die Ampelkoalition die EEG-Umlage nicht in den Bundeshaushalt übernommen, lägen sie – ähnlich wie die Strompreise für die meisten Unternehmen – bei etwa dem dreieinhalbfachen Niveau. Das eigentliche Übel der ökologischen Klimapolitik besteht nicht etwa darin, dass die Umstellung der Energieversorgung auf erneuerbare Energie ein Billionen Euro verschlingendes Unterfangen ist, das die Energiekosten noch weit höher treiben wird. Viel verheerender ist, dass die Energiekosten als Ergebnis dieser Transformation dauerhaft auf diesem Niveau zementiert werden, da der bestehende hochproduktive Kapitalstock der Energieerzeugung und -nutzung zerstört und durch einen höchst unproduktiven ersetzt wird.

Der ungebremste Anstieg der Strompreise, steigende CO2-Abgaben und erzwungene Technologiewechsel wie etwa in der Automobilindustrie haben ausgehend von den energieintensiven Branchen bereits seit Mitte der 2000er Jahre eine schleichende Deindustrialisierung in Gang gesetzt. Die näher rückende Abkehr von fossilen Brennstoffen und die Umstellung auf den sehr viel teureren Strom oder etwa erneuerbaren Wasserstoff sowie der damit oft erhebliche Aufwand zur technologischen Umstellung – etwa in der Stahlindustrie oder bei chemischen Grundstoffen – beschleunigen den Deindustrialisierungsprozess. Die Unternehmen energieintensiver Branchen desinvestieren, um die steigenden Energiekosten so lange wie möglich durch verminderten Investitionsaufwand zu reduzieren und um ab einem zu hohen Energiekostenniveau möglichst verlustfrei aus der Produktion aussteigen zu können.

Diesen Punkt haben viele Unternehmen in den vergangenen fünf Jahren erreicht. Dadurch ist die Produktion der energieintensiven Branchen – darunter die Stahl-, Chemie-, Papier- und Pappe-, Glas- und Keramikindustrie – seit der 2018 beginnenden Industrierezession, um inzwischen mehr als 25 Prozent zurückgegangen. Eine Erholung oder gar eine Trendwende zeichnet sich nicht ab. Ganz im Gegenteil werden im großen Stil Anlagen stillgelegt, ins Ausland verkauft und ganze Betriebe geschlossen, wie etwa beim Chemiekonzern BASF, der in Ludwigshafen mindestens ein Siebtel der Produktion aufgibt oder bereits stillgelegt hat und davon ausgeht, dass weitere gut 20 Prozent der Produktionsanlagen über kurz oder lang die Wettbewerbsfähigkeit verlieren könnten. Dieser Niedergang hat sich in den vergangenen zwei Jahren auf die gesamte Industrie ausgeweitet, die inzwischen sogar beschleunigt schrumpft. Nachdem die gesamte Industrieproduktion (einschließlich energieintensiver Industrien) im Zeitraum von 2018 bis 2023 um insgesamt gut 10 Prozent zurückging, also um jährlich etwa 2 Prozent, ist sie seit Frühjahr 2023 um nochmals 10 Prozent eingebrochen, also um etwa 5 Prozent pro Jahr.

Die Ampelkoalition ist weder der energiekostentreibenden Spirale noch der daraus resultierenden industriellen Abwärtsdynamik Herr geworden und sie konnte dieses von ihr mitverursachte wirtschaftliche Fiasko nicht einmal mehr abbremsen. Der Versuch der letzten drei Jahre, mit immer mehr Subventionen – wie etwa für grünen Stahl, für die Absenkung der Strompreise, für die Rücknahme von Klimaregulierungen zu Lasten der Landwirte, für klimaneutrales Bauen und Heizen oder etwa für die Unternehmensentlastungen im Rahmen im März 2024 in Kraft getretenen „Wachstumschancengesetzes“ – gegen die Folgen dieser ökologischen Klimapolitik anzukämpfen, ist kläglich gescheitert. Die Ampelregierung scheiterte daran, dass ihr die fiskalischen Mittel fehlten, um trotz der sich beschleunigenden Deindustrialisierung die wirtschaftliche Talfahrt zu bremsen. Schließlich zerbrach sie am dafür fehlenden Geld.

Subventionsorgie als Rettung

Daraus haben CDU/CSU und SPD, die im Vorfeld der Wahlen erklärt hatten, an der ökologischen Klimapolitik der Ampelkoalition und Klimaneutralität bis 2045 festhalten zu wollen, einschneidende wirtschaftspolitische und fiskalische Schlüsse gezogen. Zunächst haben die Koalitionäre mit der Grundgesetzänderung durch den bereits abgewählten Bundestag einen Billionencoup gelandet, der ihnen ein riesiges keynesianisch inspiriertes Ausgabenprogramm erlaubt. Allein das 500 Milliarden schwere Sondervermögen für Infrastruktur, Klimaschutz und zur Sanierung der Haushalte von Ländern und Gemeinden eröffnet die Möglichkeit, in dieser Legislaturperiode einen Wachstumsimpuls in Höhe von insgesamt 11,6 Prozent des BIP zu setzen. Zudem können die sehr weit gefassten Verteidigungsausgaben, die unter anderem auch den Schutz der Infrastruktur und die Ukrainehilfen umfassen, auf einen beliebigen Prozentsatz des BIP heraufgeschraubt werden.

Das wirtschaftspolitische Kalkül besteht darin, dass die zu erwartende Auftragsflut nicht nur die unmittelbaren Empfänger staatlicher Aufträge, wie etwa die Energie-, Bau- und Rüstungsbranchen beflügelt, sondern in den gesamten Lieferketten bis hin zu vielen von steigenden Energiekosten gebeutelten energieintensiven Unternehmen und der Automobilindustrie zu spürbaren Nachfrageeffekten führt. Die Deindustrialisierung kann und soll dadurch zwar nicht verhindert werden, aber abgebremst verlaufen, so dass die weitere Schrumpfung der von der Klimapolitik betroffenen Branchen durch das Wachstum vor allem der Rüstungsindustrie und der Bauwirtschaft kompensiert werden kann.

Die neue Bundesregierung hat es zudem verstanden, sich mit der Grundgesetzänderung auch die fiskalischen Spielräume zu verschaffen, die für die im Koalitionsvertrag geplante Eins-zu-Eins-Fortsetzung der Klimapolitik der Ampelkoalition erforderlich sind. Denn nun gibt es sehr weitreichende Möglichkeiten, die Verteidigungsausgaben sowie Klimaschutz- und Infrastrukturinvestitionen, die heute noch Teil des regulären Bundeshaushalts sind, dort herauszunehmen, um die ‚eingesparten‘ Mittel anderweitig zu verwenden. Dadurch entsteht ein zusätzlicher fiskalischer Hebel, der es erlaubt, jährlich mittlere bis höhere zweistellige Milliardenbeträge freizuspielen, die zur Dämpfung der wirtschaftlichen Folgen der Klimapolitik eingesetzt werden können.

Im Koalitionsvertrag lassen CDU/CSU und SPD erkennen, dass sie nicht wie die Ampelkoalition davon ausgehen, die Klimapolitik mit Hilfe noch so gigantischer Subventionen zu einem Wachstumstreiber machen zu können, sondern dass sie darin eher eine wirtschaftliche Belastung sehen. Durch diese etwas nüchternere Einschätzung, wonach wirtschaftliches Wachstum nicht etwa durch, sondern trotz dieser Klimapolitik zu gewährleisten ist, kündigt sich im Koalitionsvertrag ein Subventionstsunami an, der die Exzesse der Ampelkoalition noch in den Schatten stellen dürfte. Denn um die durch steigende Energiekosten betroffenen Unternehmen endlich zu stabilisieren und vor dem Untergang zu bewahren, müssen sie durch förderliche Rahmenbedingungen und Subventionen, die von Steuererleichterungen über Finanzhilfen bis hin zu Protektionismus und Regulierungen reichen, umso besser geschützt werden.

Nun plant die neue Bundesregierung dem Koalitionsvertrag zufolge wesentliche Teile der von der Ampelkoalition im Juli 2024 initiierten, aber wegen Geldmangels nicht umgesetzten „Wachstumsinitiative“, die damals „sofort Impulse für mehr wirtschaftliche Dynamik“ bringen sollte, unter Zuhilfenahme der inzwischen gefüllten Kassen umzusetzen. So wird die damals ins Auge gefasste Senkung der Strompreise für Unternehmen, wofür die Ampelregierung einen zweistelligen Milliardenbetrag pro Jahr vorgesehen hatte, im Koalitionsvertrag fest versprochen. Zudem sollen die Unternehmen durch „Turboabschreibungen“ für Ausrüstungsinvestitionen und durch eine Unternehmenssteuerreform entlastet werden.

Die nun ins Auge gefassten Finanzhilfen und Steuererleichterungen für Unternehmen dürften die von der Ampelkoalition angerichtete Subventionsorgie weit in den Schatten stellen. Auch ohne die Umsetzung der „Wachstumsinitiative“ dürfte der Anteil der staatlichen Subventionen am Bruttoinlandsprodukt (BIP) in den Jahren 2023 und 2024 nach Berechnungen des IfW Kiel 7,7 beziehungsweise 6,6 Prozent betragen haben, nachdem er 2019 bereits 5,6 Prozent erreicht hatte. Mit etwa drei Vierteln fließt der Löwenanteil der Subventionen von inzwischen etwa 300 Milliarden Euro pro Jahr – 2023 waren dies 3804 Euro pro Einwohner – entweder direkt oder indirekt an Unternehmen.

Im Koalitionsvertrag heißt es, man werde die bestehenden „Förderprogramme zur Dekarbonisierung der Industrie“, darunter auch „die Klimaschutzverträge fortsetzen“. Klimaschutzverträge wurden von Habeck eingeführt, um energieintensiven Unternehmen die Umstellung auf erneuerbare Energie mit gegebenenfalls jahrzehntelanger Subventionierung schmackhaft zu machen. Subventionen hat die neue Regierungskoalition auch für den beschleunigten „Aufbau einer Wasserstoffwirtschaft“, eine „Wasserstoff-Ladeinfrastruktur für Nutzfahrzeuge“ sowie für „Kaufanreize“ bei der E-Mobilität vorgesehen. Ein Blumenstrauß weiterer Maßnahmen, wie etwa Steuervergünstigungen, Sonderabschreibungen, Kfz-Steuerbefreiungen bis hin zu „Unterstützungen für Haushalte mit kleinem und mittlerem Einkommen“, soll den Absatz der für viele unerschwinglichen E-Ladenhüter fördern.

Klimapolitische Zombifizierung

Die längst gigantischen und infolge des klima- und wirtschaftspolitischen Ansatzes der neuen Bundesregierung absehbar weiter steigenden Subventionen können zwar eine wirtschaftliche Stabilisierung bewirken und in Verbindung mit einem keynesianischen Nachfrageschub bei Verteidigung und Infrastruktur für Wachstum sorgen, die dem wirtschaftlichen Niedergang zugrundeliegende Ursache schwindender Wettbewerbsfähigkeit wird jedoch nicht adressiert. Denn weiter steigende Energiekosten werden nicht nur die Wettbewerbsfähigkeit energieintensiver Betriebe zunehmend unterhöhlen, sondern mehr und mehr Unternehmen existenziell bedrohen, bei denen der Anteil der Energiekosten an der eigenen Wertschöpfung weit niedriger liegt als etwa in der energieintensiven Stahl- oder Chemieindustrie.

Um trotz steigender Energiekosten wettbewerbsfähig zu bleiben, müssten die Unternehmen in aller Regel massiv in die technologische Verbesserung ihrer Wertschöpfungsprozesse investieren, so dass sie in der Lage wären, die steigenden Energiekosten durch Effizienz- und Arbeitsproduktivitätsverbesserungen zu kompensieren. Mehr und mehr Unternehmen sehen sich jedoch in Anbetracht der damit verbundenen technologischen und wirtschaftlichen Herausforderungen überfordert, so dass sie nicht etwa in ihre Wertschöpfungsprozesse investieren, sondern ihre Investitionen zurückfahren, um durch die damit einhergehende Senkung des betrieblichen Aufwands profitabel zu bleiben. Dies lässt sich bereits seit Mitte der 2000er Jahre in den energieintensiven Branchen erkennen, wo die Desinvestition seitdem zu einer sinkenden Arbeitsproduktivität geführt hat (Statistisches Bundesamt, Genesis-online, Code 42154-0002, Index der Arbeitsproduktivität im Verarbeitenden Gewerbe).

Um das Massensterben von Betrieben zu verhindern, die bei steigenden Energiekosten und obendrein stagnierender oder sogar sinkender Arbeitsproduktivität ihre Wettbewerbsfähigkeit einbüßen, wird staatliche Protektion immer entscheidender. Finanzhilfen, Steuererleichterungen sowie regulatorische Maßnahmen zur Abschwächung des Wettbewerbs dienen dazu, den geschwächten Unternehmen und ganzen Branchen trotz schwindender Wettbewerbsfähigkeit zu hinreichender Profitabilität zu verhelfen. So entwickelt sich neben der Energiewirtschaft und den Clean-Tech-Bereichen, in denen die Unternehmen ohnehin vollkommen von Subventionen und staatlicher Protektion abhängig sind, quer durch alle Branchen eine immer größere Abhängigkeit von staatlichen Segnungen.

Diese wirtschaftspolitische Reaktion zur Rettung der von der Deindustrialisierung bedrohten Unternehmen resultiert aus der gleichen staatlichen Orientierung, die seit Jahrzehnten in allen entwickelten Volkswirtschaften eine voranschreitende Zombifizierung ausgelöst hat. Die – aus Angst vor den destabilisierenden Auswirkungen wirtschaftlicher Krisen und Restrukturierungen – einseitig auf Stabilisierung ausgerichtete Wirtschafts- und Geldpolitik verhindert den Untergang der schwächsten und unprofitabelsten Unternehmen. Dies schwächt Investitionen und Produktivitätsfortschritt, da es profitableren und typischerweise produktiveren Wettbewerbern kaum ermöglicht wird, schwache Konkurrenten wettbewerblich zu verdrängen und deren Marktanteile zu übernehmen. Innovative Unternehmen benötigen jedoch wachsende Märkte, da typischerweise mit hohen Risiken und Investitionsaufwand verbundene Produkt- oder Prozessinnovationen oft erst bei hohen Stückzahlen die erforderliche Rentabilität erreichen.So verwandelt die ökologische Klimapolitik durch den von ihr ausgehenden Kostendruck vormals hochproduktive und international wettbewerbsfähige Betriebe, die die steigenden Kosten nicht durch die Verbesserung ihrer Wertschöpfungsprozesse kompensieren können, zu Zombieunternehmen. Sie investieren kaum und erreichen daher keine Produktivitätszuwächse, so dass ihre Profitabilität zunehmend von der Gewährung der für sie förderlichen wirtschaftlichen Rahmenbedingungen und Subventionen abhängt. Die Fortsetzung dieser Klimapolitik wird daher die inzwischen manifeste Produktivitätsstagnation zementieren und die Wettbewerbsfähigkeit der Wirtschaft zunehmend unterhöhlen. Um diesen inzwischen fortgeschrittenen Niedergang auch weiterhin mit viel Geld bemänteln zu können, mussten CDU/CSU, SPD und Grüne den Einsatz massiv erhöhen. Das hat den Billionencoup unausweichlich gemacht.

Der Beitrag erschien zuerst bei TE hier

Mehr von Alexander Horn lesen Sie in seinem Buch „Die Zombiewirtschaft – Warum die Politik Innovation behindert und die Unternehmen in Deutschland zu Wohlstandsbremsen geworden sind“ mit Beiträgen von Michael von Prollius und Phil Mullan.

Ein Bild, das Text, Screenshot, Design enthält. KI-generierte Inhalte können fehlerhaft sein.




Angst vor einem europaweiten Blackout

Zweifel an der geplanten Verfünffachung des Solarenergie-Anteils

Edgar L. Gärtner

Frankreich scheint sich mit seinem hohen Anteil von Kernenergie und Wasserkraft angesichts der drohenden schweren Energiekrise in Westeuropa in einer eher komfortablen Position zu befinden. Doch ich musste an dieser Stelle mehrfach darauf hinweisen, dass die französischen Regierungen der letzten Jahrzehnte ihren Trumpf nicht ausspielen. Denn seit 30 Jahren wird die französische Energiepolitik von dezidierten Gegner(inne)n der Kernkraft verantwortet. Da liegt die Idee nahe, dass hier der Teufel seine Hand im Spiel hat. Denn die meisten Experten machen den hohen Anteil nicht regelbarer Solarenergie für den jüngsten Blackout auf der iberischen Halbinsel verantwortlich. Dieser dauerte fast 24 Stunden und hätte, wie wir heute wissen, beinahe zu einem europaweiten Verlöschen der Lichter geführt. Doch der noch nicht endgültig beschlossene dritte 10-Jahresplan der französischen Energieversorgung (PPE3) sieht gerade eine Verfünffachung des Anteils der Solarenergie vor.

Seit 1995 waren In Frankreich mehrheitlich „grüne“ Ministerinnen und Minister für die Energiepolitik verantwortlich. Einige davon kannte ich persönlich. Die Sozialistin Corinne Lepage leitete von 1995 bis 1997 das Umwelt- bzw. Nachhaltigkeitsministerium, die Grüne Dominique Voynet, mit der ich in Besançon zu tun hatte, folgte von 1997 bis 2001. Die beiden Damen sind für die trickreiche Sabotage und Stilllegung des ersten großen natriumgekühlten Brutreaktors „Superphénix“ von Creys-Malville an der Rhône verantwortlich. Der große Bruder des kleineren Versuchs-Brüters „Phénix“ im südfranzösischen Kernforschungszentrum Marcoule machte zwar durch einige Störfälle von sich reden, war jedoch seiner Zeit grundsätzlich weit voraus, weil er aus der gleichen Menge spaltbarem Urans 60mal mehr Energie gewinnen kann. Als Präsidentschaftskandidatin in den Jahren 1995 und 2007 sabotierte Voynet offen die Verhandlungen über die Einbeziehung der Kernenergie in die von der EU als „grün“ anerkannten Energien.

In den Jahren 2001 und 2002 folgte ihr Parteikollege Yves Cochet, der offen das Minus-Wachstum propagierte. Dann folgte ein relativ ruhiges Jahrzehnt, in dem in Frankreich keine neuen Kernkraftprojekte mehr auf den Weg gebracht wurden. Von 2012 bis 2014 war dann der WWF-Mann Pascal Canfin als Staatssekretär im Amt. Von 2014 bis 2017 amtierte dann Ségolène Royal, die ehemalige Partnerin des damaligen sozialistischen Staatspräsidenten Francois Hollande, als Ministerin für die Ökologie-Wende. Sie ließ ein Gesetz beschließen, das die Stilllegung von insgesamt 20 Kernreaktoren bis 2025 vorsah. Ihr folgte bis 2018 der Grüne TV-Star Nicolas Hulot. Dann kam von 2020 bis 2022 die eher gemäßigte Grüne Barbara Pompili in dieses wichtige Ministeramt.

Aber auch unterhalb der Ebene linker Regierungen nisteten sich erbitterte Kernkraftgegner dauerhaft in Spitzenpositionen der staatlichen Technostrukturen Frankreichs ein. Einer von ihnen ist François Brottes, ein enger Berater von François Hollande der von 2015 bis 2020 dem Transportnetz-Betreiber RTE vorstand. Auf ihn geht offenbar die Idee zurück, den Kernenergie-Anteil in Frankreich dauerhaft auf 50 Prozent zu senken. Sein Nachfolger Xavier Piechaczyk stellte im Jahre 2021 Pauline Le Bertre, die vorher Cheflobbyistin der französischen Windindustrie war, als Vize-Direktorin ein. So war dafür gesorgt, dass die Vorteile der Kernenergie in der energiepolitischen Debatte Frankreichs kaum zum Tragen kamen.

So erklärt es sich, dass der ernste Vorfall auf der iberischen Halbinsel, von dem auch das französische Baskenland betroffen war, in der Pariser Politszene keinen Alarm auslöste. Auf die „Erneuerbaren“, die in Spanien eine noch viel größere Rolle als in Frankreich spielen, durfte kein Verdacht fallen. So wurde in den regierungstreuen Medien sogar die Vermutung ernstgenommen, außerordentliche meteorologische Bedingungen hätten zum Blackout geführt. Dabei lässt die Datenlage kaum andere Erklärungen als eine übermäßige Einspeisung von Solarenergie ins Netz zu.

Der 28. April war auf der iberischen Halbinsel ein außerordentlich sonnenreicher Tag. Gegen Mittag stieg die Leistung der spanischen größtenteils nicht regelbaren Fotovoltaik-Anlagen exponentiell auf fast 18.000 Megawatt an. Das sind über 60 Prozent des spanischen Strombedarfs. Gleichzeitig trugen dort Windkraftanlagen zu über 12 Prozent zur Elektrizitätsproduktion bei – mehr als die verbliebenen Kernkraftwerke, deren Anteil 11,6 Prozent erreichte. Hinzu kamen noch über 5 Prozent thermische Solarenergie und einige Gaskraftwerke. Entscheidend war aber wohl die ungeregelte Photovoltaik. Um im Netz Platz zu schaffen für den weiter exponentiell ansteigenden Solarstrom, regelten die Ingenieure die restlichen Gas- und Wasserkraftwerke und wohl auch Kernkraftwerke maximal herunter.

Doch die von der Photovoltaik gelieferte Spannung stieg über die Mittagszeit so rasch an, dass die Netzfrequenz den kritischen Wert überstieg, der zum automatischen Abschalten aller Generatoren führt. Es wird berichtet, dass die für die Stromversorgung verantwortlichen spanischen Behörden einen dringenden Hilferuf an ihre französischen Kollegen richteten, um den Zusammenbruch ihres Netzes noch abzuwenden. Das französische Stromnetz hätte über die Kopplungsstellen in den Pyrenäen einen Teil des überschüssigen Solrastroms aufnehmen müssen. Doch die Franzosen lehnten aus der berechtigten Angst, die Übersättigung des Netzes mit Solarstrom könne sich kaskadenartig auf ganz Europa ausbreiten, ab. Denn auch in Frankreich waren in diesem Moment wegen der starken Sonneneinstrahlung schon über 8 GW zu viel Leistung im Netz. Es bestand die reale Gefahr, dass der Strom in ganz Europa ausfällt.

Auch wenn Details des ernsten Vorfalls auf der iberischen Halbinsel noch anhand der technischen Protokolle noch geklärt werden müssen, so liegt es doch auf der Hand, dass das Überangebot von nicht regelbarem Solarstrom das Unglück eingeleitet hat. Da aufgrund der einseitigen Förderung der Solarenergie wegen des Druckes der deutschen „Energiewender“ und der Brüsseler Kommission inzwischen auch in anderen Teilen Europas zur Sommerzeit ein Überangebot von Solarenergie droht, ist ein europaweiter Blackout inzwischen durchaus in Reichweite.

Umso erstaunlicher ist die Tatsache, dass der ernste Vorfall in Spanien in Europa nicht für mehr Unruhe sorgt. Im Nachbarland Frankreich nehmen sich die Sympathiekundgebungen für die zuverlässige und bezahlbare Kernenergie zurzeit sehr bescheiden aus. Nennenswerten Widerstand gibt es nur gegen den Ausbau von Windparks. Doch hier überwiegen gesundheitliche und ästhetische Argumente. Die großflächige Blackout-Gefahr spielt bislang eine untergeordnete Rolle. In Deutschland gibt es in diesem Jahr andere Sorgen, weil einfach nicht genug Wind weht, um mit über 30.000 Windkraftanlagen ordentlich Geld zu verdienen.

Die Energiewende-Propaganda wird nur selten durchschaut, weil die meisten Zeitgenossen die technischen Zusammenhänge eines auf Wechselstrom basierenden Elektrizitäts-Versorgungsystems schlecht verstehen. Wer weiß schon ohne langes Nachdenken, was der Cosinus Phi (Cos φ) bedeutet? Nur auf dem Hintergrund des verbreiteten Unwissens konnte die Vorstellung entstehen, dass die Einspeisung „erneuerbarer“ Energien (ähnlich wie die Einleitung sauberen Wassers in einen verschmutzten See) nach und nach die „bösen“ fossilen Energien aus dem Netz verdrängen kann, bis in absehbarer Zukunft 100 Prozent erreicht sind. Die sozialistische spanische Regierung wähnte sich nach massiven Investitionen in Solar- und Windkraftwerke kurz vor diesem Ziel und hat das auch kommuniziert. Dummerweise fiel der Strom gerade für einen ganzen Tag aus, als die Regierung diesen Sieg einer handverlesenen internationalen Auswahl von Unternehmenslenkern in Madrid verkünden wollte, um sie mit der Aussicht auf preisgünstigen Solarstrom zum Investieren zu bewegen.

Vor allem fehlt den Nichtelektrikern das Verständnis für die Tatsache, dass Im Netz in jedem Moment ein Gleichgewicht zwischen Produktion und Bedarf von Elektrizität herrschen muss. Bislang sorgte die große Trägheit rotierender Massen (Dampf- bzw. Wasserturbinen und Generatoren) für die Überbrückung kurzfristiger Ungleichgewichte. Fehlt diese Trägheit, weil zu viele herkömmliche Kraftwerke abgeschaltet wurden, dann ist der Blackout unvermeidlich. Indikator des Gleichgewichts zwischen Produktion und Bedarf ist die Netzfrequenz, die in Europa auf 50 Hertz (Hz) festgelegt wurde. Bei einer Überproduktion von Elektrizität steigt die Frequenz, bei Elektrizitätsmangel sinkt sie. Normalerweise toleriert das Netz nur 0,2 Prozent Abweichung. Bei einer Abweichung von 2,5 Hz schalten sich alle Generatoren automatisch ab, um das Durchbrennen von Elektromotoren zu verhindern. Wir können nur hoffen, dass der lange Blackout auf der iberischen Halbinsel einigen Politikern und CEOs die Augen geöffnet hat.

 




Was wäre wenn? Die Flatterstromversorgung benötigt Speicher – Grok berechnet wie viel

Ca. 22 Lithium Welt-Jahresproduktionen für 15 Tage Strom in Deutschland wären gerade ausreichend.

Von Michael Limburg

In X hat heute ein unbekannter Nutzer eine Rechnung von Grok[1] der künstlichen Intelligenz von Elon Musk die Ergebnisse vorgestellt, die Grok ermittelte um Deutschland, für nur 3 Wochen aus Speichern mit elektrischer Energie zu versorgen falls Wind und Sonne mal länger nicht scheinen. Zugrunde gelegt ist auch nur der Anteil an elektrischer Energie – also 550 TWh pro Jahr, und nicht die gesamte Primärenergie. Was nicht betrachtet wurde, ist die Aufgabe diese elektrischer Energie mit Wechselstrom mit einer Freuquenz von 50 Hz und Phasensynchron – also im Gleichtakt, einzuspeisen. Das dürfte eine weiteres Riesenproblem sein, aber, gemach gemach dazu kommt es nicht. Denn um diese Aufgabe und soviel sei vorweg genommen, zu erledigen, benötigte Deutschland allein an Lithium, für diese mickrige Menge an Strom, ca 22 Weltjahresproduktion des Lithium

Grok meint:

Um die Menge an Rohstoffen, die Weltjahresproduktionen, die einmaligen Kosten und die laufenden Kosten für den Aufbau eines Batteriepuffers in Deutschland zu ermitteln, der den Energiebedarf für drei Wochen speichern kann, gehen wir systematisch vor. Die Berechnungen basieren auf dem Stand der aktuellen Technik (2025) und fokussieren auf Lithium-Ionen-Batterien, da diese die dominierende Technologie für großskalige Energiespeicherung sind. Aufgrund der Komplexität der Fragestellung werde ich Annahmen klar benennen, die Berechnungen Schritt für Schritt durchführen und auf verfügbare Daten sowie Schätzungen zurückgreifen. Da präzise Daten zu einigen Aspekten fehlen, werde ich plausible Annahmen treffen und diese begründen.

1. Energiebedarf Deutschlands für 3 Wochen

Zunächst bestimmen wir den Energiebedarf Deutschlands für drei Wochen. Der Primärenergieverbrauch Deutschlands lag 2022 bei etwa 11.854 Petajoule (PJ), was etwa 3.292 TWh (Terawattstunden) entspricht (1 PJ = 0,2778 TWh). Der Primärenergieverbrauch umfasst alle Sektoren (Industrie, Haushalte, Verkehr, etc.), inklusive Verluste bei der Energieumwandlung. Für unsere Berechnung ist jedoch der Stromverbrauch relevanter, da Batteriepuffer primär Strom speichern.

Der Stromverbrauch Deutschlands lag 2022 bei etwa 550 TWh pro Jahr (nach Angaben des Statistischen Bundesamts und des Umweltbundesamts). Für drei Wochen (21 Tage) ergibt sich:

Um diesen Strombedarf zu speichern, benötigen wir eine Batteriekapazität von 31,64 TWh (ca. 31.640 GWh). Dabei gehen wir von einer Entladetiefe (Depth of Discharge, DoD) von 80 % aus, was für Lithium-Ionen-Batterien üblich ist, um die Lebensdauer zu maximieren. Die nominale Kapazität der Batterie muss daher höher sein:

31.640/ 0,8 = 39.550 GWh = 39,55 {TWh}

Wir benötigen also eine Batteriekapazität von etwa 39,55 TWh.

2. Rohstoffbedarf für Lithium-Ionen-Batterien

Für den Rohstoffbedarf konzentrieren wir uns auf die Schlüsselmaterialien von Lithium-Ionen-Batterien: Lithium, Kobalt, Nickel, Graphit und Kupfer. Die genaue Zusammensetzung hängt von der Batteriechemie ab. Wir nehmen die gängige NMC-811-Chemie (Nickel-Mangan-Kobalt im Verhältnis 8:1:1) an, da sie weit verbreitet ist und eine hohe Energiedichte bietet.

Materialbedarf pro kWh

Basierend auf Studien (z. B. International Energy Agency, Benchmark Mineral Intelligence) liegt der Materialbedarf pro kWh Batteriekapazität etwa bei:

• Lithium: 0,1 kg/kWh

• Kobalt: 0,02 kg/kWh

• Nickel: 0,4 kg/kWh

• Graphit: 0,5 kg/kWh

• Kupfer: 1,0 kg/kWh (für Verkabelung und Stromsammler)

Diese Werte variieren je nach Batteriedesign, aber sie dienen als realistische Annahme.

Gesamtbedarf für 39,55 TWh

Die Batteriekapazität von 39,55 TWh entspricht 39.550.000.000 kWh. Der Rohstoffbedarf ergibt sich wie folgt:

Gesamtbedarf = Material pro kWh x {Kapazität in kWh}

Material

Bedarf pro kWh (kg)

Gesamtbedarf (Tonnen)

Lithium

0,1

0,1 × 39,55 × 10^9 = 3.955.000

Kobalt

0,02

0,02 × 39,55 × 10^9 = 791.000

Nickel

0,4

0,4 × 39,55 × 10^9 = 15.820.000

Graphit

0,5

0,5 × 39,55 × 10^9 = 19.775.000

Kupfer

1,0

1,0 × 39,55 × 10^9 = 39.550.000

Zusammenfassung des Rohstoffbedarfs:

• Lithium: 3,96 Millionen Tonnen

• Kobalt: 0,79 Millionen Tonnen

• Nickel: 15,82 Millionen Tonnen

• Graphit: 19,78 Millionen Tonnen

• Kupfer: 39,55 Millionen Tonnen

3. Vergleich mit Weltjahresproduktionen

Um die benötigte Menge in Relation zu setzen, vergleichen wir den Bedarf mit den globalen Jahresproduktionen (2023/2024, basierend auf USGS und anderen Quellen):

Material

Weltjahresproduktion (Tonnen)

Benötigte Menge (Tonnen)

Verhältnis (Jahresproduktionen)

Lithium

180.000 (2023, USGS)

3.955.000

3.955.000 ÷ 180.000 ≈ 22

Kobalt

230.000 (2023, USGS)

791.000

791.000 ÷ 230.000 ≈ 3,4

Nickel

3.600.000 (2023, USGS)

15.820.000

15.820.000 ÷ 3.600.000 ≈ 4,4

Graphit

1.700.000 (2023, USGS)

19.775.000

19.775.000 ÷ 1.700.000 ≈ 11,6

Kupfer

22.000.000 (2023, USGS)

39.550.000

39.550.000 ÷ 22.000.000 ≈ 1,8

Ergebnis:

• Lithium: ca. 22 Weltjahresproduktionen

• Kobalt: ca. 3,4 Weltjahresproduktionen

• Nickel: ca. 4,4 Weltjahresproduktionen

• Graphit: ca. 11,6 Weltjahresproduktionen

• Kupfer: ca. 1,8 Weltjahresproduktionen

Diese Zahlen verdeutlichen, dass der Rohstoffbedarf enorm ist und die globale Produktion für einige Materialien (insbesondere Lithium und Graphit) über Jahrzehnte binden würde, was praktisch kaum umsetzbar ist. Recycling und alternative Technologien könnten den Bedarf reduzieren, werden aber hier nicht berücksichtigt, da die Frage auf aktuelle Technik abzielt.

4. Einmalige Kosten

Die einmaligen Kosten umfassen die Herstellung und Installation der Batterien. Die Kosten für Lithium-Ionen-Batterien liegen 2025 bei etwa 100–150 USD/kWh für großskalige Systeme (basierend auf BloombergNEF und anderen Marktanalysen). Wir nehmen einen Mittelwert von 125 USD/kWh an.

Gesamtkosten = Kapazität in kWh x Kosten pro kWh

39.550.000.000 kWh x 125 USD/kWh = 4.943.750.000.000 USD

Das entspricht etwa 4,94 Billionen USD (ca. 4,7 Billionen EUR bei einem Wechselkurs von 1 USD = 0,95 EUR). Diese Kosten umfassen Batterieproduktion, Installation und Infrastruktur (z. B. Wechselrichter, Kühlung), wobei Infrastrukturkosten geschätzt 20–30 % der Batteriekosten ausmachen.

5. Laufende Kosten (Ersatz und Wartung)

Lebensdauer und Ersatz

Lithium-Ionen-Batterien haben eine Lebensdauer von etwa 10–15 Jahren oder 3.000–5.000 Ladezyklen, je nach Betrieb. Bei einem Puffer, der den Energiebedarf für drei Wochen speichert, ist der Einsatz eher selten (z. B. saisonale Schwankungen oder Notfälle), sodass wir von 15 Jahren Lebensdauer ausgehen. Nach 15 Jahren müssten die Batterien ersetzt werden.

Die Ersatzkosten entsprechen den einmaligen Kosten, inflationsbereinigt. Angenommen, die Batteriekosten sinken bis 2040 auf 80 USD/kWh (aufgrund von Skaleneffekten und technologischem Fortschritt), wären die Ersatzkosten:

39.550.000.000 kWh X 80 USD/kWh = 3.164.000.000.000 USD

Das entspricht etwa 3,16 Billionen USD (ca. 3,0 Billionen EUR). Diese Kosten fallen alle 15 Jahre an, also etwa 200 Milliarden EUR pro Jahr (3,0 Billionen ÷ 15).

Wartung

Wartungskosten für Batteriespeicher liegen bei etwa 1–2 % der Investitionskosten pro Jahr. Bei 4,7 Billionen EUR Investitionskosten:

4,7 Billionen EUR x 0,015 = 70,5 Milliarden EUR/Jahr

Gesamtlaufende Kosten:

• Ersatz: ca. 200 Milliarden EUR/Jahr (amortisiert über 15 Jahre)

• Wartung: ca. 70,5 Milliarden EUR/Jahr

• Total: ca. 270,5 Milliarden EUR/Jahr

6. Diskussion und Einschränkungen

• Praktische Machbarkeit: Der Rohstoffbedarf, insbesondere für Lithium und Graphit, übersteigt die globale Produktion um ein Vielfaches. Ein solches Projekt wäre derzeit nicht realisierbar, da es die globalen Lieferketten überfordern würde.

• Alternativen: Andere Speichertechnologien wie Pumpspeicher, Wasserstoff oder Flussbatterien könnten den Bedarf an kritischen Rohstoffen reduzieren, sind aber weniger ausgereift oder effizient für kurzfristige Speicherung.

• Recycling: Recycling könnte den Rohstoffbedarf senken, wird aber hier nicht berücksichtigt, da die Frage auf Primärrohstoffe abzielt.

• Kostenunsicherheit: Die Kosten können durch technologische Fortschritte, Skaleneffekte oder geopolitische Faktoren (z. B. Rohstoffpreisschwankungen) variieren.

Zusammenfassung

• Rohstoffbedarf:

• Lithium: 3,96 Mio. Tonnen

• Kobalt: 0,79 Mio. Tonnen

• Nickel: 15,82 Mio. Tonnen

• Graphit: 19,78 Mio. Tonnen

• Kupfer: 39,55 Mio. Tonnen

• Weltjahresproduktionen:

• Lithium: 22

• Kobalt: 3,4

• Nickel: 4,4

• Graphit: 11,6

• Kupfer: 1,8

• Einmalige Kosten: ca. 4,7 Billionen EUR

• Laufende Kosten: ca. 270,5 Milliarden EUR/Jahr (Ersatz und Wartung)

Diese Berechnungen zeigen, dass ein solcher Batteriepuffer technisch und wirtschaftlich extrem herausfordernd ist. Für eine realistische Umsetzung müssten alternative Technologien oder ein Mix aus Speicherlösungen in Betracht gezogen werden. Wenn Sie weitere Details oder eine Analyse alternativer Technologien wünschen, lassen Sie es mich wissen!

  1. Der Name ‚Grok‘ stammt aus dem Science-Fiction-Roman ‚Stranger in a Strange Land‘ und bedeutet ‚vollständiges Verstehen‘. Elon Musk selbst bezeichnet Grok als einen ‚maximal wahrheitssuchenden‘ Chatbot, der absichtlich nicht politisch korrekt antwortet.