Die Wunderbatterie, die es nie gab und nie geben wird

Auch wenn wir es in 200 Jahren Batterieentwicklung geschafft haben, die Energiedichte von Akkumulatoren zu verfünffachen, sind alle Nachrichten über neue Wunderbatterien und Superakkus nur haltlose Propaganda. 

Von JONNY CHILL |

Vor über 200 Jahren erfand der Italiener Alessandro Volta mit der „Voltasäule“ die erste funktionierende Batterie. Die Volta’sche Säule konnte zwar experimentell Strom produzieren, aber in so geringem Ausmaß, dass sie keine praktische Anwendung hatte. 1836 entwickelte dann John Frederic Daniell in England mit dem Daniell-Element die erste leistungsfähige Batterie, die auch tatsächlich in Telegraphengeräten ihre Anwendung fand.

23 Jahre später, im Jahr 1859, erfand der Franzose Gaston Planté die Bleibatterie. Diese war nicht nur als erster Akkumulator wieder aufladbar, sondern auch noch ausgesprochen günstig zu produzieren. Noch 180 Jahre später verwenden wir genau dieses Konzept als Starterbatterien in unseren Autos für den bis vor kurzem unschlagbaren Preis von ca. 0,14 €/Wh (Wattstunde). Der Nachteil der Bleiakkumulatoren ist allerdings die niedrige Energiedichte pro Kilogramm. Mit 30-40 Wh/kg wird sie daher nur in Fahrzeugen oder Notstromsystemen eingesetzt.

Die nächste wiederaufladbare Batterie war die Nickel-Cadmium-Batterie, die 1899 von dem Schweden Waldemar Jungner erfunden wurde. Diese war zwar mit 0,33-1 €/Wh deutlich teurer als die Bleibatterie, hatte aber mit 40-60 Wh/kg eine signifikant höhere Energiedichte. Daher wurden noch bis ins Jahr 2008 die meisten tragbaren Anwendungen wie Elektrowerkzeuge, mit NiCd-Batterien betrieben. Danach wurden sie durch die EU größtenteils verboten, da Cadmium als giftiges Schwermetall gilt.

Schlechte Energiedichte

Fast 100 Jahre lang tat sich wenig in der Entwicklung der wiederaufladbaren Batterie, bis im Jahr 1991 Akira Yoshino in Japan die Lithium-Ionen-Batterie entwickelte. Mit 90-100 Wh/kg war die Energiedichte fast verdoppelt im Vergleich zur NiCd-Batterie, allerdings waren die Kosten zu Beginn mit 1-1,2 €/Wh noch sehr hoch. Die Entwicklung der Lithium-Ionen-Batterie wurde in den letzten 30 Jahren massiv vorangetrieben, bis zu einer Energiedichte von 250-300 Wh/kg. Aufgrund der weiten Verbreitung sank der Preis pro Wh massiv auf 0,10-0,15 €/Wh, was sie inzwischen so günstig wie eine Bleibatterie macht.

Bei der Weiterentwicklung der Li-Ionen-Technologie sind wir nahe am physikalischen Maximum von 350 Wh/kg angekommen. Daher werden andere Batteriekonzepte erforscht, wie die Festkörperbatterie oder die Lithium-Schwefel-Batterie, die 400 bis 500 Wh/kg maximal erreichen sollen. Allerdings wird an beiden Batterieformen schon seit 50 Jahren geforscht, und kommerziell brauchbare Ergebnisse werden erst in zehn bis 15 Jahren erwartet.

Benzin dagegen hat mit 12.000 Wh/kg eine 40 mal höhere Energiedichte als die beste Li-Ionen-Batterie, die wir haben. Diesel mit 11.900 Wh/kg eine 39,7-mal höhere und Erdgas mit 13.900 sogar eine 46,3 mal höhere. Deshalb wiegt ein durchschnittlich großer, voller Benzintank gerade einmal 37,5 kg (0,75 kg/l), fasst aber 430 kWh, während ein 450 kg schwerer (neuer!) Batterieblock eines Elektroautos gerade einmal 135 kWh fasst. Die durch Rekuperation, also das Laden der Batterie beim Bremsen, rückgewonnene Energie liegt bei Stadtfahrten bei bis zu 30 Prozent, bei Überlandfahrten gerade einmal bei zehn Prozent.

Extremes Gewicht der Batterie

Die höhere Effizienz des Elektromotors wird durch das extreme Gewicht der Batterie weitgehend negiert. Daher gibt es nur wenige Elektrofahrzeuge, die bei normalem Fahrverhalten tatsächlich mehr als 400 km Reichweite haben, wohingegen 600 bis 800 km Reichweite bei Benzinern normal sind. Es hat einen Grund, warum Teslas hinter LKWs herschleichen, während Verbrenner selbst als Kleinwagen locker mit 190 km/h auf der Überholspur fahren.

Das berühmte Ultraschnellladen von 70 bis 80 Prozent der Batteriekapazität in bis zu 20 Minuten unterstützen nur wenige Elektrofahrzeuge und Ladestationen. Dabei gehen etwa 15 Prozent der Energie als Hitze verloren. Eine Ladung auf 100 Prozent dauert je nach Wallbox oder Steckdose zwischen sechs und 26 Stunden.

Im Winter kann die Heizung, die bei einem Benziner einfach nur die Motorabwärme nutzt, die Reichweite eines EV um ganze 40 Prozent reduzieren. Die Kälte lässt die Batterieeffizienz dramatisch sinken und hohe Geschwindigkeiten sind bei EVs absolute Reichweitenkiller. Ein Tesla Model 3 (2021) schafft daher nach 20 Minuten Ultraschnellladung in einem kalten Winter bei gemütlicher Autobahnfahrt mit 160 km/h gerade noch 73 bis 103 km, während ein Diesel nach fünf Minuten Tanken bei gleichen Verhältnissen problemlos bis zu 615 km vor sich hin blockert.

Meldungen über Wunderbatterien und Superakkus reine Propaganda

Die Fehlentwicklung ist unübersehbar, und selbst wenn in zehn bis 15 Jahren die Lithium-Schwefelbatterie so weit entwickelt sein sollte, dass sie mit bis zu 400 Wh/kg auf den Markt kommt, ist das immer noch gerade einmal ein Dreißigstel der Energiedichte von Benzin.

Auch wenn wir es in 200 Jahren Batterieentwicklung geschafft haben, die Energiedichte von Akkumulatoren zu verfünffachen, sind alle Nachrichten über neue Wunderbatterien und Superakkus nur haltlose Propaganda. Damit soll natürlich die Elektromobilität gepusht werden, indem suggeriert wird, dass wir kurz davor stehen, E-Autos so schnell wie Benziner „betanken“ zu können – und dies bei gleicher Reichweite. Tatsächlich aber sind wir bei der Kapazität von Lithium-Ionen-Batterien knapp am physikalisch Machbaren angelangt, und neue Batterietechnologien mit 30 Prozent höherer Energiedichte liegen noch mindestens ein Jahrzehnt in der Zukunft.

Der Beitrag erschien zuerst bei PI-News hier

Anmerkung der Redaktion

Das ist der Punkt, warum batteriebetriebene Autos (KfZ) nie funktioneren, weil die Batterie immer und ewig, das Problem ist. Und das lässt sich auch nicht ändern, weil die elektrochemische Spannungsreihe defacto ein Naturgesetz ist. Maximal haben 2 Elektrolyten eine Spannung von 5,4 V. Tesla hat eine solche von 3,8 V. Für Leistung muss man also 100er davon hintereinander und parallelschalten. Und dann herrscht darin ein Höllenfeuer, was beim der geringsten Fehler – bspw. per Alterung – losbrechen wird und kann. Darüber hinaus ist Lithium ein Nervengift und in all seinen chem, Verbindungen wasserlöslich. China wird´s es als erstes merken, was das bedeutet.

 




Wasserstofftechnologie- Hoffnungsträger in der Katastrophenpolitik?

Jürgen Langeheine

Vorbereitet durch die Aussagen des Club of Rome fand die vom „Weltklimarat“, dem IPCC (International Panel of Climate Control) verbreitete Vorhersage einer „menschengemachten Klimakatastrophe“ Eingang in die Politik. Diese Vorhersage führte über, zahlreiche Klimakonferenzen zu der Forderung einer völligen Dekarbonisierung der Weltwirtschaft, wie sie dann 2011 durch den deutschen „Wissenschaftlichen Beirat der Bundesregierung für Globale Umweltveränderungen (WBGU)“ unter Vorsitz von Prof. Schellenhuber mit dem Titel „Welt im Wandel- Gesellschaftsvertrag für eine Große Transformation“ vorgestellt wurde.

Die Vorhersagen von künftigen katastrophalen Klima- und Wetterereignissen, auf die sich die Politik stützt, beruhen auf Modellen, die für diesen Zweck nachweislich ungeeignet sind. Keine der seit einigen Dekaden vom IPCC benutzten Modellrechnungen konnte zukünftige Entwicklungen vorhersagen und vergangene Klimaänderungen begründen. Sie genügen in keiner Weise wissenschaftlichen Anforderungen. Die schweren Wetterphänomene wie Hitze, Tornados, Dürren und Überschwemmungen liegen auch heute noch in der Bandbreite der Ereignisse vergangener Jahrzehnte.

Die Dekarbonisierung und die Reduktion des Energieverbrauchs beherrschen die politische Ausrichtung westlich orientierter Staaten. Dabei wird vergessen, dass die eigentliche menschengemachte Katastrophe, die der Club of Rome vorhersagte, in der ungesteuerten Bevölkerungsentwicklung liegt.

Das Wachstum der Erdbevölkerung ist ungebrochen. Während die Erde im Jahr 1900 knapp 2 Milliarden Menschen beherbergte, leben heute fast 8 Milliarden Menschen auf unserem Planeten.

In den zurückliegenden Dekaden ist die Erdbevölkerung im Mittel um 800 Millionen Menschen in jeder Dekade gestiegen. Bei gleichbleibender Rate bedeutet das, dass die Erdbevölkerung 2100 auf 14 Milliarden Menschen ansteigen wird, also fast eine Verdoppelung des jetzigen Wertes.

Demgegenüber sagen neueste Hochrechnungen der UNO, dass die Weltbevölkerung Ende des 21.Jahrhunderts einen stabilen Wert erreichen wird. Dann sollen ca. 11 Milliarden Menschen die Erde bewohnen. Das sind schon ca. 50% mehr als heute (s.Abb.1). Die Voraussetzung dafür ist jedoch eine rasche wirtschaftliche Entwicklung in Ländern mit niedrigem Einkommen.

 

Abb.1 Prognose zur Entwicklung der Weltbevölkerung nach Statista 2021 und UN DESA (Population Division)

Die Bevölkerungsentwicklung wird maßgeblich durch die zur Verfügung stehende Energie beeinflusst, s. Abb.2. Sie steuert direkt oder indirekt die Geburten-, Sterbe- und Migrationsraten.

Ein Bild, das Text, Screenshot, Diagramm, Zahl enthält. Automatisch generierte Beschreibung

Abb. 2 Fertilität als Funktion des Primärenergieverbrauchs

Für eine stabile Bevölkerungszahl sollte die Fertilitätsrate knapp oberhalb von 2 Kindern pro Frau liegen. Oberhalb einer Verbrauchsschwelle von ca. 2000 kg Rohöl pro Einwohner und Jahr, entsprechend 24.000 kWh (Kilowattstunden) pro Einwohner und Jahr, wird dieser Wert sicher erreicht, und die Geburtenrate sinkt auf den Wert der Sterberate. (2000 kg Rohöl pro Einwohner und Jahr entsprechen 24.000 kWh). Das Wachstum ist gestoppt.

Im Jahr 2020 verbrauchte die Menschheit mit 7,6 Milliarden Menschen ca. 580 EJ (Exa Joule). Im Durchschnitt steigt dieser Wert um ca. 10 EJ pro Jahr. Auf elektrische Energie umgerechnet sind das 0,161 Millionen TWh. Eine TWh entspricht einer Billion Wh (Wattstunden). Dieser Wert entsprich einem gemittelten Energieverbrauch von ca. 22.000 kWh pro Jahr und Einwohner, also nicht sehr weit unter dem bevölkerungskritischen Wert von 24.000 kWh.

Der Energieverbrauch in Deutschland lag im Jahr 2019 bei 2.500 TWh. Das sind 1,55% des weltweiten Energieverbrauchs und ist bei einer Bevölkerung von 80 Millionen gleichbedeutend mit einem Energieverbrauch von ca. 30.000 kWh pro Jahr .

Die Verteilung ist länderbezogen sehr ungleich. Eine Analyse zeigt, dass heute ca. 40% der Erdbewohner (ca. 3 Milliarden Menschen) ca.75% der gesamten Primärenergie jährlich verbrauchen. Das bedeutet einen pro Kopf- Verbrauch von ca. 40.000 kWh pro Jahr. Die restlichen 60% (ca. 4,4 Milliarden Menschen) leben mit einem mittleren Primärenergieverbrauch von ca. 5.500 kWh pro Einwohner und Jahr und damit weit unter dem bevölkerungskritischen Wert von 24.000 kWh.

Die Anhebung des Primärenergieverbrauchs dieser 4,4 Milliarden Menschen auf den Wert von 24.000 kWh würde eine Erhöhung des weltweiten Primärenergiebedarfs um 81.000 TWh (um ca. 50%) auf ca. 0.24 Millionen TWh bedeuten.

Die Anhebung des Primärenergieverbrauchs der gesamten 7,6 Milliarden Menschen auf Werte auf 40.000 kWh pro Jahr und Einwohner ergibt mit einem Primärenergieverbrauch von 0,3 Millionen TWh die unvorstellbare Verdoppelung des jetzigen Energieverbrauchs.

Obwohl der Weg klar aufgezeigt wird, wie die Bevölkerungsentwicklung der Erde in einen stabilen Zustand überführt und die wirklich menschengemachte Katastrophe verhindert werden kann, wird er nicht beschritten.

Stattdessen wurde auf der Grundlage eines angebliche menschengemachten Klimawandels der „Green Deal“ in der EU und der „Great Reset“ in den Vereinigten Staaten ins Leben gerufen.

Der Energieverbrauch soll weltweit drastisch reduziert und die Energieversorgung auf kohlendioxidfreie Energiequellen, wie Solarzellen, Windkraftanlagen und Bioenergieanlagen umgestellt werden.

Der „Green Deal“ der EU (s.Tab 1) sieht u.a. vor, durch Reduktion des Kohlendioxids in der Energieerzeugung eine sog. Klimaneutralität der EU bis 2050 zu erreichen. Das Ziel ist, die angeblich von Menschen gemachte Klimaveränderung auf eine Temperaturerhöhung von unter 2° C gegenüber der sog. vorindustriellen Zeit zu senken, um die Zukunft der Menschheit zu retten.

Diese 2° C Grenze und die bereits diskutierte 1,5° C Grenze sowie ihre Abhängigkeit von der Kohlendioxidkonzentration in der Luft sind durch keine belastbaren Messungen abgesichert und stammen aus vom IPCC verbreiteten, unzureichenden Computermodellen.

Klimawandel und Umweltzerstörung sind existenzielle Bedrohungen für Europa und die Welt. Mit dem europäischen Grean Deal wollen wir daher den Übergang zu einer modernen, ressourceneffizienten und wettbewerbsfähigen Wirtschaft schaffen, die bis 2050 keine Netto-Treibhausgase mehr ausstößt, ihr Wachstum von der Ressourcennutzung abkoppelt und  niemanden, weder Mensch noch Region, im Stich lässt.

Tab.1 Ziele des „Green Deals“

Der bis 2050 angestrebte Net-Zero Zustand ist nach dem BP-Energy-Outlook 2020 nur erreichbar, wenn der globale jährliche Energieverbrauch 620 EJ, entsprechend 0,171 Millionen TWH, nicht übersteigt. Das ist deutlich weniger als erforderlich wäre, um die Bevölkerungsentwicklung in einen stabilen Zustand zu überführen. s. Abb.2

Das Bevölkerungswachstum geht also unvermindert weiter und führt unvermeidbar in eine jetzt menschengemachte Katastrophe.

Das Versprechen, weder Mensch noch Region im Stich zu lassen stellt sich damit als unerfüllbares Versprechen im „Green Deal“ – Vertrag dar.

 

Abb. 3 Mögliche Entwicklungen des globalen Energiebedarfs

( BP-Energy-Outlook 2020)

Inzwischen kann der Bevölkerung nicht mehr glaubhaft vermittelt werden, dass man mit Solarzellen, Windkraftanlagen und Bioenergieanlagen eine ausreichende und verlässliche energetische Versorgung für Industriestaaten sicherstellen kann.

Ohne die Zustimmung der Bevölkerung jedoch ist die angestrebte Umstellung der Energieversorgung auf sog. Erneuerbare Energien, (die es im physikalischen Sinn gar nicht gibt. Energie kann man nicht erneuern. Man kann nur eine Energieform in die andere umwandeln), zum Scheitern verurteilt.

Um trotzdem die Energieumstellung plausibel zu machen und keinen Zweifel an der angeblich den Planeten rettenden Energiewende aufkommen zu lassen, wurde die Wasserstoffinitiative ins Leben gerufen.

In Europa haben die Europäische Kommission und 27 Europäische Staaten 2018 diese Initiative beschlossen. Durch die Zusammenarbeit und das große Marktvolumen der EU soll der durch Elektrolyse und elektrische Energie aus Windkraft- und Solaranlagen gewonnene Wasserstoff wettbewerbsfähig gemacht und als Ersatz für natürliche kohlenstoffhaltige Energiequellen eingesetzt werden.

Auf den ersten Blick scheint die Wasserstofftechnologie den Durchbruch beim Einsatz der „Erneuerbaren Energien“ zu bringen.

Wasserstoff hat einen hohen Energieinhalt, wird aus Wasser gewonnen, verbrennt zu Wasser, lässt sich speichern, und lässt sich transportieren.

Wasserstoff scheint also wie geschaffen, die heutigen Energieträger zu ersetzen.

Leider ist der Einsatz nicht so einfach, wie er erscheint, wenn sowohl die Technik als auch die Kosten einer eventuellen Umstellung der Energieversorgung eines Landes -oder geträumt der Erde- detaillierter betrachtet werden.

Wasserstoff wird je nach seiner Herstellung mit den Farben gekennzeichnet, die in Tabelle 2 aufgelistet sind.

Grüner Wasserstoff, nur über Elektrolyse mit Strom aus Windkraftanlagen oder Fotovoltaik-Anlagen hergestellt, ist die angestrebte Endlösung. Er wird als das Öl von morgen gepriesen. Alle anderen Farb-Varianten des Wasserstoffs sollen als Zwischenlösungen für die Einführung der Wasserstofftechnologie so lange dienen, bis ausreichend grüner Wasserstoff zur Verfügung steht.

Tabelle 2: Farben des Wasserstoffs

Vordergründig wird die hohe Energiedichte des Wasserstoffs angeführt (33,3 kWh/kg). Demgegenüber hat Dieseltreibstoff eine Energiedichte von 11,9 kWh/kg und Benzin eine solche von 11,4 kWh/ kg, wie aus Tabelle 3 ersichtlich ist. Diese Tabelle zeigt aber auch, dass Wasserstoff nur bei Temperaturen unter -253 °C flüssig ist, wogegen Diesel zwischen -20°C und +141°C, Benzin zwischen -45°C und +30°C flüssig sind, sich also im „normalen“ Temperaturbereich im flüssigen Zustand befinden. In diesem „normalen“ Bereich ist Wasserstoff gasförmig und hat eine Dichte von 0,09 kg/m³. Wasserstoff kann unter Druck verflüssigt werden und hat z. B. bei 700 bar und 20°C eine Dichte von 71,4 kg/m³, während die Dichte von Diesel und Benzin bei diesen Temperaturen 830 kg/m³ bzw. 750kg/m³ beträgt, also etwa um den Faktor 12 bzw. 10 höher ist.

Tab.3: Eigenschaften wasserstoffhaltiger Treibstoffe

Ein kleines Rechenbeispiel:

Für ein Dieselfahrzeug bei einem Verbrauch von 7 Liter /100 km benötigt man für eine Reichweite von 700 km ein Tankvolumen von 49 Liter, entsprechend einem Energieinhalt von 484 kWh. Will man einen entsprechenden PKW mit Wasserstoff betreiben, benötigt dieser für die gleiche Strecke 14,6 kg Wasserstoff. Dafür ist ein Tankvolumen von 204 Litern erforderlich bzw. das 4-fache Volumen gegenüber einem Dieseltank. Bringt man den aus drucktechnischen Gründen erforderlichen zylindrischen Tank in ein rechteckiges Verstauvolumen, so sind dafür ca. 280 Liter im Fahrzeug nötig.

Da im Allgemeinen im Fahrzeugbau mit technisch beanspruchtem Raum gegeizt wird, ist das höhere Verstauvolumen bei wasserstoffgetriebenen Fahrzeugen ein gewichtiger Nachteil.

Wasserstoff ist ein sehr explosives Gas. Beim Mischen mit Luft zu 4 bis 76 Volumenprozent Wasserstoff entsteht Knallgas. In einem ausgewogenen, stöchiometrischen Verhältnis von Sauerstoff und Wasserstoff kann eine Knallgasexplosion verheerende Wirkung haben. (Die Explosion einer kurz zuvor in Betrieb genommenen Wasserstofftankstelle in Gersthofen, sowie einer zwecks Gasversorgung an eine Elektrolyse angeschlossenen Produktion von Isoliermaterial in Wunsiedel, Bayern, macht die Gefahr beim Umgang mit Wasserstoff deutlich.)

Wird Wasserstoff in einfachen Metalltanks oder -leitungen gelagert, so kommt es wegen der geringen Atom- und Molekülgröße zur Diffusion, das heißt, Gas tritt durch die Gefäßwände aus. Dies ist u.a. für wasserstoffbetriebene Fahrzeuge von Bedeutung, wenn diese länger an einem abgeschlossenen Platz stehen. Spezielle Drucktanks bzw. Leitungen (faserverstärkte Kunststoffe mit Inlinern) sind für den sicheren Transport und Lagerung des Gases erforderlich, ein weiterer Nachteil für den Fahrzeugbau.

Die geringe Größe der Wasserstoffmoleküle begünstigt die Diffusion zwischen den Gitterplätzen in Stählen. Dadurch können Degradationsprozesse, im Wesentlichen Versprödung, in Pipeline-Stählen und Dichtungen beschleunigt werden, die zu Leckagen und letztendlich zum Versagen der Pipeline führen können.

Kleine Wasserstofflecks sind für die menschlichen Sinne schwer wahrnehmbar, da Wasserstoff farblos, geruchlos und geschmacklos ist. In Erdgas werden üblicherweise Geruchsstoffe wie Mercaptane (CH3SH) verwendet, um Lecks zu erkennen. Es ist jedoch nicht möglich, diese Stoffe in einen Wasserstoffstrom einzubringen, insbesondere wenn der transportierte Wasserstoff zur Versorgung von Brennstoffzellen oder Wasserstofffahrzeugen verwendet wird. Die Katalysatoren in diesen Brennstoffzellen sind äußerst empfindlich gegenüber Schwefelverbindungen.

Das Fehlen eines Geruchsstoffs zur Leckage Erkennung ist ein Problem für die Wasserstoffverteilung.

Wasserstoff nimmt als Gas unter Normaldruck ein extrem großes Volumen ein (330 Liter / kWh). So kann man das Gas weder sinnvoll speichern noch transportieren. Bei niedrigen Drücken kann Wasserstoff nur mit Kolbenverdichtern transportiert werden, Turboverdichter können erst bei höheren Drücken ab 7 bar eingesetzt werden. Daher wird Wasserstoff entweder unter hohen Druck versetzt (0,75 Liter pro kWh bei 700 bar) oder er wird verflüssigt (0,42 Liter/ kWh bei -253 °C). Weder so hohe Drücke, noch so tiefe Temperaturen sind für große Mengen leicht handhabbar und vor allem mit hohen Kosten verbunden. Daher gibt es Überlegungen, den Wasserstoff chemisch zu binden, um ihn leichter transportieren zu können.

Ob es nun LOHC (liquid organic hydrogen carrier), eine organische Flüssigkeit, die in der Lage ist, Wasserstoff zu binden (Hydrierung), Power Paste, ein neuerdings vom Fraunhofer Institut in die Diskussion eingebrachtes flüssiges Gel auf Magnesium-Wasserstoffbasis, Methan, Methanol oder Ammoniak ist, leiden sie alle neben ungelösten technischen Problemen daran, dass der energetische Wirkungsgrad auf Werte deutlich unter 40% sinkt.

Noch sind die Mengen von grünem Wasserstoff auf dem Markt verschwindend klein. Im Jahr 2021 lag die weltweite Wasserstoffproduktionsmenge laut Handelsblatt bei 94,23 Millionen Tonnen. Davon waren nur 30.000 Tonnen „grün“ produziert. Im vergangenen Jahr hat sich diese Menge auf 90.000 Tonnen verdreifacht, was aber immer noch ein sehr, sehr geringer Anteil an der Gesamtproduktion ist.

Derzeit verbraucht die Industrie in Deutschland jährlich etwa 1,8 Mio. Tonnen Wasserstoff, die einer Energiemenge von etwa 55 bis 60 TWh entsprechen.

(1 TWh = 1· 109 kWh oder 1 Milliarde kWh)

Abb. 4 zeigt den gesamten Energiebedarf Deutschlands für die Jahre 1991 bis 2019:

Ein Bild, das Text, Screenshot, parallel, Reihe enthält. Automatisch generierte Beschreibung

Abb. 4: Energieverbrauch Deutschlands nach Sektoren.

Trotz massivem finanziellen Aufwand für die Energieeinsparung hat sich im Laufe der in Abb.4 dargestellten 30 Jahre der gesamte Energieverbrauch nur von 2.631 auf 2.514 Terrawattstunden reduziert ( ca. 5% Verringerung), im Wesentlichen erreicht durch einen geringeren Energieverbrauch im industriellen Sektor.

 

Betrachtet man den Gesamtenergiebedarf Deutschlands mit ca. 2.500 TWh/a, die sich auf Strom mit ca. 600 TWh/a, Verkehr auf 750 TWh/a und Wärme mit 1.150 TWh/a verteilen, so müssen bei unverändertem Gesamtenergiebedarf und unter der heute noch nicht bewiesenen Annahme, dass der Strom absolut kohlendioxidfrei erzeugt wird, langfristig 1.800 Milliarden kWh/a durch Wasserstoff ersetzt werden. Das erfordert eine Produktion von ca. 60 Milliarden kg Wasserstoff pro Jahr oder 60 Millionen Tonnen Wasserstoff/ Jahr allein für Deutschland.

Für grünen Wasserstoff im industriellen Maßstab kommt als Herstellungsverfahren nur die Elektrolyse von Wasser in Frage. Da Deutschland seine Kernkraftwerke stillgelegt hat und auch die Kohlekraftwerke abschalten will, muss eine entsprechende Zahl von Windkraftanlagen bzw. Photovoltaikanlagen als Energiequelle dienen.

Der Wirkungsgrad des eingesetzten Stroms bezogen auf den Brennwert des Wasserstoffs liegt bei heutigen Elektrolyseanlagen bei ca. 65%. Unter Zugrundelegung dieses Wirkungsgrades für die Elektrolyse ist eine elektrische Eingangsleistung von ca. 3.000 Milliarden kWh/a bzw. 3.000 TWh/a erforderlich, die zudem ständig verfügbar sein muss, eine Forderung, die bei Windkraft- und Solaranlagen keineswegs gewährleistet ist.

 

Die gesamte installierte Leistung von Photovoltaik- und Windkraftanlagen betrug im Jahr 2020 ca. 116 GW oder 116 Milliarden Watt.

Mit 1 GW installierter Leistung werden pro Jahr durchschnittlich ca. 1,5 TWh/a erzeugt. Bei 8.720 Stunden pro Jahr ergibt das eine Ausbeute von 17,5% der installierten Nennleistung von Windkraft- und Photovoltaikanlagen.

Im Jahr 2020 lag die gesamte Produktion bei ca. 200 TWh.

Das bedeutet, dass ein Ausbau der installierten Leistung von Windkraft- und Solaranlagen gegenüber dem Stand von 2020 auf mehr als das 15 -fache erfolgen müsste.

Der nötige Ausbau ist weder flächenmäßig zu erreichen noch politisch durchsetzbar und vor allem nicht bezahlbar, wie eine kurze Überschlagsrechnung für Windkraftanlagen zeigt.

Heute sind in Deutschland ca. 30.000 Windkraftanlagen mit einer Leistung von 69.500 MW installiert. Die Installation einer Windkraftanlage mit einer Leistung von 6 MW erfordert Investitionen von ca. 12 Millionen €, die sich aus ca. 8 Millionen € für die Windkraftanlage incl. Fundament und ca. 4 Millionen € für Infrastruktur- Netzanbindungs- und Genehmigungskosten zusammensetzen.

sodass für die Installation von 1 GW Investitionen von ca. 2Milliarden € erforderlich sind. Für die existierenden 116 GW ist bereits eine Investition von 230 Milliarden € erfolgt, weitere 3,2 Billionen € wären erforderlich, allein um die elektrische Versorgung der Wasserstoffherstellung sicherzustellen.

Zu diesen Strombereitstellungskosten kommen noch die Investitionen für die Elektrolyseanlagen, die heute bei ca. 1.000 €/kW liegen. Das Fraunhofer Institut geht von einer Kostenreduktion bis 2030 auf ca. 400 €/kW aus, s. Abb. 5.

Ein Bild, das Text, Screenshot, Schrift, Diagramm enthält. Automatisch generierte Beschreibung

Abb. 5: Investitionskosten pro kW

Geht man von diesen Werten aus und legt den Erfahrungswert von 17,5%, also ca. 1.500h pro Jahr für die reine Produktionszeit zugrunde, so sind für die Abdeckung der umzustellenden 1.800 TWh/a Investitionen von ca. 500 Milliarden für die Elektrolyse erforderlich.

Die geschätzten Investitionskosten summieren sich damit auf ca. 4 Billionen €.

Allein, um diese Anlagen in Betrieb zu halten, fallen bei Betriebskosten von 2% (eine optimistische Annahme) Kosten von ca. 800 Milliarden €/ Jahr an.

Das ist ein für Deutschland nicht finanzierbares Vorhaben.

Die Bundesregierung hat dieses Problem wohl erkannt und versucht nun grünen Wasserstoff zu importieren, um ihr energetisches Kernprojekt, die Versorgung Deutschlands über kohlenstofffreie Energiequellen langfristig sicher zu stellen und die Wasserstofftechnologie durchzusetzen.

Ausarbeitungen des Fraunhofer Instituts zu den Kosten des importierten Wasserstoffs weisen Werte von 0,15 €/kWh aus Nordafrika, 0,18 €/kWh aus Südamerika aus. Bis 2050 soll dieser Wert auf 0,09 €/kWh sinken. Die Beschaffungs- und Vertriebskosten würden dann immer noch um den Faktor 3 deutlich höher sein als sie vor den Rußlandsanktionen mit ca. 0,03€/kWh waren.

Aktuell liegen diese Kosten bei 0,065€/kWh, wie aus Abb. 6 zu erkennen ist.

Ein Bild, das Text, Screenshot, Software, Design enthält. Automatisch generierte Beschreibung

Abb. 6: Erdgaspreise für Haushalte

Erdgas besteht im Wesentlichen aus Methan. Es liegt nahe, den Wasserstoff in Methan umzuwandeln und das modifizierte Erdgasnetz zur Energiespeicherung und Versorgung zu nutzen. Dies scheitert an den Kosten, wie nachfolgende Stellungnahme des Fraunhofer Instituts zeigt.

Synthetisches Methan und Öl kosten anfänglich in Europa etwa 20 bis 30 Cent pro Kilowattstunde. Die Kosten können bis 2050 auf etwa 10 Cent je Kilowattstunde sinken, wenn ausreichend Kapazitäten für die globale Power-to-Gas-/Power-to-Liquid-Umwandlung vorhanden sind.

Die avisierten Kostensenkungen bedingen erhebliche frühzeitige und kontinuierliche Investitionen in Elektrolyseure und CO2-Absorber. Diese sind ohne politische Intervention oder eine hohe CO2-Bepreisung nicht zu erwarten, denn die Herstellungskosten für synthetische Brennstoffe sind dauerhaft höher als die Förderkosten ihrer fossilen Alternativen.

Es bleibt auch hier nach Investitionen in Höhe von Billionen € nur eine Hoffnung auf Heizgaskosten, die im Vergleich zum Jahr 2020 um den Faktor 3-4 höher sind.

Weder mengenmäßig noch bezüglich der zu erwartenden Kosten ist eine vollständige Umstellung auf Wasserstofftechnologie sinnvoll.

Auch wenn die Wasserstofftechnologie mit Hilfe staatlicher Investitionen in einige Wirtschaftsbereiche vordringen wird, in denen sie heute aus technischen und wirtschaftlichen Gründen noch nicht verbreitet ist, wird diese Technologie allein aus Kostengründen eine Nischentechnologie bleiben. Für die Energieversorgung eines Industrielandes wie Deutschland bzw. die weltweite Energieversorgung bieten nur die kostengünstigeren traditionellen Energiequellen, wie Kernenergie und fossile Brennstoffe den erforderlichen finanziellen Spielraum, um die wirtschaftliche Entwicklung in den Industrieländern zu stabilisieren, Ländern mit niedrigem Einkommen eine Entwicklungschance zu geben und damit der wirklich drohenden Katastrophe, dem ungesteuerten Bevölkerungswachstum, entgegenzuwirken.

Die ungelösten technischen Probleme bei der Herstellung und Speicherung von grünem Wasserstoff in den erforderlichen Mengen und die zu erwartenden Kosten für den Aufbau der Infrastruktur und den Unterhalt dieser Technologie werden der Bevölkerung systematisch verschwiegen. Stattdessen wird der Bevölkerung auf der Basis unbewiesener Annahmen einer menschengemachten, durch Kohlendioxid hervorgerufenen Erderwärmung, die wirtschaftliche Grundlage entzogen.

Allein die jährlichen Betriebskosten für diese Technologie unter idealen Bedingungen von ca. achthundert Milliarden € pro Jahr nur für Deutschland, bedeuten einen Betrag in Höhe des doppelten derzeitigen Bundeshaushalts. Dieses Geld geht der Bevölkerung in Deutschland u.a. für soziale Aufgaben und Entwicklungshilfe verloren.

Rechnet man den Betrag von 800 Milliarden € allein auf westliche Industriestaaten hoch, landet man im mehrstelligen Billionenbereich.

Der Zugriff des Menschen auf preiswerte Energiesysteme setzt die Rahmenbedingungen, unter denen sich gesellschaftliche, ökonomische oder kulturelle Strukturen bilden können und bestimmt die Grundzüge einer Gesellschaft.

Die Umstellung der Energieversorgung auf Wasserstofftechnologie führt zu einer katastrophalen Verschlechterung der wirtschaftlichen Situation Deutschlands und, übertragen auf die weltweite Situation, zu wirtschaftlichem Niedergang und unlösbaren bevölkerungspolitischen Problemen, da sie durch zwangsläufig vergrößerten Energiemangel einem weiteren Wachstum der Weltbevölkerung Vorschub leistet.

090225

Wasserstofftechnologie-

Hoffnungsträger in der Katastrophenpolitik?

Jürgen Langeheine

Vorbereitet durch die Aussagen des Club of Rome fand die vom „Weltklimarat“, dem IPCC (International Panel of Climate Control) verbreitete Vorhersage einer „menschengemachten Klimakatastrophe“ Eingang in die Politik. Diese Vorhersage führte über, zahlreiche Klimakonferenzen zu der Forderung einer völligen Dekarbonisierung der Weltwirtschaft, wie sie dann 2011 durch den deutschen „Wissenschaftlichen Beirat der Bundesregierung für Globale Umweltveränderungen (WBGU)“ unter Vorsitz von Prof. Schellenhuber mit dem Titel „Welt im Wandel- Gesellschaftsvertrag für eine Große Transformation“ vorgestellt wurde.

Die Vorhersagen von künftigen katastrophalen Klima- und Wetterereignissen, auf die sich die Politik stützt, beruhen auf Modellen, die für diesen Zweck nachweislich ungeeignet sind. Keine der seit einigen Dekaden vom IPCC benutzten Modellrechnungen konnte zukünftige Entwicklungen vorhersagen und vergangene Klimaänderungen begründen. Sie genügen in keiner Weise wissenschaftlichen Anforderungen. Die schweren Wetterphänomene wie Hitze, Tornados, Dürren und Überschwemmungen liegen auch heute noch in der Bandbreite der Ereignisse vergangener Jahrzehnte.

Die Dekarbonisierung und die Reduktion des Energieverbrauchs beherrschen die politische Ausrichtung westlich orientierter Staaten. Dabei wird vergessen, dass die eigentliche menschengemachte Katastrophe, die der Club of Rome vorhersagte, in der ungesteuerten Bevölkerungsentwicklung liegt.

Das Wachstum der Erdbevölkerung ist ungebrochen. Während die Erde im Jahr 1900 knapp 2 Milliarden Menschen beherbergte, leben heute fast 8 Milliarden Menschen auf unserem Planeten.

In den zurückliegenden Dekaden ist die Erdbevölkerung im Mittel um 800 Millionen Menschen in jeder Dekade gestiegen. Bei gleichbleibender Rate bedeutet das, dass die Erdbevölkerung 2100 auf 14 Milliarden Menschen ansteigen wird, also fast eine Verdoppelung des jetzigen Wertes.

Demgegenüber sagen neueste Hochrechnungen der UNO, dass die Weltbevölkerung Ende des 21.Jahrhunderts einen stabilen Wert erreichen wird. Dann sollen ca. 11 Milliarden Menschen die Erde bewohnen. Das sind schon ca. 50% mehr als heute (s.Abb.1). Die Voraussetzung dafür ist jedoch eine rasche wirtschaftliche Entwicklung in Ländern mit niedrigem Einkommen.

 

Abb.1 Prognose zur Entwicklung der Weltbevölkerung nach Statista 2021 und UN DESA (Population Division)

Die Bevölkerungsentwicklung wird maßgeblich durch die zur Verfügung stehende Energie beeinflusst, s. Abb.2. Sie steuert direkt oder indirekt die Geburten-, Sterbe- und Migrationsraten.

Ein Bild, das Text, Screenshot, Diagramm, Zahl enthält. Automatisch generierte Beschreibung

Abb. 2 Fertilität als Funktion des Primärenergieverbrauchs

Für eine stabile Bevölkerungszahl sollte die Fertilitätsrate knapp oberhalb von 2 Kindern pro Frau liegen. Oberhalb einer Verbrauchsschwelle von ca. 2000 kg Rohöl pro Einwohner und Jahr, entsprechend 24.000 kWh (Kilowattstunden) pro Einwohner und Jahr, wird dieser Wert sicher erreicht, und die Geburtenrate sinkt auf den Wert der Sterberate. (2000 kg Rohöl pro Einwohner und Jahr entsprechen 24.000 kWh). Das Wachstum ist gestoppt.

Im Jahr 2020 verbrauchte die Menschheit mit 7,6 Milliarden Menschen ca. 580 EJ (Exa Joule). Im Durchschnitt steigt dieser Wert um ca. 10 EJ pro Jahr. Auf elektrische Energie umgerechnet sind das 0,161 Millionen TWh. Eine TWh entspricht einer Billion Wh (Wattstunden). Dieser Wert entsprich einem gemittelten Energieverbrauch von ca. 22.000 kWh pro Jahr und Einwohner, also nicht sehr weit unter dem bevölkerungskritischen Wert von 24.000 kWh.

Der Energieverbrauch in Deutschland lag im Jahr 2019 bei 2.500 TWh. Das sind 1,55% des weltweiten Energieverbrauchs und ist bei einer Bevölkerung von 80 Millionen gleichbedeutend mit einem Energieverbrauch von ca. 30.000 kWh pro Jahr .

Die Verteilung ist länderbezogen sehr ungleich. Eine Analyse zeigt, dass heute ca. 40% der Erdbewohner (ca. 3 Milliarden Menschen) ca.75% der gesamten Primärenergie jährlich verbrauchen. Das bedeutet einen pro Kopf- Verbrauch von ca. 40.000 kWh pro Jahr. Die restlichen 60% (ca. 4,4 Milliarden Menschen) leben mit einem mittleren Primärenergieverbrauch von ca. 5.500 kWh pro Einwohner und Jahr und damit weit unter dem bevölkerungskritischen Wert von 24.000 kWh.

Die Anhebung des Primärenergieverbrauchs dieser 4,4 Milliarden Menschen auf den Wert von 24.000 kWh würde eine Erhöhung des weltweiten Primärenergiebedarfs um 81.000 TWh (um ca. 50%) auf ca. 0.24 Millionen TWh bedeuten.

Die Anhebung des Primärenergieverbrauchs der gesamten 7,6 Milliarden Menschen auf Werte auf 40.000 kWh pro Jahr und Einwohner ergibt mit einem Primärenergieverbrauch von 0,3 Millionen TWh die unvorstellbare Verdoppelung des jetzigen Energieverbrauchs.

Obwohl der Weg klar aufgezeigt wird, wie die Bevölkerungsentwicklung der Erde in einen stabilen Zustand überführt und die wirklich menschengemachte Katastrophe verhindert werden kann, wird er nicht beschritten.

Stattdessen wurde auf der Grundlage eines angebliche menschengemachten Klimawandels der „Green Deal“ in der EU und der „Great Reset“ in den Vereinigten Staaten ins Leben gerufen.

Der Energieverbrauch soll weltweit drastisch reduziert und die Energieversorgung auf kohlendioxidfreie Energiequellen, wie Solarzellen, Windkraftanlagen und Bioenergieanlagen umgestellt werden.

Der „Green Deal“ der EU (s.Tab 1) sieht u.a. vor, durch Reduktion des Kohlendioxids in der Energieerzeugung eine sog. Klimaneutralität der EU bis 2050 zu erreichen. Das Ziel ist, die angeblich von Menschen gemachte Klimaveränderung auf eine Temperaturerhöhung von unter 2° C gegenüber der sog. vorindustriellen Zeit zu senken, um die Zukunft der Menschheit zu retten.

Diese 2° C Grenze und die bereits diskutierte 1,5° C Grenze sowie ihre Abhängigkeit von der Kohlendioxidkonzentration in der Luft sind durch keine belastbaren Messungen abgesichert und stammen aus vom IPCC verbreiteten, unzureichenden Computermodellen.

Klimawandel und Umweltzerstörung sind existenzielle Bedrohungen für Europa und die Welt. Mit dem europäischen Grean Deal wollen wir daher den Übergang zu einer modernen, ressourceneffizienten und wettbewerbsfähigen Wirtschaft schaffen, die

bis 2050 keine Netto-Treibhausgase mehr ausstößt,

ihr Wachstum von der Ressourcennutzung abkoppelt und

niemanden, weder Mensch noch Region, im Stich lässt.

Tab.1 Ziele des „Green Deals“

Der bis 2050 angestrebte Net-Zero Zustand ist nach dem BP-Energy-Outlook 2020 nur erreichbar, wenn der globale jährliche Energieverbrauch 620 EJ, entsprechend 0,171 Millionen TWH, nicht übersteigt. Das ist deutlich weniger als erforderlich wäre, um die Bevölkerungsentwicklung in einen stabilen Zustand zu überführen. s. Abb.2

Das Bevölkerungswachstum geht also unvermindert weiter und führt unvermeidbar in eine jetzt menschengemachte Katastrophe.

Das Versprechen, weder Mensch noch Region im Stich zu lassen stellt sich damit als unerfüllbares Versprechen im „Green Deal“ – Vertrag dar.

 

Abb. 3 Mögliche Entwicklungen des globalen Energiebedarfs

( BP-Energy-Outlook 2020)

Inzwischen kann der Bevölkerung nicht mehr glaubhaft vermittelt werden, dass man mit Solarzellen, Windkraftanlagen und Bioenergieanlagen eine ausreichende und verlässliche energetische Versorgung für Industriestaaten sicherstellen kann.

Ohne die Zustimmung der Bevölkerung jedoch ist die angestrebte Umstellung der Energieversorgung auf sog. Erneuerbare Energien, (die es im physikalischen Sinn gar nicht gibt. Energie kann man nicht erneuern. Man kann nur eine Energieform in die andere umwandeln), zum Scheitern verurteilt.

 

Um trotzdem die Energieumstellung plausibel zu machen und keinen Zweifel an der angeblich den Planeten rettenden Energiewende aufkommen zu lassen, wurde die Wasserstoffinitiative ins Leben gerufen.

In Europa haben die Europäische Kommission und 27 Europäische Staaten 2018 diese Initiative beschlossen. Durch die Zusammenarbeit und das große Marktvolumen der EU soll der durch Elektrolyse und elektrische Energie aus Windkraft- und Solaranlagen gewonnene Wasserstoff wettbewerbsfähig gemacht und als Ersatz für natürliche kohlenstoffhaltige Energiequellen eingesetzt werden.

Auf den ersten Blick scheint die Wasserstofftechnologie den Durchbruch beim Einsatz der „Erneuerbaren Energien“ zu bringen.

Wasserstoff hat

einen hohen Energieinhalt,

wird aus Wasser gewonnen,

verbrennt zu Wasser,

lässt sich speichern,

und lässt sich transportieren.

Wasserstoff scheint also wie geschaffen, die heutigen Energieträger zu ersetzen.

Leider ist der Einsatz nicht so einfach, wie er erscheint, wenn sowohl die Technik als auch die Kosten einer eventuellen Umstellung der Energieversorgung eines Landes -oder geträumt der Erde- detaillierter betrachtet werden.

Wasserstoff wird je nach seiner Herstellung mit den Farben gekennzeichnet, die in Tabelle 2 aufgelistet sind.

Grüner Wasserstoff, nur über Elektrolyse mit Strom aus Windkraftanlagen oder Fotovoltaik-Anlagen hergestellt, ist die angestrebte Endlösung. Er wird als das Öl von morgen gepriesen. Alle anderen Farb-Varianten des Wasserstoffs sollen als Zwischenlösungen für die Einführung der Wasserstofftechnologie so lange dienen, bis ausreichend grüner Wasserstoff zur Verfügung steht.

Tabelle 2: Farben des Wasserstoffs

Vordergründig wird die hohe Energiedichte des Wasserstoffs angeführt (33,3 kWh/kg). Demgegenüber hat Dieseltreibstoff eine Energiedichte von 11,9 kWh/kg und Benzin eine solche von 11,4 kWh/ kg, wie aus Tabelle 3 ersichtlich ist. Diese Tabelle zeigt aber auch, dass Wasserstoff nur bei Temperaturen unter -253 °C flüssig ist, wogegen Diesel zwischen -20°C und +141°C, Benzin zwischen -45°C und +30°C flüssig sind, sich also im „normalen“ Temperaturbereich im flüssigen Zustand befinden. In diesem „normalen“ Bereich ist Wasserstoff gasförmig und hat eine Dichte von 0,09 kg/m³. Wasserstoff kann unter Druck verflüssigt werden und hat z. B. bei 700 bar und 20°C eine Dichte von 71,4 kg/m³, während die Dichte von Diesel und Benzin bei diesen Temperaturen 830 kg/m³ bzw. 750kg/m³ beträgt, also etwa um den Faktor 12 bzw. 10 höher ist.

 

Tab.3: Eigenschaften wasserstoffhaltiger Treibstoffe

Ein kleines Rechenbeispiel:

Für ein Dieselfahrzeug bei einem Verbrauch von 7 Liter /100 km benötigt man für eine Reichweite von 700 km ein Tankvolumen von 49 Liter, entsprechend einem Energieinhalt von 484 kWh. Will man einen entsprechenden PKW mit Wasserstoff betreiben, benötigt dieser für die gleiche Strecke 14,6 kg Wasserstoff. Dafür ist ein Tankvolumen von 204 Litern erforderlich bzw. das 4-fache Volumen gegenüber einem Dieseltank. Bringt man den aus drucktechnischen Gründen erforderlichen zylindrischen Tank in ein rechteckiges Verstauvolumen, so sind dafür ca. 280 Liter im Fahrzeug nötig.

Da im Allgemeinen im Fahrzeugbau mit technisch beanspruchtem Raum gegeizt wird, ist das höhere Verstauvolumen bei wasserstoffgetriebenen Fahrzeugen ein gewichtiger Nachteil.

Wasserstoff ist ein sehr explosives Gas. Beim Mischen mit Luft zu 4 bis 76 Volumenprozent Wasserstoff entsteht Knallgas. In einem ausgewogenen, stöchiometrischen Verhältnis von Sauerstoff und Wasserstoff kann eine Knallgasexplosion verheerende Wirkung haben. (Die Explosion einer kurz zuvor in Betrieb genommenen Wasserstofftankstelle in Gersthofen, sowie einer zwecks Gasversorgung an eine Elektrolyse angeschlossenen Produktion von Isoliermaterial in Wunsiedel, Bayern, macht die Gefahr beim Umgang mit Wasserstoff deutlich.)

Wird Wasserstoff in einfachen Metalltanks oder -leitungen gelagert, so kommt es wegen der geringen Atom- und Molekülgröße zur Diffusion, das heißt, Gas tritt durch die Gefäßwände aus. Dies ist u.a. für wasserstoffbetriebene Fahrzeuge von Bedeutung, wenn diese länger an einem abgeschlossenen Platz stehen. Spezielle Drucktanks bzw. Leitungen (faserverstärkte Kunststoffe mit Inlinern) sind für den sicheren Transport und Lagerung des Gases erforderlich, ein weiterer Nachteil für den Fahrzeugbau.

Die geringe Größe der Wasserstoffmoleküle begünstigt die Diffusion zwischen den Gitterplätzen in Stählen. Dadurch können Degradationsprozesse, im Wesentlichen Versprödung, in Pipeline-Stählen und Dichtungen beschleunigt werden, die zu Leckagen und letztendlich zum Versagen der Pipeline führen können.

Kleine Wasserstofflecks sind für die menschlichen Sinne schwer wahrnehmbar, da Wasserstoff farblos, geruchlos und geschmacklos ist. In Erdgas werden üblicherweise Geruchsstoffe wie Mercaptane (CH3SH) verwendet, um Lecks zu erkennen. Es ist jedoch nicht möglich, diese Stoffe in einen Wasserstoffstrom einzubringen, insbesondere wenn der transportierte Wasserstoff zur Versorgung von Brennstoffzellen oder Wasserstofffahrzeugen verwendet wird. Die Katalysatoren in diesen Brennstoffzellen sind äußerst empfindlich gegenüber Schwefelverbindungen.

Das Fehlen eines Geruchsstoffs zur Leckage Erkennung ist ein Problem für die Wasserstoffverteilung.

Wasserstoff nimmt als Gas unter Normaldruck ein extrem großes Volumen ein (330 Liter / kWh). So kann man das Gas weder sinnvoll speichern noch transportieren. Bei niedrigen Drücken kann Wasserstoff nur mit Kolbenverdichtern transportiert werden, Turboverdichter können erst bei höheren Drücken ab 7 bar eingesetzt werden. Daher wird Wasserstoff entweder unter hohen Druck versetzt (0,75 Liter pro kWh bei 700 bar) oder er wird verflüssigt (0,42 Liter/ kWh bei -253 °C). Weder so hohe Drücke, noch so tiefe Temperaturen sind für große Mengen leicht handhabbar und vor allem mit hohen Kosten verbunden. Daher gibt es Überlegungen, den Wasserstoff chemisch zu binden, um ihn leichter transportieren zu können.

Ob es nun LOHC (liquid organic hydrogen carrier), eine organische Flüssigkeit, die in der Lage ist, Wasserstoff zu binden (Hydrierung), Power Paste, ein neuerdings vom Fraunhofer Institut in die Diskussion eingebrachtes flüssiges Gel auf Magnesium-Wasserstoffbasis, Methan, Methanol oder Ammoniak ist, leiden sie alle neben ungelösten technischen Problemen daran, dass der energetische Wirkungsgrad auf Werte deutlich unter 40% sinkt.

Noch sind die Mengen von grünem Wasserstoff auf dem Markt verschwindend klein. Im Jahr 2021 lag die weltweite Wasserstoffproduktionsmenge laut Handelsblatt bei 94,23 Millionen Tonnen. Davon waren nur 30.000 Tonnen „grün“ produziert. Im vergangenen Jahr hat sich diese Menge auf 90.000 Tonnen verdreifacht, was aber immer noch ein sehr, sehr geringer Anteil an der Gesamtproduktion ist.

Derzeit verbraucht die Industrie in Deutschland jährlich etwa 1,8 Mio. Tonnen Wasserstoff, die einer Energiemenge von etwa 55 bis 60 TWh entsprechen.

(1 TWh = 1· 109 kWh oder 1 Milliarde kWh)

Abb. 4 zeigt den gesamten Energiebedarf Deutschlands für die Jahre 1991 bis 2019:

Ein Bild, das Text, Screenshot, parallel, Reihe enthält. Automatisch generierte Beschreibung

Abb. 4: Energieverbrauch Deutschlands nach Sektoren.

Trotz massivem finanziellen Aufwand für die Energieeinsparung hat sich im Laufe der in Abb.4 dargestellten 30 Jahre der gesamte Energieverbrauch nur von 2.631 auf 2.514 Terrawattstunden reduziert ( ca. 5% Verringerung), im Wesentlichen erreicht durch einen geringeren Energieverbrauch im industriellen Sektor.

 

Betrachtet man den Gesamtenergiebedarf Deutschlands mit ca. 2.500 TWh/a, die sich auf Strom mit ca. 600 TWh/a, Verkehr auf 750 TWh/a und Wärme mit 1.150 TWh/a verteilen, so müssen bei unverändertem Gesamtenergiebedarf und unter der heute noch nicht bewiesenen Annahme, dass der Strom absolut kohlendioxidfrei erzeugt wird, langfristig 1.800 Milliarden kWh/a durch Wasserstoff ersetzt werden. Das erfordert eine Produktion von ca. 60 Milliarden kg Wasserstoff pro Jahr oder 60 Millionen Tonnen Wasserstoff/ Jahr allein für Deutschland.

Für grünen Wasserstoff im industriellen Maßstab kommt als Herstellungsverfahren nur die Elektrolyse von Wasser in Frage. Da Deutschland seine Kernkraftwerke stillgelegt hat und auch die Kohlekraftwerke abschalten will, muss eine entsprechende Zahl von Windkraftanlagen bzw. Photovoltaikanlagen als Energiequelle dienen.

Der Wirkungsgrad des eingesetzten Stroms bezogen auf den Brennwert des Wasserstoffs liegt bei heutigen Elektrolyseanlagen bei ca. 65%. Unter Zugrundelegung dieses Wirkungsgrades für die Elektrolyse ist eine elektrische Eingangsleistung von ca. 3.000 Milliarden kWh/a bzw. 3.000 TWh/a erforderlich, die zudem ständig verfügbar sein muss, eine Forderung, die bei Windkraft- und Solaranlagen keineswegs gewährleistet ist.

 




Eine klimapolitische Initiative vom bisherigen Vorreiter für den Rest der Welt

Von Günter Keil

Die kürzlichen Landtagswahlen, die für einige Parteien recht unerfreuliche Resultate brachten, haben immerhin zu Debatten geführt, die von den Vorständen für Hinweise zu einer künftigen erfolgversprechenden Schwerpunktsetzung veranstaltet wurden. Eine wichtige Aktion war darunter die Entscheidung der Bundestags-Fraktion der GRÜNEN, einen Kongress unter dem etwas merkwürdigen Motto „Mut macht Zukunft“ zu veranstalten. Dieser fand am 30. September in Berlin im ehemaligen DDR-Großraumkino „Kosmos“ in der Karl-Marx-Allee statt.

Weil diese Partei ja ganz offensichtlich die Politik der Bundesregierung bestimmt, lohnt sich eine Betrachtung dessen, was dabei herausgekommen ist. Die Fraktionsvorsitzende Britta Haßelmann erklärte einleitend „Wir vertreten einen zukunftsorientierten Ansatz“. Und die Co-Vorsitzende Katharina Dröge benannte auch gleich das Hauptziel: Sie forderte, das Thema Klimaschutz wieder „in den Mittelpunkt zu stellen“. Das war zugleich die Ankündigung, dass sich an dieser schon bisher als Kernthema verfolgten Politik auch künftig nichts ändern dürfe. Und so wurde es beschlossen.

Weil die Konsequenzen dieser Entscheidung aber keineswegs allein auf Deutschland beschränkt sind, sondern die weltweiten Aktivitäten zur Vermeidung eines katastrophalen Klimawandels beeinflussen – siehe das Pariser Abkommen – muss die Regierung ihre Absichten auch allen Staaten erläutern, die sich in gleicher Weise um die Reduzierung ihrer CO2-Emissionen bemühen. Daher muss der bisherige selbsternannte Vorreiter im Klimaschutz dem Rest der Welt vor allem die Konsequenzen ihres künftigen Handelns für diese Staaten erläutern, damit sich diese darauf einstellen können.

Dabei muss selbstverständlich auch ehrlich über die Situation des Vorreiters Deutschland berichtet werden, die – vorsichtig gesagt – nicht einfacher geworden ist.

Ein nützlicher Text für eine Rundnote des Auswärtigen Amts an die diplomatischen Vertretungen der anzusprechenden Länder wird hiermit präsentiert. Sowohl die Einleitung als auch der Abschiedstext bedürfen nach den Regeln der Diplomatie einer besonderen Formulierung.

Vorschlag für die diplomatische Rundnote:

„Das Auswärtige Amt beehrt sich, den diplomatischen Missionen und Organisationen in der Bundesrepublik Deutschland einen Vorschlag zur Vorgehensweise bei der Bekämpfung einer bevorstehenden Klimakatastrophe vorzulegen. Einleitend möchte die Regierung der Bundesrepublik Deutschland feststellen, dass Deutschland weiterhin der Vorreiter beim Klimaschutz auf der Erde zu bleiben beabsichtigt. Es gibt zwar einige Hemmnisse, die in Deutschland noch zu beheben wären, wie die Tatsache, dass es seit einiger Zeit seine Kohlendioxid-Emissionen durch die Wiederinbetriebnahme von bereits stillgelegten Kohlekraftwerken erhöht hat. Dafür hat Deutschland aber sämtliche Kernkraftwerke stillgelegt.

Es kommt somit gegenwärtig entscheidend darauf an, dass Ihre Nation ihren Kohlendioxid-Ausstoß weiter verringert, um die Folgen des beschriebenen Vorgangs in Deutschland auszugleichen. Dafür erklärt Deutschland sein Einverständnis mit der vorübergehenden Übernahme der Rolle von

Klimaschutz-Vorreitern durch Ihre Nation.

Selbstverständlich wird Ihnen Deutschland dabei wirksame Unterstützung leisten, indem es in allen relevanten internationalen Medien die Pflicht zur Rettung der Welt vor der Klimakatastrophe durch bedeutende publizistische Beiträge betont.

Ihre Nation könnte zur stärkeren Unterstützung der Zielerreichung von „Null CO2-Emissionen“ vor allem einen starken Zubau von Kernkraftwerken in Erwägung ziehen. Dafür würde Sie Deutschland argumentativ auch stark unterstützen.

Weiterhin möchte Ihnen Deutschland anbieten, Bauteile aus seinen stillgelegten Kernkraftwerken preisgünstig zur Verfügung zu stellen, sofern diese Anlagen noch nicht vollständig entsorgt wurden.

Wie ernst es Deutschland damit ist, seine Klimaschutz-Vorreiter-Rolle wiederherzustellen, können Sie daran erkennen, wie Deutschland konsequent daran arbeitet, seine Wirtschaft durch die angestrebte vollständige Stromerzeugung durch Windkraft- und Photovoltaikanlagen zu ruinieren. Zu diesem risikoreichen Vorhaben bietet Ihnen Deutschland seine inzwischen beträchtliche Expertise an.

Das Auswärtige Amt beehrt sich, den diplomatischen Missionen und internationalen Organisationen erneut seiner ausgezeichneten Hochachtung zu versichern.“

 

Der Autor, Dr. Ing. Günter Keil, war bis zu seiner Pensionierung Regierungsdirektor im Forschungsministerium des Bundes.

 




Das Klima-Urteil des Bundesverfassungsgerichtes

von Eike Roth

Am 29.04.2021 hat das BVerfG sein viel beachtetes Klima-Urteil gefällt. In einem neuen Video https://www.youtube.com/watch?v=Yk3eot_NC9c hat Prof. Ganteför überzeugend aufgezeigt, dass das Gericht nicht nur einfach Feststellungen getroffen hat, sondern mit diesen auch indirekt das seinen Überlegungen zugrundeliegende „Budget-Modell“ als sachlich richtig bestätigt hat. Dieses Modell entspricht jedoch, wie Prof. Ganteför ebenso überzeugend darlegt, eindeutig nicht den realen Gegebenheiten. Insofern ist das Urteil, obwohl in sich logisch, klar zurückzuweisen. Ein wichtiger Punkt dabei ist, dass das BVerfG, seinem Denkmodell entsprechend, die Existenz von Senken für CO2 ignoriert und damit von einer praktisch unbegrenzten Aufenthaltsdauer des CO2 in der Atmosphäre ausgeht. Wenn es aber Senken gibt, dann gibt es keine unbegrenzte Aufenthaltsdauer. Und real gibt es ganz eindeutig Senken. Richtig wäre daher nach Prof. Ganteför das „Senken-Modell“, das zu ganz anderen Ergebnissen kommt. Hierzu macht Prof. Ganteför in seinem Video einige Aussagen, nähre Einzelheiten kommen dann in seinem kurz vor der Veröffentlichung stehenden Buch „Plan B für das Klima“.

Zu diesem Thema und zu seinem geplanten Buch hat Prof. Ganteför aber auch schon bisher mehrfach Aussagen gemacht und aus all dem geht m. E. klar hervor, dass Prof. Ganteför für sein „Senken-Modell“ von einer ausschließlich anthropogen verursachten Zunahme der CO2-Konzentration ausgeht. Implizit verbirgt sich dahinter die Annahme, dass die natürliche CO2-Umwälzung von ca. 80 ppm/a konstant geblieben ist und die Konzentration sich ausschließlich durch Verbleib der Hälfte der anthropogenen Freisetzungen erhöht hat, von früher 280 auf heute 420 ppm. Aus dieser Zunahme um ca. 120 ppm und der derzeitigen Netto-Entnahme von ca. 2,5 ppm/a berechnet Prof. Ganteför die Zeitkonstante für die Anpassung aus einer überhöhten CO2-Konzentration zu ca. 50 Jahren. Das entschärft das Klimaproblem ganz wesentlich, wie er auch im zitierten Video klar ausspricht. Rein mathematisch geht sich die Rechnung von Prof. Ganteför auch auf, aber physikalisch ist sie problematisch. Dafür seien drei Begründungen angegeben:

Offenes System, dessen Ausfluss mit zunehmender Konzentration zunimmt

Die Offenheit des Systems „Atmosphäre“ ergibt sich bereits unmittelbar aus der Beobachtung, dass die Konzentration langsamer steigt als die anthropogenen Freisetzungen CO2 eintragen: In einem geschlossenen System würde der gesamte Eintrag in diesem verbleiben. Die Offenheit ergibt sich aber auch aus dem physikalischen Charakter der wichtigsten Entnahmeprozesse: Sowohl die Lösung im Meerwasser als auch die Photosynthese in Pflanzen nehmen mit zunehmender Konzentration zu, was eben „offen“ heißt. Der Grund für diese Zunahme liegt in der Physik: Die beiden Entnahmeprozesse verlaufen über Diffusion und die ist nun einmal konzentrationsabhängig. „Offenes System mit konzentrationsabhängiger Entnahme“ ist also gesichert.

Doch was heißt das? In so einem System gelten immer zwei Aussage:

  • Bei konstant gehaltenem Eintrag stellt sich die Konzentration ein, bei der die Einnehme gleich groß ist wie der Eintrag.
  • Wenn der Eintrag um x % steigt, dann kann die Konzentration maximal um ebenfalls x % zunehmen (im Gleichgewicht, vorher weniger).

Die anthropogenen Freisetzungen betragen aber nur ca. 5 % der natürlichen Freisetzungen. Das „Senken Modell“ nach Prof. Ganteför kann daher die beobachte Zunahme der Konzentration um 50 % nicht befriedigend erklären. Die natürlichen Flüsse können nicht konstant geblieben sein, der weit überwiegende Beitrag zur Konzentrationszunahme muss aus natürlichen Quellen kommen.

Proportionalität des Ausflusses zur Konzentration

Für Nr. 1. hat es genügt, dass der Ausfluss mit der Konzentration zunimmt. Wie, war egal. Weil er aber über Diffusion bewerkstelligt wird, muss die Zunahme (zumindest angenähert) proportional erfolgen (Henry-Gesetz). Und daraus folgt, dass der Ausfluss aus der Atmosphäre (zumindest angenähert) um ebenfalls 50% gestiegen sein muss, von früher ca. 80 ppm/a auf heute ca. 120 ppm/a. Da aber die Konzentration sogar zugenommen hat, muss der Eintrag sogar noch etwas stärker zugenommen haben, er muss also um etwas über 40 ppm/a angestiegen sein. Auch so herum reichen die 5 ppm/a der anthropogenen Freisetzungen bei weitem nicht.

Höhe des Ungleichgewichtes

Wie gesagt, geht Prof. Ganteför davon aus, dass wir derzeit ca. 120 ppm vom Gleichgewicht entfernt sind, sodass diese 120 ppm der Antrieb für die derzeitige Netto-Entnahme von ca. 2,5 ppm/a sind. Diese 2,5 ppm/a sind aber, völlig unabhängig von der Lage des (derzeitigen) Gleichgewichtes, nur die Differenz zwischen momentanem Zufluss und momentaner Entnahme, was auch immer diese beiden Größen bestimmt. Und die genannten 120 ppm „Überschusskonzentration“ sind kein realer Zustand in der Atmosphäre, sondern sie sind die errechnete Konzentrationsdifferenz von heute gegenüber dem alten Gleichgewicht vor 200 Jahren. An das kann sich die Atmosphäre aber gar nicht erinnern, sie kennt nur in die Gegenwart. Und wo sie hinstrebt, das ist das heutige Gleichgewicht. Das aber kann bei einer Umwälzung von ca. einem Viertel des Inventars pro Jahr und langsamen Transienten (unter 1 % pro Jahr!) nicht weit von der momentanen Konzentration entfernt sein. Sollte theoretisch, z. B. durch eine schlagartig Massenfreisetzung verursacht, die Konzentration schlagartig um 120 ppm (= 50%) überhöht werden, dann würde sich der Ausfluss auch schlagartig um 50 % erhöhen und daher würde sich die überhöhte Konzentration innerhalb weniger Jahre praktisch vollkommen wieder abbauen. So, wie das auch beim radioaktiven (und dadurch erkennbaren) 14CO2 nach dem Stopp der überirdischen Atombombentests passiert ist. Auch das ging sehr viel schneller als mit einer Zeitkonstanten von 50 Jahren. Wann immer „zu viel“ CO2 in der Atmosphäre vorhanden ist, dann verteilt es sich schnellstmöglich gleichmäßig im gesamten Kreislauf (Entropiemaximierung nach 2. HS). Der Abbau des Überschusses ist also der Sache nach eine Gleichverteilung. Und das geht nun einmal umso schneller, je höher die Umwälzung ist (ohne eine solche würde gar nichts abgebaut werden).

Alle drei Überlegungen scheinen eindeutig zu sein: Das „Senken-Modell“ nach Prof. Ganteför ist zwar deutlich näher an der Realität als das vom BVerfG zugrunde gelegte „Budget-Modell“, es kann die Beobachtungen aber auch nicht befriedigend erklären. Nimmt man demgegenüber eine wesentlich erhöhte Freisetzung aus natürlichen Quellen an (wodurch auch immer verursacht, Möglichkeiten hierfür gibt es genügend), dann ergibt sich zwanglos eine befriedigende Erklärung, bei der es kein unterschiedliches Verhalten von anthropogen und natürlich freigesetztem CO2 gibt.

 




Kuba: Vier Netz-Zusammenbrüche in 48 Stunden

Ein Großteil der Insel verharrt weiterhin im Blackout. Vier Versuche des Netzaufbaus sind in den letzten Tagen gescheitert. Die Lage am Morgen des 22. Oktober 2024. 

Von Manfred Haferburg

Nach wie vor ist die Informationslage über den Blackout in Kuba sehr dürftig. Die World Socialist Website WSWS.Org berichtet:

„Der Kubanische Energieversorger UNE hat am Wochenende mehrmals erfolglos versucht, das Netz wieder in Gang zu bringen, und musste bis Sonntag vier Netzzusammenbrüche in 48 Stunden hinnehmen. Am Sonntag teilte die UNE mit, sie habe die Stromversorgung für 216 000 Menschen in Havanna wiederhergestellt, bevor das Netz zum vierten Mal zusammenbrach. Viele Teile des Landes sind weiterhin ohne Strom“.

Langsamer Netzaufbau ab Montag nachmittag

Premierminister Manuel Marrero Cruz sagte, dass „der Brennstoffmangel der größte Faktor“ für den Zusammenbruch des Netzes sei. Daher hat die kubanische Regierung rigide Notmaßnahmen zur Reduzierung des Stromverbrauchs ergriffen, um das Netz wieder in Gang zu bringen. Infolgedessen wurden neben der Produktion in den Betrieben alle Schulen und nicht lebensnotwendigen Aktivitäten, wie Sportveranstaltungen, Kunst und Kulturveranstaltungen bis Mittwoch abgesagt. Wie Marrero es ausdrückte: „Wir haben die Wirtschaftstätigkeit lahmgelegt, um die Bevölkerung mit Strom zu versorgen“.

Während des lang anhaltenden Stromausfalls ging sogar vielen Hotels der Treibstoff für ihre Generatoren aus, und einem Bericht des Senders CNN zufolge wurde der internationale Flughafen José Martí in Havanna nur mit Notstrom betrieben, wobei ein Großteil des Flughafens im Dunkeln lag. Zumindest in einigen Krankenhäusern funktionierte Berichten zufolge die Notversorgung noch mit Hilfe von Generatoren. Der öffentliche Nahverkehr und ein Großteil der Wirtschaft waren völlig lahmgelegt.

Für einfache kubanische Arbeiter, von denen nur sehr wenige Zugang zu Generatoren haben, sind durch den Stromausfall die Lebensmittel, deren Kosten einen beträchtlichen Teil ihres mageren Einkommens ausmachen, in ihren Kühlschränken ungenießbar geworden. In vielen Häusern war auch das fließende Wasser abgeschnitten, da die Gebäude in der Regel auf elektrische Pumpen angewiesen sind, um das Wasser aus unterirdischen Zisternen nach oben zu befördern.

Ein häufig geäußerter Kommentar in den sozialen Medien lautet: „?Hasta cuándo?“ (Wie lange noch?), was die allgemeine Ungeduld und Wut der Bevölkerung verdeutlicht. Ein Nutzer schrieb: „Wir befinden uns in einem dauerhaften Blackout, während die Hauptstadt bevorzugt wird“, und kritisierte damit die ungleiche Verteilung von Strom. Ein weiterer Nutzer stellte fest: „Die Zerstörung Kubas wird weitergehen, solange diejenigen, die das Land regieren, in Luxus leben, während wir im Dunkeln sitzen“​.

Wie ist die Situation zur Zeit?

WSWS berichtet weiter:

Der Minister für Energie und Bergbau, Vicente de la O Levy, hat erklärt, dass die meisten Menschen am Montagabend wieder mit Strom versorgt werden, obwohl er sagte, dass einige noch etwas länger warten könnten, da „der letzte Kunde vielleicht erst am Dienstag versorgt wird“.

Neueste Updates sagen, dass es in einigen Regionen wieder Strom gibt, einschließlich von Teilen Havannas. Le Monde berichtet, dass 89 Prozent Havannas wieder mit Strom versorgt werden können. Trotzdem sind viele Regionen noch ohne Strom und die Bemühungen, das Stromnetz wieder aufzubauen gehen weiter.

Die Situation in den Krankenhäusern Kubas ist immer noch sehr angespannt. Die Krankenhäuser waren auf Notstromaggregate angewiesen, um den Betrieb aufrechtzuerhalten und um lebenswichtige medizinische Geräte zu betreiben. Dies stellt eine erhebliche Herausforderung dar, insbesondere für Intensivstationen und andere kritische Bereiche. Die Dieselvorräte in den kubanischen Krankenhäusern sind derzeit sehr knapp. Aufgrund der anhaltenden Energiekrise und des Mangels an Treibstoff ist die Situation äußerst kritisch.

Was sind die schlimmsten Folgen des Blackouts für die Menschen in Kuba?

Es gab Berichte über Todesopfer im Zusammenhang mit dem aktuellen Blackout in Kuba. Die genauen Zahlen sind jedoch schwer zu bestätigen, da die Situation noch sehr instabil ist und die Informationen teilweise widersprüchlich sind. Besonders betroffen sind bei einem längeren Stromausfall Menschen, die auf medizinische Geräte angewiesen sind, sowie ältere und kranke Personen.

Es gab auch  vereinzelte Berichte über Plünderungen im Zusammenhang mit dem aktuellen Blackout in Kuba. Die anhaltende Stromkrise hat zu Unruhen und Spannungen geführt, und in einigen Gebieten wurden Geschäfte geplündert. Die Behörden versuchen, die Ordnung wiederherzustellen und die Sicherheit zu gewährleisten, aber die Situation bleibt angespannt.

Um die Sicherheit während des Blackouts zu verbessern, hat die kubanische Regierung verschiedene Maßnahmen ergriffen:

  1. Erhöhte Polizeipräsenz: Zusätzliche Polizeikräfte wurden in betroffenen Gebieten eingesetzt, um Plünderungen und Unruhen zu verhindern.
  2. Einsatz des Militärs: In einigen Regionen wurde das Militär zur Unterstützung der Polizei und zur Sicherung kritischer Infrastrukturen mobilisiert.

Einige der schlimmsten Auswirkungen des aktuellen landesweiten Stromausfalls in Kuba sind  die Folgen für das tägliche Leben der Bevölkerung:

  1. Versorgungsausfälle: Viele Haushalte haben immer noch keinen Zugang zu Strom, was bedeutet, dass Kühlschränke nicht funktionieren und Lebensmittel verderben. Auch die Wasserversorgung ist beeinträchtigt, da Pumpen ohne Strom nicht arbeiten können.
  2. GesundheitsrisikenKrankenhäuser und andere medizinische Einrichtungen sind auf Notstromgeneratoren angewiesen, was die Versorgung von Patienten erschwert. Besonders kritisch ist dies für lebenswichtige Geräte und die Lagerung von Medikamenten.
  3. Wirtschaftliche Einbußen: Unternehmen und Geschäfte mussten schließen, was zu erheblichen wirtschaftlichen Verlusten führt. Auch die Produktion in Fabriken steht still, was die ohnehin schon angespannte wirtschaftliche Lage weiter verschärft. Der öffentliche Verkehr ist lahmgelegt.
  4. Soziale Unruhen: Der Mangel an Strom und die daraus resultierenden Probleme führen zu Unzufriedenheit und Protesten in der Bevölkerung. Die Regierung hat bereits angekündigt, dass sie öffentliche Demonstrationen nicht tolerieren wird.
  5. Infrastrukturprobleme: Die veraltete Infrastruktur und die wirtschaftlichen Engpässe machten es schwierig, den Stromausfall schnell zu beheben. Etwa 150.000 Menschen arbeiten an der Wiederherstellung der Stromversorgung. Der Blackout erhöhte die Unzufriedenheit und Frustration der Bevölkerung.

Zusätzlich verschärft der Hurrikan Oscar die Situation, da er weitere Schäden anrichtete und die Wiederherstellung der Stromversorgung verzögerte. Laut Regierungsangaben sind sechs Todesopfer zu beklagen. Länder wie Mexico, Colombia, Venezuela, Russland und andere Länder haben Hilfe angeboten. Details wurden nicht bekannt. Es bleibt im Interesse der Kubaner zu hoffen, dass die Lage baldmöglichst  stabilisiert werden kann.

Der Beitrag erschien zuerst bei ACHGUT hier