Aus der Traum: Energiewende-Szenarien 2040!

Deutschland marschierte wieder einmal ein, diesmal ins Land der Träume. War auch besser so. Da das Land der Träume nicht verteidigt wurde, brauchte Deutschland auch keine funktionierende Armee, keine Panzer, die rollten, keine Flugzeuge die flogen und keine Munition, mit der man schießen konnte. 

von Manfred Haferburg

Man brauchte nur einen Wirtschaftsminister und dessen nachgeordnetes Ministerium, die konsequent die Realität, die Physik und die Ökonomie ausblendeten, um sich auf dem Weg zum Endsieg der Energiewende auf der Zielgeraden zu sehen. Bis 2045, also in 21 Jahren, soll Deutschland nach Habeck „klimaneutral“ sein, das heißt, keinerlei Energiequellen nutzen, bei deren Umwandlung Kohlendioxid ausgestoßen wird. Kein Strom aus Kohle, Gas und Öl, keine Kernenergie, kein Diesel, Kerosin oder Benzin für den Verkehr, Heizen nur mit Strom und Wärmepumpen, Grundstoff und andere Industrie nur noch elektrisch oder mit Wasserstoff.

Wenn es nicht wieder ein „Test“ ist, wie weit Herr Habeck mit seinen Energiewendemärchen gehen kann, ist das ziemlich ambitioniert. Da würde es sich doch lohnen, mal durchzurechnen, ob das überhaupt physikalisch und ökonomisch möglich ist. Dafür hat das Wirtschaftsministerium ja ein paar tausend hochbezahlte Beamte, die der Wirtschaftsminister beauftragen könnte, vorher zu prüfen, ob er bei der Siegesankündigung den Mund nicht ein bisschen zu voll genommen hat.

Da er aber lieber ins Land der Träume vordringen will, lässt er solche Anfragen an seine Fachleute lieber und die trauen sich auch nicht, da sie weiter hoch bezahlt werden möchten, von sich aus nachzuprüfen, ob das Ziel überhaupt erreichbar ist. Das Ergebnis könnte ja zeigen, dass der Bundeswirtschaftsminister „von der Wirklichkeit umzingelt“ ist und es nichts wird mit der Klimaneutralität und den somit umsonst ausgegebenen Billionen. Was soll denn da der grüne Parteivorstand denken?

„Energiewende-Szenarien in Deutschland um 2040“

Was also das Ministerium nicht machen kann oder nicht machen darf oder nicht machen will, haben nun zwei fleißige Ingenieure gemacht. Klaus Maier und Dr. Andreas Geisenheiner haben die Zukunft der Energiewende in sechs verschiedenen Szenarien betrachtet, in denen verschiedene Techniken zur Bereitstellung und Wandlung von Energie für Gebäudeheizung, Prozesswärme und Verkehr eingesetzt werden. Daraus ergeben sich quantitative Aussagen u.a. zur Menge der jeweiligen Energieträger, zum Umfang der volatilen Energien, zur Anzahl der nötigen Kraftwerke und zu den resultierenden Emissionen an CO2. Die Aussagen werden durch Kostenabschätzungen wirksam ergänzt. Die Studie heißt: „Energiewende-Szenarien in Deutschland um 2040“ und wurde in dieser Woche veröffentlicht, das heißt online gestellt. Hier der Link zum Download. Die Studie ist 86 Seiten lang, die Rechenwege und die Bewertungskriterien sind nachvollziehbar und erscheinen durchaus sinnvoll – für Leute, deren Aufgabe es nicht ist und die nicht dafür bezahlt werden, ist dies eine bemerkenswerte Leistung. Die Arbeit ist öffentlich und darf, nein – sollte, geteilt werden.

Wer sind diese Menschen, die Monate ihrer Zeit opfern, um die Arbeit zu machen, die von denen verweigert wird, die dafür zuständig sind?

 

Dipl.-Ing. Klaus Maier: Geb. 1951, Studium der Nachrichtentechnik (Elektrotechnik plus Informatik), beruflich 35 Jahre in Forschung und Entwicklung tätig, u.a. internationale Forschungsprojekte, nach Pensionierung seit 2014: 10 Studien, einige Artikel und ein Buch zur Energiewende geschrieben, Gutachter zur Wasserstoffwirtschaft im Landtag, Mitorganisator der Energiewendetagung 2022 in Stuttgart.

Dr.-Ing. Andreas Geisenheiner: Geb. 1947, Studium der chem. Verfahrenstechnik und Promotion an TU „Otto v. Guericke“ Magdeburg, beruflich in mehreren Werken der internationalen Zellstoff- und Papierindustrie als leitender technischer Angestellter tätig, nach Pensionierung 2012: Fachvorträge und Artikel zu Klima- und Energiefragen, Mitorganisator der Energiewendetagung 2022 in Stuttgart

Was beinhaltet die Studie und zu welchen Ergebnissen sind die Autoren gekommen?

In sechs verschiedenen Szenarien werden Kombinationen von verschiedenen Energiequellen mit den jeweiligen Energiewandlungstechniken anhand einheitlicher Bewertungskriterien verglichen, wie man sich im Jahre 2040 die deutsche Energieversorgung vorstellen könnte. Die Szenarien reichen von der grünen Idealvorstellung einer autarken Energieversorgung, allein auf Basis Erneuerbarer Energien (EE), bis zur vorwiegend konventionellen Versorgung aus fossilen Energieträgern. Weiter wird zwischen heimischer Energieerzeugung bis zu weitgehendem Import variiert. So wird versucht, die Bandbreite der Möglichkeiten aufzuzeigen und zu vergleichen.

Das Papier verfolgt nicht das Ziel, eine alternative Energiewende (inkl. dem technischen Transformationsprozess) zu erfinden, sondern es galt, die Frage zu klären, welche prinzipiellen Energieversorgungskonzepte es gibt und welche Implikationen diese haben würden. Die Autoren sind im Gegensatz zum Bundeswirtschaftsministerium nicht ins Land der Träume eingeritten. Sie unterstellen zur Erhaltung des Wohlstandes eine gleichbleibende Nutzenergie für 2040, die in der Rechnung die energetischen Vorteile neuer Techniken (Wärmepumpe, E-Mobilität) nicht ignoriert und durchaus auch Endenergie einspart. Aber das rettet die Energiewende auch nicht.

­

Dies sind die betrachteten Szenarien, welche eine mögliche deutsche Energiewirtschaft im Jahre 2040 beschreiben:

Szenario 1: alleinige Energiequelle sind Erneuerbare Energien und eine autarke Wasserstoffwirtschaft. Es skizziert die dekarbonisierte und autarke „all electric society“ auf alleiniger Basis der Erneuerbaren Energien (EE), gewissermaßen der grüne Zielzustand der Energiewende.

Szenario 2: Energiequellen sind Erneuerbare Energie, Kernenergie und Wasserstoff. Das Konzept wählt dazu einen vollständigen Import von grünem Wasserstoff und die Wiedereinführung der Kernkraft.

Szenario 3: Energiequellen sind erneuerbare Energie, Gas, Kohle, Öl, und Wasserstoff. Die Dekarbonisierung stößt offenbar auf erhebliche Schwierigkeiten, sodass dieses Szenario wieder einen Energieträger-Mix einsetzt und damit nur begrenzt CO2 einspart.

Szenario 4: Energiequellen sind Erneuerbare Energie, Gas, Öl, eigene Wasserstoffproduktion und Kernenergie. Dieses Szenario betrachtet, wieviel CO2-Einsparung erreicht wird, wenn man den Kohlestrom vermeidet und den Wasserstoff-Import wegen der vermuteten Beschaffungsprobleme gering hält.

Szenario 5: Energiequellen sind Erneuerbare Energie, Gas, Öl und Kernenergie. Dieses Konzept will eine Deindustrialisierung verhindern und benutzt bewährte Technik, ohne bestehende CO2-Emissionen absenken zu wollen. Weitere Ziele waren, den zügellosen Ausbau der Erneuerbaren zu begrenzen und durch den Erhalt des Industrielandes den langfristigen Wiedereinstieg in die Kernkraft zu ermöglichen.

Szenario 6: Energiequellen sind Erneuerbare Energie, Kernenergie, Öl, Gas und Wasserstoff mit dem Ziel, 80 Prozent CO2 gegenüber 1990 einzusparen, so wie die ursprüngliche Zielvorgabe für 2050 lautete, als man noch nicht die vollständige Dekarbonisierung verfolgte.

Und was ist bei den Berechnungen herausgekommen?

Nur das Szenario 5 ist als einziges technisch realisierbar.

Alle anderen Szenarien überschreiten die Grenzen der technischen Realisierbarkeit. Hinsichtlich Materialbedarf, Hersteller-Fachkräftebedarf und Akzeptanz in der Bevölkerung bei einem erforderlichen Ausbau der volatilen Energien vom z.T. weit mehr als dem 5-fachen von heute. Hinzu kommt, dass der nötige Ausbau der volatilen Energie (Wind-, PV-Anlagen) die angekündigte 2 Prozent Flächennutzung weit überschreitet. Die 2 Prozent Flächennutzung sind nämlich vergleichbar mit der Trittinschen Eiskugelprognose.

Die volkswirtschaftlichen Mehrkosten gegenüber 2019 steigen bei wachsender CO2-Einsparung überproportional an. Sie erfordern bei 50 Prozent CO2-Einsparung (Szenario 3 und 4) Mehrkosten vom 0,5-fachen, bei 80 Prozent (Szenario 6) Mehrkosten vom 1,5-Fachen und bei 100 Prozent CO2-Einsparung (Szenario 1 und 2) Mehrkosten vom 2- bis 4-fachen des Bundeshaushalts von 2019. Das heißt, dass die CO2-Vermeidungskosten für Deutschland auf 500 bis 1.200 Mrd. € pro Jahr wachsen würden, wenn man eine völlige CO2-Vermeidung im Energiesektor erreichen will. Das entspräche weit mehr als eine Verzehnfachung des heutigen CO2-Preises von 45 € pro Tonne. Mehrkosten in diesen Größenordnungen sind volkswirtschaftlich nicht vertretbar. Sie würden die Konkurrenzfähigkeit deutscher Produkte auf den Weltmärkten so weit schwächen, dass durch steigende Arbeitslosigkeit, verbunden mit fallenden Steuereinnahmen und bei gleichzeitig steigenden Sozialausgaben eine gesellschaftliche Verarmung eintreten würde. Es wäre eine Wohlstandsspirale, die sich beschleunigt nach unten dreht.

Die Wirklichkeit wird die Tür eintreten

In diesem Beitrag soll und kann nicht der gesamte Inhalt der Studie wiedergegeben werden, ein bisschen neugierig soll der Leser schon werden, um sich die oft frappierenden Tatsachen zu erlesen, die in der Studie zu finden sind. Zum Beispiel, wenn Habeck sagt, dass in Deutschland ja bereits 50 Prozent des Stroms aus Erneuerbarer Energie stammen und wir deshalb den Weg der Energiewende bereits zur Hälfte beschritten haben, unterschlägt er, dass dies vom Endenergieverbrauch aus gesehen, gerade mal ein Fünfzehntel des immer steiniger werdenden Weges sind.

Es geht aber bei der Dekarbonisierung auch und vor allem um den Energieverbrauch für Wärme und Mobilität und nicht nur um den Strom. Also, liebe Leser, lesen Sie die Studie und staunen Sie.

Machen Sie sich aber wenig Hoffnungen, dass die Hauptstrommedien und das Wirtschaftsministerium diese schlechten Nachrichte überhaupt zur Kenntnis nehmen wollen. Die hoffen lieber darauf, dass die Wirklichkeit die Tür zum Land der Träume nicht eintritt und sie mit kräftigen Tritten in den Allerwertesten hinaus in die erbarmungslose Realität der Physik und der Ökonomie jagt.

 

Manfred Haferburg wurde 1948 in Querfurt geboren. Er studierte an der TU Dresden Kernenergetik und machte eine Blitzkarriere im damalig größten AKW der DDR in Greifswald. Wegen des frechen Absingens von Biermannliedern sowie einiger unbedachter Äußerungen beim Karneval wurde er zum feindlich-negativen Element der DDR ernannt und verbrachte folgerichtig einige Zeit unter der Obhut der Stasi in Hohenschönhausen. Nach der Wende kümmerte er sich für eine internationale Organisation um die Sicherheitskultur von Atomkraftwerken weltweit und hat so viele AKWs von innen gesehen wie kaum ein anderer. Im KUUUK-Verlag veröffentlichte er seinen auf Tatsachen beruhenden Roman „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.

Der Beitrag erschien zuerst bei ACHGUT hier und wurde von EIKE mit den Bildern aus dem Report ergänzt

 




Ist eine „CO2-Energiepumpe“ vielleicht DIE technische Anwendung für eine CO2-Heizung?

von Uli Weber

Der Autor hatte bereits sehr frühzeitig eine Widerlegungsanforderung für sein hemisphärisches Stefan-Boltzmann-Modell formuliert:

Wenn also wissenschaftlich eindeutig nachgewiesen wird, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.

Seither wurde dieses Hemisphärenmodell kontinuierlich weiterentwickelt und mit den unterschiedlichsten konkurrierenden Klimamodellen und –phänomenen abgeglichen. Vor einiger Zeit hatte der Autor nun eine freundschaftlich-kontroverse Diskussion mit einem klugen Physiker über den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ jenseits aller ihm bisher bekannten THE-Thesen. Danach nimmt ein CO2-Molekül einfach nur die „passende“ IR-Abstrahlung der Erdoberfläche auf und gibt diese Energie durch Stoßaktivierung sofort an IR-inaktive Gase weiter; dieser Vorgang wiederholt sich dann in einem permanenten Zyklus und sorgt für eine Erwärmung der Atmosphäre über die ominösen -18°C hinaus. Das IR-aktive Spurengas CO2 würde damit also fortlaufend die Energie der terrestrischen IR-Abstrahlung in die IR-inaktiven Moleküle unserer Atmosphäre „hineinpumpen“ und so zu einem Anstieg der gemessenen Temperaturen führen. Die Diskussion endete zwar ohne einen fachlichen Konsens, was aber bleibt, ist nach Kenntnisstand des Autors das einfachste und anschaulichste existierende THE-Modell; insbesondere fehlt hier sogar der ominöse energetische Faktor4-Ansatz. Vor dem Hintergrund von Ockhams Sparsamkeitsprinzip muss der Autor dieses einleuchtende und sehr anschauliche THE-Modell also einmal in Konkurrenz zu seinem Hemisphärenmodell näher analysieren.

Schauen wir uns zunächst einmal ganz von vorne an, wie man sich eine solche „CO2-Energiepumpe“ physikalisch vorstellen muss. Nach dem geläufigen Treibhaus-Paradigma verläuft dessen physikalische Entstehungsgeschichte folgendermaßen:

1. Primär: Hochfrequente (HF) Sonneneinstrahlung, die auf einer Kreisfläche mit dem Erdradius (@PiR²) einfällt, erwärmt die Materie unserer Erde (@4PiR²) im 24h-Durchschnitt auf -18°C.

2. Sekundär: Diese auf -18°C erwärmte Materie strahlt Infrarot(IR)-Strahlung über die gesamte Erdoberfläche (@4PiR²) ab.

3. Tertiär: Die IR-Abstrahlung animiert dann sogenannte Klimagase zu einer IR-Gegenstrahlung (@4PiR²), die zur Hälfte auf die Erdoberfläche zurückgestrahlt wird.

4. Quartär: Und diese IR-Gegenstrahlung erwärmt wiederum die Erdoberfläche (@4PiR²) noch weiter, nämlich um 33°C auf etwa 15°C.

Die oben beschriebene „CO2-Energiepumpe“ würde hier also unter Punkt 3. die atmosphärische Gegenstrahlung verursachen. Schauen wir uns in der nachfolgenden Abbildung 1 also einmal die Spektren der solaren HF-Einstrahlung und der terrestrischen IR-Abstrahlung genauer an:

Abbildung 1: Die Spektren der solaren HF-Einstrahlung und der terrestrischen IR-Abstrahlung
Quelle: Wikimedia – Autor Robert A. Rohde – Lizenz CC A-SA 3.0

Die in Abbildung 1 dargestellten Spektren sehen zunächst einmal gar nicht so gut für eine „CO2-Energiepumpe“ aus, denn der IR-Effekt von Wasserdampf ist um ein Vielfaches größer. Schauen wir in Abbildung 2 das IR-Spektrum von CO2 also mal etwas genauer an:

Abbildung 2: CO2-Spektren in Wellenzahl [cm-1] und Wellenlänge [μm] nach PNNL (Pacific Northwest Laboratory) – Quelle: Deutscher Bundestag – Wissenschaftliche Dienste Kohlendioxid – Sättigung der Absorptionsbanden, dort auf Seite 12

Bei den Wissenschaftlichen Diensten des Deutschen Bundestages heißt es dazu, „Im ersten Spektrum [hier dargestellt] sind die beiden markanten Absorptionsbanden zu erkennen. Die nachfolgenden Spektren [hier nicht dargestellt] zeigen bei höherer Auflösung deutlich die einzelnen Spektrallinien der Banden; auch die mit geringerer Intensität.“ Schließlich geht es hier ja um Energie, und da liegt das Augenmerk natürlich auf den beiden Hauptlinien des CO2 knapp über 4 Mikrometer und bei 15 Mikrometer Wellenlänge.

So, und mit diesen Kenntnissen basteln wir uns jetzt einmal eine eigene CO2-Energiepumpe als nachhaltigen Ersatz für unsere fossile Heizung:

Der Einfachheit halber stellen wir uns in diesem Beispiel mal eine 100qm große Altbauwohnung mit 3m Raumhöhe und 0Kelvin Raumtemperatur vor. Im Keller stellen wir eine 1m x 1m große isolierte Metallkiste von 3m Höhe auf, die innen schwarz angestrichen wird. Am Kistenboden befestigen wir eine Infrarotheizung von 1m x 1m und einer Leistung von 390 Watt. Vom Deckel aus wird die warme Luft konvektiv über einen flexiblen Schlauch durch die Wohnung geführt, wobei jeder Raum einen eigenen Warmluft-Auslass erhält. Die Zuführung von Kaltluft zur Heizung wird durch eine Schlauchverbindung vom kältesten Punkt der Wohnfläche zum unteren Rand der Kiste ermöglicht.

Wird unsere Wohnung jetzt 15°C warm? – Nein, denn da gibt es noch einige physikalische Probleme:

Da wir die CO2-Pumpen-Moleküle nicht aus der abgeführten Warmluft herausfiltern können, fängt nach jedem Heizumlauf der Erwärmungsprozess für alle Luftmoleküle wieder ganz von vorne an. Dabei „pumpt“ aber nicht nur das CO2, sondern alle Luftmoleküle holen sich ihre Bewegungsenergie von der IR-Fußbodenheizung. Wir erzeugen mit unserer CO2-Pumpe dann 3 Kubikmeter Wärmeinhalt von 15°C für einen Rauminhalt von 300 Kubikmeter, also 1 Prozent des für eine entsprechende Raumtemperatur erforderlichen Volumens. Für eine gleichzeitige Erwärmung der ganzen Wohnung wird also das Hundertfache dieser Heizleistung benötigt, nämlich 39 Kilowatt. Mit diesem Wert liegen wir etwa 2x-5x über der tatsächlich erforderlichen Heizleistung für eine entsprechend isolierte Wohnung, wobei die wiederum nicht von 0K aus erwärmt werden muss. Was wir aber eindeutig erkennen müssen ist die Tatsache, dass auch eine „CO2-Pumpe“ die erforderliche Energie nicht aus sich selbst heraus zu erzeugen vermag.

Am Ende können wir feststellen, dass die Überzeugungskraft des „CO2-Pumpen“-Modells für den „natürlichen atmosphärischen Treibhauseffekt“ allein auf seiner Fokussierung auf CO2 beruht. Schon der Effekt von Wasserdampf wird dort nicht betrachtet, der mit maximal 3 % der Luftmasse die Menge von CO2 knapp 100x übertrifft. Selbst eine Verdopplung des atmosphärischen CO2-Anteils würde demnach weniger als 3 Prozent der Menge von Wasserdampf ausmachen. Außerdem warten die IR-inaktiven Luftmoleküle üblicherweise nicht etwa auf einen Anstoß durch ihre CO2-Vettern, sondern holen sich ihre Energie selbständig durch Wärmeleitung von der erwärmten Erdoberfläche, um dann durch Konvektion eigenmächtig vom Ort des Geschehens zu entschwinden. Aber auch wenn wir die Erwärmung unserer Atmosphäre einmal auf eine ausschließliche „CO2-Pumpe“ reduzieren, kann eine solche Pumpe die IR-inaktiven Gase nicht über ihre eigene Temperatur hinaus erwärmen:

Denn nach dem 2.HS der Thermodynamik kann hinten immer nur so viel herauskommen, wie vorne ‘reingesteckt worden ist.

Die hier vorstehend diskutierte „CO2-Energiepumpe“ eröffnet also keineswegs eine politisch korrekte technische Anwendung für eine CO2-Heizung und kann deshalb auch mein hemisphärisches Stefan-Boltzmann-Modell ohne THE für die Temperaturgenese auf unserer Erde nicht widerlegen.

 




Steigt das Meer oder sinkt das Land?

Ein kleiner Hinweis für Annalena Baerbock: Die Veränderung des Meeresspiegels muss nicht unbedingt etwas mit dem Klimawandel zu tun haben. Sie kann auch tektonische oder bodenmechanisch-hydrogeologische Ursachen haben. 

Von Uta Böttcher. 

Immer wieder liest man, dass Küstenstädte und gar ganze Inseln schon in naher Zukunft im Meer versinken werden. Grund: der menschengemachte Klimawandel. Doch ist das auch richtig? Eine wichtige Frage, die sich in diesem Zusammenhang stellt ist: Relativ zu welchem Bezugspunkt wird der Meeresspiegel denn gemessen? Ist ein Anstieg nur lokal begrenzt, läuten bei Geowissenschaftlern die Alarmglocken. Denn dann liegt eine lokale Ursache nahe – meist begründet in der Dynamik unseres Planeten und wohl kaum im menschengemachten Klimawandel. So verhält es sich auch bei den Inseln des Südpazifik, wie den Fidschi-Inseln, die unsere Außenministerin Annalena Baerbock kürzlich besuchte (Foto oben), um dort mit traurigem Gesicht durch den Sand zu waten.

Weil in dieser Region der Meeresspiegel besonders schnell ansteige, müsse man die Menschen dort vor dem Untergang retten, lautete ihre Botschaft. Dabei sind die Bewohner Ozeaniens mit Erdbeben und Überflutungen vertraut. Bei den Fidschis und den umliegenden ozeanischen Inselgruppen haben wir es mit Vulkaninseln zu tun. Es ist einer der tektonisch aktivsten Bereiche der Erde. Starke Erdbeben erschüttern die Region, und Tsunamis überfluten den Strand. Die Bewohner der Südseeinseln haben es mit jährlichen Meeresspiegelschwankungen um 20 Zentimeter zu tun – verursacht von den Strömungen im Pazifik. Dieser Ort ist also denkbar ungeeignet, um einen globalen Meeresspiegelanstieg zu untersuchen. Belastbare, naturwissenschaftlich fundierte Daten zu erarbeiten, ist viel mühsamer, als mit einer Entourage von Hofberichterstattern Fotos mit im Korallensand versinkenden Außenministerinnenfüßen zu machen und diese zu verbreiten. Leider.

Denn: Unser Planet ist ein äußerst komplexes System, bei dem alle Komponenten in ständiger Bewegung sind. Die Erdkruste bewegt sich vertikal und horizontal, die Landmassen werden in geologischen Zeiträumen über den Globus hinweg bewegt, Wasser- und Luftströmungen verändern sich ununterbrochen, Gletschereis schmilzt und entsteht neu. Das Innere unseres Planeten ist heiß. Feste Lithosphärenplatten driften auf zähflüssiger Gesteinsmasse des Erdmantels. Diese zirkuliert wie das Wasser in einem Kochtopf und treibt die darauf treibenden Platten gemächlich und unaufhaltsam aufeinander zu, voneinander weg oder aneinander vorbei.

Beweise für den Klimawandel?

Rund um die Ränder der driftenden Platten sind Erdbeben und Vulkane platziert. So auch hier (Grafik von brgfx / freepik, bearbeitet von U. Böttcher).

Ein Bild, das Karte, Text, Atlas enthält. Automatisch generierte Beschreibung

(Grafik von brgfx / freepik, bearbeitet von U. Böttcher).

Für die Bewohner der Inseln Ozeaniens gehören Erdbeben und Überflutungen daher zum Alltag. Die geotektonischen Verhältnisse könnten kaum komplizierter sein. Während die australische und die pazifische Platte aufeinander zu driften, taucht die pazifische Platte an der Tonga-Kermadec-Subduktionszone nach Westen ab, in direkter Nachbarschaft verschwindet die australische Platte Richtung Osten an der Salomon-Neue-Hebriden-Subduktionszone unter der pazifischen. An den Plattenrändern entstehen Tiefseegräben wie der Kermadec-Tonga-Graben, fast 11.000 Meter tief. Und zwischen diesen Subduktionen bekommt die Erdkruste Risse und sinkt beckenförmig ein, zum Beispiel rund um die Fidschi-Inseln.

Die abtauchende pazifische Platte ist von der schnellen Sorte: Mit mehr als acht Zentimetern im Jahr ist ihre Subduktionsgeschwindigkeit eine der höchsten unseres Planeten. Dadurch schafft sie es weit in den zähflüssigen Erdmantel hinein, bevor sie schließlich in diesem aufgeht. Die Erdbeben geschehen in bis zu 600 Kilometer Tiefe. Schließlich schmilzt das Oberflächengestein auf, geht sozusagen in den Erdmantel über. Wie Kohlendioxidbläschen in einem Mineralwasserglas steigt diese Gesteinsschmelze wieder nach oben, denn sie ist leichter als das umliegende Mantelgestein, und es entstehen Vulkaninseln wie die Fidschis. Starke Erdbeben sind die Konsequenz dieser tektonischen Verhältnisse – die Gesteinsplatten bleiben aneinander hängen, und die Spannung entlädt sich von Zeit zu Zeit – und diese wiederum verursachen Tsunamis.

Genau wegen dieser geologischen Besonderheit sind die Inseln im Südpazifik ein denkbar ungeeigneter Ort, um nach Beweisen für den Klimawandel zu suchen.
Glücklicherweise gibt es Forscherteams, die sich zum Ziel gesetzt haben, den Anstieg des Meeresspiegels von der Absenkung der Erdkruste zu unterscheiden. Dies bedeutet jahrelanges, geduldiges Sammeln von Daten. Zuerst müssen auf den Südseeinseln geeignete Plätze gefunden werden, wo die Messpunkte über Jahre hinweg zuverlässig funktionieren. Dorthin reisen die Wissenschaftsteams in regelmäßigen Abständen, um die Veränderungen zu messen.

Fehlende valide Daten

Was dabei herauskommt, sind richtige Messdaten – nicht zu vergleichen mit den Ergebnissen von Computersimulationen, wie es zum Beispiel die langfristigen Klimaprognosen sind. Auf den Torres Inseln (Nord-Vanuatu, Südwest-Pazifik) ergaben Untersuchungen eines französischen Forscherteams, dass die Inseln in den Jahren von 1997 bis 2009 um 11,7 Zentimeter abgesunken sind (siehe auch 1). In einer anderen, großräumiger angelegten Studie wurde der Einfluss vertikaler Landbewegungen auf den südwestlichen Inseln des tropischen Pazifiks untersucht. Die Ergebnisse zeigen, dass die Absenkung der Erdkruste bei bis zu 4,2 Zentimetern pro Dekade liegt.

Für Tahiti wird bis zum Ende des Jahrhunderts eine Absenkung von 80 Zentimetern prognostiziert. Die Südseeinsel Vanikoro, ebenfalls zu Vanuatu gehörend, sinkt jedes Jahr um sieben Millimeter (siehe auch 3). Auch das kurzzeitige Versinken einer Kokosplantage auf der Insel Tegua hatte tektonische Ursachen. Im Jahr 2005 hatten die Vereinten Nationen dort öffentlichkeitswirksam die ersten Klimaflüchtlinge der Welt ausgerufen. Eine Kokosplantage war im Meer versunken, und ein Dorf wurde umgesiedelt. Als sich bei einem großen Erdbeben im Jahr 2009 die Spannung im Untergrund wieder löste – dafür sind Erdbeben schließlich da – stieg die Kokosplantage wieder auf und war im Trockenen. (siehe auch 4).

Forschung ist darauf angewiesen, dass Gelder zur Verfügung stehen. Wenn die Themen der Forschungsprojekte, die ausgeschrieben werden, sich nur noch um den durch Menschen gemachten klimabedingten Meeresspiegelanstieg drehen, ist es kaum möglich, mit diesem Budget Untersuchungen zum lokalen Anstieg des Meeresspiegels aus anderen Gründen zu unternehmen. Die Ursachen lokaler Veränderungen des Meeresspiegels sind vielfältig und haben sehr häufig tektonische oder bodenmechanisch-hydrogeologische Ursachen. Es wäre sicherlich eine gute Idee, Geowissenschaftlern Forschungsgelder zur Verfügung zu stellen, um die komplexen Zusammenhänge zu untersuchen und dadurch besser zu verstehen. Denn nur wenn man valide Daten statt Computersimulationen hat, können die richtigen Entscheidungen getroffen werden. Mich als Geologen würde das jedenfalls freuen.

 

Uta Böttcher ist Diplom-Geologin, mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie. 

 

(1) www.pnas.org vom 27.7.2011: “Comparing the role of absolute sea-level rise and vertical tectonic motions in coastal flooding, Torres Islands (Vanuatu)” von Valérie Ballu, Marie-Noëlle Bouin, Patricia Siméoni, Wayne C. Crawford, Stephane Calmant, Jean-Michel Boré, Tony Kanas, and Bernard Pelletier. Zu finden unter folgendem Link: https://www.pnas.org/doi/full/10.1073/pnas.1102842108

(2) www.iddri.org vom März 2019: “Relative sea-level rise and the influence of vertical land motion at Tropical Pacific Islands” von Martinez Asensio A., Wöppelmann G., Ballu V., Becker M., Testut L., Magnan A.K., Duvat V.K.E.. Zu finden unter: https://www.iddri.org/en/publications-and-events/scientific-publication/relative-sea-level-rise-and-influence-vertical-land und: https://www.sciencedirect.com/science/article/abs/pii/S0921818118306751?via%3Dihub

(3) Der Spiegel, Ausgabe 24, 2012: „Rätsel der sinkenden Inseln“ von Gerald Traufetter Zu finden unter folgendem Link: https://magazin.spiegel.de/EpubDelivery/spiegel/pdf/86403001

(4) http://www.welt.de vom 30. 10. 2013: Familie kämpft um Asyl als Klimaflüchtlinge von Ulli Kulke. Zu finden unter folgendem Link: https://www.welt.de/vermischtes/article121354764/Familie-kaempft-um-Asyl-als-Klimafluechtlinge.html)

 




So unsinnig argumentieren die Klimaseniorinnen

Die Schweiz mache zu wenig gegen die Erderwärmung, darum seien sie einem erhöhten Sterberisiko infolge Hitze ausgesetzt. Mit dieser Begründung bekamen die sogenannten Klimaseniorinnen vor dem EGMR recht. Doch wissenschaftlich gesehen ist die Argumentation totaler Bullshit.  

Von Peter Panther

Das Urteil der Europäischen Gerichtshofs für Menschenrechte (EGMR) vom April in Sachen Klimaseniorinnen hat viel Echo ausgelöst. Die Richter in Strassburg rügten die Schweiz, dass sie zu wenig gegen den Klimawandel unternehme und so die Menschenrechte der klagenden älteren Frauen aus diesem Land verletze. Die Klimaseniorinnen hatten argumentiert, dass sie wegen der angeblich mangelhaften Klimapolitik ihres Landes zunehmender Hitze ausgesetzt seien. Das bringe gesundheitliche Gefahren für sie mit, insbesondere ein erhöhtes Sterberisiko wegen Wärme.

Das Urteil wurde bereits verschiedentlich kritisiert. Es wurde bemängelt, dass es gar nicht in der Macht der Schweizer Regierung liege, die Erderwärmung zu stoppen, da das Land nur einen Anteil von 0,1 Prozent am weltweiten Klimagas-Ausstoss habe. Auch wurde die extensive Auslegung der Europäischen Menschenrechtskonvention durch das Gericht in Frage gestellt, denn aus dieser lässt sich ein Menschenrecht auf ein gesundes Klima nur mit sehr viel Phantasie ableiten. Das Urteil bedeute darum einen Übergriff der Richter auf die Klimapolitik der Schweiz, für die nur Parlament, Regierung und Volk zuständig seien.

Auch tiefe Temperaturen töten

Kaum diskutiert wurde bisher aber, ob die Argumentation der Klimaseniorinnen aus wissenschaftlicher Sicht Sinn macht. Trifft es zu, dass ältere Menschen, insbesondere Frauen, wegen der Erderwärmung einem erhöhten Sterberisiko ausgesetzt sind?

Zuerst ist festzuhalten, dass Hitzewellen, wie sie in den letzten Jahren ohne Zweifel vermehrt aufgetreten sind, älteren Menschen tatsächlich gesundheitlich zusetzen können. Insbesondere, wenn Senioren körperlich schwach sind, kann die Hitze zu Herz-Kreislauf-Problemen und mitunter zum Tod führen. So soll der heisse Sommer 2022 europaweit zu rund 60’000 Hitzetoten geführt haben.

Umgekehrt sind aber auch tiefe Temperaturen für viele Menschen mitunter tödlich. Dabei sind nicht nur eigentliche Erfrierungsopfer gemeint, wie sie in strengen Wintern unter Obdachlosen vorkommen, sondern vor allem Todesursachen, die durch Kälte latent begünstigt werden. Es geht insbesondere um Infektionen, Schlaganfälle und Herzkrankheiten. Die Opfer sind überwiegend ebenfalls alte, schwache Menschen. Man denke etwa an die Grippetoten, deren Zahl sich typischerweise in den Wintermonaten jeweils häuft.

Mehr Kälte- als Hitzetote

Wichtig ist dabei: Die Zahl dieser Kältetoten übersteigt die Zahl der Hitzetoten bei weitem, wie verschiedene wissenschaftliche Abschätzungen zeigen. Zwei Beispiele: 2015 ermittelten Forscher der London School of Hygiene & Tropical Medicine aufgrund von Daten aus 13 Staaten aus der ganzen Welt, dass das Sterberisiko wegen Kälte 17 mal grösser ist das wegen Hitze. Spanische Forscher haben 2021 für 16 europäische Staaten gezeigt, dass insgesamt rund zehnmal mehr Menschen wegen Kälte als wegen Hitze sterben.

Auch die Sterbestatistiken mitteleuropäischer Länder bilden dieses Faktum in der Regel eindrücklich ab. Diese zeigen saisonale Schwankungen: Im Winter sterben jeweils deutlich mehr Menschen als im Sommer. In der Schweiz etwa werden in der kalten Jahreszeit durchschnittlich 20 bis 30 Prozent mehr Todesfälle als in der warmen Jahreszeit verzeichnet.

Es liegt nun auf der Hand, dass der Trend zu höheren Temperaturen – egal, ob von Menschen verursacht oder nicht – zu insgesamt weniger klimatisch bedingten Todesopfern führt. Denn weil es so viel mehr Kälte- als Hitzetote gibt, muss bei einer Erwärmung die Zahl der Kältetoten rascher abnehmen, als die Zahl der Hitzetoten zunimmt.

Der Klimawandel rettet Menschen

Dass das keineswegs nur Theorie ist, zeigt eine Erhebung des britischen Office for National Statistics. Diese Behörde kam 2022 zum Schluss, dass von 2001 bis 2020 in England und Wales über 555’000 Menschen weniger wegen Hitze oder Kälte gestorben sind, als ohne Klimawandel zu erwarten gewesen wäre: Es gab in diesen Jahren zwar etwas mehr Hitzetote. Die gleichzeitige rasante Abnahme der Kältetoten wog diese Zunahme aber bei weitem auf. Da die klimatischen Bedingungen in weiten Teilen Europas, Nordamerikas und Asien vergleichbar mit denen in England und Wales sind, dürften es in den letzten beiden Jahrzehnten viele Millionen Menschen sein, denen die Erderwärmung das Leben gerettet hat.

Doch es kommt noch besser: Vielerorts nimmt auch die Zahl der hitzebedingten Todesfälle ab – trotz Klimawandel. Der Grund ist, dass die Menschen immer besser wissen, sich vor hohen Temperaturen zu schützen. Vor allem ältere Menschen trinken bei Hitze mehr, suchen vermehrt Schattenplätze auf und werden allgemein besser betreut. Langfristige Massnahmen sind etwa, in den Städten mehr Grünflächen vorzusehen und Gebäude hitzeisolierend zu bauen.

So gibt es zum Beispiel aus Spanien, Frankreich oder Japan Forschungsresultate, die einen Trend zu immer weniger Hitzeopfer belegen. 2018 erschien im Fachblatt “Environmental International” eine Auswertung zu 305 Orten in zehn Ländern, die zeigte, dass die Hitzesterblichkeit zwischen 1985 und 2012 deutlich zurückgegangen ist. In der ersten Fünfjahresperiode machten die Hitzetoten noch zwischen 0,45 und 1,66 aller Todesfälle aus. In der letzten Fünfjahresperiode belief sich deren Anteil nur noch auf 0,15 bis 0,93 Prozent.

Sterben wie die Fliegen

Auch für die Schweiz, die wegen des Strassburger Urteils besonders im Fokus steht, gibt es ein entsprechendes Resultat. Das Swiss Tropical and Public Health Institute kam letztes Jahr zu diesem Schluss: “Über die Zeit lässt sich eine leichte Abnahme des hitzebedingten Sterberisikos an Hitzetagen beobachten.” Dieser Satz allein lässt die Argumentation der Klimaseniorinnen einstürzen.

Eigentlich muss man aber nur eine simple Beobachtung anführen, um zu zeigen, wie unsinnig diese Argumentation ist: Wenn es stimmt, dass höhere Temperaturen zu mehr Todesfällen führen, müssten ältere Frauen in Ländern, wo es sehr viel wärmer ist als in der Schweiz, sterben wie die Fliegen. Das ist aber offensichtlich nicht der Fall. So liegt die Lebenserwartung von Frauen in Singapur, wo es im Schnitt 15 Grad wärmer ist als in Mitteleuropa, sogar leicht höher als in der Schweiz. Dasselbe trifft auf die warmen Mittelmeerländer Italien und Spanien zu.

Offensichtlich wissen die Menschen in heissen Ländern also sehr gut, wie sie sich vor Hitze schützen können. Warum das nicht auch in Ländern wie der Schweiz oder Deutschland funktionieren sollte, ist nicht einzusehen. Oder anders gesagt: Die Umweltorganisation Greenpeace, die die Klage der Klimaseniorinnen mit Hunderttausenden Franken finanziert hat, hätte für dieses Geld besser Klimaanlagen für die älteren Damen angeschafft. Für deren Gesundheit wäre so mit Sicherheit besser gesorgt gewesen als mit juristischen Kreuzzügen gegen das eigene Land.

 




Der zu teure Windstrom vom Meer

Berichte in der Wilhelmshavener Zeitung und in der FAZ über den Bau der größten deutschen Off-Shore-Windkraftanlage „He Dreiht“ waren der Anlass zu einem kritischen Vergleich mit dem Kohle-Kraftwerk in Wilhelmshaven.

Prof. Dr. Ing. Hans-Günter Appel

Die Reporter Svenja Fleig und Marco Krefting von der Wilhelmshavener Zeitung (WZ) und die Reporterin Susanne Preuß von der Frankfurter Allgemeinen Zeitung (FAZ) haben die Angaben des Karlsruher Energiekonzerns EnBW über den Bau einer Riesenwindkraftanlage in der Nordsee vor Borkum kommentarlos übernommen. So beginnt Frau Preuß ihren Artikel mit der Falschaussage, diese Anlage könne 1,1 Millionen Haushalte mit Strom versorgen. Richtig ist: Bei Windstille kann kein einziger Haushalt versorgt werden. Die Autoren der WZ haben immerhin die Aussage mit dem Zusatz „rechnerisch“ eingeschränkt.

In den Berichten werden eindrucksvolle große Zahlen für Investitionen und Dimensionen der Windgeneratoren auf hoher See genannt. Doch über die Kosten des Off-Shore Stroms erfährt man nichts. Das gilt für die Erzeugung wie auch für den Transport des Stroms an Land bis zur Einspeisung in das Stromnetz. Nach Auskunft des Übertragungsnetzbetreibers Amprion übergibt der Windkraftbetreiber den Strom auf der Off-Shore Konverterstation. Für die Weiterleitung bis zur Einspeisung in das Stromnetz sind die Übertragungsnetzbetreiber zuständig und verpflichtet. Die Kosten und Leitungsverluste von mehreren Cents pro Kilowattstunde erhöhen die Netzgebühren und werden nicht als Off-Shore Kosten ausgewiesen..

Von der Ampel-Regierung und vielen Politikern wird der Bau weiterer Windkraftanlagen auf hoher See gefordert. Die bisher installierte Leistung von 8.000 Megawatt soll in den nächsten 6 Jahren auf 30.000 erweitert werden. Das sind Jahr für Jahr 4 neue Anlagen in der Größe von „He Dreiht“. Dazu gibt es noch keine verbindliche Planung und keine Kosten-Nutzen Analyse. Der Bundesrechnungshof hat eine solche Kontrolle wiederholt erfolglos angemahnt. Demnach werden Steuergelder und Stromverbraucher-Gebühren für die Energiewende ohne Erfolgskontrolle verschleudert. Die folgende Tabelle der technischen und wirtschaftlichen Daten von der 960-MW- Windkraftanlage „He Dreiht“ und dem 730-MW-Kohlekraftwerk in Wilhelmshaven sollen helfen, beide Stromerzeuger sachlich zu bewerten.

 

Windpark 

„He Dreiht“

Quelle Kohlekraftwerk

Wilhelmshaven

Leistung
Installiert 960 Megawatt WZ, FAZ 730 Megawatt
Mittlere Jahresleistung  

380 Megawatt

 

660 Megawatt

Planbare Leistung keine 730 Megawatt
Leistungsbereich 0 bis 800 Megawatt 0 bis 730 Megawatt
Regelbare Leistung keine 0 bis 730 Megawatt
Energie
Jahreserzeugung 3,3 Millionen MWh bis 5,8 Millionen MWh
Verluste bis zur Netzeinspeisung  

0,3 Millionen MWh

 

keine

Versorgung kein Haushalt 1,4 Millionen Haushalte
Fläche 63 km² WZ 2/3 km²
Kosten
Investitionen

Erzeugung

 

2,4 Milliarden Euro

 

WZ

 

ca. 1 Milliarde Euro

Netzanschluss 1 Milliarde Euro

(geschätzt)

Tennet, Amprion keine
Erzeugungskosten 9 ct/kWh * 1,7 ct /kWh **
Anschlusskosten 4 ct/kWh *
Kohle Keine 4 ct/kWh
CO2-Zertifikate

(80 Euro/Tonne)

 

Keine

 

8 ct/kWh

* Jahreskosten: 5 % Abschreibung, 5 % Zinsen, 2 % Wartung

** Jahreskosten: 3 % Abschreibung, 5 % Zinsen, 2 % Wartung

 

Erläuterungen zu der Tabelle.

Leistung: 

Die Windstromanlage hat eine installierte Leistung von 960 MW, die aber nie erreicht wird, weil die Windgeschwindigkeit zum Meer hin abgebremst wird. Bei Starkwind werden bis zu 80 % der installierten Leistung erreicht. Ohne Wind, also bei Flaute, kann keine Leistung abgegeben werden. Dann kann auch kein Haushalt mit Strom versorgt werden. Im Jahresmittel liegt die Leistung bei etwa 40 % der installierten Leistung. Die Leistung steigt und fällt mit der dritten Potenz der Windgeschwindigkeit. Sinkt die Windgeschwindigkeit auf die Hälfte, denn fällt die Leistung auf ein Achtel. Die Leistung der Windstromanlage ist nicht planbar und nicht regelbar. Leistungsvoraussagen sind genauso fehlerhaft wie die Wettervoraussagen, auf denen sie basieren.

Die Leistung des Kohlekraftwerkes ist plan- und regelbar. Es kann jederzeit die Leistung bis hin zur installierten Leistung geändert werden, um schwankende Netzleistungen auszugleichen. Der ständig wechselnde Wind- und Solarstrom hat zu einem starken Anstieg der Regelkosten in den letzten 20 Jahren von einst 100 Millionen Euro im Jahr auf nunmehr 4.200 Millionen geführt! Leistung und Frequenz im Netz müssen von regelbaren Kraftwerken gesteuert werden. In dieses Netz kann begrenzt die schwankende Wind- und Solarleistung eingespeist werden. Allein mit Wind- und Solarstrom ist eine sichere Stromversorgung nicht möglich. Dieser Strom sollte daher als Fakepower (Fake = Täuschung) bezeichnet werden, um dies für alle deutlich zu machen.


Energie:

Die Jahreserzeugung von „He Dreiht“ liegt bei 3,3 Millionen kWh Fakepower, die auf der Konverter Insel der Windkraft-Industrieanlage ankommen. Hier wird der Strom von dem Übertragungsnetzbetreiber Tennet übernommen. Die weiteren Transportkosten müssen von allen Stromkunden als Netzgebühren bezahlt werden. Die Verluste für Umspannung, Gleichrichtung, Leitungswiderstand und Rückumwandlung in Wechselstrom liegen bei 10 Prozent, also 0,3 Millionen MWh.

Das Kraftwerk kann deutlich mehr Energie im Jahr liefern als die Windstromanlage. Die erzeugte Wechselstrom kann ohne Verluste in das Netz eingespeist werden, da das Werk unmittelbar an das Netz angeschlossen ist.

Die Erzeugung des Fakepower-Stromes führt zu einer reduzierten Nutzung des Kohlekraftwerkes und erhöht dadurch die Erzeugungskosten des Kraftwerkes je Kilowattstunde. Würde auf diese Fakepower-Erzeugung verzichtet, würde der Wert von  1,7 Ct./kWh (Abschreibung und Wartung) beim Kohlekraftwerk noch niedriger sein. Ebenso versteht sich, dass der Betrag von 8 Ct./kWh CO2-Zertifikat nichts mit Energie zu tun hat sondern eine willkürliche Steuer darstellt, die ausschließlich den Kohlestrom verteuern und dem Staat mehr Einnahmen für seine Weltklimarettungsausgaben generieren soll.

 

Flächenbedarf:

Die benötigte Flache für „He Dreiht“ wird mit 63 km² angegeben. Es sollen 22 weitere Anlagen bis zum Jahr 2030 hinzukommen. Damit wird eine Fläche von knapp 1.400 km² benötigt. Das wäre ein Gürtel von Windgeneratoren entlang der deutschen Nordseeküste von der Emsmündung bis nach Dänemark mit einer Tiefe von ca. 10 km. 20 Kohlekraftwerke, die weitgehend vorhanden sind und abgeschaltet werden sollen, benötigen nur 13 km² und liefern planbaren Strom!

Kosten:

Die Windstromkosten sind doppelt so hoch wie der Strom aus dem Kohlekraftwerk. Erst die politischen Kosten für CO-Zertifikate machen den Kraftwerkstrom fiktiv teurer. Hierbei wird außerdem übersehen, dass der Windstrom teure Regelleistungen von den Kraftwerken braucht. Windstrom ist daher immer teurer, egal, wie hoch der Preis für CO-Zertifikate getrieben wird.

Nach den Zeitungsberichten hat der zukünftige Betreiber von „He Dreiht“, EnBW, schon Kaufverträge für den Windstrom mit großen Konzernen abgeschlossen. Welche Vorteile haben diese Konzerne davon?

EnBW verkauft den „grünen“ Strom zum Erzeugerpreis ab Einspeisung an der Konverter-Plattform. Der Strom ersetzt teure CO-Zertifikate, die die Firmen sonst für ihre CO-Emissionen aufgrund von nationalen und EU-Vorschriften erwerben müssten. Bei den Firmen kommt aber kein „grüner“ Strom, sondern weiter Netzstrom an, ein wechselnder Mix aus Fakepower, Wasser- und Kraftwerkstrom. Die Versorgung mit „grünem“ Strom ist nach Energiewende-Vorschriften auch gegeben, wenn er irgendwann in das Netz eingespeist wird und zu einer anderen Zeit gebraucht wird. Die Deutsche Bahn ist dafür ein bekanntes Beispiel. Nach deren Aussagen fährt „grün“, wer dafür extra bezahlt, während der Nachbar im gleichen Zug die CO-Emissionen erhöht.

 

Folgerungen

Die Daten zeigen, eine sichere und bezahlbare Stromversorgung ist mit Fakepower aus Wind (und auch aus Sonne) nicht möglich. Dies kann nur mit Kohlekraftwerken erreicht werden. Auch Gaskraftwerke würden wegen der begrenzten Lagerkapazitäten von Erdgas keine hinreichend sicher zu bevorratende Energiequelle sein.

Deutschlands Wirtschaft wird durch die Energiewende für die Weltklimarettung immer mehr geschwächt und ins Ausland getrieben. Unsinnige Vorschriften zugunsten von wenigen Profiteuren zerstören unsere Umwelt und treiben die Strompreise immer weiter in die Höhe. Es wird höchste Zeit zu einer Besinnung und Umkehr. Werden die kommenden Wahlen dazu beitragen?

 

Pressesprecher NAEB e.V. Stromverbraucherschutz