Bezahlbarer Strom für alle! Jetzt!

Strom ist nicht nur für die Industrie zu teuer, sondern auch für alle Bewohner unseres Landes. Die Energiewende treibt die Strompreise weiter hoch. Ihre Beendigung würde sie halbieren. 

Von Prof. Dr. Ing. Hans-Günter Appel

Der Bundesminister für Wirtschaft und Klimaschutz, Robert Habeck, will ein weiteres Abwandern der Industrie aus Deutschland infolge zu hoher Strompreise durch die Energiewende verhindern. Dazu soll ein subventionierter Strompreis für die Industrie eingeführt werden. Die Subventionen sollten aus dem aufgestockten Klima- und Transformationsfonds fließen. Diese Aufstockung ist aber nach dem Urteil des Bundesverfassungsgerichts nicht verfassungskonform. Damit steht nicht hinreichend Geld aus diesem Fonds zur Verfügung. Zwangsläufig müssten die anderen Strom-Verbraucher über höhere Strompreise, die sich noch zusätzlich aus gleichem Grund wegen der wegfallenden Strompreisbremse, was ebenfalls eine Subvention ist, diese Subvention der Industrieunternehmen aufbringen. Nach Berichten im Deutschlandfunk hat der Minister bereits höhere Stromkosten angekündigt.

 

Die Energiewende treibt die Stromkosten in die Höhe

Die Energiewende, die die hohen Stromkosten in Deutschland hauptsächlich verursacht, soll nicht hinterfragt, sondern planmäßig weitergeführt werden. Damit steigen die CO2-Steuern auf Heiz- und Treibstoffe Anfang des nächsten Jahres um über 30 Prozent und die Maut für Kraftwagen um mehr als 80 Prozent. Der weitere Ausbau der Wind- und Solarstromerzeugung erhöht die Strompreise, vergrößert den Stromüberschuss bei Starkwind und Sonnenschein, der kostenpflichtig entsorgt werden muss, und verlangt den Ausbau der Stromnetze.

Die Antwort der Bundesregierung auf eine Anfrage der CDU/CSU-Fraktion (Bundestagsdrucksache 20/9166) zu der Entwicklung der Netzkosten prognostiziert einen Anstieg um mehr als 10 Prozent für Haushalts- und Gewerbekunden in 2024 gegenüber dem Vorjahr.  Über die Kostenentwicklung in den nächsten 10 Jahren gibt es nur nebulöse Vorstellungen. Sicher ist nur, es wird teurer. Dies alles müssen die Stromkunden letztlich bezahlen.

Die Kaufkraft der Bevölkerung sinkt entsprechend. Wie die Regierung mit diesen Maßnahmen die Wirtschaft ankurbeln will, bleibt rätselhaft. Nach einer Rechnung der „Jungen Freiheit“ kassiert der Staat jetzt schon 60 Prozent des Brutto-Arbeitslohns. Da bleibt kaum noch Kaufkraft.


Die heilige Kuh. Energiewende zur Klimarettung

Wir brauchen bezahlbaren Strom für alle. Nur so kann es mit Deutschlands Wirtschaft wieder aufwärts gehen. Dazu muss die heilige Kuh der Regierungsparteien und auch der CDU hinterfragt werden: die Energiewende zur Klimarettung. Allein aus dem Klima- und Transformationsfonds sollten dazu jährlich 60 Milliarden Euro aufgewendet werden. Hinzu kommen nach Aussagen von Bundeskanzler Scholz weitere 50 Milliarden aus anderen öffentlichen Töpfen. Mit einer Beendigung der Energiewende würde die staatliche Belastung also um mehr als 100 Milliarden Euro jährlich verringert. Das wären1300 Euro pro Einwohner.  Um diesen Betrag würde deren Kaufkraft steigen und der Strompreis auf die Hälfte fallen. Die Industrie in Deutschland würde wieder wettbewerbsfähig werden.

Mit Beendigung der Energiewende steigt die Kaufkraft, und die Verwaltung wird verschlankt. Es werden keine Energie- und Klimaberater mehr gebraucht. Der Aufwand für die Genehmigung von Wind- und Solaranlagen in den Gemeinden, Kreisen und Ländern entfällt. Gesetze mit vielen tausend Seiten, die nur den Profiteuren der Energiewende nutzen, können eingestampft werden. Es werden wieder Kräfte frei für den Erhalt und die Verbesserung von Straßen, Schulen und anderer Infrastruktur.


Keine staatlichen Investitionszuschüsse  

Staatliche Investitionszuschüsse für neue Industrieansiedlungen sind mit einem wettbewerbsfähigen Strompreis auch nicht mehr erforderlich. Dann finden sich genügend Investoren, die sich mit einer Ansiedlung in Deutschland eine gute Rendite ausrechnen. Zurzeit versucht die Industrie, mit Subventionen zu überleben. Dies führt dazu, dass die Wirtschaft die grüne Energiepolitik verbal unterstützt, weil nur so der Subventionstopf erreicht werden kann.

Das Urteil des Bundesverfassungsgerichtes wäre für die Regierung eine gute Gelegenheit, die Energiewende zu beenden (*). Dazu müssten Ideologien verlassen und Fakten akzeptiert werden. Es ist fraglich, ob sich die Regierung und die Parteien auf diesen Weg begeben. Die Profiteure, zu denen sicher auch viele Bundestagsmitglieder zählen, die Anteile an grünen Stromanlagen haben, sind eine mächtige Lobby, die das verhindern will. Sie sind gut vernetzt in Deutschland wie in der EU. Die Wendegesetze sind weitgehend ihr Werk. Es wird spannend, ob die Regierung das Rückgrat besitzt, sich gegen die Energiewende-Lobby zum Wohle Deutschlands durchzusetzen.

Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB e.V. Stromverbraucherschutz

 




Die EU vor einer nuklearen Wende. Unter französischer Führung?

von Edgar L. Gärtner

Vor wenigen Tagen, am 21. November 2023, hat sich das Europa-Parlament nach jahrelangem Hin und Her endlich klar dafür ausgesprochen, die Kernenergie als „grün“, das heißt CO2-frei zu klassifizieren. Nach Ansicht der französischen Tageszeitung „Le Figaro“ ist diese Entscheidung „définitif“. Wir werden sehen…

Jedenfalls bereiten sich Franzosen, die heute noch zu den politischen und wirtschaftlichen Zielen General Charles de Gaulles stehen, schon einmal darauf vor, in Europa wieder eine Führungsrolle zu übernehmen. Schon am 14. November gab der französische Wirtschafts- und Finanzminister Bruno Le Maire den Preis für Atomstrom bekannt, mit dem der Staatskonzern EDF rechnen kann, wenn die mit der EU abgestimmte Tarifregelung ARENH (Accès réglementé à l‘électricité nucléaire historique) Ende 2025 ausläuft. Nach dieser Regelung, die verhindern soll, dass Frankreich wegen seines Strom-Monopols von der EU bestraft wird, muss EDF ein Viertel bis ein Drittel seines Nuklearstroms zum Spottpreis von 42 €/MWh an Großhändler ohne eigene Produktionskapazitäten abgeben. Deren Leistung erschöpft sich darin, ihren Kunden Rechnungen zu schreiben. Sie existieren nur, weil die EU-Politik den Anschein erwecken will, hier werde Marktwirtschaft praktiziert. In Wirklichkeit handelt es sich um staatlich anerkannte Parasiten. Damit soll nun Schluss gemacht werden. Ab 2026 soll der Staat EDF nun einen mittleren Preis von mindestens 70 €/MWh garantieren. Das soll ausreichen, um privaten Stromkunden Preisstabilität und industriellen Kunden Wettbewerbsfähigkeit zu sichern sowie den Bau neuer Reaktoren zu finanzieren. Um das auch reicht, um die Entschuldung des hoch verschuldeten Staatskonzerns voranzubringen, seht dahin.

Mit der Bekanntgabe eines garantierten mittleren Preisniveaus für Nuklearstrom hat sich die Regierung Macron/Borne offenbar dafür entschieden, sich von den bislang von der EU-Kommission favorisierten ohnehin nur scheinbar marktwirtschaftlichen Strompreisfindungs-Formeln zu verabschieden und stattdessen auf staatlich regulierte Preise zu setzen. Das haben verschiedene Experten angeregt, die die Anerkennung natürlicher Monopole in der Energie- und Wasserversorgung fordern, um die Transaktionskosten zu minimieren. Darauf weist inzwischen sogar das liberale Wirtschaftsmagazin „Contrepoints“ hin. Um wirklich von Marktwirtschaft reden zu können, müssten die Stromkunden tatsächlich die freie Wahl zwischen konkurrierenden Anbietern mit jeweils eigenen Produktions- und Distributions-Kapazitäten haben. Das bedeutete mindestens eine Verdoppelung, wenn nicht Verdreifachung der notwendigen Infrastrukturen und eine entsprechende Kostensteigerung für die Verbraucher. Es gibt deshalb in der Elektrizitäts- und Wasserwirtschaft keinen wirklichen Wettbewerb, sondern allenfalls Wettbewerbs-Simulation. Auch der Liberalismus kann also zu einer realitätsfernen Ideologie werden, die nur Kosten verursacht und niemandem außer einer winzigen Minderheit von Staatsprofiteuren zu einem besseren Leben verhilft. Viele Europäer sind heute vor allem deshalb nicht gut auf den Liberalismus zu sprechen, weil die Liberalisierung der Elektrizitätswirtschaft in der EU ihnen nur kräftige Preissteigerungen, aber keine Vorteile gebracht hat.

Ein Bild, das Text, Reihe, Diagramm, Schrift enthält. Automatisch generierte Beschreibung

Für die Franzosen kommt hinzu, dass sie EDF und die Nuklearwirtschaft wegen deren Wurzeln in der Résistance gegen den Nazismus mit einigem Recht als Volkseigentum betrachten können. Der Aufbau der französischen Nuklearwirtschaft in der Nachkriegszeit wurde mithilfe des internationalen Kapitalmarktes vollständig von den französischen Stromkunden finanziert. Der durch Indochina-, Suez- und Algerienkrieg geschwächte französische Staat wäre dazu gar nicht in der Lage gewesen. Die Franzosen konnten sich glücklich schätzen, mit General de Gaulle einen weitsichtigen Staatsmann ans Ruder gebracht zu haben, der früh die Bedeutung der Verfügbarkeit preiswerter Energie im Überfluss für den wirtschaftlichen Wohlstand erkannte. Allerdings brauchte der Aufbau der Kernenergie längere Zeit. Viel schneller ging die Erschließung der Wasserkraft in den Alpen und den Pyrenäen vonstatten. Stauseen und Kanäle ermöglichten gleichzeitig die Entwicklung einer hochproduktiven Landwirtschaft im Süden Frankreichs, der zuvor eher steppen-, wenn nicht wüstenähnlich aussah. Dass die Provence heute überwiegend grün ist, verdanken wir EDF und dem Canal de Provence.

Leider setzte de Gaulle bei der Entwicklung der Kernenergie zunächst (wohl aus militärischen Gründen) einseitig auf den Bau (mittel-)großer Natururan-Reaktoren, obwohl der erste von den Pazifisten Frédéric und Irène Joliot-Curie entwickelte funktionsfähige französische Kernreaktor „Zoé“ sehr klein war und durchaus zu zusammenschaltbaren Modulen (im Sinne der heutigen SMR-Konzepte) hätte weiterentwickelt werden können. Das soll jetzt nachgeholt werden. Vor kurzem stellte die französische Start-up Naarea im Wissenschaftsmagazin „Sciences et Avenir“ die Konzeptstudie eines inhärent sicheren Molten-Salt-Kleinreaktors vor, der mithilfe schneller Neutronen aus nuklearen Abfällen Energie gewinnen soll. Das Konzept dieses Reaktors mit einer Leistung von 40 Megawatt ist nicht vollkommen neu. Es erinnert in manchem an den Dual-Fluid-Reaktor des privaten Berliner Instituts für Festkörper-Kernphysik.

Allerdings rechnet das französische Entwickler-Team unter Jean-Luc Alexandre mit einer niedrigeren Betriebstemperatur von nur 700 Grad Celsius und die verwendete Kochsalzlösung soll nicht in Rohren aus rostfreiem Metall, sondern in Keramikrohren aus Siliziumkarbid zirkulieren. Auch Graphen soll im Reaktorkern eingesetzt werden. Die französischen Forscher haben allerdings den Vorteil, nicht wie Dual Fluid Energy Inc. nach Kanada ausweichen zu müssen, um ihr Konzept bis zu einem funktionierenden Prototypen umsetzen zu können. Der Prototyp des Naarea-Reaktors soll zwischen 2027 und 2028 fertig sein. Ab 2030 soll dann die Serienproduktion von Hunderten von Kleinreaktoren mithilfe von 3D-Druckern beginnen. Die im Jahre 2020 gegründete Firma Naarea beschäftigt zurzeit 170 Personen und soll noch vor dem Ende dieses Jahres eine Beschäftigtenzahl von 200 Personen erreichen. Schon im nächsten Jahr soll die Belegschaft auf 350 Personen aufgestockt werden. Finanziert wurde die Start-up bislang überwiegend über Spenden-Aufrufe. In diesem Frühsommer gewann Naarea den von der französischen Regierung im Rahmen des Investitionsplans 2030 ausgeschriebenen Wettbewerb „Réacteurs Nucléaires innovants“ und erhielt dadurch vom Staat eine Starthilfe von 10 Millionen Euro. Zurzeit versucht Naarea mithilfe einer Werbekampagne 150 Millionen Euro einzutreiben. Deren Chancen gelten aber wegen des Rückschlags beim konkurrierenden Projektes Nu Scale Power zurzeit als nicht besonders gut.

Wie dem auch sei: Auch Frankreich beteiligt sich nun aktiv an der Suche nach dem tragfähigsten Mikroreaktor-Konzept und hat dabei wegen seiner Willkommenskultur in Sachen Kernenergie sicher bessere Karten als Deutschland. Der jetzt von der französischen Regierung versprochene Garantiepreis von 70 €/MWh dürfte allerdings nicht ausreichen, um die Suche nach neuen Reaktor-Konzepten attraktiv zu machen. Als attraktiv für zukünftige Nutzer erscheint jedoch die Möglichkeit, die Kleinreaktoren – unabhängig von weiträumigen Verteiler-Netzen – in unmittelbarer Nähe zu den Orten des Verbrauchs aufzustellen. Der Kern des 40 MW-Reaktors von Naarea soll nicht größer sein als ein Kühlschrank, die Gesamtanlage soll die Größe eines Autobusses nicht überschreiten. So erscheint die Annahme durchaus realistisch, dass der massenhafte Einsatz von Kleinreaktoren eines Tages zur Versöhnung zwischen Kernenergie und Marktwirtschaft führen könnte. (29. November 2023)

 




Warum die Treibhaus-Klimahypothese falsch ist

Von Gerhard Grasruck

Die Behauptung eines von Menschen verursachten Klimawandels basiert auf der Hypothese, dass Änderungen der Konzentration von Treibhausgasen in der Erdatmosphäre der dominante Faktor für klimatische Variabilität sind; dabei gilt das Kohlendioxid als entscheidend, dieses soll sozusagen der “Einstellknopf” für das Klima auf der Erde sein (Eigentlich ist das wichtigste Treibhausgas der Wasserdampf, da dieser aber im Gegensatz zum Kohlendioxid nur für kurze Zeit in der Atmosphäre verbleibt, bevor er wieder als Niederschlag ausfällt, wird eine Rolle für ihn als Auslöser für Klimaänderungen ausgeschlossen).[1] Daraus wird gefolgert, dass menschliche Emissionen von Kohlendioxid, welche dessen Konzentration in der Atmosphäre erhöhen, das Klima entscheidend beeinflussen.

Wie lässt sich diese Hypothese auf ihre Korrektheit überprüfen? Prinzipiell gibt es zwei Herangehensweisen: Man kann einerseits von den vermeintlichen Ursachen ausgehend untersuchen, ob der physikalische Mechanismus prinzipiell in der Lage ist, die behaupteten Auswirkungen zu produzieren. Umgekehrt kann man anhand des beobachteten Klimas empirisch überprüfen, ob Änderung der Konzentration von Treibhausgasen tatsächlich zu entsprechenden Klimaänderungen führen.

Fangen wir mit Letzterem an. Wenn die Treibhaus-Klimahypothese tatsächlich korrekt ist, so sollte dies leicht zu erkennen sein – die Temperatur auf der Erde müsste der Konzentration des Kohlendioxids folgen; Auf mehr Kohlendioxid muss eine Temperaturerhöhung folgen, auf weniger eine Temperatursenkung. Zu beachten ist dabei allerdings, dass die Kausalität auch andersherum verlaufen kann. Dass die Temperatur den Gehalt von Treibhausgasen in der Atmosphäre beeinflussen kann, ist leicht einzusehen. Insbesondere ist die Löslichkeit von Gasen in Wasser temperaturabhängig, wird es kälter so ist es in der Lage mehr Kohlendioxid zu lösen, bei Erwärmung wird Kohlendioxid ausgasen. Es ist also, wenn tatsächlich eine Korrelation existieren sollte, wichtig festzustellen. was zuerst kam.

Um schon einmal dem Ergebnis vorzugreifen: Das Ergebnis ist für die Treibhaus-Klimahypothese denkbar ungünstig. Es ist deshalb nicht verwunderlich, dass man gerne viele Millionen Jahre in die fernere Klimavergangenheit schweift, wo über die damals herrschenden Kohlendioxidkonzentrationen extrem große Unsicherheiten herrschen und man so mehr Spielraum hat, es irgendwie passend hinzubiegen. Allerdings heißt dies auch, dass diese auf einem äußerst wackligen Datenfundament stehenden Hypothesen regelmäßig über den Haufen geworfen werden, wenn neuere Forschung die Werte korrigiert. So wird etwa gerne die von tropischen Temperaturen geprägte Kreidezeit, in welcher die Dinosaurier ihre Blüte erlebten, als Paradebeispiel für ein extremes Treibhausklima präsentiert. Neuere Untersuchungen mit verbesserten Methoden jedoch korrigieren die Kohlendioxid-Werte deutlich herunter auf ein Niveau, welches mit der heutigen von etwa 420 ppm (0,048 Prozent) vergleichbar ist, und der Verlauf zeigt im Allgemeinen keine Korrelation mit der Temperatur.[2]

Abbildung 1 Kohlendioxidkonzentration und Temperatur in der Kreidezeit (vor 145-66 Millionen Jahren) ii

Die Widersprüche werden nicht weniger, wenn man die auf die Kreidezeit folgende Erdneuzeit betrachtet. So gab es von 48 Millionen – 34 Millionen Jahren einen starken Abfall der Durchschnittstemperatur um zunächst 5 Grad Celsius, dann als Abschluss noch einmal 2,5 Grad, als die Antarktis innerhalb von weniger als einer Millionen Jahren komplett vereiste. Die Kohlendioxidkonzentration zeigt keinen erkennbaren Zusammenhang: Sie steigt noch für mehrere Millionen Jahre an, nachdem die Temperatur bereits wieder fällt; sinkt dann etwas, bevor sie wieder ansteigt und fällt erst nachdem die Temperatur ihr Minimum erreicht hat wieder.[3]

Abbildung 2 Kohlendioxidkonzentration und Temperatur in der Erdneuzeit (ab vor 66 Millionen Jahren) iii

Besonders interessant wird es mit dem Anbruch des Pleistozäns vor 2,6 Millionen Jahren als eigentlichem Beginn des Eiszeitalters, als auch die Arktis vereiste. Dies löste den bis heute andauernden Wechsel von Kaltzeiten in welchen Gletscher in niedrigere Breiten vorstoßen und weite Teile der Erdoberfläche bedecken und Warm- oder Zwischeneiszeiten wie dem Holozän, in dem wir uns gerade befinden, aus. Die Treibhaus-Klimahypothese wurde ursprünglich vorgeschlagen, um genau diese Periode zu erklären. Aber ausgerechnet für die Wechsel von Warm- und Kaltzeiten in dieser Periode war es auch, für welche als erstes eine astronomische Ursache durch periodische Unregelmäßigkeiten in der Erdumlaufbahn aufgezeigt werden konnte. Man kann hier tatsächlich eine Korrelation zwischen Temperatur und Kohlendioxid beobachten – aber genau andersherum: zuerst kommt die Temperaturänderung, dann die Änderung in der Kohlendioxidkonzentration.[4] Auch die Verfechter der Treibhaus-Klimahypothese waren gezwungen, dies anzuerkennen; als Erklärungsversuch zogen sie sich auf die Behauptung zurück, dass die Kaltzeit zwar durch die Temperaturänderung ausgelöst, aber dann durch Kohlendioxid-Rückkopplung wesentlich verstärkt werden würde. Als Evidenz dafür haben sie aber außer ihren Klimamodellen nichts anzubieten.

Abbildung 3 Kohlendioxidkonzentration und Temperatur im Wechsel von Kalt- und Warmzeiten während der letzten 400.000 Jahre

Auch seit dem Beginn des Holozäns, des aktuellen erdgeschichtlichen Zeitabschnitts, mit dem Ende der letzten Kaltzeit vor etwa 11.000 Jahren mangelt es nicht an klimatischer Variabilität; insbesondere lassen sich mehrere ausgeprägte Abkühlungsphasen feststellen, welche sich teilweise einschneidend auf die Entwicklung der Menschheit auswirkten – zuletzt die sogenannte “Kleine Eiszeit” von etwa Anfang des 14. bis Mitte des 19. Jahrhunderts. Gleichzeitig gab es jedoch bis zum Beginn des 20. Jahrhunderts nur geringfügige Änderungen in der Kohlendioxidkonzentration, welche auch noch keine Korrelation mit der Temperaturentwicklung erkennen lassen. Hier ist die Taktik der Verfechter des anthropogenen Klimawandels – insofern sie das ”Holozän-Dilemma”, wie es genannt wird,[5] nicht gleich völlig ignorieren – diese Klimaänderungen, welche vor dem Aufstieg des Klimawandel-Alarmismus allgemein anerkannt waren, aber nun nicht mehr sein dürfen, nach Möglichkeit herunterzuspielen. Ironischerweise werden sie damit selbst zu den „Klimawandel-Leugnern“ als die sie ihre Gegner gerne bezeichnen.

Abbildung4  Kohlendioxidkonzentration und Temperatur im Holozän (ab vor 11.000 Jahren) [6]

Auch im 20. Jahrhundert, wo sich der vermeintliche menschliche Einfluss auf das Klima doch so deutlich zeigen soll, sieht es keineswegs besser für die Treibhaus-Klimahypothese aus. Zwar stieg in der ersten Hälfte des 20. Jahrhunderts der Kohlendioxidgehalt und – zunächst – auch die Temperatur an, was frühe Anhänger der damals noch durchaus umstrittenen Treibhaus-Klimahypothese wie Guy Stewart Callendar als Beleg für deren Gültigkeit anführten.[7] 1956 proklamierte der kanadische Physiker Gilbert Plass, einer ihrer zu diesem Zeitpunkt wichtigsten Vertreter, selbstbewusst einen “Definitiven Test” für die Ursache von Klimaänderungen: Sei Kohlendioxid für klimatische Variabilität verantwortlich, so werde es eine weitere kontinuierliche Steigerung der Temperatur geben, sei hingegen der Einfluss der Sonnenaktivität ausschlaggebend, so sei für die nächsten paar Jahrzehnte eine Abkühlung zu erwarten.[8] Zweites trat ein – obwohl die Kohlendioxidkonzentration weiter anstieg, ging die Temperatur ab den fünfziger Jahren für etwa drei Jahrzehnte zurück, was in den siebziger Jahren zu apokalyptischen Warnungen vor einer neuen Eiszeit führte.

Abbildung 5 Kohlendioxidkonzentration und Temperatur im 20. Jahrhundert [9]

Bezeichnenderweise gab es bereits hier Versuche, den Klimawandel dem Menschen in die Schuhe zu schieben – für den Temperaturrückgang wurde die abkühlende Wirkung von in industriellen Emissionen enthaltenen Aerosolen verantwortlich gemacht.

Diese Erklärung wird auch heute noch bemüht – zunächst sei die Wirkung des Kohlendioxids durch den ansteigenden Aerosolausstoß „verdeckt” worden, habe dann jedoch aufgrund von dessen Reduzierung durch bessere Filterung wieder die Oberhand gewonnen. Die Fakten stützen diese Hypothese jedoch keineswegs: Zwar lässt sich im 20. Jahrhundert in vielen Teilen Europas und Nordamerikas eine zunächst absinkende, dann wieder ansteigende Durchlässigkeit der Atmosphäre für die Sonneneinstrahlung feststellen. Jedoch ist diese Entwicklung, wie zu erwarten, nur von regionaler Bedeutung, selbst relativ nahe beieinanderliegende Gebiete können sehr unterschiedliche Trends aufweisen.[10] Zudem passt der Zeitpunkt der Trendumkehr ab Ende der achtziger Jahre hin zu wieder mehr Lichtdurchlässigkeit keineswegs zu der klimatischen Entwicklung, welche bereits Ende der siebziger Jahre wieder in eine Erwärmungsphase überging (Welche bekanntlich von einem entsprechenden Schwenk in der klimaalarmistischen Propaganda von Abkühlung auf Erwärmung begleitet war).

Abbildung 6 Trends der Entwicklung der Lichtdurchlässigkeit der Atmosphäre. Bild a bezieht sich auf den Zeitraum 1923–1950, b auf 1959–1989, 1950–1980 und 1952–1980 jeweils für China, Europa und die USA, c auf 1994–2010 für China und 1980–2009 für Europa. ix

Wie ausgeprägt und wie kontinuierlich diese Erwärmung ist, bleibt unklar. Sie dauerte für die nächsten zwei Jahrzehnte an, danach stagnierte die Temperaturentwicklung; Nachdem diese “Pause” mehr als ein Jahrzehnt angedauert hatte, veränderte eine wissenschaftliche Arbeitsgruppe (RSS) die Kalibrierung der Satellitentemperaturdaten, um so nachträglich doch noch eine Erwärmung zu erzielen. Diese Interpretation wurde dann eilends als neuer, offizieller, Temperaturverlauf erklärt. Inwiefern sie korrekt ist, bleibt zweifelhaft – eine andere Arbeitsgruppe (UAH) korrigierte für denselben Zeitraum ihre Ergebnisse ganz im Gegenteil nach unten.[11]

Abbildung 7 Unterschiede in der Auswertung von Satellitentemperaturdaten der Teams von Remote Sensing Systems (RSS) und der University of Alabama Huntsville (UAH) x

Solche ”Überarbeitungen“ von Temperaturdaten sind auch für Bodenmessungen üblich. So wurden, um nur ein Beispiel zu nennen, von 1999 bis 2015 schrittweise die Temperaturdaten für Nordamerika so modifiziert, dass die Gegenwart anstatt der dreißiger Jahre als wärmste Periode seit dem Beginn des 20. Jahrhunderts erscheint.[12] Man muss bedenken, dass es dabei um Größenordnungen von Zehntel Grad geht – unter diesen Umständen ist es leicht möglich, den Daumen auf die Waage zu legen.

Abbildung 8 Veränderungen in der Interpretation der Temperaturdaten von Wetterstationen für das 20. Jahrhundert xi

Anhänger und Kritiker des Klimawandel-Alarmismus verwenden viel Zeit und Energie darauf, die Zulässigkeit dieser Manipulationen zu diskutieren. Allerdings kann man sich auch auf den Standpunkt stellen, dass das Thema nicht wirklich den zentralen Stellenwert hat, welchem ihm in der öffentlichen Diskussion beigemessen wird. Das Klima verändert sich ständig, es wird also zu jedem beliebigem Zeitpunkt wärmer oder kälter – selbst, wenn tatsächlich eine Erwärmung stattfinden würde, sagt das absolut gar nichts darüber aus, ob Treibhausgase dafür verantwortlich sind.

Entscheidend ist der kausale Zusammenhang. Und wie wir gesehen haben kann, erstens, von einer allgemeinen Korrelation zwischen Klima und Kohlendioxid keine Rede sein, und, zweitens, in den Fällen, wo ein Zusammenhang erkennbar ist, es die Temperaturänderung ist, die vor der Konzentrationsänderung kommt und nicht umgekehrt. Die gesamte Klimageschichte ist folglich nichts anderes als eine einzige vernichtende Widerlegung der Treibhaus-Klimahypothese; Ihre Verfechter müssen sich ständig neue Ad Hoc-Ausreden aus den Fingern saugen, um die Abweichungen von der tatsächlichen Entwicklung zu erklären. Auf sie kann man daher mit Fug und Recht den überstrapazierten Begriff Verschwörungstheoretiker anwenden: “Glaubt uns doch, der Mensch beeinflusst über Treibhausgase das Klima zu unserem Verderben, aber die Natur hat sich verschworen, diesen Zusammenhang zu verschleiern!”

Dies erklärt auch den zentralen Stellenwert, welchen die berühmt-berüchtigten Klimamodelle im Weltbild des anthropogenen Klimawandels einnehmen. Man behauptet, dass man mit ihrer Hilfe in der Lage sei, die Faktoren welche angeblich den Zusammenhang “verdecken” zu isolieren und so doch noch eine vermeintliche Steuerung des Klimas durch Treibhausgase plausibel machen zu können. Tatsächlich jedoch sind Klimamodelle, zumindest solche welche Treibhausgase als bestimmenden Faktor annehmen, völlig unfähig das reale Klima zu reproduzieren; die einzige Möglichkeit, diese auch nur halbwegs mit dem tatsächlich beobachteten Klima in Übereinstimmung zu bringen, ist, sie erst einmal zu ‘Tunen’, wie der Fachbegriff dafür heißt. Bei der “Modellierung” – insbesondere bei der Wolkenbildung – bestehen über die klimatischen Prozesse massive Unsicherheiten, welche nun einfach willkürlich so festgelegt werden, dass am Ende die tatsächlich beobachteten Klimadaten zumindest einigermaßen produziert werden. Es geht dabei wohlgemerkt nur um die Reproduktion von historischem Klima – wir reden noch nicht einmal von Vorhersagen. Ironischerweise werden durch die Klimamodellen daher, insofern man ihnen überhaupt irgendeine Aussagekraft zubilligt, die Treibhaus-Klimahypothese nicht nur nicht bestätigt, sondern, ganz im Gegenteil, widerlegt.[13]

Angesichts der Unfähigkeit der Treibhaus-Klimahypothese vergangenes Klima zu erklären, ist es nicht weiter verwunderlich, dass sie bei Vorhersagen erst recht scheitert. Ein grundlegendes Kriterium, welches eine legitime naturwissenschaftliche Theorie auszeichnet, ist ihre Falsifizierbarkeit. Sie macht klar definierte Vorhersagen, anhand deren Eintreten oder Ausbleiben ihre Korrektheit beurteilt werden kann. Das völlige Versagen der Treibhaus-Klimahypothese bei diesem Test wurde von ihren Adepten implizit zugegeben, als sie die “Klimaerwärmung” zu “Klimawandel” umbenannten; Egal ob heiß oder kalt, Überschwemmungen oder Dürren, alles kann als Klimawandel verkauft werden. Die Frage, mit welcher man jedem Klimawandel-Alarmisten in Verlegenheit bringen kann, ist daher: “Welches klimatische Ereignis würden sie als Widerlegung der Treibhaus-Klimahypothese – und damit eines menschlich verursachten Klimawandels – akzeptieren?”. Auf diese Frage kann es schon deshalb schwerlich eine Antwort geben, weil so ziemlich jede denkbare Widerlegung bereits geschehen ist.

Soweit die empirische Seite der Treibhaus-Klimahypothese. Keineswegs besser sieht es aus, wenn wir sie von der anderen Seite, von den physikalischen Ursachen her, angehen. Eine Verdopplung der Kohlendioxidkonzentration in der Atmosphäre (Bislang hat sich diese seit dem 19. Jahrhundert von 0,028 auf 0,042 Prozent erhöht, also um etwa die Hälfte) würde laut Weltklimarat IPCC zu einer Erhöhung des Strahlungsflusses um etwa 1 Prozent oder 3,7 Watt pro Quadratmeter führen. Die Verfechter der Treibhaus-Klimahypothese behaupten, dass ihre atmosphärischen Strahlungsmodelle korrekt sein müssen, da sie die von Satelliten gemessene Infrarotabstrahlung der Erde in das Weltall korrekt reproduzieren. Kunststück: Diese gemessene Infrarotabstrahlung ist genau der Parameter auf dessen Reproduktion die Modelle als allererstes “getunt” werden – bewiesen ist damit natürlich überhaupt nichts.

Aber, selbst wenn wir den Wert für einen Augenblick akzeptieren, wäre der Effekt minimal – an der Erdoberfläche mit einer Durchschnittstemperatur von 15 Grad Celsius würden dieser Einstrahlungserhöhung gemäß dem Stefan-Boltzmann-Gesetz eine Temperaturerhöhung von 0,7 Grad Celsius entsprechen, bezogen auf die radiative Obergrenze der Atmosphäre (in etwa 5-6 Kilometern Höhe und –18 Grad Celsius) wo die Abstrahlung in den Weltraum erfolgt, wären es 1 Grad Celsius. Die Höhe, in welcher der Energieeintrag vorwiegend stattfindet, verschiebt sich je nach Breitengrad, der globale Durchschnittswert liegt also irgendwo zwischen den 0,7 und 1 Grad Celsius.[14]

Nicht einmal Klimawandel-Alarmisten wagen zu behaupten, dass eine Temperaturerhöhung von weniger als 1 Grad Celsius zu schädlichen Auswirkungen führen würde. Deshalb sind sie gezwungen, in ihren Klima-”Modellen” eine erhebliche Verstärkung (etwa eine Verdreifachung) dieser Erwärmung durch positive Rückkopplungseffekte anzunehmen. In erster Linie sollen diese dadurch zustande kommen, dass die ursprüngliche Erwärmung zur Verdunstung von mehr Wasser führt, was, da Wasserdampf auch ein Treibhausgas ist, zu noch mehr Erwärmung führt und so weiter (Nebenbei bemerkt würde dies, weil der zusätzliche Wasserdampf ja als Niederschlag wieder herunterkommen muss, zu einem feuchteren Klima führen – Überschwemmungen lassen sich damit also vielleicht begründen, Dürrekatastrophen aber keineswegs.) Temperaturänderungen dämpfende negative Rückkopplungseffekte, insbesondere die Tatsache, dass mehr Wasserdampf zu mehr Wolken führt, welche überwiegend kühlend wirken, werden als von untergeordneter Bedeutung abgetan.

Diese hypothetische massive Verstärkung müsste dann aber natürlich nicht nur für Treibhausgase, sondern auch für andere Temperaturänderungen gelten. Aus den Annahmen der Treibhaus-Klimahypothese würde sich ein extrem instabiles Klima ergeben, was ihre Vertreter nicht nur nicht scheu sind zuzugeben, sondern, wie die schrillen Warnungen vor klimatischen “Kipppunkten” zeigen, sogar prominent in ihre alarmistische Propaganda integrieren.

Tatsächlich jedoch schaufeln sie sich damit ihr eigenes argumentatives Grab, denn unter diesen Umständen wird die relative Stabilität des irdischen Klimas schlichtweg unerklärlich. Es würde erfordern, dass der Atmosphäre über Milliarden von Jahren Erdgeschichte hinweg immer genau so viele Treibhausgase hinzugefügt oder entzogen wurden, um das Klima in einem für die Entwicklung von höherem Leben geeigneten Temperaturkorridor zu halten – eine schier unglaubliche Verkettung von Zufällen. Die schlichte Tatsache unserer Existenz ist ein schlagendes Argument gegen ein von destabilisierenden positiven Rückkopplungen geprägtes Klima und damit die Treibhaus-Klimahypothese. Ganz im Gegenteil weist alles darauf hin, dass im klimatischen System negative Rückkopplungen – also Dämpfung – dominieren.[15]

Ein besonders bemerkenswertes Indiz dafür ist das sogenannte “Paradox der frühen schwachen Sonne”: In der Frühzeit der Erdgeschichte war die Sonneneinstrahlung um etwa 30 Prozent schwächer als sie es heute ist. Eigentlich hätte die Erde in Eis gehüllt sein und dies für den längsten Teil ihrer Geschichte auch bleiben müssen. Tatsächlich jedoch war es sogar eher wärmer als heute – eine eindrucksvolle Demonstration der Fähigkeit des klimatischen Systems auch massive Änderungen des Energiehaushalts abzufedern.

Sehr aufschlussreich ist es, diese Entwicklung in die Zukunft zu extrapolieren – denn hier wird unbekümmert genau das prophezeit, was in der Vergangenheit partout nicht eintreten wollte. Ein Klimamodell prognostiziert beispielsweise, dass die Erhöhung der Sonneneinstrahlung um 8 Prozent in 850 Millionen Jahren zu einer globalen Temperaturerhöhung um 40 Grad Celsius führen würde.[16] Nicht lange danach würde ein ungebremster Treibhaus-Temperatur-Rückkopplungszyklus ausgelöst, welcher innerhalb kurzer Zeit zum Verdampfen der Ozeane führen würde.

Abbildung 9 Temperaturentwicklung der Erde in der Zukunft auf Basis eines 3D-Klimamodells [17]

Die offensichtliche Frage ist: Welchen Grund gibt es anzunehmen, dass genau dieser jetzige Zeitpunkt der Erdgeschichte so magisch ist, dass die 30 Prozent Erhöhung der Sonneneinstrahlung der letzten viereinhalb Milliarden Jahre keinerlei erkennbaren Effekt hatten, aber für die nächsten 10 Prozent massive Temperaturerhöhungen bis hin zum Wegkochen der Ozeane prophezeit werden? Hierüber schweigen sich die Klimamodellierer geflissentlich aus und machen damit ein weiteres Mal klar, dass sie die klimatische Entwicklung auf der Erde trotz aller gegenteiligen Beteuerungen nicht erklären können.

Fazit: Das wichtigste Gegenargument zur Treibhaus-Klimahypothese ist das völlige Fehlen von Argumenten dafür – es gibt schlicht und ergreifend nichts zu widerlegen. Es mag unter Umständen angebracht sein, eine Hypothese, wenn sie einen Teil der beobachteten Fakten gut erklärt, nicht gleich aufzugeben, auch wenn sie augenscheinlich in einem anderen Aspekt nicht funktioniert; Aber im Falle der Treibhaus-Klimahypothese spricht buchstäblich alles dagegen.

Unter diesen Umständen wäre die einzig verbleibende Begründung, die Treibhaus-Klimahypothese nicht endgültig zu verwerfen, dass keine besseren Erklärungsansätze für klimatische Variabilität existieren würden. Das ist aber definitiv nicht der Fall – ganz im Gegenteil hat sich trotz der politisch motivierten Konzentration auf die Treibhaus-Klimahypothese ein Bild der tatsächlich klimabestimmenden Faktoren immer klarer herausgeschält: Für Zeiträume von Jahren bis Jahrzehnte sind vorwiegend interne Oszillationen des irdischen klimatischen Systems wie El Niño Ereignisse sowie gelegentlich bei Vulkanausbrüchen ausgestoßene Aerosole von Bedeutung. Über Jahrhunderte und Jahrtausende sind Zyklen der Sonnenaktivität dominant, während es über Zeiträume von zehn- bis hunderttausenden von Jahren es Veränderungen in der Achsenneigung und -orientierung der Erde und der Exzentrizität ihrer Bahn um die Sonne sind. Bei noch längeren Zeiträumen von Millionen von Jahren machen sich durch die Plattentektonik hervorgerufenen Änderungen in der Geographie der Erde bemerkbar. Für die Treibhaus-Klimahypothese bleibt hier schlichtweg kein Platz mehr.

  1. Dieser Ausdruck wurde sogar im Titel einer vermeintlich seriösen wissenschaftlichen Arbeit verwendet:Lacis et al. 2010, Atmospheric CO2: Principal control knob governing Earth’s temperature (nasa.gov)
  2. CO2 and temperature decoupling at the million-year scale during the Cretaceous Greenhouse | Scientific Reports (nature.com)
  3. Javier Vinós, Climate of the Past, Present and Future. A scientific debate, 2nd ed. Kapitel 9.3.4 Cenozoic climate.
  4. Petit et al. 1999, Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica
  5. Liu et al 2014, The Holocene temperature conundrum, Kaufman, D.S., Broadman, E 2023, Revisiting the Holocene global temperature conundrum
  6. Javier Vinós, Climate of the Past, Present and Future. A scientific debate, 2nd ed. Kapitel 4 Holocene Climatic Variability
  7. G. S. Callendar 1938, The artificial production of carbon dioxide and its influence on temperature
  8. Gilbert Plass 1956, The Carbon Dioxide Theory of Climatic Change
  9. Confrontación entre las distintas teorías que explican las causas del calentamiento global
  10. He, Y., Wang, K., Zhou, C., Wild, M. 2018, A Revisit of Global Dimming and Brightening Based on the Sunshine Duration Fig. 4
  11. Major correction to satellite data shows 140% faster warming since 1998 (carbonbrief.org)
  12. If The Data Doesn’t Match The Theory – Change The Data – Climate Change Dispatch
  13. Kritik an der Treibhaus-Klimawandel­hypothese, Teil 1 Durch „Tuning“ zu passenden Modellen | EIKE – Europäisches Institut für Klima & Energie (eike-klima-energie.eu)
  14. Sejas et al 2021, Understanding the Differences Between TOA and Surface Energy Budget Attributions of Surface Warming
  15. Willis Eschenbach, Observational and theoretical evidence that cloud feedback decreases global warming
  16. Leconte et al 2013, Increased insolation threshold for runaway greenhouse processes on Earth-like planets | Nature
  17. When will the Earth lose its oceans?

Über den Autor: Er ist Softwareentwickler, und immer wieder mit den Irrungen der Klima-Ideologie konfrontiert worden, so auch bei der Entwicklung von Solartechnik und Ladestationen für Elektroautos. Zur Zeit ist er bei einem namhaften deutschen Hersteller von Heizungstechnik beschäftigt; Wärmepumpen sind natürlich ein großes Thema, aber es deutet sich schon an, dass das nicht weniger ein Debakel zu werden droht.




Der „Notfall“, der eine Hoffnung ist

Von Günter Keil

Zunächst: Wann spricht man in der Politik von einem Notfall ?

Artikel 115 des Grundgesetzes erklärt es: Der Staat kann übermäßig viele Schulden machen, „im Falle von Naturkatastrophen oder außergewöhnlichen Notsituationen, die sich der Kontrolle des Staates entziehen und die staatliche Finanzlage erheblich beeinträchtigen.“ (Unterstreichung vom Autor).

Zum Problem, mit dem sich der Bundestag gerade beschäftigt hat:

Nach der aktuellen Statistik des Bundeswirtschaftsministeriums BMWK sind 37,6 Mrd. Euro allein bis Ende Oktober 2023 aus dem Wirtschaftsstabilisierungsfonds WSF geflossen.

Dazu erklärten vom Bundestag zurate gezogene Experten während einer Anhörung zu den Folgen des Haushaltsurteils des Bundesverfassungsgerichts, dass die Ausgaben zur Dämpfung der oben genannten Energiepreise nach diesem Urteil in der Tat verfassungswidrig waren.

Die Stuation war also klar; weniger klar schien zu sein, was man nun tun könnte – und dürfte.

Dazu wurden einige weitere Experten in der Tagespresse zitiert; so z.B. der Verfassungsrechtler Hanno Kube von der Universität Heidelberg, der erklärte, „dass es gerade für die Mittel im WSF mit den Strom- und Gaspreisbremsen auch in diesem Jahre einen Notlagenbezug gebe.“

Über die Meinung von Energieexperten wurde leider nichts berichtet.

Dazu eine Bewertung:

Zunächst muß man mit Erstaunen feststellen, daß die vom Bundestag zugezogenen Rechtskundler entweder den Artikel 115 des Grundgesetzes nicht kannten – oder nicht wussten, daß Deutschland neben Dänemark die höchsten Strompreise in der EU hat – und daß Deutschland dieses für einen hochentwickelten Industriestaat nicht zu erwartende Ergebnis weitestgehend staatlichen Maßnahmen zu verdanken hat, die der gleiche Staat ohne weiteres wieder ändern könnte.

Es handelt sich deshalb bei der jetzigen Situation bei der Stromversorgung nicht um eine „außergewöhnliche Notsituation“ die „der Kontrolle des Staates entzogen war“.

Der Staat, der dieses selbst angerichtet hat, kann diese angebliche Notsituation auch wieder selbst aus der Welt schaffen, wenn er nur dazu bereit wäre. Folgende staatliche Maßnahmen bieten sich zur Senkung des Strompreises an:

  1. Senkung der Stromsteuer
  2. Drastische Senkung des Anteils der Netzkosten im Strompreis durch Einstellung des extrem teuren Projekts der Nord-Süd-Hochleistungs-Verkabelung für den Windstrom-Transport nach Süddeutschland.
  3. Wiederinbetriebnahme der zwei kürzlich zuletzt abgeschalteten Kernkraftwerke.
  4. Inbetriebnahme stillgelegter Kohlekraftwerke.
  5. Stop dess staatlichen Finanzierungsanteils am Windkraft-Ausbau sowie Aufgabe der weiteren extremen Windkraft-Ausbaupläne.
  6. Beendigung der Umlage der Windkraft- und Fotovoltaik- (Solarstrom) – Stromerzeugungskosten auf den Strompreis.
  7. Stop der Subventionen für die Einrichtung von Solarstromanlagen.
  8. Streichung aller Elemente des Gesetzes für erneuerbare Energien, die zu einer Erhöhung des Strompreises führen.
  9. Streichung des sog. Heizungsgesetzes, das zu einem beträchtlich erhöhten Stromverbrauch der Haushalte führen würde.
  10. Streichung der Subventionierung bei der Anschaffung von Elektroautos.

Anmerkung: Diese Liste ist vermutlich noch nicht vollständig.

Zur Senkung der Gaspreise:

Die bisherige nahezu völlige Abhängigkeit des Gaspreises von den Marktpreisen des Gasimports ist eine Tatsache. Aber auch hierbei ließe sich eine Verringerung von dieser Abhängigkeit erreichen:

Der deutsche Staat hat aktiv verhindert, dass bekannte größere Erdgasvorkommen in Norddeutschland erschlossen werden können.

Damit ergeben sich auch für die Gasversorgung und den Gaspreis zwei wünschenswerte staatliche Maßnahme:

  1. Staatliche Genehmigung zur Erschließung und Nutzung der norddeutschen Erdgasvorkommen.
  2. Keine Ausgaben für eine noch ungewisse künftige, außerordentlich kostenintensive Produktion und Anwedung von Wasserstoff anstelle von Erdgas – bevor nicht die in Ziff.1 beschriebene Aufgabe erfüllt ist.

Die genannten Maßnahmen würden mit Gewissheit zu einer drastischen Verringerung insbesondere der Stromkosten führen. Dies würde nicht nur für die privaten Haushalte, sondern gerade auch für die Wirtschaft zu wesentlich verbesserten Wettbewerbsbedingungen führen und die Abwanderung von energieintensiven Unternehmen ins Ausland verringern.

 




GIGAWATT – Die Maßeinheit für Größenwahn

Der geplante Ausbau von Photovoltaik um den Faktor drei wird keine Probleme lösen, aber enorme Einbußen an Lebensqualität mit sich bringen. Widerstand ist aber zwecklos, denn demokratische Hindernisse auf dem Weg zur totalen Nachhaltigkeit werden elegant aus dem Weg geräumt.

Man darf nicht anfangen zu rechnen

von Hans Hoffmann-Reinecke

Vor 100 Jahren schrieb ein kluger Kopf über erneuerbare Energien:

Das alles klingt durchaus plausibel. Man darf nur nicht zu rechnen beginnen. Jede Umsetzung einer Energieform in eine andere verzehrt Kraft. …. Die Folge ist ein sehr geringer Wirkungsgrad. Verbunden mit der Unstetigkeit der Ausgangsenergie läßt sich daraus ohne weiteres die Unbrauchbarkeit solcher Vorschläge erkennen.

Damit war nicht Photovoltaik gemeint, aber sie ist exakt solch ein „unbrauchbaren Vorschlag“. Von Sonnenlicht geht es per Photovoltaik zu Elektrizität, dann per Elektrolyse zu Wasserstoff und dann per Brennstoffzelle wieder zu Elektrizität. Das sind drei der erwähnten Umsetzungen, und auch die „Unstetigkeit der Ausgangsenergie“ namens Sonne lässt sich nicht leugnen.

Demokratische Gefälligkeiten

Andere kluge Köpfe entwarfen 1949 die Bundesrepublik. Das neue politische System sollte so dezentral wie möglich, so zentral wie nötig sein. Man hatte ja gerade erfahren, wohin es führt, wenn eine Partei alles bis ins kleinste Detail kontrolliert. So entstand nun die Pyramide aus Gemeinde – Kreis – Land – Bund. Ob Xdorf einen Maibaum aufstellt oder nicht, das entscheiden nur die Xdorfer, und nicht der Bundeskanzler.

Es ist aber nicht immer so einfach. Wenn die Bundesregierung etwa die „Erneuerbaren“ erweitern möchte, dann braucht sie die Zustimmung der Gemeinden, auf deren Grund und Boden das passieren soll. Es könnte ja sein, dass den Bürgern von Xdorf der Blick auf Wiesen und Bäume lieber ist, als auf ein Meer von Photovoltaik. Was macht man nun, wenn das Volk nicht will, was die Politik möchte?

Von Menschen gemachte Regeln lassen sich leichter verbiegen als Naturgesetze, und so ist jetzt das „Freiflächen Abgabengesetz“ im Gespräch. Es bestimmt, dass zur Genehmigung einer PV- Anlage der Betreiber einen Betrag von etwa 2000 Euro pro Megawatt (MW) in die Kasse der Gemeinde bezahlen muss. Bei 100 MW versüßt das die Entscheidung für so manchen Bürgermeister.

Bahn frei in den Wahnsinn

So wird nun die Bahn frei für den alternativen Wahnsinn. Bis 2030 soll Photovoltaik mit insgesamt 215 Gigawatt (GW) installiert werden. Ist das viel? Aktuell sind ca. 67,7 Gigawatt Photovoltaik installiert.

Wieviel Platz bräuchten wir jetzt dafür? Ein GW ist dasselbe wie 1000 MW. Bei ca. 1 Hektar pro Megawatt (je nach Quelle variiert die Zahl) braucht 1 GW also etwa 10 Quadratkilometer. Bei der angestrebten Leistung von 215 GW würden dann 2030 mehr als 2000 Quadratkilometer Deutschlands mit PV Modulen zugepflastert sein. Das entspricht dem Flächenbedarf von Autobahntrassen einer Gesamtlänge von 40.000 km! Deutschland hat derzeit 13.500 km davon.

Außer Terrain kostet, dieser Wahnsinn natürlich auch noch ein paar Euros. Wie viele, das weiß niemand genau, nur eines ist gewiss: letztlich bezahlt alles der deutsche Verbraucher.

Was bekommen wir dafür?

2022 waren in Deutschland 67,7 GW Photovoltaik installiert. Die haben uns 57,6 Terawattstunden (TWh) beschert, das sind gut 10% von Deutschlands Strombedarf. Hochgerechnet bekämen wir von der auf 215 GW erweiterten Photovoltaik dann 183 TWh pro Jahr geliefert, also ein Drittel des gesamten Strombedarfs.

Bei perfektem Sonnenschein über ganz Deutschland allerdings bekämen wir mittags tatsächlich die vollen 215 Gigawatt geliefert! Wohin damit? Das Land kann ja nur ein Viertel davon brauchen! Und da kommt nun der Wasserstoff ins Spiel, der aus dem Überschuss per Elektrolyse erzeugt, gespeichert und bei Bedarf durch Brennstoffzellen wieder zu Strom verwandelt wird. Wie erwähnt hat das einen sehr schlechten Wirkungsgrad, aber das ist noch nicht alles.

100 oder 200 Gigawatt ist eine unvorstellbare Menge an Elektrizität. Woher sollen die Anlagen kommen, um den Wasserstoff zu erzeugen, zu komprimieren und zu speichern? Das wären viele gigantische Fabriken, die noch dazu nur an wenigen wolkenlosen Sommertagen im Einsatz wären und den Rest des Jahres vor sich hin rosten würden.

Aber auch das ist noch nicht alles. Auch wenn die Wasserstoffspeicher dann prall gefüllt sind, dann retten die uns bei Flaute und Wolken vielleicht über zwei oder drei dunkle Tage, aber nicht über die finsteren Wintermonate, denn für Solar ist von Oktober bis April Schicht im Schacht.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.