Solarstrom zerstört die Landwirtschaft

Die Energiewende treibt mit immer höheren Strompreisen die Industrie ins Ausland oder in die Insolvenz. Nun werden mit Solarstrom auch die Landwirte von ihrer Scholle vertrieben.

Prof. Dr.-Ing. Hans-Günter Appel
Pressesprecher NAEB e.V. i.L. Stromverbraucherschutz

Im letzten Jahr wurden aus Freiflächen Photovoltaik-Anlagen mit einer Leistung von 8,1 Gigawatt installiert. Damit wurde eine Fläche von über 8.000 Hektar = 80 Quadratkilometer bedeckt und der landwirtschaftlichen Produktion entzogen.

Grund ist die Freigabe landwirtschaftlicher Flächen für die Solarstromerzeugung. In unseren Breiten liefert ein Hektar im Jahresmittel Strom mit 100 kW Leistung. Die Leistung schwankt je nach Wetter und Jahreszeit unberechenbar zwischen Null und 700 kW/ha. Die Erzeugerleistung für Biomasse liegt dagegen nur bei 7 kW/ha. Biomasse ist jedoch viel wertvoller. Sie ist lagerfähig und kann jederzeit nach Bedarf in Wärme oder Strom umgewandelt werden.

EEG-Vergütung macht Landwirtschaft unrentabel

Nach diesen Daten liefert ein Hektar im Jahr 800.000 kWh Solarstrom, der nach den Ausschreibungen der Bundesnetzagentur zurzeit mit rund 5 Cent/kWh vergütet wird. Ein Hektar Photovoltaik erlöst also rund 40.000 Euro/Jahr. Weizenanbau erreicht dagegen nur 2.500 Euro. Dieser krasse Unterschied hat den massiven Zubau von Photovoltaik auf Freiflächen angeheizt.

Profiteure suchen nach Ackerflächen und bieten bis zu 3.000 Euro für die Pacht von einem Hektar, also mehr als der Erlös für Weizenanbau. Bei dieser Schieflage wird jeder Landbesitzer das Angebot der Energiewende-Profiteure annehmen.

In Deutschland sind die landwirtschaftlichen Betriebe erst mit Flächen über 100 Hektar wirtschaftlich. Davon ist in den meisten Fällen ein Drittel Eigenbesitz. Der Rest wurde von aufgegebenen Höfen gepachtet. Die landwirtschaftlichen Pachtpreise liegen zwischen 300 bis 500 Euro/Jahr. Wenn nun Pachtverträge auslaufen, werden die Eigentümer die Angebote der Profiteure der Energiewende zur Weltklimarettung annehmen und so ihre Pachteinkünfte vervielfachen.

Landwirte werden in den Ruin getrieben

Dem aktiven Landwirt gehen Ackerflächen verloren. Die Erlöse sinken. Die Kosten für den Maschinenpark und die Anlagen bleiben gleich. Pleite ist angesagt. Mit der Freigabe von Ackerflächen für Photovoltaik wird nicht nur die Erzeugung von Nahrungsmitteln vermindert, sondern zusätzlich auch vielen Landwirten die Existenzgrundlage entzogen.

Die Energiewende erreicht eine neue Opfergruppe. Es sind die Landwirte, soweit sie nicht als Energiewirte zu den Profiteuren gehören und die Subventionen für Windstrom genießen. Den Biogas-Erzeugern droht dagegen auch die Insolvenz, wenn Pachtflächen verloren gehen.

Stromkosten steigen immer schneller

Es kann nicht oft genug gesagt werden: „Mit jeder neuen Solar-, Wind- oder Biogasanlage steigt der Strompreis schneller. Zu den hohen Einspeisevergütungen kommen steigende Regelkosten für die wechselnden Leistungen dieses unkalkulierbaren Stroms, die der Verbraucher bezahlen muss.“ Bei Sonnenschein und Starkwind wird Wind- und Solarstrom im Überschuss erzeugt, der entweder kostenpflichtig entsorgt (negative Strompreise) oder unter Verlusten teuer in Batterien gespeichert werden muss. Wird der Strom bei Überschuss abgeregelt, gibt es dennoch eine Ausfallvergütung für den nicht benötigten und nicht gelieferten Strom von 90 Prozent.

Relativ werden die einkommensschwachen Haushalte durch die hohen Strompreise am höchsten belastet, weil sie kaum Strom sparen können. Ja, sie zahlen häufig mehr, weil das Geld für stromsparende Geräte nicht reicht. Hohe und weiter steigende Stromkosten mindern so die Kaufkraft des größten Teils unserer Bevölkerung. Sie verarmt zu Lasten der Profiteure der Energiewende. Die Umsätze von Handel, Gewerbe und Dienstleistungen schrumpfen.

Hunger droht durch Klimarettung

Mit der Freigabe von landwirtschaftlichen Flächen für die Solarstromerzeugung wird auch die Nahrungsproduktion eingeschränkt. Essen wird teurer und für immer mehr Mitbürger nicht mehr bezahlbar. Die Energiewende auf dem Weg zur Klimaneutralität erreicht weitere Opfer. Im Nebel bleiben Aussagen zu Wetter und Klima mit Erreichen der Klimaneutralität. Wesentliche Fragen werden dazu nicht beantwortet: Ändert sich das Klima mit Erreichen der Neutralität nicht mehr? Haben wir dann ein optimales Pflanzenwachstum? Gibt es dann keine Unwetter mehr? Statt solche Fragen zu beantwortet, wird Angst verbreitet.

 




Sprechen wir mal über die Schneeball-Erde – Teil 1

Uli Weber

Die sogenannte „Schneeball-Erde“ wird üblicherweise als impliziter Beweis für den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ herangezogen, ist aber gleichzeitig auch ein nachdrückliches Beispiel dafür, dass man in jeglichem Studienfach bestenfalls die Inhalte der Pflichtvorlesungen als gegebenen Wissensstand voraussetzen kann. Eine solche gefrorene Schneeball-Erde soll im Präkambrium bei mehreren globalen Vereisungen existiert haben. In einer auf WARNSIGNAL KLIMA zusammengefassten Arbeit von Henrik Rother und Martin Meschede (2015 – Universität Greifswald) wird diese Schneeball-Erde als Beweis für die Abhängigkeit der Temperatur vom atmosphärischem Kohlenstoffdioxidgehalt (CO2) auf unserer Erde beschrieben, Zitat:

Als primärer Auslöser für die Schneeball-Erde Vereisungen wird eine drastische Verringerung der atmosphärischen Treibhausgaskonzentration angenommen, wobei die resultierende Vergletscherung durch zahlreiche Rückkopplungseffekte weiter verstärkt wurde.

Zusätzlich führte die spätproterozoische Konzentration kontinentaler Landmassen in tropischen Breitengraden zu einer Intensivierung der chemischen Silikatverwitterung, wodurch der globalen Atmosphäre große Mengen des klimawirksamen Treibhausgases Kohlendioxid entzogen wurden.

Hinzu kommt, dass diese Landmassen einen wesentlich größeren Teil der intensiven äquatorialen Solareinstrahlung reflektieren, als dies bei offenen Meeresflächen der Fall gewesen wäre (Albedoeffekt).“

Wikipedia hilft uns dann gerne weiter, um die diese vorgeblich globale Vereisung in einen zeitlichen geologischen Rahmen einzuordnen, Zitat:

Mindestens vier Vereisungen im späten Proterozoikum vor 750 bis 580 Millionen Jahren lassen sich in fast allen Gegenden der Erde nachweisen.[3] Eine Gesamtvereisung der Erde wird für mindestens zwei dieser Vereisungen, die Sturtische Eiszeit (vor ca. 717 bis 660 Millionen Jahren[5]) und die Marinoische Eiszeit (vor ca. 650[5] bis 635 Millionen Jahren), vermutet.[6] Darüber hinaus finden sich Spuren noch deutlich früherer Vereisungen..“

Wir halten fest [1]: Eine mögliche „Schneeball-Erde“ existierte vor 750 bis 580 Millionen Jahren.

Vor etwa 580 Millionen Jahren, im Neoproterozoikum, existierte der Superkontinent Gondwana. Erkundigen wir uns jetzt also einmal über diesen Gondwana-Kontinent, zu dem sich die kontinen­talen Schollen vor 580 Millionen Jahren zusammengeballt hatten, und weil Opa uns dabei aus seiner Erinnerung heraus auch nicht groß weiterhelfen kann, fragen wir besser wieder Wikipedia, Zitat:

Gondwana umfasste die damals in einer Landmasse vereinigten Kontinente beziehungsweise Kratone von Südamerika, Afrika, Antarktika, Australien, Arabien, Madagaskar, Neuguinea, Zealandia und Indien.

Der Kontinent entstand im späten Neoproterozoikum (System Ediacarium) vor rund 600 Millionen Jahren durch die Kollision von Ost- und Westgondwana bzw. aus den fragmentierten Landmassen des nach erdgeschichtlichem Maßstab „kurzlebigen“ Superkontinents Pannotia im Zuge der Pan-Afrikanischen Orogenese. Lange Zeit in Südpolnähe liegend, verschmolz Gondwana im Oberkarbon (vor ca. 310 Millionen Jahren) aufgrund einer nordwärts verlaufenden Drift mit dem damaligen nordamerikanisch-skandinavischen Kontinent Laurussia und dem Kraton Asiens zum Superkontinent Pangaea.“

Die paläogeografische Lage von Kontinentalschollen wird durch die Messung der bei Abkühlung von magnetithaltigen Gesteinsschmelzen „eingefrorenen“ Richtung des Erdmagnetfeldes bestimmt. Die früheste Rekonstruktion der kontinentalen Schollen, die in nachvollziehbarer Sukzession im Internet zu finden war, betrifft den Urkontinent Pangaea in der Zeit vor 230 Millionen Jahren und stammt aus einer Animation vom GFZ Potsdam. Das reicht natürlich nicht, denn da fehlen noch mal 350 Millionen Jahre. Auch zwischen der Abbildung von Rother & Meschede und einer paleogeografischen Karte von Gondwana aus dem mittleren Ordovizium (458 Mio. Jahre) bestehen erhebliche Zeitdifferenzen:

Abbildung: Die Schneeball-Erde (links) und die Lage des Gondwana Kontinents (rechts)

Links: Rother & Meschede Abb. 2.2-2: Entwicklung des Schneeball-Erde-Zustandes und des Temperaturverlaufes am Ende der Sturtischen Vereisungsphase im späten Proterozoikum vor ca. 660 Mill. Jahren (nach Pierrehumbert 2002, Fairchild & Kennedy 2007)

Rechts: Karte von Gondwana aus dem mittleren Ordovizium (458 Mio. Jahre) – mit Quelle

Das ist jetzt ziemlich blöd gelaufen, denn vom Gondwana Kontinent ist keine anschauliche Kartendarstellung aus der Zeit vor 580 Millionen Jahren aufzufinden. Beide Grafiken leiden vielmehr unter Unschärfen und Widersprüchen. Rother & Meschede (links) stellen den Schwerpunkt der Kontinentverteilung um den Tropengürtel herum dar, allerdings für die Zeit vor 660 Mio. Jahren, während für eine bis in die Tropen reichende Schneeball-Erde eher eine Verteilung unter Einschluss beider Pole zu erwarten gewesen wäre. Die Grafik von Gondwana vor 458 Mio. Jahren (rechts) datiert wiederum 120 Mio. Jahre zu spät, stellt aber auch die in der Gondwana-Auflistung fehlenden Nordkontinente dar.

Wir halten fest [2]: Der Urkontinent Gondwana entstand zwischen etwa 660 Mio. und 580 Mio. Jahren aus einer Zusammen­ballung aller heutigen südlichen Kontinental­schollen in Südpolnähe.

Gondwana lag zur Zeit der „Schneeball-Erde“ also dort, wo sich heute Antarktika befindet. Machen wir an dieser Stelle mal einen Sprung in die Gegenwart. Antarktika ist eine Landmasse, die im Bereich des südlichen Polarkreises durch das Südpolarmeer begrenzt wird. Dieses Südpolarmeer stellt einen zirkumantarktischen Wärmespeicher dar, der eine weitere Nordverbreitung der antarktischen Gletscher verhindert. Ganz anders sähe es aus, wenn sich diese Landmasse nach Norden fortsetzen würde, wie wir das umgekehrt in der Südfortsetzung der Arktis betrachten können. Die Arktis stellt bezüglich der Land-Meer-Verteilung nämlich eine ziemlich gute geografische Inversion der Antarktis dar, denn ihr Zentralgebiet besteht aus dem Nordpolarmeer, das im Bereich des Polarkreises von kontinentalen Küstengebieten umrahmt wird:

Abbildung: Satellitenansicht vom Nord- und Südpol – Quelle: Wikipedia – Autor: NASA gemeinfrei

Wir stellen also fest, dass eine dauerhafte Schnee- und Eisbedeckung eng mit der Land-Meer-Verteilung zusammenhängt. Die Polarmeere mit einer Temperatur von wenigen Minusgraden stellen gegenüber den kontinentalpolaren Wintertemperaturen einen Hotspot dar. Die antarktische Eismasse ist daher nicht in der Lage, sich hinter der Küstenlinie über eine Meeresfläche mit ozeanischer Kruste hinweg nach Norden auszubreiten. Vielmehr brechen die Gletscherströme spätestens am kontinentalen Schelfrand ab und schmelzen dann auf ihrer ozeanischen Drift [ERKENNTNIS A]. Die nördliche Polkappe wird dagegen durch das zentral gelegene Nordpolarmeer „beheizt“, das im Bereich des Polarkreises von den angrenzenden Nordkontinenten umschlossen wird. In diesen nordpolaren Küstengebieten, teilweise bis weit ins südlich anschließende Landesinnere hinein, finden wir Permafrostböden, die in Tiefen über 1.000 Meter reichen können:

Abbildung: Nördliche Polkalotte mit Permafrostzonen und winterlicher Schnee- & Eisbedeckung

Links: Verteilung und Temperatur des Permafrosts auf der Nordhalbkugel – Screenshot SCINEXX

Rechts: NOAA Northern Hemisphere Snow & Ice Chart vom 1. März 2025

Die zirkumarktischen Permafrostböden auf den angrenzenden Landmassen beweisen, dass arktische Gletschervorstöße in mittlere Breiten auch heute möglich wären, wenn die Arktis, analog zur Antarktis, auf einer Kontinentalscholle läge und diese Gletscher auf ihrem Weg nach Süden „festen Boden unter den Füßen behalten würden“ [ERKENNTNIS B]. Immerhin reicht die winterliche Schnee- und Eisbedeckung auf den zirkumarktischen Landmassen bis in mittlere geografische Breiten von etwa 45°. Einzige Ausnahme bildet ein vom Golfstrom beheizter Streifen entlang der europäischen Westküste bis hin zum eisfreien russischen Hafen Murmansk. Kein Wunder also, dass ganz Gondwana im Präkambrium dauerhaft mit Schnee und Eis bedeckt war, weil sich beides eben auf dieser Landmasse viel weiter nach Norden ausbreiten konnte, als das heute auf Antarktika der Fall ist. Und wenn wir jetzt noch bedenken, dass die an das Nordpolarmeer angrenzenden Landflächen ja praktisch um einen ozeanischen Hotspot herum gruppiert sind, der nie kälter wird als einige wenige Minusgrade Celsius, dann kann man gedanklich extrapolieren, wie weit der Permafrost um die heutige Antarktis herum gereicht haben mag, als dort anstelle des Südpolarmeeres der Rest von Gondwana gelegen hatte.

Die Äquinoktien stellen den Wechsel von der Polarnacht zum Polartag und umgekehrt dar. In der Polarnacht reduziert sich die solare Einstrahlung schließlich auf null. Am Polartag steigt aufgrund der wachsenden Tageslänge die Energiemenge aus der solaren Einstrahlung auf das globale Maximum zur Sommersonnenwende an. Polare Gletscher können also in der Polarnacht wachsen, müssen aber den Polartag überstehen, um in der folgenden Polarnacht weiterwachsen zu können. Dieses Weiterwachsen erfordert also, dass die polaren Schnee- und Eismassen im Polarsommer nicht den gesamten winterlichen Mengenzuwachs verlieren.

Wenn wir jetzt umgekehrt einmal den heutigen tropischen Ozean betrachten, dann liegen die Temperaturen der oberflächennahen Schicht (SST) dort deutlich über 20°C. Die Sonneneinstrahlung auf der Tagseite hat dort wiederum das Potential, Materie auf über 80°C zu erwärmen. Und außerdem enthalten die Weltmeere nach sehr vorsichtiger Schätzung die Energiemenge von etwa 50.000 Tagen globaler Sonneneinstrahlung. Nachfolgend werden die SST-Temperaturen nach Eschenbach und das maximale Temperaturäquivalent aus einer Stefan-Boltzmann-Inversion im Äquinoktium gegenübergestellt:

Abbildung: Vergleich zwischen der gemessenen und der maximal möglichen Temperatur

Links: Ozeanische Oberflächentemperatur (SST) größer 23°C (Autor W. Eschenbach @ WUWT)

Rechts: Die maximale breitenabhängige temperaturwirksame solare Strahlungsleistung (linke Skala) und das resultierende S-B-Temperaturäquivalent (rechte Skala) über einen 24-Stunden-Tag im Äquinoktium

Linke Skala: MAX (Si) @24h-Tag mit (Si = 1.367W/m²* (1-ALBEDO) * cos PHIi) und (PHIi = örtlicher Zenitwinkel)

Rechte Skala: Maximales örtliches S-B-Temperazuräquivalent( SBTi) zu MAX (Si)

Mit farblich unterlegter Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

Damit können wir feststellen:

Der tropische Ozean hat eine SST von über 25°C (linke Grafik).

Das maximale S-B-Temperaturäquivalent aus der solaren Einstrahlung liegt dort über 70°C.

Das maximale S-B-Temperaturäquivalent aus der solaren Einstrahlung fällt dann von mehr als 70°C sukzessive zu den Polarkreisen unserer Erde auf 0°C ab. Diese Polarkreise liegen auf 66° 33′ 55″ (66,565°) nördlicher und südlicher Breite. Greifen wir uns jetzt einmal Hawaii mit seiner Lage am nördlichen Wendekreis im Pazifischen Ozean als Beispiel heraus, also eine Inselgruppe am Rande der Tropen. Wie, bitte sehr, soll dort bei unveränderter Solarkonstante und ohne einen Anstieg der globalen Albedo die Temperatur jemals unter den Gefrierpunkt fallen?

Eine wasserumschlossene Kontinentalscholle im tropischen Ozean kann unmöglich vereisen.

Vielmehr wäre zwingend eine Landverbindung in eine der Polarregionen zu fordern, um zunächst einmal die örtliche Albedo soweit zu erhöhen, dass die Wirksamkeit der solaren Einstrahlung deutlich reduziert wird. Ob und in wie weit eine solche „Fernabkühlung“ von einer der Polkalotten aus über Landverbindungen bis in die Tropen physikalisch überhaupt möglich ist, bleibt zweifelhaft aber offen.

Die Abbildung der Schneeball-Erde von Rother & Meschede (2015) mit den um die Tropen gruppierten Kontinentalschollen besitzt jedenfalls nur einen schmalen Zugang von Amazonia aus zum südlichen Polarkreis; allerdings fehlen dort ausgerechnet die polaren Liefergebiete selbst [ERKENNTNIS C]. Von daher sieht es der Autor als höchst unwahrscheinlich an, dass auf diesem Weg überhaupt eine Vergletscherung tropischer Kontinentalschollen erfolgt sein kann. Als erste grobe Abschätzung formuliert der Autor: Das polare Liefergebiet muss größer sein als das äquatoriale Zielgebiet. Genauso sieht es nämlich bei Gondwana aus, wo eine Zusammenballung von Kontinentalschollen um den Südpol über eine Landverbindung sogar Ausläufer bis in die Tropen gespeist haben könnte. Die zusammenhängende kontinentale Restfläche in den Tropen wäre allerdings flächenmäßig zu vernachlässigen, weil keine Verbindung zwischen Gondwana und den Nordkontinenten berichtet wird.

Einen kurzen paläogeografisch-geophysikalischen Exkurs kann ich dem interessierten Leser jetzt nicht ersparen. Die Theorie der Kontinentaldrift von Alfred Wegener kann wohl als bekannt vorausgesetzt werden. Sie errang Bestätigung durch die Magnetometer-Aufzeichnungen der amerikanischen Begleitzerstörer für die nordatlantischen Schiffskonvois im WK2. Wissenschaftliche Analysen dieser Daten in den 1950-er Jahren ergaben symmetrische magnetische Muster beiderseits des Nordatlan­tischen Rückens, die als Sea-Floor-Spreading die Wegener‘sche Hypothese bestätigten. Später folgten magnetische Labormessungen an terrestrischen Basalten, die bei ihrer einstigen Abkühlung unter den sogenannten Curie-Punkt das örtliche Magnetfeld „eingefroren“ hatten. Daraus ergaben sich in zeitlicher Abfolge der geologischen Proben wiederum sogenannte „Polwanderungs­kurven“, und diese Kurven sahen für unterschiedliche Kontinentalschollen ganz unterschiedlich aus. Nun sind die magnetischen Pole aber gar nicht gewandert. Vielmehr entsteht das erdmagnetische Feld nach der gängigen Theorie durch eine Art zylindersymmetrischen Ringstrom im Erdinneren. Und dessen magnetisches Feld richtet sich wie das Feld eines Stabmagneten etwa in Richtung der Rotationsachse unserer Erde aus. Das „etwa“ bedeutet, dass dieses Erdmagnetfeld mit seinen Polen um den jewei­ligen geografischen Pol „herumeiert“, und zwar mit einer Zeitkonstante von 100 bis 1.000 Jahren. Eine magnetische Polumkehr ändert nichts daran, dass die magnetische und geografische Achse in einer geologischen Betrachtung immer zusammenfallen. Allerdings lässt die Datenqualität jenseits von Pangaea (230 Mio. Jahre) aufgrund tektonischer Überprägungen stark nach.

Wir halten fest [3]: Die magnetischen und geografischen Pole fallen in einer paläogeografischen Betrachtung immer zusammen.

Wenn also die magnetischen und geografischen Pole in einer paläogeografischen Betrachtung immer zusammenfallen, dann werden umgekehrt die sogenannten Polwanderungskurven zu Wanderungs­kurven der jeweiligen Kontinentalschollen. Dabei ist die Bestimmung der paläogeografischen Breite deutlich einfacher als die Bestimmung der Länge, aber das lassen wir hier mal außen vor. Mit [1], [2] und [3] wissen wir jetzt also, dass sich die Kontinentalschollen während der sogenannten Schneeball-Erde um den Südpol gesammelt hatten. Mit der kontinentalen Drift auf ihre heutigen geografischen Positionen haben sie dann ganz einfach die glazialen Informationen aus dem Präkambrium mitge­nommen. Und erst wenn man die paläogeografische Entwicklung unserer Erde aus den vergangenen mindestens 580 Mio. Jahren ignoriert, wird aus diesen Informationen dann eine „Schneeball-Erde“.

ERGO: Mit [A], [B] und [C] war’s dann kein Schneeball, sondern nur eine ganz gewöhnliche Eiszeit:

[ERKENNTNIS C]: Es fehlen in großem Umfang polare Liefergebiete, zumal der einzige südpolare Zwickel von Amazonia deutlich kleiner ist als das äquatoriale Zielgebiet.

[ERKENNTNIS B]: Gletscher benötigen auf ihrem Weg zwingend „Boden unter den Füßen“.

[ERKENNTNIS A]: Gletscherströme enden spätestens am kontinentalen Schelfrand.

 




Klimaneutralität im Grundgesetz zu verankern ist der Selbstmord Deutschlands

Mit der Einstellung von Klimaneutralität ins Grundgesetz hat der 20. Bundestag die Büchse der Pandora geöffnet.

Es ist vorbei! Keiner soll jetzt sagen, er hätte es nicht gewusst. Bild: Apollo News

Von Michael Limburg

Am morgigen Dienstag, dem 18.3.25 vollzieht der aufgelöste Deutsche Bundestag ein merkwürdiges Ritual. Er tritt zu einer Sitzung mit den Abgeordneten der 20. Sitzungsperiode zusammen, um in 2. und 3. Lesung Grundgesetzänderungen zu beschließen, die nur mit einer 2/3 Mehrheit beschlossen werden können. Allerdings haben nur die Abgeordneten der 20. Sitzungsperiode eine 2/3 Mehrheit aus CDU/CDSU SPD und Grünen, während sie diese in der 21. Sitzungsperiode nicht haben. Dieses trickreiche Vorgehen wurde vom BVerG in einer kurzen Mitteilung vom 14.3.25 gebilligt, obwohl diese Abgeordneten nur 24 Stunden Zeit blieb, die teils umfangreichen Änderungen im Grundgesetz im Haushalts- und anderen Ausschüssen zu lesen und zu debattieren und dann in 1. Lesung (am Sonntag dem16.3.25) zu beschließen. Auch die bis dahin geltende Vorbereitungszeit – vier Wochen müssen Pflicht sein – mahnte der Nationale Normenkontrollrat (hier) auch Heilmann Anordnung genannt, rührte das BVerG diesmal nicht, es beließ den extrem kurzen Zeitrahmen bisher wie er war. Update vom 17.3.25: Inzwischen haben mehrere FDP Abgeordnete so schreibt Bild: „Otto Fricke, Florian Toncar (Ex-Ampel-Finanzstaatssekretär) und Thorsten Lieb haben heute beim Bundesverfassungsgericht einen Stopp der Abstimmung beantragt – im Eil- und Organstreitverfahren (liegt BILD vor, siehe Blätter-Katalog unten). Ziel der 3: Die Abstimmung soll ausgesetzt und um 6 Tage verschoben werden.“ Näheres dazu hier

Und diese neu zu beschließenden Gesetze haben es in sich. Sie sollen – insgesamt die Neuverschuldung um bis zu 1 Billion €, das ist eine 1 mit 12 Nullen – erhöhen können, andere sprechen, von bis zu 1,7 Billionen €, wenn man bedenkt, dass alle Ausgaben für die Verteidigung, die über 1 % des (Bruttoinlandsproduktes) liegen, und das die Grünen verlangt haben auch die Ausgaben für u.a. auch völkerrechtswidrige Staaten (Ukraine), ebenfalls von der Schuldengrenze befreit wurden.

1 Billion € sind so viel, dass, weil das Jahr 31.140.000 Sekunden hat, und wenn man pro Sekunde 1.000 Euro sparte, oder verdiente, dann – dann müsste man dies 32,1 Jahre lang tun. Jede Sekunde lang, oder wenn man es pro Minute versucht, dann sind es 60 x mehr, das wären es 1.926 Jahre.

Dann hat man erst 1Billionen €!

Der Klimaschutz (Klimaneutralität) im Grundgesetz.

Von besonderem Interesse hier und mit irren Folgen ist aber der Zusatzwunsch der Grünen den „Klimaschutz“ im Grundgesetz zu verankern. Die geschieht nach einigem Hin- und Herr mit dem Satz:

Der Bund kann ein Sondervermögen mit eigener Kreditermächtigung für zusätzliche Investitionen in die Infrastruktur und für zusätzliche Investitionen zur Erreichung der Klimaneutralität bis 2045 mit einem Volumen von bis zu 500 Milliarden Euro errichten.“

Dieser Satz erhebt die sog. Erreichung der Klimaneutralität zu einer nicht mehr zu rüttelnden Aufgabe, Er wird als Ergänzung in Artikel 109 des Grundgesetzes (GG) aufgenommen, um ein Sondervermögen zu ermöglichen und die Klimaneutralität als Ziel verfassungsrechtlich zu verankern.

Was aber ist Klimaneutralität? Das Umweltbundesamt (UBA) beschreibt Klimaneutralität im Kontext des Bundes-Klimaschutzgesetzes (KSG) als das Ziel, bis 2045 Netto-Treibhausgasneutralität zu erreichen. Dies bedeutet, dass die Emissionen von Treibhausgasen (THG) so weit reduziert werden, dass verbleibende Restemissionen durch natürliche oder technische Senken (z. B. Wälder, Moore oder CO₂-Speicherung) ausgeglichen werden. Konkret heißt es, dass Deutschland bis 2030 die THG-Emissionen um mindestens 65 % (gegenüber 1990), bis 2040 um mindestens 88 % senken und ab 2045 keine netto-positiven Emissionen mehr verursachen soll. Nach 2050 sollen sogar negative Emissionen angestrebt werden, also mehr THG gebunden als ausgestoßen werden. Die Bundesregierung verwendet den Begriff oft synonym mit „Treibhausgasneutralität“, wobei „Klimaneutralität“ im weiteren Sinne auch andere klimawirksame Faktoren (z. B. Albedo-Effekte) einschließen könnte, was jedoch in der Praxis meist auf THG reduziert wird.

Deutschland fällt zurück in die Armut des Mittelalters

Hier ist der entscheidende Satzteil: ..dass verbleibende Restemissionen durch natürliche oder technische Senken (z. B. Wälder, Moore oder CO₂-Speicherung) ausgeglichen werden. Konkret heißt es, dass Deutschland bis 2030 die THG-Emissionen um mindestens 65 % (gegenüber 1990), bis 2040 um mindestens 88 % senken und ab 2045 keine netto-positiven Emissionen mehr verursachen soll. Nach 2050 sollen sogar negative Emissionen angestrebt werden, also mehr THG gebunden als ausgestoßen werden…

Das aber ist technisch wie wirtschaftlich unmöglich, ohne dass Deutschland insgesamt in die Armut des Mittelalters zurückfällt.

Wenn bis 2045 keine Netto-positiv Emissionen mehr zulässig sind, und wir erinnern uns, alle Lebensvorgänge auf dieser Erde beziehen ihre Lebensenergie aus der Verbrennung, was wiederum aus der Energie entsteht, die im Kohlenstoff und dem Sauerstoff enthalten ist, dann war es das mit dem Wohlstand. Es ist vorbei! Per du?

Natürlich kann man mit neuen Schulden bspw. die Energieversorgung in Solar, Wind und anderes vorantreiben, übersieht dabei aber, dass die Energie, die zum Bau dieser Anlagen von der Gewinnung der Mineralien, über Verhüttung bis zur Produktion von Windrädern und PV-Anlagen – um nur diese zu benennen, bis zur Errichtung mit Riesenmengen Zement- und Stahlverstrebungen, aus dem Ausland kommen. Jedenfalls solange wir es uns hier leisten können. Und dann dort zu erhöhten THG-Emissionen führen. Daher wird man hierzulande technisch, wirtschaftlich schummeln, um gezielte den falschen Eindruck zu erwecken wir würden .. ab 2045 keine netto-positiven Emissionen mehr verursachen soll.

Das Grundsatz der Verhältnismäßigkeit

Doch es kommt noch schlimmer. Jedes Gesetz, jede Vorschrift, jedes Gebot muss dem Grundsatz der Verhältnismäßigkeit unterliegen. Das sieht vor im Sinne des Grundgesetzes (insbesondere Art. 2 Abs. 1 i.V.m. Art. 20a GG), dass staatliche Maßnahmen geeignet, erforderlich und zumutbar sind, um ein legitimes Ziel zu erreichen. Klimaneutralität bis 2045 ist laut Definition ein ambitioniertes Ziel, das massive Emissionssenkungen und Investitionen erfordert. So findet man es im Internet. Während die Geeignetheit und die Erforderlichkeit, jedenfalls nach Vorgabe der schwarz-rot-grünen Koalition, vielleicht vorhanden sein sollte, ist es mit der Zumutbarkeit anders.

Denn diese Maßnahmen bedingen extrem hohe Kosten (z. B. 500 Milliarden Euro Sondervermögen, 500 Milliarden oder mehr für die Aufrüstung), Einschränkungen im Lebensstil (z. B. Verkehrsbeschränkungen) oder wirtschaftliche Belastungen könnten für daher anfangs bestimmte später fast alles Bevölkerungsgruppen unverhältnismäßig sein.

Doch auch diese Zumutbarkeit wurde zudem dramatisch ausgeweitet, weil das Bundesverfassungsgericht betont hat, dass Klimaschutz nicht die Freiheitsrechte künftiger Generationen übermäßig einschränken darf, was auch Rückwirkungen auf heutige Maßnahmen hat. Damit werden die Menschen in Deutschland, ab sofort, von zwei Seiten unter Feuer genommen, und damit ihre Zumutbarkeit weiter ausgeweitet.

Dies wird ganz gezielt Konflikte mit anderen Grundsätzen des Grundgesetzes aufwerfen, falls diese Mittel unverhältnismäßig sind:

Beispielsweise ist im GG unabänderlich geregelt „Die Würde des Menschen ist unantastbar“ (Art. 1 Abs. 1 GG)**: Wenn Maßnahmen zur Klimaneutralität (z. B. hohe Energiekosten, Wohnraumeinschränkungen) die Lebensgrundlagen vieler Menschen gefährden, kann dies durchaus die Menschenwürde tangieren. Beispiel: Energiearmut könnte als würdeverletzend gelten, wenn der Staat keine Abhilfe schafft. Wenn dann aber dafür kein Geld vorhanden ist, und die Inflation alles aufzehrt, ist diese Situation gegeben.

Und es ist auch im GG geregelt: „Alle Staatsgewalt geht vom Volke aus“ (Art. 20 Abs. 2 GG):

Der Satz entzieht dem demokratischen Prozess teilweise Flexibilität, da künftige Parlamente an das Ziel 2045 gebunden sind. Dies kann als Einschränkung der Volkssouveränität interpretiert werden, da politische Alternativen (z. B. andere Klimaziele) erschwert werden. Zudem könnten Gerichte den Satz nutzen, um Gesetze oder politische Entscheidungen zu überprüfen, was die Gewaltenteilung verschiebt.

Falls Klimaneutralität nur mit unverhältnismäßigen Mitteln (z. B. massiven Freiheitsbeschränkungen) erreichbar wäre, würde dies auch andere als diese Grundrechte stärker berühren.

Nur die AfD kann vielleicht verboten werden

Der einzige Punkt, der vergleichsweise für die Parteien mit Ihrer Brandmauer erfreulich ist, dass  ggf. der Einschub ins GG geeignet sein könnte, die AfD zu verbieten.

Die AfD lehnt zwar im Programm Klimaschutzmaßnahmen weitgehend ab und stuft sie als unnötig ein. Ein Parteiverbot nach Art. 21 Abs. 2 GG setzt jedoch voraus, dass eine Partei „nach ihren Zielen oder dem Verhalten ihrer Anhänger darauf ausgeht, die freiheitliche demokratische Grundordnung zu beseitigen oder zu gefährden“.

Doch da gibt es noch rechtliche Hürden: Der Satz macht Klimaneutralität zu einem Verfassungsziel, aber nicht zu einem Kernbestandteil der freiheitlich-demokratischen Grundordnung (FDGO) wie Menschenwürde oder Demokratie. Die Ablehnung von Klimaschutz allein reicht vielleicht nicht aus, um ein Verbot zu begründen, da es keine direkte Gefährdung der FDGO darstellt. Das Bundesverfassungsgericht verlangt aber konkrete, aktive Handlungen gegen die Verfassung (z. B. Gewalt, Umsturz), nicht nur abweichende politische Ansichten, aber da dieser Einschub die AfD politisch unter Druck setzen könnte, da ihre Position nun explizit einem Verfassungsziel widerspricht. Dies könnte Klagen oder Sanktionen gegen sie erleichtern, aber ein Verbot bleibt nur so lange unwahrscheinlich, solange keine weiteren umfassendere Verfassungsfeindlichkeit nachgewiesen wird.

Der Einschub ins GG ist daher nicht geeignet, die AfD direkt zu verbieten, würde aber ihre Position, oder alle die die gegen die Klimaneutralität sind, rechtlich und politisch schwächen.

Fazit

Bleibt zum Schluss anzumerken, dass dieser unglaubliche Satz zu einem steten und nun beschleunigtem Niedergang Deutschlands führt, wobei noch offen ist, wie weit die islamischen Mitbürger dies mittragen werden. Sind wir eher in der Armut des Mittelalters gelandet, oder müssen wir zuvor noch ein Kalifat ertragen. Die Wetten sind offen.

Eines ist jedenfalls klar. Wer solche Freunde in der „Mitte“ des Parlamentes hat, braucht keine äußeren Feinde.

 




Berichte über den Jetstream: Wenn Journalisten Propaganda betreiben

Der Klimawandel beeinträchtigt den Jetstream bisher nicht. Das zeigt eine neue Studie zur Luftströmung über der Nordhalbkugel. Die Medien würden solche Meldungen am liebsten unter dem Deckel halten – denn sie widersprechen ihrer bisherigen Berichterstattung diametral.

Von Peter Panther

Die Studie im renommierten Fachblatt «Nature Geoscience» ist umfassend, und sie kommt zu einem klaren Schluss: Das derzeitige Verhalten des Jetstreams liegt innerhalb der Bandbreite der letzten 600 Jahre. Bisher ist kein Einfluss des Klimawandels auf die wetterbestimmende Luftströmung in acht bis zwölf Kilometer Höhe nachweisbar.

Minutiös haben Stefan Brönnimann und sein Forscherteam von der Universität Bern in den letzten Jahren Daten gesammelt, um Klarheit zu bekommen, wie der Jetstream zwischen 1421 und 2023 das Wetter bestimmt hat. Der Jetstream ist ein Höhenwind auf der Nordhalbkugel, der von West nach Ost weht und Geschwindigkeiten von bis zu 500 Kilometer pro Stunde erreicht. Die Wissenschaftler haben etwa Eisbohrkerne und Baumringe herangezogen, zudem stützten sie sich auf Archivdaten zu früheren Dürren, Überschwemmungen und Vulkanausbrüchen. So gelang es ihnen, Rückschlüsse auf den Jetstream zu ziehen. Es handelt sich um eine der bisher aufwändigsten Forschungsarbeiten auf diesem Gebiet.

Der Jetstream ist häufig in den Medien. Journalisten haben in den letzten Jahren immer wieder den Eindruck erweckt, dieser werde durch die Erderwärmung abgeschwächt, was dazu führe, dass es in Europa, Nordamerika und Nordasien vermehrt zu sogenannt stehenden Wetterlagen kommt: Es ist über mehrere Wochen anhaltend heiss oder es regnet ununterbrochen während Tagen – weil der Jetstream angeblich nicht mehr die Kraft habe, entsprechende Wetterkonstellationen kurzerhand wegzufegen. Mit anderen Worten: Der Klimawandel sei über seinen Einfluss auf den Jetstream verantwortlich für viele Wetterextreme.

«Also liegt es am Klimawandel»

Entsprechend berichtete etwa das Heute-Journal von ZDF nach der Überschwemmungskatastrophe im Sommer 2021 mit allein 135 Todesopfern im deutschen Ahrtal. Die Erderwärmung habe den Jetstream verlangsamt, und das habe die heftigen Regenfälle begünstigt, bekam das Publikum zu hören. «Also liegt es am Klimawandel, die Folgen sind spürbar – nicht irgendwann, irgendwo – sondern jetzt und hier», verkündete Sprecher Claus Kleber.

Die Schweizer «Sonntagszeitung» verkündete zum gleichen Ereignis ebenfalls: «Seit Jahren mehren sich die Hinweise darauf, dass das Band der Höhenwinde schwächelt, das normalerweise stetig von West nach Ost rund um die Arktis weht.» Denn immer häufiger schlage der Jetstream nun riesige, stehende Wellen um die Nordhalbkugel. Im letzten Sommer behauptete die «Bild»-Zeitung erneut, der Jetstream gerate «zunehmend ins Stocken».

Was wie eine wissenschaftliche Binsenwahrheit klingt, ist in Wahrheit die Aussenseitermeinung einiger Forscher, die besonders gern Alarmismus verbreiten. Konkret geht die These des Jetstreams, der wegen des Klimawandels ins Stocken geraten ist, auf eine Publikation im Fachmagazin «Nature» im Jahr 2017 zurück. Zum damaligen Forscherteam gehörten unter anderem Michael Mann und Stefan Rahmstorf. Die Arbeit beruhte weitgehend auf Computersimulationen. «Hier den menschlichen Fingerabdruck dingfest zu machen, das ist fortgeschrittene Detektivarbeit», lobte sich Rahmstorf selbst.

Michael Mann ist Klimaforscher an der amerikanischen Pennsylvania State University und nicht nur der Urheber der fehlerhaften «Hockeyschläger»-Kurve, sondern auch berüchtigt für seine Attacke gegen alle, die es wagen, den Schrecken der Erderwärmung zu hinterfragen. Auch Stefan Rahmstorf, Wissenschaftler am Potsdam-Institut für Klimafolgenforschung, ist ein Forscher, der gegen jeden schiesst, der seine Schlüsse nicht teilt.

Journalisten verstecken die unliebsame Botschaft

Doch die These, die Mann, Rahmstorf und ihre Kollegen zum Jetstream verbreiteten, blieb in der Wissenschaft unbestätigt. «Eine Häufung verharrender Wetterlagen sei in Mitteleuropa nicht festzustellen, berichten Klimaforscher», schrieb Wissenschaftsredakteur Axel Bojanowski in der «Welt». Doch die meisten anderen Journalisten berichten bis heute so, als stünde fest, dass die Erderwärmung den Jetstream beeinträchtige.

Das änderte sich kaum, nachdem die These von Michael Mann und Stefan Rahmstorf im Jahr 2021 zusätzliche wissenschaftliche Risse bekam. Damals erschien eine Studie eines amerikanischen Teams um Matthew Osman vom Massachusetts Institute of Technology im Fachblatt «PNAS». Die Forscher hatten Eisbohrkerne von fast 50 verschiedenen Orten in Grönland herangezogen und waren zum Schluss gekommen, dass die heutigen Veränderungen beim Jetstream über der Insel innerhalb der natürlichen Schwankungsbreite der letzten 1250 Jahre liegen. Die Neuigkeit wurde in den Medien weitgehend totgeschwiegen. Sie passte eben nicht ins Narrativ des schlimmen Klimawandels.

Die neue Studie der Universität Bern kommt nun also zum Schluss, dass beim Jetstream generell kein «menschlicher Fingerabdruck» nachweisbar ist – zumindest, wenn man 600 Jahre zurückgeht. Es ist teilweise amüsant zu verfolgen, wie Medienschaffende darauf reagierten. Der Schweizer «Tages-Anzeiger» konnte, da es sich um Forschung aus dem eigenen Land handelt, die Studie offenbar nicht einfach totschweigen. Also berichtete er darüber, versteckte die zentrale Information – eben kein Einfluss der Erderwärmung auf den Jetstream erkennbar – aber im hinteren Teil des Textes. Der Artikel trug zudem den nichtssagenden Titel «Wettermacher Jetstream» – unattraktiver hätte der Beitrag kaum aufgemacht werden können.

 




„Erneuerbare“: Subventionen ohne Ende

Wind und Sonne sollen die künftigen Säulen unserer Energieversorgung sein. Quellen von schwankender Naturenergie werden nie Säulen sein. Vor allem die Umwandlung in Nutzenergie wird unbezahlbar. Es läuft genau so, wie Alexander Wendt es formulierte:

Deutsch sein heißt, jede Sackgasse bis zu ihrem Ende abzuschreiten.

von Hennig Frank

 

Fast täglich ist das Hohelied der ach so günstigen Stromerzeugung durch die „Erneuerbaren“ zu hören. Wind- und Solaranlagen brauchen keinen Brennstoff, so folgt darauf die irrige Folgerung „Wind und Sonne schicken keine Rechnung“. Diese grundnaive grüne Behauptung blendet wirklich alles aus, was die Kosten einer Strom- und Energieversorgung maßgeblich ausmacht. Ganz abgesehen davon, dass auch die Vorkommen an Energierohstoffen wie Kohle, Öl und Gas keine „Rechnung“ schicken, sind die Förder- und Wandlungskosten maßgebend und vor allem der Zeitpunkt, zu dem das Produkt am Markt verkauft werden kann.

Mit Inkrafttreten des Stromeinspeisungsgesetzes 1991 begann die finanzielle Förderung der Windenergie, zunächst als Umlage auf den Strompreis. Das blieb auf Grund einer geringen Anlagenzahl und der geringen Höhe der Umlage kaum bemerkt, bis das Erneuerbare Energien Gesetz (EEG) ab dem Jahr 2000 den Turbo des Ausbaus zündete.

Die Umlage stieg stark an (bis auf 6,5 Cent pro Kilowattstunde, ct/kWh, in 2021) und verteuerte den Strom, bis die Ampelregierung im Jahr 2022 aus kosmetischen Gründen die Förderung über den Strompreis beendete. Wir hätten sonst heute oft Haushalts-Strompreise jenseits der 40 ct/kWh. Die Subventionierung legte man auf den Staatshaushalt um. Nun wird der Stromkunde in seiner Funktion als Steuerzahler für die „Erneuerbaren“ zur Kasse gebeten. Im Jahr 2024 flossen so knapp 19 Milliarden Euro aus dem Staatshaushalt ab.

Dieses Geld ist nach Ablauf des Jahres weg, es diente zum Lebenserhalt, zur Zwangsbeatmung von Wind- und Solar-, Biomasse- und der wenigen Wasser- und Geothermieanlagen. Es wurde nicht investiv verwandt, sondern konsumtiv für den laufenden Bedarf dieser Anlagen.

Das finnische Kernkraftwerk Olkiluoto kostete über 11 Milliarden Euro. Der Bau war von vielen Rückschlägen, Verzögerungen und Kostensteigerungen geprägt und gilt der Erneuerbaren-Lobby als abschreckendes Beispiel und als Begründung, dass Kernkraft viel zu teuer sei. Allerdings wird dabei übersehen, dass nach dieser einmaligen Investition nun mindestens für 60 Jahre zu niedrigen Betriebskosten Strom bedarfsgerecht erzeugt wird. Das Endlager in der Nähe ist übrigens fertig.

Wir hingegen werden dauerhaft den Betrieb der „Erneuerbaren“ zwangsbeatmen müssen, solange die Erneuerbaren-Lobby ihren überragenden politischen Einfluss behält.

Theoretisch hätten die Umlagen/Subventionen für die „Erneuerbaren“ schrittweise zurückgeführt werden sollen, je besser die Anlagen entwickelt werden und damit einhergehend die Betriebskosten sinken. Das wäre eine durchaus sinnvolle Markteinführungshilfe einer neuen Technologie. Nun ist aber die Windkraftnutzung keineswegs neu, sie begann vor etwa 4.000 Jahren in Persien und ihr Aussterben im ausgehenden 19. Jahrhundert war vor dem Hintergrund der industriellen Entwicklung folgerichtig. Sicher verfügbare andere Technologien zur Energieumwandlung waren günstiger.

Nach dem EEG erhalten heute in Betrieb gehende Windkraftanlagen über einen 20-jährigen Garantiezeitraum eine finanzielle Förderung, das heißt, bis 2045. Setzt man als Beginn der Förderung dieser Technologie das Jahr 1991 an, so ergibt sich ein Gesamt-Förderzeitraum von mindestens 54 Jahren. Wenn eine Technologie nach so langer Förderung nicht marktfähig ist, wird sie es nie werden. Von toten Pferden sollte man absteigen.

Es ist aber Staatsräson und wird kritiklos von den etablierten Parteien hingenommen,

dass diese verstetigte Subventionierung auf lange Sicht fortgesetzt werden wird, es sei denn, Politiker sollten dereinst den Mut haben, strikte Entscheidungen zu treffen.

Dazu kommt, dass in der Realität die Anlagen immer marktferner werden. Auf Grund ihrer Vielzahl und der relativen Gleichzeitigkeit der Stromproduktion drücken sie den Strompreis bei gutem Wind in den Keller und könnten nur geringe Preise am Markt erzielen. Dagegen sind in windarmen Zeiten die Preise hoch, die Anlagen können dann aber nicht oder nur wenig liefern. Diese Selbstkannibalisierung lässt eine Marktfähigkeit in immer weitere Ferne rücken. Die Einnahmen über den Markt können steigende Pachtpreise, Anlagenkosten, Wartungskosten und Versicherungen nicht mehr erwirtschaften.

Jede Forderung, die Einspeisevergütung zu verringern, wird von der Branche nahezu hysterisch bekämpft. Das passt natürlich nicht zur Theorie des „günstigen“ Erneuerbaren-Stroms, die uns das DIW und andere wiederholt präsentieren. Das Gegenteil ist der Fall. Im Schatten des Weihnachtsbaums und der öffentlichen Aufmerksamkeit wurde Ende Dezember 2022 in den Ausschreibungsbedingungen die Untergrenze für die Vergütung des Windkraftstroms auf 7,35 ct/kWh angehoben, um satte 25 Prozent, weil die Anzahl der Gebote auf die Ausschreibungen zu gering war. Zudem erreichen über das Referenzertragsmodell des EEG Anlagen in Süddeutschland bis zu 11,31 ct/kWh, eine volkswirtschaftlich absolut unsinnige Regelung. Sicher wird auch in anderen Ländern die Windkraft ausgebaut, aber eben nicht in windarmen Gegenden und dann noch besonders hoch subventioniert.

Die rotgrünen Angriffe auf die Schuldenbremse dienen auch dazu, die dauerhafte finanzielle Hilfsenergie für die „Erneuerbaren“ zu sichern – auf Kosten der nachfolgenden Generationen und mit der Folge steigender Inflation. Unsere Kinder und Enkel werden zahlen für den heutigen unwirtschaftlichen Betrieb von Windkraftanlagen, selbst wenn es diese dann gar nicht mehr gibt.

Genießen im Streichelzoo

Bis zur Einführung von Ausschreibungsverfahren im Jahr 2017 war das Gelddrucken in der Windbranche relativ bequem. In einem lichten Moment führte der damalige Wirtschaftsminister Altmeier das Ausschreibungsverfahren für die „Erneuerbaren“-Anlagen in das EEG ein, deckelte die Einspeisevergütungen und sorgte für einen Hauch von Wettbewerb. Nach einigen schwachen Jahren zieht der Wind-Boom nun durch die angehobene Vergütung wieder an und sorgt für steigende Subventionszahlungen.

Für die Behauptung, Windkraft und Fotovoltaik seien die „günstigsten“ Energiequellen, zieht man verschleiernd die reinen Strom-Gestehungskosten heran, ohne Berücksichtigung der Subventionierung und der systemischen Folgekosten. Jede Windkraftanlage braucht ein hundertprozentiges Backup für die Flautezeiten. Streng genommen ist die Versorgungssicherheit sogar negativ, wenn man bedenkt, dass die Anlagen während des Stillstands, also zu Zeiten ohnehin knappen Stroms, diesen noch aus dem Netz ziehen, um ihre Anfahrbereitschaft zu erhalten.

Die steigenden Kosten des Stromsystems werden weiterhin sozialisiert, damit die „Erneuerbaren“-Hersteller und –Betreiber ungestört ihr einträgliches subventioniertes Geschäft betreiben und die Gewinne privatisieren können.

Wenn also der Erneuerbaren-Strom so günstig ist, warum bedarf es der EEG-Umlage und warum reicht selbst das nicht aus? Die Förderung besteht aber nicht nur aus Geld, sondern aus mehreren geldwerten Vorteilen:

– Der Einspeisevorrang sichert die Abnahme des erzeugten Stroms, auch wenn er nicht gebraucht wird, sogar wenn die Marktpreise negativ sind.

– Sollte der Strom aus Gründen des Abtransports (Netzrestriktionen) nicht abgenommen werden können, wird der Phantomstrom, der hätte erzeugt werden können, zu 90 Prozent entschädigt.

– Der Netzanschluss wird über die Netzentgelte durch die Allgemeinheit finanziert. Auch Anlagen mit langen Zuleitungen, also an der letzten Michkanne, müssen durch die Netzbetreiber verpflichtend und zu hohen Kosten angeschlossen werden.

– Die Anlagenbetreiber tragen keinerlei Systemverantwortung, sie werden zu Systemdienstleistungen wie Frequenz- und Spannungshaltung nicht verpflichtet. Sie erzeugten im vergangenen Jahr 33 Prozent der Nettostromproduktion, tragen aber genau null Prozent Systemverantwortung.

Das sollte reichen für ein einträgliche Wind-Geschäft. Im Grunde verbleibt nur ein einziges, dafür großes Risiko: der Wettergott.

„Satans Erbarmen“

Richard Wagner ließ im „Fliegenden Holländer“ den Kapitän Daland singen: Wer baut auf Wind, baut auf Satans Erbarmen! Der Satan meinte es im nun vergangenen Winter nicht gut mit den Windbaronen. „Windkraft-Betreiber schlittern in die Krise“, schrieb finanzmarktwelt.de schon am 2. Februar. Drei Dunkelflauten im November und Dezember und Schwachwind im Januar und Februar ließen die Einnahmen sinken, während die Ausgaben für Pachten, Kredite, Wartung und Reparaturen bleiben oder sogar steigen.

Die Wintermonate November/Dezember 2024 und Januar/Februar 2025 brachten nahezu katastrophale Erträge. Sie sind etwa so niedrig wie in den Vergleichsmonaten 2022/2023, allerdings bei 7 Gigawatt mehr installierter Leistung. Der Ausnutzungsgrad (Vollastanteil) sank von 36,0 Prozent im Vorjahreszeitraum auf 26,4 Prozent. Der Satan ist halt launisch. Die These, Wind- und Solarenergie würden sich über die Jahreszeiten ergänzen, ist theoretisch richtig, praktisch aber nicht belastbar. In diesen Monaten haben beide schlecht geliefert.

Die Bilanzen und Bewertungen betroffener Firmen geben Anlass zu unternehmerischer Sorge. Über dieses Portal lassen sich Bewertungen zu den Bilanzen und Ausblicke einsehen. Am Beispiel der Enercon GmbH sieht man ein drastisch gesunkenes Anlagevermögen, Liquiditätsprobleme und ein hohes Investorenrisiko. Im vollständigen Jahresabschluss weisen die Abschlussprüfer explizit auf eine Bestandsgefährdung hin. Windparks sollen verkauft werden, wohl auch, um mehr als 440 Millionen Euro aus dem Wirtschaftsstabilisierungsfond im Jahr 2026 zurückzahlen zu können. Hätten die Anteilseigner nicht bereits über 200 Millionen Euro zugeschossen, wäre die Gesellschaft wohl schon heute zahlungsunfähig. Mit einiger Wahrscheinlichkeit werden wir noch Rufe nach einem „Rettungsschirm“ oder anderen lebenserhaltenden Maßnahmen für die Windkraft hören.

Trotz der beschriebenen staatlichen Rundumfürsorge sind die Aussichten auf die Heranführung der Windkraft an den Markt schlechter denn je. Auch in Dänemark, noch vor Deutschland das Mutterland der Windkraft, scheiterte der Versuch der Marktintegration. Eine Ausschreibung von Flächen in der Nordsee ging grandios daneben, obwohl die Bedingungen dort günstig sind, nah an der Küste bei geringen Wassertiefen. Das Auktionsdesign sei „abschreckend“ gewesen, urteilte die Branche. Es hätte keinerlei staatliche Förderung gegeben, keine Garantien für einen Strom-Mindestpreis. Obendrein wollte der Staat daran verdienen, eine Konzessionsabgabe für 30 Jahre wurde gefordert und der Netzanschluss sollte selbst bezahlt werden. Vor dem Hintergrund steigender Anlagenpreise und fehlender Stromabnahme-Garantie ging folgerichtig kein einziges Gebot ein.

Dieser Versuch unserer gemütlichen Nachbarn, Windkraft unter Marktbedingungen zu nutzen, ging also gründlich schief. Ein Umdenken hat bereits eingesetzt. Copenhagen Atomics arbeitet an der Entwicklung von Salzschmelze-Reaktoren und die Regierung erwägt den Einstieg in die Kernkraft mit Reaktoren der neuesten Generation.

Dünner Wind

Warum wird es auch dauerhaft und mit weiter optimierten Windkraftanlagen nicht gelingen, Wirtschaftlichkeit am Markt zu erreichen? Zum einen ist es die fehlende bedarfsgerechte Produktion, zum anderen die geringe Energiedichte des Windes und der daraus folgende gigantische Materialaufwand, der zu einem unzureichenden Erntefaktor (EROI) führt. Dieser gibt an, wie viel Energie über die Lebensdauer einer Anlage gewonnen werden kann im Vergleich zur Energie, die für Bau, Betrieb und Entsorgung aufgewendet werden muss. Während bei Kernkraftwerken dieser Quotient bei etwa 100 liegt, kommt die Windkraft auf nur 4 – 16.

Das heißt nicht, dass Windkraftanlagen grundsätzlich unwirtschaftlich sind. Moderne Anlagen an sehr windgünstigen Standorten an Küsten wie an der marokkanischen Atlantik- oder der kalifornischen Pazifikküste produzieren zu sehr niedrigen Gestehungskosten und solange die Kosten der Netzintegration überschaubar bleiben und Stromspeicherung weitgehend vermieden werden kann, ist das volkswirtschaftlich auch sinnvoll. In der germanischen Einöde allerdings mit begrenzten Küstenstreifen eines Randmeeres Nordsee und eines Binnenmeeres Ostsee bleibt die Wirtschaftlichkeit schon auf Grund mangelnden Windaufkommens weitgehend aus.

Grüne Expert*_Innen

Fachfrauen wie Katrin Göring-Eckhard prognostizierten, dass der Strom billiger werden würde, wenn mehr „Erneuerbare“ ins Netz einspeisen. Ein Blick auf die Entwicklung des Ausbaus dieser und die Entwicklung der Strompreise seit 2000 sollte sie eigentlich stocken lassen, aber die Dame ist hochspezialisiert und hat auch erkannt, dass Atomstrom die Netze verstopft. Allerdings gilt das nur für den deutschen Atomstrom, nicht für den aus den Niederlanden, Belgien, Frankreich, der Schweiz, aus Tschechien und Schweden, den wir in den vergangenen Monaten in größerer Menge importierten. Das ist ein interessantes elektrophysikalisches Phänomen, welches uns die grüne Fachfrau sicherlich noch erklären wird.

Auch die Behauptung, der Atomstrom sei zu teuer, wird von der Realität widerlegt. Wenn dem so ist, warum importieren wir ihn dann in großem Umfang?

Am Ende der Energiewende steht eine Lose-lose-Situation, bei der alle Beteiligten, auch die der gepriesenen „Erneuerbaren“, als Verlierer vom Platz gehen werden. Historische Vergleiche hinken. Aber immerhin gibt es eine Analogie. Mit landesweit verstreuten Windkraftanlagen kann die Energieversorgung genauso wenig gesichert werden wie seinerzeit die Stahlproduktion bei Maos „Großem Sprung“ dezentralisiert werden konnte. Die Gemeinsamkeit und der Fehler bei beiden Ansätzen ist: Sie sind ideologiegetrieben.