Windenergie in der Krise – Teil 1: In Deutschland stockt der Ausbau

von Alex Reichmuth; Nebelspalter

Die deutsche Windkraftbranche muss Rückschlag um Rückschlag hinnehmen. Es werden kaum mehr neue Turbinen gebaut, und immer mehr alte Windräder fallen aus der Förderung. Jetzt fordern Windenergie-Lobbyisten, die Regeln für Neubauten zu lockern.

Im Freistaat Bayern läuft fast gar nichts mehr in Sachen Windkraft. Gemäss einem Bericht des bayerischen Wirtschaftsministeriums ist der Ausbau seit einigen Jahren nahezu null. Der Anteil der Windenergie an der Stromproduktion ist inzwischen sogar rückläufig. «Die Windkraft ist in Bayern mausetot«» beklagte sich der Grünen-Politiker Martin Stümpfig.

Der bayerische Ministerpräsident Markus Söder hatte 2019 noch versprochen, in den Staatswäldern hundert neue Windräder aufstellen zu lassen. Aber laut dem Wirtschaftsministerium ist bisher noch kein einziger Antrag für ein solches Windrad eingegangen. Die Grünen fordern darum, die sogenannte 10H-Regel abzuschaffen, wonach der× Abstand zwischen neuen Windrädern und der nächsten Wohnsiedlung das Zehnfache der Anlagenhöhe betragen muss. Moderne Windräder sind 200 Meter hoch, was einen Abstand von zwei Kilometern nötig macht. Das verunmöglicht viele Projekte.

Die installierte Windenergieleistung in Deutschland ist zuletzt kaum mehr gestiegen. Quelle: Windguard

Windenergie Deutschland Zuwachs. Quelle Windguard.PNG

Auch bundesweit ist der Ausbau der Windenergie ins Stocken geraten. 2016 wurden in Deutschland 4625 Megawatt (MW) an neuen Windkraft-Kapazitäten installiert, 2017 sogar 5334 MW. Das entspricht vier bis fünf grossen Kohlekraftwerken. 2018 fiel der Ausbau auf 2402 MW, 2019 sogar auf nur noch 1078 MW. Auch letztes Jahr lag die neu installierte Leistung mit 1431 MW weit unter dem Ziel der Bundesregierung von jährlich 2800 MW neuer Windkraft-Leistung (siehe Grafik).

Enorme Gegenwehr der Bevölkerung

Langwierige Planungs- und Genehmigungsverfahren stehen dem Ausbau der Windenergie im Weg. Es gibt zu wenig ausgewiesene Flächen für mögliche Standorte und zu viele Klagen gegen Projekte. Der Widerstand gegen den Bau von Windkraftanlagen ist an vielen Orten enorm. Unzählige Naturschutzgruppierungen und Bürgerinitiativen sehen die Landschaft× beeinträchtigt, die Gesundheit bedroht oder seltene Vögel in Gefahr und kämpfen mit allen Mitteln gegen neue Windräder. Oft sind auch die politischen Spitzen von Kommunen und Ländern gegen Lockerungen bei der Ausscheidung von Windkraft-Standorten.

Erschwerend für die Zukunft der Windenergie kommt dazu, dass vielen Anlagen die Abschaltung droht. Denn das deutsche Erneuerbare-Energien-Gesetz, das seit 2000 in Kraft ist, sichert den Betreibern von Windanlagen während zwanzig Jahren eine sichere Vergütung zu. Für tausende Anlagen läuft diese Frist in den nächsten Jahren aus. Dann sind sie nicht mehr profitabel. Bis 2025 drohen darum 15’000 MW Leistung wegzufallen, was über einem Viertel der in Deutschland installierten Windleistung an Land entspricht.

Bis 2025 drohen 15’000 MW Leistung wegzufallen, was über einem Viertel der in Deutschland

installierten Windleistung an Land entspricht.

Technisch wäre ein Weiterbetrieb zwar auch nach 20 Jahren möglich. Aber ohne gesicherte Entschädigung fällt es vielen Anlagebetreibern schwer, sich am Markt zu behaupten. Beim derzeit niedrigen Preisniveau für Strom sind sie kaum wettbewerbsfähig. Schon gibt es Appelle an die Bundesregierung, finanzielle Mittel zu sprechen, um die Anlagen weiter laufen zu lassen.

«Wir steuern auf eine Katastrophe zu»

Im Bundesland Niedersachsen stehen besonders viele Windräder. Olaf Lies, der Energie- und Umweltminister, hat ermitteln lassen, in welchem Umfang Windkraft-Kapazitäten in Niedersachsen ersatzlos vom Netz gehen könnten, weil die Einspeisevergütung für Strom nach 20 Jahren Betrieb endet. Es sind bis 2025 etwa 3500 Windräder mit einer totalen Leistung von 4300 MW. «Wir steuern auf eine Katastrophe zu», sagte Lies gegenüber dem «Handelsblatt».

Er appellierte an Bundeswirtschaftsminister Peter Altmaier, sich intensiver um die erneuerbaren Energien zu kümmern. «Wenn der Bund nicht die Reissleine zieht, steht Deutschland vor einem gigantischen Rückbau von Windenergie mit allen Folgen für eine beseitigen. Repowering bedeutet, alte Anlagen durch neue, leistungsstärkere zu ersetzen.× CO2-freie Stromerzeugung», so Lies. Er möchte insbesondere die Hürden für das Repowering verringern.

Dieses Repowering scheitert heute oft an Höhenbegrenzungen für neue Anlagen, sowie an Vorgaben des Arten- und des Immissionsschutzes. «Wir fordern eine nationale Repoweringstrategie, die die dringend benötigten Bestandsflächen sichert und erhält sowie Genehmigungen für Vorhaben vereinfacht und beschleunigt», sagte Hermann Albers, Präsident des Bundesverbands Windenergie, gegenüber dem «Handelsblatt».

«Wenn der Bund nicht die Reissleine zieht, steht Deutschland vor einem gigantischen Rückbau von Windenergie mit allen Folgen für eine CO2-freie Stromerzeugung.»

Olaf Lies, Energie- und Umweltminster Niedersachsen

Generell verlangt die Windkraft-Lobby Lockerungen bei den Vorschriften für den Bau neuer Anlagen. So sollen mehr Zonen für Windkraftanlagen ausgeschieden werden, auch im Wald. Unter Beschuss sind zudem die Regeln, wie weit Anlagen von bewohntem Gebiet entfernt sein müssen.

Kampf um Mindestabstände

So plant die Regierung des Bundeslandes Hessen, zwei Prozent der Landesfläche zu Windvorranggebieten zu erklären. Das hätte gravierende Folgen für die letzten ungestörten Wälder und das Landschaftsbild, heisst es beim hessischen Verband Naturschutz-Initiative. Vor allem die Errichtung von Windkraftanlagen im weitläufigen Pfälzerwald bedeute «einen weiteren Tabubruch der rot-grün-gelben Koalition zugunsten der Windkraftindustrie».

Im Bundesland Nordrhein-Westfalen tobt ein Kampf um Abstandsregeln. Eine von der Landesregierung vorgesehene Regelung sieht einen Mindestabstand von tausend Metern zu Wohngebieten vor. Die Kommunen könnten aber einen geringeren Abstand zu Windrädern zulassen. Die tausend Meter seien viel zu restriktiv, monieren grüne Politiker. Es sei «absehbar, dass viele Kommunen unter dem Druck einer lauten Minderheit den Mindestabstand auch zu Splittersiedlungen» nicht unterschreiten wollten, so die Grünen. Ob×   die Landesregierung nachgibt, bleibt abzuwarten. Immerhin hat sie verkündet, die Kapazität der installierten Windkraftanlagen in Nordrhein-Westfalen bis 2030 auf 10’500 Megawatt verdoppeln zu wollen.

Wegen eines «windarmen Frühjahrs» haben die fast

30.000 deutschen Windräder im ersten Quartal 2021 fast ein Drittel weniger Energie erzeugt als letztes Jahr.

Zu allem Ungemach für die Windkraft-Branche kommen jetzt auch noch schlechte Zahlen, was die Stromproduktion angeht. Wegen einem «windarmen Frühjahr» haben die fast 30’000 deutschen Windräder im ersten Quartal 2021 fast ein Drittel weniger Energie erzeugt als letztes Jahr, teilte das Statistische Amt mit. Es resultierte der niedrigste Wert seit 2018. Gefüllt wurde die Lücke durch eine höhere Stromerzeugung aus Kohle- und Erdgaskraftwerken. Kritiker der Energiewende, die vor der schwankenden Produktion erneuerbarer Energie warnen, sehen sich bestätigt.

Der Beitrag erschien zuerst im Nebelspalter hier




Schwedens lockerer Weg – Medien-Framing und RealitätKeine Übersterblichkeit 2020

von Prof. Dr. Thomas Rießinger

Glaubt man Teilen der deutschen Presse, so gibt es in Europa kein bedauernswerteres Volk als das schwedische. Ausgeliefert einer verantwortungslosen politischen Kaste und nicht geschützt durch alternativlose harte Maßnahmen, werden die Schweden sehenden Auges ins Unglück und in die Katastrophe getrieben. So wurde man beispielsweise im April beim Südwestdeutschen Rundfunk mit der freundlichen Überschrift „Corona in Schweden: Der Sonderweg ist gescheitert“ erfreut, und bei T-Online konnte man im Mai lesen, Schweden zahle für seinen Sonderweg in der Pandemie einen hohen Preis und die Lage habe sich deutlich zugespitzt. Grund genug, einen Blick auf die Situation in Schweden zu werfen.

Dass man dort im Frühjahr 2020 Fehler im Umgang mit den Alten- und Pflegeheimen begangen hat, bestreitet niemand, im Gegenteil: Man hat die Fehler erkannt, zugegeben und korrigiert – eine Verhaltensweise, die man sich von deutschen Politikern, Modellierern und Virologen ebenfalls wünschen würde, aber nur selten zur Kenntnis nehmen darf. Dennoch zeigt eine Untersuchung der schwedischen Todesfall-Statistik, dass von einer Übersterblichkeit im Jahr 2020 keine Rede sein kann. In einem früheren Beitrag bin ich zu folgenden Ergebnissen gekommen, die hier nur kurz aufgelistet werden; ihre Herleitung kann man in dem damaligen Beitrag nachlesen.

Dass die absolute Zahl der Sterbefälle 2020 auf den ersten Blick hoch erscheint, liegt an dem außerordentlich milden Jahr 2019, dem daraus resultierenden Nachholeffekt im Jahr 2020 und der Entwicklung der Bevölkerungszahlen.

Berücksichtigt man die Anzahl der Einwohner eines jeweiligen Jahres sowie die Verteilung der Altersgruppen auf die Menge aller Einwohner, so liegt 2020 im Hinblick auf die Sterblichkeit auf dem fünften Platz der Jahre 2006 bis 2020. Zehn Jahre waren härter.

Betrachtet man auch noch die einzelnen Altersgruppen, so stellt sich heraus, dass die Sterblichkeitsraten 2020 in keiner Altersgruppe in irgendeiner Weise auffällig waren.

Nun sind bereits annähernd sechs Monate des Jahres 2021 ins Land gezogen, und man kann der Frage nachgehen, wie sich die Lage in Schweden seither entwickelt hat. Da in Deutschland seit Anfang November 2020 ein wie auch immer benannter Lockdown herrscht – zu Beginn nannte man es einen „Lockdown light“, später gab es Brückenlockdowns, härtere Lockdowns und eine „Osterruhe“, die aber zurückgenommen wurde, sobald man sie verkündet hatte; der Phantasie sind keine Grenzen gesetzt –, ist insbesondere ein Vergleich zwischen dem lockdownfreien Schweden und dem lockdowngequälten Deutschland von Interesse, soweit man ihn durchführen kann.

Eine immer wieder gern verwendete Datenquelle findet man bei Our World in Data, einer Online-Publikation der Oxford Martin School, die wiederum zur Universität von Oxford gehört. Sucht man hier nach der Anzahl der Covid-19-Fälle, umgerechnet auf die Einwohnerzahl, so stößt man auf die folgende Graphik für Schweden und Deutschland, abgerufen am 17. Juni 2021:

Die Darstellung beginnt am 1. November 2020, weil am 2. November Deutschland in die Lockdown-Starre versetzt wurde, Schweden jedoch nicht. Man kann leicht in der Original-Graphik überprüfen, dass in den drei vorherigen Monaten die Zahl der Fälle keineswegs weit auseinander lag, während vorher noch die Folgen der anfänglichen schwedischen Fehler zu spüren waren. Erst mit beginnendem Herbst gehen die Fallzahlen, wie die Graphik zeigt, deutlich auseinander.

Muss man daraus schließen, dass der schwedische Weg gescheitert ist? Keineswegs. Zunächst ist anzumerken, dass es sich hier nicht um wirkliche „Covid-19-Fälle“ handelt, sondern nur um die Anzahl der positiv Getesteten. Bis auf Politiker und Journalisten des öffentlich-rechtlichen Rundfunks sind inzwischen die meisten Menschen darüber informiert, dass zwischen beiden Gruppen ein großer Unterschied besteht, denn abgesehen vom üblichen Problem der falsch-positiven Testergebnisse gibt es die wegen eines zu hohen Ct-Wertes irrelevant Positiven und natürlich auch die asymptomatischen Fälle, die zwar eine messbare Viruslast in sich tragen, aber dennoch nicht krank werden. Man kann aufgrund der Messmethoden nicht feststellen, ob jemand eine relevante Virenlast trägt bzw. ob die irgendwann vielleicht einmal vorhandene relevante Virenlast nur noch eine Erinnerung an frühere Zeiten ist. Zudem sollte man nicht ganz vergessen, dass die Anzahl der positiven „Fälle“ stark davon abhängt, wie viele Probanden man testet: Je höher die Anzahl der Tests, desto mehr positive „Fälle“ wird man erwarten dürfen. Wie man in der entsprechenden Graphik von Our World in Data feststellen kann, wurden aber in Schweden ab November 2020 deutlich mehr Tests, umgerechnet auf die Bevölkerungszahl, durchgeführt als in Deutschland, zeitweise mehr als doppelt so viel. Das relativiert die Abstände, und es zeigt auch, dass direkte Vergleiche der bekannten und beliebten Inzidenzen genauso sinnlos sind wie direkte Vergleiche der Fallzahlen, da immer auch die Anzahl der Tests mit eingerechnet werden muss.

Etwas sinnvoller ist es somit, nicht die Gesamtzahl der Fälle in Betracht zu ziehen, sondern die Positivrate, die beschreibt, wie hoch der Anteil der positiven Fälle an der Gesamtzahl der Tests ist. Auch diese Rate kann man Our World in Data entnehmen, die folgende Graphik wurde am 17. Juni abgerufen.

Man sieht deutlich, dass sich der dramatische Unterschied stark reduziert, sofern man die Anzahl der Tests berücksichtigt und zur entsprechenden Positivrate übergeht. Ab Anfang April 2021 verlaufen die Kurven weitgehend gleich, vorher allerdings sind noch immer höhere schwedische Werte zu verzeichnen. Kann man nun aus den Daten zwischen November und Juni schon schließen, dass der schwedische Weg gescheitert ist?

Eher nicht. Noch immer handelt es sich nur um Fälle positiv Getesteter, diesmal eben in Relation gesetzt zur Anzahl der vorgenommenen Tests. Die oben angeführten Vorbehalte gelten noch immer mit Ausnahme des letzten, der die Verwendung der reinen Gesamtzahl positiver Testergebnisse moniert. Ein kleines Gedankenexperiment kann das noch verdeutlichen: Nehmen wir eine Variante an, die hochansteckend, aber im Hinblick auf die Symptome eher harmlos ist und bis auf wenige Ausnahmen nichts weiter hervorbringt als vertraute Erkältungssymptome. In diesem Fall kann die Positivrate gerne bis auf 100 % steigen – falls Karl Lauterbach das noch nicht weiß: mehr als 100 % geht nicht –, es liegt dennoch keine wie auch immer geartete Notsituation vor, nur eben eine weit verbreitete Erkältung. Man kann schon die entrüsteten Stimmen hören, die nun zornbebend vorbringen, es handle sich hier um einen klaren Fall von Corona-Leugnung oder doch wenigstens Verharmlosung. Es ist zwar schwer zu sehen, wie ein schlichtes fiktives Gedankenexperiment eine Leugnung darstellen soll, aber lassen wir der Einfachheit halber einen Virologen zu Wort kommen: „Wir werden sicherlich, wenn man das im Labor strikt messen würde, wenn man strikt so weiter testen würde, irgendwann der Auffassung, jetzt kommt so etwas wie eine vierte Welle. Aber die Frage ist, wie man die bewerten muss. Ist das überhaupt eine Welle, wenn das nur Labornachweise sind? Oder ist das eigentlich das erste Mal, der erste Winter einer saisonalen endemischen Situation? Natürlich wird die Fallzahl im Winter wieder hochgehen. Das kann auch schon im Herbst passieren. Aber das wird ab jetzt jeden Winter passieren. Und das ist dann keine pandemische Welle mehr, sondern es mag sein, dass man das im Nachhinein in ein paar Jahren interpretieren wird als: Das war der erste endemische normale Wintereffekt.“

Das entspricht im Wesentlichen der Aussage des fiktiven Szenarios und wurde im Juni 2021 auf einer bekannten Verharmloserplattform namens NDR von Christian Drosten vorgetragen. Selbst in den Augen des Hof- und Staatsvirologen scheint eine Positivenrate nicht mehr der Weisheit letzter Schluss zu sein.

Um es zusammenzufassen: Während die Betrachtung der Gesamtzahl positiver Fälle, ob man sie nun in einer Inzidenz misst oder nicht, völlig sinnlos ist, dürfte die Betrachtung der Positivraten zwar nicht mehr völlig, aber nur wenig sinnvoll sein. Immerhin sieht man an beiden Kurvenverläufen die unglaubliche Weisheit unserer rechenstarken Regierungschefin. Vor kurzem verkündete sie: „Die derzeit deutlich sinkenden Infektionsraten machen Mut und zeigen, wie sehr unsere Maßnahmen und Verhaltensregeln wirken.“ Wer hätte gedacht, dass die deutschen Maßnahmen und Verhaltensregeln sogar in Schweden zu einem zeitgleichen Abfall führen, obwohl sie dort nicht gelten?

Aber gibt es denn ein brauchbares Kriterium zur Beurteilung der Lage? Das gibt es, und die höchstrangige Herrscherin unserer radikal reduzierten Republik hat uns tatsächlich deutlich darauf hingewiesen. Im April 2020 hat sie in einer Bundestagsrede zwar wieder auf den „rapiden Anstieg der Infektionen“ aufmerksam gemacht und damit gezeigt, dass sie den Unterschied zwischen Infektion und einem positiven Testergebnis auch nach einem Jahr noch nicht verstanden hat – sie gab aber auch den vielzitierten Satz von sich, die Hilferufe der Intensivmediziner würden sie täglich erreichen: „Wer sind wir denn, wenn wir diese Notrufe überhören würden?“ Die Frage, wer „wir“ – also die politische Riege – wirklich sind, möchte ich lieber unbeantwortet lassen. Tatsache ist aber, dass hier auf eines der mehr oder weniger harten Kriterien zur Lagebeurteilung hingewiesen wurde, nämlich auf die wirkliche Zahl der Patienten, insbesondere auf die Zahl der schwer erkrankten Patienten, die Intensivbetten belegen. Und Tatsache ist auch, dass Deutschland mit dem Hinweis auf die Intensivbettenbelegung seit November in den Lockdown getrieben wurde.

Sehen wir einmal davon ab, dass noch immer nicht zwischen „an“ und „mit Covid-19“ unterschieden wird, weshalb auch beispielsweise ein auf der Intensivstation liegender Herzinfarkt-Patient, der zwar einen positiven Test erhalten hat, aber nicht im Mindesten an Covid erkrankt ist, zu den schweren Covid-Fällen gezählt wird. Sehen wir weiter davon ab, dass die in Deutschland gemeldeten Belegungszahlen der Intensivbetten nach Auffassung des Bundesrechnungshofes von den Meldenden ein wenig in ihrem Sinne interpretiert, um nicht zu sagen manipuliert wurden: Nehmen wir die von Our World in Data gelieferten Daten, wiederum abgerufen am 17. Juni, einfach für bare Münze.

Es ist nicht zu übersehen: Umgerechnet auf die jeweilige Bevölkerungszahl waren seit November in Schweden weniger Intensivbetten mit Covid-Patienten belegt als in Deutschland. Und das galt nicht nur seit Anfang November, sondern, wie man an der Originalgraphik sofort ablesen kann, seit Mitte August, als man in Schweden die Folgen der anfänglichen Fehler überwunden hatte. Man hatte dort keinen Lockdown, man hat die Menschen nicht gezwungen, sich Masken vor das Gesicht zu binden, und trotzdem verlaufen die beiden Kurven nicht nur parallel – die schwedische Kurve liegt durchgängig unter der deutschen, die Belegung der Intensivbetten pro Einwohnermillion war und ist niedriger. Noch einmal: Die Belegung der Intensivbetten war ein wichtiger Grund, die Deutschen einer lang andauernden Freiheitsberaubung zu unterziehen, und nun stellt man fest, dass anderenorts eben diese Belegung ohne freiheitsentziehende Maßnahmen einen günstigeren Verlauf genommen hat.
Nun könnte das vielleicht daran liegen, dass man in Deutschland Patienten schneller in eine Intensivstation verlegt als in Schweden und in Wahrheit die Zahl der Covid-Todesfälle in Schweden deutlicher höher liegt als hierzulande, nur dass nicht auf der Intensivstation, sondern anderswo gestorben wird. Das lässt sich überprüfen, wobei wieder das Problem, ob es sich um echte Covid-Todesfälle oder um Todesfälle im Zusammenhang mit einem positiven Test außer Acht gelassen wird; die vorliegenden Daten treffen keine solche Unterscheidung.


Die Kurven sind nicht leicht auseinander zu halten, was an der von
Our World in Data vorgegebenen Farbgestaltung liegt. Das würde aber überhaupt nicht auffallen, wenn die beiden Kurven nicht fast durchgängig gleichläufig wären. Mit Ausnahme weniger Tage im Dezember, als die deutschen Zahlen deutlich über den schwedischen lagen, und einiger Tage im Januar, als es umgekehrt war, sind die Kurven fast deckungsgleich, wobei seit Februar Schweden stets etwas besser davonkommt als Deutschland. Und schon wieder sehen wir, wie sich auf wundersame Weise die Wirksamkeit der deutschen Maßnahmen einfach über die Ostsee schwingt und dafür sorgt, dass auch die Schweden trotz ihres Sonderweges davon profitieren.

Bisher ist, wie es scheint, kein nennenswertes Indiz für ein aktuelles Scheitern des schwedischen Weges zu entdecken. Aber könnte es nicht sein, dass die schwedische Politik, um ihr Versagen zu kaschieren, an Covid-19 Verstorbene einfach umdeklarieren ließ, damit die hohen Todeszahlen nicht auffallen? Betrachtet man die Handlungsweise der deutschen Regierung, so wird man keine Schlechtigkeit ausschließen wollen, und warum sollten schwedische Politiker besser sein als deutsche? In diesem Fall müsste aber eine allgemeine Übersterblichkeit vorliegen, die sich in der Statistik der allgemeinen Todesfälle niederschlagen würde. Für das Jahr 2020 war das nicht der Fall, ich hatte es eingangs bereits erwähnt. Und 2021? Bisher liegen beim statistischen Zentralamt Schwedens die Daten der Todesfälle für Januar bis April 2021 vor, wenn auch nicht nach Altersgruppen aufgeschlüsselt. Man sieht sie in der folgenden Tabelle, ebenfalls abgerufen am 17. Juni.

Einschließlich der 107 Todesfälle, die man keinem Monat zuordnen kann, sind insgesamt 32.861 Sterbefälle für die Zeit von Januar bis April zu verzeichnen. Für sich genommen, besagt diese Zahl wenig, solange man sie nicht vergleicht mit den Daten der schwedischen Sterbestatistiken vergangener Jahre. Das statistische Amt stellt monatsgenaue Daten zur Verfügung, wobei allerdings die Aufteilung in Altersklassen fest vorgegeben ist und daher nicht variiert werden kann. Ebenfalls bekannt ist die Aufteilung der Bevölkerung zu Beginn des Jahres 2021 auf diese Altersklassen, ebenso wie die Aufteilung in früheren Jahren; ich führe hier nur die Werte für 2021 an.

Nun kann man, wie ich es schon in meinem Beitrag zu den schwedischen Sterblichkeitszahlen für 2020 vorgerechnet hatte, für die Jahre von 2006 bis 2020 bestimmen, wie hoch der prozentuale Anteil der Verstorbenen an der Gesamtbevölkerung der jeweiligen Altersklasse ist, bezogen auf die Monate Januar bis April. Da es in jedem Jahr eine geringe Zahl von Todesfällen gibt, die man keinem Monat zuordnen kann, wurden diese Fälle gleichmäßig auf die einzelnen Jahresmonate verteilt; für die Gesamtbetrachtung spielen sie allerdings keine Rolle.

In den ersten vier Monaten des Jahres 2013 sind also beispielsweise 0,509 % der Bevölkerung der Altersklasse 65–74 verstorben.
Nun kann man die Sterbedaten von 2021 mit den Daten vorhergehender Jahre vergleichen, indem man die demographische Entwicklung in Rechnung stellt. Bei einer prozentualen Verteilung der Sterberaten wie im Jahr 2006 wären zum Beispiel 2021 in der Altersklasse 65–74 0,567 % der entsprechenden Bevölkerung von Januar bis April verstorben. In dieser Klasse befanden sich 1.087.351 Menschen, was zu einer Zahl von etwa 6.165 Todesfällen führt. Bestimmt man diese Zahlen für jede Altersklasse und addiert anschließend, so weiß man, wie viele Todesfälle es 2021 gegeben hätte, wenn man die Verteilung der Sterberaten des Jahres 2006 zugrunde legt. Dieses Vorgehen ergibt für die Jahre von 2006 bis 2020 die folgenden Werte, wobei nicht mit den gerundeten Prozentsätzen, sondern mit weiteren Nachkommastellen gerechnet wurde.


Hätte somit 2021 die gleichen nach Altersklassen aufgeteilten Sterblichkeitsquoten wie 2007 vorgelegen, so wären 39.305 Todesfälle zu erwarten gewesen, bei Quoten wie 2019 dagegen nur 32.165, alle anderen Jahre lagen dazwischen. Gestorben sind von Januar bis April nach den vorliegenden Daten 32.861 Menschen. Damit liegen die vier ersten Monate des Jahres 2021 auf dem zweiten Platz nach dem extrem milden Jahr 2019, und sie liegen weit entfernt von hohen Werten, wie sie etwa 2007 vorkamen. Ein Hinweis auf eine allgemeine Übersterblichkeit ist das nicht.

Es ist nicht übermäßig sinnvoll, auch die Werte einzelner Monate auszurechnen, da ein Monatszeitraum zu kurz ist, um viel auszusagen, es sei denn, man möchte überprüfen, ob extreme Ausreißermonate vorlagen. Das kann man mit der beschriebenen Methode problemlos tun. Dabei stellt sich heraus, dass der Januar 2021 kein milder Monat war, allerdings auch kein extremer Ausreißer: Die Jahre 2006 und 2009 waren härter, 2007 war annähernd gleich, die anderen Jahre waren milder. Dagegen zeigen die Monate Februar bis April ein völlig anderes Bild, denn in den Jahren von 2006 bis 2020 gab es in den entsprechenden Monaten keine niedrigeren Werte als 2021 – immer unter der Voraussetzung, dass man die Sterbequoten der früheren Jahre auf die Bevölkerungszahlen von 2021 anwendet und so die demographische Entwicklung berücksichtigt. Im Januar hat es daher ungewöhnlich viele Todesfälle gegeben, in den darauf folgenden drei Monaten allerdings außerordentlich wenige, was insgesamt die höhere Januarzahl ausgleicht und zu einem sehr milden Verlauf für die ersten vier Monate des Jahres 2021 führt.

Die Ergebnisse lassen sich leicht zusammenfassen: Bei allen relevanten Kenngrößen – Fallzahlen gehören nicht dazu und Positivraten nur sehr bedingt – hat Schweden keine auffälligen Werte. Die Belegungsquote der Intensivbetten mit Covid-Patienten, umgerechnet auf die Bevölkerung, ist niedriger als in Deutschland. Die Zahlen der an oder mit Covid-19 Verstorbenen pro Einwohnermillion haben sich in der gesamten Zeit des deutschen Lockdowns seit November 2020 genauso entwickelt wie die entsprechenden deutschen Zahlen. Im Jahr 2020 gab es keine Übersterblichkeit. Und die ersten vier Monate des Jahres 2021 haben im Hinblick auf die Sterblichkeit einen milden Verlauf zu verzeichnen.

Wer wird angesichts dieser Daten noch bestreiten können, dass der deutsche Weg gescheitert ist? Im Grunde jeder, mit Ausnahme mancher Politiker und mancher Journalisten des öffentlich-rechtlichen Rundfunks. Gescheitert ist nicht der schwedische Weg, sondern der deutsche Weg der Lockdowns und der Freiheitsberaubung ohne greifbaren Erfolg. Gescheitert ist der Weg der Grundrechtseinschränkungen und der verfassungswidrigen Gesetze. Gescheitert ist der Weg extrem einseitiger Beraterauswahl und maximaler politischer Inkompetenz. Gescheitert ist, um es kurz zu sagen, der Weg der bizarren Bundeskanzlerin. Es ist der Weg verantwortungslosen Vorgehens und vollständigen Versagens. Wie lange noch wollen sich die Menschen diesen Weg gefallen lassen?

Der Beitrag erschien zuerst bei Reitschuster.de hier




Es gibt keinen Klimanotstand durch CO2! Jetzt nicht, morgen nicht und übermorgen auch nicht.

– Zur Anhörung im Umweltausschuss des Deutschen Bundestages am 21.6.21

von Michael Limburg

Die Novellierung des gerade erst verabschiedeten „Klimaschutz“-Gesetzes ging am 24.6.21 planmäßig und im Schweinsgalopp über die Bühne. Die Novellierung war vom Bundesverfassungsgericht erst Ende März gefordert worden, weil die beanstandete Version – so der nur einseitig informierte und voreingenommene 1. Senat des BVerG- die Grundrechte zukünftiger Generationen zu sehr einschränke. Also auch von Menschen, die noch gar nicht geboren sind, und daher – weil keine Rechtssubjekte –gar keine Grundrechte haben.

Für die Regierenden war das Urteil aber eine sehr ersehnte Steilvorlage und sie ließen es sich nicht nehmen, es in rasendem Tempo umzusetzen. Doch es war – wie so vieles was seit einigen Jahren im Parlament läuft – eine Farce. Eine reine Schau.(1)

Karsten Hilse von der AfD nahm es daher – zu Recht, wie wir meinen – vor dem Plenum aufs Korn und redete Klartext.

Die Mitschrift der Rede finden Sie hier ab Seite 128 (Text: 30640). Interessant sind auch die Zwischenrufe

Weil aber schon im Vorfeld eine Menge Propagandagetöse erforderlich schien, gab es dazu eine öffentliche Anhörung im zuständigen Umweltausschuss zum Gesetzesvorschlag vom 21.6.21.

 

Die Anhörung, was soll sie bewirken und was bewirkt sie?

Dazu sollte man wissen, dass bei einer Anhörung viele, von den zuständigen Ausschuss-Mitgliedern vorgeschlagene, Sachverständige zu Wort kommen, die zu verschiedenen Aspekten der Gesetzesvorlage ihre fachliche Sicht vortragen. In diesem Falle waren es 10 Experten. Sie waren allesamt über Video zugeschaltet. Der Anhörungssaal selber, blieb, bis auf wenige Figuren, so gut wie leer. Pandemiebedingt, wie erklärt wurde.

Der eigentliche Sinn dieser Anhörungen ist, den Fach-Abgeordneten, die ja schlussendlich dem Plenum ihre Votenempfehlung vorgeben, das notwendige Wissen zu vermitteln, dass sie für ihre Meinungsbildung noch nicht haben, um diese auf eine sichere Grundlage zu stellen. In der Praxis bleibt das jedoch nur ein frommer Wunsch, denn normalerweise beeinflussen die Experten die Meinung der Ausschussmitglieder in keiner Weise. Es geschieht eher das Gegenteil:

„Komm´ mir nicht mit Fakten, meine Meinung steht“, war die Devise auch dieses Ausschusses.

Und so erging es auch dem wohl weltweit renommiertesten Wissenschaftler in Bezug auf die Interaktion von Materie mit Strahlung, also genau das, was in der Atmosphäre passiert, dem Physiker und emeritierten Princeton-Professor Will Happer.  Er war – wie die anderen- über Video zugeschaltet worden, allerdings mittels eines Programmes dessen richtige Bedienung keiner von der Verwaltung so recht kannte. Trotzdem lehnte die es vor der Sitzung ab eine kleine Generalprobe zu veranstalten. Sie wäre aber zwingend nötig gewesen, auch deswegen, weil nicht nur simultan übersetzt werden sollte, sondern weil Prof. Happer zur Verdeutlichung seiner Argumente vor Laien, extra 2 informative Folien zur Einblendung in sein Statement vorbereitet hatte. Das ging nun deutlich schief, weil niemand ihm sagen konnte, wie man das macht.

Somit war es wieder mal eine beschämende Vorstellung der real vorhandenen digitalen Fähigkeiten, man denke nur an die Digitalbeauftragte der Regierung, der Staatsministerin Dorothee Beer, sowie des höchsten deutschen Gremiums, des Deutschen Bundestages. Daher nichts neues unter der Sonne. Will Happer dachte sich seinen Teil.

Die Sitzung wurde dann vom Bundestag aufgezeichnet und per Livestream gesendet. EIKE hat die wichtigsten Statements herunter geladen und auf unseren YT-Kanal hochgeladen.

Hier sehen Sie das mündliche Statement von Prof. Happer – dieses war, wie alle anderen Einführungsstatements auch- auf 3 Minuten Redezeit begrenzt. Ebenso sehen Sie die folgenden zwei Frage – und Antwortrunden, die jeweils auf 5 Minuten Dauer begrenzt waren. Im Falle Happer wurde für die erste Frage – und Antwortrunde eine Ausnahme gemacht, um die fehlende Möglichkeit, die vorbereiteten Folien nicht angemessen zeigen zu können, und sie daher auf längere Weise verbal erklären zu müssen, zu ersetzen. Ihm wurden daher 8 Minuten gewährt, wofür der Ausschussvorsitzenden Dank gebührt.

Einige der anderen Statements – insbesondere von denen, denen die Einschränkungen, Gebote und Verbote nicht weit genug gingen- werden in einem nächsten Artikel verfügbar sein.

Im Nachgang erreichte Will Happer noch eine Fan-Email, die ich den Lesern nicht vorenthalten möchte:

From: C D <spam.naund@gmail.com>
Sent: Monday, June 21, 2021 4:54 PM
To: William Happer <happer@princeton.edu>
Subject: Climate Change

You are either a very demented old man or ExxonMobil is paying you very generous sums for spewing out your bullshit. I’m assuming the latter is the case. Could you please grant us the favor and die already? Didn’t your generation do enough damage already? I really hope you don’t have any children or grand-children that will judge you for your actions.

Good riddance.

Das schriftliche Statement im deutschen Wortlaut

Da jedem Experten zudem eingeräumt wurde auch ein schriftliches Statement abzgeben, bringen wir dieses in vollem Wortlaut.

„Ich bin Dr. William Happer, Professor für Physik, emeritiert an der Princeton University im Bundesstaat New Jersey der Vereinigten Staaten von Amerika.

Lassen Sie mich erklären, warum meine Kommentare heute ernst genommen werden sollten. Ich habe über 200 von Experten begutachtete wissenschaftliche Arbeiten veröffentlicht, viele davon über die Wechselwirkung von Strahlung mit Materie, der grundlegenden Physik, die bestimmt, wie Treibhausgase das Erdklima beeinflussen. Ich bin der Erfinder des Natriumleitsterns, der in den meisten neuen bodengebundenen Teleskopen verwendet wird, um die Verschlechterung astronomischer Bilder durch atmosphärische Turbulenzen zu messen und zu korrigieren.

Von 1990 bis 1993 war ich Direktor des Office of Energy Research des US-Energieministeriums, wo ich ein Forschungsbudget von rund 3,5 Milliarden Dollar betreute. Ein beträchtlicher Teil davon wurde in Richtung Umwelt- und Klimawissenschaften investiert.

Von 2018 bis 2019 war ich stellvertretender Assistent des Präsidenten und Senior Director für Emerging Technologien beim Nationalen Sicherheitsrat im Weißen Haus. Ich habe eine Reihe von wissenschaftlichen Auszeichnungen erhalten und bin Mitglied mehrerer wissenschaftlicher Gesellschaften, einschließlich der American Physical Society, der US National Academy of Sciences und der Philosophischen Gesellschaft.

Vor diesem Hintergrund weiß ich mehr als die meisten Wissenschaftler über die Funktionsweise von Treibhausgasen. Steigende Werte des wichtigsten anthropogenen Treibhausgases Kohlendioxid (CO2) führen zu einer geringen, wohltuenden Erwärmung des Erdklimas. Mehr CO2 wird der Land- und Forstwirtschaft und allem anderen photosynthetisch-begründeten Leben sehr guttun.

Die atmosphärischen CO2-Konzentrationen waren in unserer heutigen Zeit eine gefährlich niedrige geologische Periode, mit Hinweisen auf CO2-Mangel während des jüngsten glazialen Maximums

(https://www.jstor.org/stable/3374310?origin=JSTOR-pdf&seq=1#metadata_info_tab_contents, ohne Datum).

Pflanzen reagieren bereits sehr positiv auf den CO2-Anstieg des vergangenen Jahrhunderts. Zunehmende Konzentrationen von CO2 und anderen Treibhausgasen werden keinen Klimanotstand auslösen.

Dafür, dass ich dies sage, werden viele verlangen, dass ich „verpönt und verurteilt“ werde, ähnlich wie die Menschen im 15. Jahrhundert Deutschlands, die die Existenz von Hexen leugneten. In der einleitenden Approbation von Heinrich Kramers gefeierter Malleus Maleficarum (Der Hexenhammer) (http://www.malleusmaleficarum.org/table-of-contents/letter-of-approbation/) lesen wir:

Während einige, die die Verantwortung für die Seelen haben und Prediger des Wortes Gottes sind, so kühn sind, in Reden von der Kanzel öffentlich zu behaupten und zu erklären, ja, in Predigten an die Leute verkünden, dass es keine Hexerei gibt, oder dass diese Teufel die Menschen in keiner Weise belästigen oder Menschen oder Tieren Schaden zufügen können. Da ist es geschehen, dass infolge solcher Predigten, die sehr zu verurteilen sind, die Macht des weltlichen Arms bei der Bestrafung solcher Täter behindert hat, … (so dass die teuflischen Mächte Aufwind bekamen. Ergänzt von Rüdiger Stobbe)

Dieser fromme Unsinn geht noch einige Seiten weiter. Die Theologische Fakultät der Universität Köln unterzeichnete die Approbation im Jahr 1487 einstimmig. Das war 100% wissenschaftlicher Konsens — und 100% falsch. Die deutsche Reformation, die einige Jahrzehnte auf die Veröffentlichung von Malleus Maleficarum folgte, machte sie Sache noch schlimmer. Die lutherische und katholische Kirchen wetteiferten um die Rettung der Menschheit vor der Hexerei. Es gab unbestrittene weltliche (staatliche) Unterstützung für die Hexenverfolgungen. Als H. L. Mencken, der geradlinige amerikanische Journalist der ersten Hälfte des 20. Jahrhunderts, bemerkte:

Das ganze Ziel praktischer Politik ist es, die Bevölkerung in Alarmbereitschaft zu halten (und daher lautstark zu sein, um die Richtigkeit zu belegen) von einer endlosen Reihe von Kobolden, die meisten von ihnen imaginär.

Der Klimawandel ist der ultimative Kobold.

Das Klima hat sich seit Anbeginn der Welt verändert. Klima wird sich weiter verändern, solange die Welt existiert. Aber der Mensch hat wenig mit dem Klimawandel zu tun. Die Sonne erhitzt einen dynamischen, rotierenden Planeten Erde, auf dem komplizierte Wechselwirkungen zweier kolossaler, turbulente Fluidsysteme, Atmosphäre und Ozeane existieren. Flüssigkeiten sind in ihrer Dynamik notorisch unbeständig.

Viele von Ihnen kennen wahrscheinlich den Kommentar, der dem großen deutschen Physiker Werner zugeschrieben wird. Heisenberg:

Wenn ich Gott begegne, werde ich ihm zwei Fragen stellen: Warum Relativität? Und warum Turbulenzen?  Ich glaube wirklich, dass er nur für die erste Frage eine Antwort haben wird.

Das würdige, aber schwierige Ziel, den Klimawandel zu verstehen, wurde durch das politisch auferlegte Dogma verfestigt, dass CO2 der wichtigste „Regulator“ des Klimas ist. Das ist eindeutig falsch, da das Klima sich in nur den kurzen 12.000 Jahren unserer aktuellen Zwischeneiszeit dramatisch verändert hat. Der CO2-Gehalt scheint bis 1850 nahezu konstant gewesen zu sein, als die Konzentration um das Jahr 1850 zu steigen begann.  Gleichzeitig wurden bei der Verbrennung fossiler Energieträger erhebliche Mengen CO2 freigesetzt. Änderungen der Sonnenaktivität, vulkanische Aktivität, interne Variabilität der Atmosphäre und Ozeane müssen die früheren Veränderungen verursacht haben, von denen viele größer waren als die im letzten Jahrhundert beobachteten.

Die Erhöhung des CO2-Gehalts ist ein großer Vorteil für das photosynthetisch begründete Leben auf der Erde, aber seine Veränderungen haben nur sehr geringe Auswirkungen Einfluss auf das Erdklima. Dies geht deutlich aus den Aufzeichnungen der Erdgeschichte hervor. Ein großes Eiszeitalter trat im Ordovizium auf, als der atmosphärische CO2-Gehalt mehr als zehnmal höher war als heute. Der CO2-Gehalt in antarktischen Eisbohrkernen steigt und/oder sinkt, nachdem die Temperatur-Proxys = Indirekte Temperatur-Anzeiger steigen oder fallen. Während unserer aktuellen Eiszeit der letzten Millionen Jahre haben Temperaturänderungen CO2-Änderungen verursacht, nicht umgekehrt. CO2 ist nicht der Kontrollknopf für die Temperatur oder das Klima der Erde.

Es gibt keine theoretische Unterstützung dafür, dass CO2-Änderungen ein wesentlicher Faktor des Klimawandels sind. Eine sofortige Verdoppelung der CO2-Konzentration in der Atmosphäre, eine Erhöhung um 100 %, verringert die räumliche Wärmestrahlung nur um etwa 1%. In erster Näherung würde dies die Durchschnittstemperatur der Erde um etwas weniger als 1 C steigen lassen. Um größere Temperaturanstiege vorherzusagen, wurden fantasievolle positive Feedback den Klimamodellen hinzugefügt. Aber, wie das Prinzip von Le Chatelier zusammenfasst, sind die meisten Feedbacks in der Natur negativ, nicht positiv:

Wenn ein eingespieltes System gestört ist, passt es sich an, um die eingetretene Störung zu korrigieren.

https://en.wikipedia.org/wiki/Le_Chatelier%27s_principle, ohne Datum

Es ist wahrscheinlicher, dass Rückkopplungen die direkte Erwärmung von 1°C durch die Verdoppelung von CO2 reduzieren, als sie zu erhöhen. Beobachtungen stützen nicht die Behauptung, dass der größte Teil der im 20. Jahrhundert beobachteten Erwärmung um 0,8 °C auf CO2-Erhöhungen zurückzuführen ist. Der Temperaturanstieg von 1900 bis 1950, als es relativ wenig Zunahme des CO2 gab, war ungefähr gleich wie die Zunahme von 1950 bis 2000, als es eine viel größere CO2-Erhöhung gab. Ein Großteil des Temperaturanstiegs war Teil der natürlichen Erholung vom tiefen Temperaturen der Kleinen Eiszeit. Es gibt keinen Klimanotstand, genauso wenig wie den Hexennotstand vor 500 Jahren. Ich hoffe, die vernünftigen Mitglieder dieses Ausschusses werden die Fehler der Vergangenheit nicht wiederholen, indem sie sich für ´Lösungen` einsetzen, die hohe Kosten für Umwelt, Wirtschaft und die menschliche Freiheit bedeuten, um ein nicht vorhandenes Problem zu beseitigen.“

Der Originaltext von Prof. Dr. em. William Happer

Die komplette Anhörung im deutschen Bundestag mit Video und allen Texten & Dokumenten

(1) In ihrer letzten Sitzung vor der Sommerpause stimmten der Bundesrat über 135 Punkte ab, darunter 86 Gesetze aus dem Bundestag – so viele wie nie zuvor in der Geschichte des Bundesrates. (Quelle hier)




Windparks werfen Windschatten – Effizienverluste für Offshore-Anlagen zu erwarten

STUDIE HELMHOLTZ-ZENTRUM HEREON

VON HOLGER DOUGLAS

Fr, 18. Juni 2021

Wo viele Windräder stehen, nehmen sie sich gegenseitig den Wind weg. Eine Studie zeigt, dass die Effizienz von Windparks abnimmt, je mehr Windräder und je enger sie zusammenstehen. Das bedeutet: Die Ausbaupläne nach den Vorstellungen der EU gehen nicht auf.

Die negativen Auswirkungen auf die Umwelt von Anlagen der sogenannten »erneuerbaren Energien« treten immer drastischer zutage. Eine neue Studie belegt jetzt: Windanlagen können sich auch über größere Entfernungen gegenseitig den Wind wegnehmen und damit ihre Effizienz merkbar behindern. Diese Windschleppen eines Windparks können sogar teilweise bis zu 100 km weit reichen. Die Bremswirkung der Windräder reicht also sehr weit. In stürmischen Zeiten besonders im Herbst fällt dieser Effekt geringer aus, weil die Atmosphäre stärker durchmischt wird.

Die Studie hat das Helmholtz-Zentrum Hereon erstellt, sie wurde vom Impuls- und Vernetzungsfond der Helmholtz-Gemeinschaft im Rahmen des Projekts »Advanced Earth System Modelling Capacity (ESM)« initiiert und finanziert. Sie bewertet diese Effekte zum ersten Mal über einen längeren Zeitraum von zehn Jahren.

Bilder von Windrädern auf See bei nebligen Wetterlagen mit geringem Spread machen die Auswirkungen von Windrädern sehr deutlich. Bei normalen Wetterlagen sieht man die nicht. Die in den Turbulenzen hinten liegenden Windräder leisten deutlich weniger. Außerdem haben die Störungen Auswirkungen auf den Wärmetransport.

Diese Erkenntnis ist für die Windenergie-Ausbaupläne für die Nordsee von entscheidender Bedeutung. Das bedeutet: Die Windparks können nicht beliebig dicht hintereinander platziert werden, wie das nach den Vorstellungen der EU vorgesehen ist.

Denn etwa 10 Kilometer vor der Küste sind die Winde an der Meeresoberfläche etwa um 25 Prozent stärker als die Winde an Land. Bis 2050 sollen Windanlagen mit einer Gesamtkapazität von 450 GW in die Meere gepflanzt werden, 212 GW davon in der Nordsee. Ziemlich ehrgeizige Pläne der EU zum Erreichen der Klimaziele.

Die teuren Windindustrieanlagen können also nicht beliebig in die Weite der Nordsee gesetzt werden, sie sollten aus Gründen von Kosten und Wartung um Transformatorstationen gebaut werden, von denen aus der Strom durch eine unterseeische Gleichspannungsleitung an Land geleitet wird.

Windräder entziehen den Windschichten den Impuls, um die Leistung zu erzeugen. Das führt zu »Windgeschwindigkeitsdefiziten« auf der windabgewandten Seite, führen die Autoren aus. Die Windräder entziehen der Atmosphäre kinetische Energie und wandeln einen Teil in elektrische Energie um. Dabei werden in der Luftströmung Wirbel hinter den Rotoren erzeugt, die unter normalen atmosphärischen Bedingungen bis zu 50-70 km weit reichen können. Diese Wirbel wiederum behindern die Rotoren der weiter hinten stehenden Windanlagen, sie verändern die Temperatur und Turbulenzen in niedrigen Grenzschichten.

»Beobachtungen zeigen«, so schreiben die Autoren, »dass Wirbelschleppen die Temperatur um 0,5 °C und die Luftfeuchtigkeit um 0,5 g pro Kilogramm in Nabenhöhe erhöhen können, sogar bis zu 60 km windabwärts von Windparks.«

Grafiken zeigen die geplanten Offshore-Windanlagen in der Nordsee. Für havarierte Tanker oder Containerriesen bleibt im Notfall übrigens nicht mehr viel Platz, im Falle eines Maschinen- oder Ruderausfalles könnten sie ungehindert in die Anlagen der Windindustrie geraten.

Von 201.531 geplanten Windrädern ist in der Studie die Rede. Doch sogenannte »Nachlaufeffekte« vermindern die Effektivität und damit auch die Wirtschaftlichkeit der Windräder, die im Lee anderer Windparks stehen. Das kann sogar zu Leistungsverlusten von erheblichen 20-25 Prozent des in der Windströmung hinten liegenden Windparks führen, errechneten die Studienautoren.

Bereits jetzt haben sich die atmosphärischen Verhältnisse auf der Nordsee durch die vielen Windräder deutlich bemerkbar verändert – ein weiteres Ergebnis der Studie. Diese Effekte werden stärker, wenn mehr und größere Windräder in das Wasser gesetzt werden. Damit verändert sich auch die Strömung der Wärme und damit das lokale Klima.

Die Studie gewinnt an Aussagekraft, weil sie sich nicht mehr nur auf reine Simulationsmodelle beschränkt. Zum ersten Mal flossen auch reale Beobachtungen über das Verhalten von Windparks aus der Luft in eine Studie. Die hatte das Bundesamt für Seeschifffahrt und Hydrographie für die FINO-Daten und das Projekt Windpark Far Field (WIPAFF) im Rahmen der ersten luftgestützten atmosphärischen In-situ-Beobachtungsdaten der Offshore-Windparks veranlasst. Zusätzlich flossen Messungen mit Beobachtungsflugzeugen ein.

Auch Wind und Sonne sind also begrenzte Ressourcen, so die Forscher. Und wie jeder Stromverbraucher an seinen exorbitant hohen Stromkosten sehen kann, schicken Sonne und Wind exorbitante Rechnungen. Sie wollen sich nicht an das Mantra des ehemaligen Fernsehmannes und Predigers Franz Alt halten, der in die Welt gesetzt hatte: Die Sonne schickt keine Rechnung!

Der Beitrag erschien zuerst bei TE hier

 




Die Energiewandlung und der häßliche 2. Hauptsatz – Der Kern der Sache!

Der ständig steigende Energieverbrauch stellt uns als Menschheit vor eine Aufgabe von scheinbar monströsem Ausmaß. Sind die öffentlich diskutierten Konzepte ein großer Irrtum von ebensolchem Ausmaß? Oder ist es gar politisch motivierter Selbstbetrug?

von Detlef Ahlborn und Horst Heidsieck

„Die Zukunft gehört der Elektromobilität“ – so verkünden es Annalena Baerbock, Ministerin Schulze und alle grünen Unterstützer bei jeder sich bietenden Gelegenheit. Aber nicht nur das – alles soll zukünftig elektrisch werden. Und wenn Frau Baerbock oder eine Ministerin das sagen, dann muss es ja stimmen – oder?
Auf den ersten Blick ist Elektromobilität in der Tat eine sehr attraktive Idee – wie die Schweizer bereits seit 100 Jahren eindrucksvoll zeigen. Damals wurde die Gotthardbahn elektrifiziert. 
Der Strom dafür kam und kommt vornehmlich aus Wasserkraftwerken. Die Energie des Wassers hinter den Staudämmen wird – bei Bedarf – mit einer Wasserturbine zu 90% in Strom umgewandelt und zu den elektrischen Lokomotiven weitergeleitet. Diese wandeln die elektrische Energie dann mit einem 90%igen Wirkungsgrad in Bewegungsenergie um. Der gesamte Wirkungsgrad des Systems liegt damit bei 80%. (Anmerkungen: Wirkungsgrade werden multipliziert.) Das ist ein phänomenal guter Wert und das ist auch der Grund, warum so viele Bahnstrecken in den Bergen elektrifiziert wurden. Unsere Altvorderen – hier besonders die Schweizer – waren gar nicht so dumm! Sie haben schon vor hundert Jahren ein nach heutigen Maßstäben mustergültiges erneuerbare-Energien-Konzept technisch umgesetzt. Und weil es so gut ist, ist es auch heute noch in Betrieb.

Neben der phänomenal guten Energienutzung ist das System Wasserkraftwerke – Elektrischer Antrieb noch aus einem anderen Grund sehr lehrreich: Der Strom aus den Speicherseen wird immer nur dann erzeugt, wenn er auch tatsächlich von den Lokomotiven benötigt wird. Kein Mensch käme auf die Idee, Wasser aus den Speichern einfach ablaufen zu lassen, ohne es zu nutzen. Anders ausgedrückt: die Stromerzeugung richtet sich immer und zu jeder Zeit nach dem Strombedarf – und nicht umgekehrt.

Im Fokus der deutschen Energiewende stand und steht dagegen bis heute nicht der Strombedarf, sondern die Stromproduktion. Da wir im Gegensatz zu unseren Schweizer Nachbarn keine hohen Berge mit großen Speicherseen haben, geht es bei uns beim Ersatz konventioneller, fossiler und nuklearer Stromproduktion vor allem um Strom aus Wind- und Solaranlagen (W&S-Anlagen). Da aber nachts bekanntlich keine Sonne scheint und der Wind nie konstant weht, stand – bei nüchterner und objektiver Betrachtung – eigentlich von Anfang an fest, dass dieses Ziel nicht erreichbar war und ist, da die Stromproduktion aus diesen Quellen „volatil“ ist, d.h., stark schwankt, regelmäßig bis auf null abfällt und letztlich den Zufälligkeiten und der Unvorhersehbarkeit des Wetters folgt.

Stellen Sie sich einmal vor, unsere Stromversorger würden bereits heute täglich mit einem frisierten Würfel auswürfeln, wie viele ihrer Kraftwerke zur Stromproduktion am nächsten Tag ans Netz gehen sollen. Der frisierte Würfel hat drei „Einsen“, zwei „Zweien“ und einen „Dreier“. An der Wand hängen drei Tabellen, in denen die am nächsten Tag angeschalteten Kraftwerke stehen. In der „Einser-Spalte“ stehen Kraftwerke mit insgesamt 20% der maximalen Leistung, in der „Zweier-Spalte“ stehen 50% und in der „Dreier- Spalte“ 130% der Kapazität. Und dann wird ausgewürfelt, welche Produktionskapazität am nächsten Tag zur Verfügung gestellt wird: das können dann 20% oder auch 130% sein, je nachdem, wie der Würfel fällt. Sie halten das für Quatsch? Dieses zahlenmäßige Gedankenspiel ist keineswegs Spinnerei, sondern bittere Realität! Genau so stellt sich die Politik die Stromversorgung der Zukunft vor: meistens reicht die Stromproduktion nicht aus, um den Strombedarf zu decken und dennoch haben wir regelmäßig ein Überschussproblem. Man stelle sich vor, die Schweizer Bergbahnen könnten nicht mehr entsprechend ihrem Fahrplan fahren, sondern würden sich nach dem Wasserstand in den Speicherseen richten. Zumindest für die Schweizer ein absurder Gedanke!

Und Deutschland? Da die Würfelei in der Vergangenheit nicht funktioniert hat, gibt die Politik nun konkrete Ziele vor, um wieviel die Produktionskapazitäten für W&S in Zukunft weiter zu erhöhen sind. Alle bekannten Probleme werden dadurch weiter verschärft.

Diese Vorgehensweise erinnert uns zu einem gewissen Grad an die seinerzeitige Entwicklung in der DDR: wir sind davon überzeugt, dass die Herren Honecker & Co. im Verlauf der Zeit erkannt haben, dass die Umsetzung des real existierenden Sozialismus auf deutschem Boden nicht so verlief, wie sie sich das gedacht hatten. Aber da es Politkern damals wie heute sehr schwerfällt, Fehler einzugestehen und diese gar zu korrigieren, wurden die „Anstrengungen verstärkt.“ Das Ergebnis ist bekannt…

Inzwischen sind hierzulande schon so große W&S- Kapazitäten aufgebaut, dass die produzierten Spitzenleistungen sogar an den Verbrauch bzw. Bedarf heranreichen – für die Dauer von einigen Stunden im Jahr zumindest. Meistens liefern die „erneuerbaren“ Quellen jedoch (viel) zu wenig Strom, gelegentlich aber auch zu viel. Ein weiterer Zubau der Produktionskapazitäten – wie er jetzt seitens der Politik vehement gefordert wird – wird daher unvermeidlich auch zu einer ansteigenden energetischen Überschussproduktion führen. Damit stellt sich die Frage, wohin mit dem dann aktuell nicht benötigten Strom? Leider ist – entgegen der Feststellung von Frau Baerbock – das Netz kein Speicher, sondern seine Aufnahmefähigkeit liegt bei null. Die Weissagungen zahlreicher universitärer Forschungseinrichtungen – wie das Fraunhofer IWES in Kassel und regierungsnaher „Think-Tanks“ wie Agora, – ein großflächiger Zubau würde zu einer Glättung und damit zu einer Entschärfung dieses Problems führen, haben sich bereits eindeutig nicht erfüllt. Derlei Behauptungen haben sich als glatter Betrug erwiesen.
Aber anstatt eine kritische Bestandsaufnahme vorzunehmen und einzugestehen, dass wir uns auf einem nicht realisierbaren Irrweg befinden, wird intensiv nach einem Ausweg aus der sich abzeichnenden Katastrophe gesucht. Und dieser Ausweg trägt den Namen „Power-to-X.“
Es muss also schnellstens eine Lösung her, wie die durch einen forcierten W&S-Ausbau unvermeidlich erzeugten Leistungs-Überschüsse gespeichert und anschließend energetisch nutzbar gemacht werden können. Die überschüssige elektrische Energie soll zukünftig auch außerhalb des Stromsektors, etwa in der Wärmeversorgung, z.B. als Methan- oder Wasserstoffgas oder im Verkehr z.B. als sogenannte „E-fuels“, also als elektrochemisch synthetisierte Kraftstoffe, genutzt werden und dort einen Beitrag zur Dekarbonisierung leisten. X steht damit also vor allem für synthetische Brenngase oder Kraftstoffe.
Natürlich kann man nicht erwarten, dass alle Politiker ein Physik- oder Ingenieur-Studium abgeschlossen haben. Aber die physikalischen Zusammenhänge sind nicht kompliziert oder so unüberwindlich schwierig, dass nicht auch Politiker sie verstehen könnten. Man muss nur begreifen – und akzeptieren – dass jede Umwandlung von einer Energieform in eine andere unweigerlich mit energetischen Verlusten verbunden ist. Aus sehr grundsätzlichen physikalischen Gründen fallen diese Verluste unterschiedlich groß aus, je nachdem welche Ausgangsenergie in welche Endenergie umgewandelt werden soll.

Diese Unterschiede können erneut beim Bahnbetrieb sehr anschaulich illustriert werden: Wie eingangs ausgeführt, wandelt eine Elektrolokomotive in ihrem Antriebsmotor elektrische Energie in mechanische Energie, d.h. Bewegungsenergie des Zugs um. Die Wirkungsgrade der Elektrolok liegen bei 90%. Wie gleich ersichtlich werden wird, nimmt die elektrische Energie bei der Wandlung in andere Energieformen eine ganz besondere Rolle ein.

Eine Diesellokomotive hingegen ist ein komplettes thermisches Kraftwerk auf Rädern: Ein Teil der bei der Verbrennung des Kraftstoffs im Motor freigesetzten Wärmeenergie wird im Motor und über ein Getriebe in mechanische Energie gewandelt. Dieser mechanisch nutzbare Anteil der Wärmeenergie wird, physikalisch korrekt, auch als Arbeit bezeichnet. Der größte Teil der zugeführten Wärmeenergie des Kraftstoffs wird aber im Kühler und mit den Abgasen als Abwärme abgeführt und an die Umgebung abgegeben. Der Dieselmotor ist eine Wärmekraftmaschine und die begrenzte Nutzbarkeit der zugeführten Wärmeenergie als mechanische Energie ist keineswegs schlechter Ingenieurskunst geschuldet, sondern vielmehr eine physikalisch bedingte, grundsätzliche Eigenschaft aller Wärmekraftmaschinen. Der tiefere Grund für die begrenzte Nutzbarkeit der Wärme als mechanische Arbeit ist der von Rudolf Clausius 1850 entdeckte Zweite Hauptsatz der Thermodynamik, einem fundamentalen Naturgesetz, das die Effizienz der Energiewandlung von Wärme in mechanische Energie begrenzt.

Jetzt machen wir eine Zeitreise ins 21. Jahrhundert und nehmen unseren überschüssigen Strom zur Synthese von sogenannten E-fuels (z.B. Diesel). Mit diesem synthetischen Diesel betreiben wir nun die Lokomotiven. Da es sich um einen Brenn- bzw. Kraftstoff handelt, sind wir mit allen energetischen Konsequenzen aus dem Zweiten Hauptsatz der Thermodynamik auf Lokomotiven mit Verbrennungsmotor und damit auf Wärmekraftmaschinen festgelegt. Es ist genau diese Festlegung auf Synthese-Brennstoffe, die diese miserable Effizienz des gesamten Prozesses physikalisch bedingt. Alle Forschungsmilliarden der Welt können und werden daran nichts ändern: Wir wandeln überschüssigen Strom mit 50% Wirkungsgrad bei der Synthese in die Energie des Kraftstoffs und nur 25% davon werden in der Lok in mechanische Energie gewandelt. Der Gesamtwirkungsgrad schrumpft auf 12%.

Der in Fachkreisen wohlbekannte Schweizer Ingenieur Aurel Stodola hat schon 1910 in seinem Standardwerk „Die Dampfturbinen“ gewarnt, „es darf daher die dringliche Mahnung an die Erfinder gerichtet werden, von ihrem zwecklosen Kampfe abzulassen und keine Mittel an die Durchführung von Ideen zu wagen, die mit dem zweiten Hauptsatze im Widerspruche stehen.“ Hundert Jahre später mangelt es weder an Professoren und Politikern noch an ungezählten Forschungsmillionen, Ideen umzusetzen, deren Effizienz von vornherein durch physikalische Gesetze begrenzt sind. Und sicher werden es die grünen „Strom-Romantiker“ nicht gerne hören und noch weniger gerne akzeptieren: der Zweite Hauptsatz der Thermodynamik lässt sich nicht einfach verbieten, wie so vieles andere…

Die (wie auch immer geartete) auf Elektrizität gegründete Synthese von Brennstoffen entspricht aus energetischer Sicht der Logik, den Kessel einer Dampflok mit Strom aus der Oberleitung zu beheizen. Spinnerei?! Keineswegs! Im Energiewende-Neusprech heißt so etwas „Power-To-Heat-Technologie“! Wohlgemerkt: Technologie!

Neben den beschriebenen unvermeidlichen Energieverlusten gibt es noch ein weiteres massives Problem: ein Mengenproblem, das durch folgenden Vergleich sehr schnell deutlich wird:
Am Frankfurter Flughafen wurden in Vor-Corona-Zeiten die Flugzeuge jährlich mit 5,4 Mio. Kubikmeter Kerosin betankt. Der Energiegehalt dieses Kerosins liegt bei 50 TWh (Terawattstunden). Um die Flugzeuge zukünftig mit synthetischen Kraftstoffen betanken zu können, ist unter sehr, sehr optimistischen Annahmen für die Kraftstoffsynthese die doppelte Menge an Energie erforderlich, also 100 TWh. Das entspricht in etwa der Jahresproduktion aller ca. 30.000 deutscher Onshore-Windkraftanlagen. Mit anderen Worten: sämtliche an Land gebauten Windkraftanlagen zusammen reichen also gerade mal aus, um den Energiebetrag bereitzustellen, der für die Synthese des Treibstoffbedarfs am Frankfurter Flughafen erforderlich ist.
Zur Orientierung: der Kraftstoffverbrauch in Deutschland beträgt je nach Quelle zwischen 52 und 110 Mio. t. Das entspricht ca. 65 bis 135 Mio. Kubikmeter Kraftstoff – also um Größenordnungen mehr als das Volumen, das bisher nur am Frankfurter Flughafen vertankt wurde. Ist es angesichts dieser Größenordnung realistisch zu glauben, dass Synthesekraftstoffe aus deutschem Wind- und Solarstrom eine ernstzunehmende Option für eine gesicherte Energieversorgung sind?

Neben der Umwandlung von Überschussstrom in „E-Fuels“ ist natürlich auch die Nutzung von „grünem“ Wasserstoff in Betracht zu ziehen. Leider lässt sich auch für die Umwandlung von Strom in Wasserstoff der Zweite Hauptsatz der Thermodynamik nicht außer Kraft setzen: Die Energie, die beim Betrieb einer Elektrolyse zur Wasserstoffherstellung aufgewandt wird, ist doppelt so groß wie die Energie, die anschließend im Wasserstoff noch vorhanden ist. Anders ausgedrückt: von der Energiemenge, die man vorne in den Prozess hineinsteckt, kommt hinten nur noch die Hälfte raus. Und sollte dieser Wasserstoff dann „rückverstromt“ werden, dann bleiben am Ende noch 25% der ursprünglich eingesetzten Strom-Energie übrig. Das führt zu der Frage: würde ein vernünftig denkender Mensch jemals auf die Idee kommen, ein Kohle- oder Gaskraftwerk rückwärts laufen zu lassen, in dem Strom aufgewandt wird, um am Ende Gas oder Kohle zu erhalten…?

Der Übergang zu einer ganz auf Elektrizität begründeten Energieversorgung wird heute gern als „Paradigmenwechsel“ schöngeredet, weil wir ja in Zukunft elektrische Energie im Überfluss haben. Und dieser Überfluss ist eine systemimmanente, unüberwindliche Eigenschaft des Zappelstroms. Im Kern geht es bei Power-To-X nur um das Recycling von überschüssigem, nicht verwertbaren Strommüll!

Das Kernproblem aller Power To X- Konzepte besteht darin, dass wir mit „überschüssigem“ Strom Brennstoffe synthetisieren. Die Nutzung dieser überschüssigen elektrischen Energie ist damit eingeschränkt auf Wärmekraftmaschinen oder andere Wärmeanwendungen. Wenn wir mit diesen Brennstoffen eine Wärmekraftmaschine betreiben, erzwingt der Zweite Hauptsatz der Thermodynamik eine Limitierung der Effizienz, weil bei den Prozessen unvermeidlich auch Wärme entsteht, die am Ende wieder abgeführt werden muss. Für die gleiche Strommenge, die zum Betrieb der Gotthardbahn seit hundert Jahren benötigt wird, müssen wir heute die 16-fache Generator-Leistung in Windkraftanlagen installieren: Faktor 4 für den Wirkungsgrad und Faktor 4 für die miserable durchschnittliche Leistung.

Da sich die politische Diskussion nicht nur um E-Fuels sondern vorrangig um „grünen“ Wasserstoff dreht, sei auch hier kurz aufgezeigt, dass wir es z.B. beim möglichen Ersatz von Erdgas durch Wasserstoff ebenfalls mit einem gigantischen Mengenproblem zu tun haben:

Im Jahr 2019 (Statista) wurden in Deutschland 89 Mrd. m³ Erdgas verbrannt. Der Heizwert von Erdgas beträgt 10,1 kWh/m³ – der von Wasserstoff „nur´“ 3,0 kWh/m³. Unter der Voraussetzung, dass es technische Lösungen für eine Umstellung der Heizungen von Gas auf Wasserstoff geben sollte, so würden 300 Mrd. m³ Wasserstoff nur im Gebäudesektor benötigt. Zum Vergleich: dieses Volumen ist 50% größer, als Russland 2020 weltweit an Gas exportiert hat. Auch hier stellt sich also die Frage: woher soll diese Menge an Wasserstoff kommen?

Das können wir drehen und wenden, wie wir wollen. Das ist der Kern der Sache! Wann wird darüber endlich offen und ehrlich gesprochen?

Die Autoren

Dr.-Ing. Detlef Ahlborn ist stellvertretender Vorsitzender der Bundesinitiative Vernunftkraft.de und Inhaber der Karl Ahlborn Maschinenfabrik im nordhessischen Großalmerode. Er kritisiert die Energiewende als illusionär weil die zahlenmäßigen technischen Dimensionen jeden vernünftigen Rahmen sprengen.

Der Physiker Dr. rer. nat. Horst Heidsieck, hat zwischen 1990 und 2006 als CEO verschiedene Unternehmen im In- und Ausland geleitet und ist seit 2018 Mitglied der Arbeitsgruppe „Energy Reality Büdingen“. Die Arbeitsgruppe besteht aus erfahrenen Ingenieuren und Naturwissenschaftlern und hat sich zum Ziel gesetzt, die Energiewende in Deutschland zu Ende zu denken.

Der Beitrag erschien zuerst auf dem Blog Club der klaren Worte hier