How Dare You – das ist jetzt die Frage

Wie allgemein bekannt, ist derzeit nichts mehr normal, seit den Nachrichten über „globale Erwärmung“ und „Klimawandel“, welche zum Schlachtruf von Individuen wie James Hansen und Greta Thunberg geworden sind.

Egal, dass man eine stetige Stromversorgung 24 Stunden an 7 Tagen der Woche braucht, um das Handy bei Bedarf aufzuladen; how dare you?

Egal, dass alle Gretels und Hänsels ohne Wärme rasch zu Tode erfrieren würden, sogar in der Lebkuchenhütte der Hexe; how dare you?

Egal, dass nicht jeder in tropischen Klimaten lebt und noch nie einen zugefrorenen See erlebt hat; how dare you?

Egal, dass die Eismasse in Grönland derzeit größer ist als seit Jahrzehnten; how dare you?

Egal, dass das Meereis in der Arktis sehr lebendig ist, siehe z. B. hier; how dare you?

Egal, dass keiner der anderen hochgespülten Charaktere wie Luisa (Deutschlands „Cousine“ von Greta) nebst deren Freunden in gut miteinander verbundenen Einheiten den Lebensstil des Plebs leben muss; how dare you?

Egal, dass es auch dem Meereis um die Antarktis (siehe die folgende Graphik) richtig gut geht; how dare you?

Abbildung: Waxing and Waning des antarktischen Meereises im Lauf der Jahreszeiten. Quelle: NOAA

Link: https://www.iceagenow.info/how-dare-you-thats-the-question-now/

Übersetzt von Chris Frey EIKE




Claudia Roth gibt zugkräftige Rückendeckung …

Märchen darf man beliebig oft wiederholen und (nicht mehr) nur (Klein-)Kindern glauben, das seien Wahrheiten

Und was erzählte die Claudia ihren begeisterten Zuhörern:
C. Roth: „ … das sei heute wichtiger denn je, meinte Roth mit Blick auf die weltweite Klimakrise, die sich aktuell mit den Buschbränden in Australien und den Auswirkungen in Ländern wie Bangladesh augenfällig zeigt … Längst sei, so Roth, die Klimakrise auch bei uns greifbar: In Franken litten die Bauern an der massiven Trockenheit ... “ Der GRÜNE Nürnberger Bürgermeisterkandidat fügte hinzu: „ … in Stadeln (Anm.: Ein Vorort von Fürth) bereits „ein ganzer Wald“ gestorben sei …“

Zu den Buschfeuern in Australien, die schlimm sind, als wesentliche Ursachen aber bewusstes „Zündeln“ sowie GRÜNE Vorschriften haben, kam auf EIKE schon vieles. Mit „Bangladesh“ hat Claudia sicher ihre Lustreise auf Steuerzahlerkosten angesprochen, bei der sie sich von Aktivisten ihre Meinung bestätigen lies und tunlichst vermied, vor Ort wirkliche Ursachen zu erkennen:
EIKE 30. April 2019: [1] Claudia Roth auf Forschungsreise zum Klimawandel

Ihr Beispiel und die folgende Ergänzung des Nürnberger Bürgermeisterkandidaten zur Trockenheit in Franken zeigt exemplarisch, dass man auch in betroffenen Landstrichen auf vollständige Unwissenheit vertrauen kann.
Franken war schon immer trocken und in der kälteren Vergangenheit wohl noch stärker, zumindest lässt es der langjährige Niederschlagsverlauf von Bayern vermuten, wie es die Grafik (Bild 1) zeigt. Diese Grafik zeigt auch, dass Deutschland inzwischen nicht nur bei seiner Industrie beginnt, sich auf das Niveau von Entwicklungsländern zu reduzieren, auch der DWD macht es mit seinen Klimadaten.

Ausgerechnet im „Klimawandel-gebeutelten“ Mainfranken zeigt die wichtige Niederschlagsdatei eklatante Lücken, wie es aus Entwicklungsländern bekannt ist. Oder hat der DWD lückenlose Daten und gibt sie „fürs Volk“ nicht heraus?
Jedenfalls sieht man deutlich, dass der Niederschlag in Bayern dank dem Klimawandel stetig zunimmt, wie beim Niederschlag üblich, jedoch mit extremen Variabilitäten. Das sehr trockene Jahr 2018 war in Bayern bei Weitem nicht das trockenste. Und der Sommerniederschlag ist gleichbleibend, von einer „Sommeraustrocknung“ keine Spur. Allerdings müssten die Sommer nach der gängigen Theorie: mehr Wärme = mehr Niederschlag, feuchter werden. Stattdessen haben alle Angst vor einem Austrocknen. Doch Logik war noch nie eine Domäne der GRÜNEN.

Bild 1 Jahresniederschlag Würzburg ab 1947 und Bayern ab 1881. Grafik vom Autor teils erstellt, ergänzt und zusammengefügt. Quellen: DWD

Bild 2 Bayern, Sommerniederschlag seit 1881. Quelle: DWD Viewer

Nun zum Statement des GRÜNEN Bürgermeisterkandidaten, der sich so sehr um die Wälder sorgt. Er wiederholt nur, was die Stadtförster – vor allem ein ganz umtriebiger von Fürth – bei jeder sich bietenden Gelegenheit über die Lokalmedien verkünden: Wir sind ganz, ganz wichtig, denn ohne unsere Kenntnisse würden die Wälder den gesicherten Klimawandel bestimmt nicht überleben.

Dabei hat der letzte Waldzustandsbericht den Bayerischen Wäldern erst vor wenigen Jahren einen guten Zustand bescheinigt (den ein Vorgänger der aktuellen, Nürnberger Stadtförster damals bestätigt hat):
EIKE 16.11.2017: [2] Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

Es ist eben immer das Gleiche (Spiel): Lasse die schlimme Vergangenheit weg und sofort erscheinen Gegenwart und Zukunft trostlos – und es erscheinen Führergestalten, die dagegen die richtigen Rezepte haben.

Wer meint, Waldprobleme wären eine Erscheinung der Neuzeit, irrt gewaltig

Wann waren die Wälder um Nürnberg wirklich fast tot? Es war zu den angeblich „naturnahen Zeiten“, als die Natur dem Mensch ihre ganze Brutalität zeigte. Man stelle sich vor, heute wäre über solche riesigen Waldschäden wie damals zu berichten:

[3] Bayerns Wälder. 250 Jahre Bayerische Staatsforstverwaltung, Forstheft 3-4: „Anmutiges Waldland“, „Steckerleswald“, Wirtschaftswald, Naturreservat – ein (mehr historischer) Streifzug durch die bayerischen Waldungen

Historie [3: (Nürnberger Reichswald) … Eine erste Waldordnung ist schon aus dem Jahr 1294 bekannt, sie forderte von den Reichswaldförstern eine geregelte Bewirtschaftung. Dennoch war der Reichswald zu Beginn des 14. Jahrhunderts derart ausgebeutet und durch Brände verwüstet, dass der Kaiser den „Verlust seiner Gnade“ androhte. Zwei Jahrhunderte später war der Wald bereits wieder in einem derart desolaten Zustand, dass eine neue Waldordnung energisch den verstärkten Schutz der stadtnahen Wälder befahl. Vor allem der überhöhte Wildbestand war es, der im 18. Jahrhundert den scheinbar endgültigen Niedergang herbeiführte. Als Nürnberg seine Reichsunmittelbarkeit verlor und 1806 der Krone Bayerns unterstellt wurde, bot der ausgeplünderte Wald ein Bild des Jammers. Eine Waldbestandsaufnahme in den Jahren 1818 bis 1820 zeigte, dass ein Fünftel nur noch aus Ödflächen bestand, die zum Großteil mit verkrüppelten Kiefern bewachsen waren. Die Forstleute leisteten großartige Arbeit, im Lauf der Jahrzehnte wurde ein kräftiger Bestand an Altholzreserven herangezogen, doch 1893/94 vernichteten Raupen des Kiefernspanners – wie eine Heuschreckenplage – all die Arbeit. 32 Prozent der gesamten Fläche des Reichswaldes mussten kahl geschlagen werden. Versuche zur Einbürgerung von Laubbäumen schlugen damals weitgehend fehl, nur die Kiefer überdauerte in ihren Beständen, aus denen schließlich der „Steckerleswald“ der Nürnberger heranwuchs …

Wie immer haben GRÜNE eine Lösung und wenn es nur viele Fragen sind

Selbstverständlich muss heutzutage in Stadtratssitzungs-Diskussionen und -Entscheidungen zu und vor allem erst einmal der Klimawandel berücksichtigt werden. Wer den obligatorischen, örtlichen Klima-Maßnahmen-Fortschrittskatalog dazu nicht ständig im Kopf präsent hat, dem fehlt das Wichtigste an Entscheidungsgrundlage.
So etwas muss man aber auch regelmäßig üben. Die GRÜNEN zeigen, wie es geht:

OA/0386/2019 Antrag: Kiefernsterben im Stadelner Wald
Zur Sitzung des Stadtrats am 18. Dezember 2019 stellen wir daher folgenden A n t r a g :
In der Stadtratssitzung am 18.12.2019 wird ausführlich über die notwendige Entfernung von ca. 1200 Kiefern im Stadelner Wald berichtet und Zeit zur Diskussion des Themas eingeräumt.
Insbesondere sollen folgende Fragen durch die Verwaltung beantwortet und in der Folge diskutiert werden:
– In den Fürther Nachrichten vom 18.11. war die Aussage des Stadtförsters zu lesen, dass die Hauptursache für das Sterben der Kiefern bei Stadeln niederschlagsarme Sommer sind, wie sie durch die Klimaerwärmung immer häufiger auftreten werden. Wird diese Analyse bestätigt?
– Es wurden breite Schneisen in den Wald geschlagen und Erntemaschinen eingesetzt.
Sind durch die Fällungen auch zum Teil nahestehende gesunde Laubbäume, u.a. große Eichen, beschädigt oder sogar entfernt worden?
– Wie soll der Stadelner Wald wieder revitalisiert und zukunftssicher gemacht werden? Sind Pflanzungen (ggfs. anderer, trockenheitsresistenterer Baumarten) geplant?
– Welcher wirtschaftliche Schaden ist entstanden (Abschätzung)?
– Sind nach Einschätzung der Verwaltung vergleichbare Krisenlagen auch in anderen Wäldern, Forsten, Biotopen und sonstigen Naturräumen zu erwarten?
– Welche Maßnahmen werden derzeit umgesetzt, um insbesondere die Fürther Wälder und Forste vor solchen Krisen zu schützen?
– Angesichts der fortschreitenden Klimaerwärmung muss die Stadt Fürth unserer Ansicht nach ihre bisher geplanten Anstrengungen zum Klimaschutz noch einmal deutlich beschleunigen.
Welche Möglichkeiten sehen die einzelnen Referate für solche vermehrte Anstrengungen?

So etwa hätten vielleicht die künftigen Sitzungen im Aufsichtsrat von Siemens-Energie verlaufen können, wenn Studentin Luisa den ihr von Joe Kaeser versprochenen Posten angenommen hätte …

Antworten zu einem Teil ihrer Anfrage standen allerdings schon in der Tageszeitung. Klar: Lesen und dabei noch denken, ist bei ihrem Klientel nicht gerade werbewirksam, „klug(scheißerisch)e“ Fragen scheinen es weit eher zu sein.
Jedenfalls fand sich darin ein wesentlicher Teil der Probleme beschrieben (dass die letzten beiden Jahre historisch gesehen trocken, aber nicht „extrem trocken“ waren, muss man dem Klima-hysterisch eingestellten Stadtförster nachsehen):
Nordbayerische Nachrichten, 18.11.2019: Extreme Trockenheit: 1200 Kiefern im Stadelner Wald verdorrt
Die damalige lang andauernde Trockenheit traf in Stadeln auf einen Boden, der „fast der ärmste im Stadtgebiet“ sei: arm an Wasser, aber auch an Nährstoffen. Im vergangenen Winter konnte der Förster dann beobachten, „dass viele Kiefern absterben“.
Der Sommer 2019 brachte naturgemäß keine Besserung, denn er fiel erneut viel zu trocken aus. Die Folge: Der blaue Kiefernprachtkäfer – er bevorzugt geschwächte Bäume – breitete sich weiter aus. Einzelnen Kiefern kann der Schädling durchaus den finalen Todesstoß versetzen, weiß Straußberger …

Bild 6 Bayern, mehr-Jahresniederschläge seit 1881. Grafik vom Autor anhand der DWD-Daten erstellt

Quellen

[1] EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

[2] [7] EIKE 16.11.2017: Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

[3] Bayerns Wälder. 250 Jahre Bayerische Staatsforstverwaltung, Forstheft 3-4: „Anmutiges Waldland“, „Steckerleswald“, Wirtschaftswald, Naturreservat – ein (mehr historischer) Streifzug durch die bayerischen Waldungen

[4] Nordbayerische Nachrichten, 13. Januar 2020 (Lokalausgabe): Zugkräftige Rückendeckung




Physik-Professor Sigismund Kobe: „Deutsche Energie­wende wird wie Seifen­blase platzen“

Doch Deutschland möchte als erstes Land komplett aus der Kohle aussteigen und begründet dies mit dem Anspruch, als Vorreiter der Welt zeigen zu müssen, dass ein solcher Ausstieg technisch und ökonomisch realisierbar sei. Darüber hinaus sollen auch die Kernkraftwerke in Deutschland stillgelegt werden, die Strom nahezu CO2-emissionsfrei erzeugen können. Das Ziel ist es, Strom zu hundert Prozent aus regenerativen Energiequellen bereitzustellen. Professor Sigismund Kobe erklärt im EIFELON-Gespräch, dass dies in Deutschland aus physikalischen Gründen nicht möglich ist, solange es noch keine Speicher mit gigantisch großen Speicherkapazitäten gibt. Grundvoraussetzung für ein hochindustrialisiertes Land ist eine sichere stabile Stromversorgung, die auf Abruf jederzeit die Energie liefern kann, die gerade benötigt wird. Dr. Sigismund Kobe, Jahrgang 1940, ist emeritierter Physik-Professor an der Technischen Universität Dresden. Sein Forschungsschwerpunkt ist die Optimierung komplexer Systeme (magnetische Festkörper, neuronale Netze, Proteine, Windenergie).

„Einer der Fehler, den die meisten Befürworter der Energiewende machen, ist es, alle erneuerbaren Energiequellen in einen Topf zu werfen, anstatt sie differenziert zu betrachten“, sagt Kobe. Aber erneuerbar sei nicht gleich erneuerbar. Mit Wasserkraft- und Biogasanlagen lasse sich Strom weitgehend nach den Bedürfnissen der Verbraucher bereitstellen, Windkraft- und Solaranlagen dagegen seien aus physikalischen Gründen dazu nicht in der Lage. Ein weiterer Zubau von Wasserkraftwerken ist geologisch und meteorologisch begrenzt: Deutschland hat anders als z.B. Norwegen und die Schweiz aufgrund seiner Topologie nicht genügend Regionen mit den erforderlichen Höhenunterschieden. Zudem reicht die jährliche Regenmenge für diesen Zweck nicht aus. Auch die landwirtschaftlich nutzbaren Flächen in Deutschland seien bereits hinreichend aufgeteilt in solche für die Lebensmittel- und Futtermittelproduktion und solche für bioenergetische Nutzung. „Diese beiden erneuerbaren Energiequellen haben in Deutschland kein größeres Ausbaupotenzial mehr“, lautet das Fazit von Professor Kobe.

Windräder liefern zu einem Drittel der Zeit kaum bis gar keinen Strom

Für einen gedachten weiteren Zubau erneuerbarer Energiequellen in Deutschland verbleiben also nur Wind und Sonne. Diese haben allerdings die unangenehme Eigenschaft, dass der damit erzeugte Strom volatil sei, d.h. zeitlich schwanke, so Kobe weiter. Mal weht der Wind und dann drehen sich die Räder, mal weht er nicht und dann drehen sie sich nicht. Der letztgenannte Zustand ist sogar häufiger als allgemein bekannt. Statistisch gesehen ist der Beitrag aller Windenergieanlagen an der Stromerzeugung in Deutschland an einem Drittel der 8.760 Stunden eines Jahres gering bzw. sogar vernachlässigbar. Bei den Solaranlagen sieht es nicht besser aus. Der weitaus überwiegende Teil des jährlichen Anteils von Strom aus Photovoltaik-Anlagen an der Stromproduktion wird im Sommer und dann wiederum vor allem in wenigen Stunden um die Mittagszeit eingespeist, vorher und nachher ist der Anteil gering und nachts scheint die Sonne nie.

Seit jeher ist das Netz auf das Auftreten von Schwankungen ausgelegt, muss doch die Anpassung an den unregelmäßigen Bedarf durch die Verbraucher sichergestellt werden. Nun waren in der Vergangenheit bei geringem Anteil von Wind- und Sonnenstrom die dadurch bedingten zusätzlichen Schwankungen auch kein besonderes Problem. Professor Kobe:

Quantitativ sind wir allerdings an eine Grenze gelangt, an der das Netz diese zusätzlichen Erzeugungsschwankungen nicht mehr verkraften kann.“

Die aktuelle Grafik des Energiedaten-Sammlers Rolf Schuster zeigt die Situation für November 2019: Sonnenstrom (gelb) spielt fast keine Rolle. Zeiten mit geringer Einspeisung der volatilen Erzeuger, die sogenannten „Dunkelflauten“, und Zeiten mit hohem Windaufkommen (blau), in denen dieses einen großen Teil des Bedarfs der Verbraucher (Last, braun) abdeckt, wechseln sich ab.

Die folgende Grafik, die jeweils die Einspeisung von Wind- und Sonnenstrom im Monat November in verschiedenen Jahren zeigt, macht deutlich, dass trotz starkem Zubau, charakterisiert durch die installierte Leistung (hellblaue Fläche, rote Linie), die tatsächlich erbrachte Leistung vergleichsweise gering geblieben ist.

Professor Kobe fragt daher: „Was passiert, wenn, wie aktuell vielfach gefordert wird, noch mehr Wind- und Solaranlagen zugebaut werden? Lassen sich dadurch die Probleme bei Dunkelflaute und bei den Spitzenwerten der Einspeisung beheben?“ und liefert die Antwort gleich selbst: Null bleibe Null, d.h. die Probleme bei Dunkelflaute werden nicht dadurch gelöst, dass z.B. 10.000 statt 10 Windanlagen neu aufgestellt werden. Das zeigt auch die nachfolgende Grafik der Einspeisung für November, bei der simuliert wurde, dass jede einzelne Anlage in Deutschland am selben Ort durch drei gleichwertige ersetzt wird:

Wenn in ganz Deutschland kein Wind weht, bewegt sich kein einziges Windrad. Wenn andererseits zu viel Sonne scheint und zu viel Wind weht, die Anlagen also mehr produzieren als alle Verbraucher in Deutschland abnehmen können (in der letzten Grafik kommt dies mehrmals im Monat vor), dann ist die Versorgungssicherheit ebenfalls gefährdet. In einem solchen Fall müssten Sofortmaßnahmen getroffen werden, um zusätzliche Lasten zuzuschalten bzw. Erzeuger abzuschalten. Nur so kann das ganze System stabil gehalten werden.

Die Einbindung von volatilem Strom aus Wind- und Sonnenanlagen in das öffentliche Netz ist eine hoch komplexe Aufgabe. Die in jedem Moment durch die Verbraucher benötigte und abgerufene Leistung – die Last – ist zeitlich schwankend, aber natürlich folgen diese Schwankungen überwiegend nicht dem zur gleichen Zeit eingespeisten Energie-Angebot der Windräder und Solarpaneele. Für die Differenz zwischen momentaner Last, die von den Verbrauchern abgefordert wird, und der Leistung, die Wind- und Sonnenstrom liefern, wird der Begriff „Residuallast“ als verbleibende Lücke der Versorgung verwendet. Sie muss durch andere, insbesondere konventionelle Kraftwerke erbracht werden.

Lobbyisten täuschen Bürger

Die Residuallast in der Einheit Gigawatt ist eine Schlüsselgröße, wenn die Energiewende analysiert werden soll. Deshalb hat Rolf Schuster für jede Stunde des Jahres 2011 diese Größe als Punkt in einer Grafik eingetragen. Auf der zweiten Achse der Grafik wird der Börsenpreis des Stroms zur gleichen Zeit markiert. Dadurch entsteht für jedes Jahr eine „Punktwolke“ mit 8.760 Stunden-Punkten. Je mehr Wind- und Sonnenstrom in das Netz drängt, umso geringer ist die Residuallast und umso niedriger ist auch der Börsenpreis. „Dieser Sachverhalt wird von den Lobbyisten zur Täuschung der Öffentlichkeit verwendet und als Beweis dafür angeführt, dass Strom aus Wind und Sonne zu einer Verringerung des Strompreises führen würde“, meint Kobe. „Verschwiegen wird geflissentlich, dass Strom aus den Erneuerbaren überhaupt nicht am Marktgeschehen und somit auch nicht an der direkten Preisbildung an der Strombörse beteiligt ist, da dieser ja gemäß EEG mit einem subventionierten Festpreis vergütet wird.“

Die ganze Dramatik der aktuellen Situation wird deutlich, wenn die Schuster’sche Analyse für das Jahr 2019 wiederholt wird:

Der im Laufe eines Jahres auftretende Minimalwert der Residuallast ist seit 2011 von Jahr zu Jahr immer kleiner geworden und betrug 2019 nur noch 3 Gigawatt. Wind und Sonne können demnach zu einigen Stunden des Jahres bereits fast den gesamten Strombedarf Deutschlands decken. Wenn manche Befürworter der Energiewende dies als Zeichen für eine bald bevorstehende Vollversorgung mit Erneuerbaren werten, so ist das leider ein Trugschluss. Es wird dabei „vergessen“, dass zu anderen Zeiten kein Beitrag von Wind und Sonne kommt und diese Situation sich nicht im Geringsten dadurch ändert, dass immer mehr volatile Erzeuger zugebaut werden.

Ausland macht Reibach – Deutsche Stromkunden zahlen

Mit der Zunahme von Wind- und Sonnenstrom im Netz nehmen die Börsenpreise immer häufiger negative Werte an: „2019 musste an 232 Stunden überflüssiger Strom durch Zuzahlung einer Entsorgungsgebühr verklappt werden“, so Kobe. Immer dann, wenn zu viel Wind- und Solarstrom ins Netz drängt und dieser im Land nicht verbraucht werden kann, verkauft ihn Deutschland zu „negativen Preisen“ an das Ausland. So verdienen z.B. die Betreiber österreichischer Pumpspeicherwerke doppelt am deutschen Strom: Bei negativem Börsenpreis pumpen sie mit diesem Strom Wasser in die Oberbecken und werden für die Abnahme des Stroms auch noch von Deutschland bezahlt. Später, wenn bei uns Dunkelflaute herrscht, werfen sie die Turbinen an und verkaufen uns Strom zu höheren Preisen zurück. Verlierer sind die Stromkunden, denn sie müssen für die EEG-Umlage aufkommen, einer für die Dauer von 20 Jahren staatlich zugesicherter Festvergütung für die Betreiber von erneuerbaren Energiequellen.

Beim Betrachten dieser Schuster-Grafik werde Professor Kobe stets an den Fisch erinnert, der bekanntlich ‚zuerst vom Kopf und vom Schwanz her stinke‘. Sowohl die immer weiter ansteigende Zahl von Stunden mit negativen Börsenpreisen, als auch die anwachsenden Kosten für den Zukauf von teurem Regelstrom zum Kompensieren fehlender Erzeugerleistung bei Dunkelflauten werde letztlich das gesamte System kollabieren lassen.

„Als profunder Kenner und tiefgründiger Analyst der Energiewende“ weise Rolf Schuster in der folgenden Grafik auf ein weiteres ernstes Problem hin, fährt Kobe fort. Hierbei gehe es um die sogenannten Leistungsgradienten, d.h. die Änderung der Einspeiseleistung pro Zeiteinheit. Untersucht wurde die größte stündliche Zunahme (grün) bzw. Abnahme (rot) eines jeden Tages seit 2010. Beide sind sowohl in den Extremwerten, als auch im Mittel stetig angestiegen, so dass es immer schwieriger wird, die notwendige Kompensation durch konventionelle Erzeugung in immer kürzerer Zeit zu realisieren.

„Strom sei nun einmal die verderblichste Handelsware der Welt“, so Kobe. Im selben Moment, in dem der Strom erzeugt wird, muss er auch verbraucht werden. Da die Ausbreitungsgeschwindigkeit von Elektroenergie gleich der Lichtgeschwindigkeit ist, können Erzeuger und Verbraucher durchaus weit voneinander entfernt sein, wenn eine Verknüpfung durch das Stromnetz besteht. Allerdings können Stromüberschüsse im Netz selbst nicht gespeichert werden.

Deutschland hat nicht die benötigten Stromspeicher

Eine Lösung bestünde darin, den momentan zu viel erzeugten Strom zu speichern. Oft wird jedoch verschwiegen, dass Deutschland solche Speicher mit der notwendigen gigantischen Speicherkapazität weder jetzt zur Verfügung stehen, noch in absehbarer Zeit zur Verfügung stehen werden. „In den Medien werden manchmal große zusammengeschaltete Akkumulatoren als Beispiele für Großspeicher vorgeführt. Diese dienten in Wirklichkeit aber nicht der Stromspeicherung, sondern der Feinregulierung der Netzfrequenz“, erklärt der Physiker. Und was ist mit der Idee, die Akkus der Elektroautos als Stromspeicher einzusetzen? Unterstelle man eine maximal mögliche Speicherkapazität aller PkWs in Deutschland (vorausgesetzt alle diese 47 Millionen Autos wären bereits Stromer) von maximal 2.000 GWh und vergleiche diese mit dem Bedarf bei einer Dunkelflaute von z.B. zehn Tagen, komme man schnell zu dem Ergebnis, dass sie bei weitem nicht als Speicher ausreichten. Dazu komme, dass niemand ohne Entschädigung bereit sei, die Kosten für die Zwischenspeicherung von öffentlich benötigter Elektroenergie zu tragen, denn jeder Lade-Entlade-Vorgang lasse die Akkus altern. Kobe nennt Kosten von derzeit 3 bis 10 ct/kWh, die dabei zusätzlich entstehen. Der Autobesitzer müsse dann früher als geplant einen teuren neuen Akku kaufen.

Auch das Argument, die Akkus der E-Autos seien ja nicht als Langzeitspeicher gedacht, sondern sollten Regelenergie bereitstellen, lässt der Professor nicht gelten. Für diesen Zweck würde die Gesamtspeicherkapazität zwar reichen. Trotzdem sei die Idee unsinnig, weil Regelenergie im Bedarfsfall innerhalb von Minuten bereitstehen müsse. „Wie soll das realisiert werden? Vielleicht mit einem Alarm: ´Sofort alle E-Autos an die nächste Ladesäule zum Entladen!‘, fragt Kobe. Bevor in Deutschland die Speicherfrage nicht gelöst sei, nütze auch eine Nord-Südtrasse nichts. Der Flatterstrom aus dem Norden würde über diese Verbindung augenblicklich im Süden ankommen, aber natürlich wieder als Flatterstrom. Die Probleme würden damit nur verlagert, aber nicht gelöst.

Bliebe schließlich noch die Möglichkeit, volatile Stromerzeuger notfalls abzuregeln. Dass wir auch dabei längst an der Grenze des noch Vertretbaren angekommen sind, zeigt die Situation bei den zahlreichen Windenergieanlagen in Schleswig-Holstein. Diese allein sind bereits jetzt von mehr als der Hälfte aller Abschaltungen in Deutschland betroffen. Allein im ersten Quartal 2019 hätten in diesem Bundesland 1.800 GWh Strom mehr in das Netz eingespeist werden können. Aber auch dieser „Geisterstrom“ muss laut EEG den Anlagebetreibern vergütet werden. Nach Schätzungen der Bundesnetzagentur summieren sich die Entschädigungszahlungen für sogenannte Einspeisemanagement-Maßnahmen im ersten Quartal 2019 in Deutschland auf 394 Millionen Euro. Sie sind demnach gegenüber dem gleichen Vorjahreszeitraum um 60 Prozent gestiegen. Professor Kobe:

Welche Volkswirtschaft der Welt kann es sich auf Dauer leisten, mehr als eine Million Euro pro Tag zum Fenster hinaus zu werfen?“

Monitoringberichte sind Augenwischerei

Die größte Sorge bereite Professor Kobe die Versorgungssicherheit. Wenn Politiker den angeblichen Erfolg der Energiewende preisen, dem Bürger einen hohen jahreskumulierten Stromertrag von Wind- und Solaranlagen präsentieren und diesen mit dem von konventioneller Kraftwerke vergleichen, aber die nicht vorhandene sekundengenaue Verfügbarkeit von Wind- und Solarenergie verschweigen, begehen sie Augenwischerei. „Man schaue sich z.B. den Monitoringbericht des Bundesministeriums für Wirtschaft und Energie nach § 63 i.V.m. § 51 EnWG zur Versorgungssicherheit im Bereich der leitungsgebundenen Versorgung mit Elektrizität vom Juni 2019 an. Sofort fällt auf: Dieser Bericht ist anonym, niemand will vermutlich seine Hand für die dort getroffenen Schlussfolgerungen ins Feuer legen. Dort heißt es u.a.: ‚Insgesamt ist die Verfügbarkeit der Energieträger für die Stromerzeugung als gesichert einzuschätzen.‘ Fachkundige sind entsetzt und schlagen Alarm“, sagt Kobe. Das Energiesystem ist sehr komplex, die technologischen Anforderungen unter den Bedingungen von zeitlich schwankender Stromeinspeisung wurden in der Vergangenheit „sträflichst vernachlässigt“. Darin sieht Kobe den Hauptgrund für die aktuell immer deutlicher werdenden Konflikte bei der Umsetzung der Maßnahmen der Energiewende. Die Schuldigen seien eben gerade nicht diejenigen Bürger, sich gegen einen weiteren Ausbau von Windenergieanlagen organisieren und die sich deshalb auch schon mal mit dem Begriff „Anti-Windkraft-Taliban“ beschimpfen lassen müssen. Professor Kobe:

Wenn weiterhin wie bisher natur- und ingenieurwissenschaftlichen Prinzipien ausgeblendet werden, wird das gesamte bisherige Konzept der Energiewende platzen wie eine bunte Seifenblase. Die Energiewende hat nur einen einzigen Feind, die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

Von 2000 bis 2019 betrug laut Bundesnetzagentur die durch das Erneuerbare-Energien-Gesetz (EEG) vergütbare Strommenge 1.926.676 GWh. Die Betreiber der durch das EEG subventionierten Wind- und Solaranlagen erhielten für diese produzierte Strommenge 296,257 Milliarden Euro. Tatsächlich war dieser Strom am Markt nur 68,024 Milliarden Euro wert. Die Mehrbelastung der Stromkunden betrug 228,233 Milliarden Euro. Ein Ende ist nicht in Sicht. Zum Vergleich: Die Ausgaben im Bundeshaushalt für das Jahr 2019 betrugen etwa 356 Milliarden Euro.

Dieser Beitrag war zuerst hier erschienen: https://eifelon.de/umland/physik-professor-sigismund-kobe-deutsche-energiewende-wird-wie-seifenblase-platzen.html




Studie, welche Modell­vorhersa­gen preist, beweist, wie sehr die Modelle über­treiben

Hier die Summary in „normaler Sprache“ aus der Studie mit dem Titel „Evaluating the performance of past climate model projections“ von Hausfather et al. (2019):

Klimamodelle stellen eine bedeutende Art und Weise dar, um zukünftige Änderungen des Klimas der Erde zu verstehen. In dieser Studie nehmen wir eine sorgfältige Evaluierung der verschiedenen Klimamodelle vor, welche von Anfang der 1970er Jahre bis zum Ende der 2000er Jahre veröffentlicht worden waren. Besonders betrachten wir, wie gut die Modelle die globale Erwärmung projiziert hatten über die Jahre nach deren jeweiliger Veröffentlichung und vergleichen sie mit beobachteten Temperaturänderungen. Modellprojektionen stützen sich auf zweierlei, um genau zu den Beobachtungen zu passen: genaue Modellierung der Klimaphysik und genaue Annahmen bzgl. zukünftiger CO2-Emissionen und anderer das Klima beeinflussender Faktoren. Das beste, auf physikalischer Grundlage stehende Modell wird ungenaue Ergebnisse liefern, falls zukünftige Emissionen eingehen, die nicht der Realität entsprechen. Um dem Rechnung zu tragen, betrachten wir, wie die Relation zwischen Temperatur und atmosphärischem CO2 (und anderen Klimatreibern) sich zwischen Modellen und Beobachtungen unterscheiden. Wir kommen zu dem Ergebnis, dass die während der letzten fünf Jahrzehnte veröffentlichten Klimamodelle ziemlich genau waren hinsichtlich der Vorhersage der globalen Erwärmung während der Jahre nach deren Veröffentlichung, besonders hinsichtlich Differenzen zwischen modellierten und tatsächlichen Änderungen des atmosphärischen CO2 und anderer Klimatreiber. Diese Forschung sollte helfen, die Verwirrung der Bevölkerung hinsichtlich der Genauigkeit von Klima-Modellierungen in der Vergangenheit aufzulösen. Außerdem lässt sie unter Vertrauen zunehmen, dass die Modelle die globale Erwärmung korrekt projizieren“.

Abbildung 1: Projektionen der general circulation models (GCMs; rot) des IPCC (1990, 1995, 2001) und Energiebilanz-Modelle (grün) im Vergleich mit der beobachteten Temperaturänderung (blau) in K pro Dekade – ausschließlich aus Datensätzen der Temperatur am Boden (Hausfather et al. 2019)

Wie Abbildung 1 belegt, haben einfache Energiebilanz-Modelle (wie dasjenige von Monckton of Brenchley et al. 2015) viel bessere Projektionen geliefert als die GCMs. In IPCC (1990) prophezeiten die Modelle eine mittlere Erwärmung von 2,78 oder 0,33 K pro Dekade. Bis 1995 waren die Projektionen sogar noch extremer. Im Jahre 2001 waren die Projektionen realistischer, wurden jedoch noch extremer in IPCC 2006 und 2013 in den jeweiligen Zustandsberichten. Die terrestrische Erwärmung seit 1990 von 1,85 K pro Dekade war nur etwa halb so groß wie die in jenem Jahr vom IPCC prophezeite Rate:

Abbildung 2: terrestrische Erwärmung von 1990 bis 2018 (Datensätze HadCRUT4, GISS und NCEI). Selbst wenn man das kleinere der beiden Intervalle von Globale-Erwärmung-Prophezeiungen des IPCC (1990) heranzieht und sogar annimmt, dass die terrestrische Temperaturaufzeichnung selbst nicht übertrieben ist, liegt die beobachtete Erwärmung am unteren Ende des Intervalls.

Abbildung 3: Erwärmung der unteren Troposphäre (UAH) von 1990 bis 2018. Sie leigt deutlich sogar noch unter der Untergrenze der Modellprojektionen, auf welche das IPCC seine Vorhersagen der mittelfristigen globalen Erwärmung gründete.

Hausfather et al. lassen es so aussehen, als ob die Modelle bzgl. von deren Projektionen akkurat waren nach dem Vergleich der beobachteten Erwärmung mit der Projektion des Energiebilanz-Modells in IPCC (1990). Allerdings stellte das IPCC seine Original-Projektionen auf die Grundlage der komplexeren und mehr für Übertreibungen anfällige GCMs – und macht das auch heute noch:

Abbildung 4: Wäre der El Nino 2016 nicht aufgetreten, läge die originale mittelfristige Prophezeiung aus dem Jahr 1990 immer noch exzessiver aussehen als es ist.

Ungeachtet der wiederholten Übertreibungen in den Projektionen der GCMs, welche zu minimieren Hausfather et al. in der Tat versucht haben, treiben die Modellierer das tote Pferd ,globale Erwärmung‘ in immer extremere Projektionen:

Abbildung 5: Projektionen der Charney-Sensitivität in 21 Modellen des CMIP5-Ensembles

Im Jahre 1979 prophezeite Charney eine mittlere Gleichgewichts-globale-Erwärmung pro CO2-Verdoppelung von 2,4 bis 3 K. Das IPCC (1990) wählte den höheren Wert als seine eigene mittelfristige Prophezeiung. Jetzt jedoch zeigen die neuen CMIP6-Modelle diese mittlere Prophezeiung als deren untere Grenze, und deren neue mittlere Projektion beträgt wie oben gezeigt 4,1 K.

Da die Erwärmung bei einer Verdoppelung der CO2-Konzentration in etwa gleich der Erwärmung ist, wie sie über das 21. Jahrhundert durch alle anthropogenen Einflüsse erwartet wird, projizieren die heutigen GCMs im Endeffekt eine Erwärmung um 0,41 K pro Jahrzehnt. Das wollen wir jetzt einmal in Abbildung 4 hinzufügen um zu zeigen, wie übertrieben die Projektionen sind, aufgrund welcher es Politiker und Banken derzeit ablehne, der Dritten Welt Kredite für die dringend benötigte Elektrifizierung zu gewähren:

Abbildung 6: Prophezeiung vs. Realität, dieses Mal mit der impliziten CMIP5-Prophezeiung.

Liniengraphiken wie Abbildung 6 neigen dazu, das wahre Ausmaß der Über-Prophezeiung zu verbergen. Abbildung 7 korrigiert die Verzerrung und zeigt das wahre Ausmaß der Über-Prophezeiung:

Abbildung 7: Projizierte mittlere Charney-Sensitivitäten (CMIP5 3,35 K orange, CMIP6 4,05 K rot). Sie liegen um das 2,5 bis 3-fache über den 1,4 K (grün), die erwartet werden können bei der gegebenen beobachteten globalen Erwärmung von 0,75 K von 1850 bis 2011 und einem erkannten anthropogenen Antrieb von 1,87 W/m² bis 2011. Der gesamt-anthropogene Antrieb von 2,5 W/m² bis 2011 wird auf die 3,45 W/m² geschätzten Antriebe skaliert als Reaktion auf eine CO2-Verdoppelung. Folglich würde die Charney-Sensitivität nach CMIP6 von 1850 bis 2011 eine Erwärmung um fast 3 K implizieren, also drei mal so hoch wie die zu erwartende und vier mal so hoch wie die beobachtete Erwärmung von 0,75 K.

Obwohl diese Analyse hier simpel ist, so ist sie doch kompliziert genug, um an den wissenschaftlich ungebildeten Politikern vorbeizugehen. Diese werden einfach von Klima-Kommunisten umschwärmt, die ihre Laufbahn bedrohen, falls sie es wagen, denjenigen beizuspringen, die sich gegen den Holocaust an den Machtlosen aussprechen.

Darum möchte ich schließen mit der Vereinfachung des Argumentes. Es ist das, was in keiner einzigen „wissenschaftlichen“ Studie bzgl. globaler Erwärmung angesprochen wird, was am aufschlussreichsten ist. Es ist das, von dem gesagt wird, dass es keine Rolle spielt. Ich konnte bislang keine einzige Studie finden, in welcher die ideale globale mittlere Temperatur festgestellt und glaubwürdig begründet wird.

Die Tatsache, dass Klima-„Wissenschaftler“ diese Frage anscheinend nie gestellt haben zeigt, dass das Thema globale Erwärmung ein politisches und kein wissenschaftliches Anliegen ist.

Die Tatsache, dass die Antwort auf diese Frage unbekannt ist zeigt, dass es keine rationale Grundlage gibt dafür, irgendetwas hinsichtlich des allgemein wärmeren Wetters zu tun, welches sich als höchst vorteilhaft dort herausgestellt hat, wo es am schnellsten dazu gekommen war – in den hohen Breiten und besonders an den Polen.

Es gibt mit Sicherheit keinen einzigen Grund, weder wissenschaftlicher, ökonomischer, moralischer oder anderer Natur, den 1,2 Milliarden Menschen den elektrischen Strom vorzuenthalten, die ihn nicht haben und die im Mittel 15 bis 20 Jahre früher sterben, weil sie ihn nicht haben.

Link: https://wattsupwiththat.com/2020/01/12/paper-praising-models-predictions-proves-they-greatly-exaggerate/

Übersetzt von Chris Frey EIKE




Erneuer­bare Energie hat bedeu­tende Schatten­seiten

Der beantragte Gemini-Solarpark nahe der Stadt Las Vegas in Nevada ist das jüngste Beispiel umweltschädlicher Vorhaben bzgl. erneuerbarer Energie.

Solar-„Parks“ verbrauchen Unmengen Land. Im Falle Gemini sind es über 2800 Hektar. Damit wäre dieses Projekt das größte des Landes und hätte die räumliche Ausdehnung einer kleinen Stadt.

Das US-Büro für Land-Management (BLM) ist bereit, das Gemini-Projekt zu genehmigen, welches 130.000 Haushalte mit Energie versorgen könnte. Jeder, der nachts in Las Vegas unterwegs ist, wird sicher erkennen, dass es viel mehr Energie bedarf als aus einem großen Solarpark, um die Lichter nicht ausgehen zu lassen, aber es ist ein Anfang.

Die eigenen Untersuchungen des BLM bzgl. Auswirkungen auf die Umwelt kommen zu dem Ergebnis, dass der Solarpark nicht nur gefährdete Spezies und Pflanzen beeinträchtigen wird einschließlich der Wüstenschildkröte, eines Wüstenfuchses und einer seltenen Pflanze, von der ich noch nie etwas gehört habe, nämlich die threecorner milkvetch.

Naturschutz-Organisationen sind nicht erfreut ob dieses Projektes, darunter auch die Defenders of Wildlife, obwohl diese in ihrem Abstract hinter erneuerbarer Energie stehen. Anstatt gefährdete Spezies und Pflanzen in großen Wüstengebieten zu stören, befürworten einige Organisationen die unrealistische Alternative von Solarpaneelen auf jedem Haus.

Solar- und Windenergie-Projekte haben außerdem das „NIMBY“-Problem [„nicht vor meiner Haustür“]. Während es in der Westhälfte der USA größere freie Wüstengebiete gibt, ist das NIMBY-Problem im Osten ein großes Thema wie etwa in ländlichen Landkreisen in Virginia und anderswo.

Im April vorigen Jahres genehmigte das County Board of Supervisors gegen starke lokale Opposition einen Solarpark auf einer Landfläche von 1200 Hektar. Mit der Einführung von Quoten des Anteils der Einspeisung erneuerbarer Energie in US-Staaten wie Virginia, Nevada und New York neben anderen dürfte der NIMBY-Kampf in Virginia nur der Anfang sein im Kampf gegen Vorschriften bzgl. Erneuerbarer in den gesamten USA. CFACT hat das hier [in deutscher Übersetzung beim EIKE hier] bereits diskutiert.

Das wohl berühmteste Beispiel eines NIMBY-Kampfes gegen erneuerbare Energie trug sich an der Küste von Cape Cod in Massachusetts zu, wo wohlhabende Anwohner, darunter Senator Ted Kennedy, gegen den Cape Wind-Offshore-Windpark kämpften. Nach einem Jahre langen Rechtsstreit hat Energy Management, das Unternehmen hinter dem Projekt, den Stecker gezogen.

Windenergie nimmt in den USA derzeit immer noch zu, erzeugt sie doch über sechs Prozent des Stromes der Nation. Die International Energy Agency IEA erwartet, dass die Zunahme weltweit exponentiell sein wird während der nächsten 20 Jahre. Genau wie Solarenergie weckt auch Windenergie ähnlichen Alarm hinsichtlich Landverbrauch und Schäden in der Wildnis.

Windmühlen töten Hunderttausende Fledermäuse und Vögel jährlich. Mehr Windmühlen bedeuten, dass weitere Millionen geflügelte Geschöpfe jedes Jahr zu Tode kommen. Windmühlen schädigen auch andere Tiere, darunter Hunde und andere Haustiere. Die Turbinen selbst verbrauchen erhebliche Mengen Energie für deren Herstellung und sind auch nicht so einfach zu entsorgen, was hinsichtlich der Umwelt noch weitere Bedenken hervorruft.

Windenergie kann auch für steigende Temperaturen sorgen, was eine witzige Ironie abseits der Ernsthaftigkeit des Themas wäre. Eigentlich ist ja der Hauptgrund des erzwungenen Wechsels von fossilen Treibstoffen zu Erneuerbaren die vermeintliche Umkehrung der „vom Menschen verursachten“ globalen Erwärmung. Jetzt stellt sich heraus, dass sich die Windenergie über einen Punkt hinaus ausweitet, wo sie zur Erwärmung beitragen kann.

Dann sind da noch die umweltlichen Bedenken hinsichtlich der Batterien als Ergänzung zu Erneuerbaren, wenn die Sonne nicht scheint und der Wind nicht weht. Batterien benötigen natürlich Zutaten aus dem Bergbau wie Kobalt und Lithium. Außerdem sind Kosten und Quantität für eine notwendige Batteriekapazität, um Wind und Solar tragfähig zu machen, erheblich, werden aber heruntergespielt, fahren doch Politiker damit fort, der Öffentlichkeit Vorschriften bzgl. Erneuerbarer überzustülpen.

Die umweltlichen Schattenseiten von Wind- und Solarenergie sind allein noch kein Grund, diesen Energiequellen zu entsagen. Vielmehr sind sie ein Argument für geringere Erwartungen und Realismus. Erneuerbare Energie wird uns in absehbarer Zukunft nicht in eine Kohlenstoff-freie Welt führen, unabhängig von den auf vielfältige Weise korrespondierenden Schäden. Infolgedessen sollten Wissenschaftler und politische Entscheidungsträger den wind- und solaren Güterzug abbremsen, um stärker Kosten und Nutzen für die Bevölkerung abzuwägen, ebenso wie für die Natur.

Autor: Peter Murphy, a CFACT analyst, has researched and advocated for a variety of policy issues, including education reform and fiscal policy. He previously wrote and edited The Chalkboard weblog for the New York Charter Schools Association, and has been published in numerous media outlets, including The Hill, New York Post and the Wall Street Journal.

Link: https://www.cfact.org/2020/01/05/renewable-energy-has-significant-downsides/

Übersetzt von Chris Frey EIKE