Energiewende: Erst die Steckdose, dann der Teller*

=======

Dagmar Jestrzemski (Red. PAZ)*

Für den „Klimaschutz“ privilegiert der Staat die Produktion von Solarstrom gegenüber der von Nahrungsmitteln

=======

Freiflächen-Photovoltaikanlagen (PV FFA) wurden bis vor wenigen Jahren nur auf minderwertigen Böden angelegt, um Natur und Landwirtschaft möglichst wenig zu beeinträchtigen. Im Zuge des politisch getriebenen rasanten Ausbaus der Photovoltaik (PV) beanspruchen Investoren in den Gemeinden und Landkreisen für ihre Planungen aufgrund der geänderten Gesetzgebung durch das Erneuerbare-Energien-Gesetz (EEG 2023) auch immer mehr fruchtbares Ackerland. Was durch strenge Gesetzesvorschriften ursprünglich ausgeschlossen war, scheint jetzt politisch erwünscht zu sein. Das Drängen der Bundesregierung und der Solarbranche bewirkte desgleichen einen Trend zu Giga-Anlagen auf bis zu 180 Hektar Fläche. In raschem Tempo werden den Ökosystemen und der landwirtschaftlichen Produktion durch PV FFA immer größere Flächen entzogen. In riskanter Weise wurde eine scharfe Konkurrenz um verfügbares Agrarland mit einer Wettbewerbsverzerrung zulasten der Erzeuger von Lebensmitteln losgetreten. Pachtgebote der Solarinvestoren von mehr als 2500 Euro je Hektar pro Jahr – in Österreich sogar bis 5000 Euro – stehen Pachtpreisen für Acker- und Grünland von 200 bis 400 Euro je Hektar gegenüber.

Eldorado für Glücksritter

Um die Situation zu entschärfen, fördern Bund und Länder das Modell Agri-Photovoltaik (Agri-PV), also die Doppelnutzung von Ackerböden sowohl für Photovoltaik als auch für die landwirtschaftliche Produktion. Seit 2021 hat die Bundesregierung mehrere Millionen Euro an Fördermitteln für die Forschung zu Agri-PV bereitgestellt sowie für Subventionen bei Inanspruchnahme dieses Modells. Agri-PVA sind über das EEG 2023 auf allen Ackerflächen, Flächen mit Dauerkulturen und Grünlandflächen förderfähig. Bei Ackerland muss die Nutzung durch PV auf 15 Prozent der Fläche beschränkt sein. Landwirte können für den mit PV kombinierten Feldbau eine Förderung gemäß der Gemeinsamen Agrarpolitik (GAP) beantragen. Jedoch entstehen bei Agri-PV etwa fünfmal höhere Anschaffungskosten für die Solarindustrieanlagen, während die Erträge der Stromerzeugung wegen der reduzierten Nutzungsfläche wesentlich geringer ausfallen. Bei einer 2022 in Betrieb genommenen Agri-PV-Versuchsanlage auf einem Hektar in Lüchow im Kreis Lüchow-Dannenberg in Niedersachsen beliefen sich die Kosten für die PV-Anlagen auf 1,4 Millionen Euro. Ein Drittel davon kam vom Bundesumweltministerium. Aufgrund der Rahmenbedingungen ist anzunehmen, dass Agri-PV eher eine Nischenlösung für einzelne landwirtschaftliche Betriebe bleiben wird.

Ein Beispiel aus Sachsen zeigt, dass die geänderten Gesetzesvorschriften Glücksritter auf den Plan rufen. Bei der Gemeinde Königshain im Landkreis Görlitz hat ein Solarprojektierer aus Schweinfurt den Plan für eine PV-Anlage über eine Fläche von insgesamt 170 Hektar Land vorgestellt, etwa 135 Fußballfeldern entsprechend. Ein Investor, der namentlich nicht genannt werden will, lockt die Gemeinde mit hohen Geldsummen. Die beanspruchten Flächen werden hauptsächlich landwirtschaftlich genutzt und gehören etwa 40 Eigentümern. Von einem möglichen zweistelligen Millionenbetrag an Gewerbesteuern und jährlich 200.000 Euro aus dem Stromertrag ist die Rede, gerechnet über einen Zeitraum von 30 Jahren. Bislang gibt es jedoch noch nicht genug Photovoltaikanlagen, die länger als 20 Jahre in Betrieb sind und eine so lange Lebensdauer bestätigen. Der Investor lehnt Agri-PV ab, weil die Stromerträge dann um zwei Drittel reduziert würden, wie der Geschäftsführer des Solarprojektierers erklärte. Einwendungen gegen das Vorhaben begegnete der Unterhändler des Investors mit dem absurden Argument: „Wir haben keine Ernährungskrise, sondern eine Energienot.“

Agri-Photovoltaik ist keine Lösung

Agri-PV kann keine Lösung des Dilemmas der konkurrierenden Nutzung von fruchtbarem Ackerland sein. Derweil steht eine dringend notwendige, ergebnisoffene Forschung zu den Auswirkungen einer langjährigen Versiegelung unterschiedlicher Bodentypen durch PV FFA nicht auf der politischen Agenda, obwohl die Regierung aufgrund des Vorsorgeprinzips dazu verpflichtet ist. Infolge der Überdachung und Verschattung durch die Solarmodule zieht sich das Bodenleben insbesondere von humusarmen, austrocknenden Ackerböden tief in die Erde zurück oder stirbt ab. Eine dauerhafte Bewässerung von bewirtschafteten Flächen unter PV-Modulen hat ebenfalls gravierende Folgen: Die Böden versalzen und können ihre Fruchtbarkeit verlieren. Die Politik muss handeln: Die rasant zunehmende Fremdnutzung von Ackerland durch PV FFA stellt eine schleichende Bedrohung für Quantität und Qualität der landwirtschaftlichen Nutzfläche dar. Ohne gesunde Böden kann keine gute Nahrung produziert werden.

=================================================================

)*  Anmerkung der EIKE-Redaktion :

Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung;  8. März 2024, S.7; EIKE dankt der PAZ-Redaktion sowie der Autorin  Dagmar Jestrzemski für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln :   https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.

=================================================================




Daten: Nein, die „Klima-Krise“ ist keine Gesundheits-Krise

Cap Allon

Ein neuer Substack-Beitrag wurde von Patrick T. Brown veröffentlicht – Sie wissen schon, der Wissenschaftler, der das Establishment verärgert hat, weil er „die ganze Wahrheit zurückgehalten hat, um seine Arbeit in Nature veröffentlichen zu können.

Brown, promovierter Klimawissenschaftler und Co-Direktor des Klima- und Energieteams am Breakthrough Institute sowie Lehrbeauftragter an der Johns Hopkins University, hat bereits in der Vergangenheit das Umfeld hochrangiger, von Experten begutachteter wissenschaftlicher Studien kritisiert, die in Fachzeitschriften wie Nature veröffentlicht wurden, und sich dafür den Zorn des Klimatariats zugezogen.

Diesmal möchte Brown unsere Aufmerksamkeit auf die Wissenschaftsredaktion von Nature lenken, die, wie er sagt, „jetzt anscheinend in ähnlichem Maße an der Verdrehung von Klimainformationen beteiligt ist wie die New York Times“.

Eine Reihe aktueller Artikel veranschaulicht seinen Standpunkt. Schauen wir uns den heißesten dieser Artikel an, Titel [übersetzt]: „Der Klimawandel ist auch eine Gesundheitskrise – diese Grafiken erklären, warum … Steigende Temperaturen erhöhen die Ausbreitung von Infektionskrankheiten, fordern Menschenleben und führen zu Ernährungsunsicherheit“.

Dies ist die von der AGW-Partei propagierte neue Sichtweise, der John Kerry noch die Krone aufgesetzt hat auf der COP28 im Dezember.

In dem neuen Nature-Artikel wird behauptet, dass steigende Temperaturen zu einem Anstieg der Gesamtzahl der Todesfälle führen, die direkt auf die gesundheitlichen Auswirkungen nicht optimaler Temperaturen zurückzuführen sind: „Jedes Jahr sterben Menschen an Hitzewellen, die durch den Klimawandel verursacht werden“.

Diese Behauptung geht auf einen Lancet-Bericht aus dem Jahr 2023 zurück. Zur Berechnung der Hitzetoten wird ein nach Browns Ansicht zweifelhaftes Verfahren angewandt, bei der zunächst die Häufigkeit der Tage berechnet wird, an denen ein lokal definierter Schwellenwert für Hitzewellen überschritten wird, und diese Häufigkeit dann mit den Todesfällen in Beziehung gesetzt wird. Diese Methode ist, gelinde gesagt, fragwürdig, aber Brown konzentriert sich auf zwei weitere eklatante Auslassungen.

Die erste ist, dass der Einfluss der Erwärmung auf kältebedingte Todesfälle völlig ignoriert wird. Es stellt sich heraus, dass Kälte weltweit mit etwa 9 mal mehr Todesfällen verbunden ist als Hitze. Nachstehend finden Sie Schätzungen der durchschnittlichen jährlichen kälte- und hitzebedingten Todesfälle in den Jahren 2000 bis 2019 in verschiedenen Regionen der Welt:

Das zweite große Versäumnis besteht darin, dass die Zahl der Hitzetoten selbst bei isolierter Betrachtung im Laufe der Zeit zurückgeht, weil die Gesellschaften sich schneller an höhere Temperaturen gewöhnen als die Temperaturen steigen. Der IPCC drückt es folgendermaßen aus:

„Die hitzebedingte Sterblichkeit ist in den meisten Ländern im Laufe der Zeit zurückgegangen, was auf allgemeine Verbesserungen der Gesundheitssysteme, die zunehmende Verbreitung von Klimaanlagen in den Wohnungen und Verhaltensänderungen zurückzuführen ist. Diese Faktoren, die die Anfälligkeit der Bevölkerung für Hitze bestimmen, haben gegenüber dem Einfluss der Temperaturveränderung überwogen.“

Der Nature-Artikel sowie der zugrunde liegende Lancet-Bericht erwähnen jedoch weder Kältetote noch eine abnehmende Empfindlichkeit der Gesellschaft. Wieder einmal lässt eine vom Establishment unterstützte Institution Schlüsselelemente der Geschichte aus, um ein bestimmtes Narrativ zu unterstützen.

Eine weitere Behauptung lautet: „Die globale Erwärmung führt dazu, dass sich Infektionskrankheiten in neue Regionen ausbreiten“.

Die nachstehende Karte soll diese Behauptung bestätigen, schreibt Brown, indem sie eine Ausdehnung der globalen Landfläche zeigt, die für die Übertragung von Malaria geeignet ist, und zwar auf der Grundlage von „Niederschlags-, Feuchtigkeits- und Temperaturniveaus, in denen sich Malaria im Durchschnitt mindestens einen Monat pro Jahr über ein Jahrzehnt hinweg ausbreiten könnte.“

Die Meldung und das Diagramm scheinen darauf hinzudeuten, dass die Häufigkeit von Malaria zunimmt. Aber auch dies ist nicht ganz richtig. Tatsächlich waren viele der auf der Karte im Nature-Artikel hervorgehobenen Regionen früher von Malaria betroffen, sind aber heute malariafrei, was zum Teil auf den Einsatz von Insektiziden, die Trockenlegung von Sumpfgebieten und die Verbesserung der Wohnverhältnisse zurückzuführen ist:

Die Daten aus der oben genannten Studie enden zu Beginn des 21. Jahrhunderts, aber laut dem jüngsten Weltmalariabericht der Weltgesundheitsorganisation gibt es in den in der Karte des Nature-Artikels genannten Regionen keine nennenswerte Anzahl von Malariafällen, und die Gesamthäufigkeit von Malaria weltweit (sowie die Sterberaten durch Malaria) geht langfristig weiter zurück:

Auch der Weltmalariabericht geht davon aus, dass die Zahl der Malariafälle weiter zurückgehen wird:

„Unter dem ‚mittleren Klimaszenario‘ (SSP2) deutet die Analyse darauf hin, dass die Malariahäufigkeit unter den derzeitigen Interventionsniveaus in Kombination mit sich ändernden ökologischen und sozioökonomischen Bedingungen wahrscheinlich zurückgehen wird, selbst wenn die Malariafälle aufgrund des Bevölkerungswachstums leicht zunehmen werden.“

Die Behauptung, dass sich Infektionskrankheiten wie Malaria auf neuere Regionen ausbreiten, scheint unbegründet zu sein.

Schließlich wird in dem Nature-Artikel auch behauptet: „Während sich die Welt erwärmt, verlieren immer mehr Menschen den Zugang zu sicheren und nahrhaften Lebensmitteln.“

Langfristig gesehen stimmt es einfach nicht, dass die Erwärmung mit einer Verschlechterung des Zugangs zu Nahrungsmitteln einhergeht, schreibt Brown. Das liegt zum Teil daran, dass die Erträge der wichtigsten Nutzpflanzen in der modernen Periode der globalen Erwärmung deutlich gestiegen sind, was zu einem Anstieg der pro Person verfügbaren Nahrungskalorien geführt hat:

Der Welthunger-Index, mit dem der Hunger umfassend gemessen und verfolgt werden kann, zeigt einen langfristigen Rückgang des Hungers in allen Regionen der Welt:

Wie also kommt der Nature-Artikel zu seiner Behauptung? Die Autoren zitieren ein Modell aus einer Studie aus dem Jahr 2022, in der geschätzt wird, dass „127 Millionen Menschen im Jahr 2021 infolge des Klimawandels von mäßiger bis schwerer Ernährungsunsicherheit betroffen sein werden, verglichen mit einem Szenario ohne globale Erwärmung“. Bei diesem Modell wurde eine Regressionsanalyse verwendet, bei der die Auswirkungen kurzfristiger Wetterschwankungen mit denen langfristiger klimatischer Veränderungen gleichgesetzt wurden.

Diese Annahme sei „fragwürdig“, schreibt Brown, aber er weist auf ein noch größeres Problem bei dieser Analyse hin: Die berechneten Auswirkungen des Klimawandels sind im Vergleich zu den Fortschritten in der Technologie und der wirtschaftlichen Entwicklung gering.

Dies wird deutlich, wenn wir uns die Ergebnisse genauer ansehen. Die linke Spalte unten zeigt die tatsächlich beobachtete Häufigkeit von mäßiger bis schwerer Ernährungsunsicherheit, und die rechte Spalte gibt an, wie hoch die Häufigkeit ohne den Klimawandel gewesen wäre:

Beachten Sie die großen Unterschiede zwischen den Regionen (z. B. ein Unterschied von 36,7 % zwischen Afrika und Europa) und die vergleichsweise geringen Auswirkungen des Klimawandels (unter drei Prozent für alle Regionen). Dies deutet darauf hin, dass wirtschaftliche und gesellschaftliche Unterschiede weitaus größere Determinanten der Ernährungsunsicherheit sind als klimatische Veränderungen.

In einer ähnlichen kürzlich veröffentlichten Analyse wurde dieser Punkt folgendermaßen formuliert:

„Unsere Schätzungen (kontrafaktisches Szenario) sollten nicht als Auswirkungen einer Welt ohne fossile Brennstoffe auf die weltweite landwirtschaftliche Produktion interpretiert werden. Die Landwirtschaft hat enorm von der Agrarforschung und den kohlenstoffintensiven Betriebsmitteln profitiert, die ohne fossile Brennstoffe nicht in dem Maße verfügbar gewesen wären. Das kontrafaktische Szenario in unserer Studie berücksichtigt lediglich die Auswirkungen der fossilen Brennstoffe und anderer anthropogener Einflüsse auf das Klimasystem.“

Ein weiterer Favorit der AGW-Partei, der Welthunger, beißt ins Gras.

Um den gesamten Substack-Artikel von Patrick Brown zu lesen, der noch viel mehr enthält, einschließlich fehlerhafter Behauptungen über Waldbrände, klicken Sie HIER.

Link: https://electroverse.substack.com/p/more-snow-than-forecast-is-hitting?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Übersetzt von Christian Freuer für das EIKE

 




Bundesrechnungshof vs. Energie-Realität

„Nachsteuern reicht nicht, zum Umsteuern fehlt der Mut“

Einführung von Christian Freuer: In diesem Beitrag geht es um das neueste Urteil des Bundesrechnungshofes (BRH) zur Energiewende. Diese stehen hier. Der Dipl.-Phys. Peter Würdig hat sich darauf an den BRH gewandt und tatsächlich auch eine Antwort erhalten. Dieser Austausch wird hier dokumentiert. Oben steht der Brief von Herrn Würdig, gefolgt vom PDF der Antwort des BRH. Dann folgt noch ein Kommentar von Herrn Würdig. – Ende Einführung.

Der Bericht des Bundesrechnungshofes „zur Umsetzung der Energiewende im Hinblick auf die Versorgungssicherheit und Bezahlbarkeit bei Elektrizität“ …

… und mein Bericht dazu.

Peter Würdig

Tatsächlich muss ich, bei mancher Kritik, dem Bundesrechnungshof (BRH) auch einiges an Lob aussprechen, denn immerhin einiges von Mängeln ist erkannt worden und auch klar ausgesprochen, wenn man auch feststellen muss, dass die grundsätzlichen und nicht behebbaren Fehler der Energiewende nicht angesprochen werden.

Beginnen wir mit den positiven Seiten.

Sehr zu loben ist, dass der Bundesrechnungshof jetzt das Vorhaben der Regierung kritisiert, Teile der Kosten der Energiewende durch den Bundeshaushalt zu finanzieren, um dadurch den Bürgern niedrigere Kosten vorzutäuschen als sie tatsächlich sind. Das ist so gut gesagt, dass ich das hier im Original zitieren will:

„Die geplante Entlastung der EEG-Umlage aus den Einnahmen des Zertifikatehandels und aus Haushaltsmitteln sieht der Bundesrechnungshof kritisch. Er sieht darin eine zusätzliche Belastung aller Steuerzahler. Damit können die Auswirkungen des nicht funktionierenden Preissystems aber lediglich kaschiert werden. Die Bundesregierung bekämpft also lediglich Symptome der derzeitigen Schwächen des Energiepreissystems und schafft weitere Nachteile.“

Der Bundesrechnungshof sagt ganz zu Recht, dass damit nur eine Entlastung vorgetäuscht wird, denn die Mittel sind letztlich eben doch von den „Letztverbrauchern“ aufzubringen (und auch von den „Letztverbraucherinnen“, loben muss man auch hier, dass der BRH auf die jetzt in Mode gekommene Sprachverdopplung verzichtet). Außerdem weist der Bundesrechnungshof an dieser Stelle auch darauf hin, und auch das ist richtig, dass durch eine „künstliche“ Verbilligung der Anreiz konterkariert wird, Energie sparsam einzusetzen.

Auch an einer weiteren Stelle muss ich loben, denn der Bundesrechnungshof weist klar darauf hin, „…..Der Trend der weiter steigenden Strompreise muss durchbrochen werden, um die Wettbewerbsfähigkeit des Wirtschaftsstandortes Deutschland zu sichern…“ Auch an einer anderen Stelle sagt der BRH Damit soll es (das BWMi( auch einen Beitrag leisten, um die nachhaltige Wettbewerbsfähigkeit deutscher Unternehmen im internationalen Wettbewerb zu sichern.“ In dieser Hinsicht wirklich etwas zu tun wäre eine politische Entscheidung, dafür fehlt aber im Moment der politische Wille total. Das wurde jetzt ganz deutlich bei der Anhörung im Bundestags-Ausschuss „Wirtschaft und Energie“ klar, alle politischen Fraktionen (ausgenommen natürlich die AfD) schoben ihre Lobbys vor, damit diese jeweils ein möglichst großes Stück vom EEG-Kuchen einfordern durften, was dann natürlich den Preis insgesamt nur in die Höhe treibt. Die Fragen, ob das Sinn macht und ob man das verantworten kann, diese Fragen wurden gar nicht erst gestellt.

Die stärkste Kritik am Bericht des BRH muss ich deswegen üben, weil der BRH nicht ein klar durchgerechnetes Programm für die Energiewende fordert, ohne ein solches Programm hätte man die erste Windmühle nicht aufstellen dürfen. Wir wissen nach 20 Jahren EEG nicht, was es am Ende kosten soll und was man damit konkret denn erreichen will. Stattdessen setzt man sich „Ziele“ und werkelt munter drauf los (und gibt das Geld der Letztverbraucher mit vollen Händen aus), ein solcher Vorgang ist im hohen Maße verantwortungslos.

Zur Versorgungssicherheit sagt der BRH „Durch den Kohleausstieg entsteht eine Lücke von bis zu 4,5 Gigawatt gesicherter Leistung, die das BMWi noch nicht bei der Bewertung der Versorgungssicherheit berücksichtigt hat.“ Diese Zahl entstammt der Betrachtung von Planungsvorgaben, sie hat jedoch mit der Realität im Strom-System nichts zu tun, insbesondere macht es keinen Sinn, hier nur den Kohleausstieg im Auge zu haben während gleichzeitig bzw. schon vorher auch der Ausstieg aus der Versorgung durch Kernenergie durchgeführt wird, mit dem ja auch schon ein großer Teil der gesicherten Leistung wegfällt.

Die tatsächlichen Zahlen erhält man leicht aus dem Agora-Meter, und dieses mal für einen so typischen Tag, wie er in jedem Jahr auftreten kann, nämlich am 25.Januar 2019 um 24 Uhr:

Energieverbrauch (elektrisch) : 67,3 GW

Wind on-shore: 0,4 GW

Wind off-shore: 0,0 GW,

Solar: 0,0 GW

Wasser 2,5 GW

Bio-Energie 5,3 GW

Die gesamten „Erneuerbaren“ brachten also eine Leistung auf von 8,2 GW, der Fehlbedarf betrug also 59,1 GW. Um diesen Fehlbedarf allein durch Windkraft auszugleichen (was ja in der Diskussion ist), hätte man die Windkraft um den Faktor 148 verstärken müssen, das allein zeigt schon den ganzen Irrsinn einer Energiewende, die sich allein auf die sog. „Erneuerbaren“ stützen will. (Diagramm „Jan 2019.jpg“).

Für die Entwicklung des Strompreises führt der BRH zunächst ganz richtig aus:

„Es gibt viele Faktoren, die sich teils erheblich auf das Preisniveau von Strom auswirken. Dazu gehören insbesondere der weitere Ausbau erneuerbarer Energien, die Leistungsfähigkeit des Stromnetzes, die CO2-Bepreisung und das derzeitige System von Entgelten, Steuern, Abgaben und Umlagen.“ Der BRH deutet hier zumindest an, dass einer der Faktoren der „weitere Ausbau erneuerbarer Energien“ ist, das hätte man deutlicher ausdrücken können, und man hätte dann auch ausführen müssen, dass der „weitere Ausbau erneuerbarer Energien“ zu stoppen ist, da er zu nichts führt als zu einem weiteren Anstieg des Preisniveaus..

Hierzu habe ich mal ein Beispiel näher untersucht, an dem man den Einfluss des weiteren Ausbaues der erneuerbaren Energien auf die Gestaltung des Preisniveaus erkennen kann. Dazu schauen wir jetzt erst einmal auf das Diagramm „Feb 2020.jpg“, in dem man, vom Agora-Meter übernommen, die Tage vom 21. bis zum 25. Februar 2020 erkennen kann. Dazu habe ich zunächst einen von Hand einen „Bereich A“ grün markiert. Eine vergrößerte Version dieses Bereiches findet man im Diagramm „22 Feb 2020.jpg“, es geht um die Stunden von 11 Uhr bis 13 Uhr dieses Tages. Wenn man bedenkt, dass im Netz der Energie-Zufluss innerhalb von Millisekunden gesteuert werden muss, um die Frequenz innerhalb des zulässigen Intervalls von 0,2 Hz konstant zu halten, dann sind 2 Stunden eine sehr lange Zeit. Man erkennt zu diesem Zeitpunkt, dass zwischen der höchsten eingespeisten Leistung der sog. „Erneuerbaren“, das ist der höchste Punkt im gelben Bereich (Solar) und dem tatsächlichen Verbrauch in diesem Zeitraum, der durch die rote Linie markiert ist, nur noch eine Differenz von 1 GW oder weniger besteht. Die von den konventionellen Kraftwerken geliefert Leistung (grau) ragt erheblich (ca. 15 GW) über den im Netz angeforderten Bereich hinaus. Das bedeutet, dass zu diesem Zeitraum elektrische Leistung im Ausland entsorgt werden muss, was üblicherweise zu negativen Preisen führt. Diese negativen Preise bezahlt der Letztverbraucher über die Regelung im EEG, und das führt zu einem erheblichen Anstieg des Preisniveaus. Diese Situation ist dem Umstand geschuldet, dass die konventionellen Kraftwerke nur eine begrenzte Regelfähigkeit haben, da sie ja in jedem Moment auch bereit sein müssen, ihre Höchstwert einzuspeisen um einen Blackout zu vermeiden. Die konventionellen Kraftwerke können die starke (und unplanbare) Fluktuation der sog. „Erneuerbaren“ nicht soweit ausgleichen, dass sie ihre Leistung bis auf nahezu null zurückfahren.

Das ist schon eine unangenehme Situation. Weit entscheidender ist aber etwas anderes, jeder weitere Ausbau von sog. „erneuerbaren Energien“ führt dazu, dass diese gerade in diesem Moment auch ihren höchsten Beitrag liefern, mit der Folge, dass dann der Energiefluss, der im Ausland verklappt werden muss, einerseits zwar nicht zu mehr „Klimaschutz“ führt, falls man überhaupt im Klimaschutz einen Sinn sieht, für den es einen wissenschaftlichen Nachweis nicht gibt, und andererseits zu einer noch weiteren Steigerung des Preisniveaus führt.

Eine nahezu entgegengesetzte Situation findet man zwei Tage später, im Bereich „B“, vergrößert dargestellt im Diagramm „24 Feb 2021.jpg“. Die solare Einspeisung früh am Morgen ist fast null, und die Einspeisung von Wind nimmt gerade rapide ab. Die konventionellen Anlagen können den Bedarf nun nicht mehr vollständig ausgleichen, und dieser Fehlbedarf muss durch Lieferung vom Ausland ausgeglichen werden. Der Blackout kann nur noch vermieden werden, falls das Ausland überhaupt liefern kann und liefern will (bei einer Mangelsituation im europäischen Bereich ist jeder sich selbst der nächste), und andererseits müssen nun erhebliche Überpreise bezahlt werden, in der Spitze wurde dazu schon der 340-fache Preis des Normalen bezahlt. Auch das wiederum führt zu einer spürbaren Steigerung des Preisniveaus.

Der weitere Ausbau der sog. „erneuerbaren Energien“ hilft hier nicht, im Gegenteil, denn einerseits haben diese Energien jetzt auch ihr Liefer-Minimum und tragen kaum etwas bei, und anderseits werden durch den weiteren Ausbau die konventionellen Energien zurückgedrängt (sie verlieren an Wirtschaftlichkeit), was ja das offizielle politische Ziel ist, und das heißt, die Lücken im Versorgungssystem werden immer größer, und der Zwang, die Nachbarn im Lieferung anzubetteln, zu welchem Preis auch immer, steigt weiterhin. Kurz gesagt, der weitere Ausbau der sog. „erneuerbaren Energien“ steigert unweigerlich die Diskrepanz im Versorgungssystem.

Der einzige Ausweg aus dieser Kalamität wäre, Speicher aufzubauen, die den Strom aufnehmen, der zur falschen Zeit geliefert wird, damit man dann, wenn Unterdeckung da ist, ausgleichen kann. Leider kann man dazu nur im Konjunktiv „wäre“ sagen, denn brauchbare Speicher in der Größenordnung, wie sie benötigt würden, sind noch nicht einmal im Ansatz erkennbar (und werden zur Zeit auch nicht in nennenswertem Maße aufgebaut).

Der BRH äußert sich dazu u.a. so:

Wie hoch die benötigten Speicherkapazitäten sind und inwieweit diese zur Verfügung stehen oder zukünftig verfügbar sein werden, lässt das BMWi offen.

Diese Feststellung ist zwar einerseits richtig, aber der BRH müsste eigentlich wissen, dass es für diese Speicher in absehbarer Zeit keine Möglichkeit gibt, denn nach immerhin 20 Jahren des EEG hat man da nahezu nicht das Geringste unternommen.

Der BRH äußert sich dazu auch so:

„Außerdem muss es (das BMWi) ein „Worst-Case“-Szenario untersuchen, …“

Diese Forderung ist richtig, aber der BRH geht an keiner Stelle darauf ein, dass man immerhin ein „Best-Case-Szenario“ untersucht hat, eigentlich in drei Fällen, auf drei verschiedenen Inseln in drei verschiedenen Ländern, und da war dann die deutsche Insel Pellworm mit der „Smart Region Pellworm“ dabei. Für diesen Versuch sind immerhin Forschungsgelder in Höhe von 12 Millionen ausgegeben worden, um nachzuweisen, dass man auf dieser Insel die „Strom-Wende“ erreicht (von Energiewende ist man davon noch weit entfernt). Nach zwei Jahren, als die Fördermillionen verbraucht waren, hat man alle Anlagen wieder abgebaut, auf der Fläche der ehemaligen Speichereinheiten befindet sich jetzt ein Hundespielplatz. Der Ablauf dieser Verfahren ist fast immer derselbe, bei der feierlichen Eröffnung ist politische Prominenz dabei und verspricht den grandiosen Einstieg in die schöne neue Öko-Welt, in diesem Falle war es der damalige Ministerpräsident Thorsten Albig. Und wenn dann sang- und klanglos alles wieder abgebaut ist, dann wollen die beteiligten Firmen nichts mit dem Experiment zu tun gehabt haben. Immerhin, da öffentliche Gelder mit im Spiel waren, hätte man wenigstens einen Abschlussbericht anfordern müssen, das hat nach meiner Kenntnis der BRH bisher unterlassen. Der Versuch in Pellworm ist insofern vom Worst-Case“-Szenario weit entfernt, als die Bevölkerungsdichte etwa 100 mal kleiner ist als in einer Großstadt wie in Berlin. Wenn unter diesen so günstigsten Umständen schon die Strom-Wende scheitert, dann hätte der BRH die notwendige Schlussfolgerung erheben müssen, nämlich das Experiment Energiewende endgültig zu beenden und für die dazu im Lande aufgestellten Anlagen eine Rückrufaktion durchzuführen. Dazu konnte sich der BRH nicht entschließen, dass muss man kritisieren.

Es gab zu den Versuchen mit der Speicherung noch zwei weitere Versuche, nämlich auf der norwegischen Insel Utsira (unter Leitung der deutschen Firma Enercon) und auf der spanischen Insel El Hierro, auch diese Versuche sind gescheitert. In Utsira, wo man das mit Wasserstoff versucht hat, sind alle Anlagen abgebaut worden. In El Hierro gibt es den Speichersee noch (also ein Pumpspeicherkraftwerk), aber die Anlage ist viel zu klein, und die Insel muss nach wie vor mit Strom auf der Basis von mit Schiffen herangeschafftem Diesel versorgt werden. Zu diesen Versuchen habe ich einen Film gestaltet, der trägt den Titel „Drei Inseln / drei Pleiten“. Bei Interesse kann der BRH eine Kopie anfordern, kostenlos..

Zum Abschluss kann man sagen, dass der BRH immerhin aussagt:

„Der Bundesrechnungshof bekräftigt deshalb seine Auffassung, dass es nicht vorrangig Ziel sein kann, die Energiewende „um jeden Preis“ umzusetzen.“

Das ist ja schon etwas, aber der BRH hätte erkennen können und müssen, dass es eben überhaupt keinen Preis gibt, unter dem man die Energiewende gestalten kann, und dann hätte man dieses Experiment endgültig absagen müssen.

Die Antwort des BRH steht hier in diesem PDF. Herr Würdig schreibt dazu:

Bundesrechnungshof

Postfach 12 05 03

53048 Bonn

auch per eMail: poststelle@brh.bund.de

Ihr Zeichen: II 1 – 05 20 35

Sehr geehrte Damen und Herren,

sehr geehrte Frau Peters,

anlässlich des neuen Berichts „Energiewende nicht auf Kurs: Nachsteuern dringend erforderlich“ komme ich auf mein Schreiben vom 17. April 2021 zurück und darf mich auch bedanken, dass Sie damals ausführlich geantwortet haben.

Es ist ja schon einmal anzuerkennen, dass Sie erneut auf Mängel in der Arbeit des Ministeriums hinweisen und auch deutlich aussagen: „Nachsteuern dringend erforderlich“, aber die Kritik, die ich damals schon geäußert habe, nämlich „wenn man auch feststellen muss, dass die grundsätzlichen und nicht behebbaren Fehler der Energiewende nicht angesprochen werden.“, wohl weiterhin bestehen bleibt.

Sie schrieben in Ihrem Brief damals schon ganz zu Recht:

„Das BMWi hatte keinen Überblick über die finanziellen Auswirkungen der Energiewende.

Das BMWi berücksichtigte die Ziele Versorgungssicherheit, Bezahlbarkeit und Umweltver#träglichkeit nicht gleichrangig.“,

und man muss heute, nach drei Jahren, leider sagen, die Situation und das Verfahren haben sich nicht wirklich geändert.

Auch damals schrieben Sie ganz zu Recht:

„Der Trend der weiter steigenden Strompreise muss durchbrochen werden, um die Wettbewerbsfähigkeit des Wirtschaftsstandortes Deutschland zu sichern…“,

auch an diese Warnung hat sich das Ministerium (und die weiteren Organe der Regierung) nicht gehalten, und auch Warnungen von vielen anderen Seiten (Beispiel: Peter Adrian: „Es drohen Wohlstandsverluste in unvorstellbarem Ausmaß“) wurden praktisch nicht zur Kenntnis genommen. Die Abwanderung wichtiger Teile de deutschen Industrie ist in vollem Gange, man nimmt das achselzuckend zur Kenntnis, und die entscheidenden Funktionsträger sind überwiegend geprägt von ideologischen Vorstellungen und meinen, dass man grundlegende Gesetze der Naturwissenschaften und insbesondere der Physik nicht berücksichtigen muss. Man ist nicht bereit, einzugestehen, dass im Bereich der Energiepolitik (und nicht nur dort) schwerwiegende Fehler gemacht worden sind, die immense Schäden für die Volkswirtschaft zur Folge haben.

Und nun hat man auf Grund von wissenschaftlichen Studien festgestellt, nachts ist es dunkel, und das kann man politisch nicht ändern, und wenn dann auch kein Wind weht, dann ist es nichts mit den sog. „Erneuerbaren“. Der tatsächlich vorgesehene Ausweg, es sollen PV-Felder in Deutsch-Südwest (das heißt jetzt Namibia) angelegt werden, mit dem Strom macht man Wasserstoff, und der wird dann direkt (oder über Umwandlungen) nach Deutschland geschippert. Da auch nur im Ansatz die Kosten auszurechnen weigert man sich permanent, darauf hat schon Prof. Sinn mit seinen Vorträgen hingewiesen mit der Frage „Haben die denn keinen Taschenrechner ?“. Es gibt nur ein Land auf der Welt, das gleichzeitig aus „Kohle“ (fossile Energien) und „Atom“ (Kernenergie) aussteigt, das ist Deutschland, die Folge ist, dass sich der Preis für Energie um den Faktor fünf bis zehn erhöht (kann auch mehr als zehn werden, wir wissen ja nicht, was der Wasserstoff aus Namibia kosten wird). Diese Entwicklung, von der im Moment auch nicht der Ansatz eines Umsteuern zu erkennen ist, wird den Wirtschaftsstandort Deutschland gründlich ruinieren mit der Folge auch von sozialen Unruhen.

Ich sehe in dieser Frage eigentlich nur zwei Auswege.

A) Klimahysterie aufgeben.

Dazu muss man dem Volk die Wahrheit sagen, CO2 ist kein Schadstoff sondern wegen der Fotosynthese die Voraussetzung für das Leben auf der Erde (eigentlich auch Unterrichtsstoff in der Schule). Die optimale Konzentration von CO2 haben wir noch lange nicht erreicht, deshalb hat eine weitere Steigerung überwiegend positive Wirkungen (die Erde „ergrünt“, die Welternährung wird unterstützt). Das bedeutet, Ausstieg aus dem Kohle-Ausstieg, Beendigung der ökosozialistischen Planwirtschaft und energie-offener Wettbewerb mit sozialer Marktwirtschaft. CO2-Steuern beenden, stattdessen über Prämien nachdenken. Mit Braunkohle allein haben wir in Deutschland einen sicheren Vorrat für die Versorgung mit Energie für etwa 300 Jahre, in diesem Zeitraum wird man voraussichtlich auch die Kernfusion marktfähig machen können.

B) Klimahysterie nicht aufgeben

Man muss berücksichtigen, dass viele Menschen im Lande die einmal erlernte Hysterie nicht aufgeben wollen, obwohl es bis heute nicht einen einzigen Nachweis gibt, das vermehrter Anteil von CO2 zu schlechterem Wetter führt (die Grundlagen der Physik sprechen klar dagegen). Dann muss man sich klarmachen, dass ein weiterer Ausbau der sog. „Erneuerbaren“ hoffnungslos ist und nur eine weitere Preissteigerung für Energie zur Folge hat. Der Grund ist sehr einfach, die neu errichteten Anlagen (für Wind und Sonne) haben denselben Fehler wie die schon bestehenden, sie liefern den Strom zur falschen Zeit. Da es Speicher ausreichender Kapazität nicht gibt (und eine Entwicklung auch im Ansatz nicht zu erkennen ist), führt das dazu, dass zu manchen Zeiten Strom im Überfluss produziert wird, den kann keiner gebrauchen, und dieser Weg-werf-Strom wird auch noch mit hohen Kosten den Betreibern der Anlagen vergütet, während die Lücken zu anderen Zeiten bleiben, die sollen ja dann mit Wasserstoff aus Namibia gefüllt werden.

Der entscheidende Zustand ist schon vor einiger Zeit erreicht worden, als die „Erneuerbaren“ in der Spitze etwa 80% des elektrischen Bedarfes erreicht haben, denn die konventionellen Anlagen können nicht auf Null zurückgefahren werden (und sie können auch nicht rückwärts laufen, um überflüssigen Strom wieder in Kohle oder Uran zu verwandeln). Die konventionellen Anlagen müssen ja stets bereit sein, auch den vollen Bedarf sofort zu liefern, sonst käme ein Black-out.

Man muss sich klar machen, wir haben über 20 Jahre die „Erneuerbaren“ mit massiven Beträgen subventioniert, es sollte ja eine Anschub-Subventionierung sein, so wurde uns das versprochen, allerdings ist der Anschub nicht gelungen. Es gibt bis heute in Deutschland nicht einen einzigen Haushalt, der mit Erneuerbaren versorgt wird, sie hängen alle am Netz. Auch die Versuche, auch nur eine kleine Insel mit Erneuerbaren zu versorgen, sind alle kläglich gescheitert, ich habe dazu den Film gemacht: „Drei Inseln / drei Pleiten“.

Man muss also doch feststellen, „nachsteuern“ (also auf demselben Wege weitermachen, oder wie es die Junge Freiheit mal tituliert hat, „In Sackgassen Vollgas geben“) wird es nicht bringen, wir müssen „umsteuern“.

Die einzige Lösung, die dann noch bleibt, ist die Umstellung auf Kernenergie. Das ist im Prinzip möglich, Frankreich macht das vor (und andere Länder auch), es braucht allerdings einige Zeit, bis wir das erfolgreich geschafft haben. Der Thorium-Brüter hat Vorrat für etwa 60 Millionen Jahre, das reicht erst mal, neuere Typen von Kernreaktoren können auch den sog. „Atommüll“ verwerten. Andere Möglichkeiten kann ich nicht erkennen.

Mit freundlichen Grüßen

Peter Würdig

 




Kranker Witz: Nichts „Grünes“ an den kalifornischen Vorschriften für Elektrofahrzeuge

Stopthesethings

Theoretisch ist an vollelektrischen Fahrzeugen nichts auszusetzen. Aber wenn sie wirklich ein sinnvoller Ersatz für Benzin- oder Dieselfahrzeuge wären, wären diese bereits aus der Mode gekommen. Außer, dass aus irgendeinem seltsamen Grund die Käufer sich noch meist für Autos mit Verbrennungsmotoren entscheiden.

Mit dem All-EV-Kult ist eine Menge Ironie verbunden:

Die größte E-Ladestation der Welt wird ausschließlich mit Dieselgeneratoren betrieben (Bild siehe Original Beitrag).

oder auch hier  https://www.pond5.com/de/stock-footage/item/96237837-tesla-chargers-middle-nowhere-spain

oder auch hier:  Tesla Ladestationen in der Einöde

https://www.pond5.com/de/stock-footage/item/96237837-tesla-chargers-middle-nowhere-spain

Dann ist da noch die Heuchelei, die das Herzstück jedes Elektrofahrzeugs ist: eine Lithium-Ionen-Batterie.

Die Lithium-Ionen-Batterie, ob sie zum Antrieb eines reinen Elektrofahrzeugs oder als eigenständiger Speicher für liebevoll von Mutter Natur geerntete Elektronen verwendet wird, benötigt eine Fülle seltener Erden und seltener Mineralien, deren Gewinnung nur als problematisch bezeichnet werden kann.

Darüber hinaus fällt es den Leuten an Orten wie Kalifornien, wo der All-EV-Kult vorherrscht, schwer, die Umweltauswirkungen ihrer überaus frommen und pompösen Wahl des Fahrzeugs zu erklären.

 

Warum das kalifornische Klima-Offenlegungsgesetz grüne Energie zum Scheitern bringen sollte

Orange County Register, Craig Rucker, 19. Februar 2024

Kalifornien ist stolz darauf, bei der Bekämpfung des Klimawandels führend zu sein. Dies liegt daran, dass sie, wenn auch auf unsicherer wissenschaftlicher Grundlage, glauben, dass ihre Bürger „bereits“ mit den verheerenden Folgen konfrontiert sind, die ihnen die vom Menschen verursachte globale Erwärmung zufügt – darunter Waldbrände, Anstieg des Meeresspiegels, Dürre, Klimaflüchtlinge und andere Auswirkungen, die „ihre Gesundheit und Sicherheit bedrohen“.

Um den CO2-Fußabdruck ihres Staates zu verringern, hat der Gesetzgeber daher kürzlich ein Gesetz verabschiedet, das alle Unternehmen, die in Kalifornien Geschäfte im Wert von über 1 Milliarde US-Dollar tätigen, dazu verpflichtet, alle ihre „direkten“ Treibhausgasemissionen (THG), die aus der Kraftstoffverbrennung stammen, (bis 2026) „offenzulegen“, sowie alle „indirekten“ Treibhausgasemissionen, die aus dem Strom, der Heizung und der Kühlung entstehen.

Bis 2027 müssen sie außerdem „indirekte vor- und nachgelagerte“ Treibhausgasemissionen offenlegen, die von Quellen emittiert werden, die ihnen nicht gehören oder die sie nicht direkt kontrollieren, von denen sie aber Waren und Dienstleistungen beziehen, einschließlich der Treibhausgasemissionen, die mit der „Verarbeitung und Verwendung verkaufter Produkte“ verbunden sind.

Dies scheint sicherlich fast jedes Großunternehmen abzudecken, das im einst goldenen Staat Geschäfte machte. Ob es denjenigen helfen wird, die sich über den Klimawandel Sorgen machen, nachts besser zu schlafen? Aber wird es tatsächlich die Treibhausgasemissionen des Planeten senken?

Die einfache Antwort lautet „Nein“. Lassen Sie mich es erklären.

Da  in Kalifornien bis 2035 nur noch „emissionsfreie“ Fahrzeuge verkauft werden dürfen und der Staat  bis 2045 über 100 % „sauberen“ Strom verfügen muss, sollten die neuen Offenlegungsvorschriften (zumindest theoretisch) die Treibhausgasemissionen abdecken, die mit „upstream“ Rohstoff-Betrieben verbunden sind, welche erforderlich sind, für die Verarbeitung von Rohstoffen. Nachfolgend für die Herstellung neuer Energieerzeugungs- und -nutzungstechnologien und den Transport von Geräten für „saubere Energie“, die nach Kalifornien verkauft oder dort verwendet werden.

Die neuen Mandate sollten dann auch Windturbinen, Solarpaneele, Batterien für Elektrofahrzeuge, Backup-Batterien im Netzmaßstab, Transformatoren, erweiterte und ausgebaute Übertragungsleitungen und andere Geräte umfassen, die mit der aufstrebenden „sauberen, grünen, erneuerbaren und nachhaltigen“ Wirtschaft Kaliforniens verbunden sind.

Und sie sollten unbedingt auch die Gewinnung, Verarbeitung, Raffinierung und andere Aktivitäten abdecken, die zur Gewinnung der nicht erneuerbaren Metalle, Mineralien, Beton, Kunststoffe, Farben, anderen Materialien – und Brennstoffe – erforderlich sind, die für die Herstellung und Installation dieser Technologien erforderlich sind.

Die milliardenschweren Versorgungsunternehmen, die all diese Geräte kaufen und nutzen, sollten unbedingt dazu verpflichtet werden, alle mit diesen „sauberen“ Technologien verbundenen Emissionen zu katalogisieren und öffentlich offenzulegen.

Wenn eine solche Bestandsaufnahme genau durchgeführt wird, und das ist zugegebenermaßen ein bisschen „wenn“. So ergibt das kein schönes Bild für diejenigen, die erneuerbare Energien, umweltfreundliches Bauen und „grüne Lösungen“ für den Transport durch Elektrofahrzeuge anpreisen.

Die Internationale Energieagentur und andere Experten berichten, dass  Elektrofahrzeuge gewichtsmäßig sechsmal mehr Metalle enthalten   als Fahrzeuge mit Verbrennungsmotor. Photovoltaik-Solarmodule erfordern sechsmal mehr Metalle und Mineralien (außer Stahl und Aluminium) pro Megawatt als eine Gas-Kombiturbine, die praktisch rund um die Uhr Strom erzeugt. Sie benötigen außerdem mindestens 100-mal mehr Landfläche.

Wetterabhängige, intermittierende Onshore-Windkraftanlagen benötigen neun- bis zehnmal mehr als ein GuD-Kraftwerk, und Offshore-Windkraftanlagen benötigen  vierzehnmal mehr Rohstoffe . Um 260 m hohe Windkraftanlagen in den Tiefseegewässern Kaliforniens zu errichten, müssten sie auf schwimmenden Plattformen montiert werden, die groß genug sind, um zu verhindern, dass sie bei Stürmen kentern. das würde wahrscheinlich 40-mal mehr Materialien bedeuten.

Pro 100.000 Tonnen Kupfer (genug für 2.275 gigantische 12-MW-Offshore-Windturbinen) müssten die Unternehmen fast 60. Mio Tonnen Erz und darüber liegendes Gestein sprengen und abbauen und anschließend fast 23. Mio Tonnen Erz mithilfe von Hitze und Chemikalien verarbeiten. Jeder Schritt beinhaltet fossile Brennstoffe.

Nickel für leistungsstarke Nickel-Kobalt-Aluminium- und Nickel-Mangan-Kobalt-Batterien für Elektrofahrzeuge kommt größtenteils in Indonesien vor, wo Unternehmen das Erz mit dieselbetriebenen Geräten abbauen und es an mit Kohle betriebene Schmelzhütten schicken. Sobald ein einziger Nickel verarbeitender Industriepark im Osten Indonesiens vollständig in Betrieb ist, wird er mehr Kohle pro Jahr verbrennen als Brasilien .

Kobalt für Kobalt-Lithium-Batterien stammt größtenteils aus der Demokratischen Republik Kongo, erfordert umfangreiche Kinder und Beinahe-Sklavenarbeit. Ebenso sind für die meisten anderen Metalle und Mineralien „für erneuerbare“ Technologien“, sind fossile Brennstoffe und giftige Chemikalien nötig, hauptsächlich aus und vom kommunistischen China kontrolliert .

Nicht nur Rohstoffe sondern auch die Herstellung von Windturbinen, Solarpaneelen und Batterien ist ebenfalls stark auf China konzentriert, dessen Kohlestrom und die daraus resultierenden Treibhausgasemissionen inzwischen die des Rests der Welt zusammen übersteigen. Tatsächlich hat China allein im Jahr 2020 38,4 Gigawatt (38.400 MW) neue Kohlekraftwerks-Kapazität  in Betrieb genommen – mehr als das Dreifache der Menge, die überall auf der Welt gebaut wurden.

Kurz gesagt: Der grüne Übergang Kaliforniens dürfte für diejenigen, die tatsächlich versuchen, die Treibhausgasemissionen zu senken, eine große Pleite sein. Man kommt nicht umhin, sich zu fragen, was passiert, wenn kalifornische Politiker erkennen, dass ihr großer Plan, den Planeten Erde vor einer vom Menschen verursachten Klimakrise zu retten, tatsächlich dazu führt, dass möglicherweise noch mehr Treibhausgasemissionen in die Atmosphäre gelangen?

Meine Vermutung sagt überhaupt nichts – außer natürlich, um sicherzustellen, dass eine solche gültige Bestandsaufnahme gar nicht erst durchgeführt wird.

Orange County Register

https://stopthesethings.com/2024/03/06/sick-joke-nothing-green-about-californias-all-electric-vehicle-mandates/

Übersetzt durch Andreas Demmig

 




Arktische Meer-Eiskapaden

Willis Eschenbach

Ich sehe, dass der übliche düstere Hype um das arktische Meereis unvermindert anhält. Das geht schon eine ganze Weile so. Hier ist der Dekan des gescheiterten seriellen Doomcasting, James Hansen, der sich bereits 2008 zu diesem Thema geäußert hat:

Abbildung 1. James Hansens verunglückte Vorhersage eines eisfreien arktischen Sommers bis 2018 aus dem Jahr 2008.

Der jüngste Beitrag zur Vorhersage wird in der Lieblingszeitung der Klimaalarmisten, dem Guardian, mit dem obligatorischen, zu Tränen rührenden Eisbärenfoto beschrieben:

Wissenschaftler: Eisfreie Sommer in der Arktis sind bereits in der nächsten Dekade möglich!

Die Heimat von Eisbären, Robben und Walrossen könnte schon 2035 aufgrund der Emissionen fossiler Brennstoffe monatelang nur noch aus Wasser bestehen.

Der Hype im Guardian bezieht sich auf eine frei zugängliche Studie mit dem Titel Projections of an ice-free Arctic Ocean im Nature Magazine.

Nun muss man aufpassen, dass man nicht die Erbse unter der Walnussschale sieht. Weiter unten in der wissenschaftlichen Studie heißt es:

Die Definition einer „eisfreien Arktis“ hat sich im Laufe der Zeit geändert. Früher bezog sie sich auf das fast vollständige Verschwinden des Meereises oder auf eine Ausdehnung des Meereises von Null. Da jedoch nördlich von Grönland und dem kanadischen Arktischen Archipel seit mehr als einem Jahrzehnt weiterhin dickes Meereis vorhanden ist, nachdem der Rest des Arktischen Ozeans im September eisfrei wird, wurde ein Ausdehnungs-Grenzwert von 1 Million km² üblich.

Wir sprechen also nicht wirklich von einer Null-Ausdehnung des Meereises. Es geht um eine Million Quadratkilometer Eis, also mehr als ein Drittel einer Million Quadratmeilen. Das ist eine ganz andere Frage.

Weiter heißt es:

Es wurden auch statistische Methoden verwendet, um Vorhersagen über eine eisfreie Arktis zu machen. Die meisten dieser Vorhersagen beruhen auf beobachteten linearen Beziehungen zwischen der globalen oder arktischen Temperatur und der Meereisbedeckung.

Ich habe diese Behauptung einer linearen Beziehung zwischen Temperatur und Meereisausdehnung in der Arktis gesehen. Fangen wir damit an, was mit dem Meereis seit Beginn der Satellitenära im Jahr 1979 tatsächlich passiert ist. Zunächst zu den Veränderungen bis 2012:

Abbildung 2. Jährliches Minimum der arktischen Sommer-Meereisausdehnung, 1979 bis 2012. Na sowas! Schnell abnehmend.

Nun, das ist merkwürdig. Die minimale arktische Meereisausdehnung nahm von Beginn der Satellitenaufzeichnungen bis zum Jahr 2000 langsam ab. Von da an nahm sie immer schneller ab, bis zum Jahr 2012.

Und deshalb waren sich die Wissenschaftler so sicher, dass es zu einem Zusammenbruch kommen würde. Ich meine, im Jahr 2012 konnte jeder vernünftige Mensch das Unvermeidliche sehen. Nachdem die Fläche seit der Jahrtausendwende von 6 Millionen auf 4 Millionen Quadratkilometer gesunken war, stand 1 Million Quadratkilometer (auch bekannt als „eisfrei“) offensichtlich unmittelbar bevor. Deshalb war sich James Hansen schon 2008 so sicher, dass die Arktis in naher Zukunft eisfrei sein würde.

Auf dem Weg zum Thermageddon™ ist jedoch etwas Lustiges passiert. Hier ist der Rest der Aufzeichnungen über die Eisausdehnung in der Arktis:

Abbildung 3. Jährliche minimale arktische Sommer-Meereisausdehnung, 1979 bis 2023

Die arktische Meereisausdehnung ging 2012 zurück und ist seitdem relativ stabil geblieben. Ich bin sicher, dass dies Jim Hansen die Haare zu Berge stehen ließ. Und es ist ein hervorragendes Beispiel für die Grenzen von Klimamodellen.

Soweit ich weiß, hat kein einziges Klimamodell und kein einziger Klimawissenschaftler vorhergesagt, dass der starke Abwärtstrend der arktischen Eisausdehnung um 2012 herum abflachen und ein Jahrzehnt lang so bleiben würde. Das ist ein Problem mit iterativen Klimamodellen für chaotische Systeme. Es ist auch ein Problem des Menschen. Sowohl Menschen als auch Modelle neigen dazu, zu berechnen, dass sich ein Trend fortsetzen wird. Weder Menschen noch Modelle sind sehr gut darin, Kehrtwendungen oder Richtungswechsel in chaotischen Systemen vorherzusagen.

In welche Richtung wird es also weitergehen? Unbekannt. Eine der Merkwürdigkeiten ist zum Beispiel, dass eine wärmere Welt auch eine feuchtere Welt ist, und eine feuchtere Welt bedeutet mehr Schnee. Schnee auf dem Eis isoliert das Eis und macht es länger haltbar. Das ist ein gutes Beispiel für das, was ich als mein „erstes Klimagesetz“ nenne, das besagt:

In der chaotischen Riesen-Wärmemaschine, die wir Klima nennen, ist alles mit allem anderen verbunden, was wiederum mit allem anderen verbunden ist …

… außer wenn dem nicht so ist.

Das ist wahr. Das Klima besteht aus sechs Hauptsubsystemen: Atmosphäre, Hydrosphäre, Lithosphäre, Biosphäre, Kryosphäre und Elektrosphäre. Jedes dieser Teilsysteme steht in ständigem Austausch von Materie und/oder Energie mit allen anderen Teilsystemen. Jedes Teilsystem enthält relevante Phänomene auf allen Zeitskalen, von Nanosekunden bis zu Millionen von Jahren, und auf allen räumlichen Skalen, von Nanometern bis zum gesamten Planeten.

Darüber hinaus hat jedes dieser Teilsysteme seine eigenen chaotischen internen Resonanzen, Zyklen und Regimewechsel, die wiederum alle anderen Teilsysteme beeinflussen. Das Klima ist ein System von fast unvorstellbarer Komplexität, das wir gerade erst zu verstehen beginnen. Daher ist die Behauptung, dass wir es mit den heutigen Computern modellieren können, … nun ja … ich nenne es mal Hybris höchsten Grades.

Aber ich schweife ab. Ich habe begonnen, eine ihrer zentralen Behauptungen zu überprüfen, nämlich dass die arktische Eisausdehnung eine „lineare Beziehung“ zur Temperatur hat. Also nahm ich die in Abbildung 4 dargestellten Daten zur arktischen Eisausdehnung und verglich sie mit einer Reihe von Temperaturaufzeichnungen. Um die Dinge klar darzustellen, habe ich nur die geglätteten Versionen jedes Datensatzes verwendet und sie alle auf den gleichen Bereich von Maximum bis Minimum eingestellt:

Abbildung 4. Ein Blick auf das, was in der Studie fälschlicherweise als „beobachtete lineare Beziehungen zwischen globaler oder arktischer Temperatur und Meereisbedeckung“ bezeichnet wird. Die Temperaturdatensätze sind invertiert, weil höhere Temperaturen zu weniger arktischem Eis führen sollten.

Es gibt nicht nur keine „lineare Beziehung“ zwischen der Ausdehnung des arktischen Eises und der Temperatur, sondern es gibt überhaupt nur eine sehr geringe Beziehung. Ja, ganz allgemein korrelieren wärmere Temperaturen mit einer geringeren Ausdehnung des arktischen Meereises.
Aber keiner der Temperaturdatensätze zeigt die jüngste Abflachung der arktischen Meereisausdehnung. Am nächsten kommt, wie zu erwarten, die Reynolds-OI-Meereistemperatur nördlich des Polarkreises … aber selbst diese weicht im frühen Teil der Aufzeichnung stark ab und stimmt im jüngsten Teil schlecht überein.

Ich behaupte also, dass die Behauptung „beobachtete lineare Beziehungen zwischen der globalen oder arktischen Temperatur und der Meereisbedeckung“ einfach nicht stimmt.

Um zum Thema der Studie zurückzukehren: Die „Prognosen“ für das Jahr, in dem wir die erste eisfreie Arktis erleben werden, sind ziemlich witzig. Sie sind so breit gefächert, dass, wenn die eisfreien arktischen Bedingungen zu irgendeinem Zeitpunkt zwischen jetzt und 2150 eintreten sollten, das Modell von irgendjemandem dafür verantwortlich gemacht werden könnte. Im Folgenden zeige ich die neun verschiedenen Modelle und Modelldurchschnitte, die in der Studie aufgeführt sind.

Als erstes fällt auf, dass wir entgegen der Behauptung eines bevorstehenden eisfreien Sommers in fünf der neun Modelle bereits über das behauptete früheste eisfreie Datum hinaus sind:

Abbildung 5. Früheste und späteste eisfreie Daten der neun Modelle und Modellgruppen. Horizontale Linien verbinden die Namen der einzelnen Modelle mit den Kästchen, deren linker und rechter Rand die frühesten und spätesten eisfreien Daten nach diesem Modell zeigen.

Der dunkelblaue Bereich um 2035 bis 2045 zeigt, was nach den Modellen der wahrscheinlichste Zeitpunkt ist, an dem wir eine eisfreie Arktis erleben werden. In Anbetracht der bisherigen Genauigkeit der Modelle sollte dies jedoch nicht mit Vorsicht, sondern mit einem Kilo Salz genossen werden …

Schließlich haben die Autoren nur die extremsten Klimaszenarien verwendet. Unter den etablierten Klimawissenschaftlern herrscht derzeit allgemeiner Konsens darüber, dass diese extremen Szenarien (SSP5-8.5, RCP8.5 und A1B) allesamt höchst unwahrscheinlich sind und nicht zur Verwendung empfohlen werden, da sie zu sehr unwahrscheinlichen Projektionen führen. Trotzdem haben sich die Autoren für diese Szenarien entschieden, vermutlich, um die Angst in der Öffentlichkeit zu schüren … was natürlich garantiert, dass diese Autoren auch in Zukunft Finanzmittel erhalten.

Schlussfolgerungen

– Es gibt keine einfache lineare Beziehung zwischen der globalen oder arktischen Temperatur und der arktischen Meereisausdehnung.

– Modelle sind nur eine Verdeutlichung des Verständnisses und der Missverständnisse der Programmierer.

– Sie sollen angeblich „physikalisch fundiert“ sein, aber wenn sie das wirklich wären, gäbe es keine so großen Unterschiede zwischen den Modellen.

– Die Verwendung der extremsten Szenarien ist ein klarer Beweis für die alarmistischen Ansichten der Autoren dieser Studie.

Und ein letzter Gedanke. Die Klimawissenschaft täte gut daran, ein Moratorium für diese endlosen gescheiterten Fortsetzungsromane zu verhängen und stattdessen das Klima der Vergangenheit zu untersuchen. Die Modelle sind in dieser Hinsicht ein Witz. Man bedenke, dass die Modelle Klimaempfindlichkeiten angeben, die zwischen 1,5° C und 6,5° C pro CO₂-Verdoppelung liegen. Trotzdem sind sie alle in der Lage, die historische Temperaturentwicklung vernünftig nachzubilden … und wenn sie, wie die Modellierer behaupten, „physikalisch begründet“ sind, ist das physikalisch nicht möglich. Ich erörtere dies in meinem Beitrag Dr. Kiehl’s Paradox. Das ist ein klarer Beweis dafür, dass sie lediglich darauf abgestimmt sind, die Vergangenheit abzubilden, und daher bei der Vorhersage der Zukunft nicht glaubwürdig sind.

[Hervorhebung im Original]

Link: https://wattsupwiththat.com/2024/03/08/arctic-sea-icecapades/

Übersetzt von Christian Freuer für das EIKE