Immer mehr ernste Warnungen vor langen Stromsperren

Die Energiewende wird Deutschland 5 Billionen Euro kosten. Ein teurer Spaß, vor allem, wenn man bedenkt, dass Netzbetreiber vor drohenden häufigen und langen Stromabschaltungen wegen der Energiewende warnen.

von Manfred Haferburg

Wieder kommt – von den Medien wenig beachtet – eine neue Hiobsbotschaft auf den Vizekanzler und Bundesminister für Wirtschaft und Klimaschutz Dr. Robert Habeck zu. Welt Online titelt: Stromnetz bis zu hundertmal im Jahr tot? Die neuen Zweifel am frühen Kohleausstieg”.

Nun ist es nicht mehr „nur“ der baden-württembergische Netzbetreiber TransnetBW, der vor dem Netzzusammenbruchwarnt. Es ist nicht mehr nur der Bundesrechnungshof, der dem Energiewendeschiff bescheinigt, gefährlich aufs Riff zuzulaufen. Nun warnt die Chefin des größten Verteilnetzbetreibers Westenergie vor großen Versorgungslücken. Westenergie versorgt rund acht Millionen Menschen im Westen Deutschlands mit Strom, Gas, Wasser und Internet. Mit einem Stromnetz von fast 200.000 Kilometern Länge gilt die Eon-Tochter als größter Verteilnetzbetreiber des Landes.

Welt Online schreibt: „Katherina Reiche, Chefin des größten Verteilnetzbetreibers Deutschlands, warnt vor enormen Versorgungslücken im Stromnetz angesichts eines Kohleausstiegs bis 2030. In einem bestimmten Szenario seien bis zu hundert Abschaltungen im Jahr möglich, die bis zu 21 Stunden dauern könnten“. Der Netzbetreiber hat die Wetterdaten der letzten dreißig Jahre ausgewertet und den Kraftwerksverschrottungsplänen der Bundesregierung gegenübergestellt.

Demnach könnten es im Jahresverlauf in dunklen, windstillen Phasen bis zu hundertmal zu Versorgungslücken kommen, die bis zu 21 Stunden dauern. Dies sei für ein Industrieland nicht hinnehmbar. Ob das nur für die Industrie hinnehmbar ist, da habe ich meine Zweifel. Da könnten auch die im Dunkeln und Kalten sitzenden Verbraucher unfroh reagieren und an der heilsbringenden Energiewende zweifeln.

Und was sagt die „Wissenschaft“?

Zu den leisen Kritikern des vorgezogenen Kohleausstiegs zählen auch drei ostdeutsche Ministerpräsidenten, Brandenburgs Dietmar Woidke (SPD), Sachsens Ministerpräsident Michael Kretschmer (CDU) und Sachsen-Anhalts Ministerpräsident Reiner Haseloff. Sie fordern, das vorgezogene Kohle-Aus im Jahre 2030 schlicht zu streichen.

Umweltschutzorganisationen wie BUND und die Partei der Grünen pochen indes auf das frühe Ausstiegsdatum. „Wir Grüne im Bundestag wollen den Kohleausstieg auf 2030 vorziehen“, heißt es auf der Website der Grünen Fraktion. Nach dem Willen der Regierungsparteien soll der Anteil von Strom aus Wind und Sonnenenergie bis zu diesem Zeitpunkt auf 80 Prozent gestiegen sein. Die schwarz-grüne Landesregierung in Nordrhein-Westfalen hat sich mit dem RWE-Konzern auf ein Ende der Kohleförderung im Rheinland, dem größten Braunkohlerevier Europas, bereits für das Jahr 2030 verständigt.

Was sagt denn nun die „Wissenschaft“ dazu, ob die deutsche Energiewirtschaft den Ausstieg aus Kernkraft, Kohle und Gas innerhalb weniger Jahre problemlos bewältigen kann? Dazu gibt es eine Vielzahl von Auftragsstudien mit unterschiedlichsten Ergebnissen. Die Analysen der Bundesnetzagentur und der Umweltverbände halten das Ziel unter hohen Kosten und der Bedingung, dass die Planziele der Regierung hinsichtlich des Ausbaus der erneuerbaren Energieträger und der Backup-Gaskraftwerke eingehalten werden, für erreichbar. Inzwischen hält aber sogar die Regierung diese Pläne für unrealisierbar und hat sie zum Teil kurzerhand halbiert.

Ungeheure Kosten

Die Betrachtungen der Netzbetreiber hingegen sehen die Verlässlichkeit der Stromversorgung in Deutschland grundsätzlich in Gefahr. Es gibt schlicht nicht die personellen, finanziellen und materiellen Ressourcen, die Pläne der Regierung hinsichtlich des Netzausbaus, des Baus der Backup-Gaskraftwerke, der Windräder und der Wasserstoff-Industrie in der zur Verfügung gestellten Zeit zu realisieren.

Leider hat sich die Ampel angewöhnt, die Brücken nach der Überquerung zu sprengen, wie bei der Kernenergie deutlich zu sehen ist. Der Rückweg soll unter allen Umständen versperrt werden, auch wenn sich eine Entscheidung später als Irrtum herausstellt. Nach der Devise „Not macht erfinderisch“ sollen dann wohl Energiespeicher herbeigezaubert werden. Beim Kohleausstieg hat man das Jahr 2030 auch im Habeck-Ministerium wohl schon längst beerdigt. Anders sind die Laufzeitverlängerungen bis nach 2031 nicht zu erklären, welche die Bundesnetzagentur den „Kohle-Netzreservekraftwerken“ gewährt hat.

Die Wirtschaftsforschungsinstitute sehen zusätzlich ungeheure Kosten auf die Deutschen zurollen. Allein für die Ertüchtigung der Mittel- und Niederspannungsnetze werden jährlich 16 Milliarden Euro fällig. Die meist erdverlegten Niederspannungsnetze sind nämlich hinsichtlich ihrer Leitungsquerschnitte und ihrer Transformatoren nicht dafür ausgelegt, die hohe Anschlussleistung der vielen geplanten Wärmepumpen und Ladestationen für E-Autos zu versorgen.

Fünf Billionen Euro für die Energiewende

Aber auch hier lässt die Regierung schon die alten Brunnen zuschütten, bevor die neuen Wasser geben. Anders ist die Novelle §14 Energiewirtschaftsgesetz: Regelungen zur Integration steuerbarer Verbrauchseinrichtungen nicht zu erklären. Seit 1. Januar 2024 gilt: „Ein Netzbetreiber darf nun den Anschluss von steuerbaren Verbrauchseinrichtungen nicht mehr mit dem Hinweis auf mögliche Niederspannungsnetz-Engpässe verweigern“. Notabene: obwohl die Netze nicht dafür geeignet sind, obwohl der Chef der Bundesnetz-agentur Müller selbst sagt: „Auf einen schnellen Hochlauf ist der größte Teil der Nieder-spannungsnetze aktuell allerdings noch nicht ausgelegt. Die Netze müssen in hohem Tempo optimiert, digitalisiert und ausgebaut werden”.

Welt Online schreibt: „Eine Analyse im Auftrag des britischen Beratungsunternehmens Cornwall Insights verwies kürzlich zudem darauf, dass sich auch der Finanzspielraum der Bundesregierung für die Unterstützung von Gaskraftwerken verengt hat. Doch ohne Subventionen sind diese Stromerzeuger nach Angaben aus der Branche nicht rentabel zu betreiben.

Fest steht, dass die Energiewende noch enorme Geldsummen verschlingen wird. Bis 2050 seien Investitionen von rund fünf Billionen Euro notwendig, um Deutschlands Klimaneutralität zu erreichen, sagte Reiche unter Berufung auf Daten des Prognoseinstituts und der bundeseigenen KfWBank. Davon entfalle der Großteil auf die Bereiche Mobilität, Industrie und Energie. Hauptsächlich durch die Elektrifizierung des Autofahrens (per E-Auto) und des Heizens (per Wärmepumpe) werde die Stromnachfrage auf absehbare Zeit um jährlich zwei bis drei Prozent zulegen.“

Verarmungsprogramm für Deutschland

Fünf Billionen Euro bis 2050? Sind das nicht fünftausend Milliarden Euro? Dann arbeitet das ganze Land in den nächsten 25 Jahren für nichts anderes mehr als die Umsetzung der Dekarbonisierungsfantasien der Grünen. Es muss eine ganze Speicherindustrie aufgebaut werden. Derzeit besitzt Deutschland Speicher mit der Kapazität von ein paar Gigawattstunden. Dies muss innerhalb weniger Jahre auf 91 Gigawattstunden erweitert werden. Das bedeutet eine Verdreizehnfachung der Speicherkapazität bis 2050. Technologisch und geologisch eignen sich derzeit für Deutschland aber leider nur Batteriespeicher. Das Material dafür muss aber wohl von einem anderen Stern geholt werden.

Es sollen für 60 Milliarden H2-Ready-Gaskraftwerke gebaut werden, die vorerst mit teurem Fracking-LNG aus den USA betrieben werden. Aber aus dem Erdgas wollen die Grünen ja auch baldmöglichst aussteigen. Die Unmöglichkeit der Umsetzung aller hochfliegenden Beglückungsideen der Grünen zur Weltrettung ergibt nur einen Sinn: Es ist ein Verarmungsprogramm für Deutschland.

Dem letzten Satz des Welt-Online-Artikels habe ich nichts hinzuzufügen: „Soll die Rechnung für eine sichere Stromversorgung aufgehen, muss gleichzeitig die Wasserstoff-Produktion von derzeit nahe null auf bis zu 40 Gigawatt hochgefahren werden – im Wesentlichen, um den Betrieb der Gaskraftwerke auch dann zu garantieren, wenn der nächste Ausstieg perfekt sein wird: der aus dem Erdgas“.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Seltener Lichtblick: Argentinische Dürre hat nichts mit dem Klimawandel zu tun – Klimaschau 183

Die Klimaschau informiert über Neuigkeiten aus den Klimawissenschaften und von der Energiewende. Thema der 183. Ausgabe: Seltener Lichtblick: Argentinische Dürre hat nichts mit dem Klimawandel zu tun




Das Geschwätz von den Kipppunkten

Ob versiegender Golfstrom oder erlahmender Jetstream: Die Medien nutzen jede Gelegenheit, um Untergangsszenarien zu verbreiten. Dabei können sie auf die tatkräftige Hilfe einiger Forscher zählen, deren Ansichten weitab von jeglichem wissenschaftlichen Konsens liegen.

von Peter Panther

Vor kurzem sorgte der Klimawandel wieder für düstere Schlagzeilen. Für einmal ging es aber nicht um eine befürchtete Erwärmung, sondern um eine Abkühlung, die angeblich droht. «Atlantik-Strömung steht vor dem Kollaps – und könnte Europa zum Kühlschrank machen», titelte «Focus». «Sorgt Atlantik-Strömung bald für eisige Temperaturen?», war im Schweizer «Blick» zu lesen.

Eiszeit in Europa? Anlass für die Aufregung war eine Studie im Fachblatt «Science Advances». Darin waren niederländische Forscher um den Atmosphären-Wissenschaftler René van Westen zum Schluss gekommen, dass ein Abbruch der Atlantischen Umwälzbewegung (AMOC) bevorstehen könnte. Die AMOC wird gemeinhin als Golfstrom bezeichnet. Grundlage für die Studie bildeten Berechnungen mit einem Supercomputer zur Frage, wie sich der Klimawandel auf die Strömung auswirkt.

Es geht dabei um ein Schreckensszenario, das seit Roland Emmerichs Film «The Day After Tomorrow» vor zwanzig Jahren sozusagen Allgemeingut ist. Der Film zeigt in drastischen Bildern, wie ein Abbruch des Golfstroms zu einem abrupt kälteren Klima in Europa und zu einer weitgehenden Vereisung des Kontinents führt.

Bis zu 15 Grad kälter?

Zwar kann das Team um Leitautor van Westen nicht sagen, wann genau das Versiegen der AMOC droht. Allerdings könnte das drastische Auswirkungen haben, würde es laut Studie in einigen Gegenden innert hundert Jahren doch um 15 Grad (!) kälter. 

Unbestreitbar ist die AMOC der Grund für das verhältnismässig milde Klima in Europa, namentlich in den nördlichen Teilen. Die AMOC führt warmes Wasser vom südwestlichen Atlantik in den Nordatlantik. Dort sinkt das salzhaltige Wasser ab und strömt in den Tiefen des Meeres zurück zum Ausgangspunkt. Diese Umwälzpumpe könnte ins Stocken geraten oder völlig zum Erliegen kommen, wenn viel Süsswasser in den Nordatlantik strömt – etwa wegen dem Kollaps des Grönländischen Eisschildes infolge des Klimawandels. Denn Süsswasser ist leicht, das Absinken könnte stoppen, was die AMOC beenden würde.

«Die Milliarden-Dollar-Frage»

Gleich nach der Publikation der niederländischen Studie griff der deutsche Klimawissenschaftler Stefan Rahmstorf in die Tasten. «Die Milliarden-Dollar-Frage lautet, wie weit dieser Kipppunkt noch entfernt ist», orakelte er in seinem Blog. Das Problem sei nicht, «ob wir sicher sind, dass dies passieren wird. Das Problem ist, dass wir es zu 99,9 Prozent ausschliessen müssen.»

Rahmstorf fällt immer wieder damit auf, dass er wissenschaftliche Horrorszenarien propagiert. Bereits 2020 hatte der Forscher vom Potsdam-Institut für Klimafolgenforschung (PIK) in einem Gastbeitrag geschrieben: «Nun könnte die lang befürchtete Golfstromsystem-Abschwächung eintreffen, mit Folgen für Europa.»

Dazu muss man allerdings wissen, dass die Mehrheit der Klimaforscher derzeit nichts von Untergangsszenarien wegen des Golfstroms hält. Selbst der Weltklimarat, sonst oft auf der alarmistischen Seite, stapelt diesbezüglich tief. Die AMOC werde zwar im Laufe des 21. Jahrhunderts sehr wahrscheinlich etwas schwächer werden, heisst es im IPCC-Sachstandsbericht von 2022. Man sei aber relativ sicher, dass das nicht zu einem Kollaps vor dem Jahr 2100 führe.

«Klimawandel verlangsamt Jetstream»

Stefan Rahmstorf aber gehört zu einer kleinen Gruppe von Forschern, die zwar weitab des wissenschaftlichen Konsens‘ stehen, aber dennoch gerne den Teufel an die Wand malen. So ist es auch im Zusammenhang mit dem Verhalten des Jetstreams, das 2021 für Diskussionen in der Öffentlichkeit sorgte. Im damaligen Sommer war es in Nordamerika ausserordentlich heiss, in Deutschland aber sehr regnerisch (Hochwasser-Katastrophe) und im Mittelmeerraum wiederum besonders trocken. «Klimawandel verlangsamt Jetstream», wusste der «Blick» damals. Ähnlich tönte es bei anderen Medien. 

Der Jetstream ist ein Wind auf 8 bis 12 Kilometer Höhe, der auf der Nordhalbkugel heftig von West nach Ost weht. Er hat einen bedeutenden Einfluss auf das Wettergeschehen in Europa, Nordasien und Nordamerika. Es gibt nun aber Befürchtungen, dass sich der Jetstream verlangsamt und vermehrt mäandert. Denn wegen des Klimawandels erwärmt sich vor allem die Polregion stark, was zu kleineren Temperaturdifferenzen und zu geringeren Druckunterschieden führt. Das könnte bedeuten, dass sich Hoch- und Tiefdruckgebiete langsamer fortbewegen und es vermehrt zu extremer Hitze, extremer Dürre und extremen Regenfällen kommt.

«Tendenzjournalismus»

Vor allem eine Studie von 2017, verfasst von Stefan Rahmstorf und dem Amerikaner Michael Mann, dem Urheber der berüchtigten Hockeyschläger-Kurve, verlieh solchen Befürchtungen Vorschub. Laut dieser Publikation bei «Nature» bestätigen Computerberechnungen und Beobachtungen das verstärkte Mäandern des Jetstreams. «Hier den menschlichen Fingerabdruck dingfest zu machen, das ist fortgeschrittene Detektivarbeit», lobte sich Rahmstorf damals in einer Pressemeldung.

Auch bei der Verlangsamung des Jetstreams handelt es sich jedoch um eine wissenschaftliche Aussenseitermeinung. So kam etwa eine Studie eines amerikanischen Forscherteams 2021 aufgrund von Eisbohrkern-Untersuchungen in Grönland zum Schluss, dass die heutigen Veränderungen beim Jetstream innerhalb der natürlichen Schwankungsbreite der letzten 1250 Jahre liegen. Diese Arbeit kam in den Medien hingegen fast gar nicht zur Sprache. Einzig die NZZ ging darauf ein und bezeichnete die mediale Berichterstattung in Sachen Jetstream als «Tendenzjournalismus».

Die «Kipppunkte-Gang»

Das wird Rahmstorf kaum davon abhalten, die Medien weiter mit düsteren Prophezeiungen zu füttern. Er gehört mit anderen Vertretern des PIK, wie Hans Joachim Schellnhuber und Johan Röckström, zur sogenannten «Kipppunkte-Gang», wie Kritiker monieren. Die Gruppe propagiert die Gefahr von ruckartigen, verheerenden Klimaveränderungen, zu denen nicht nur das Versiegen des Golfstroms gehört, sondern auch das Abschmelzen von Eisschilden, das Verschwinden des Amazonas-Regenwaldes oder das Auftauen von Methan-Eises. Trifft das ein, könnte es schlagartig sehr viel wärmer oder eben auch kälter werden. 

Axel Bojanowski, Wissenschaftsjournalist bei der «Welt», hat detailliert nachgezeichnet, wie die Kipppunkte-Gruppe am PIK seit Jahren versucht, das Konzept der «Tipping Points» in der Forschergemeinde zu verankern – bis heute mit sehr bescheidenem Erfolg. Andere Forscher kritisieren das forsche Vorgehen der Rahmstorf-Gruppe. «Meiner Meinung nach gibt es kaum Beweise dafür, dass der Klimawandel schlimmer ist, als wir dachten, noch dass Bewertungen die Risiken herunterspielen oder dass wir dem Untergang geweiht sind», schrieb etwa der ETH-Forscher Reto Knutti in Sachen Kipppunkte.

Willfährige Medien tragen zu falschen Vorstellungen bei

Rahmstorf & Co haben aber viel Erfolg in der Öffentlichkeit. Denn hier ist man mittlerweile überzeugt, dass die Welt schon in den nächsten Jahren durch Kipppunkte bedroht ist. Willfährige Medien, die die Endzeitszenarien aus Potsdam noch so gern verbreiten,  tragen ihren Anteil dazu bei.

Zurück zum Golfstrom: Die niederländische Studie, die nun erneut zu grossen Schlagzeilen geführt hat, steht unter heftiger Kritik anderer Wissenschaftler. Britische Forscher haben etwa bemängelt, das Resultat der Studie sei «forciert» worden, indem unrealistisch hohe Süsswasserzuflüsse angenommen worden seien. Die angenommenen Zuflüsse aus dem Grönländischen Eisschild seien selbst für das extremste Erwärmungsszenario für das nächste Jahrhundert «völlig unrealistisch» konnte man im britischen «Telegraph» lesen. Wetten, dass das deutsche Medienpublikum darüber kein Wort zu lesen bekommt?

 




Wird jetzt das Ende der EV-Verrücktheit eingeläutet?

H. Sterling Burnett

Elektrofahrzeuge sind spätestens seit der ersten Amtszeit von Präsident Barack Obama der letzte Schrei unter Politikern, aber sie haben sich nie wirklich bei der breiten Masse durchgesetzt, die tatsächlich möchte, dass ihr Auto sie bequem und pünktlich an ihr Ziel bringt und alles und jeden mitnimmt, den sie mitnehmen möchte, ohne im geparkten Zustand in die Luft zu gehen und dabei ihre Häuser abzufackeln.

In Wahrheit wurden Elektroautos schon lange vorher ausprobiert und verworfen, vor allem wegen der gleichen Probleme, die sie immer noch haben: geringe Reichweite und hohe Kosten. Das erste Elektrofahrzeug, eine Lokomotive, wurde 1837 getestet, fast 60 Jahre bevor das erste Fahrzeug mit Verbrennungsmotor (ICE) in Betrieb genommen wurde. Elektrolokomotiven konnten nicht einmal mit kohlebetriebenen Dampfmaschinen konkurrieren. Die ersten wiederaufladbaren Batterien wurden 1859 entwickelt, und EVs konnten immer noch nicht mithalten.

Elektroautos gab es schon vor den ersten mit Benzin und Diesel betriebenen Privatfahrzeugen, die übrigens alle ohne staatliche Unterstützung, Subventionen oder Steuergutschriften auskamen, und sie konnten nicht mithalten. Sie können immer noch nicht mithalten. Dennoch legt die Regierung in ihrem vergeblichen Bestreben, das Klima in den Griff zu bekommen, den Daumen auf die Waage, um sie mit verschiedenen Arten von Unterstützung und Vorschriften zu verpflichten und zu fördern.

Ich habe schon früher darauf hingewiesen, dass E-Fahrzeuge im Allgemeinen viel teurer sind als ihre vergleichbaren ICE-Pendants. Untersuchungen haben ergeben, dass die meisten E-Fahrzeuge an die beiden obersten Einkommensklassen verkauft werden, so dass die Steuergutschriften und andere staatliche Förderungen nur eine Wohlfahrtsmaßnahme für die Wohlhabenden und die politisch Verantwortlichen sind.

Aber trotz all dieser Unterstützung … der Aktienkurs von Tesla, dem umsatzstärksten Elektroautohersteller, befindet sich im freien Fall, was sich auch in den sinkenden Dividenden des Unternehmens widerspiegelt. Der Elektroauto-Konkurrent Rivian entlässt Mitarbeiter, während seine Aktie aufgrund von Verlusten in Höhe von 1,5 Milliarden Dollar dramatisch gefallen ist. Fisker, ein weiterer EV-Frühstarter, hat bereits einen Konkurs hinter sich und taumelt möglicherweise auf den zweiten zu, da sein Wert auf das Niveau von Pennystocks gefallen ist.

Während sich die EV-Lagerbestände bei den Händlern auftürmen, haben Ford und GM, die jeweils Milliardenverluste bei ihren EVs bekannt gegeben haben, ihre Produktionslinien reduziert und die Absatz- und Produktionsprognosen gesenkt. Nachdem sie Milliarden von Dollar in verschiedene EV-Projekte investiert hatten, stellte Apple Inc. alle seine EV-Projekte ein. Wenn eines der profitabelsten und kapitalstärksten Unternehmen der Welt nicht in der Lage ist, ein effektives Elektroauto zu bauen und es zum Mainstream zu machen, wer dann?

Der Energieanalyst und Berater des Heartland Institute Ronald Stein und mein Kollege Chris Talgo haben kürzlich die unzähligen Probleme beschrieben, mit denen E-Fahrzeuge zu kämpfen haben. Talgo weist darauf hin, dass die beiden Hauptprobleme, welche die Attraktivität von E-Fahrzeugen einschränken, bereits vor fast 200 Jahren bekannt waren: „Reichweitenangst“ und Kosten. Ich habe bereits früher auf Liberty and Ecology über das Reichweitenproblem von E-Fahrzeugen für die meisten normalen Autofahrer geschrieben und darauf hingewiesen, dass das Aufladen von E-Fahrzeugen aus verschiedenen Tagesausflügen, die ich normalerweise mache, mindestens Zwei-Tages-Ausflüge machen und den Urlaubsteil von wochenlangen Autofahrten um die Hälfte oder mehr reduzieren würde.

Stein weist darauf hin, dass es fast unmöglich ist, gebrauchte E-Fahrzeuge zu verkaufen, und dass Hertz seine E-Fahrzeugflotte drastisch reduziert und stattdessen neue ICE-Fahrzeuge kauft.

Selbst die Mainstream-Medien sehen sich zunehmend gezwungen, die Nachteile der EV-Revolution einzugestehen, die sie so atemlos und schamlos als entscheidenden Schritt zur Verhinderung der Klimakatastrophe propagiert haben. Die Kinder- und Sklavenarbeit, auf der die EV-Technologien basieren, wird immer schwerer zu ignorieren, ebenso wie die Umweltzerstörung, die durch den Abbau der für die EVs notwendigen Mineralien verursacht wird.

[Hervorhebung vom Übersetzer]

Aus Oslo und Schweden sowie aus den Bundesstaaten Iowa, Michigan und Minnesota wird berichtet, dass Elektrobusse im Winter ihre Runden nicht fahren konnten, so dass diese und andere Bundesstaaten gezwungen waren, sie aus dem Verkehr zu ziehen oder ihre Routen stark zu kürzen. Wie die Probleme mit Elektrobussen u. a. in North Carolina, San Francisco und Wyoming zeigen, muss es gar nicht so kalt sein, damit Elektrobusse ausfallen. Die Beweise deuten darauf hin, dass Elektrobusse einfach noch nicht einsatzbereit (oder kosteneffizient) sind. Für die meisten Einsätze sind herkömmliche Benzin-, Diesel- und sogar Erdgasbusse die bessere Wahl für Schulkinder, Pendler und Steuerzahler.

Eine einfache Websuche nach „Elektrofahrzeuge“ und „Brände“ oder „Elektrobus“ und „Brände“ führt zu Dutzenden, wenn nicht Hunderten von Berichten darüber, wie Elektroautos, -roller und zunehmend auch -busse spontan in Flammen aufgehen, Eigentum zerstören und dabei Menschen töten. In den Schlagzeilen ist zu lesen, dass Elektroautos, -roller, -autos und -busse in New York und Connecticut, international in Frankreich und Indien sowie beim Transport zu einer erheblichen Brandgefahr geworden sind. Einige Versicherer bieten keine Versicherungen mehr für E-Fahrzeuge oder für diejenigen an, die sie lagern oder transportieren.

In der vergangenen Woche häuften sich die Angriffe auf E-Fahrzeuge. Die Schlagzeilen der Daily Mail lauteten an mehreren aufeinanderfolgenden Tagen: „Großbritanniens tickende Zeitbombe E-Bus: Fast ZWEITAUSEND Elektrobusse im Wert von 800 Millionen Pfund müssen dringend zurückgerufen werden, weil sie … in Flammen aufgehen könnten“ und „Elektroautos stoßen MEHR giftige Emissionen aus als gasbetriebene Fahrzeuge und sind schlechter für die Umwelt, warnt eine neue Studie“.

In der ersten Meldung wird darauf hingewiesen, dass die britische Behörde für Fahrzeugnormen (Driver Vehicle Standards Agency) einen dringenden Rückruf von 1.758 Doppel- und Eindecker-Elektrobussen angeordnet hat, die derzeit im ganzen Land im Einsatz sind (600 allein in London), weil es „keine dauerhafte Lösung zur Verhinderung künftiger Brände“ gibt, die mit der Stromversorgung der Busse, d. h. den Akkus, zusammenhängen.

Hätten die Autohersteller in den 1960er und 1970er Jahren Elektrofahrzeuge auf den Markt gebracht, hätte der Verbraucherschützer Ralph Nader einen Anfall bekommen und sie als „Unsafe at No Speed“ bezeichnet. Die U.S. Consumer Products Safety Commission oder andere Behörden hätten die Hersteller mit ziemlicher Sicherheit gezwungen, sie aus Sicherheitsgründen vom Markt zu nehmen, anstatt sie zu fördern, wie sie es jetzt tun.

Dem zweite Bericht der Daily Mail zufolge, dessen Fakten durch einen am nächsten Tag auf Fox Business News veröffentlichten Artikel bestätigt wurden, verschleißen die Reifen von E-Fahrzeugen aufgrund ihres höheren Gewichts im Vergleich zu ICE-Fahrzeugen viel schneller, und die Laufflächen geben während des Betriebs 400 Mal mehr „giftige Partikel“ in die Luft ab als die Auspuffrohre von ICE-Fahrzeugen. Berücksichtigt man die Umweltverschmutzung bei der Förderung und Herstellung, die Umweltverschmutzung während des Betriebs und die Umweltverschmutzung beim Aufladen (je nach verwendeter Stromquelle), so zeigt sich, dass E-Fahrzeuge schmutziger sind als die ICE-Fahrzeuge, die sie angeblich ersetzen sollen, weil sie besser für die Umwelt sind.

So etwas kann man sich nicht ausdenken. Nun, man könnte schon, aber wer würde einem glauben?

Mit sinkenden Verkaufszahlen und Aktienkursen sowie der Berichterstattung in den Medien über die Probleme mit E-Fahrzeugen fällt der Öffentlichkeit das Zünglein an der Waage in Bezug auf E-Fahrzeuge und die Ambitionen der Regierungen in diesem Bereich zunehmend aus den Augen.

Die US-Regierung hätte niemals in den Markt eingreifen dürfen, um E-Fahrzeuge zu fördern. Es gibt keine Beweise dafür, dass wir vor einer Klimakrise stehen, abgesehen von den dogmatischen Äußerungen der Eliten und den Ergebnissen fehlerhafter Computermodelle, und noch weniger Beweise dafür, dass EVs eine Krise verhindern würden, anstatt sie zu verschlimmern.

Die Frage ist nicht, ob das Ende der Förderung für E-Fahrzeuge eingeläutet wird, sondern wie schnell dies geschehen wird. Mit etwas Glück könnten die kommenden Wahlen einen Wendepunkt darstellen, wenn die Wende nicht vorher eintritt.

Sources: America Out Loud; The Daily Mail; The Daily Mail; Climate Change Weekly; The Center Square; Liberty and Ecology; Junk Science

Übersetzt von Christian Freuer für das EIKE

 




Klimamodellverzerrung 5: Sturmaktivität*

Andy May

[*Der angelsächsische Terminus „storm“ umfasst nicht nur Sturm, sondern Unwetter allgemein. In den USA ist ein „rainstorm“ ein Starkregen-Ereignis, auch wenn es dabei windstill ist. A. d. Übers.]

In Teil 4 wurden die Auswirkungen der Konvektion und der atmosphärischen Zirkulation auf das Klima erörtert. Wenn sich die Zirkulationsmuster ändern, verändern sie die Geschwindigkeit und Effizienz des Transports überschüssiger Wärme von den Tropen zu den Polen. Wenn dieser Wärmetransport schneller ist, wird die Welt kühler, da die Pole einen schwachen Treibhauseffekt haben und die Wärme effizienter in den Weltraum abstrahlen. Die Tropen sind feucht und haben einen sehr starken Treibhauseffekt, da Wasserdampf das stärkste Treibhausgas ist [1]. Daher wird die Wärmeenergie (Wärme), die zu den Polen mit niedriger Luftfeuchtigkeit transportiert wird, leichter in den Weltraum geleitet als in den Tropen.

Der Temperaturgradient, der sich zwischen den Tropen und den Polen bildet, trägt zu dieser Wärmeübertragung bei, wird jedoch durch atmosphärische und ozeanische Zirkulations- und Konvektionsmuster moduliert. Ein sehr starkes Gefälle, wie wir es heute haben, erhöht die Sturmaktivität.

Der Temperaturgradient steuert den meridionalen Transport und das Wetter

Es ist unumstritten, dass Temperaturgradienten zumindest teilweise für unser Wetter verantwortlich sind. Auf der Suche nach einer Gleichgewichtstemperatur will die Wärme von wärmeren in kältere Gebiete fließen. In größerem Maßstab ist der meridionale Transport zum Teil auch eine Funktion des Temperaturunterschieds zwischen den Tropen und den Polen. Leon Barry und Kollegen schreiben:

„Der atmosphärische Wärmetransport auf der Erde vom Äquator zu den Polen wird größtenteils durch Wettersysteme in den mittleren Breiten bewirkt.“ [2] – Leon Barry et al., Nature, 2002

Starke Stürme in den mittleren Breiten, Wirbelstürme und andere Stürme transportieren den größten Teil der überschüssigen tropischen Wärme polwärts, und je mehr sie transportieren, desto kälter wird die Erde. Der Temperaturgradient ist nicht der einzige Faktor, der den meridionalen Transport steuert, es gibt viele andere Einflussfaktoren [3], aber er ist ein wichtiger Faktor, vielleicht der wichtigste.

Die Atmosphäre ist eine riesige Wärmemaschine [4], die von der Oberfläche aus angetrieben wird (mit Ausnahme einiger begrenzter Gebiete in den Polarregionen) und die ungenutzte Wärme in den Weltraum abgibt [5]. Wie bei einer Zugmaschine kann die Wärme Arbeit erzeugen, wenn sie sich durch die Atmosphäre bewegt, und diese Arbeit ist unser Wetter, hauptsächlich Stürme. Wie in Teil 4 erörtert, schwanken die tropischen Temperaturen nicht sehr stark, so dass der entscheidende Faktor die Temperatur an den Polen ist. Die notwendige Konsequenz dieses Konzepts ist, dass das Wetter extremer ist, wenn der Planet kälter, der meridionale Transport stark und der Temperaturgradient steil ist. Es ist weniger extrem, wenn der Planet wärmer, der meridionale Transport schwach und der Temperaturgradient geringer ist. Dies ist das Gegenteil der Schlussfolgerungen des IPCC, der auf der Grundlage der CMIP-Modelle glaubt, dass wärmeres Wetter mehr Stürme bringt (AR6 WGI, Seite 1526-1527). Aber das ist nicht das, was beobachtet wird. Auf jeder Hemisphäre gibt es in den Wintermonaten mehr Unwetter als in den Sommermonaten [6].

Zhongwei Yan und Kollegen, zu denen auch Philip Jones und Anders Moberg gehören, haben herausgefunden, dass extreme Wetterereignisse vor allem in den Wintermonaten seit dem 19. Jahrhundert abgenommen haben, da sich die Welt erwärmt hat [7]. Sie stellen fest, dass der Zusammenhang zwischen Wärme und schwächerem Wetter in Europa und China in den kritischen Wintermonaten am ausgeprägtesten ist. Im Gegensatz zu Yan et al. heißt es im AR6:

„… sowohl thermodynamische als auch dynamische Prozesse sind an den Veränderungen von Extremen als Reaktion auf die Erwärmung beteiligt. Anthropogener Antrieb (z. B. Anstieg der Treibhausgaskonzentrationen) wirkt sich direkt auf thermodynamische Variablen aus, einschließlich des allgemeinen Anstiegs hoher Temperaturen und des atmosphärischen Verdunstungsbedarfs sowie regionaler Veränderungen der atmosphärischen Feuchtigkeit, die Hitzewellen, Dürren und Starkniederschlagsereignisse intensivieren, wenn sie auftreten (hohes Vertrauen). Dynamische Prozesse sind oft indirekte Reaktionen auf thermodynamische Veränderungen, werden stark von der internen Klimavariabilität beeinflusst und sind auch weniger gut verstanden. Daher gibt es ein geringes Vertrauen in die Auswirkungen dynamischer Veränderungen auf den Ort und das Ausmaß von Extremereignissen in einem sich erwärmenden Klima.“ – AR6 WGI, Seite 1527

Trotz der von Yan et al. und vielen anderen vorgelegten Beweise (siehe Kapitel 11 in The Frozen Climate Views of the IPCC) kommt der AR6 also zu dem Schluss, dass die anthropogene globale Erwärmung eine Zunahme von Wetterextremen verursacht und verursacht hat. Dies ist ein weiteres Beispiel für eine Verzerrung.

Auf längeren Zeitskalen nimmt die Unwetterhäufigkeit auch während historischer Kälteperioden zu. Sie erreichte in Europa während der sehr kalten Kleinen Eiszeit (in Abbildung 1 mit „LIA“ bezeichnet) einen Höhepunkt:

Abbildung 1. Stürmische Perioden in den letzten 6.500 Jahren in Europa. Nach Vinós, 2022.

Abbildung 1 zeigt Perioden von Stürmen, die anhand von sedimentologischen Merkmalen in Europa in 18 Studien ermittelt worden waren. Die stärkste Häufigkeit extremer Stürme trat während der kalten Kleinen Eiszeit auf [8], die der IPCC als „vorindustrielle“ Periode bezeichnet [9]. Es ist logisch, dass extreme Wetterlagen und Stürme in kalten Zeiten zunehmen, und das ist auch zu beobachten. Die Temperaturen in den Tropen ändern sich kaum, die globalen Temperaturveränderungen finden hauptsächlich in den höheren Breitengraden statt. Wenn die Temperaturen in höheren Breitengraden sinken, wird der Temperaturgradient steiler, was zu stärkeren Winden führt, und starke Winde sind das Markenzeichen extremer Wetterlagen.

IPCC AR6 WG1 Modell-Verzerrung, Zusammenfassung

Die schwächste Annahme des IPCC ist, dass die Sonne in ihrer Wirkung auf das Klima seit 1750 konstant geblieben ist. Wie wir in Teil 3 gezeigt haben, gibt es viele Beweise dafür, dass die Sonne in diesem Zeitraum Schwankungen unterworfen war und zur globalen Erwärmung beigetragen hat [10]. Die implizite Annahme des IPCC, wie in Abbildung 2 in Teil 3 gezeigt, dass eine Änderung des solaren Antriebs der gleichen Änderung (in W/m²) des Treibhauseffekts entspricht, ist einfach nicht wahr, wie uns die grundlegende Physik sagt. Der solare Antrieb hat eine längere Verweildauer, zumindest in den Ozeanen, und verursacht aufgrund der höheren Frequenzen des Sonnenlichts eine stärkere Erwärmung Watt für Watt. Die höheren Frequenzen durchdringen die Meeresoberfläche, während die Treibhausgasemissionen mit niedrigeren Frequenzen dies nicht tun.

Die CMIP6-Modelle versuchen zwar, den Wärmeinhalt des Ozeans, die Wärmepufferung des Ozeans und die Trägheit zu berücksichtigen, aber soweit ich sehen kann, berücksichtigen sie nicht die unterschiedlichen klimatischen Auswirkungen von Sonnenlicht und Treibhausgasemissionen. Falls doch, ist dies tief im AR6 WG1 vergraben [11]. Zwar wird in der Modelldokumentation eingeräumt, dass es einen Unterschied bei der Aufnahme durch den Ozean gibt [12], doch scheint man diese Tatsache einfach zu ignorieren. Sie behandeln sie gleich oder fast gleich, obwohl sie es nicht sind.

Dies ist wichtig, weil laut AR6 der Anstieg des Wärmeinhalts der Ozeane 91 % der gesamten Veränderung des globalen Energieinventars zwischen 1971-2006 und 2006-2018 ausmacht, also in zwei Perioden mit schneller Erwärmung [13]. Zufällig oder nicht, ist dies auch die letzte Hälfte des modernen Sonnenmaximums [14], in der man erwarten würde, dass die Ozeane die überschüssige Wärme abstrahlen, die sie in der ersten Hälfte des Maximums angesammelt haben. Die Ozeane strahlen die Wärme vor allem durch El Ninos, tropische Wirbelstürme (Hurrikane), Monsune und Stürme in den mittleren Breiten aus. Wie lange es dauert, bis die Atmosphäre nach einem Sonnenmaximum abkühlt, ist nicht bekannt, aber vielleicht erfahren wir es bald.

Während wir heute über viele Messungen des Wärmeinhalts bis zu einer Tiefe von 2000 Metern verfügen, sind diese Messungen vor 2004 recht selten, weshalb das spezifische, zur Berechnung des Wärmeinhalts im Ozean vor 2000 verwendet Modell sehr wichtig ist. Es ist bedauerlich, dass sich unsere Messungen des Wärmeinhalts der Tiefsee gerade dann so dramatisch verbessert haben, als das moderne Sonnenmaximum zu Ende ging, denn wir brauchen diese Daten, da der Wärmeinhalt ebenfalls zunahm. Satellitenmessungen der von der Erdoberfläche ausgehenden Strahlung reagieren sehr empfindlich auf die Temperatur, aber nicht unbedingt auf die Temperatur unterhalb der Meeresoberfläche.

Es gibt drei Prozesse, die zusammenwirken, um das Klima der Erde stabil zu halten: der Treibhauseffekt, die Wolken und der meridionale Wärmetransport. Diese Faktoren tragen auch dazu bei, die Verweilzeit der von der Sonne empfangenen Energie zu bestimmen. Der IPCC hat sich ausschließlich auf den ersten Faktor konzentriert, indem er seine CO₂-Klimahypothese entwickelt hat [15].

Die Auswirkung von Wolken und deren Variabilität auf den Klimawandel ist noch weitgehend unbekannt und bleibt die größte Unsicherheitsquelle bei der Berechnung der Auswirkungen von Treibhausgasen auf unser Klima [16]. Das IPCC kann nicht sagen, ob der Nettoeffekt einer zunehmenden Bewölkung die Erde erwärmt oder abkühlt. Da die Bildung und Auflösung von Wolken nicht modelliert werden kann [17], wird ihre Wirkung vom IPCC ignoriert oder einfach „parametrisiert“ [18].

Beim meridionalen Wärmetransport wird Energie zwischen dem Klimasystem und dem Weltraum nur über die Obergrenze der Atmosphäre ausgetauscht, was dazu führt, dass der globale meridionale Wärmetransport zwangsläufig einen Netto-Nullwert hat, wenn er sofort über das gesamte globale Klimasystem integriert wird. Die Verlagerung von Energie von einer Region in eine andere verändert nicht die Gesamtenergiemenge im System, obwohl sie die Verweilzeit der Energie verändern kann und dies auch tut. Indem der IPCC die Auswirkungen veränderter Konvektionsmuster auf die Verweildauer der Energie ignoriert hat, ist er zu dem Schluss gekommen, dass der meridionale Wärmetransport keine wesentliche Ursache für den Klimawandel sein kann, was sein fundamentalster Fehler ist [19].

Sowohl aus thermodynamischer als auch aus dynamischer Sicht ist das entscheidende Merkmal des Klimasystems der Erde der Energietransport. Der Energietransport ist die Ursache für jedes Wetter, insbesondere für alle Wetterextreme. Der größte Teil der nicht vom Planeten reflektierten Sonnenenergie wird in den Ozeanen gespeichert, wo 99,9 % [20] der „Wärm“ oder thermischen Energie des Klimasystems gespeichert sind. Allerdings transportieren die Ozeane die Energie nicht besonders gut. Unterschiede in der Wassertemperatur führen eher zu vertikalen Bewegungen durch veränderten Auftrieb als zu lateralen Bewegungen, so dass die Ozeane temperaturgeschichtet sind. Der größte Teil der Energie im Klimasystem wird von der Atmosphäre transportiert, und die Energie, die von den Oberflächenströmungen des Ozeans lateral transportiert wird, wird von den Winden angetrieben [21]. Der Fluss der nicht-solaren Energie an der Grenze zwischen Atmosphäre und Ozean (einschließlich über das Meereis) erfolgt fast immer und fast überall vom Ozean zur Atmosphäre [22].

In diesen ersten fünf Teilen werden die schwerwiegendsten systematischen Verzerrungen im IPCC-Bericht AR1 aufgezeigt, Climate Change 2021: The Physical Science Basis. Die Voreingenommenheit wird durch das Ignorieren der in dieser Reihe von Beiträgen und zahlreichen anderen ähnlichen Artikeln zitierten gültigen, von Experten begutachteten Artikel hervorgerufen, so dass es sich größtenteils um „Berichterstattung“ oder „Bestätigung“ handelt. Die Beweise dafür, dass die Sonnenvariabilität das Klima der Erde beeinflusst, sind enorm und in der Literatur gut belegt, wie Douglas Hoyt und Kenneth Schatten in ihrem ausgezeichneten Buch The Role of the Sun in Climate Change [23] und Joanna Haigh in ihrem Bericht Solar Influences on Climate [24] dargelegt haben.

Doch diese grundlegenden Werke sowie die vielen Arbeiten in der Bibliographie werden vom IPCC ignoriert oder als unwichtig abgetan. Darüber hinaus werden viele der Hunderte von Arbeiten, die in Connolly et al. [25] und im Kapitel von Nicola Scafetta und Fritz Vahrenholt [26] in The Frozen Climate Views of the IPCC zitiert werden, im AR6 ebenfalls ignoriert.

Es ist gut dokumentiert, dass die IPCC/CMIP6-Klimamodelle im Vergleich zu den Beobachtungen viel zu warm laufen [27]. Sie überschätzen die tropische Temperatur in der mittleren Troposphäre,[28] die Meerestemperatur [29] und die globale Erwärmung im Allgemeinen [30]. Diese Verzerrung wird im AR6 selbst eingeräumt, wo sie schreiben:

Daher schätzen wir mit mittlerem Vertrauen ein, dass die CMIP5- und CMIP6-Modelle die beobachtete Erwärmung in der oberen tropischen Troposphäre über den Zeitraum 1979-2014 um mindestens 0,1°C pro Jahrzehnt überschätzen, was zum Teil auf eine Überschätzung des tropischen SST-Trendmusters über diesen Zeitraum zurückzuführen ist.“ [31] – AR6 WGI, Seite 444

Die IPCC/CMIP6-Klimamodelle simulieren nicht nur eine stärkere Erwärmung als beobachtet, sie „driften“ auch in ihren Berechnungen mit der Zeit ab. Bei den meisten Modellen läuft dies in Richtung einer stärkeren Erwärmung, was die natürliche Tendenz der Modelle noch verstärkt, heiß zu laufen. Außerdem schließen sich die Energie- und Massenbudgets in einzelnen Modellläufen nicht richtig, was gegen die physikalischen Gesetze der Massen- und Energieerhaltung verstößt [32]. In mancher Hinsicht schneiden die CMIP6-Modelle besser ab als die CMIP5-Modelle, in anderen jedoch schlechter, was darauf hindeutet, dass die Modelle mit der Zeit nicht besser werden und möglicherweise das Ende ihrer Nutzungsdauer erreicht haben.

Unerzwungene Modelldrift kontaminiert die erzwungenen (d. h. sich ändernden CO₂- oder Vulkanismus-)Trends. In einigen Modellen macht die Drift einen erheblichen Teil der berechneten Erwärmung aus. Sie resultiert aus der Parametrisierung von Größen, die nicht modelliert werden können, wie z. B. die Wolkenbedeckung, und aus einem Ungleichgewicht zwischen dem vorgeschriebenen Anfangszustand des Modells aufgrund von Beobachtungen und der im Modell programmierten Physik.

Ein weiterer Schuldiger kann der „Kopplungsschock“ sein, wenn die verschiedenen Modellkomponenten zusammengeführt werden wie die Ozean- und die atmosphärischen Komponenten, manchmal auch „Grenzschock“ genannt. Es genügt zu sagen, dass die Tatsache, dass Masse und Energie in diesen Modellen nicht konserviert sind und sie driften, ein echtes und bedeutendes Problem darstellt. Die Modelldrift ist einfach der Versuch des Modells, einen stabilen Zustand zu erreichen, nachdem die Start- (oder Spin-up-)Schocks aufgetreten sind. Das Gleichgewicht wird nach dem Spin-up erst nach über tausend Jahren erreicht, so dass es nicht praktikabel ist, das Modell so lange laufen zu lassen, nur um die Drift loszuwerden. Wenn die Modelle um die Drift korrigiert werden, verringern sich in der Regel die Probleme mit der Massen-/Energieerhaltung [33], doch die Diskrepanz zwischen der Modellphysik und dem ursprünglichen Modellzustand, der sich aus Beobachtungen ergibt, ist an sich schon beunruhigend.

Aus der Sicht dieses Modellierers hat sich das konzeptionelle Modell oder die Hypothese als falsch erwiesen, welche mit dem CMIP6 und seinen Vorgängern untersucht werden sollte. Diese Beobachtung kann nur durch die Einführung von immer mehr Verzerrungen kaschiert werden. Aber je mehr Verzerrungen in die Modelle und in die Interpretation der Ergebnisse einfließen, desto offensichtlicher werden diese auch. Es ist an der Zeit, aufzuhören und eine neue Hypothese und ein neues konzeptionelles Modell zur Untersuchung zu entwickeln, die Idee des „CO₂-Kontrollknopfes“ ist tot [34].

In Teil 6 befasse ich mich mit der Modellverzerrung in der WGII.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2024/03/08/climate-model-bias-5-storminess/

Übersetzt von Christian Freuer für das EIKE