Das Geschwätz von den Kipppunkten

Ob versiegender Golfstrom oder erlahmender Jetstream: Die Medien nutzen jede Gelegenheit, um Untergangsszenarien zu verbreiten. Dabei können sie auf die tatkräftige Hilfe einiger Forscher zählen, deren Ansichten weitab von jeglichem wissenschaftlichen Konsens liegen.

von Peter Panther

Vor kurzem sorgte der Klimawandel wieder für düstere Schlagzeilen. Für einmal ging es aber nicht um eine befürchtete Erwärmung, sondern um eine Abkühlung, die angeblich droht. «Atlantik-Strömung steht vor dem Kollaps – und könnte Europa zum Kühlschrank machen», titelte «Focus». «Sorgt Atlantik-Strömung bald für eisige Temperaturen?», war im Schweizer «Blick» zu lesen.

Eiszeit in Europa? Anlass für die Aufregung war eine Studie im Fachblatt «Science Advances». Darin waren niederländische Forscher um den Atmosphären-Wissenschaftler René van Westen zum Schluss gekommen, dass ein Abbruch der Atlantischen Umwälzbewegung (AMOC) bevorstehen könnte. Die AMOC wird gemeinhin als Golfstrom bezeichnet. Grundlage für die Studie bildeten Berechnungen mit einem Supercomputer zur Frage, wie sich der Klimawandel auf die Strömung auswirkt.

Es geht dabei um ein Schreckensszenario, das seit Roland Emmerichs Film «The Day After Tomorrow» vor zwanzig Jahren sozusagen Allgemeingut ist. Der Film zeigt in drastischen Bildern, wie ein Abbruch des Golfstroms zu einem abrupt kälteren Klima in Europa und zu einer weitgehenden Vereisung des Kontinents führt.

Bis zu 15 Grad kälter?

Zwar kann das Team um Leitautor van Westen nicht sagen, wann genau das Versiegen der AMOC droht. Allerdings könnte das drastische Auswirkungen haben, würde es laut Studie in einigen Gegenden innert hundert Jahren doch um 15 Grad (!) kälter. 

Unbestreitbar ist die AMOC der Grund für das verhältnismässig milde Klima in Europa, namentlich in den nördlichen Teilen. Die AMOC führt warmes Wasser vom südwestlichen Atlantik in den Nordatlantik. Dort sinkt das salzhaltige Wasser ab und strömt in den Tiefen des Meeres zurück zum Ausgangspunkt. Diese Umwälzpumpe könnte ins Stocken geraten oder völlig zum Erliegen kommen, wenn viel Süsswasser in den Nordatlantik strömt – etwa wegen dem Kollaps des Grönländischen Eisschildes infolge des Klimawandels. Denn Süsswasser ist leicht, das Absinken könnte stoppen, was die AMOC beenden würde.

«Die Milliarden-Dollar-Frage»

Gleich nach der Publikation der niederländischen Studie griff der deutsche Klimawissenschaftler Stefan Rahmstorf in die Tasten. «Die Milliarden-Dollar-Frage lautet, wie weit dieser Kipppunkt noch entfernt ist», orakelte er in seinem Blog. Das Problem sei nicht, «ob wir sicher sind, dass dies passieren wird. Das Problem ist, dass wir es zu 99,9 Prozent ausschliessen müssen.»

Rahmstorf fällt immer wieder damit auf, dass er wissenschaftliche Horrorszenarien propagiert. Bereits 2020 hatte der Forscher vom Potsdam-Institut für Klimafolgenforschung (PIK) in einem Gastbeitrag geschrieben: «Nun könnte die lang befürchtete Golfstromsystem-Abschwächung eintreffen, mit Folgen für Europa.»

Dazu muss man allerdings wissen, dass die Mehrheit der Klimaforscher derzeit nichts von Untergangsszenarien wegen des Golfstroms hält. Selbst der Weltklimarat, sonst oft auf der alarmistischen Seite, stapelt diesbezüglich tief. Die AMOC werde zwar im Laufe des 21. Jahrhunderts sehr wahrscheinlich etwas schwächer werden, heisst es im IPCC-Sachstandsbericht von 2022. Man sei aber relativ sicher, dass das nicht zu einem Kollaps vor dem Jahr 2100 führe.

«Klimawandel verlangsamt Jetstream»

Stefan Rahmstorf aber gehört zu einer kleinen Gruppe von Forschern, die zwar weitab des wissenschaftlichen Konsens‘ stehen, aber dennoch gerne den Teufel an die Wand malen. So ist es auch im Zusammenhang mit dem Verhalten des Jetstreams, das 2021 für Diskussionen in der Öffentlichkeit sorgte. Im damaligen Sommer war es in Nordamerika ausserordentlich heiss, in Deutschland aber sehr regnerisch (Hochwasser-Katastrophe) und im Mittelmeerraum wiederum besonders trocken. «Klimawandel verlangsamt Jetstream», wusste der «Blick» damals. Ähnlich tönte es bei anderen Medien. 

Der Jetstream ist ein Wind auf 8 bis 12 Kilometer Höhe, der auf der Nordhalbkugel heftig von West nach Ost weht. Er hat einen bedeutenden Einfluss auf das Wettergeschehen in Europa, Nordasien und Nordamerika. Es gibt nun aber Befürchtungen, dass sich der Jetstream verlangsamt und vermehrt mäandert. Denn wegen des Klimawandels erwärmt sich vor allem die Polregion stark, was zu kleineren Temperaturdifferenzen und zu geringeren Druckunterschieden führt. Das könnte bedeuten, dass sich Hoch- und Tiefdruckgebiete langsamer fortbewegen und es vermehrt zu extremer Hitze, extremer Dürre und extremen Regenfällen kommt.

«Tendenzjournalismus»

Vor allem eine Studie von 2017, verfasst von Stefan Rahmstorf und dem Amerikaner Michael Mann, dem Urheber der berüchtigten Hockeyschläger-Kurve, verlieh solchen Befürchtungen Vorschub. Laut dieser Publikation bei «Nature» bestätigen Computerberechnungen und Beobachtungen das verstärkte Mäandern des Jetstreams. «Hier den menschlichen Fingerabdruck dingfest zu machen, das ist fortgeschrittene Detektivarbeit», lobte sich Rahmstorf damals in einer Pressemeldung.

Auch bei der Verlangsamung des Jetstreams handelt es sich jedoch um eine wissenschaftliche Aussenseitermeinung. So kam etwa eine Studie eines amerikanischen Forscherteams 2021 aufgrund von Eisbohrkern-Untersuchungen in Grönland zum Schluss, dass die heutigen Veränderungen beim Jetstream innerhalb der natürlichen Schwankungsbreite der letzten 1250 Jahre liegen. Diese Arbeit kam in den Medien hingegen fast gar nicht zur Sprache. Einzig die NZZ ging darauf ein und bezeichnete die mediale Berichterstattung in Sachen Jetstream als «Tendenzjournalismus».

Die «Kipppunkte-Gang»

Das wird Rahmstorf kaum davon abhalten, die Medien weiter mit düsteren Prophezeiungen zu füttern. Er gehört mit anderen Vertretern des PIK, wie Hans Joachim Schellnhuber und Johan Röckström, zur sogenannten «Kipppunkte-Gang», wie Kritiker monieren. Die Gruppe propagiert die Gefahr von ruckartigen, verheerenden Klimaveränderungen, zu denen nicht nur das Versiegen des Golfstroms gehört, sondern auch das Abschmelzen von Eisschilden, das Verschwinden des Amazonas-Regenwaldes oder das Auftauen von Methan-Eises. Trifft das ein, könnte es schlagartig sehr viel wärmer oder eben auch kälter werden. 

Axel Bojanowski, Wissenschaftsjournalist bei der «Welt», hat detailliert nachgezeichnet, wie die Kipppunkte-Gruppe am PIK seit Jahren versucht, das Konzept der «Tipping Points» in der Forschergemeinde zu verankern – bis heute mit sehr bescheidenem Erfolg. Andere Forscher kritisieren das forsche Vorgehen der Rahmstorf-Gruppe. «Meiner Meinung nach gibt es kaum Beweise dafür, dass der Klimawandel schlimmer ist, als wir dachten, noch dass Bewertungen die Risiken herunterspielen oder dass wir dem Untergang geweiht sind», schrieb etwa der ETH-Forscher Reto Knutti in Sachen Kipppunkte.

Willfährige Medien tragen zu falschen Vorstellungen bei

Rahmstorf & Co haben aber viel Erfolg in der Öffentlichkeit. Denn hier ist man mittlerweile überzeugt, dass die Welt schon in den nächsten Jahren durch Kipppunkte bedroht ist. Willfährige Medien, die die Endzeitszenarien aus Potsdam noch so gern verbreiten,  tragen ihren Anteil dazu bei.

Zurück zum Golfstrom: Die niederländische Studie, die nun erneut zu grossen Schlagzeilen geführt hat, steht unter heftiger Kritik anderer Wissenschaftler. Britische Forscher haben etwa bemängelt, das Resultat der Studie sei «forciert» worden, indem unrealistisch hohe Süsswasserzuflüsse angenommen worden seien. Die angenommenen Zuflüsse aus dem Grönländischen Eisschild seien selbst für das extremste Erwärmungsszenario für das nächste Jahrhundert «völlig unrealistisch» konnte man im britischen «Telegraph» lesen. Wetten, dass das deutsche Medienpublikum darüber kein Wort zu lesen bekommt?

 




Wird jetzt das Ende der EV-Verrücktheit eingeläutet?

H. Sterling Burnett

Elektrofahrzeuge sind spätestens seit der ersten Amtszeit von Präsident Barack Obama der letzte Schrei unter Politikern, aber sie haben sich nie wirklich bei der breiten Masse durchgesetzt, die tatsächlich möchte, dass ihr Auto sie bequem und pünktlich an ihr Ziel bringt und alles und jeden mitnimmt, den sie mitnehmen möchte, ohne im geparkten Zustand in die Luft zu gehen und dabei ihre Häuser abzufackeln.

In Wahrheit wurden Elektroautos schon lange vorher ausprobiert und verworfen, vor allem wegen der gleichen Probleme, die sie immer noch haben: geringe Reichweite und hohe Kosten. Das erste Elektrofahrzeug, eine Lokomotive, wurde 1837 getestet, fast 60 Jahre bevor das erste Fahrzeug mit Verbrennungsmotor (ICE) in Betrieb genommen wurde. Elektrolokomotiven konnten nicht einmal mit kohlebetriebenen Dampfmaschinen konkurrieren. Die ersten wiederaufladbaren Batterien wurden 1859 entwickelt, und EVs konnten immer noch nicht mithalten.

Elektroautos gab es schon vor den ersten mit Benzin und Diesel betriebenen Privatfahrzeugen, die übrigens alle ohne staatliche Unterstützung, Subventionen oder Steuergutschriften auskamen, und sie konnten nicht mithalten. Sie können immer noch nicht mithalten. Dennoch legt die Regierung in ihrem vergeblichen Bestreben, das Klima in den Griff zu bekommen, den Daumen auf die Waage, um sie mit verschiedenen Arten von Unterstützung und Vorschriften zu verpflichten und zu fördern.

Ich habe schon früher darauf hingewiesen, dass E-Fahrzeuge im Allgemeinen viel teurer sind als ihre vergleichbaren ICE-Pendants. Untersuchungen haben ergeben, dass die meisten E-Fahrzeuge an die beiden obersten Einkommensklassen verkauft werden, so dass die Steuergutschriften und andere staatliche Förderungen nur eine Wohlfahrtsmaßnahme für die Wohlhabenden und die politisch Verantwortlichen sind.

Aber trotz all dieser Unterstützung … der Aktienkurs von Tesla, dem umsatzstärksten Elektroautohersteller, befindet sich im freien Fall, was sich auch in den sinkenden Dividenden des Unternehmens widerspiegelt. Der Elektroauto-Konkurrent Rivian entlässt Mitarbeiter, während seine Aktie aufgrund von Verlusten in Höhe von 1,5 Milliarden Dollar dramatisch gefallen ist. Fisker, ein weiterer EV-Frühstarter, hat bereits einen Konkurs hinter sich und taumelt möglicherweise auf den zweiten zu, da sein Wert auf das Niveau von Pennystocks gefallen ist.

Während sich die EV-Lagerbestände bei den Händlern auftürmen, haben Ford und GM, die jeweils Milliardenverluste bei ihren EVs bekannt gegeben haben, ihre Produktionslinien reduziert und die Absatz- und Produktionsprognosen gesenkt. Nachdem sie Milliarden von Dollar in verschiedene EV-Projekte investiert hatten, stellte Apple Inc. alle seine EV-Projekte ein. Wenn eines der profitabelsten und kapitalstärksten Unternehmen der Welt nicht in der Lage ist, ein effektives Elektroauto zu bauen und es zum Mainstream zu machen, wer dann?

Der Energieanalyst und Berater des Heartland Institute Ronald Stein und mein Kollege Chris Talgo haben kürzlich die unzähligen Probleme beschrieben, mit denen E-Fahrzeuge zu kämpfen haben. Talgo weist darauf hin, dass die beiden Hauptprobleme, welche die Attraktivität von E-Fahrzeugen einschränken, bereits vor fast 200 Jahren bekannt waren: „Reichweitenangst“ und Kosten. Ich habe bereits früher auf Liberty and Ecology über das Reichweitenproblem von E-Fahrzeugen für die meisten normalen Autofahrer geschrieben und darauf hingewiesen, dass das Aufladen von E-Fahrzeugen aus verschiedenen Tagesausflügen, die ich normalerweise mache, mindestens Zwei-Tages-Ausflüge machen und den Urlaubsteil von wochenlangen Autofahrten um die Hälfte oder mehr reduzieren würde.

Stein weist darauf hin, dass es fast unmöglich ist, gebrauchte E-Fahrzeuge zu verkaufen, und dass Hertz seine E-Fahrzeugflotte drastisch reduziert und stattdessen neue ICE-Fahrzeuge kauft.

Selbst die Mainstream-Medien sehen sich zunehmend gezwungen, die Nachteile der EV-Revolution einzugestehen, die sie so atemlos und schamlos als entscheidenden Schritt zur Verhinderung der Klimakatastrophe propagiert haben. Die Kinder- und Sklavenarbeit, auf der die EV-Technologien basieren, wird immer schwerer zu ignorieren, ebenso wie die Umweltzerstörung, die durch den Abbau der für die EVs notwendigen Mineralien verursacht wird.

[Hervorhebung vom Übersetzer]

Aus Oslo und Schweden sowie aus den Bundesstaaten Iowa, Michigan und Minnesota wird berichtet, dass Elektrobusse im Winter ihre Runden nicht fahren konnten, so dass diese und andere Bundesstaaten gezwungen waren, sie aus dem Verkehr zu ziehen oder ihre Routen stark zu kürzen. Wie die Probleme mit Elektrobussen u. a. in North Carolina, San Francisco und Wyoming zeigen, muss es gar nicht so kalt sein, damit Elektrobusse ausfallen. Die Beweise deuten darauf hin, dass Elektrobusse einfach noch nicht einsatzbereit (oder kosteneffizient) sind. Für die meisten Einsätze sind herkömmliche Benzin-, Diesel- und sogar Erdgasbusse die bessere Wahl für Schulkinder, Pendler und Steuerzahler.

Eine einfache Websuche nach „Elektrofahrzeuge“ und „Brände“ oder „Elektrobus“ und „Brände“ führt zu Dutzenden, wenn nicht Hunderten von Berichten darüber, wie Elektroautos, -roller und zunehmend auch -busse spontan in Flammen aufgehen, Eigentum zerstören und dabei Menschen töten. In den Schlagzeilen ist zu lesen, dass Elektroautos, -roller, -autos und -busse in New York und Connecticut, international in Frankreich und Indien sowie beim Transport zu einer erheblichen Brandgefahr geworden sind. Einige Versicherer bieten keine Versicherungen mehr für E-Fahrzeuge oder für diejenigen an, die sie lagern oder transportieren.

In der vergangenen Woche häuften sich die Angriffe auf E-Fahrzeuge. Die Schlagzeilen der Daily Mail lauteten an mehreren aufeinanderfolgenden Tagen: „Großbritanniens tickende Zeitbombe E-Bus: Fast ZWEITAUSEND Elektrobusse im Wert von 800 Millionen Pfund müssen dringend zurückgerufen werden, weil sie … in Flammen aufgehen könnten“ und „Elektroautos stoßen MEHR giftige Emissionen aus als gasbetriebene Fahrzeuge und sind schlechter für die Umwelt, warnt eine neue Studie“.

In der ersten Meldung wird darauf hingewiesen, dass die britische Behörde für Fahrzeugnormen (Driver Vehicle Standards Agency) einen dringenden Rückruf von 1.758 Doppel- und Eindecker-Elektrobussen angeordnet hat, die derzeit im ganzen Land im Einsatz sind (600 allein in London), weil es „keine dauerhafte Lösung zur Verhinderung künftiger Brände“ gibt, die mit der Stromversorgung der Busse, d. h. den Akkus, zusammenhängen.

Hätten die Autohersteller in den 1960er und 1970er Jahren Elektrofahrzeuge auf den Markt gebracht, hätte der Verbraucherschützer Ralph Nader einen Anfall bekommen und sie als „Unsafe at No Speed“ bezeichnet. Die U.S. Consumer Products Safety Commission oder andere Behörden hätten die Hersteller mit ziemlicher Sicherheit gezwungen, sie aus Sicherheitsgründen vom Markt zu nehmen, anstatt sie zu fördern, wie sie es jetzt tun.

Dem zweite Bericht der Daily Mail zufolge, dessen Fakten durch einen am nächsten Tag auf Fox Business News veröffentlichten Artikel bestätigt wurden, verschleißen die Reifen von E-Fahrzeugen aufgrund ihres höheren Gewichts im Vergleich zu ICE-Fahrzeugen viel schneller, und die Laufflächen geben während des Betriebs 400 Mal mehr „giftige Partikel“ in die Luft ab als die Auspuffrohre von ICE-Fahrzeugen. Berücksichtigt man die Umweltverschmutzung bei der Förderung und Herstellung, die Umweltverschmutzung während des Betriebs und die Umweltverschmutzung beim Aufladen (je nach verwendeter Stromquelle), so zeigt sich, dass E-Fahrzeuge schmutziger sind als die ICE-Fahrzeuge, die sie angeblich ersetzen sollen, weil sie besser für die Umwelt sind.

So etwas kann man sich nicht ausdenken. Nun, man könnte schon, aber wer würde einem glauben?

Mit sinkenden Verkaufszahlen und Aktienkursen sowie der Berichterstattung in den Medien über die Probleme mit E-Fahrzeugen fällt der Öffentlichkeit das Zünglein an der Waage in Bezug auf E-Fahrzeuge und die Ambitionen der Regierungen in diesem Bereich zunehmend aus den Augen.

Die US-Regierung hätte niemals in den Markt eingreifen dürfen, um E-Fahrzeuge zu fördern. Es gibt keine Beweise dafür, dass wir vor einer Klimakrise stehen, abgesehen von den dogmatischen Äußerungen der Eliten und den Ergebnissen fehlerhafter Computermodelle, und noch weniger Beweise dafür, dass EVs eine Krise verhindern würden, anstatt sie zu verschlimmern.

Die Frage ist nicht, ob das Ende der Förderung für E-Fahrzeuge eingeläutet wird, sondern wie schnell dies geschehen wird. Mit etwas Glück könnten die kommenden Wahlen einen Wendepunkt darstellen, wenn die Wende nicht vorher eintritt.

Sources: America Out Loud; The Daily Mail; The Daily Mail; Climate Change Weekly; The Center Square; Liberty and Ecology; Junk Science

Übersetzt von Christian Freuer für das EIKE

 




Klimamodellverzerrung 5: Sturmaktivität*

Andy May

[*Der angelsächsische Terminus „storm“ umfasst nicht nur Sturm, sondern Unwetter allgemein. In den USA ist ein „rainstorm“ ein Starkregen-Ereignis, auch wenn es dabei windstill ist. A. d. Übers.]

In Teil 4 wurden die Auswirkungen der Konvektion und der atmosphärischen Zirkulation auf das Klima erörtert. Wenn sich die Zirkulationsmuster ändern, verändern sie die Geschwindigkeit und Effizienz des Transports überschüssiger Wärme von den Tropen zu den Polen. Wenn dieser Wärmetransport schneller ist, wird die Welt kühler, da die Pole einen schwachen Treibhauseffekt haben und die Wärme effizienter in den Weltraum abstrahlen. Die Tropen sind feucht und haben einen sehr starken Treibhauseffekt, da Wasserdampf das stärkste Treibhausgas ist [1]. Daher wird die Wärmeenergie (Wärme), die zu den Polen mit niedriger Luftfeuchtigkeit transportiert wird, leichter in den Weltraum geleitet als in den Tropen.

Der Temperaturgradient, der sich zwischen den Tropen und den Polen bildet, trägt zu dieser Wärmeübertragung bei, wird jedoch durch atmosphärische und ozeanische Zirkulations- und Konvektionsmuster moduliert. Ein sehr starkes Gefälle, wie wir es heute haben, erhöht die Sturmaktivität.

Der Temperaturgradient steuert den meridionalen Transport und das Wetter

Es ist unumstritten, dass Temperaturgradienten zumindest teilweise für unser Wetter verantwortlich sind. Auf der Suche nach einer Gleichgewichtstemperatur will die Wärme von wärmeren in kältere Gebiete fließen. In größerem Maßstab ist der meridionale Transport zum Teil auch eine Funktion des Temperaturunterschieds zwischen den Tropen und den Polen. Leon Barry und Kollegen schreiben:

„Der atmosphärische Wärmetransport auf der Erde vom Äquator zu den Polen wird größtenteils durch Wettersysteme in den mittleren Breiten bewirkt.“ [2] – Leon Barry et al., Nature, 2002

Starke Stürme in den mittleren Breiten, Wirbelstürme und andere Stürme transportieren den größten Teil der überschüssigen tropischen Wärme polwärts, und je mehr sie transportieren, desto kälter wird die Erde. Der Temperaturgradient ist nicht der einzige Faktor, der den meridionalen Transport steuert, es gibt viele andere Einflussfaktoren [3], aber er ist ein wichtiger Faktor, vielleicht der wichtigste.

Die Atmosphäre ist eine riesige Wärmemaschine [4], die von der Oberfläche aus angetrieben wird (mit Ausnahme einiger begrenzter Gebiete in den Polarregionen) und die ungenutzte Wärme in den Weltraum abgibt [5]. Wie bei einer Zugmaschine kann die Wärme Arbeit erzeugen, wenn sie sich durch die Atmosphäre bewegt, und diese Arbeit ist unser Wetter, hauptsächlich Stürme. Wie in Teil 4 erörtert, schwanken die tropischen Temperaturen nicht sehr stark, so dass der entscheidende Faktor die Temperatur an den Polen ist. Die notwendige Konsequenz dieses Konzepts ist, dass das Wetter extremer ist, wenn der Planet kälter, der meridionale Transport stark und der Temperaturgradient steil ist. Es ist weniger extrem, wenn der Planet wärmer, der meridionale Transport schwach und der Temperaturgradient geringer ist. Dies ist das Gegenteil der Schlussfolgerungen des IPCC, der auf der Grundlage der CMIP-Modelle glaubt, dass wärmeres Wetter mehr Stürme bringt (AR6 WGI, Seite 1526-1527). Aber das ist nicht das, was beobachtet wird. Auf jeder Hemisphäre gibt es in den Wintermonaten mehr Unwetter als in den Sommermonaten [6].

Zhongwei Yan und Kollegen, zu denen auch Philip Jones und Anders Moberg gehören, haben herausgefunden, dass extreme Wetterereignisse vor allem in den Wintermonaten seit dem 19. Jahrhundert abgenommen haben, da sich die Welt erwärmt hat [7]. Sie stellen fest, dass der Zusammenhang zwischen Wärme und schwächerem Wetter in Europa und China in den kritischen Wintermonaten am ausgeprägtesten ist. Im Gegensatz zu Yan et al. heißt es im AR6:

„… sowohl thermodynamische als auch dynamische Prozesse sind an den Veränderungen von Extremen als Reaktion auf die Erwärmung beteiligt. Anthropogener Antrieb (z. B. Anstieg der Treibhausgaskonzentrationen) wirkt sich direkt auf thermodynamische Variablen aus, einschließlich des allgemeinen Anstiegs hoher Temperaturen und des atmosphärischen Verdunstungsbedarfs sowie regionaler Veränderungen der atmosphärischen Feuchtigkeit, die Hitzewellen, Dürren und Starkniederschlagsereignisse intensivieren, wenn sie auftreten (hohes Vertrauen). Dynamische Prozesse sind oft indirekte Reaktionen auf thermodynamische Veränderungen, werden stark von der internen Klimavariabilität beeinflusst und sind auch weniger gut verstanden. Daher gibt es ein geringes Vertrauen in die Auswirkungen dynamischer Veränderungen auf den Ort und das Ausmaß von Extremereignissen in einem sich erwärmenden Klima.“ – AR6 WGI, Seite 1527

Trotz der von Yan et al. und vielen anderen vorgelegten Beweise (siehe Kapitel 11 in The Frozen Climate Views of the IPCC) kommt der AR6 also zu dem Schluss, dass die anthropogene globale Erwärmung eine Zunahme von Wetterextremen verursacht und verursacht hat. Dies ist ein weiteres Beispiel für eine Verzerrung.

Auf längeren Zeitskalen nimmt die Unwetterhäufigkeit auch während historischer Kälteperioden zu. Sie erreichte in Europa während der sehr kalten Kleinen Eiszeit (in Abbildung 1 mit „LIA“ bezeichnet) einen Höhepunkt:

Abbildung 1. Stürmische Perioden in den letzten 6.500 Jahren in Europa. Nach Vinós, 2022.

Abbildung 1 zeigt Perioden von Stürmen, die anhand von sedimentologischen Merkmalen in Europa in 18 Studien ermittelt worden waren. Die stärkste Häufigkeit extremer Stürme trat während der kalten Kleinen Eiszeit auf [8], die der IPCC als „vorindustrielle“ Periode bezeichnet [9]. Es ist logisch, dass extreme Wetterlagen und Stürme in kalten Zeiten zunehmen, und das ist auch zu beobachten. Die Temperaturen in den Tropen ändern sich kaum, die globalen Temperaturveränderungen finden hauptsächlich in den höheren Breitengraden statt. Wenn die Temperaturen in höheren Breitengraden sinken, wird der Temperaturgradient steiler, was zu stärkeren Winden führt, und starke Winde sind das Markenzeichen extremer Wetterlagen.

IPCC AR6 WG1 Modell-Verzerrung, Zusammenfassung

Die schwächste Annahme des IPCC ist, dass die Sonne in ihrer Wirkung auf das Klima seit 1750 konstant geblieben ist. Wie wir in Teil 3 gezeigt haben, gibt es viele Beweise dafür, dass die Sonne in diesem Zeitraum Schwankungen unterworfen war und zur globalen Erwärmung beigetragen hat [10]. Die implizite Annahme des IPCC, wie in Abbildung 2 in Teil 3 gezeigt, dass eine Änderung des solaren Antriebs der gleichen Änderung (in W/m²) des Treibhauseffekts entspricht, ist einfach nicht wahr, wie uns die grundlegende Physik sagt. Der solare Antrieb hat eine längere Verweildauer, zumindest in den Ozeanen, und verursacht aufgrund der höheren Frequenzen des Sonnenlichts eine stärkere Erwärmung Watt für Watt. Die höheren Frequenzen durchdringen die Meeresoberfläche, während die Treibhausgasemissionen mit niedrigeren Frequenzen dies nicht tun.

Die CMIP6-Modelle versuchen zwar, den Wärmeinhalt des Ozeans, die Wärmepufferung des Ozeans und die Trägheit zu berücksichtigen, aber soweit ich sehen kann, berücksichtigen sie nicht die unterschiedlichen klimatischen Auswirkungen von Sonnenlicht und Treibhausgasemissionen. Falls doch, ist dies tief im AR6 WG1 vergraben [11]. Zwar wird in der Modelldokumentation eingeräumt, dass es einen Unterschied bei der Aufnahme durch den Ozean gibt [12], doch scheint man diese Tatsache einfach zu ignorieren. Sie behandeln sie gleich oder fast gleich, obwohl sie es nicht sind.

Dies ist wichtig, weil laut AR6 der Anstieg des Wärmeinhalts der Ozeane 91 % der gesamten Veränderung des globalen Energieinventars zwischen 1971-2006 und 2006-2018 ausmacht, also in zwei Perioden mit schneller Erwärmung [13]. Zufällig oder nicht, ist dies auch die letzte Hälfte des modernen Sonnenmaximums [14], in der man erwarten würde, dass die Ozeane die überschüssige Wärme abstrahlen, die sie in der ersten Hälfte des Maximums angesammelt haben. Die Ozeane strahlen die Wärme vor allem durch El Ninos, tropische Wirbelstürme (Hurrikane), Monsune und Stürme in den mittleren Breiten aus. Wie lange es dauert, bis die Atmosphäre nach einem Sonnenmaximum abkühlt, ist nicht bekannt, aber vielleicht erfahren wir es bald.

Während wir heute über viele Messungen des Wärmeinhalts bis zu einer Tiefe von 2000 Metern verfügen, sind diese Messungen vor 2004 recht selten, weshalb das spezifische, zur Berechnung des Wärmeinhalts im Ozean vor 2000 verwendet Modell sehr wichtig ist. Es ist bedauerlich, dass sich unsere Messungen des Wärmeinhalts der Tiefsee gerade dann so dramatisch verbessert haben, als das moderne Sonnenmaximum zu Ende ging, denn wir brauchen diese Daten, da der Wärmeinhalt ebenfalls zunahm. Satellitenmessungen der von der Erdoberfläche ausgehenden Strahlung reagieren sehr empfindlich auf die Temperatur, aber nicht unbedingt auf die Temperatur unterhalb der Meeresoberfläche.

Es gibt drei Prozesse, die zusammenwirken, um das Klima der Erde stabil zu halten: der Treibhauseffekt, die Wolken und der meridionale Wärmetransport. Diese Faktoren tragen auch dazu bei, die Verweilzeit der von der Sonne empfangenen Energie zu bestimmen. Der IPCC hat sich ausschließlich auf den ersten Faktor konzentriert, indem er seine CO₂-Klimahypothese entwickelt hat [15].

Die Auswirkung von Wolken und deren Variabilität auf den Klimawandel ist noch weitgehend unbekannt und bleibt die größte Unsicherheitsquelle bei der Berechnung der Auswirkungen von Treibhausgasen auf unser Klima [16]. Das IPCC kann nicht sagen, ob der Nettoeffekt einer zunehmenden Bewölkung die Erde erwärmt oder abkühlt. Da die Bildung und Auflösung von Wolken nicht modelliert werden kann [17], wird ihre Wirkung vom IPCC ignoriert oder einfach „parametrisiert“ [18].

Beim meridionalen Wärmetransport wird Energie zwischen dem Klimasystem und dem Weltraum nur über die Obergrenze der Atmosphäre ausgetauscht, was dazu führt, dass der globale meridionale Wärmetransport zwangsläufig einen Netto-Nullwert hat, wenn er sofort über das gesamte globale Klimasystem integriert wird. Die Verlagerung von Energie von einer Region in eine andere verändert nicht die Gesamtenergiemenge im System, obwohl sie die Verweilzeit der Energie verändern kann und dies auch tut. Indem der IPCC die Auswirkungen veränderter Konvektionsmuster auf die Verweildauer der Energie ignoriert hat, ist er zu dem Schluss gekommen, dass der meridionale Wärmetransport keine wesentliche Ursache für den Klimawandel sein kann, was sein fundamentalster Fehler ist [19].

Sowohl aus thermodynamischer als auch aus dynamischer Sicht ist das entscheidende Merkmal des Klimasystems der Erde der Energietransport. Der Energietransport ist die Ursache für jedes Wetter, insbesondere für alle Wetterextreme. Der größte Teil der nicht vom Planeten reflektierten Sonnenenergie wird in den Ozeanen gespeichert, wo 99,9 % [20] der „Wärm“ oder thermischen Energie des Klimasystems gespeichert sind. Allerdings transportieren die Ozeane die Energie nicht besonders gut. Unterschiede in der Wassertemperatur führen eher zu vertikalen Bewegungen durch veränderten Auftrieb als zu lateralen Bewegungen, so dass die Ozeane temperaturgeschichtet sind. Der größte Teil der Energie im Klimasystem wird von der Atmosphäre transportiert, und die Energie, die von den Oberflächenströmungen des Ozeans lateral transportiert wird, wird von den Winden angetrieben [21]. Der Fluss der nicht-solaren Energie an der Grenze zwischen Atmosphäre und Ozean (einschließlich über das Meereis) erfolgt fast immer und fast überall vom Ozean zur Atmosphäre [22].

In diesen ersten fünf Teilen werden die schwerwiegendsten systematischen Verzerrungen im IPCC-Bericht AR1 aufgezeigt, Climate Change 2021: The Physical Science Basis. Die Voreingenommenheit wird durch das Ignorieren der in dieser Reihe von Beiträgen und zahlreichen anderen ähnlichen Artikeln zitierten gültigen, von Experten begutachteten Artikel hervorgerufen, so dass es sich größtenteils um „Berichterstattung“ oder „Bestätigung“ handelt. Die Beweise dafür, dass die Sonnenvariabilität das Klima der Erde beeinflusst, sind enorm und in der Literatur gut belegt, wie Douglas Hoyt und Kenneth Schatten in ihrem ausgezeichneten Buch The Role of the Sun in Climate Change [23] und Joanna Haigh in ihrem Bericht Solar Influences on Climate [24] dargelegt haben.

Doch diese grundlegenden Werke sowie die vielen Arbeiten in der Bibliographie werden vom IPCC ignoriert oder als unwichtig abgetan. Darüber hinaus werden viele der Hunderte von Arbeiten, die in Connolly et al. [25] und im Kapitel von Nicola Scafetta und Fritz Vahrenholt [26] in The Frozen Climate Views of the IPCC zitiert werden, im AR6 ebenfalls ignoriert.

Es ist gut dokumentiert, dass die IPCC/CMIP6-Klimamodelle im Vergleich zu den Beobachtungen viel zu warm laufen [27]. Sie überschätzen die tropische Temperatur in der mittleren Troposphäre,[28] die Meerestemperatur [29] und die globale Erwärmung im Allgemeinen [30]. Diese Verzerrung wird im AR6 selbst eingeräumt, wo sie schreiben:

Daher schätzen wir mit mittlerem Vertrauen ein, dass die CMIP5- und CMIP6-Modelle die beobachtete Erwärmung in der oberen tropischen Troposphäre über den Zeitraum 1979-2014 um mindestens 0,1°C pro Jahrzehnt überschätzen, was zum Teil auf eine Überschätzung des tropischen SST-Trendmusters über diesen Zeitraum zurückzuführen ist.“ [31] – AR6 WGI, Seite 444

Die IPCC/CMIP6-Klimamodelle simulieren nicht nur eine stärkere Erwärmung als beobachtet, sie „driften“ auch in ihren Berechnungen mit der Zeit ab. Bei den meisten Modellen läuft dies in Richtung einer stärkeren Erwärmung, was die natürliche Tendenz der Modelle noch verstärkt, heiß zu laufen. Außerdem schließen sich die Energie- und Massenbudgets in einzelnen Modellläufen nicht richtig, was gegen die physikalischen Gesetze der Massen- und Energieerhaltung verstößt [32]. In mancher Hinsicht schneiden die CMIP6-Modelle besser ab als die CMIP5-Modelle, in anderen jedoch schlechter, was darauf hindeutet, dass die Modelle mit der Zeit nicht besser werden und möglicherweise das Ende ihrer Nutzungsdauer erreicht haben.

Unerzwungene Modelldrift kontaminiert die erzwungenen (d. h. sich ändernden CO₂- oder Vulkanismus-)Trends. In einigen Modellen macht die Drift einen erheblichen Teil der berechneten Erwärmung aus. Sie resultiert aus der Parametrisierung von Größen, die nicht modelliert werden können, wie z. B. die Wolkenbedeckung, und aus einem Ungleichgewicht zwischen dem vorgeschriebenen Anfangszustand des Modells aufgrund von Beobachtungen und der im Modell programmierten Physik.

Ein weiterer Schuldiger kann der „Kopplungsschock“ sein, wenn die verschiedenen Modellkomponenten zusammengeführt werden wie die Ozean- und die atmosphärischen Komponenten, manchmal auch „Grenzschock“ genannt. Es genügt zu sagen, dass die Tatsache, dass Masse und Energie in diesen Modellen nicht konserviert sind und sie driften, ein echtes und bedeutendes Problem darstellt. Die Modelldrift ist einfach der Versuch des Modells, einen stabilen Zustand zu erreichen, nachdem die Start- (oder Spin-up-)Schocks aufgetreten sind. Das Gleichgewicht wird nach dem Spin-up erst nach über tausend Jahren erreicht, so dass es nicht praktikabel ist, das Modell so lange laufen zu lassen, nur um die Drift loszuwerden. Wenn die Modelle um die Drift korrigiert werden, verringern sich in der Regel die Probleme mit der Massen-/Energieerhaltung [33], doch die Diskrepanz zwischen der Modellphysik und dem ursprünglichen Modellzustand, der sich aus Beobachtungen ergibt, ist an sich schon beunruhigend.

Aus der Sicht dieses Modellierers hat sich das konzeptionelle Modell oder die Hypothese als falsch erwiesen, welche mit dem CMIP6 und seinen Vorgängern untersucht werden sollte. Diese Beobachtung kann nur durch die Einführung von immer mehr Verzerrungen kaschiert werden. Aber je mehr Verzerrungen in die Modelle und in die Interpretation der Ergebnisse einfließen, desto offensichtlicher werden diese auch. Es ist an der Zeit, aufzuhören und eine neue Hypothese und ein neues konzeptionelles Modell zur Untersuchung zu entwickeln, die Idee des „CO₂-Kontrollknopfes“ ist tot [34].

In Teil 6 befasse ich mich mit der Modellverzerrung in der WGII.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2024/03/08/climate-model-bias-5-storminess/

Übersetzt von Christian Freuer für das EIKE

 




Wie CO2-Zertifikate die Deindustrialisierung befördern

von Fritz Vahrenholt

Zum Einstieg erhalten Sie wie bereits gewohnt meinen Monitor zum weltweiten Temperaturanstieg. Danach beschäftige ich mich mit den Auswirkungen der CO2-Zertifikate auf den Strompreis in Deutschland.

https://www.drroyspencer.com/latest-global-temperatures/

Im Februar 2024 ist die Abweichung der globalen Temperatur vom 30-jährigen Mittel der satellitengestützten Messungen der University of Alabama (UAH) gegenüber dem Januar wieder leicht angestiegen. Der Wert beträgt 0,93 Grad Celsius. Der El Niño, der diesen Erwärmungsausschlag verursacht hat, ist im Monat März bereits auf dem Rückzug. Mit einer Zeitverzögerung von 1-2 Monaten wird sich das auch in den globalen Temperaturen niederschlagen.
Der Temperaturanstieg beträgt im Durchschnitt pro Jahrzehnt seit 1979 nunmehr 0,15 Grad Celsius.
 CO2-Kosten prägen die Strompreise
In meinem newsletter vom November 2023 machte ich darauf aufmerksam, dass die Strompreisexplosion der Jahre 2021-23 im wesentlichen Folge der verfehlten Energiepolitik war, nämlich, dass sie auf die massiv gestiegenen CO2-Kosten und der Stillegung von 6 Kernkraftwerken zurückzuführen war. Minister Robert Habeck versuchte, die Ursache Russland zuzuschreiben. Nun sinken die CO2-Kosten und damit die Strompreise. Aber die Ursache ist fatal. Die Nachfrage nach Strom sinkt auf Grund des Rückgangs des Stromverbrauchs der energieintensiven Industrie. Damit sinkt auch die Nachfrage nach CO2-Zertifikaten : der Strompreis gibt nach.
Weil das so wichtig  zum Verständnis der Folgen der fehlerhaften Energiepolitik ist,  zeige ich im folgenden die einzelnen Schritte. Zunächst der Börsenstrompreis des Jahres 2021 : Die Strompreise vervierfachten  sich – wohlgemerkt lange Zeit vor dem russischen Einmarsch.
Und dieser Anstieg ist massgeblich von den steigenden CO2-Zertifikatspreisen geprägt, wie die übernächste Grafik zeigt.
Die nächste Grafik zeigt , wie die CO2-Preise die Erzwugungskosten der einzelnen Kraftwerksarten nach oben schnellen liessen. Bei dem Kostenvergleich der Kraftwerke springt die mit Abstand günstigste Erzeugungsform der bis zum 15.4.2023 betriebenen Kernkraftwerke ins Auge, die keine CO2-Zertifikate zu bezahlen haben. Ausgerechnet diese Kraftwerke wurden stillgelegt.
Die Strompreisexplosion hatte Folgen. Produktionsstillegungen in der Aluminium- und Stahlindustrie, der Glas- und Papierindustrie wurden begleitet von Produktionsverlagerungen in der chemischen Industrie. Die Produktion in der energieintensiven Industrie ging um 20 % zurück.
Und mit dieser Deindustrialisierung ging  der CO2-Ausstoß, aber auch der Strombedarf und damit die Nachfrage nach CO2-Zertifikaten zurück. Die gute Nachricht : Der CO2 Ausstoß Deutschlands ging von 762 Mio. t CO2 in 2021 auf 673 Mio. t in 2023 zurück. Die schlechte Nachricht : Dies wurde erkauft durch eine teilweise Zerstörung des Wirtschaftsstandort Deutschlands
Tatsächlich fahren in 2024 einige Produzenten ihre Produktion auf Grund der gesunkenen Strompreise wieder hoch.
Doch sollte dadurch die Nachfrage nach Strom und CO2-Zertifikaten wieder steigen, wäre das nur ein Strohfeuer und die Strompreise ziehen wieder massiv an.
Was Deutschland benötigt, um wettbewerbsfähige Strompreise zu erreichen, ist eine Erhöhung des Angebots (etwa durch Reaktivierung der letzten Kernkraftwerke sowie eine durchgreifende Senkung der CO2-Kosten durch Anwendung der CO2-Abscheidetechnik CCS bei Kohle- und Gaskraftwerken).
Windkraftweke in Bayern und Baden-Württemberg jedenfalls gehören nicht zum Lösungsangebot. Denn diese benötigen dort eine Einspeisevergütung von 10-11 €ct/kwh. Auf diesem Strompreisniveau ist das Aus der Industrie vorprogrammiert, insbesondere wenn die massiv steigenden Systemkosten der Erneuerbaren Energien durch Leitungsbau und backup-Kosten einbezogen werden.
Den Krieg gegen die Kohle beenden
Nun soll es also doch CO2-Abscheidungen aus Abgasen, Transport von CO2 durch Pipelines und die Tiefenverpressung von CO2 auch in Deutschland geben. Allerdings soll diese Technik nach den Plänen der Ampel-Koalition nur für nicht vermeidbare Abgase aus Zementwerken und Müllverbrennungsanlagen angewandt werden. Der Elefant steht nach wie vor im Raum. Der Verzicht auf die russischen Erdgasimporte, die Stilllegung der letzten Kernkraftwerke hat es unabweisbar gemacht, dass Kohlekraftwerke in Deutschland weit über 2030 hinaus betrieben werden müssen, wenn nicht die Stromversorgung in Deutschland zusammenbrechen soll. Daher müsste eine verantwortungswusste  Energiepolitik dafür sorgen, dass die CO2-Abscheidung vor allen Dingen bei Kohle- und Gaskraftwerken zum Einsatz kommen, damit deren Weiterbetrieb gewährleistet werden kann. Davor drückt sich die Bundesregierung und verbreitet stattdessen weiter das Märchen, man könne in Deutschland die Sicherheit der Stromversorgung mit Gaskraftwerken betreiben, die später zu Wasserstoffkraftwerken umgerüstet werden sollen.  Wasserstoffkraftwerke werden aber den Strompreis verdrei- bis vervierfachen und damit das Ende von industrieller Produktion und des Wohlstands in Deutschland besiegeln.
Es ist schon als Politikversagen zu kennzeichnen, wenn eine Bundesregierung erst zwei Jahre nach dem russischen Einmarsch in die Ukraine, die Technologie der CO2-Abscheidung, die der Weltklimarat IPCC seit Jahren fordert, in Deutschland wieder ermöglicht.
Es gilt bislang das Verbot der CO2-Abscheidung (CCS) in Deutschland seit 2012.
RWE hatte im  Jahre 2009 ( ich war damals  Geschäftsführer der RWE für Erneuerbare Energien) eine voll funktionsfähige Pilotanlage zur Abscheidung von CO2 in einem Teilstrom des Braunkohlekraftwerks in Niederaussem errichtet. Und sie läuft immer noch erfolgreich. (S. Abb. weiter unten).
Die Entwicklung von RWE, BASF und Linde ist mittlerweile als Stand der Technik anzusehen : Die Abscheidung von über 90 % des CO2 aus einem Teilstrom des Abgases ist auf Dauer nachgewiesen, die Kosten belaufen sich auf sagenhafte 30 €/t CO2 ( P.Moser, G Wiechers, S.Schmidt,K.Stahl,G.Vorberg,T Stoffregen, VGB Powertech 1/2 , 2018, S.43). Der Wirkungsgradverlust beträgt weniger als 10 % . Die Technik könnte die Emission und die CO2-Kosten von Braunkohlestrom massiv reduzieren (30 €/t CO2 anstatt 80-100 €/t CO2-Zertifikate). Das abgeschiedene CO2 aus Niederaussem ist übrigens so rein, dass es in der Getränkeindustrie für Sprudelflaschen eingesetzt wird.
Habeck und die Grünen möchten CCS auf Zementwerke und Müllverbrennunganlegen begrenzen. Die Grünen sind Gefangene ihrer eigenen ideologischen Denkverbote. Massgeblicher Drahtzieher  des CCS-Verbots in Deutschland war der damalige schleswig-holsteinische Energiewendeminister Robert Habeck : “Wir wollen kein CCS als Reinwasch-Technologie für die klimaschädliche Kohleverbrennung”
Die Ampel-Koalition schaltet also lieber Kohlekraftwerke ab und treibt die Deindustrialisierung des Landes voran. Eine ausführliche Darstellung der Technologie und der Kräfte, die sie in Deutschland verhindert haben, finden Sie in meinem Buch „Die große Energiekrise“, S. 83-97.
In der folgenden Abbildung zeige ich Ihnen die noch operierende CO2-Abscheidung des Braunkohlekraftwerks Niederaussem, das 2030 stillgelegt werden soll, wenn es nach Wirtschaftsminister Habeck, dem nordrhein-westfälischen Ministerpräsidenten Wüst und dem RWE-Vorstandsvorsitzenden Krebber geht.
US-Energiebehörde : Bis 2050 kein Rückgang der CO2-Emissionen weltweit
Die Ampel-Politik, die die deutschen CO2-Emissionen in wenigen Jahren auf Kosten unserer Industrie und damit unseres Wohlstandes auf Null fahren will, wird umso unverständlicher, wenn man liest, was gerade eine US-amerikanische Regierungsbehörde, die U.S. Energy Information Administration (EIA) veröffentlicht hat.
Sie hat eine Projektion der globalen CO2-Emissionen bis 2050 vorgenommen und resümiert:„Wir prognostizieren, dass die globalen energiebezogenen CO2-Emissionen aus dem Verbrauch von Kohle, flüssigen Brennstoffen und Erdgas in den nächsten 30 Jahren in den meisten Fällen, die wir in unserem International Energy Outlook 2023 (IEO2023) analysiert haben, zunehmen werden.“
Die Welt wird also noch in 2050 CO2 in leicht gestiegener Höhe emittieren, so sagt es uns eine Behörde der demokratischen Biden-Regierung (!). Doch unsere Regierung setzt unbeirrbar weiter, koste es, was es wolle, auf CO2-Minderung durch erneuerbare Energien auf null CO2, auch wenn es unbezahlbar wird und weltweit der CO2-Ausstoß nicht zurückgeht.



Lauterbach, Seehofer und Braun geben Fehler bei Corona-Politik zu…

…vermeiden aber eine Entschuldigung wie der Teufel das Weihwasser

Reitschuster.de

Bis heute gibt es keine nennenswerte Aufarbeitung der Corona-Politik in Deutschland. Große Teile der Politik, der Medien und der Justiz halten sich eisern an die Omertà – das Gesetz des Schweigens. Da heute offensichtlich ist, wie absurd und falsch viele damalige Entscheidungen waren, ist diese Absage an eine Vergangenheitsbewältigung fatal. Und bringt die Gefahr einer Wiederholung der fatalen Fehler mit sich.

Einige Medien vermelden jetzt lautstark, dass einzelne Politiker Fehler in der Corona-Politik zugeben. In meinen Augen ist das nicht mehr als eine Nebelkerze – und lenkt von der fehlenden Generalabrechnung ab.

„Pandemie-Bekämpfung: Lauterbach, Seehofer und Braun geben Fehler in Corona-Politik zu“, titelt etwa die „Welt“ unter Berufung auf den inzwischen fast schon halbamtlichen „Spiegel“. Weiter schreibt das Blatt aus dem Axel-Springer-Verlag: „Mehrere Politiker der letzten Merkel-Regierung haben eingeräumt, dass sie manche Entscheidungen in der Corona-Politik heute anders treffen würden.“

Das ist noch meilenweit von echter Reue und Vergangenheitsbewältigung entfernt. Es erweckt sogar den Eindruck, dass es sich hier um ein taktisches Rückzugsgefecht mit Nebelkerzen handelt – mit dem eine umfassende Aufarbeitung vermieden werden soll.

Lauterbach erklärte dem Bericht zufolge, man habe mit Lockerungen zu spät begonnen und sei bei Kindern zu streng gewesen. Also genau das, was Kritiker der Maßnahmen sehr früh schon bemängelten – und wofür sie verteufelt und entmenschlicht wurden. Eine Entschuldigung? Fehlanzeige!

Helge Braun (CDU), als Kanzleramtsminister von Angela Merkel einer der mächtigsten Strippenzieher zu deren Regierungszeit, sagte dem „Spiegel“, die Bundesregierung habe anfangs die Wirkmächtigkeit der Impfstoffe zu hoch eingeschätzt. Man sei davon ausgegangen, dass Geimpfte auch vor Ansteckungen sicher seien. „Wir haben das Impfen als eine Lösung für den Ausstieg aus der Pandemie beworben und eine Erwartung geschürt, die wir am Ende nicht erfüllen konnten“, räumte Braun ein.

Warum taten Braun und Genossen damals dann so, als seien sie im Besitz der Wahrheit? Erklärten Millionen, die Zweifel hatten, faktisch zu Aussätzigen? Und warum hetzten sie so massiv gegen diejenigen, die diese Zweifel öffentlich äußerten und auch nur kritische Fragen stellten?

Wo bleibt die Entschuldigung?

Auch Horst Seehofer (CSU), bis Ende 2021 Bundesinnenminister, reiht sich in die Reihe der angeblich Einsichtigen ein. Er sagte: „Wir haben Entscheidungen getroffen, denen ich heute nicht mehr zustimmen würde.“ Er nannte als Beispiel nächtliche Ausgangssperren, die kaum Wirkung auf die Unterbrechung der Infektionsketten gehabt hätten. Zudem müsse man mit Forderungen nach einer Zwangsimpfung sehr vorsichtig sein, sagte Seehofer laut „Spiegel“ weiter: „Die konnte ja nicht einmal für die Pflegeheime und Krankenhäuser in Bayern umgesetzt werden.“

Lauterbach, der schon vor seiner Zeit als SPD-Gesundheitspolitiker im Bundestag an den Beratungen und Entscheidungen beteiligt war, sagte: Die Kinder seien zu wenig psychotherapeutisch betreut gewesen. „Wir haben Warnsignale übersehen.“

Wenn es nur das wäre! Sie und Ihre Genossen haben gegen diejenigen gehetzt, die diese Warnsignale ansprachen – wie etwa meine Wenigkeit in der Bundespressekonferenz. Wie die Geschichte ausging, ist allen bekannt.

Wenn Lauterbach, Braun, Seehofer & Co. mit solchen billigen Entschuldigungen davonkommen, ist das nächste Abgleiten in totalitäre Verhaltensmuster unseres Staates bereits garantiert. Ohne eine schonungslose, offene und rechtsstaatliche Aufarbeitung der Corona-Politik durch Politik und Justiz ist auch der Vertrauensverlust der Bürger in den Staat nicht mehr zu korrigieren.

Dass die FDP laut Spiegel jetzt eine Enquete-Kommission „Pandemie“ im Bundestag einsetzen will, ist zwar ein Schritt in die richtige Richtung. Aber ein viel zu zaghafter. Nötig ist ein Untersuchungsausschuss mit allen Möglichkeiten und Rechten, die nur einem solchen zur Verfügung stehen. Und auch die Medien müssen sich kritisch mit der eigenen Rolle und ihrem völligen Versagen in der Corona-Zeit auseinandersetzen.

Dass sowohl Lauterbach als auch die Grünen sogar den halbherzigen Schritt, eine Enquete-Kommission einzusetzen, ablehnen, spricht Bände. Der Minister hält den Schritt „für nicht nötig“. Klar, für ihn sicher nicht. Die Angst vor einer echten Aufarbeitung der Corona-Politik scheint bei vielen Verantwortlichen gewaltig zu sein. Zu Recht.

Dieser Beitrag stammt vom Blog reitschuster.de. Nachdruck hier mit Genehmigung