2°C-Ziel erreicht: Deutschland wird kälter und nicht wärmer – wir befinden uns mitten in der Abkühlungsphase Teil 1: Deutschland – kaltes Land

Raimund Leistenschneider, Josef Kowatsch

Laut Wikipedia „gehört Deutschland zur kühlgemäßigten Klimazone“. Daran ändern auch keine politischen Irrlehren oder lautstarke Minderheiten, die vorrangig freitags ihre Phantasien, sirenengleich unters Volk bringen und eine Heerschar „Jünger“ um sich scharen. Unwissende, die bis in die Gerichte zu finden sind. Offensichtlich hat in Deutschland vielerorts der sog. gesunde Menschenverstand aufgehört zu existieren. Dabei braucht man für die Realitäten zu erfassen, siehe Wikipedia, nur hin-und wider mit offenen Augen „vor die Tür zu gehen“.

Nun, schauen wir uns historische Datenreihen an (Abb.2), war ja damit zu rechnen, dass die Erwärmungsphase, die in der Gesamtheit kurz nach der Epoche der „Kleinen Eiszeit“ um 1850 begann und bis ins 2. Jahrzehnt unseres Jahrhunderts anhielt, zu Ende geht. Die Autoren berichteten darüber (hier).

Abb.2, Quelle, zeigt den 1.000 Jahres-Zyklus (Eddy-Zyklus) der Sonne. Deutlich sein zyklisches Verhalten zu sehen. Die heutigen Temperaturen sind vglw. kühler als vor 1.000 Jahren, der sog. „Mittelalterlichen Warmzeit“.

An diesen naturbedingten Einflüssen auf unser Wetter-und Klimageschehen können auch keine „Beschwörungstheorien“ um eine anstehende Erwärmung etwas ändern. Der Beginn einer neuen Kaltphase und nicht Warmphase deckt sich darüber hinaus mit Beobachtungen und Aussagen der NASA (hier oder hier).

Abb.3, Quelle: Ab 2050 fällt der Eddy-Zyklus der Sonne. Spätestens ab diesem Zeitpunkt geht die NASA von einem deutlichen Temperaturrückgang aus, der so stark wie in der „Kleinen Eiszeit“ (ca. 2°C kälter als heute) ausfallen kann. Zumindest aus Sicht der NASA.

„Beschwörungstheorien“ werden von selbsternannten „Propheten“ sofort unter die Bevölkerung gebracht, wenn es, wie im Sommer üblich, über Deutschland eine Südströmung/Südwetterlage herrscht und uns Sommertemperaturen über 30°C bringen. So vom tendenziösen ZDF-„Wetterfrosch“ Herrn Terli (Abb.4).

Abb.4, Quelle: ZDF-Heute vom 30.06.2021 zeigt Herrn Terli vor der Deutschlandkarte, die zeigen soll, der Juni 2021 sei im Vergleich zum Referenzzeitraum* viel zu warm.

* Damit wir Menschen uns in der Natur zurechtfinden, haben wir Begriffe und Definitionen eingeführt. Zu ihnen gehört neben der (Luft)Temperatur, auch das Klima. Weder das eine, noch das andere sind in der Natur Wirklichkeit. Was wir per Definition Lufttemperatur nennen, ist in der Natur die mittlere Bewegungsenergie von Gasen. Klima, der Mittelwert des Wetters. Per Definition, der WMO (Welt Meteorologische Organisation) der Mittelwert von 30 Jahren. Die WMO definierte in den 1930-Jahren den Zeitraum 1901-1930 als erste internationale Klimanormalperiode. Wogegen der Begriff Temperatur, die Wirklichkeit sehr gut beschreibt und eine physikalische Größe ist, ist Klima eine rein statistische und damit willkürliche Größe.

Der jetzt gültige internationale meteorologische Referenzzeitraum oder auch „Klimanormalperiode“ genannt, ist nicht, wie von Herrn Terli angegeben von 1961 – 1990, sondern von 1991 – 2020. Die Zentralanstalt für Meteorologie und Geodynamik schreibt dazu:

„Mit dem Jahr 2021 gilt eine neue 30-jährige Klimanormalperiode: der Zeitraum 1991-2020. Sie stellt den neuen Standard für klimabezogene Analysen und Anwendungen dar und weiterDie zuletzt gültige Periode war der Zeitraum 1961-1990″. Will heißen, die von Herrn Terli gezeigte Karte ist ungültig, da sie sich auf einen nicht mehr gültigen Referenzzeitraum bezieht, nämlich den von 1961 bis 1990. Der DWD schreibt dazu:

Mit Ende des Jahres 2020 wurde die Referenzperiode Vergleichsperiode für aktuelle klimatologische Bewertungen durch die Periode 1991 bis 2020 ersetzt.“

Warum sich Herr Terli auf die Referenzperiode von 1961 – 1990 bezieht, zeigt Abb.5.

Abb.5, Quelle: Josef Kowatsch, nach Daten des DWD (nicht WI-bereinigt**), zeigt die Juni-Temperaturen der letzten 3 internationalen klimatologischen Referenzzeiträume und deren jeweiligen 30-jährigen Mittelwert. Sofort zu sehen, der Referenzzeitraum von 1961-1990 ist mit 15,4°C ganze 1°C kälter als der jetzt gültige von 1991-2020. Da sehen die zu warmen Juni-Temperaturen sehr bedrohlich aus. Hätte Herr Terli die richtige und jetzt gültige Referenzperiode gewählt, sähe die Graphik so aus (Abb.6).

** Originaldaten des DWD. Die Daten sind nicht um den Wärmeinseleffekt (WI, dazu mehr im Teil 2) bereinigt.

Abb.6, geändert nach Quelle Abb.4, zeigt die richtigen Juni-Temperaturen im Vergleich zum gültigen internationalen Klimareferenzzeitraum. Der Juni 2021 war vglw. warm und er war für die meisten von uns eine (kleine) Entschädigung für den ausgefallenen Frühling und den viel zu kalten Mai und April 2021.

Zuweilen werden auch beide Referenzperioden (1991 – 2020 und 1961 – 1990) als Vergleich gebracht, so z.B. von Frau Katja Horneffer. Der Zuschauer kann sich dann sein eigenes Bild machen. Doch nicht bei Herrn Terli. Offensichtlich hat Herr Terli sich zur Aufgabe gemacht, die Zuschauer zu manipulieren, anstatt zu informieren. Nicht nur journalistisch besteht zwischen beidem ein großer Unterschied.

Aber womöglich weiß Herr Terli gar nicht, dass in der Meteorologie ein neuer internationaler klimatologischer Referenzzeitraum („Klimanormalperiode“) gilt. Da fragt man sich allerdings, warum dass ZDF, wie andere seriöse Unternehmen auch, seine Mitarbeiter nicht auf Weiterbildungskurse schickt? Dies muss ja nicht bei EIKE sein. Auch beim DWD (siehe oben) könnte Herr Terli lernen, dass der internationale meteorologische Referenzzeitraum von 1961 – 1990 als Vergleich ungültig und eine neue Klimanormalperiode gültig ist.

Vor falschen Propheten oder gar Rattenfängern sollte man sich in Acht nehmen. Nicht nur anhand unserer Geschichte und angesichts der zig-tausender jubelnder Massen, ist die folgende Abb. und deren Zeitepoche erst recht nicht, kein Ruhmesblatt für unser Volk. Die Leser werden sicher mit den Autoren einer Meinung sein, dass wir nie wieder falschen Propheten folgen sollen.

Abb.7, Quelle: Bundeszentrale für politische Bildung: Jubelnde Menschenmassen folgen Rattenfängern und falschen Propheten.

Von „Beschwörungstheorien“ einer vermeintlichen menschengemachten immer weiter anhaltenden Klimaerwärmung und dem kurzen Abschweif in unsere jüngere Geschichte, zurück zu den Realitäten der Gegenwart, Abb.8.

Abb.8, Quelle: Josef Kowatsch, zeigt die Monatstemperaturen 2021 (grau) im Vergleich zu 2020 (gestrichelt) und zum internationalen klimatologischen Referenzeitraums von 1991 – 2020 (blau) nach unveränderten Daten des DWD. Der Juli-Wert ist eine Prognose, basierend auf den bisherigen Messungen, der 14 Tage-Wetterprognose, sowie historischer Betrachtungen.

Das Jahr 2021 ist kälter als der meteorologische Referenzzeitraum (die Klimanormalperiode). Da kann auch der im Vergleich warme Juni nichts daran ändern. Was nichts anderes heißt: Deutschland wird kälter und zwar nach Daten den DWD. Dies macht Abb.9 graphisch sichtbar.

Abb.9, Quelle: Autoren, Daten wie Abb.8. Deutschland wird kälter. Daran kann auch der schöne, warme Juni nichts ändern. Für diejenigen, die in Zahlen unterwegs sind:

Temperatur 2021: 8,6°C

Referenzzeitraum: 9,12°C

Nach Daten des DWD ist es in 2021 in der Gesamtheit um gut 0,5°C kälter als zum internationalen meteorologischen Referenzzeitraum.

Deutschland wird in der Gesamtheit kälter und nicht wärmer! Und zwar nach Original DWD-Temperaturmesswerten.

Teil 2 in Kürze




Hitzewellen und heiße Luft

Dr. Judith Curry

Hitzewellen sind die neuen Eisbären und schüren den Alarm über den Klimawandel.  Klimawissenschaftler, die dies in den Medien thematisieren, verwenden irreführende und/oder unzureichende Ansätze.  Wie sollten wir beurteilen, ob und wie viel die vom Menschen verursachte globale Erwärmung zu den jüngsten Rekordtemperaturen beigetragen hat? Werfen wir einmal einen Blick über den Tellerrand.

In den letzten Wochen wurde viel über die rekordverdächtige Hitzewelle im Nordwesten der USA und in Kanada geschrieben.

Es gab vier Kategorien von wissenschaftlichen Beiträgen zur Beantwortung dieser Frage, die in den Medien, Blogbeiträgen und Publikationen erschienen sind:

I. Heiße Luft: Wissenschaftler schwadronieren in den Medien

Klimawissenschaftler schreiben Meinungsäußerungen und geben auf Twitter an, dass AGW die Hitzewelle verursacht oder zumindest verschlimmert hat. Wissenschaftler in dieser Kategorie sind diejenigen, die über das Thema schwadronieren und Hitzewellen nutzen, um für ihre bevorzugte Klimapolitik zu werben, ohne tatsächlich etwas zu dem Thema gearbeitet zu haben.

Ein prominentes Beispiel ist dieser Artikel von Michael Mann in der NYTimes: Climate change is behind the heat dome.

Ein Argument der Heißluft-Argumentation basiert auf folgendem Diagramm: Wenn die Durchschnittstemperaturen steigen, dann steigt auch die Häufigkeit von Hitzeextremen:

Die Analyse der historischen Daten widerlegt jedoch diese einfache Interpretation:

Zur sich verändernden Form der sommerlichen Temperaturverteilung auf der Nordhemisphäre

https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1002/2016JD025292

Vorsicht bei der Interpretation von Extremwetterstatistiken ist geboten:

https://journals.ametsoc.org/view/journals/clim/28/23/jcli-d-15-0020.1.xml

Für eine leichter zu lesende Zusammenfassung siehe diesen Bericht von Prescient Weather, der zeigt, dass die höheren Momente der Temperaturverteilungen ebenfalls kritisch sind und dass die Varianz möglicherweise abnimmt.

Der andere Teil des Arguments der heißen Luft bezieht sich auf die Hypothese, dass der Jetstream durch die globale Erwärmung „schwächer“ wird, ein Argument, das unter anderem von Michael Mann vorgebracht wird.  Es gibt eine Menge neuerer Arbeiten, die diese Idee entlarven, und einige neuere Arbeiten deuten sogar darauf hin, dass Hochdruckdome, wie sie während der Hitzewelle auftraten, im Falle einer globalen Erwärmung schwächer werden.

Es ist intellektuell faul, wenn Wissenschaftler sich zu diesem (oder jedem anderen) Thema äußern, ohne tatsächlich etwas zu dem Thema gearbeitet zu haben oder zumindest aktuelle Forschungsergebnisse zu dem Thema gelesen und analysiert zu haben.   Eine bequeme, aber ungerechtfertigte Storyline, die Ihren Aktivismus und Ihre bevorzugte Politik unterstützt, ist nicht hilfreich.

II. Wissenschaftler, die historische Daten analysieren

John Christy hat die folgende Analyse historischer Daten zur Verfügung gestellt, die im Blogbeitrag von Cliff Mass enthalten ist:

https://cliffmass.blogspot.com/2021/07/was-global-warming-cause-of-great.html

<Zitatanfang>

Wie unten gezeigt, gibt es KEINEN ANSTEIGENDEN TREND für mehr Rekord-Hochtemperaturen über unserer Region (Oregon, Washington) während des letzten Jahrhunderts. Tatsächlich gab es im letzten Jahrzehnt (2011-2020) überhaupt keine Allzeitrekorde:

Durchschnittliche Anzahl von Tagen mit Temperaturen über 37°C in Oregon oder Washington? Ebenfalls kein Trend:

Diese Ergebnisse stimmen mit dem überein, was andere gefunden haben.  Zum Beispiel fand das U.S. National Climate Assessment heraus, dass der wärmste Tag des Jahres über dem Nordwesten zwischen einem historischen (1901-1960) und einem aktuellen Zeitraum (1986-2016) tatsächlich in Letzterem nicht mehr so hoch ausgefallen ist.

Dr. Nick Bond, Washington State Climatologist, sagte, dass er und die Associate State Climatologist Karin Bumbaco ähnliche Ergebnisse gefunden haben, die in einer begutachteten Arbeit veröffentlicht wurden.

<Zitatende>

Ein einzelnes Hitzewellenereignis kann anhand der historischen Aufzeichnungen früherer historischer Hitzewellen (z. B. der letzten ~100 Jahre) bewertet werden.  Abgesehen von einigen technischen Streitigkeiten über den Datensatz, die Gefahren der Homogenisierung usw., welche Logik genau steckt hinter der Verwendung historischer Temperaturaufzeichnungen in Diskussionen über die Gründe von Hitzewellen?

A. Wenn ein Rekord aufgestellt wird, führt das zu der notwendigen Schlussfolgerung, dass AGW eine Hauptursache dafür war?

B. Wenn kein Rekord aufgestellt wird, führt das zu der notwendigen Schlussfolgerung, dass AGW keine Hauptursache ist?

C. Wenn es einen zugrunde liegenden Trend in der Häufigkeit von Hitzewellen an diesem Ort gibt, führt das zu einer notwendigen Schlussfolgerung, dass AGW eine wichtige beitragende Ursache für ein einzelnes Hitzewellenereignis war?

D. Wenn es keinen zugrunde liegenden Trend in der Häufigkeit von Hitzewellen an diesem Ort gibt, führt das zu der notwendigen Schlussfolgerung, dass AGW keine wesentliche beitragende Ursache für ein einzelnes Hitzewellenereignis war?

E. Wenn es einen globalen Trend in der Häufigkeit/Schwere von Hitzewellenereignissen gibt, sagt das etwas über eine Rolle (oder nicht) von AGW bei der Beeinflussung eines einzelnen lokalen Hitzewellenereignisses aus?

F. Sagt das Ausmaß, mit dem ein Temperaturrekord gebrochen wird, überhaupt etwas über eine Rolle (oder nicht) des AGW bei der Beeinflussung eines einzelnen lokalen Hitzewellenereignisses aus?

Während die Bereitstellung eines historischen Zusammenhangs für ein lokales Hitzewellenereignis entscheidend für das Verständnis der Situation ist, lautet die Antwort auf jede dieser Fragen „Nein“. A, C, E und F in Kombination würden für ein „Ja“ sprechen, aber die Daten liefern keine quantitative Antwort darauf, wie viel Erwärmung durch die Hitzewelle infolge AGW verursacht wurde. Eine eindeutige „Nein“-Antwort allein durch die Analyse der Temperaturaufzeichnungen zu erhalten, ist eine größere Herausforderung. Aber wenn ein lokaler Hitzerekord aufgestellt wird, lohnt es sich, tiefer zu graben und zu versuchen, die unmittelbaren (Wetter-) Ursachen und jeden zugrundeliegenden Klimaeinfluss (multidekadische natürliche Variabilität und/oder AGW) zu verstehen.

III. Wissenschaftler, die Klimamodell-basierte Attributionsanalysen durchführen

Gavin Schmidt schreibt hier bei RealClimate:

„Die Art und Weise, wie die Klimamodell-basierte Zuordnung für Extremereignisse aussieht (wie zuvor auf RealClimate hier und hier usw. besprochen), ist, dass man sich die Situation mit und ohne das anthropogene globale Erwärmungssignal ansieht und das Verhältnis der Wahrscheinlichkeiten berechnet. Wenn ein Ereignis, sagen wir, mit der GW doppelt so häufig auftritt, dann kann man dem anthropogenen Antrieb einen Anteil von 50% zuschreiben und die Wiederkehrzeit ist halb so lang wie früher. Wenn es fünfmal wahrscheinlicher ist, ist die Zuschreibung 80% = 100*(5-1)/5 und die Wiederkehrzeit ist ein Fünftel von dem, was sie früher war. In diesem Fall sehen wir Wahrscheinlichkeitsverhältnisse von 150 zu 1000, was darauf hindeutet, dass diese, unwahrscheinlichen, Temperaturen fast vollständig auf die globale Erwärmung zurückgeführt werden können. Ohne das anthropogene Signal hätte es solche extremen Temperaturen seit Tausenden bis Zehntausenden von Jahren nicht mehr gegeben.“

Der schnelle Bericht des europäischen Teams ist [hier] zu finden.

Diese Bemühungen beinhalten eine riesige Menge an Zahlenwerk.

Dieser Bericht hat eine Menge Medienaufmerksamkeit bekommen, siehe zum Beispiel diesen Artikel von Time.

Also, was ist falsch an diesem Bild?

1. Eine Zeitreihe in der Größenordnung von hundert Jahren (aus Beobachtungen oder einer Modellsimulation) reicht nicht aus, um aussagekräftige Statistiken darüber zu entwickeln, dass es sich um ein Ereignis von 1 in 10.000 Jahren handelt.

2. Die atmosphärische Dynamik in globalen Klimamodellen ist ziemlich „bla“; die grobe Auflösung von Klimamodellen ist grundsätzlich nicht in der Lage, die Art von Blockierungsereignissen zu erfassen, die Hitzewellen verursachen, oder Hurrikane aufzulösen, oder extreme konvektive Ereignisse aufzulösen, die Überschwemmungen verursachen, usw.

3. Dieser Ansatz geht implizit davon aus, dass der gesamte Klimawandel durch Emissionen verursacht wird, und ignoriert oder charakterisiert die mehrdekadische natürliche interne Variabilität falsch (da die Klimamodelle nicht die richtigen Phasen und Amplituden haben).

Cliff Mass hat eine meisterhafte Arbeit geleistet, den Bericht der europäischen Gruppe zu kritisieren. Ich stimme allem zu, was er sagt.

Dieser gesamte auf Klimamodellen basierende Ansatz zur Zuordnung von Extremereignissen ist grundlegend fehlerhaft. Solange Klimamodelle nicht in der Lage sind, Zirkulationsmerkmale tatsächlich aufzulösen (was eine horizontale Auflösung von ~20 km erfordert), sind sie für die Zuordnung von extremen Wetterereignissen einfach nicht geeignet.

IV. Wissenschaftler führen prozessbasierte Analysen durch

Der NOAA-Wissenschaftler Marty Hoerling hat die Zuordnung von Extremwetterereignissen mit der Durchführung einer Autopsie verglichen.  Man hat einige Hinweise, aber die Schlussfolgerung erfordert, sie in einer mechanistischen Abfolge von Ereignissen miteinander zu verknüpfen.

Cliff Mass hat den bisher besten Autopsiebericht über die Hitzewelle geliefert.

Er fasst die unmittelbare Abfolge der Ereignisse, die zur Hitzewelle führten, folgendermaßen zusammen:

„Eine Rekord-Amplitude eines Rückens/Hochdrucks über unserer Region, erzwungen durch eine tropische Störung im westlichen Pazifik, die einen nachgelagerten Wellenzug erzeugte. Eine Umgebung, die es der resultierenden Welle ermöglichte, sich zu verstärken. Der Höhenrücken musste sich in genau der richtigen Position relativ zu unserem Terrain befinden. Ein Höhentrog musste sich genau an der richtigen Stelle vor der Küste entwickeln und sich in die optimale Richtung bewegen, um eine starke südöstliche Strömung zu verursachen, die den oben erwähnten Verstärker förderte. Wir brauchten eine Periode, in der die Sonne sehr stark war. Und einen Sommerabschnitt ohne Rauch, der einen tiefgreifenden Kühleffekt hat.

Die meteorologischen Würfel mussten alle Sechsen ergeben. Und das taten sie.“

Prozess-basierte Analysen unterscheiden sich von irgendwelchen künstlichen „Storylines“. Hier ist, was Mass berücksichtigt hat:

1. Der Bundesstaat Washington hat sich in den letzten 120 Jahren um 1,5C erwärmt

2. Ob die Dürre und die trockenen Böden zur Hitzewelle beigetragen haben (nein, laut regionalen Modellsimulationen und der Tatsache, dass es keinen Trend zur Dürre im pazifischen Nordwesten gibt)

3. Ob die globale Erwärmung stärkere Hochdruckgebiete erzeugt (nein, laut Datenanalyse und Klimamodell-Simulationen)

4. Kein beobachteter Trend bei Hitzewellen (laut Analyse von Christy)

5. Verwendung eines regionalen Klimamodells (nein, CO2 erzeugt nicht mehr Hitzewellen)

6. Analyse der regionalen Wetterdynamik, unterstützt mit regionalen Ergebnissen der Klimamodellierung zeigt einen paradoxen Weg der Abkühlung in der Region

Haben wir hier also eine eindeutige „Todesursache“, d.h. eine eindeutige „Nein“-Antwort auf die Frage, ob AGW die Ursache für die Hitzewelle war oder zumindest einen Einfluss darauf hatte?

Eine einfache Zusammenschau dieser Beweise führt nicht zu einer eindeutigen „Nein“-Schlussfolgerung. Allerdings ist Cliffs Analyse wohl ausreichend, um zu folgern, dass CO2 nicht die alleinige oder gar dominante Ursache für die Rekordtemperaturen war.

V. Ein fünfter Weg

Wir brauchen eine bessere Logik, um extreme Wetterereignisse der globalen Erwärmung zuzuschreiben, und etwas Querdenken, wie man die Ursachen extremer Wetterereignisse zuordnen kann.

In Anbetracht der oben beschriebenen Strategien sind I und III unbefriedigend und offen gesagt überhaupt nicht sinnvoll.  Vor allem für III wird eine enorme Menge an Ressourcen und Gehirnleistung für diesen Ansatz verschwendet, für den die globalen Klimamodelle in ihrer derzeitigen Auflösung einfach nicht geeignet sind.

II ist sehr nützlich, aber die Logik bei der Auswertung dieser Informationen für die Attribution ist unklar.  IV bietet nützliche Einsichten, liefert aber keine quantitative Antwort bezüglich der Zuordnung oder einer klaren Rolle des CO2-Beitrags.

Wir brauchen einen fünften Weg, der auf II und IV aufbaut, eine bessere Logik für die Durchführung der Autopsie liefert und einige neue Ansätze berücksichtigt.

Extreme Wetterereignisse können in Bezug auf das Ausmaß einzelner Ereignisse, die Häufigkeit von Ereignissen, die einen bestimmten Schwellenwert überschreiten, oder die Häufung von Extremereignissen extrem sein.  Es muss anerkannt werden, dass Extremereignisse per Definition selten sind, und kurze historische Aufzeichnungen (sogar jahrhundertelange Aufzeichnungen) sind unzureichend, um aussagekräftige Statistiken über Wiederkehrzeiten zu formulieren.

Es muss eine thermodynamische und dynamische Geschichte des Extremereignisses zusammengestellt werden, ähnlich wie Cliff Mass das Problem formulierte. Hier ist ein alternativer Ansatz für das Verständnis und die Quantifizierung des Effekts eines CO2-Anstiegs auf Unwettersysteme. Das hier angeführte Beispiel zielt auf die NW-Hitzewelle in den USA.

Einzelne Säulenmodelle der Atmosphäre, die mit der Landoberfläche gekoppelt sind, können eine quantitative Bewertung des direkten Beitrags des CO2-Antriebs zu den Oberflächentemperaturen liefern. Dies ist ein besserer Ansatz, als die historische Aufzeichnung der jährlichen durchschnittlichen Oberflächentemperaturen zu betrachten und anzunehmen, dass jeder Anstieg durch CO2 verursacht wird und das Ausmaß jeder Hitzewelle um den gleichen Betrag erhöhen würde.

Experiment Nr. 1: Für dieses spezielle Ereignis, am Tag des maximalen Temperaturrekords, kann ein lokales vertikales Profil von Temperatur und Luftfeuchtigkeit von einer Radiosonde oder der operativen Analyse von numerischen Wettervorhersagezentren erhalten werden. Dieses kann durch ein atmosphärisches Einsäulenmodell mit Strahlungstransportmodell und Landoberflächenmodell laufen, um die Oberflächentemperatur als Reaktion auf vorindustrielles CO2, aktuelle CO2-Werte und zukünftige CO2-Werte zu berechnen. Dies ist eine einfache Berechnung, die die Frage beantwortet: Wenn alle anderen Dinge gleich sind, wie viel Unterschied haben die Emissionen der letzten 100 Jahre auf die Oberflächentemperatur für das entstandene Hitzedom-Ereignis gemacht, nur durch die Strahlungseffekte des CO2? Kalte, trockene und wolkenlose Situationen verstärken den Einfluss des CO2 auf die Oberflächentemperatur. Es ist ziemlich einfach, genau zu berechnen, welche Auswirkung der Anstieg des CO2 auf die Oberflächentemperatur unter den lokalen Bedingungen für Portland, OR, haben würde. Ohne die Berechnung durchgeführt zu haben, würde mich ein Ergebnis von 1-3 F nicht überraschen.

Experiment Nr. 2: Dieses Experiment baut auf Nr. 1 auf, um die Auswirkungen der schnellen thermodynamischen Rückkopplungen auf die Änderung der Oberflächentemperatur zu berücksichtigen.  Dies kann erreicht werden, indem die Form des Temperaturprofils und der relativen Luftfeuchtigkeit aus der ursprünglichen Radiosonden- oder Betriebsanalyse verwendet wird, um die Temperatur- und Luftfeuchtigkeitsprofile an die resultierende Oberflächentemperatur für die Berechnungen in Experiment Nr. 1 für verändertes CO2 anzupassen. Dies ermöglicht eine bessere Einschätzung der direkten Strahlungseffekte von verändertem CO2 in diesem speziellen Wettersystem.

Der nächste Satz von Experimenten befasst sich mit den dynamischen Effekten von steigendem CO2 auf das spezielle Wettersystem, das die rekordverdächtigen Oberflächentemperaturen beeinflusst hat.

Diese Hitzewelle wurde von einem globalen Ensemble-Wettervorhersagesystem außergewöhnlich gut bis zu 10 Tage im Voraus vorhergesagt. Ein globales Ensemble-Wettervorhersagesystem mit hoher Auflösung (mindestens 20 km) kann die täglichen Vorhersagen von 14 bis 1 Tag vor dem Ereignis simulieren, bei einer CO2-Konzentration von 300 ppm. An dieser Stelle ist nicht klar, ob eine einzelne Vorhersagesimulation zu jeder Vorlaufzeit ausreichend ist oder ob das gesamte Ensemble benötigt wird.

Experiment Nr. 3: Nehmen Sie keine Änderung am Wettervorhersagemodell vor, außer an der CO2-Konzentration. Man vergleiche die „Vorhersagen“ mit geänderter CO2-Konzentration mit den ursprünglichen Vorhersagen: Höhe der 500- bzw. der 850-hPa-Fläche sowie Temperaturen in der Nähe des Wärmedoms, auch die Oberflächentemperaturen in den NW USA und SW Kanada. Es könnte sich herausstellen, dass Experiment Nr. 3 ausreicht, um die Rolle von mehr/weniger CO2 auf die Entwicklung des Omega-Blocks, des Wärmedoms und der Rekordtemperaturen abzuleiten. Aber die Experimente Nr. 4 und Nr. 5 sollten in Betracht gezogen werden, da es Vorbehalte bei der Interpretation von Experiment Nr. 3 gibt.

Experiment Nr. 4: Ändern Sie die globalen Meeresoberflächentemperaturen (SST) auf eine Weise, die das globale Muster der SST für diesen Zeitraum beibehält, aber Größenordnungen aufweist, die eher mit einem 300 ppm Klima übereinstimmen. Ich würde dafür die Reanalysen der NOAA aus dem 20. Jahrhundert verwenden.

Subtrahieren Sie den Jahresdurchschnitt (oder Sommerdurchschnitt) der SST für jeden Ozean-Gitterpunkt für ein 300 ppm-Klima (um 1910) von den aktuellen Gitterwerten; subtrahieren Sie die Gitterdifferenz von dem SST-Feld für diesen Fall, das in den Wettervorhersagemodellen verwendet wird. Führen Sie den gleichen Satz von Experimenten wie in Nr. 3 durch; vergleichen Sie mit den ursprünglichen Vorhersagen und den reduzierten CO2-Vorhersagen aus Nr. 3.  Hinweis: Es ist nicht klar, wie schnell sich die initialisierten atmosphärischen Temperaturprofile an die geänderte SST anpassen werden und wie sehr dies die Entwicklung der atmosphärischen Dynamik beeinflussen würde.

Experiment Nr. 5: Für Experiment #4 sind die initialisierten atmosphärischen Temperaturen zu hoch, ebenso wie die spezifische Feuchte im Verhältnis zu den niedrigeren SST-Werten. Die Initialisierung der Luftfeuchtigkeit spielt eigentlich keine Rolle, da das Modell schnell sein eigenes Luftfeuchtigkeitsfeld erzeugt. Allerdings kann das anfängliche Temperaturfeld eine Rolle spielen. Es sind die Temperaturgradienten, die die Zirkulationen beeinflussen. Im Sommer würde sich der Temperaturgradient von Pol zu Äquator zwischen hohem und niedrigem CO2-Gehalt kaum ändern; das Schmelzen des arktischen Meereises wäre Ende Juni 1910 gerade erst im Gange, während es im Juni des aktuellen Klimas schon weit fortgeschritten ist. Auch die konvektiven Stornoraten wären bei hohem und niedrigem CO2 unterschiedlich. Ich bin mir nicht sicher, wie schnell sich die atmosphärischen Temperaturen an die veränderten SSTs in Nr. 4 anpassen würden. Die initialen atmosphärischen Temperaturen wären nicht im Gleichgewicht mit den niedrigeren Oberflächentemperaturen, wodurch die Meeresatmosphäre zu stabil wäre. Eine Initialisierung mit atmosphärischen Temperaturen, die besser zu 1910 passen und gleichzeitig alle Temperaturgradienten beibehalten, wäre ideal. Das Team, das die Reanalysen des 20. Jahrhunderts durchführt, könnte vielleicht herausfinden, wie man das macht.

Diese Reihe von numerischen Experimenten würde es ermöglichen, Schlussfolgerungen zu ziehen, die die thermodynamischen und dynamischen Auswirkungen von reduziertem/erhöhtem CO2 auf die Oberflächentemperaturen und die Dynamik des Wärmedoms vergleichen. Die genaue Logik, wie solche Schlüsse gezogen werden sollten, mit welchen Vorbehalten und Unsicherheiten, würde mehr Aufmerksamkeit erfordern, als ich hier bieten kann.

Eine solche Analyse würde uns nur so weit bringen: Es bleibt die Frage, ob das erhöhte CO2 die gesamte hemisphärische Dynamik verändert, so dass solche Hitzedom-Ereignisse und Omega-Blöcke häufiger oder seltener auftreten. Experimente mit hochauflösenden (20 km horizontale Auflösung) gekoppelten globalen Klimamodellen mit erhöhtem/vermindertem CO2 können einige Erkenntnisse liefern (die wesentliche Zutat ist, dass das Modell eine ausreichend hohe Auflösung hat, um Blockierungsmuster aufzulösen).

Die Analyse globaler Reanalysedaten (ERA5 zurück bis 1950, Reanalyse des 20. Jahrhunderts eigentlich zurück bis zum 19. Jahrhundert) kann einige wichtige Erkenntnisse liefern:

● Verändert zunehmendes CO2 die multidekadischen Ozeanschwingungen? Ich habe eine Literaturrecherche gemacht und bisher keine Hinweise darauf gefunden.

● Verändert die zusätzliche Erwärmung ENSO? Ich habe eine Literaturrecherche durchgeführt und ja, ENSO hat sich seit 1950 verändert; ob diese Veränderungen durch CO2 verursacht werden, ist umstritten.

● Ändern sich die atmosphärischen Telekonnektionsregime (z.B. AO, PNA etc.)? Das ist etwas, das ich mir angesehen habe (seit 1950), und es gab keine Veränderungen, abgesehen von kleineren Schwankungen, die mit der multidekadischen Klimavariabilität zusammenhängen.

Was die Hypothese des wellenförmigen Jetstreams und seinen Einfluss auf die Blockierung betrifft, so verfolge ich die Literatur zu diesem Thema, habe aber keine formale Literaturübersicht dazu erstellt. Die grundlegenden dynamischen Überlegungen unterstützen die Hypothese des welligen Jetstreams nicht.  Es muss mehr theoretische Forschung betrieben werden, und die ERA5- und die 20th Century Reanalysis sollten sich als guter Datensatz dafür erweisen, aber es kommt darauf an, wie diese Daten interpretiert werden.

Und schließlich werden maschinelles Lernen und netzwerkbasierte Verfahren zunehmend für Attributionsanalysen in einer Reihe von verschiedenen Bereichen eingesetzt.

Ich stelle diese Gedanken zur Diskussion und freue mich auf weitere Vorschläge, wie man dieses Problem angehen kann.

Hitze vs. Kälte

Und schließlich spreche ich den Alarm über Hitzewellen an. Ich war Ende Juni in Utah, wo die lokale Temperatur 44°C erreichte. Das ist nicht angenehm. Zum Glück konnte ich meistens drinnen bleiben, wo es kühler war. Es steht außer Frage, dass übermäßige und ungewöhnliche Hitze gesundheitliche Probleme verursacht. Die Menschen haben sich an sehr hohe Temperaturen angepasst (siehe diesen Artikel über Pakistan). Hier geht es um unerwartet hohe Temperaturen, auf die breite Bevölkerungsschichten nicht vorbereitet sind und keine Erfahrung im Umgang damit haben. Nach diesem Maßstab waren die rekordverdächtigen Temperaturen in Portland schwieriger zu bewältigen als die relative Routine und wesentlich höheren Temperaturen in Pakistan.

Während Hitze tötet, töten niedrige Temperaturen mehr als eine Größenordnung mehr Menschen als Hitze. Pat Michaels beschäftigt sich seit Jahrzehnten mit diesem Thema, und es ist nicht besonders umstritten. Dieser aktuelle Artikel im Guardian ist interessant:

Titel [übersetzt]: „Extreme Temperatur tötet 5 Millionen Menschen pro Jahr mit steigenden hitzebedingten Todesfällen“

Untertitel [übersetzt]: „In den letzten 20 Jahren starben mehr Menschen an Kälte als an Hitze, aber der Klimawandel verschiebt das Gleichgewicht.“

Die einzige Schlussfolgerung, die ich hier ziehen kann, ist, dass die globale Erwärmung mit weniger temperaturbedingten Todesfällen verbunden ist.  Das steht im völligen Widerspruch zu dem Eindruck, den der Guardian-Artikel mit seiner alarmierenden Überschrift zu erwecken versucht.

Link: https://wattsupwiththat.com/2021/07/15/heat-waves-and-hot-air/

Übersetzt von Christian Freuer für das EIKE

 




Nach der Pandemie ist vor der Klimakatastrophe: Lauterbach bereitet den Vereinswechsel vor

von AR Göhring

Der unvermeidliche Karl Lauterbach, Arzt mit Doktortitel ohne Facharztausbildung und Approbation erst 20 Jahre nach Staatsexamen, der in den Massenmedien in den vergangenen 18 Monaten eindeutig zu oft seine unfundierte Meinung sagen durfte („Lauterbach wäre nicht Lauterbach, wenn er nicht vor irgernd etwas warnen würde“), sattelt offenbar nun auf die nächste Katastrophe um, vor der er warnen kann.

Ein besseres Bild hier.

 




Sommerliche Starkregen und gebietsweise Hochwasser 2021 in Deutschland – wie ungewöhnlich ist das?

Stefan Kämpfe

Nach der medialen Wasserschlacht in Westdeutschland entstand der Eindruck, ganz Deutschland stehe unter Wasser, und der Weltuntergang sei nah. Besser als diese medialen Frontberichterstattungen, welche der Journaille eine willkommene Gelegenheit boten, das ungeliebte Sommerloch zu füllen, wäre eine schnelle, großzügige und unbürokratische Hilfe für alle Betroffenen. Doch in der medialen Aufregung wurde eine ganze Reihe von Fakten verschwiegen. Werden sommerliche Starkregen und Hochwasser im Zuge der Klimaerwärmung tatsächlich häufiger, und welche Rolle spielen Planungs-, Besiedlungs- und Bewirtschaftungsfehler?

Überraschung: Welche Jahreszeit war und ist in Deutschland die regenreichste?

In unserer oberflächlichen Freizeit- und Spaßgesellschaft wird der Regen nur ungern gesehen. Es möge doch bitte von April bis Oktober eitel Sonnenschein herrschen und den Umsatz der Gastwirte, Urlaubsorte und Freizeitparks ankurbeln sowie die Urlauber bei Laune halten. Bei einer Straßen-Umfrage, welches wohl die regenreichste Jahreszeit und der regenreichste Monat seien, würden gewiss der Herbst und der November gewinnen – aber die Realität zeigt etwas ganz anderes:

Abbildung 1: Monatsweise, langjährige Gebietsmittel der Niederschläge für Deutschland (1881 bis 2020). Im niederschlagsreichsten Monat, dem Juli, fallen fast 88 Millimeter je Quadratmeter, das entspricht 88 Litern oder fast viereinhalb 20-Liter-Eimern. August und Juni folgen dicht auf, was den Sommer zur mit Abstand regenreichsten Jahreszeit macht! Den „undankbaren“ vierten Rang ergattert der Wonnemonat Mai; am trockensten ist der Februar.

Dieser sommerliche Regenreichtum erhöht aber leider neben vielen Vorteilen (Pflanzenwachstum!) auch die Wahrscheinlichkeit des Auftretens von Hochwasser. Auch die Klimaerwärmung änderte an diesen Verhältnissen nichts Grundlegendes.

Mehr Niederschlag wegen der sommerlichen Klimaerwärmung?

Die Erwärmung unserer Sommer ist unstrittig – aber kaum jemand weiß, dass sie erst ab etwa 1982 so richtig in Gang kam; vorher gab es eine moderate Erwärmungsphase bis 1947, danach bis 1981 eine geringe Abkühlung. Dieses Verhalten wirft zwei Fragen auf: Passt dieses sommerliche Temperaturverhalten zur stetig steigenden CO2-Konzentration, und verhielten sich die Sommerniederschläge ähnlich? Die folgenden zwei Grafiken verneinen beide Fragen zweifelsfrei:

Abbildungen 2a und 2b: Oben (2a) die sommerliche Temperaturentwicklung in Deutschland. Die drei dicken Balken markieren die Entwicklungsphasen – erst Erwärmung, dann geringe Abkühlung, dann starke Erwärmung, was nicht gut zur stetig steigenden CO2-Konzentration passt. Unten (2b) die sommerliche Niederschlagsdynamik im selben Zeitraum (1881 bis 2020). Hier gab es, anders als bei den Temperaturen, im Gesamtzeitraum eine minimale, nicht signifikante Abnahme. Bis in die 1960er Jahre nahmen die Regenmengen etwas zu, und die vier nassesten Sommer (Kennzeichnung) fallen mit weit über 300 Millimetern allesamt in diesen, fast erwärmungsfreien Zeitraum. Auch ab 1982 (senkrechter, rosa Balken) zeigt sich kein wesentlicher Trend; lediglich der Sommer 2007 verlief relativ regenreich. Die Grafik 2a zeigt KEINE Klimasensitivität der CO2-Konzentration; sie verdeutlicht lediglich, dass die von etwa 290 auf etwa 416 ppm steigende CO2-Konzentration über lange Zeiträume nicht zur Temperaturentwicklung passt.

Aber wenn sich die sommerliche Erwärmung nicht auf die jahreszeitlichen oder monatlichen Niederschlagsmengen auswirkte, so könnte es doch mehr Einzelereignisse, unterbrochen von längeren Dürrephasen, geben. Hierzu ist die Datenlage viel schwieriger. Dem Autor standen die bis 1893 zurückreichenden Reihen von Potsdam zur Verfügung. Sie sind zwar nicht für Deutschland repräsentativ, deuten aber, ähnlich wie die Gesamtniederschlagsmengen, eher auf eine minimale Häufigkeitsabnahme extrem nasser Monate und vor allem auch der Tage mit sehr hohen Regenmengen hin:

Abbildungen 3a und 3b: Oben (3a) eine dekadenweise Auszählung der sehr nassen Sommermonate (mehr als 120 mm je Monat) seit 1893, mit diesem Jahr beginnt die erste Dekade. Es fehlt jegliche Häufigkeitszunahme; zwischen 1933 und 1942 gab es keinen und in der aktuellen, allerdings noch nicht ganz vollendeten Dekade mit bislang drei keine besonders hohe Zahl nasser Sommermonate. Unten (3b) die Anzahl der Sommertage mit mindestens 25mm Regen; die geringe Abnahme ist nicht signifikant.

Auch der Wasserdampfgehalt der Luft über Deutschland (Daten seit 1948 beim NOAA verfügbar) liefert keine eindeutigen Befunde. Er nahm leicht zu, was erstens möglicherweise eine Folge der aktuellen AMO-Warmphase ist, und zweitens wird das aber durch die höheren Temperaturen mehr als egalisiert – die Sommerluft wurde absolut feuchter, aber relativ trockener:

Abbildungen 4a und 4b: Leicht zunehmende Absolute Feuchte (oben, 4a) im Sommer, aber wegen der Erwärmung leichte Abnahme der Relativen Feuchte (unten, 4b). In 4b wurden beide Werte etwas angepasst, um sie besser in einer Grafik zu veranschaulichen; der Trend ändert sich dadurch nicht; die Originalwerte sind beim Amerikan. Wetterdienst (NOAA) einsehbar.

Historische Sommerhochwasser in Deutschland

Die aktuellen, meist lokalen oder regionalen Ereignisse mögen für die Betroffenen dramatisch sein – sie relativieren sich jedoch bei einer Betrachtung der schlimmsten Sommerhochwasser seit dem Beginn schriftlicher, historischer Überlieferungen (etwa dem Spätmittelalter). Die wohl schlimmste Naturkatastrophe der letzten 1.000 Jahre in Deutschland war ein Sommerhochwasser – die Magdalenenflut vom Juli 1342, welche praktisch ganz Mitteleuropa betraf, bis zu 14 Meter tiefe Schluchten riss, fast die gesamte Ernte zerstörte und vermutlich zehntausende Tote forderte – bei einer viel, viel geringeren Besiedlungsdichte als heute. Sie ereignete sich am Beginn einer Abkühlungsphase; überhaupt zeichnete sich das 14: Jahrhundert als überdurchschnittlich reich an Witterungskatastrophen aus. Käme es heute zu einer derartigen, gewaltigen Flut, so würde sie Deutschland vielleicht auslöschen, denn Energieversorgung, Kommunikation und Sozialwesen brächen auf Monate oder Jahre zusammen. Nicht im „Kernsommer“, aber kurz vorher, ereignete sich am 29. Mai 1613 die „Thüringer Sintflut“, welche ihren Schwerpunkt an der Ilm bei Weimar hatte und etwa 600 Opfer gefordert haben soll; die tatsächlichen Opferzahlen lagen wohl bei um oder über 1.000 Toten. Leider fehlt es an chronologischen, gut aufbereiteten Listen aller historischen Hochwasserereignisse in Deutschland. Für das flächenmäßig sehr kleine Bundesland Thüringen listet (1) aber im Zeitraum 1500 bis 1994 alleine schon 16 Sommerhochwasser auf. Rechnet man das konservativ auf die Gesamtfläche der heutigen BRD hoch, so dürfte es in diesem Zeitraum weit mehr als 200 Ereignisse gegeben haben. GLASER schreibt in (2): „Besonders auffällige Zunahmen gab es in allen Flussgebieten zwischen 1500 und 1800. Diese lassen sich mit großräumigen klimatischen Veränderungen im Zusammenhang mit der Kleinen Eiszeit korrelieren.“ Der Vollständigkeit halber sollen aber noch einige Ereignisse seit 1900 erwähnt werden. Das Ahr-Hochwasser vom 13. Juni 1910 ist die größte historisch bezeugte Hochwasserkatastrophe im Ahrtal. Das Tal machte damals in ganz Deutschland Schlagzeilen. Über Neuenahr schrieb etwa der Hamburgische Correspondent vom 13. Juni 1910: „Um zehn Uhr hatte die Ahr vier Meter über Normalhöhe erreicht. Der reißende Strom führte Bäume, Balken, ein Hausdach und Kisten einher, die vom Bahnbau der Doppelgleisbahn in Altenahr herrührten.“ 53 Menschen kamen damals durch die Fluten ums Leben (hier). Oder-Hochwasser im Juni 1926, Näheres hier. 1926 gab es auch in Annaburg und Ochsenfurt erhebliche Hochwasserschäden. Hochwasser im Osterzgebirge 1927: Bei starken Regenfällen im Juli im Osterzgebirge traten die beiden Elb-Nebenflüsse Gottleuba und Müglitz über die Ufer. Die Wassermassen überraschten die Menschen in den Ortschaften während des Schlafs.160 Menschen verloren bei dieser Katastrophe ihr Leben. Im September 1927 gab es ein Rheinhochwasser, die so genannte „Rheinnot“, Quelle. Donauhochwasser von 1954: Seit dem 27. Juni 1954 hatte es täglich geregnet. Mit dem Monatswechsel wurden die Regenfälle dann stärker und erreichten Hochwasserregen-Niveau. Ab Regensburg führte die Donau schon extremes Hochwasser. Rund 9000 Menschen mussten evakuiert werden und eine Fläche von etwa 150.000 Hektar wurde überschwemmt. Bei dieser Flutkatastrophe verloren zwölf Menschen ihr Leben. Quelle. Der sehr nasse Sommer 1954 war äußerst hochwasserträchtig, unter anderem in Ostthüringen und Sachsen; Ähnliches wiederholte sich 1956. Als Heinrichsflut oder Julihochwasser bzw. Schwarzer Freitag von Waldeck wird die Hochwasserkatastrophe bezeichnet, die nach schweren Unwettern am 15. und 16. Juli 1965 Nordhessen, Südniedersachsen und Ostwestfalen sowie Teile der heutigen Bundesländer Sachsen-Anhalt, Thüringen und Sachsen traf, Quelle. Bei dem extremen Starkregenfällen folgenden Hochwasser starben insgesamt 16 Menschen, drei davon in der DDR. Es entstanden Schäden in dreistelliger DM- und Ostmark-Millionenhöhe. Am 19. Juli 1966 kam es im Weser- und Leinebergland, Nordhessen sowie im Harzvorland zu schweren Unwettern mit Hagelschlägen, Tornados und Wolkenbrüchen, Quelle. Diese Aufzählung ließe sich beliebig fortsetzen – sie zeigt, dass es vermutlich vor der Klimaerwärmung genauso viele Hochwasserereignisse gab, wie momentan. Kein Hochwasser, aber als Unwetter von ähnlichen Ursachen ausgelöst, ging das Münchener Hagelunwetter vom 12. Juli 1984 als kostspieligste Unwetterkatastrophe in die Geschichte ein; teurer gar als die Hamburger Sturmflut vom Februar 1962. Näheres hier.

Die klimatischen Hintergründe der Sommerhochwasser von 2021 – nur kurz beleuchtet

Sehr warme Sommer sind eher arm an Hochwasserereignissen, weil sie eine lange Sonnenscheindauer, verursacht von trockener Luft unter Hochdruckeinfluss, mit sich bringen. Und empfindlich kühlen, wie etwa 1907, 1913 und 1916, fehlt (meist) die gewisse Wärme für das Unwetterpotential – es regnet zwar oft, aber seltener ergiebig genug für schwere Hochwasser. Deshalb ging auch die Weltkriegs-Schlacht an der Somme als Schlammschlacht in die Geschichte ein – Nässe und Kälte waren an der Westfront genauso verheerend, wie die furchtbaren Waffen. Aber die lau- oder schwülwarmen Sommer, wie 1997, 2002 oder eben der Juli 2021, die entwickeln das typische Unwetterpotential: Geringe Luftdruckgegensätze oder Tief über Mitteleuropa, dazu eine feuchtwarme Luft bodennah und höhenkalte Luft darüber – das ergibt die oft explosive Mischung aus Unwettern und starkem Dauerregen, zumal sich die Wettersysteme kaum verlagern und so lange auf einen Ort einwirken. Eine besondere Rolle kommt dabei den so genannten Unbestimmten (XX)-Lagen der Objektiven Wetterlagenklassifikation des DWD zu. Leider liegt diese erst seit 1980 vor – zu kurz, um die seitdem eingetretene sommerliche Häufung eindeutig zu interpretieren:

Abbildung 5: Sommerliche Häufung der Unbestimmten, meist sehr strömungsschwachen XX-Lagen über Deutschland. Aber nicht generell führen diese zu Gewitter- und Unwetterträchtigen Sommern, denn sie können sich auch unter Hochdruckeinfluss etablieren, so 2013 oder 2018. Der gewitterträchtige Sommer 2020 (Juni, August) wies bislang die größte Häufigkeit auf; doch 2021, schon jetzt überdurchschnittlich, wird sicher noch etwas aufholen.

Die Frage, ob die XX-Lagen wegen der Klimaerwärmung häufiger wurden, zäumt das Pferd von hinten auf. Plausibler ist, dass sie die sommerliche Erwärmung mitverursachen und sich in Zeiten geringer Sonnenaktivität häufen. Der Sommer 2021 steht übrigens sowohl im SCHWABE- als auch im HALE-Sonnenzyklus an einer Stelle nach dem Start des jeweiligen Zyklus, welche einen eher etwas niederschlagsreicheren Sommer erwarten ließ; Näheres dazu hier. Außerdem könnte die Übernutzung der Windkraft die ohnehin schon flaue Strömung weiter schwächen – Unwetter bleiben dann noch länger stationär und entfalten ihre verheerende Wirkung.

Landschaftsplanungs-, Nutzungs- und Besiedlungsfehler als Treiber sommerlicher Hochwasserkatastrophen

Weil es an eindeutigen, meteorologisch-klimatischen Befunden für die mögliche, zumindest gefühlte Zunahme der Sommerhochwasser fehlt, bleibt die Frage, ob die Übernutzung unserer Landschaft negative Auswirkungen zeigt. Trotz aller Lippenbekenntnisse gelang es bislang nicht, den Landschaftsverbrauch drastisch zu reduzieren – noch immer wird viel mehr Fläche bebaut und versiegelt, als rückgebaut. Das Umweltbundesamt schreibt dazu sinngemäß: „…um Ende des Jahres 1992 lag der Anteil der Siedlungs- und Verkehrsfläche noch bei 11,5 % (38.669 km²) und der Anteil der versiegelten Fläche bei 5,3 % (17.839 km²) (siehe Abb. … Somit hat in den 26 Jahren von 1992 bis 2018 die Bodenversiegelung um insgesamt 4.622 km² zugenommen.“ Natürlich gewachsene, unverdichtete Böden und deren möglichst dichte Vegetation sind aber ein wesentliche Voraussetzung dafür, um Starkniederschläge zu speichern oder deren Abfluss wenigstens zu verzögern, ebenso wichtig sind naturnahe Fließ- und Standgewässer mit breiten, unverbauten Auen als Rückhalteräume für Hochwasser. Streng betrachtet, war schon die Rheinbegradigung durch TULLA um 1820 ein Fehler. Aber während heute Milliarden Euro für eine fragwürdige Energiewende oder CO2-Vermeidungsmaßnahmen ausgegeben werden, gibt es nur bescheidene Mittel für Naturschutz, Entsiegelungs- und Renaturierungsmaßnahmen. Der übertriebene Maisanbau und die weitere Intensivierung der Landwirtschaft zum Anbau von „Energiepflanzen“ verschärfen das Problem, weil die Böden verdichtet werden und der Mais bis Mitte Juli den Boden kaum vor Schlagregen schützt. Und so gehört zur unangenehmen Wahrheit, dass künftig wohl mehr Schäden und Opfer durch Hochwasser zu beklagen sind.

Nicht im Web verfügbare Quellen

  1. Hochwasserereignisse in Thüringen. Schriftenreihe Nr. 63 der TLUG, Ministerium für Landwirtschaft, Naturschutz und Umwelt
  2. Glaser,R: Klimageschichte Mitteleuropas. Darmstadt 2008

 




FALSCHE PROPHETEN Faktencheck: Was das Hochwasser wirklich mit „Klima“ zu tun hat.

In mittelalterlichen Zeiten hätte der Priester erklärt, es wäre eine Strafe Gottes gewesen, für das frevelhafte Verhalten der Sünder. Die heutige Erklärung ist leider nicht weit davon entfernt. –

Von Sebastian Lüning

Langanhaltender Starkregen verursachte Mitte Juli 2021 in Westdeutschland schwere Überflutungen. Es gab viele Tote und Vermisste, Häuser stürzten ein, Menschen mussten per Helikopter von den Dächern gerettet werden. Die Strom- und Wasserversorgung fiel teilweise aus. Eine Katastrophe. Allen Betroffenen gilt mein Mitgefühl. Die Unterstützung der Geschädigten sollte nun im Vordergrund stehen: Ein Dach über dem Kopf, Verpflegung, medizinische Versorgung, Reparatur der Schäden und Ausfüllen von Versicherungsformularen. Umso befremdlicher ist es, wenn einzelne Akteure die Tragödie nun für eigene Zwecke instrumentalisieren.

Natürlich interessieren sich die Medien für die Frage, was oder wer an dem Starkregen Schuld hatte. In mittelalterlichen Zeiten hätte der Priester erklärt, es wäre eine Strafe Gottes gewesen, für das frevelhafte Verhalten der Sünder. Die heutige Erklärung ist leider nicht weit davon entfernt. Wie nach jedem Extremwetterereignis konsultieren die Redaktionen stets dieselben Experten. Sie rufen Mojib Latif vom Geomar in Kiel an und befragen Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung, vielleicht noch zwei drei weitere. Aber das war’s auch schon.

Eine deutsche Klimaerklär-Oligarchie. Übersehen wird dabei, dass Latif Präsident der Deutschen Gesellschaft Club of Rome ist und Rahmstorf eng mit Klimaaktivisten zusammenarbeit. Keine gute Grundlage für neutrale Einschätzungen zu politisch hochrelevanten Klimawandelthemen. So erklärte Mojib Latif dem WDR am 12.7.2021:

„Wir beobachten auch in den letzten Jahren, dass es immer häufiger zu diesen sintflutartigen Niederschlägen mit Überschwemmungen kommt.“

Der WDR behauptet dann, dass die extremen Wetterlagen länger bestehn blieben. Wäre das auch mit dem Klimawandel zu erklären? Latif:

„Das steht zu befürchten. Da geht es um den berühmten Jetstream, dieses Starkwindband in der oberen Atmosphäre, also in fünf oder sechs Kilometer Höhe. Das ist sozusagen eine Autobahn für Wettersysteme. Und wenn die Autobahn langsamer wird, bewegen die sich auch langsamer, können sich länger halten. Bei Extremwetterlagen ist das auch so, zum Beispiel mit längeren Hitze- oder Trockenphasen und auf der anderen Seite sehr langen Niederschlagsphasen.”

Ähnlich äußerte sich Stefan Rahmstorf auf Spiegel Online am 16.7.2021. Auch er behauptet eine Zunahme des Starkregens in der Welt:

„Inzwischen ist die Zunahme von Starkregen auch in den weltweiten Niederschlagsmessdaten gut belegt. 2015 hat eine Studie des Potsdam-Instituts für Klimafolgenforschung (PIK) eine signifikante weltweite Zunahme von Tagesrekorden bei den Niederschlägen aufgezeigt.“

Rahmstorf suggeriert, alles sei vollkommen logisch, weil physikalisch leicht zu erklären:

„Dass die Zunahme von Starkregen in Zusammenhang mit einer globalen Erwärmung so vorhersehbar war, liegt vor allem an einem einfachen physikalischen Gesetz, der sogenannten Clausius-Clapeyron-Gleichung aus dem frühen 19. Jahrhundert. Es besagt, dass der Sättigungsdampfdruck von Wasserdampf exponentiell mit der Temperatur zunimmt. Was konkret bedeutet, dass eine feuchtegesättigte Luftmasse pro Grad Erwärmung sieben Prozent mehr Wasserdampf enthält. Wo mehr Wasser drin ist, kann auch mehr abregnen.“

Und natürlich darf bei Rahmstorf auch der der Jetstream nicht fehlen:

„Beispiel Jetstream: Das flatternde Windband um die Nordhalbkugel in rund zehn Kilometer Höhe hat sich im Sommer offenbar abgeschwächt, ebenso wie die generelle Westwindströmung in mittleren Breiten. Ursache ist die starke Erwärmung der Arktis – dadurch wird das Temperaturgefälle in Richtung Nordpol schwächer, das die Westwinde antreibt. Das hat zur Folge, dass Hoch- oder Tiefdruckgebiete, die in die Mäander des Jetstreams eingebettet sind, öfter mal trödeln und länger auf einer Stelle verweilen. Das begünstigt länger anhaltende Wetterlagen.”

NRW-Ministerpräsident und Kanzlerkandidat Armin Laschet ließ sich schnell überzeugen. Angesichts der Hochwasser-Katastrophe forderte er weltweit mehr Tempo beim Klimaschutz. Die zunehmenden Starkregen- und Hitzeereignisse seien mit dem Klimawandel verbunden, zitiert ihn die Welt. Und auch die Vorsitzende der Grünen-Fraktion im Bundestag, Katrin Göring-Eckardt, sieht in den schweren Unwettern im Westen Deutschlands ein Alarmzeichen für den Klimawandel.

Was sagt die Wissenschaft zu den behaupteten Zusammenhängen? Hat der Starkregen bereits nachweislich den Bereich der üblichen natürlichen Klimavariabilität verlassen? Wie sehen die globalen und mitteleuropäischen Trends der letzten 150 Jahre aus? Sind blockierte Wetterlagen wirklich häufiger geworden?

Wie so oft bei Krimis wie dem „Tatort“, ist die erste Vermutung zum Täter meist falsch. So scheint es auch hier zu sein. Und Argumente, die auf den ersten Blick stichhaltig erscheinen, entpuppen sich bei näherem Hinsehen als wenig robust. Die erste Überraschung: Es gibt weltweit gar keinen robusten Trend zu mehr Starkregen und Hochwasser.

So dokumentierte ein Team der National University in Canberra, dass die globalen Niederschläge in den letzten 70 Jahren trotz globaler Erwärmung sogar weniger extrem geworden sind, und dies sowohl in zeitlicher als auch in räumlicher Hinsicht. Eher gibt es eine Tendenz zu ausgeglicheneren Verhältnissen: Trockene Gebiete wurden feuchter, und feuchte Gebiete wurden trockener. Eine Temperaturabhängigkeit der Niederschlagsvariabilität war nicht festzustellen.

Zu einem ähnlichen Schluss kam 2021 auch eine Forschergruppe um Louise Slater von der University of Oxford. Sie hat über 10.000 verschiedene Flußpegel-Aufzeichnungen aus der ganzen Welt ausgewertet und für die letzten 50 Jahre auf Trends hin untersucht. Die Wissenschaftler stießen dabei auf signifikante Veränderungen, die sich je nach Klimazone und betrachtetem Zeitmaßstab jedoch voneinander unterschieden. Im globalen Maßstab hat die Stärke der Überflutungen insgesamt abgenommen. Die sogenannten Jahrhundert-Hochwässer sind in den trockenen und gemäßigten Klimazonen der Erde zurückgegangen. Das sind jene Hochwasser-Ereignisse, die statistisch gesehen alle 100 Jahre auftreten. In den kalten Regionen der Erde zeigten sich bei den Jahrhundert-Hochwässern durchmischte Trends.

Und wie sieht es in Deutschland aus? Das Umweltbundesamt berichtete in seinem Monitoringbericht zur deutschen Anpassungsstrategie an den Klimawandel 2019, dass keine Hochwassertrends feststellbar seien:

“Die Zeitreihe zum [deutschen] Hochwassergeschehen ist durch einzelne wiederkehrende Hochwasserereignisse sowohl im Winter- als auch im Sommerhalbjahr geprägt. Signifikante Trends lassen sich nicht feststellen. Je nach Witterungskonstellation ergeben sich räumliche Schwerpunkte des Hochwasserauftretens. In der Regel sind aber mehrere Flussgebiete betroffen.”

 

 

Ähnlich sieht es der Deutsche Wetterdienst in seinem Klimareport von 2020. Dort heißt es auf den Seiten 38-39:

„Für den Sommer lassen sich derzeit mit den vorhandenen Beobachtungsdaten und den bekannten Methoden keine Trends der Anzahl von Tagen mit hohen Niederschlagsmengen identifizieren. Hier dominiert eine kurz- und mittelfristige zyklische Variabilität.“

Es ist ein Rätsel, weshalb Mojib Latif und Stefan Rahmstorf suggerieren, es gäbe hier bereits belastbare Trends zu vermehrtem Starkregen. Weder in Deutschland noch global lassen sich solche Trends statistisch robust nachweisen. Dies ist relevant, denn während der vergangenen 150 Jahre ist die globale Temperatur um 1,0°C angestiegen. Die von Stefan Rahmstorf professoral zelebrierte „Clausius-Clapeyron-Gleichung“ spielt offenbar bislang keine bedeutende Rolle für die Starkregenentwicklung. Das erinnert an ähnliche physikalische Diskussionen zur Intensität von Wirbelstürmen, die gemäß theoretischen Überlegungen im Zuge des Klimawandels eigentlich immer heftiger werden sollten. Mittlerweile ist die Theorie jedoch wieder einkassiert und verworfen worden.

Das bringt uns zu Teil 2 des Faktenchecks. Schlängelt sich der Jetstream heute wirklich langsamer als früher und nagelt die Wetterlagen daher länger an einer Stelle fest? Und was ist von der Idee zu halten, dass sich die starke Arktiserwärmung auf den Jetstream auswirken könnte? Dazu muss man wissen, dass der Jetstream eines der Steckenpferde von Stefan Rahmstorf ist. Bereits im Winter 2020/21 hat er das Höhen-Starkwindband aus der Klamottenkiste herausgekramt, um Kältewellen zu erklären. Bei seinen Fachkollegen stieß das jedoch auf wenig Gegenliebe.

Nun ist Sommer, da sind die Hitzewellen dran. Wieder muss der Jetstream als Begründung herhalten. Und auch hier widerspricht der Großteil der Fachkollegen. Eine Zunahme blockierter Wetterlagen konnten sie trotz sorgfältiger Auswertung der Daten bislang nicht feststellen. Zudem kommen die meisten Simulationen zu dem Schluss, dass Blockierungen im Zuge einer Klimaerwärmung eher seltener werden, also sogar weniger Extremwetter zu befürchten wäre. Nachzulesen in Veröffentlichungen von Kennedy, Woollings, Hoskins, de Vries und Kollegen.

Andere Klimamodelle zeigen an, dass sich der Jetstream wohl auch in Zukunft wie gehabt hin- und herwinden wird, bzw. Veränderungen regional sehr unterschiedlich ausfallen. In den kommenden Jahrzehnten wird wohl eher die natürliche Variabilität den Jetstream dominieren, so wie bereits in der Vergangenheit.

Kürzlich überprüfte auch eine Forschergruppe der ETH Zürich und MeteoSwiss die Rahmstorf-Behauptung, dass die Jetstreamwellen im Zuge des menschengemachten Klimawandels ins Stocken geraten könnten. Die Schweizer untersuchten dazu eine ganze Reihe von Klimamodellen für Mitteleuropa, wobei die Simulationen den Zeitraum bis zum Ende des Jahrhunderts abdeckten. Das Ergebnis fiel deutlich aus: Die schweizerischen Modellierungsexperten konnten die alarmierenden Potsdamer Vorstellungen nicht bestätigen. In ihren Modellen fanden sie lediglich geringe Veränderungen bei den blockierten Wetterlagen, die sich im Rahmen der natürlichen Variabilität abspielten. Zum Teil widersprachen sich die Modellierungsergebnisse sogar so sehr, so dass sie wenig verlässlich sind. Ein Trend zu extremeren Wetterlagen durch vermehrte Blockaden ist daher in Mitteleuropa auch in Zukunft wohl nicht zu befürchten. Die Studie erschien im Mai 2020 in den Geophysical Research Letters. Neben dem Leitautor Maurice Huguenin war übrigens auch der bekannte ETH-Klimaforscher Reto Knutti an der Publikation beteiligt.

Und abschließend schauen wir noch auf den von Stefan Rahmstorf suggerierten Arktis-Einfluss auf den Jetstream. Eine Forschergruppe um Jacopo Riboldi veröffentlichte hierzu im September 2020 in den Geophysical Research Letters ein ganz klares Ergebnis: Trotz arktischer Klimaverstärkung („Arctic Amplification“) fanden die Wissenschaftler keinen Trend bei den Jetstream-Bewegungen. Somit entpuppt sich auch die Jetstream-Geschichte der medialen Lieblings-Klimaerklärer Latif und Rahmstorf als wissenschaftliche Randmeinung. Der Großteil der Wissenschaft sieht die Sachlage gänzlich anders. Aber jene Forscher werden von den Redaktionen leider nicht angerufen. Schade.

Fazit: Weder die in den Medien verbreiteten Hochwasser-Häufigkeitstrends, noch die Jetstream-Theorie hält einem genaueren wissenschaftlichen Faktencheck stand. Kanzlerkandidat Armin Laschet sollte dringend seine wissenschaftliche Beraterbasis diversifizieren, um in Zukunft nicht auf fragwürdige Thesen aus der Presse vertrauen zu müssen. Wie kann es sein, dass in einem Land mit hunderten von hochqualifizierten Klimaforschern in den Medien stets nur dieselben zwei, drei Experten zu Wort kommen? Wie lange können wir uns diese unausgewogene Klima-Oligarchie noch leisten?

Dr. Sebastian Lüning ist habilitierter Geowissenschafler und publiziert regelmäßig in klimawissenschaftlichen Fachzeitschriften. Als Gutachter wirkte er an den IPCC-Berichten SR15, SROCC und AR6 mit. Zusammen mit Fritz Vahrenholt schrieb er die Bücher „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“ und „Unanfechtbar: Der Beschluss des Bundesverfassungsgerichts zum Klimaschutz im Faktencheck”. Auf Youtube präsentiert Lüning zweimal wöchentlich die Nachrichtensendung „Klimaschau“.

Der Beitrag erschien zuerst bei TE hier