Winter 2018/19 – wie gut waren die Prognosen?

Abbildung 1: Keine winterliche Erwärmung in Deutschland seit 1987/88 – trotz deutlich steigender CO2-Konzentrationen.

Abbildung 2: Während auf dem Höhepunkt der Luftverschmutzung (etwa 1950 bis 1985) nicht selten an einem guten Drittel aller Wintertage Nebel auftrat, ist er seit zwei Jahrzehnten mit fast stets weniger als 20 Tagen selten – im abgelaufenen Winter waren es nur 6 Nebeltage. Das deutet auf eine stark verbesserte Luftqualität hin.

Abbildung 3: Winterliche Niederschlagszunahme in Deutschland – aber nur bis etwa 1995 (siehe Trendlinie des „gleitenden“ Mittelwertes). Der abgelaufene Winter 2018/19 überschritt mit knapp 216mm nicht einmal die einfache Standardabweichung nach oben.

Nicht überall in den gemäßigten Breiten der Nordhalbkugel verlief dieser Winter 2018/19 so gelinde, wie in Mitteleuropa. Nordamerika bescherte er mehrere, harsche Kältewellen. An der von Wärmeinsel-Effekten wenig beeinflussten Station Dale Enterprise zeigt sich, anders als in Deutschland, auch langfristig keine Winter-Erwärmung:

Abbildung 4: An der westlich der Bundeshauptstadt Washington D.C. gelegenen, ländlichen Station Dale Enterprise erwärmte sich der Winter auch langfristig nicht.

Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen

UKMO (Großbritannien): Vom 11.11.2018 Winter (D, J, F) mit gering erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Die aktuellen Karten jederzeit hier.

Bewertung: Nur sehr grob zutreffend, besonders in Norddeutschland wurde die Wahrscheinlichkeit für „zu mild“ unterschätzt, dazu sehr unkonkret, Note 5

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2018: Dezember normal, Januar sehr kalt, Februar etwas zu mild. Winter insgesamt etwa normal. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland:

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1990 bis 2017 (Stand Nov. 2018):

NASA (US-Weltraumbehörde) Karten vom November 2018: Alle drei Wintermonate und Winter insgesamt zu mild:

Bewertung: Dezember und Februar deutlich unterschätzt, jeweils Note 6. Januar leicht überschätzt, besonders für Süddeutschland, Note 3 bis 4. Da der Gesamtcharakter des Winters (zu mild) grob richtig geschätzt wurde, Gesamtnote 4.

Quelle). Neben den Aussagen für Berlin werden auch gesamtdeutsche getroffen, freilich ohne Bezugswert; Stand Nov. 2018:

Stefan Kämpfe (verfasst am 25.11. und veröffentlicht bei EIKE am 28.11.2018):

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 5% Wirbelsturm-Aktivität und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 04.03.2019




Hurrikane und Klimawandel 3: Übertritte auf das Festland

Auf das Festland übertretende Hurrikane

Die globale Hurrikan-Statistik weist eine einfache Relation auf zu globaler und regionaler Klima-Variabilität und -Änderung. Allerdings gilt auf das Festland übertretenden Hurrikanen wegen deren sozio-ökonomischen Auswirkungen besonderes Interesse.

Wirtschaftliche Verluste durch auf das Festland übergreifende Hurrikane haben sich während der letzten Jahrzehnte erhöht, sowohl in den USA als auch global. Will man dabei ein Signal einer anthropogenen globalen Erwärmung ausmachen, erfordert dies die Identifikation eines Trends, welcher dieser Erwärmung zugeordnet werden kann, und zwar bei jedem der Faktoren, die zu den wirtschaftlichen Schäden beitragen. Zu diesen Faktoren gehören: Häufigkeit, Intensität, horizontale Ausdehnung, Verlagerungsgeschwindigkeit vor der Küste, Tornados und Regenmenge.

Kontinentale USA

Klotzbach et al. (2018) haben eine umfassende Evaluierung der Daten bzgl. auf das Festland übertretender Hurrikane durchgeführt, und zwar seit dem Jahr 1900.

Abbildung 5.1 (oben) zeigt die Zeitreihe der auf das Festland der USA übertretenden Hurrikane im Zeitraum von 1900 bis 2017. Während die Jahre 1986, 2004 und 2005 diesbezüglich Spitzenwerte aufweisen, zeigt sich seit 1900 eine insgesamt negative Trendlinie, wenngleich diese auch nicht statistisch signifikant ist. Abbildung 5.1 (unten) zeigt die gleiche Zeitreihe, aber für starke Hurrikane der Kategorie 3 bis 5. Den Spitzenwert in dieser Hinsicht hält das Jahr 2005 mit 4 derartigen Hurrikanen. Allerdings trat im Zeitraum 2006 bis 2016 kein einziger dieser starken Hurrikane auf das US-Festland über, was den längsten derartigen Zeitraum seit Beginn der Aufzeichnungen im Jahre 1900 markiert.

Abbildung 5.1: Zeitreihen von 1900 bis 2017 für auf das US-Festland tretende Hurrikane (oben) und starke Hurrikane (unten). Die gepunkteten Linien repräsentieren die jeweiligen Trendlinien über diesen Zeitraum, sind aber beide statistisch nicht signifikant. Nach Klotzbach et al. (2018)

Villarini et al. (2012) legen eine Auflistung der Festlands-Übertritte bis zurück zum Jahre 1878 vor (Abbildung 5.2). Während vielleicht einige Übertritte in den ersten Jahrzehnten nicht erfasst worden sein können, weil sie in dünn besiedelten Gebieten an der Golfküste stattfanden, ist es bemerkenswert, dass das Jahr mit der höchsten Anzahl von Übertritten in der gesamten Reihe das Jahr 1886 ist.

Abbildung 5.2: Zeitreihe der Anzahl auf das US-Festland übertretender Hurrikane im Zeitraum 1878 bis 2008. Nach Villarini et al. (2012).

Eine energetische Perspektive dieser Art von Hurrikanen zeigen Truchelut und Staehling (2017). Abbildung 5.3 zeigt die Zeitreihe der Akkumulierten Zyklon-Energie (ACE) dieser auf das Festland übertretenden Hurrikane, bezeichnet hier als Integrated Storm Activity Annually Over the Continental U.S. (ISAAC). Der Zeitraum 2006 bis 2016 ohne derartige Ereignisse hängt zusammen mit einem ACE-Wert, der unter 60% des Mittelwertes über den Zeitraum 1900 bis 2017 beträgt.

Abbildung 5.3: Zeitreihe von ISAAC 1900 bis 2017, mit einem bei zehn Jahren zentrierten mittleren Wert (rot). Nach Truchelut und Staehling (2017).

[Es folgen viele weitere Graphiken und Zahlen, die das oben Gesagte unterstreichen. Anm. d. Übers.]

Karibik

Klotzbach (2011) summiert auch die Hurrikane in der Karibik (Abbildung 5.8). Man erkennt keinen signifikanten langzeitlichen Trend. Der primäre Treiber der Variabilität in der Karibik ist die ENSO, wobei es bei La Nina-Bedingungen viel mehr Aktivität gibt als bei El Nino-Verhältnissen. Im multidekadischen Zeitmaßstab spielt die AMO eine signifikante Rolle bei der Hurrikan-Aktivität in der Karibik. Untersucht man ENSO und AMO kombiniert, findet sich sogar eine noch stärkere Relation. Beispiel: während der 10 stärksten La Nina-Jahre in einer positiven (warmen) AMO-Phase waren dort 29 Hurrikane aufgetreten, bei umgekehrten Verhältnissen beider Zirkulationssysteme waren es lediglich 2 Hurrikane.

Abbildung 5.8: Hurrikane in der Karibik im Zeitraum 1900 bis 2018. Aktualisiert nach Klotzbach (2011).

Chenoweth und Divine (2008) zeigen eine längerfristige Perspektive von Hurrikanen in der Karibik, indem sie auf der Grundlage eines historischen Dokumentes eine 318 Jahre lange Zeitreihe unter Einschluss der Kleinen Antillen im Zeitraum 1690 bis 2007 untersuchten. Zeitungsmeldungen, Logbuch-Eintragungen von Schiffen, meteorologische Journale und andere Quellen mit Dokumenten wurden herangezogen, um diesen Datensatz zu erstellen. … Die Anzahl tropischer Zyklone zeigt keine signifikanten Trends (Abbildung 5.9). Die meisten Hurrikane waren zu Beginn des 19. Jahrhunderts aufgetreten. Der Zeitraum 1968 bis 1977 war möglicherweise der inaktivste Zeitraum seit der Besiedlung der Inseln in den zwanziger und dreißiger Jahren des 17. Jahrhunderts.

Abbildung 5.9: Anzahl von Hurrikanen (oben), Tropical Storms (Mitte) und sowohl Hurrikane als auch Tropical Storms (unten) von 1690 bis 2007. Die rote Linie markiert ein gleitendes Mittel über 21 Jahre.

Global

Weinkle et al. (2012) fassen die Schwierigkeiten zusammen bei der Konstruktion eines homogenen Datensatzes bzgl. auf das Festland übertretender Hurrikane. Die Unsicherheit bei der Ortung und der Intensität ist eine Funktion des sich entwickelnden Beobachtungs-Netzwerkes über das gesamte vorige Jahrhundert. Das reicht von Schiffsbeobachtungen über Flugzeugmessungen bis hin zur Fernerkundung mittels Satelliten. Weinkle et al. (2012) erfassten alle Festlands-Übertritte im Nordatlantik, Nordost- und West-Pazifik, dem nördlichen Indischen Ozean und der Südhemisphäre. Sie nutzten dabei das International Best Track Archive for Climate Stewardship (IBTrACS).

Die globale Häufigkeit auf das Festland übertretender Hurrikane zeigt global eine beachtliche Variabilität von Jahr zu Jahr, aber keinen signifikanten linearen Trend (Abbildung 5.10). Außerdem gibt es bei Betrachtung jedes Ozeanbeckens individuell keinen signifikanten Trend außer auf der Südhemisphäre. Dies kommt nicht unerwartet angesichts der bekannten multidekadischen Signale der Aktivität tropischer Zyklone, was durch die kurze historische Reihe nicht adäquat aufgelöst werden kann.

Abbildung 5.10: Häufigkeit globaler Hurrikane im Zeitraum 1970 bis 2018. Aktualisiert von Weinkle et al. (2012)

Wasser – Regenmenge und Sturmfluten

Historisch waren die verhängnisvollsten Auswirkungen von Hurrikanen immer verursacht durch Sturmfluten und Überschwemmungen landeinwärts (Blake et al. 2011). In diesem Abschnitt wird beschrieben, ob es in dieser Hinsicht eine Zunahme gegeben hat.

Regenmenge

Es wurde geschätzt, dass im Mittel tropische Zyklone von mindestens der Stärke einer Tropical Depression etwa ein Viertel zur jährlichen Regenmenge im Südosten der USA beitragen. Soule et al. (2012) zeigten, dass tropische Zyklone in den südöstlichen USA häufig Dürren beendeten. In der Mehrzahl der Landkreise in Florida, Georgia, South Carolina und North Carolina sind mindestens 20% der dortigen Dürren durch einen tropischen Zyklon beendet worden, und zwar im Zeitraum 1950 bis 2008.

Hurrikane sind auch ursächlich für etwa 20% der gemessenen monatlichen Regenmenge von Juni bis November im Getreide-Gürtel der östlichen USA [U.S. Corn Belt]. Dieser umfasst die US-Bundesstaaten Wisconsin, Michigan, Illinois, Indiana, Ohio und Kentucky (Kellner et al. 2016).

Während Überschwemmungen landeinwärts typischerweise in einem auf das Festland übertretenden Hurrikan auftreten, führen verschiedene Faktoren zu exzessiven Regenmengen. Geringe Verlagerungsgeschwindigkeit der Hurrikane kann lokal zu sehr hohen Regenmengen führen. Berge/Gebirge in Küstennähe können durch erzwungene Hebung den Regen noch verstärken. Tröge der Höhenströmung und Kaltfronten können ebenfalls zu exzessiven Regenmengen führen. Größere tropische Zyklone haben auch einen größeren Regen-Fußabdruck. Hoher Feuchtigkeitsgehalt in der Luft trägt ebenfalls zu exzessiven Regenmengen bei. Verlagert sich ein Hurrikan weiter landeinwärts und wird dabei vom Nachschub von Wärme und Feuchtigkeit (aus dem Ozean) abgeschnitten, verringert sich die Regenmenge rasch, es sei denn, es kommt noch erzwungene Hebung im Luv von Gebirgen dazu.

Roth (2017) legt eine Liste mit Hurrikanen vor, welche die höchsten Regenmengen in jedem Land/jeder Insel im Nordatlantik mit sich brachten (Tabelle 5.2). In der Tabelle nicht enthalten ist die Regenmenge des Hurrikans Harvey mit 1539 mm Regen. Er war erst nach Erstellen der Tabelle aufgetreten. Man erkennt, dass die Hurrikane Mitch (1998), Wilma (2005), Flora (1963) und diejenigen im November 2009 jeweils Regenmengen lieferten, die über diejenige von Harvey hinausgingen.

Tabelle 5.2: Liste mit Hurrikanen, welche die größten Regenmengen im Nordatlantik mit sich brachten. Quelle: Roth (2017):

Sturmfluten

Die Magnitude einer Sturmflut ist abhängig von der Intensität, der Verlagerung, der Größe (= des Radius‘ maximaler Winde), dem Auftreff-Winkel an der Küste, dem Kerndruck, dem Zeitpunkt der jeweiligen Gezeiten und den Formen und Charakteristika küstennaher Landstriche.

Der Meeresspiegel beeinflusst ebenfalls die Höhe von Sturmfluten. Seit dem Jahr 1900 ist der Meeresspiegel global um 18 bis 20 cm gestiegen. Abhängig von der lokalen Topographie kann eine geringe Änderung der Höhe des Meeresspiegels zu einer signifikanten Zunahme der Ausbreitung von Sturmfluten landeinwärts führen.

Die höchste dokumentierte Sturmflut in den USA war im Zuge des Hurrikans Katrina aufgetreten, als an dem Messpunkt Pass Christian eine solche mit einer Höhe von ca. 8,5 m gemessen worden ist.

Tabelle 5.3: Hurrikan-Sturmfluten seit dem Jahr 1900 (Quelle):

Durch Hurrikane ausgelöste Tornados

Wie von Belanger et al. (2009) zusammengestellt, lösen die meisten Hurrikane auch Tornados aus. Hurrikane, die vom Golf von Mexiko aus auf das US-Festland übertreten, bringen mehr Tornadoereignisse mit sich als solche, die vom Atlantik her aufziehen. Die meisten dieser Tornados sind schwach, aber einige wenige verursachten auch schwere Schäden.

Schäden und Verluste

Von der MunichRe (2018) zusammengestellte Daten zeigen, dass die wirtschaftlichen Schäden weltweit durch auf das Festland übertretende tropische Zyklone während der letzten Jahrzehnte zugenommen haben. Historisch waren die größten Schäden durch Wind und Sturmflut aufgetreten. Jüngst gab es jedoch eine Reihe von Stürmen, bei denen die größten Schäden durch starken Regen verursacht worden waren, besonders bei sich nur wenig verlagernden Stürmen (z. B. Hurrikan Harvey 2017 und Hurrikan Florence 2018).

Während es aus Beobachtungen keinerlei Hinweise auf eine zunehmende Intensität derartiger Hurrikane gibt, weder im Atlantik noch global, gibt es klare Hinweise auf gestiegene Schäden durch diese Hurrikane. Ist diese Zunahme allein zunehmender Bevölkerung und Wohlstand in anfälligen Küstengebieten geschuldet, oder gibt es irgendein Element bzgl. Klimawandel, welches zu der Zunahme der Schäden beiträgt?

Um diese Frage zu beantworten, bedarf es einer korrekten Erkennung der relevanten Variablen, welche die Schäden treiben. Zusätzlich zu Häufigkeit und Intensität von auf das Festland übertretenden Hurrikanen tragen noch folgende Variablen zu den Schäden bei: horizontale Ausdehnung der Hurrikane, Verlagerungsgeschwindigkeit nahe der Küste, Sturmflut und Regenmenge.

Klotzbach et al. (2018) sowie Weinkle et al. (2018) haben sich der Frage gewidmet, ob die Schäden auf dem US-Festland inflationsbereinigt seit 1900 signifikant zugenommen haben. Beide Studien zeigen, dass seit dem Jahr 1900 weder die Häufigkeit noch die Intensität dieser Hurrikane signifikante Trends zeigen, einschließlich der verheerenden Saison 2017. Wachstum der Bevölkerung in küstennahen Gebieten und regionaler Wohlstand sind die überwältigend stärksten Faktoren bei der Zunahme von Schäden durch Hurrikane. Dieser Trend führte zu einer immer stärkeren Verwundbarkeit küstennahen Eigentums an der Ost- und der Golfküste.

Link: https://judithcurry.com/2019/02/27/hurricanes-climate-change-landfalls/#more-24758

Part II: https://judithcurry.com/2019/02/20/24737/#more-24737

Part I: https://judithcurry.com/2019/02/17/hurricanes-climate-change-detection/#more-24723

Übersetzt von Chris Frey EIKE




Hurrikane und Klimawandel 2: Zuordnung

Erkennung und Zuordnung von Änderungen der Hurrikan-Aktivität

Der gängigen Argumentation zufolge sollte die Hurrikan-Aktivität und besonders deren Intensität zunehmen, wenn sich die Ozeane im Zuge des Klimawandels erwärmen. Allerdings wird in jedem der im 1. Teil erwähnten Zustandsberichte der Zuordnung von Änderungen aus jüngerer Zeit der Hurrikan-Aktivität zur vom Menschen verursachten globalen Erwärmung nur geringes Vertrauen entgegen gebracht (low confidence).

Welche wissenschaftliche Grundlage gibt es, um die Frage zu beantworten, ob es die vom Menschen verursachte globale Erwärmung ist, die eine Änderung der Hurrikan-Aktivität nach sich zieht, oder ob es irgendetwas anderes ist?

Die Erkennung und Zuordnung anthropogener Signale im Klimasystem ist ein neues und rapide sich ausweitendes Feld. Will man eine beobachtete Änderung oder auch nur ein Teil derselben einem kausalen Faktor zuordnen (wie etwa einem anthropogenen Klima-Antrieb), so muss man normalerweise diese Änderung erst einmal erkennen. Eine erkannte Änderung ist eine solche, bei der es aufgrund von Beobachtungen sehr unwahrscheinlich ist (weniger als 10% Wahrscheinlichkeit), dass sie allein der internen natürlichen Variabilität geschuldet ist. Eine Zuordnung einer Änderung zu irgendetwas impliziert, dass der relative Beitrag kausaler Faktoren evaluiert worden ist, zusammen mit statistischem Vertrauen.

Es gibt einige Umstände, unter denen eine Zuordnung ohne Erkennung angemessen sein kann, obwohl eine Zuordnung immer nur geringes Vertrauen enthält, wenn sie nicht durch eine beobachtete Änderung gestützt wird. Zum Beispiel muss eine Trendanalyse für ein extrem seltenes Ereignis nicht bedeutsam sein. Schließt man eine Zuordnung ohne Erkennung in die Analyse von Auswirkungen des Klimawandels mit ein, reduziert man die Chance einer falschen negativen Zuordnung – und folgert fälschlich, dass der Klimawandel keine Auswirkungen auf gegebene Extrem-Ereignisse hat. Allerdings besteht bei einer Zuordnung ohne vorherige Erkennung das Risiko falscher positiver Zuordnungen – wobei man fälschlich folgert, dass der anthropogene Klimawandel einen Einfluss darauf hat, obwohl das in Wirklichkeit nicht der Fall ist.

Das konzeptionelle Modell der meisten Analysen bzgl. Erkennung und Zuordnung enthält vier Elemente:

Zeitreihen relevanter Beobachtungen

die geschätzte Zeitreihe relevanter Klima-Antriebe (wie etwa Treibhausgas-Konzentrationen oder vulkanische Aktivität)

eine Abschätzung der Auswirkung von Klima-Antrieben auf die interessierenden Klima-Variablen

eine Abschätzung der internen Variabilität der interessierenden Klima-Variablen – z. B. natürliche Variationen von Ozean, Atmosphäre, Festland, Cryosphäre usw. beim Fehlen externer Antriebe

Paläoklimatologische Antriebe aus geologischen Aufzeichnungen sind nützlich für Studien bzgl. Erkennung, bieten sie doch eine Grundlage dafür, dass man die gegenwärtige Variabilität mit derjenigen im vorigen Jahrhundert oder so vergleichen kann. Zeit des Entstehens ist der Zeitrahmen, in welchem Klimawandel-Signale in verschiedenen Regionen erkennbar werden – ein wichtiges Thema, kann doch die natürliche Variabilität erzwungene Klimasignale über Jahrzehnte verschleiern, vor allem in kleinräumigeren Gebieten.

Erkennung

Es gibt drei Hauptschwierigkeiten bei der Erkennung von Signalen der Änderung der Hurrikan-Aktivität:

sehr lange Zeitmaßstäbe in den Ozeanen, was zu einer substantiellen Verzögerung zwischen externen Antrieben und der Auswirkung auf den Klimawandel nebst dessen Auswirkungen führt

natürliche Variabilität mit hohen Amplituden in den Ozeanbecken in Zeitmaßstäben von Jahr zu Jahr und von Jahrtausend zu Jahrtausend.

starke regionale Variationen, sowohl innerhalb der Ozeane als auch der Hurrikan-Aktivität

Auf der Grundlage der zuvor zusammengefassten Beobachtungen kann man folgende Zusammenfassung hinsichtlich der Änderungen globaler oder regionaler Hurrikan-Aktivitäten geben:

globale Hurrikan-Aktivität: kleine, aber signifikante Trends abnehmender Hurrikan-Häufigkeit und zunehmender Stärke von Hurrikanen

globaler Anteil in Prozent von Hurrikanen der Stärke 4/5: zunehmender Trend seit 1970, obwohl die Qualität der Daten vor dem Jahr 1988 umstritten ist

Rate der Verstärkung: Hinweise auf eine globale Zunahme trotz nicht übereinstimmender Datensätze

Atlantische Hurrikane: zunehmender Trend seit 1970, jedoch wurde eine vergleichbare Aktivität auch im Zeitraum 1950 bis 1960 beobachtet.

Hurrikane in anderen Gebieten: Aufzeichnungen von Beobachtungen sind zu kurz, aber es gibt keinerlei Hinweise auf Trends, die über die natürliche Variabilität hinausgehen.

Die Grundlage von Beobachtungsdaten (seit 1970 oder sogar seit 1850) ist zu kurz, um die volle Auswirkung der natürlichen internen Variabilität abzuschätzen, welche mit großräumigen Meeresströmen assoziiert ist. Paläoklimatologische Analysen zeigen aber, dass die derzeitige Hurrikan-Aktivität nicht ungewöhnlich ist.

Quellen von Variabilität und Änderung

Erkennt man keinerlei signifikante Änderungen der globalen oder regionalen Hurrikan-Aktivität, müssen Zuordnungs-Verfahren ohne Erkennungen angewendet werden. Diese Verfahren erfordern die Abschätzung der Beiträge externer Antriebe (z. B. CO2, Vulkane, solar) zur Klima-Variabilität/-Änderung plus der natürlichen internen Variabilität im Zusammenhang mit den großen Meeresströmen. In einem Zuordnungs-Verfahren in zwei Schritten sind Änderungen von Zwischen-Variablen (Wassertemperatur der Ozeane, Windscherung, Luftfeuchtigkeit) nützlich bei der Identifikation physikalischer Vorgänge, wobei eine Erwärmung zu einer Änderung der Hurrikan-Aktivität beitragen kann.

Der Schwerpunkt in diesem Abschnitt liegt auf der Identifikation von Quellen der Änderung und der Variabilität während des Zeitraumes seit 1850, also seit historische Daten verfügbar sind.

Häufig wird hinsichtlich einer Zunahme der Hurrikan-Aktivität argumentiert, dass sie einher geht mit einem Anstieg der globalen Wassertemperatur. Abbildung 4.1 zeigt die Variabilität global gemittelter Wassertemperaturen (SST) seit 1850 zusammen mit externen Antrieben durch CO2 aus Vulkanen und der Sonne.

Man erkennt in Abbildung 4.1a, dass die Wassertemperaturen im Jahre 1910 global ein Minimum durchlaufen haben, um danach bis etwa 1945 rapide zu steigen. Die erhöhte atlantische Hurrikan-Aktivität von den dreißiger bis zu den fünfziger Jahren war aufgetreten, als die globalen Wassertemperaturen etwa 0,8°C niedriger lagen als heute. Dieser Erwärmungsphase folgte eine Periode mit leichter Abkühlung bis etwa zum Jahre 1976, nach welchem die Temperaturen wieder zu steigen begannen.

Abbildung 4.1: (oben) Wassertemperatur-Anomalien global (°C) aus HadSST. (Mitte) anthropogene CO2-Emissionen; Quelle: IPCC AR 5. (Unten) jährliche mittlere Zeitreihe von Klima-Treibern: atmosphärische CO2-Konzentration, stratosphärische Aerosole (Vulkanausbrüche), solare Gesamt-Einstrahlung sowie troposphärische Aerosole; Quelle: Hegerl et al. (2018)

Die globale Erwärmung der Ozeane von 1910 bis 1945 um 0,6°C ist vergleichbar mit der Erwärmung um 0,7°C im Zeitraum 1976 mit 2018. Hinsichtlich der jüngsten Erwärmung zeichnete das IPCC folgende Zuordnung:

● „Es ist extrem wahrscheinlich, dass über die Hälfte der beobachteten Erwärmung von 1951 bis 2010 der Zunahme anthropogener Treibhausgase und anderen anthropogenen Antrieben geschuldet ist. Das best estimate des anthropogenen Beitrags zur Erwärmung ist ähnlich der beobachteten Erwärmung während dieses Zeitraumes“.

Mit anderen Worten, das best estimate des IPCC ist, dass die gesamte Erwärmung seit 1951 vom Menschen verursacht ist.

Was aber war dann die Ursache der Erwärmung zu Beginn des 20. Jahrhunderts? Dieser Frage ist bemerkenswert wenig Aufmerksamkeit seitens der Klimawissenschaftler zuteil geworden. Eine fehlende Erklärung der Ursachen jener Erwärmung vermindert die Glaubwürdigkeit des IPCC-Statements bzgl. der Erwärmung ab 1951.

Eindeutig waren hinsichtlich der Erwärmung zu Beginn des 20. Jahrhunderts noch andere Faktoren außer CO2 im Spiel (Abb. 4.1 Mitte). Hinsichtlich externer Strahlungsantriebe würde eine Periode relativ geringer vulkanischer Aktivität im Zeitraum 1920 bis 1960 einen relativen Erwärmungseffekt haben, obwohl der Zeitraum 1945 bis 1960 Schauplatz einer leichten insgesamten Abkühlung war. Der solare Antrieb zu Beginn des 20. Jahrhunderts auf Erwärmungen unterschiedlicher Magnitude ist unklar, obwohl diese Magnituden unzureichend bzgl. eines solaren Einflusses sind, um ein direkter Haupt-Antrieb der globalen Erwärmung Anfang des 20. Jahrhunderts sein zu können.

Ändert die globale Erwärmung die internen Zustände der Variabilität?

Die internen Zustände der Variabilität im Zusammenhang mit großräumigen Ozean-Zirkulationen werden oftmals als ,Oszillationen‘ bezeichnet. Es ist jedoch unrichtig, diese Oszillationen als ,zyklisch‘ zu betrachten, sind doch deren Periode und Häufigkeit unregelmäßig. Im Prinzip kann eine bestimmte Oszillation aufhören zu bestehen oder ihren Zustand der Variabilität ändern, weil deren internen Zustände assoziiert sind mit der nicht linearen Dynamik des gekoppelten Atmosphäre-Ozean-Systems.

Weil die historischen Aufzeichnungen nicht besonders weit zurückreichen, vor allem in anderen Gebieten als dem Atlantischen Ozean, ist es sinnvoll, paläoklimatische Hinweise dieser Oszillationen in Betracht zu ziehen.

Der NCA4 (2017; Kapitel 5) kam zu dem Ergebnis, dass das Vertrauen gering ist hinsichtlich der Auswirkung einer vom Menschen verursachten globalen Erwärmung auf Änderungen dieser internen Zustände im Zusammenhang mit der großräumigen Ozean-Zirkulation.

Schlussfolgerungen

Modelle und die Theorie zeigen, dass Hurrikan-Intensität und Regenmenge in einem sich erwärmenden Klima zunehmen sollten. Es gibt aber keine Theorie, die eine Änderung der Anzahl der Hurrikane oder eine Änderung von den Zugbahnen derselben im Zusammenhang mit höheren Temperaturen umfasst.

Eine überzeugende Zuordnung jedweder Änderungen erfordert, dass eine Änderung der Hurrikan-Charakteristika mittels Beobachtungen erkannt wird mit einer Änderung, die über die natürliche Variabilität hinausgeht.

Aus Beobachtungen geht hervor, dass der globale Prozentsatz von Hurrikanen der Kategorien 4/5 zunimmt, obwohl die Stärke der Zunahme abhängig ist vom untersuchten Zeitraum, wobei aus manchen Gebieten vor dem Jahr 1987 nur fragwürdige Beobachtungen vorliegen. Wegen der kurzen Zeit mit Datenaufzeichnungen erfordert die Zuordnung jedweden Anteils dieser Zunahme zur anthropogenen globalen Erwärmung eine sorgfältige Auswertung der Daten und der Zustände der natürlichen Variabilität in jeder einzelnen Region, in der Hurrikane auftreten.

Während Theorie und Modelle zeigen, dass die Regenmenge bei Hurrikanen in einem sich erwärmenden Klima zunehmen sollte, sind Beobachtungs-Analysen aufgrund von Satellitendaten bisher in bedeutsamer räumlicher oder zeitlicher Auflösung nicht durchgeführt worden.

Es gibt einige Hinweise für eine globale Verlangsamung der Verlagerung tropischer Zyklone im letzten halben Jahrhundert, aber diese beobachteten Änderungen sind bis jetzt noch nicht halbwegs zuverlässig dem anthropogenen Klimawandel zugeordnet worden.

Zwar hat es im Atlantik seit 1970 eine gewisse Zunahme der Hurrikan-Aktivität gegeben, doch ist diese vermutlich getrieben durch Änderungen der Atlantischen Multidekadischen Oszillation (AMO) und des Atlantic Meridional Mode (AMM). Simulationen von Klimamodellen zeigen, dass die jüngste Rate der Intensivierung atlantischer Hurrikane über das hinausgeht, was man von der natürlichen internen Variabilität erwarten kann.

Falls die anthropogene globale Erwärmung eine Zunahme bzgl. mancher Aspekte der Hurrikan-Aktivität verursacht, sollte diese Zunahme global auftreten und nicht nur in einem einzelnen Ozeanbecken. Ein Problem dabei besteht darin, dass die Daten für eine Erkennung auf globaler Ebene unzureichend sind. Betrachtet man ein einzelnes Ozeanbecken, ist eine korrekte Interpretation und Simulation der natürlichen internen Variabilität unabdingbar wichtig, doch ist unser Verständnis und unsere Fähigkeit, die natürliche interne Variabilität zu simulieren, äußerst begrenzt.

Alles in allem ist das Trendsignal der Hurrikan-Aktivität noch nicht über die Hintergrund-Variabilität natürlicher Prozesse hinausgegangen. Anthropogener Klimawandel kann Änderungen der Hurrikan-Aktivität verursacht haben, die noch nicht erkennbar sind, und zwar wegen der geringen Größenordnung dieser Änderungen im Vergleich zur geschätzten natürlichen Variabilität oder wegen grenzen der Beobachtbarkeit. Aber an diesem Punkt gibt es keinen überzeugenden Beweis dafür, dass die anthropogen verursachte globale Erwärmung eine Änderung der Hurrikan-Aktivität verursacht hat.

Link: https://judithcurry.com/2019/02/20/24737/#more-24737

Übersetzt von Chris Frey EIKE




Der Aufstieg von Fake-Wissenschaft

Zeitungen, Politiker und Interessengruppen haben sich seit Jahrzehnten von einer Vorhersage der Apokalypse ohne Übergang zur nächsten bewegt. Zunehmend wird es in einem mit Alarm übersättigten Markt notwendig, die Angsterzeugung immer weiter zu steigern. Manchmal konnten nicht einmal die hanebüchensten Lügen die Angstmache stoppen.

Pseudowissenschaft ist auf dem Vormarsch – und die Medien fahren voll darauf ab

H. L. Mencken schrieb einmal: „Das einzige Ziel praktischer Politik ist es, die Bevölkerung alarmiert zu halten (und sie damit für jede Führung in Sicherheit anfällig zu machen), und zwar mittels einer endlosen Aneinanderreihung von schrecklichen Gespenstern – die allesamt imaginär sind“. Zeitungen, Politiker und Interessengruppen haben sich seit Jahrzehnten von einer Vorhersage der Apokalypse ohne Übergang zur nächsten bewegt (Kernkraft, saurer Regen, die Ozonschicht, Rinderwahnsinn, Nanotechnologie, genetisch modifiziertes Getreide, das Jahrtausend-Problem, …) ohne dass sie jemals darauf gewartet haben, ob die Wirklichkeit sie bestätigte oder widerlegte.

In einem Alarm-übersättigten Markt wird es immer dringlicher, die Angstmache immer weiter zu steigern. Immer mehr Schlagzeilen zu medizinischer oder umweltlicher Panik basieren auf veröffentlichten wissenschaftlichen Studien, die wenig mehr als Lügen und mit einem Mäntelchen statistischer Tricksereien verkleidet sind. Nicht einmal die Bloßstellung eklatantester Lügen kann diesem Treiben Einhalt gebieten. Dr. Andrew Wakefield wurde vom General Medical Council im Jahre 2010 abgestraft, nachdem man herausgefunden hatte, dass die in seiner in Lancet 1998 veröffentlichten Studie aufgestellte Behauptung, eine Verbindung gefunden zu haben zwischen einem MMR-Impfstoff und Autismus, reiner Betrug war. [MMR = Measles, Mumps und Rubella = Masern, Mumps und Röteln. Quelle. Anm. d. Übers.] Und doch ist Wakefield heute ein gefeierter Anti-Impf-Aktivist in den USA, der seine schon lange kranke Ehefrau verlassen hat, um sich dem Supermodel Elle Macpherson zuzuwenden. Kampagnen gegen Impfungen sind ein lukratives Geschäft.

Im Folgenden führt Matt Ridley eine Fülle weiterer Beispiele aus vielen Bereichen der Wissenschaft an, bei der sich die Autoren von Studien, die sich als reiner Betrug und Unsinn herausgestellt haben, immer noch hoher Beliebtheit erfreuen bzw. hoch gestellte Persönlichkeiten sind. Die Bloßstellung derartiger Betrügereien ist von den Medien fast durchweg ignoriert worden.

Er führt Beispiele von Chemikalien an, vom Insektensterben, Glyphosat und so weiter. Ganz zuletzt, aber mehr am Rande, kommt er auch auf Klima-Alarmisten zu sprechen. Die letzten Absätze seines Beitrags werden daher wieder übersetzt. – Anm. d. Übers.]

Allem gemeinsam ist der bedeutende Hintergrund von all dem: riesige Geldsummen und Macht stehen auf dem Spiel. Nehmen wir beispielsweise die rasch um die Welt fliegende Behauptung der linksgerichteten politischen Denkfabrik Institute for Public Policy Research (IPPR), der zufolge „seit dem Jahr 2005 die Anzahl von Überschwemmungen weltweit um das 15-fache zugenommen haben“. Natürlich fand das sofort Eingang bei Roger Harrabin von der BBC mit dem üblichen Tenor, dass wir alle dem Untergang geweiht sind.

Das war eine ocean-going, weapons-grade, château-bottled Lüge. Es gab keine Zunahme von Überschwemmungen seit 2005, geschweige denn eine solche um das 15-fache. Als man das IPPR zur Rede stellte, machte dieses einen „Schreibfehler“ geltend; sie meinten ab 1950. Nun, das ist auch Unsinn. Das IPCC wertet regelmäßig Daten bzgl. Überschwemmungen aus und sagt, dass es keinen Trend finden kann: „Insgesamt gibt es im globalen Maßstab weiterhin keine Hinweise und daher auch nur geringes Vertrauen hinsichtlich der Anzeichen eines Trends bzgl. Größenordnung und/oder Häufigkeit von Überschwemmungen“.

Glücklicherweise nannte das IPPR eine Quelle für seine absurde Behauptung, nämlich eine ,GMO-Analyse von EM-DAT 2018′. Paul Homewood, ein Privatmann, der regelmäßig Klima-Alarmisten beim Namen nennt, erklärte in einem Blog, was das bedeutete. EM-DAT ist eine Datenbasis von Katastrophen, welche als Quelle vollkommen wertlos ist für eine solche Behauptung, weil ausschließlich sehr geringe Katastrophen erfasst sind wie Verkehrsunfälle, und auch das nur für die letzten Jahre. Es gibt hier nicht die Spur eines Trends.

GMO ist eine große, in Boston ansässige Vermögensverwaltungs-Firma, dessen Gründer und Eigentümer Jeremy Grantham rein zufällig – welche Überraschung! – auch der Finanzier des IPPR ist.

Früher wären investigative Journalisten sofort angesichts derartiger haarsträubender Ereignisse zur Stelle gewesen: Ein Milliardär finanziert eine Interessengruppe, welche eine Presseerklärung veröffentlicht, in der der Milliardär als Quelle einer Super-Fake-Wissenschaft genannt wird, welche aber dennoch verstärkt wird, um der Interessengruppe zu helfen, noch mehr Geld locker zu machen. Aber das Budget von Journalisten ist zusammen gestrichen worden, und es ist viel einfacher, den Inhalt von Presseerklärungen nachzuplappern.

Einige Menschen sind willens, Übertreibungen und Fehler zu verzeihen, wenn diese nur der guten Sache dienen, wie etwa Bedenken hinsichtlich Plastikmüll oder Klimawandel. Das ist aber eine riskante Strategie, weil sie dazu führt, dass auch wirklichen Beweisen für irgendetwas nicht mehr geglaubt wird.

—————————–

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE




Sonnenflecken: Bonferroni vs. Prof. Labitzke

Der Kommentator schrieb:

Karin Labitzke hat diese Nuss geknackt. Sie hat als Erste die Korrelation nachgewiesen zwischen nicht einem, sondern gleich zwei stratosphärischen Parametern und Sonnenaktivität. Nach fast 40 Jahren sind ihre Erkenntnisse immer noch valide, und dank ihrer Arbeit wissen wir, dass die Stärke des Polarwirbels von der Sonnenaktivität abhängt, moduliert durch die Quasi-zweijährige Oszillation.

Nachdem ich die Daten von der Freien Universität Berlin erhalten hatte, konnte ich ihre Ergebnisse replizieren. Die von Prof. Labitzke et al. gefundene Beziehung zwischen Sonnenflecken und polaren stratosphärischen Temperaturen sieht so aus:

Abbildung: Sonnenflecken und stratosphärische Temperaturen über dem Nordpol. Die rote Linie zeigt den Trend.

Was also ist damit? Die Grundlage für die Antwort bildet mein voriger Beitrag „Sea Level and Effective N“ [auf Deutsch beim EIKE hier]. Darin diskutiere ich die Bonferroni-Korrektur und die langzeitliche Persistenz LTP.

Die Bonferroni-Korrektur wird gebraucht, wenn man mehr als eine Stelle und mehr als einmal nach etwas Ungewöhnlichem gesucht hat.

Beispiel: Nehmen wir an, wir würfeln mit drei Würfeln auf einmal und alle drei zeigen die Vier … etwas verdächtig, oder? Kann sogar schon reichen, um zu sagen, dass die Würfel gezinkt sind. Die Chance, drei mal die Vier mit einem einzigen Wurf mit drei Würfeln zu bekommen, beträgt 5 zu 1000.

Aber nehmen wir mal an, wir würfeln mit den drei Würfeln 100 mal. Wäre es seltsam oder ungewöhnlich, dann irgendwann drei mal die Vier zu würfeln? Nun … nein. Tatsächlich hat man bei so vielen Würfen eine Chance von etwa 40%, irgendwann auch drei mal die Vier zu erhalten.

Mit anderen Worten, falls man nur oft genug schaut, findet man alle Arten von Ungewöhnlichem, einfach durch Zufallsverteilung.

In der Klimawissenschaft ist es nun so, dass falls etwas als statistisch signifikant angesehen wird, die Wahrscheinlichkeit, dieses Ereignis durch Zufall allein zu finden, weniger als fünf pro einhundert betragen muss. Oder wie allgemein üblich ausgedrückt muss das, was der „p-Wert“ genannt wird, weniger als fünf Hundertstel betragen, üblicherweise geschrieben als „p-Wert < 0,05“.

ALLERDINGS – und es ist ein großes ,allerdings‘ – schaut man an mehr als nur einer Stelle, muss etwas, das signifikant ist, einen geringeren p-Wert haben. Die Bonferroni-Korrektur sagt, dass man den gewünschten p-Wert durch die Anzahl der Stellen dividieren muss, an denen man geschaut hat. Sucht man beispielsweise an zehn Stellen nach einem gegebenen Effekt, muss man den p-Wert von weniger als 0,05 durch zehn dividieren, um die Signifikanz des Effektes festzustellen, weil man an zehn Stellen geschaut hat. Das heißt, der p-Wert muss 0,005 oder weniger betragen, damit der Effekt statistisch signifikant ist.

Und nun … an wie vielen Stellen hat man geschaut? Um das zu beantworten, möchte ich noch etwas genauer beschreiben, was man eigentlich herausgefunden hat.

Die Graphik oben zeigt das Ergebnis … welches sich ergibt, falls man die Temperatur im Februar betrachtet in einer von sieben verschiedenen möglichen Schichten der Stratosphäre über dem Nordpol, verglichen mit den Sonnenflecken im Januar und um einen Monat verzögert über etwa die Hälfte der Zeit, in der die äquatorialen stratosphärischen Winde eher Ost- als Westwinde sind. Der p-Wert beträgt 0,002.

An wie vielen Stellen haben sie nach einer Relation geschaut? Nun, sie haben die Temperatur eines von zwölf Monaten in einer von sieben atmosphärischen Schichten gewählt mit einer von drei möglichen Sonnenflecken-Verzögerungen (0, 1 oder 2 Monate Verzögerung) und einen von zwei möglichen äquatorialen Windbedingungen.

Das ergibt 504 verschiedene Kombinationen. Selbst wenn wir die sieben Schichten außen vor lassen, ergeben sich immer noch 72 unterschiedliche Kombinationen. Mit einem sehr konservativen Ansatz finden wir also etwas mit einem p-Wert von 0,05 dividiert durch 72, was 0,0007 ergibt … und der von ihnen gefundene p-Wert ist etwa drei mal so hoch. Nicht signifikant.

Und das gilt noch nicht einmal für die räumliche Sub-Auswahl. Sie betrachten nur die Temperaturen über dem Nordpol, und das Gebiet nördlich des Polarkreises macht nur 4% der Erdoberfläche aus… was die Bonferroni-Korrektur sogar noch größer machen würde.

Das ist das erste Problem, eine sehr große Bonferroni-Korrektur. Das zweite Problem, welches ich in meinem oben verlinkten Beitrag diskutiert habe ist, dass wir die langzeitliche Persistenz LTP berücksichtigen müssen. Danach steigt der p-Wert dessen, was in der Abbildung gezeigt wird, auf 0,09 … was nicht statistisch signifikant ist, sogar ohne Berücksichtigung der Bonferroni-Korrektur.

Zusammenfassung:

Wie Labitzke et al. gefunden haben, sind die Februar-Temperaturen 22 km über dem Nordpol während einer Zeit stratosphärischer Ostwinde tatsächlich mit den Januar-Sonnenflecken und einem Monat Verzögerung korreliert.

Der nominelle p-Wert ohne Berücksichtigung von Bonferroni oder LTP beträgt 0,002, was signifikant zu sein scheint.

Wenn man jedoch diese beiden Faktoren berücksichtigt, beträgt der p-Wert 0,09, was nicht signifikant ist.

Und wenn man die Bonferroni-Korrektur heranzieht, um lediglich in eine Vielfalt von Stellen und Bedingungen zu schauen, muss der p-Wert unter etwa 0,0007 Grad liegen, um statistisch signifikant zu sein.

Die Berücksichtigung von entweder LTP oder der Bonferroni-Korrektur allein reicht aus, um festzustellen, dass die behauptete Korrelation NICHT statistisch signifikant ist … und wenn man beide Faktoren zusammen berücksichtigt, ergeben sich Resultate, die weit, weit entfernt sind von jedweder statistischen Signifikanz.

Unglücklicherweise ist diese Art schlampiger statistischer Berechnungen, wie sie in der Studie hervortritt, nur zu verbreitet in der Klimadebatte, und zwar auf beiden Seiten. …

ERGÄNZUNG: Wie eine Eingebung kam mir dann plötzlich der Gedanke „Moment … was?!“ Folgendes machte mich stutzig: falls man nach irgendwelchen Effekten mit Bezug zur Sonne im Februar sucht – wo würde man Derartiges am Wenigsten auf der Erde finden?

Richtig … es wäre das Nordpolargebiet, wo im Februar niemals die Sonne scheint … das macht es zwar nicht unmöglich, aber weniger wahrscheinlich.

Und schließlich, heißt das, dass die geringen Solarvariationen aufgrund von Sonnenflecken keine Auswirkung auf der Erde haben? Nein, keineswegs. Als Amateurfunker (H44WE) weiß ich zum Beispiel, dass Sonnenflecken die elektrischen Eigenschaften der Ionosphäre beeinflussen.

Was ich NICHT gefunden habe, ist irgendein Beweis dafür, dass die geringen Solarvariationen aufgrund von Sonnenflecken irgendeine Auswirkung auf der Erdoberfläche haben. Das heißt nicht, dass es sie nicht gibt … sondern nur, dass ich diese trotz extensiver Suche nicht gefunden habe.

Link: https://wattsupwiththat.com/2019/02/25/labitzke-meets-bonferroni/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: So gut Eschenbach auch arbeitet – aber der letzte Absatz scheint mir zu zeigen, dass er noch nie etwas vom Svensmark-Effekt gehört hat. Kann das wirklich sein?