AGW: Ein verwor­renes Netz strangu­liert seine Schöpfer und Befür­worter

Die Herausgeber des Journals Nature haben das Journal ins Leben gerufen. Jenes Journal veröffentlichte alles, was es in die Finger bekam, um die betrügerische Wissenschaft zu verbreiten, welche die Grundlage der nicht überprüften AGW-Hypothese ist. Allerdings war man auch dort den Regeln und Verfahren unterworfen, welche für akademische Forschung und Veröffentlichungen verpflichtend waren. Das ist kein Problem, falls das Thema globale Erwärmung ein rein wissenschaftliches Thema wäre, aber das war es ja niemals. Es war von Anfang an eine politische Inanspruchnahme der Wissenschaft für eine politische Agenda. Der ursprüngliche Artikel stammte von einer Gruppe unter Leitung von Ben Santer, also von jemandem mit einer langen Historie inmitten des AGW-Betrugs.

Ein Artikel unter der Überschrift „Evidence that humans are responsible for global warming hits ‘gold standard’ certainty level“ gibt darüber Aufschluss, enthält aber auch den Kommentar von Santer, dass „das Narrativ, dass Wissenschaftler die Ursache des Klimawandels nicht kennen, falsch ist. Wir kennen die Ursache“. Es ist eine Fortsetzung seiner Arbeit, den Betrug immer weiterzutreiben. Er stellte seinen Kommentar auf die Grundlage, dass wir den Grund für Klimawandel kennen, und zwar aufgrund der Arbeit des IPCC. Dort betrachtete man ausschließlich menschliche Ursachen, und es ist unmöglich, das zu bestimmen, solange man den natürlichen Klimawandel nebst dessen Ursachen nicht kennt und versteht. Falls das der Fall wäre, wären Vorhersagen immer korrekt. Falls das der Fall wäre, bräuchte man Santer und all die anderen Forscher sowie Millionen Dollar nicht mehr

Warum also stellt Santer eine solche Behauptung auf? Aus dem gleichen Grunde wie alle Aktionen im AGW-Betrug: um einen Ansturm zu treiben, erzeugt durch die Dringlichkeit, die politische Agenda zu übernehmen. Es ist der klassische „Der Himmel fällt uns auf den Kopf“-Alarmismus. Santers Arbeit folgt dem jüngsten „Notfall“-Report des IPCC, welcher bei der COP 24 in Polen vorgestellt worden ist und dem zufolge uns noch 12 Jahre bleiben.

Eines der ersten Beispiele dieser Schöpfung einer ungenauen Wissenschaft zur verstärkten Betonung der Dringlichkeit war die Verweildauer von CO2 in der Atmosphäre. In einer Reaktion auf die Behauptung der Erfordernis dringender Maßnahmen haben viele Forscher darauf hingewiesen, dass das Niveau und die Steigerung desselben nicht hinreichend sei, um dringende Maßnahmen zu ergreifen. Mit anderen Worten, man lasse sich nicht vorschnell zu etwas hinreißen. Das IPCC reagierte darauf mit der Behauptung, dass selbst wenn jede Erzeugung von CO2 aufhören würde, das Problem noch Jahrzehnte lang bestehen würde wegen der Verweildauer von 100 Jahren von CO2 in der Atmosphäre. Aus einer von Lawrence Solomon erstellten Graphik geht jedoch hervor, dass die Verweildauer in Wirklichkeit 4 bis 6 Jahre betragen würde (Abbildung 1).

Abbildung 1

Dieses Muster der Betonung der Dringlichkeit durchzieht die gesamte Historie des AGW-Betrugs.

Lord Walter Scott sagte: „What a tangled web we weave when first we practice to deceive“ [etwa: „Was für ein verworrenes Netz wir weben, wenn wir zum ersten Mal Betrug praktizieren“]. Ein anderer großer Autor baute auf diesem Gedanken auf, jedoch aus einem anderen Blickwinkel. Mark Twain sagte: „Falls man die Wahrheit sagt, braucht man sich nicht zu erinnern“. In eigenartiger Weise widersprechen sie oder erklären zumindest, wie sich der Betrug ausbreiten, bestehen bleiben und sein verheerendes Ziel erreichen konnte. Das Netz wurde inzwischen so verworren und die Verbindungen der Netzfäden so kompliziert, dass die Menschen nie mehr sehen können, was passiert. Dies gilt besonders, wenn es bei dem Betrug um ein geheimnisvolles Thema geht, von dem die meisten Menschen gar nichts verstehen.

All diese Beobachtungen sind auf den größten Betrug aller Zeiten anwendbar, nämlich der Behauptung, dass menschlich erzeugtes CO2 globale Erwärmung verursacht. Das Ganze ist den meisten Menschen selbst heute noch unbekannt, und das ist ein Garant für den Erfolg des Betrugs. Das wirkliche Ziel war es zu beweisen, dass Überbevölkerung in Kombination mit industrieller Entwicklung die Ressourcen auf nicht nachhaltige Weise ausschöpfen würde. Maurice Strong erklärte, dass das Problem für den Planeten die industrialisierten Nationen sind, und warf die Frage auf, ob es nicht in unserer Verantwortung liege, diese loszuwerden. Die zugrundeliegende Hypothese war, dass CO2, ein Abfallprodukt bei der Verbrennung fossiler Treibstoffe, globae Erwärmung verursacht und die Erde zerstört. Sie mussten diese Verteufelung des CO2 unbedingt aufrecht erhalten, koste es, was es wolle, und hier beginnt das Weben des verworrenen Netzes.

Zu Beginn kontrollierten das IPCC und angeschlossene Agenturen die zwei maßgeblichen Variablen, nämlich Temperatur und CO2. Phil Jones verlieh dem Ausmaß der Kontrolle über die Temperatur Ausdruck in einer Antwort auf eine Anfrage von Warwick Hughes, welche Stationen herangezogen und wie diese in seiner Graphik adjustiert worden waren. Am 21. Februar 2005 erhielt er folgende Antwort:

„Wir haben rund 25 Jahre in die Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn es doch Ihr Ziel ist herauszufinden, ob mit den Daten etwas nicht stimmt?“

Die Kontrolle über die globalen Temperaturdaten setzte sich fort bis zum Eintreffen der ersten Satellitendaten im Jahre 1978. Trotz aller Limitierungen ergab sich damit eine viel vollständigere Abdeckung, nämlich etwa 97% bis 98%. Dies steht im Vergleich zu den etwa 15% Abdeckung von Oberflächen-Daten.

Unabhängig von der Abdeckung mussten die Oberflächen-Daten zu den Satellitendaten passen, wie Abbildung 2 zeigt:

Abbildung 2

Dies verhinderte jedoch nur die Veränderung der letzten 41 Jahre der Aufzeichnung, nicht jedoch die Veränderung historischer Aufzeichnungen. Der Artikel von Dr. Marohasy ist lediglich eine weitere Illustration des Musters. Tony Heller führte die vollständigste Analyse der zugefügten Adjustierungen durch. Jene, welche die Veränderungen vorgenommen haben behaupten, wie sie es auch auf die Herausforderung von Marohasy getan haben, dass die Korrekturen notwendig und Instrumentenfehlern, Aufstellungsorten und Änderungen der Umgebung geschuldet waren wie etwa dem UHI-Effekt. Das Problem ist jedoch, dass diese Änderungen ausnahmslos nur in eine Richtung gingen, nämlich die historischen Aufzeichnungen niedriger darzustellen. Dies verändert den zeitlichen Gradienten der Temperaturänderung dahingehend, dass die Stärke und die Rate der Erwärmung verstärkt wird. Eines der ersten Beispiele derartiger Adjustierungen ist die Aufzeichnung von Auckland in Neuseeland (Abbildung 3). Man beachte die Überlappung während der letzten Jahrzehnte:

Abbildung 3

Das IPCC übte die Kontrolle auf die CO2-Aufzeichnungen von Anfang an aus, und das ist auch heute noch so. Sie ziehen die Aufzeichnung vom Mauna Loa heran sowie Daten von anderen Messpunkten mit ähnlicher Instrumentierung und Verfahren als Grundlage für ihre Behauptungen. Charles Keeling, einer der frühesten Befürworter von AGW, wurde von Roger Revelle entdeckt und an das Scripps-Institut berufen. Jawohl, das ist das gleiche Heiligtum, welches Al Gore in seinem Film An Inconvenient Truth glorifiziert hat. Keeling etablierte eine CO2-Messstation, welcher der Standard für das IPCC ist. Das Problem ist, dass der Mauna Loa ein Vulkan aus ozeanischer Kruste ist, dass die Lava nicht so zähflüssig und gasreicher ist als bei kontinentalen Vulkanen wie etwa dem Ätna. Eine Dokumentation mit dem Titel Future Frontiers: Mission Galapagos erinnerte mich an Studien vom Ätna vor Jahren, welche zeigten, wie sehr CO2 aus dem Boden stieg – Hunderte von Kilometern rund um den Krater. Die Dokumentation ist zwar der übliche „Die Menschen zerstören den Planeten“-Unsinn. Aber an einer Stelle tauchen sie in das Wasser rund um eine massive Vulkaninsel und waren erstaunt, wie deutlich sichtbar CO2 von überall aus dem Ozeangrund drang.

Charles Keeling ließ sich seine Instrumente und die angewendeten Verfahren patentieren. Sein Sohn Ralph setzte seine Arbeit am Scripps Institute fort und ist Mitglied im IPCC. Sein jüngster Auftritt in den Medien involvierte eine alarmistische Studie mit einem kapitalen Fehler – einer Überschätzung um 60%. Abbildung 4 zeigt ihn mit der PR-Meisterin des IPCC-Narrativs Naomi Oreskes:

Abbildung 4

Abbildung 5 zeigt das gegenwärtige CO2-Niveau am Mauna Loa. Es zeigt sich eine stetige Zunahme seit 1958 mit der jahreszeitlichen Variation:

Abbildung 5

Diese Zunahme erfolgt kontinuierlich 41 Jahre lang, was bemerkenswert ist, wenn man längerfristigere Aufzeichnungen betrachtet. Zum Beispiel zeigt der Eisbohrkern aus der Antarktis eine bemerkenswerte Variabilität (Abbildung 6):

Abbildung 6

Die Eisbohrkern-Aufzeichnung stammt aus Bläschen, deren Entstehung mindestens 70 Jahre dauert. Dann wird ein geglättetes 70-Jahre-Mittel angebracht. Die Kombination entfernt den größten Teil der Variabilität, und das eliminiert jede Chance, das Ergebnis zu verstehen und einzuordnen.

Abbildung 7 zeigt das Ausmaß der Glättung. Sie enthält einen Vergleich über 2000 Jahre Messungen von CO2 mittels zwei unterschiedlichen Messverfahren. Man erkennt den Unterschied in der Variabilität, aber auch den Unterschied des Gesamtniveaus in der Atmosphäre, der zwischen etwa 260 und 320 ppm schwankt:

Abbildung 7

Allerdings gibt es auch eine Aufzeichnung aus jüngerer Zeit, welche ähnliche Differenzen zeigt hinsichtlich Variation und Gesamtmenge (Abbildung 8). Daraus geht klar hervor, dass das IPCC die Aufzeichnung so geglättet hat, dass es die CO2-Aufzeichnung kontrolliert. Die gepunktete Linie zeigt die Eisbohrkern-Aufzeichnung aus der Antarktis und wie die Mauna-Loa-Kurve erzeugt worden war, um den geglätteten, aber ungenauen Verlauf fortzusetzen. Zbigniew Jaworowski, ein Atmosphären-Chemiker und Eisbohrkern-Spezialist erklärt, was mit den CO2-Messungen in Eisbohrkernen nicht stimmt. Sein entsprechender Artikel ist betitelt mit „CO2: The Greatest Scientific Scandal of Our Time“. Natürlich griff man ihn an, aber dennoch hielten die UN seine Qualifikationen und Fähigkeiten für so gut, dass sie ihn zum Leiter der Untersuchungsgruppe beriefen, welche die Tschernobyl-Katastrophe untersuchen sollte.

Überlagert ist in der Abbildung die Graphik von über 90.000 Atmosphären-Messungen von CO2, welche im Jahre 1812 begonnen hatten. Die Veröffentlichung des Sauerstoffniveaus in der Atmosphäre löste die Sammlung von CO2-Daten aus. Die Wissenschaft wollte den prozentualen Anteil aller Gase in der Atmosphäre erfassen. Man war nicht interessiert an globaler Erwärmung oder irgendwelcher anderen Auswirkungen jener Gase – man wollte einfach genaue Daten haben, was das IPCC niemals vorhatte.

Abbildung 8

[Anmerkung von Blogbetreiber Anthony Watts: Ich ordne der Arbeit von Ernst Georg Beck in Abbildung 8 keine Genauigkeit zu, weil das chemische Verfahren fehleranfällig ist und die Messpunkte der Datengewinnung (zumeist im Bodenniveau von Städten) hoch variable CO2-Gehalte aufweisen. Man beachte die hohe Variabilität der Daten. – Anthony Watts.

Bemerkung des Übersetzers dazu: Diese Graphik von E. G. Beck hat er selbst später als fehlerhaft im Sinne von zu lokal beurteilt. Anm. d. Übers.]

Man wusste um diese Aufzeichnungen schon vor Jahrzehnten. Es war der Eisenbahn-Ingenieur Guy Callendar, der diese Aufzeichnung in Zusammenarbeit mit bekannten Namen der wissenschaftlichen Gemeinschaft vorgestellt hatte. Ernst-Georg Beck schrieb dazu:

„Die moderne Treibhausgas-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie später vom IPCC popularisiert“.

Callendar wählte willkürlich einen einheitlichen Datensatz aus, um zu behaupten, dass das mittlere Niveau bei 270 ppm lag. Er änderte die Steigung des Graphen von einer Zunahme in eine Abnahme (Abbildung 9). Jaworowski kreiste die von ihm gewählten Daten ein, aber ich habe die Trendlinien für alle Daten (rot) und Callendars Datenauswahl (blau) hinzugefügt:

Abbildung 9

Tom Wigley, Direktor der Climatic Research Unit (CRU) und einer der Väter von AGW, führte die Aufzeichnung 1983 in die Klima-Gemeinschaft ein, und zwar mit einem Beitrag in der Zeitschrift Climate Change mit dem Titel „The Pre-Industrial Carbon Dioxide Level“. Er behauptete auch, dass die Aufzeichnung ein vorindustrielles CO2-Niveau von 270 ppm ergeben. Man betrachte die Daten!

Das IPCC und dessen Unterstützer etablierten das vorindustrielle CO2-Niveau mittels Rosinenpickerei und Manipulation. Sie halten weiterhin den Finger auf die Angaben zum atmosphärischen Niveau mittels Kontrolle der Mauna Loa-Aufzeichnung, und sie kontrollieren die Daten der jährlichen menschlichen Erzeugung. Sie erklären das so:

Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) zu betreiben, welches diese Verfahren entwickeln soll. Die Parteien im UNFCCC sind überein gekommen, die IPCC-Leitlinien anzuwenden bei der Berichterstattung vor der Konvention.

Wie entwickelt das IPCC seine inventarisierten Leitlinien? Ernannte Experten aus der ganzen Welt entwerfen die Berichte unter Anwendung der IPCC-Verfahren, die dann zweimal extensiv begutachtet werden, bevor sie vom IPCC genehmigt werden. Dieses Verfahren stellt sicher, dass die größtmögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten, sie behalten sich die letztendliche Entscheidung vor, welche Daten für ihre Berichte und als Input für ihre Computermodelle verwendet werden.

Das hat alles lange Zeit funktioniert. Allerdings, wie es mit allen Betrügereien der Fall ist, enthüllt selbst das verworrenste Netz irgendwann seine wahre Natur. Sie fahren fort, dass atmosphärische CO2-Niveau zunehmen zu lassen und dieses dann der Welt vorzuführen als bestätigt durch die Messungen am Mauna Loa. Allerdings ist ihnen durch die Ankunft von Satellitenmessungen die Kontrolle über die jüngsten Temperaturdaten entglitten. Sie können die CO2-Daten jetzt nicht mehr niedriger machen, weil dies ihren gesamten Betrug offensichtlich machen würde, und sie sind dazu verdammt, alles, was noch übrig ist von ihrem Betrug und ihren Manipulationen zu verewigen. Alles, was ihnen blieb, ist u. A. die Abwärts-Korrektur historischer Aufzeichnungen, die Bezeichnung globale Erwärmung in Klimawandel zu ändern und immer schärfere Bedrohungs-Szenarien zu erzeugen wie etwa die genannten 12 Jahre bis zum von Santer prophezeiten sicheren Untergang.*

[*Ross McKittrick hat die entsprechende Studie von Santer in einem eigenen Beitrag widerlegt. Dieser folgt demnächst hier beim EIKE in deutscher Übersetzung. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2019/03/03/anthropogenic-global-warming-agw-a-tangled-web-strangling-its-creators-and-proponents/

Übersetzt von Chris Frey EIKE




Winter 2018/19 – wie gut waren die Prognosen?

Abbildung 1: Keine winterliche Erwärmung in Deutschland seit 1987/88 – trotz deutlich steigender CO2-Konzentrationen.

Abbildung 2: Während auf dem Höhepunkt der Luftverschmutzung (etwa 1950 bis 1985) nicht selten an einem guten Drittel aller Wintertage Nebel auftrat, ist er seit zwei Jahrzehnten mit fast stets weniger als 20 Tagen selten – im abgelaufenen Winter waren es nur 6 Nebeltage. Das deutet auf eine stark verbesserte Luftqualität hin.

Abbildung 3: Winterliche Niederschlagszunahme in Deutschland – aber nur bis etwa 1995 (siehe Trendlinie des „gleitenden“ Mittelwertes). Der abgelaufene Winter 2018/19 überschritt mit knapp 216mm nicht einmal die einfache Standardabweichung nach oben.

Nicht überall in den gemäßigten Breiten der Nordhalbkugel verlief dieser Winter 2018/19 so gelinde, wie in Mitteleuropa. Nordamerika bescherte er mehrere, harsche Kältewellen. An der von Wärmeinsel-Effekten wenig beeinflussten Station Dale Enterprise zeigt sich, anders als in Deutschland, auch langfristig keine Winter-Erwärmung:

Abbildung 4: An der westlich der Bundeshauptstadt Washington D.C. gelegenen, ländlichen Station Dale Enterprise erwärmte sich der Winter auch langfristig nicht.

Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen

UKMO (Großbritannien): Vom 11.11.2018 Winter (D, J, F) mit gering erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Die aktuellen Karten jederzeit hier.

Bewertung: Nur sehr grob zutreffend, besonders in Norddeutschland wurde die Wahrscheinlichkeit für „zu mild“ unterschätzt, dazu sehr unkonkret, Note 5

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2018: Dezember normal, Januar sehr kalt, Februar etwas zu mild. Winter insgesamt etwa normal. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland:

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1990 bis 2017 (Stand Nov. 2018):

NASA (US-Weltraumbehörde) Karten vom November 2018: Alle drei Wintermonate und Winter insgesamt zu mild:

Bewertung: Dezember und Februar deutlich unterschätzt, jeweils Note 6. Januar leicht überschätzt, besonders für Süddeutschland, Note 3 bis 4. Da der Gesamtcharakter des Winters (zu mild) grob richtig geschätzt wurde, Gesamtnote 4.

Quelle). Neben den Aussagen für Berlin werden auch gesamtdeutsche getroffen, freilich ohne Bezugswert; Stand Nov. 2018:

Stefan Kämpfe (verfasst am 25.11. und veröffentlicht bei EIKE am 28.11.2018):

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 5% Wirbelsturm-Aktivität und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 04.03.2019




Hurrikane und Klimawandel 3: Übertritte auf das Festland

Auf das Festland übertretende Hurrikane

Die globale Hurrikan-Statistik weist eine einfache Relation auf zu globaler und regionaler Klima-Variabilität und -Änderung. Allerdings gilt auf das Festland übertretenden Hurrikanen wegen deren sozio-ökonomischen Auswirkungen besonderes Interesse.

Wirtschaftliche Verluste durch auf das Festland übergreifende Hurrikane haben sich während der letzten Jahrzehnte erhöht, sowohl in den USA als auch global. Will man dabei ein Signal einer anthropogenen globalen Erwärmung ausmachen, erfordert dies die Identifikation eines Trends, welcher dieser Erwärmung zugeordnet werden kann, und zwar bei jedem der Faktoren, die zu den wirtschaftlichen Schäden beitragen. Zu diesen Faktoren gehören: Häufigkeit, Intensität, horizontale Ausdehnung, Verlagerungsgeschwindigkeit vor der Küste, Tornados und Regenmenge.

Kontinentale USA

Klotzbach et al. (2018) haben eine umfassende Evaluierung der Daten bzgl. auf das Festland übertretender Hurrikane durchgeführt, und zwar seit dem Jahr 1900.

Abbildung 5.1 (oben) zeigt die Zeitreihe der auf das Festland der USA übertretenden Hurrikane im Zeitraum von 1900 bis 2017. Während die Jahre 1986, 2004 und 2005 diesbezüglich Spitzenwerte aufweisen, zeigt sich seit 1900 eine insgesamt negative Trendlinie, wenngleich diese auch nicht statistisch signifikant ist. Abbildung 5.1 (unten) zeigt die gleiche Zeitreihe, aber für starke Hurrikane der Kategorie 3 bis 5. Den Spitzenwert in dieser Hinsicht hält das Jahr 2005 mit 4 derartigen Hurrikanen. Allerdings trat im Zeitraum 2006 bis 2016 kein einziger dieser starken Hurrikane auf das US-Festland über, was den längsten derartigen Zeitraum seit Beginn der Aufzeichnungen im Jahre 1900 markiert.

Abbildung 5.1: Zeitreihen von 1900 bis 2017 für auf das US-Festland tretende Hurrikane (oben) und starke Hurrikane (unten). Die gepunkteten Linien repräsentieren die jeweiligen Trendlinien über diesen Zeitraum, sind aber beide statistisch nicht signifikant. Nach Klotzbach et al. (2018)

Villarini et al. (2012) legen eine Auflistung der Festlands-Übertritte bis zurück zum Jahre 1878 vor (Abbildung 5.2). Während vielleicht einige Übertritte in den ersten Jahrzehnten nicht erfasst worden sein können, weil sie in dünn besiedelten Gebieten an der Golfküste stattfanden, ist es bemerkenswert, dass das Jahr mit der höchsten Anzahl von Übertritten in der gesamten Reihe das Jahr 1886 ist.

Abbildung 5.2: Zeitreihe der Anzahl auf das US-Festland übertretender Hurrikane im Zeitraum 1878 bis 2008. Nach Villarini et al. (2012).

Eine energetische Perspektive dieser Art von Hurrikanen zeigen Truchelut und Staehling (2017). Abbildung 5.3 zeigt die Zeitreihe der Akkumulierten Zyklon-Energie (ACE) dieser auf das Festland übertretenden Hurrikane, bezeichnet hier als Integrated Storm Activity Annually Over the Continental U.S. (ISAAC). Der Zeitraum 2006 bis 2016 ohne derartige Ereignisse hängt zusammen mit einem ACE-Wert, der unter 60% des Mittelwertes über den Zeitraum 1900 bis 2017 beträgt.

Abbildung 5.3: Zeitreihe von ISAAC 1900 bis 2017, mit einem bei zehn Jahren zentrierten mittleren Wert (rot). Nach Truchelut und Staehling (2017).

[Es folgen viele weitere Graphiken und Zahlen, die das oben Gesagte unterstreichen. Anm. d. Übers.]

Karibik

Klotzbach (2011) summiert auch die Hurrikane in der Karibik (Abbildung 5.8). Man erkennt keinen signifikanten langzeitlichen Trend. Der primäre Treiber der Variabilität in der Karibik ist die ENSO, wobei es bei La Nina-Bedingungen viel mehr Aktivität gibt als bei El Nino-Verhältnissen. Im multidekadischen Zeitmaßstab spielt die AMO eine signifikante Rolle bei der Hurrikan-Aktivität in der Karibik. Untersucht man ENSO und AMO kombiniert, findet sich sogar eine noch stärkere Relation. Beispiel: während der 10 stärksten La Nina-Jahre in einer positiven (warmen) AMO-Phase waren dort 29 Hurrikane aufgetreten, bei umgekehrten Verhältnissen beider Zirkulationssysteme waren es lediglich 2 Hurrikane.

Abbildung 5.8: Hurrikane in der Karibik im Zeitraum 1900 bis 2018. Aktualisiert nach Klotzbach (2011).

Chenoweth und Divine (2008) zeigen eine längerfristige Perspektive von Hurrikanen in der Karibik, indem sie auf der Grundlage eines historischen Dokumentes eine 318 Jahre lange Zeitreihe unter Einschluss der Kleinen Antillen im Zeitraum 1690 bis 2007 untersuchten. Zeitungsmeldungen, Logbuch-Eintragungen von Schiffen, meteorologische Journale und andere Quellen mit Dokumenten wurden herangezogen, um diesen Datensatz zu erstellen. … Die Anzahl tropischer Zyklone zeigt keine signifikanten Trends (Abbildung 5.9). Die meisten Hurrikane waren zu Beginn des 19. Jahrhunderts aufgetreten. Der Zeitraum 1968 bis 1977 war möglicherweise der inaktivste Zeitraum seit der Besiedlung der Inseln in den zwanziger und dreißiger Jahren des 17. Jahrhunderts.

Abbildung 5.9: Anzahl von Hurrikanen (oben), Tropical Storms (Mitte) und sowohl Hurrikane als auch Tropical Storms (unten) von 1690 bis 2007. Die rote Linie markiert ein gleitendes Mittel über 21 Jahre.

Global

Weinkle et al. (2012) fassen die Schwierigkeiten zusammen bei der Konstruktion eines homogenen Datensatzes bzgl. auf das Festland übertretender Hurrikane. Die Unsicherheit bei der Ortung und der Intensität ist eine Funktion des sich entwickelnden Beobachtungs-Netzwerkes über das gesamte vorige Jahrhundert. Das reicht von Schiffsbeobachtungen über Flugzeugmessungen bis hin zur Fernerkundung mittels Satelliten. Weinkle et al. (2012) erfassten alle Festlands-Übertritte im Nordatlantik, Nordost- und West-Pazifik, dem nördlichen Indischen Ozean und der Südhemisphäre. Sie nutzten dabei das International Best Track Archive for Climate Stewardship (IBTrACS).

Die globale Häufigkeit auf das Festland übertretender Hurrikane zeigt global eine beachtliche Variabilität von Jahr zu Jahr, aber keinen signifikanten linearen Trend (Abbildung 5.10). Außerdem gibt es bei Betrachtung jedes Ozeanbeckens individuell keinen signifikanten Trend außer auf der Südhemisphäre. Dies kommt nicht unerwartet angesichts der bekannten multidekadischen Signale der Aktivität tropischer Zyklone, was durch die kurze historische Reihe nicht adäquat aufgelöst werden kann.

Abbildung 5.10: Häufigkeit globaler Hurrikane im Zeitraum 1970 bis 2018. Aktualisiert von Weinkle et al. (2012)

Wasser – Regenmenge und Sturmfluten

Historisch waren die verhängnisvollsten Auswirkungen von Hurrikanen immer verursacht durch Sturmfluten und Überschwemmungen landeinwärts (Blake et al. 2011). In diesem Abschnitt wird beschrieben, ob es in dieser Hinsicht eine Zunahme gegeben hat.

Regenmenge

Es wurde geschätzt, dass im Mittel tropische Zyklone von mindestens der Stärke einer Tropical Depression etwa ein Viertel zur jährlichen Regenmenge im Südosten der USA beitragen. Soule et al. (2012) zeigten, dass tropische Zyklone in den südöstlichen USA häufig Dürren beendeten. In der Mehrzahl der Landkreise in Florida, Georgia, South Carolina und North Carolina sind mindestens 20% der dortigen Dürren durch einen tropischen Zyklon beendet worden, und zwar im Zeitraum 1950 bis 2008.

Hurrikane sind auch ursächlich für etwa 20% der gemessenen monatlichen Regenmenge von Juni bis November im Getreide-Gürtel der östlichen USA [U.S. Corn Belt]. Dieser umfasst die US-Bundesstaaten Wisconsin, Michigan, Illinois, Indiana, Ohio und Kentucky (Kellner et al. 2016).

Während Überschwemmungen landeinwärts typischerweise in einem auf das Festland übertretenden Hurrikan auftreten, führen verschiedene Faktoren zu exzessiven Regenmengen. Geringe Verlagerungsgeschwindigkeit der Hurrikane kann lokal zu sehr hohen Regenmengen führen. Berge/Gebirge in Küstennähe können durch erzwungene Hebung den Regen noch verstärken. Tröge der Höhenströmung und Kaltfronten können ebenfalls zu exzessiven Regenmengen führen. Größere tropische Zyklone haben auch einen größeren Regen-Fußabdruck. Hoher Feuchtigkeitsgehalt in der Luft trägt ebenfalls zu exzessiven Regenmengen bei. Verlagert sich ein Hurrikan weiter landeinwärts und wird dabei vom Nachschub von Wärme und Feuchtigkeit (aus dem Ozean) abgeschnitten, verringert sich die Regenmenge rasch, es sei denn, es kommt noch erzwungene Hebung im Luv von Gebirgen dazu.

Roth (2017) legt eine Liste mit Hurrikanen vor, welche die höchsten Regenmengen in jedem Land/jeder Insel im Nordatlantik mit sich brachten (Tabelle 5.2). In der Tabelle nicht enthalten ist die Regenmenge des Hurrikans Harvey mit 1539 mm Regen. Er war erst nach Erstellen der Tabelle aufgetreten. Man erkennt, dass die Hurrikane Mitch (1998), Wilma (2005), Flora (1963) und diejenigen im November 2009 jeweils Regenmengen lieferten, die über diejenige von Harvey hinausgingen.

Tabelle 5.2: Liste mit Hurrikanen, welche die größten Regenmengen im Nordatlantik mit sich brachten. Quelle: Roth (2017):

Sturmfluten

Die Magnitude einer Sturmflut ist abhängig von der Intensität, der Verlagerung, der Größe (= des Radius‘ maximaler Winde), dem Auftreff-Winkel an der Küste, dem Kerndruck, dem Zeitpunkt der jeweiligen Gezeiten und den Formen und Charakteristika küstennaher Landstriche.

Der Meeresspiegel beeinflusst ebenfalls die Höhe von Sturmfluten. Seit dem Jahr 1900 ist der Meeresspiegel global um 18 bis 20 cm gestiegen. Abhängig von der lokalen Topographie kann eine geringe Änderung der Höhe des Meeresspiegels zu einer signifikanten Zunahme der Ausbreitung von Sturmfluten landeinwärts führen.

Die höchste dokumentierte Sturmflut in den USA war im Zuge des Hurrikans Katrina aufgetreten, als an dem Messpunkt Pass Christian eine solche mit einer Höhe von ca. 8,5 m gemessen worden ist.

Tabelle 5.3: Hurrikan-Sturmfluten seit dem Jahr 1900 (Quelle):

Durch Hurrikane ausgelöste Tornados

Wie von Belanger et al. (2009) zusammengestellt, lösen die meisten Hurrikane auch Tornados aus. Hurrikane, die vom Golf von Mexiko aus auf das US-Festland übertreten, bringen mehr Tornadoereignisse mit sich als solche, die vom Atlantik her aufziehen. Die meisten dieser Tornados sind schwach, aber einige wenige verursachten auch schwere Schäden.

Schäden und Verluste

Von der MunichRe (2018) zusammengestellte Daten zeigen, dass die wirtschaftlichen Schäden weltweit durch auf das Festland übertretende tropische Zyklone während der letzten Jahrzehnte zugenommen haben. Historisch waren die größten Schäden durch Wind und Sturmflut aufgetreten. Jüngst gab es jedoch eine Reihe von Stürmen, bei denen die größten Schäden durch starken Regen verursacht worden waren, besonders bei sich nur wenig verlagernden Stürmen (z. B. Hurrikan Harvey 2017 und Hurrikan Florence 2018).

Während es aus Beobachtungen keinerlei Hinweise auf eine zunehmende Intensität derartiger Hurrikane gibt, weder im Atlantik noch global, gibt es klare Hinweise auf gestiegene Schäden durch diese Hurrikane. Ist diese Zunahme allein zunehmender Bevölkerung und Wohlstand in anfälligen Küstengebieten geschuldet, oder gibt es irgendein Element bzgl. Klimawandel, welches zu der Zunahme der Schäden beiträgt?

Um diese Frage zu beantworten, bedarf es einer korrekten Erkennung der relevanten Variablen, welche die Schäden treiben. Zusätzlich zu Häufigkeit und Intensität von auf das Festland übertretenden Hurrikanen tragen noch folgende Variablen zu den Schäden bei: horizontale Ausdehnung der Hurrikane, Verlagerungsgeschwindigkeit nahe der Küste, Sturmflut und Regenmenge.

Klotzbach et al. (2018) sowie Weinkle et al. (2018) haben sich der Frage gewidmet, ob die Schäden auf dem US-Festland inflationsbereinigt seit 1900 signifikant zugenommen haben. Beide Studien zeigen, dass seit dem Jahr 1900 weder die Häufigkeit noch die Intensität dieser Hurrikane signifikante Trends zeigen, einschließlich der verheerenden Saison 2017. Wachstum der Bevölkerung in küstennahen Gebieten und regionaler Wohlstand sind die überwältigend stärksten Faktoren bei der Zunahme von Schäden durch Hurrikane. Dieser Trend führte zu einer immer stärkeren Verwundbarkeit küstennahen Eigentums an der Ost- und der Golfküste.

Link: https://judithcurry.com/2019/02/27/hurricanes-climate-change-landfalls/#more-24758

Part II: https://judithcurry.com/2019/02/20/24737/#more-24737

Part I: https://judithcurry.com/2019/02/17/hurricanes-climate-change-detection/#more-24723

Übersetzt von Chris Frey EIKE




Hurrikane und Klimawandel 2: Zuordnung

Erkennung und Zuordnung von Änderungen der Hurrikan-Aktivität

Der gängigen Argumentation zufolge sollte die Hurrikan-Aktivität und besonders deren Intensität zunehmen, wenn sich die Ozeane im Zuge des Klimawandels erwärmen. Allerdings wird in jedem der im 1. Teil erwähnten Zustandsberichte der Zuordnung von Änderungen aus jüngerer Zeit der Hurrikan-Aktivität zur vom Menschen verursachten globalen Erwärmung nur geringes Vertrauen entgegen gebracht (low confidence).

Welche wissenschaftliche Grundlage gibt es, um die Frage zu beantworten, ob es die vom Menschen verursachte globale Erwärmung ist, die eine Änderung der Hurrikan-Aktivität nach sich zieht, oder ob es irgendetwas anderes ist?

Die Erkennung und Zuordnung anthropogener Signale im Klimasystem ist ein neues und rapide sich ausweitendes Feld. Will man eine beobachtete Änderung oder auch nur ein Teil derselben einem kausalen Faktor zuordnen (wie etwa einem anthropogenen Klima-Antrieb), so muss man normalerweise diese Änderung erst einmal erkennen. Eine erkannte Änderung ist eine solche, bei der es aufgrund von Beobachtungen sehr unwahrscheinlich ist (weniger als 10% Wahrscheinlichkeit), dass sie allein der internen natürlichen Variabilität geschuldet ist. Eine Zuordnung einer Änderung zu irgendetwas impliziert, dass der relative Beitrag kausaler Faktoren evaluiert worden ist, zusammen mit statistischem Vertrauen.

Es gibt einige Umstände, unter denen eine Zuordnung ohne Erkennung angemessen sein kann, obwohl eine Zuordnung immer nur geringes Vertrauen enthält, wenn sie nicht durch eine beobachtete Änderung gestützt wird. Zum Beispiel muss eine Trendanalyse für ein extrem seltenes Ereignis nicht bedeutsam sein. Schließt man eine Zuordnung ohne Erkennung in die Analyse von Auswirkungen des Klimawandels mit ein, reduziert man die Chance einer falschen negativen Zuordnung – und folgert fälschlich, dass der Klimawandel keine Auswirkungen auf gegebene Extrem-Ereignisse hat. Allerdings besteht bei einer Zuordnung ohne vorherige Erkennung das Risiko falscher positiver Zuordnungen – wobei man fälschlich folgert, dass der anthropogene Klimawandel einen Einfluss darauf hat, obwohl das in Wirklichkeit nicht der Fall ist.

Das konzeptionelle Modell der meisten Analysen bzgl. Erkennung und Zuordnung enthält vier Elemente:

Zeitreihen relevanter Beobachtungen

die geschätzte Zeitreihe relevanter Klima-Antriebe (wie etwa Treibhausgas-Konzentrationen oder vulkanische Aktivität)

eine Abschätzung der Auswirkung von Klima-Antrieben auf die interessierenden Klima-Variablen

eine Abschätzung der internen Variabilität der interessierenden Klima-Variablen – z. B. natürliche Variationen von Ozean, Atmosphäre, Festland, Cryosphäre usw. beim Fehlen externer Antriebe

Paläoklimatologische Antriebe aus geologischen Aufzeichnungen sind nützlich für Studien bzgl. Erkennung, bieten sie doch eine Grundlage dafür, dass man die gegenwärtige Variabilität mit derjenigen im vorigen Jahrhundert oder so vergleichen kann. Zeit des Entstehens ist der Zeitrahmen, in welchem Klimawandel-Signale in verschiedenen Regionen erkennbar werden – ein wichtiges Thema, kann doch die natürliche Variabilität erzwungene Klimasignale über Jahrzehnte verschleiern, vor allem in kleinräumigeren Gebieten.

Erkennung

Es gibt drei Hauptschwierigkeiten bei der Erkennung von Signalen der Änderung der Hurrikan-Aktivität:

sehr lange Zeitmaßstäbe in den Ozeanen, was zu einer substantiellen Verzögerung zwischen externen Antrieben und der Auswirkung auf den Klimawandel nebst dessen Auswirkungen führt

natürliche Variabilität mit hohen Amplituden in den Ozeanbecken in Zeitmaßstäben von Jahr zu Jahr und von Jahrtausend zu Jahrtausend.

starke regionale Variationen, sowohl innerhalb der Ozeane als auch der Hurrikan-Aktivität

Auf der Grundlage der zuvor zusammengefassten Beobachtungen kann man folgende Zusammenfassung hinsichtlich der Änderungen globaler oder regionaler Hurrikan-Aktivitäten geben:

globale Hurrikan-Aktivität: kleine, aber signifikante Trends abnehmender Hurrikan-Häufigkeit und zunehmender Stärke von Hurrikanen

globaler Anteil in Prozent von Hurrikanen der Stärke 4/5: zunehmender Trend seit 1970, obwohl die Qualität der Daten vor dem Jahr 1988 umstritten ist

Rate der Verstärkung: Hinweise auf eine globale Zunahme trotz nicht übereinstimmender Datensätze

Atlantische Hurrikane: zunehmender Trend seit 1970, jedoch wurde eine vergleichbare Aktivität auch im Zeitraum 1950 bis 1960 beobachtet.

Hurrikane in anderen Gebieten: Aufzeichnungen von Beobachtungen sind zu kurz, aber es gibt keinerlei Hinweise auf Trends, die über die natürliche Variabilität hinausgehen.

Die Grundlage von Beobachtungsdaten (seit 1970 oder sogar seit 1850) ist zu kurz, um die volle Auswirkung der natürlichen internen Variabilität abzuschätzen, welche mit großräumigen Meeresströmen assoziiert ist. Paläoklimatologische Analysen zeigen aber, dass die derzeitige Hurrikan-Aktivität nicht ungewöhnlich ist.

Quellen von Variabilität und Änderung

Erkennt man keinerlei signifikante Änderungen der globalen oder regionalen Hurrikan-Aktivität, müssen Zuordnungs-Verfahren ohne Erkennungen angewendet werden. Diese Verfahren erfordern die Abschätzung der Beiträge externer Antriebe (z. B. CO2, Vulkane, solar) zur Klima-Variabilität/-Änderung plus der natürlichen internen Variabilität im Zusammenhang mit den großen Meeresströmen. In einem Zuordnungs-Verfahren in zwei Schritten sind Änderungen von Zwischen-Variablen (Wassertemperatur der Ozeane, Windscherung, Luftfeuchtigkeit) nützlich bei der Identifikation physikalischer Vorgänge, wobei eine Erwärmung zu einer Änderung der Hurrikan-Aktivität beitragen kann.

Der Schwerpunkt in diesem Abschnitt liegt auf der Identifikation von Quellen der Änderung und der Variabilität während des Zeitraumes seit 1850, also seit historische Daten verfügbar sind.

Häufig wird hinsichtlich einer Zunahme der Hurrikan-Aktivität argumentiert, dass sie einher geht mit einem Anstieg der globalen Wassertemperatur. Abbildung 4.1 zeigt die Variabilität global gemittelter Wassertemperaturen (SST) seit 1850 zusammen mit externen Antrieben durch CO2 aus Vulkanen und der Sonne.

Man erkennt in Abbildung 4.1a, dass die Wassertemperaturen im Jahre 1910 global ein Minimum durchlaufen haben, um danach bis etwa 1945 rapide zu steigen. Die erhöhte atlantische Hurrikan-Aktivität von den dreißiger bis zu den fünfziger Jahren war aufgetreten, als die globalen Wassertemperaturen etwa 0,8°C niedriger lagen als heute. Dieser Erwärmungsphase folgte eine Periode mit leichter Abkühlung bis etwa zum Jahre 1976, nach welchem die Temperaturen wieder zu steigen begannen.

Abbildung 4.1: (oben) Wassertemperatur-Anomalien global (°C) aus HadSST. (Mitte) anthropogene CO2-Emissionen; Quelle: IPCC AR 5. (Unten) jährliche mittlere Zeitreihe von Klima-Treibern: atmosphärische CO2-Konzentration, stratosphärische Aerosole (Vulkanausbrüche), solare Gesamt-Einstrahlung sowie troposphärische Aerosole; Quelle: Hegerl et al. (2018)

Die globale Erwärmung der Ozeane von 1910 bis 1945 um 0,6°C ist vergleichbar mit der Erwärmung um 0,7°C im Zeitraum 1976 mit 2018. Hinsichtlich der jüngsten Erwärmung zeichnete das IPCC folgende Zuordnung:

● „Es ist extrem wahrscheinlich, dass über die Hälfte der beobachteten Erwärmung von 1951 bis 2010 der Zunahme anthropogener Treibhausgase und anderen anthropogenen Antrieben geschuldet ist. Das best estimate des anthropogenen Beitrags zur Erwärmung ist ähnlich der beobachteten Erwärmung während dieses Zeitraumes“.

Mit anderen Worten, das best estimate des IPCC ist, dass die gesamte Erwärmung seit 1951 vom Menschen verursacht ist.

Was aber war dann die Ursache der Erwärmung zu Beginn des 20. Jahrhunderts? Dieser Frage ist bemerkenswert wenig Aufmerksamkeit seitens der Klimawissenschaftler zuteil geworden. Eine fehlende Erklärung der Ursachen jener Erwärmung vermindert die Glaubwürdigkeit des IPCC-Statements bzgl. der Erwärmung ab 1951.

Eindeutig waren hinsichtlich der Erwärmung zu Beginn des 20. Jahrhunderts noch andere Faktoren außer CO2 im Spiel (Abb. 4.1 Mitte). Hinsichtlich externer Strahlungsantriebe würde eine Periode relativ geringer vulkanischer Aktivität im Zeitraum 1920 bis 1960 einen relativen Erwärmungseffekt haben, obwohl der Zeitraum 1945 bis 1960 Schauplatz einer leichten insgesamten Abkühlung war. Der solare Antrieb zu Beginn des 20. Jahrhunderts auf Erwärmungen unterschiedlicher Magnitude ist unklar, obwohl diese Magnituden unzureichend bzgl. eines solaren Einflusses sind, um ein direkter Haupt-Antrieb der globalen Erwärmung Anfang des 20. Jahrhunderts sein zu können.

Ändert die globale Erwärmung die internen Zustände der Variabilität?

Die internen Zustände der Variabilität im Zusammenhang mit großräumigen Ozean-Zirkulationen werden oftmals als ,Oszillationen‘ bezeichnet. Es ist jedoch unrichtig, diese Oszillationen als ,zyklisch‘ zu betrachten, sind doch deren Periode und Häufigkeit unregelmäßig. Im Prinzip kann eine bestimmte Oszillation aufhören zu bestehen oder ihren Zustand der Variabilität ändern, weil deren internen Zustände assoziiert sind mit der nicht linearen Dynamik des gekoppelten Atmosphäre-Ozean-Systems.

Weil die historischen Aufzeichnungen nicht besonders weit zurückreichen, vor allem in anderen Gebieten als dem Atlantischen Ozean, ist es sinnvoll, paläoklimatische Hinweise dieser Oszillationen in Betracht zu ziehen.

Der NCA4 (2017; Kapitel 5) kam zu dem Ergebnis, dass das Vertrauen gering ist hinsichtlich der Auswirkung einer vom Menschen verursachten globalen Erwärmung auf Änderungen dieser internen Zustände im Zusammenhang mit der großräumigen Ozean-Zirkulation.

Schlussfolgerungen

Modelle und die Theorie zeigen, dass Hurrikan-Intensität und Regenmenge in einem sich erwärmenden Klima zunehmen sollten. Es gibt aber keine Theorie, die eine Änderung der Anzahl der Hurrikane oder eine Änderung von den Zugbahnen derselben im Zusammenhang mit höheren Temperaturen umfasst.

Eine überzeugende Zuordnung jedweder Änderungen erfordert, dass eine Änderung der Hurrikan-Charakteristika mittels Beobachtungen erkannt wird mit einer Änderung, die über die natürliche Variabilität hinausgeht.

Aus Beobachtungen geht hervor, dass der globale Prozentsatz von Hurrikanen der Kategorien 4/5 zunimmt, obwohl die Stärke der Zunahme abhängig ist vom untersuchten Zeitraum, wobei aus manchen Gebieten vor dem Jahr 1987 nur fragwürdige Beobachtungen vorliegen. Wegen der kurzen Zeit mit Datenaufzeichnungen erfordert die Zuordnung jedweden Anteils dieser Zunahme zur anthropogenen globalen Erwärmung eine sorgfältige Auswertung der Daten und der Zustände der natürlichen Variabilität in jeder einzelnen Region, in der Hurrikane auftreten.

Während Theorie und Modelle zeigen, dass die Regenmenge bei Hurrikanen in einem sich erwärmenden Klima zunehmen sollte, sind Beobachtungs-Analysen aufgrund von Satellitendaten bisher in bedeutsamer räumlicher oder zeitlicher Auflösung nicht durchgeführt worden.

Es gibt einige Hinweise für eine globale Verlangsamung der Verlagerung tropischer Zyklone im letzten halben Jahrhundert, aber diese beobachteten Änderungen sind bis jetzt noch nicht halbwegs zuverlässig dem anthropogenen Klimawandel zugeordnet worden.

Zwar hat es im Atlantik seit 1970 eine gewisse Zunahme der Hurrikan-Aktivität gegeben, doch ist diese vermutlich getrieben durch Änderungen der Atlantischen Multidekadischen Oszillation (AMO) und des Atlantic Meridional Mode (AMM). Simulationen von Klimamodellen zeigen, dass die jüngste Rate der Intensivierung atlantischer Hurrikane über das hinausgeht, was man von der natürlichen internen Variabilität erwarten kann.

Falls die anthropogene globale Erwärmung eine Zunahme bzgl. mancher Aspekte der Hurrikan-Aktivität verursacht, sollte diese Zunahme global auftreten und nicht nur in einem einzelnen Ozeanbecken. Ein Problem dabei besteht darin, dass die Daten für eine Erkennung auf globaler Ebene unzureichend sind. Betrachtet man ein einzelnes Ozeanbecken, ist eine korrekte Interpretation und Simulation der natürlichen internen Variabilität unabdingbar wichtig, doch ist unser Verständnis und unsere Fähigkeit, die natürliche interne Variabilität zu simulieren, äußerst begrenzt.

Alles in allem ist das Trendsignal der Hurrikan-Aktivität noch nicht über die Hintergrund-Variabilität natürlicher Prozesse hinausgegangen. Anthropogener Klimawandel kann Änderungen der Hurrikan-Aktivität verursacht haben, die noch nicht erkennbar sind, und zwar wegen der geringen Größenordnung dieser Änderungen im Vergleich zur geschätzten natürlichen Variabilität oder wegen grenzen der Beobachtbarkeit. Aber an diesem Punkt gibt es keinen überzeugenden Beweis dafür, dass die anthropogen verursachte globale Erwärmung eine Änderung der Hurrikan-Aktivität verursacht hat.

Link: https://judithcurry.com/2019/02/20/24737/#more-24737

Übersetzt von Chris Frey EIKE




Der Aufstieg von Fake-Wissenschaft

Zeitungen, Politiker und Interessengruppen haben sich seit Jahrzehnten von einer Vorhersage der Apokalypse ohne Übergang zur nächsten bewegt. Zunehmend wird es in einem mit Alarm übersättigten Markt notwendig, die Angsterzeugung immer weiter zu steigern. Manchmal konnten nicht einmal die hanebüchensten Lügen die Angstmache stoppen.

Pseudowissenschaft ist auf dem Vormarsch – und die Medien fahren voll darauf ab

H. L. Mencken schrieb einmal: „Das einzige Ziel praktischer Politik ist es, die Bevölkerung alarmiert zu halten (und sie damit für jede Führung in Sicherheit anfällig zu machen), und zwar mittels einer endlosen Aneinanderreihung von schrecklichen Gespenstern – die allesamt imaginär sind“. Zeitungen, Politiker und Interessengruppen haben sich seit Jahrzehnten von einer Vorhersage der Apokalypse ohne Übergang zur nächsten bewegt (Kernkraft, saurer Regen, die Ozonschicht, Rinderwahnsinn, Nanotechnologie, genetisch modifiziertes Getreide, das Jahrtausend-Problem, …) ohne dass sie jemals darauf gewartet haben, ob die Wirklichkeit sie bestätigte oder widerlegte.

In einem Alarm-übersättigten Markt wird es immer dringlicher, die Angstmache immer weiter zu steigern. Immer mehr Schlagzeilen zu medizinischer oder umweltlicher Panik basieren auf veröffentlichten wissenschaftlichen Studien, die wenig mehr als Lügen und mit einem Mäntelchen statistischer Tricksereien verkleidet sind. Nicht einmal die Bloßstellung eklatantester Lügen kann diesem Treiben Einhalt gebieten. Dr. Andrew Wakefield wurde vom General Medical Council im Jahre 2010 abgestraft, nachdem man herausgefunden hatte, dass die in seiner in Lancet 1998 veröffentlichten Studie aufgestellte Behauptung, eine Verbindung gefunden zu haben zwischen einem MMR-Impfstoff und Autismus, reiner Betrug war. [MMR = Measles, Mumps und Rubella = Masern, Mumps und Röteln. Quelle. Anm. d. Übers.] Und doch ist Wakefield heute ein gefeierter Anti-Impf-Aktivist in den USA, der seine schon lange kranke Ehefrau verlassen hat, um sich dem Supermodel Elle Macpherson zuzuwenden. Kampagnen gegen Impfungen sind ein lukratives Geschäft.

Im Folgenden führt Matt Ridley eine Fülle weiterer Beispiele aus vielen Bereichen der Wissenschaft an, bei der sich die Autoren von Studien, die sich als reiner Betrug und Unsinn herausgestellt haben, immer noch hoher Beliebtheit erfreuen bzw. hoch gestellte Persönlichkeiten sind. Die Bloßstellung derartiger Betrügereien ist von den Medien fast durchweg ignoriert worden.

Er führt Beispiele von Chemikalien an, vom Insektensterben, Glyphosat und so weiter. Ganz zuletzt, aber mehr am Rande, kommt er auch auf Klima-Alarmisten zu sprechen. Die letzten Absätze seines Beitrags werden daher wieder übersetzt. – Anm. d. Übers.]

Allem gemeinsam ist der bedeutende Hintergrund von all dem: riesige Geldsummen und Macht stehen auf dem Spiel. Nehmen wir beispielsweise die rasch um die Welt fliegende Behauptung der linksgerichteten politischen Denkfabrik Institute for Public Policy Research (IPPR), der zufolge „seit dem Jahr 2005 die Anzahl von Überschwemmungen weltweit um das 15-fache zugenommen haben“. Natürlich fand das sofort Eingang bei Roger Harrabin von der BBC mit dem üblichen Tenor, dass wir alle dem Untergang geweiht sind.

Das war eine ocean-going, weapons-grade, château-bottled Lüge. Es gab keine Zunahme von Überschwemmungen seit 2005, geschweige denn eine solche um das 15-fache. Als man das IPPR zur Rede stellte, machte dieses einen „Schreibfehler“ geltend; sie meinten ab 1950. Nun, das ist auch Unsinn. Das IPCC wertet regelmäßig Daten bzgl. Überschwemmungen aus und sagt, dass es keinen Trend finden kann: „Insgesamt gibt es im globalen Maßstab weiterhin keine Hinweise und daher auch nur geringes Vertrauen hinsichtlich der Anzeichen eines Trends bzgl. Größenordnung und/oder Häufigkeit von Überschwemmungen“.

Glücklicherweise nannte das IPPR eine Quelle für seine absurde Behauptung, nämlich eine ,GMO-Analyse von EM-DAT 2018′. Paul Homewood, ein Privatmann, der regelmäßig Klima-Alarmisten beim Namen nennt, erklärte in einem Blog, was das bedeutete. EM-DAT ist eine Datenbasis von Katastrophen, welche als Quelle vollkommen wertlos ist für eine solche Behauptung, weil ausschließlich sehr geringe Katastrophen erfasst sind wie Verkehrsunfälle, und auch das nur für die letzten Jahre. Es gibt hier nicht die Spur eines Trends.

GMO ist eine große, in Boston ansässige Vermögensverwaltungs-Firma, dessen Gründer und Eigentümer Jeremy Grantham rein zufällig – welche Überraschung! – auch der Finanzier des IPPR ist.

Früher wären investigative Journalisten sofort angesichts derartiger haarsträubender Ereignisse zur Stelle gewesen: Ein Milliardär finanziert eine Interessengruppe, welche eine Presseerklärung veröffentlicht, in der der Milliardär als Quelle einer Super-Fake-Wissenschaft genannt wird, welche aber dennoch verstärkt wird, um der Interessengruppe zu helfen, noch mehr Geld locker zu machen. Aber das Budget von Journalisten ist zusammen gestrichen worden, und es ist viel einfacher, den Inhalt von Presseerklärungen nachzuplappern.

Einige Menschen sind willens, Übertreibungen und Fehler zu verzeihen, wenn diese nur der guten Sache dienen, wie etwa Bedenken hinsichtlich Plastikmüll oder Klimawandel. Das ist aber eine riskante Strategie, weil sie dazu führt, dass auch wirklichen Beweisen für irgendetwas nicht mehr geglaubt wird.

—————————–

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE