AGW: Ein verwor­renes Netz strangu­liert seine Schöpfer und Befür­worter

Die Herausgeber des Journals Nature haben das Journal ins Leben gerufen. Jenes Journal veröffentlichte alles, was es in die Finger bekam, um die betrügerische Wissenschaft zu verbreiten, welche die Grundlage der nicht überprüften AGW-Hypothese ist. Allerdings war man auch dort den Regeln und Verfahren unterworfen, welche für akademische Forschung und Veröffentlichungen verpflichtend waren. Das ist kein Problem, falls das Thema globale Erwärmung ein rein wissenschaftliches Thema wäre, aber das war es ja niemals. Es war von Anfang an eine politische Inanspruchnahme der Wissenschaft für eine politische Agenda. Der ursprüngliche Artikel stammte von einer Gruppe unter Leitung von Ben Santer, also von jemandem mit einer langen Historie inmitten des AGW-Betrugs.

Ein Artikel unter der Überschrift „Evidence that humans are responsible for global warming hits ‘gold standard’ certainty level“ gibt darüber Aufschluss, enthält aber auch den Kommentar von Santer, dass „das Narrativ, dass Wissenschaftler die Ursache des Klimawandels nicht kennen, falsch ist. Wir kennen die Ursache“. Es ist eine Fortsetzung seiner Arbeit, den Betrug immer weiterzutreiben. Er stellte seinen Kommentar auf die Grundlage, dass wir den Grund für Klimawandel kennen, und zwar aufgrund der Arbeit des IPCC. Dort betrachtete man ausschließlich menschliche Ursachen, und es ist unmöglich, das zu bestimmen, solange man den natürlichen Klimawandel nebst dessen Ursachen nicht kennt und versteht. Falls das der Fall wäre, wären Vorhersagen immer korrekt. Falls das der Fall wäre, bräuchte man Santer und all die anderen Forscher sowie Millionen Dollar nicht mehr

Warum also stellt Santer eine solche Behauptung auf? Aus dem gleichen Grunde wie alle Aktionen im AGW-Betrug: um einen Ansturm zu treiben, erzeugt durch die Dringlichkeit, die politische Agenda zu übernehmen. Es ist der klassische „Der Himmel fällt uns auf den Kopf“-Alarmismus. Santers Arbeit folgt dem jüngsten „Notfall“-Report des IPCC, welcher bei der COP 24 in Polen vorgestellt worden ist und dem zufolge uns noch 12 Jahre bleiben.

Eines der ersten Beispiele dieser Schöpfung einer ungenauen Wissenschaft zur verstärkten Betonung der Dringlichkeit war die Verweildauer von CO2 in der Atmosphäre. In einer Reaktion auf die Behauptung der Erfordernis dringender Maßnahmen haben viele Forscher darauf hingewiesen, dass das Niveau und die Steigerung desselben nicht hinreichend sei, um dringende Maßnahmen zu ergreifen. Mit anderen Worten, man lasse sich nicht vorschnell zu etwas hinreißen. Das IPCC reagierte darauf mit der Behauptung, dass selbst wenn jede Erzeugung von CO2 aufhören würde, das Problem noch Jahrzehnte lang bestehen würde wegen der Verweildauer von 100 Jahren von CO2 in der Atmosphäre. Aus einer von Lawrence Solomon erstellten Graphik geht jedoch hervor, dass die Verweildauer in Wirklichkeit 4 bis 6 Jahre betragen würde (Abbildung 1).

Abbildung 1

Dieses Muster der Betonung der Dringlichkeit durchzieht die gesamte Historie des AGW-Betrugs.

Lord Walter Scott sagte: „What a tangled web we weave when first we practice to deceive“ [etwa: „Was für ein verworrenes Netz wir weben, wenn wir zum ersten Mal Betrug praktizieren“]. Ein anderer großer Autor baute auf diesem Gedanken auf, jedoch aus einem anderen Blickwinkel. Mark Twain sagte: „Falls man die Wahrheit sagt, braucht man sich nicht zu erinnern“. In eigenartiger Weise widersprechen sie oder erklären zumindest, wie sich der Betrug ausbreiten, bestehen bleiben und sein verheerendes Ziel erreichen konnte. Das Netz wurde inzwischen so verworren und die Verbindungen der Netzfäden so kompliziert, dass die Menschen nie mehr sehen können, was passiert. Dies gilt besonders, wenn es bei dem Betrug um ein geheimnisvolles Thema geht, von dem die meisten Menschen gar nichts verstehen.

All diese Beobachtungen sind auf den größten Betrug aller Zeiten anwendbar, nämlich der Behauptung, dass menschlich erzeugtes CO2 globale Erwärmung verursacht. Das Ganze ist den meisten Menschen selbst heute noch unbekannt, und das ist ein Garant für den Erfolg des Betrugs. Das wirkliche Ziel war es zu beweisen, dass Überbevölkerung in Kombination mit industrieller Entwicklung die Ressourcen auf nicht nachhaltige Weise ausschöpfen würde. Maurice Strong erklärte, dass das Problem für den Planeten die industrialisierten Nationen sind, und warf die Frage auf, ob es nicht in unserer Verantwortung liege, diese loszuwerden. Die zugrundeliegende Hypothese war, dass CO2, ein Abfallprodukt bei der Verbrennung fossiler Treibstoffe, globae Erwärmung verursacht und die Erde zerstört. Sie mussten diese Verteufelung des CO2 unbedingt aufrecht erhalten, koste es, was es wolle, und hier beginnt das Weben des verworrenen Netzes.

Zu Beginn kontrollierten das IPCC und angeschlossene Agenturen die zwei maßgeblichen Variablen, nämlich Temperatur und CO2. Phil Jones verlieh dem Ausmaß der Kontrolle über die Temperatur Ausdruck in einer Antwort auf eine Anfrage von Warwick Hughes, welche Stationen herangezogen und wie diese in seiner Graphik adjustiert worden waren. Am 21. Februar 2005 erhielt er folgende Antwort:

„Wir haben rund 25 Jahre in die Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn es doch Ihr Ziel ist herauszufinden, ob mit den Daten etwas nicht stimmt?“

Die Kontrolle über die globalen Temperaturdaten setzte sich fort bis zum Eintreffen der ersten Satellitendaten im Jahre 1978. Trotz aller Limitierungen ergab sich damit eine viel vollständigere Abdeckung, nämlich etwa 97% bis 98%. Dies steht im Vergleich zu den etwa 15% Abdeckung von Oberflächen-Daten.

Unabhängig von der Abdeckung mussten die Oberflächen-Daten zu den Satellitendaten passen, wie Abbildung 2 zeigt:

Abbildung 2

Dies verhinderte jedoch nur die Veränderung der letzten 41 Jahre der Aufzeichnung, nicht jedoch die Veränderung historischer Aufzeichnungen. Der Artikel von Dr. Marohasy ist lediglich eine weitere Illustration des Musters. Tony Heller führte die vollständigste Analyse der zugefügten Adjustierungen durch. Jene, welche die Veränderungen vorgenommen haben behaupten, wie sie es auch auf die Herausforderung von Marohasy getan haben, dass die Korrekturen notwendig und Instrumentenfehlern, Aufstellungsorten und Änderungen der Umgebung geschuldet waren wie etwa dem UHI-Effekt. Das Problem ist jedoch, dass diese Änderungen ausnahmslos nur in eine Richtung gingen, nämlich die historischen Aufzeichnungen niedriger darzustellen. Dies verändert den zeitlichen Gradienten der Temperaturänderung dahingehend, dass die Stärke und die Rate der Erwärmung verstärkt wird. Eines der ersten Beispiele derartiger Adjustierungen ist die Aufzeichnung von Auckland in Neuseeland (Abbildung 3). Man beachte die Überlappung während der letzten Jahrzehnte:

Abbildung 3

Das IPCC übte die Kontrolle auf die CO2-Aufzeichnungen von Anfang an aus, und das ist auch heute noch so. Sie ziehen die Aufzeichnung vom Mauna Loa heran sowie Daten von anderen Messpunkten mit ähnlicher Instrumentierung und Verfahren als Grundlage für ihre Behauptungen. Charles Keeling, einer der frühesten Befürworter von AGW, wurde von Roger Revelle entdeckt und an das Scripps-Institut berufen. Jawohl, das ist das gleiche Heiligtum, welches Al Gore in seinem Film An Inconvenient Truth glorifiziert hat. Keeling etablierte eine CO2-Messstation, welcher der Standard für das IPCC ist. Das Problem ist, dass der Mauna Loa ein Vulkan aus ozeanischer Kruste ist, dass die Lava nicht so zähflüssig und gasreicher ist als bei kontinentalen Vulkanen wie etwa dem Ätna. Eine Dokumentation mit dem Titel Future Frontiers: Mission Galapagos erinnerte mich an Studien vom Ätna vor Jahren, welche zeigten, wie sehr CO2 aus dem Boden stieg – Hunderte von Kilometern rund um den Krater. Die Dokumentation ist zwar der übliche „Die Menschen zerstören den Planeten“-Unsinn. Aber an einer Stelle tauchen sie in das Wasser rund um eine massive Vulkaninsel und waren erstaunt, wie deutlich sichtbar CO2 von überall aus dem Ozeangrund drang.

Charles Keeling ließ sich seine Instrumente und die angewendeten Verfahren patentieren. Sein Sohn Ralph setzte seine Arbeit am Scripps Institute fort und ist Mitglied im IPCC. Sein jüngster Auftritt in den Medien involvierte eine alarmistische Studie mit einem kapitalen Fehler – einer Überschätzung um 60%. Abbildung 4 zeigt ihn mit der PR-Meisterin des IPCC-Narrativs Naomi Oreskes:

Abbildung 4

Abbildung 5 zeigt das gegenwärtige CO2-Niveau am Mauna Loa. Es zeigt sich eine stetige Zunahme seit 1958 mit der jahreszeitlichen Variation:

Abbildung 5

Diese Zunahme erfolgt kontinuierlich 41 Jahre lang, was bemerkenswert ist, wenn man längerfristigere Aufzeichnungen betrachtet. Zum Beispiel zeigt der Eisbohrkern aus der Antarktis eine bemerkenswerte Variabilität (Abbildung 6):

Abbildung 6

Die Eisbohrkern-Aufzeichnung stammt aus Bläschen, deren Entstehung mindestens 70 Jahre dauert. Dann wird ein geglättetes 70-Jahre-Mittel angebracht. Die Kombination entfernt den größten Teil der Variabilität, und das eliminiert jede Chance, das Ergebnis zu verstehen und einzuordnen.

Abbildung 7 zeigt das Ausmaß der Glättung. Sie enthält einen Vergleich über 2000 Jahre Messungen von CO2 mittels zwei unterschiedlichen Messverfahren. Man erkennt den Unterschied in der Variabilität, aber auch den Unterschied des Gesamtniveaus in der Atmosphäre, der zwischen etwa 260 und 320 ppm schwankt:

Abbildung 7

Allerdings gibt es auch eine Aufzeichnung aus jüngerer Zeit, welche ähnliche Differenzen zeigt hinsichtlich Variation und Gesamtmenge (Abbildung 8). Daraus geht klar hervor, dass das IPCC die Aufzeichnung so geglättet hat, dass es die CO2-Aufzeichnung kontrolliert. Die gepunktete Linie zeigt die Eisbohrkern-Aufzeichnung aus der Antarktis und wie die Mauna-Loa-Kurve erzeugt worden war, um den geglätteten, aber ungenauen Verlauf fortzusetzen. Zbigniew Jaworowski, ein Atmosphären-Chemiker und Eisbohrkern-Spezialist erklärt, was mit den CO2-Messungen in Eisbohrkernen nicht stimmt. Sein entsprechender Artikel ist betitelt mit „CO2: The Greatest Scientific Scandal of Our Time“. Natürlich griff man ihn an, aber dennoch hielten die UN seine Qualifikationen und Fähigkeiten für so gut, dass sie ihn zum Leiter der Untersuchungsgruppe beriefen, welche die Tschernobyl-Katastrophe untersuchen sollte.

Überlagert ist in der Abbildung die Graphik von über 90.000 Atmosphären-Messungen von CO2, welche im Jahre 1812 begonnen hatten. Die Veröffentlichung des Sauerstoffniveaus in der Atmosphäre löste die Sammlung von CO2-Daten aus. Die Wissenschaft wollte den prozentualen Anteil aller Gase in der Atmosphäre erfassen. Man war nicht interessiert an globaler Erwärmung oder irgendwelcher anderen Auswirkungen jener Gase – man wollte einfach genaue Daten haben, was das IPCC niemals vorhatte.

Abbildung 8

[Anmerkung von Blogbetreiber Anthony Watts: Ich ordne der Arbeit von Ernst Georg Beck in Abbildung 8 keine Genauigkeit zu, weil das chemische Verfahren fehleranfällig ist und die Messpunkte der Datengewinnung (zumeist im Bodenniveau von Städten) hoch variable CO2-Gehalte aufweisen. Man beachte die hohe Variabilität der Daten. – Anthony Watts.

Bemerkung des Übersetzers dazu: Diese Graphik von E. G. Beck hat er selbst später als fehlerhaft im Sinne von zu lokal beurteilt. Anm. d. Übers.]

Man wusste um diese Aufzeichnungen schon vor Jahrzehnten. Es war der Eisenbahn-Ingenieur Guy Callendar, der diese Aufzeichnung in Zusammenarbeit mit bekannten Namen der wissenschaftlichen Gemeinschaft vorgestellt hatte. Ernst-Georg Beck schrieb dazu:

„Die moderne Treibhausgas-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie später vom IPCC popularisiert“.

Callendar wählte willkürlich einen einheitlichen Datensatz aus, um zu behaupten, dass das mittlere Niveau bei 270 ppm lag. Er änderte die Steigung des Graphen von einer Zunahme in eine Abnahme (Abbildung 9). Jaworowski kreiste die von ihm gewählten Daten ein, aber ich habe die Trendlinien für alle Daten (rot) und Callendars Datenauswahl (blau) hinzugefügt:

Abbildung 9

Tom Wigley, Direktor der Climatic Research Unit (CRU) und einer der Väter von AGW, führte die Aufzeichnung 1983 in die Klima-Gemeinschaft ein, und zwar mit einem Beitrag in der Zeitschrift Climate Change mit dem Titel „The Pre-Industrial Carbon Dioxide Level“. Er behauptete auch, dass die Aufzeichnung ein vorindustrielles CO2-Niveau von 270 ppm ergeben. Man betrachte die Daten!

Das IPCC und dessen Unterstützer etablierten das vorindustrielle CO2-Niveau mittels Rosinenpickerei und Manipulation. Sie halten weiterhin den Finger auf die Angaben zum atmosphärischen Niveau mittels Kontrolle der Mauna Loa-Aufzeichnung, und sie kontrollieren die Daten der jährlichen menschlichen Erzeugung. Sie erklären das so:

Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) zu betreiben, welches diese Verfahren entwickeln soll. Die Parteien im UNFCCC sind überein gekommen, die IPCC-Leitlinien anzuwenden bei der Berichterstattung vor der Konvention.

Wie entwickelt das IPCC seine inventarisierten Leitlinien? Ernannte Experten aus der ganzen Welt entwerfen die Berichte unter Anwendung der IPCC-Verfahren, die dann zweimal extensiv begutachtet werden, bevor sie vom IPCC genehmigt werden. Dieses Verfahren stellt sicher, dass die größtmögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten, sie behalten sich die letztendliche Entscheidung vor, welche Daten für ihre Berichte und als Input für ihre Computermodelle verwendet werden.

Das hat alles lange Zeit funktioniert. Allerdings, wie es mit allen Betrügereien der Fall ist, enthüllt selbst das verworrenste Netz irgendwann seine wahre Natur. Sie fahren fort, dass atmosphärische CO2-Niveau zunehmen zu lassen und dieses dann der Welt vorzuführen als bestätigt durch die Messungen am Mauna Loa. Allerdings ist ihnen durch die Ankunft von Satellitenmessungen die Kontrolle über die jüngsten Temperaturdaten entglitten. Sie können die CO2-Daten jetzt nicht mehr niedriger machen, weil dies ihren gesamten Betrug offensichtlich machen würde, und sie sind dazu verdammt, alles, was noch übrig ist von ihrem Betrug und ihren Manipulationen zu verewigen. Alles, was ihnen blieb, ist u. A. die Abwärts-Korrektur historischer Aufzeichnungen, die Bezeichnung globale Erwärmung in Klimawandel zu ändern und immer schärfere Bedrohungs-Szenarien zu erzeugen wie etwa die genannten 12 Jahre bis zum von Santer prophezeiten sicheren Untergang.*

[*Ross McKittrick hat die entsprechende Studie von Santer in einem eigenen Beitrag widerlegt. Dieser folgt demnächst hier beim EIKE in deutscher Übersetzung. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2019/03/03/anthropogenic-global-warming-agw-a-tangled-web-strangling-its-creators-and-proponents/

Übersetzt von Chris Frey EIKE




Schüleraufmärsche um den Planeten zu retten – Umweltsozialismus einer Unfreien Deutschen Jugend

von Diplom-Soziologe Michael Klein, Sciencefiles

Die DDR hatte – wie der Nationalsozialismus – eine lange Tradition des Missbrauchs von Kindern und Jugendlichen, die in eigens geschaffenen Organisationen zu Gesinnungssklaven des Staates erzogen wurden, denen schon früh, das, was Kinder und Jugendlichen eigentlich auszeichnen soll: Kreativität, abweichendes, zuweilen auch skurriles Denken, abtrainiert, die schon früh auf Gesinnungslinie gebracht werden sollten.

Öffentliche Aufmärsche von Pionieren oder FDJ haben dabei eine besondere Rolle gespielt. In Uniform und mit den richtigen Parolen ausgestattet, sind die Kinder und Jugendlichen zur Freude der SED-Parteispitze durch die Straße gezogen, so, wie im folgenden Bild.

Quelle: https://sciencefiles.org/2019/03/02/schuleraufmarsche-um-den-planeten-zu-retten-umweltsozialismus-einer-unfreien-deutschen-jugend/

Was sich seither geändert hat?

Die Parole.

Heute heißt es nicht mehr „Wir lernen und arbeiten für unsere Zukunft wie sie der XI. Parteitag [der SED] beschloß”, heute heißt es, wir schwänzen die Schule, um den Planeten zu retten, so, wie es im Pariser Abkommen beschlossen wurde.

Finden Sie das nicht auch verstörend?

Die Beobachtung, dass traditionelle Formen des politischen Protestes zu Claqueur-Aufmärschen werden, in denen die einzig richtige politische Handlung durchgesetzt werden soll, die zufällig auch eine Handlung ist, die linke Parteien durchsetzen wollen, machen wir nicht zum ersten Mal.

https://www.facebook.com/FridaysForFutureMainz/

Vor einiger Zeit haben wir schon festgestellt:

Heute finden wir in der Kategorie dessen, was in Medien als „Demonstrationen“ beschrieben wird, nicht nur Protest gegen politische Entscheidungen, sondern zunehmend eine Art von Veranstaltung, die darauf abzielt, Themen zu inszenieren, mit denen sich gerade kein politischer Protest verbindet, die zwischen Demonstranten und der politischen Klasse, an die sie sich richten, nicht umstritten sind: Gegen Rassismus, gegen Rechtsextremismus, für Zuwanderung, für LSBTxxx, immer häufiger gibt es angebliche Demonstrationen, die das Ziel verfolgen, die politische Arbeit der Regierungsfraktionen und in vielen Fällen auch die einiger Oppositionsparteien auf die Straße zu verlagern und öffentliche Unterstützung für Entscheidungen zu inszenieren, die im Parlament längst getroffen und im täglichen Leben längst umgesetzt sind.

Das ist keine Neuerung, aber eine für eine Demokratie bedenkliche Entwicklung, denn Demonstrationen wurden von Politikwissenschaftlern nicht ohne Grund als „unkonventionelle Form des politischen PROTESTES“ bezeichnet. Sie sind eines der wenigen Mittel, das Bürgern, die sich in Opposition zu politischen Entscheidungen befinden, die im Bundestag getroffen wurden, bleibt, um ihre Ablehnung der entsprechenden Entscheidungen zum Ausdruck zu bringen.

Die #FridaysForFuture Demonstrationen, die Schulschwänzen zur Form des zivilen Widerstands stilisieren und den „Planeten retten“ sollen, sind eine weitere Variante dieser inszenierten Straßenunterstützung für politische Ideologien, deren Ziel darin besteht, eine Vision der Zukunft auf Kosten der aktuell lebenden Menschen durchzusetzen. Der Verzicht, das, was Sozialismus erst zum richtigen Sozialismus macht, denn Angebot und Überfluss gibt es nur im Kapitalismus, er soll wieder salonfähig gemacht werden, und was eher geeignet, um Verzicht zu legitimieren als die vermeintlichen Interessen von Kindern und Jugendlichen ins Feld zu führen? Alle sozialistischen Systeme haben stets die Generationen gegeneinander auszuspielen versucht und es darauf angelegt, die Zukunft der Kinder vom Wohlverhalten der Eltern abhängig zu machen.

Und so verwundert es nicht, dass die Kinder, die Freitags in deutschen Städten gegen den Klimawandel demonstrieren, von dem sie vermutlich soviel wissen, wie der durchschnittliche Politiker der Grünen, nämlich fast nichts, von Politikern, deren Drecksarbeit sie machen, viel Zuspruch erfahren.

Bei all den konzertierten Aktionen an Freitagen in Berlin, Hamburg, Köln, Saarbrücken oder Mainz fragt man sich schon, wer die ganze Logistik, die Finanzierung für Plakate und Aufrufe, die Mobilisierung von Schülern und die Vernetzung der Teilnehmer organisiert und vor allem finanziert. Wie so oft, scheinen wir die einzigen zu sein, die sich fragen, wessen Parteiapparat, welche Organisation(en) im Hintergrund die Fäden ziehen.

So wie wir die einzigen zu sein scheinen, die es verstört, dass junge Menschen mit ihrem Leben nichts Besseres anzufangen wissen als dafür zu demonstrieren, dass Erwachsene eine bestimmte Politik umsetzen. Früh übt sich, wer als Untertan im Heer der Mitläufer verschwinden will, können wird dazu nur sagen: Wenn all die Schüler, die an Freitagen in Deutschland aufmarschieren, um für das, was sie für ihre Zukunft halten, zu demonstrieren statt diese Zukunft von anderen zu verlangen, ihre Hände und ihr Gehirn zusammennehmen würden, um diese Zukunft AKTIV zu gestalten, dann wäre sicher mehr erreicht, als damit erreicht werden kann, dass sie sich zu PASSIVEN Mitläufern im Dienste einer politischen und von anderen gesetzten Agenda machen.

Wenn sie sich hinsetzen würden, um die widersprüchlichen Meldungen über den menschengemachten Klimawandel aufzuarbeiten, die falschen Behauptungen von den bislang bestätigten wissenschaftlichen Fakten trennen würden, um sich ein klares Bild davon zu verschaffen, was es mit den Modellen zum menschengemachten Klimawandel auf sich hat, dann wäre ihrer Zukunft weit mehr gedient als dadurch, dass sie in kindischer Weise durch Städte skandieren, um zum Dank von der politischen Linken paternalisiert zu werden.

Und wenn unter den Schülern auch nur einige wenige wären, die das Rätsel lösen könnten, das Arthur B. Robinson, Noah E. Robinson und Willie Soon 2007 in einem Beitrag für das Journal of American Surgeons and Physicians wie folgt beschrieben haben, was wäre dann erst gewonnen:

“A review of the research literature concerning the environmental consequences of increased levels of atmospheric carbon dioxide leads to the conclusion that increases during the 20th and early 21st centuries have produced no deleterious effects upon Earth’s weather and climate. Increased carbon dioxide has, however, markedly increased plant growth. Predictions of harmful climatic effects due to future increases in hydrocarbon use and minor greenhouse gases like CO2 do not conform to current experimental knowledge.”

Nicht nur kommen die Autoren zu dem Ergebnis, dass die steigende CO2-Konzentration in der Atmosphäre kein Problem für die Erde darstellt, sie gehören auch zu den wenigen Autoren, die noch den Mut haben darauf hinzuweisen, dass die These, nach der CO2 einen erheblichen negativen Effekt auf die durchschnittliche Jahrestemperatur auf der Erde hat, eine nicht unwidersprochen gebliebene These ist, die zudem auf äußert wackeligen Beinen steht. Wahrscheinlicher und durch Daten besser gedeckt, ist eine alternative Hypothese, nach der die Konzentration von CO2 eine zunehmend reichere Pflanzenwelt zur Folge hat, dass die Erde nur deshalb so grün werden konnte, wie sie ist, weil genug CO2 in der Atmosphäre vorhanden war:

There are no experimental data to support the hypothesis that increases in human hydrocarbon use or in atmospheric carbon dioxide and other greenhouse gases are causing or can be expected to cause unfavorable changes in global temperatures, weather, or landscape. There is no reason to limit human production of CO2, CH4, and other minor greenhouse gases as has been proposed.

We also need not worry about environmental calamities even if the current natural warming trend continues. The Earth has been much warmer during the past 3,000 years without catastrophic effects. Warmer weather extends growing seasons and generally improves the habitability of colder regions. As coal, oil, and natural gas are used to feed and lift from poverty vast numbers of people across the globe, more CO2 will be released into the atmosphere. This will help to maintain and improve the health, longevity, prosperity, and productivity of all people.

[…]

Human use of coal, oil, and natural gas has not harmfully warmed the Earth, and the extrapolation of current trends shows that it will not do so in the foreseeable future. The CO2 produced does, however, accelerate the growth rates of plants and also permits plants to grow in drier regions. Animal life, which depends upon plants, also flourishes, and the diversity of plant and animal life is increased. Human activities are producing part of the rise in CO2 in the atmosphere. Mankind is moving the carbon in coal, oil, and natural gas from below ground to the atmosphere, where it is available for conversion into living things. We are living in an increasingly lush environment of plants and animals as a result of this CO2 increase. Our children will therefore enjoy an Earth with far more plant and animal life than that with which we now are blessed.”

Sollten die Ergebnisse von Robinson, Robinson und Soon zutreffen, dann würde derzeit an Freitagen nicht für, sondern gegen die Zukunft demonstriert werden. Dass es gut begründete und mit empirischen Daten belegte Beiträge wie den von Robinson, Robinson und Soon gibt, dass diese weitgehend unbekannt sind und vor allem vom Klimamonopolisten IPCC, dem Panel der UN, in dem das Schüren der Hysterie vor Global Warming auf der Tagesordnung steht, unterdrückt werden, sollte Kinder und Jugendlichen, die an ihrer Zukunft interessiert sind, zu denken und Anlass zum Widerstand geben.

Es war noch immer ein Alarmzeichen, wenn Politiker die eigene Jugend dafür gelobt haben, dass sie protestiert hat. Von Kindern und Jugendlichen, denen angeblich ihre Zukunft am Herzen liegt, würde man erwarten, dass sie derartiger Zuspruch skeptisch macht, dass sie die Medien, die sie als Helden feiern, mit Argwohn betrachten und hinterfragen, welchen Karren sie eigentlich gerade ziehen?

Quelle: dpa, Facebook/ARD

Aber eigenständiges und vor allem kritisches Denken ist unter denen, die dem politischen Establishment gerade so nützlich sind, nicht weit verbreitet, wie es scheint. Sie machen sich lieber zum Wasserträger für eine Sache, deren Ausmaß und Konsequenz sie nicht zu überschauen vermögen und wohl auch nicht überschauen wollen. Und nebenbei beschädigen sie unkonventionelle Formen des politischen Protests, die wenigen Formen, die es noch gibt, um legitim seinen Widerstand gegen die politische Monopolgesinnung zu zeigen.

Robinson, Arthur B., Robinson, Noah E. & Soon, Willie (2007). Environmental Effects of Increased Atmospheric Carbon Dioxide. Journal of American Physicians and Surgeons 12(1): 79-90.

Mit freundlicher Genehmigung von Sciencefiles.org




Winter 2018/19 – wie gut waren die Prognosen?

Bevor die Prognosen nochmals gezeigt und bewertet werden, soll ein Blick auf die Entwicklung der Wintertemperaturen seit dem „Klimasprung“, welcher mit dem Mildwinter 1987/88 in Deutschland begann, geworfen werden. Anders als die übrigen Jahreszeiten, erwärmte sich der Winter im Deutschland-Mittel seitdem nicht mehr – im Gegenteil; auch wenn der geringe Abkühlungstrend nicht signifikant ist. Mit 2,8°C zählt er bei unseren momentanen Klimabedingungen, wie sie seit 1988 herrschen, zu den mäßig milden Wintern, ähnlich wie 1987/88, 1994/95, 1997/98 oder 1999/2000. Sehr milde Winter überschreiten die einfache Standard-Abweichung nach oben, welche von 1988 bis 2018 1,6 Grad bei einem Mittelwert von 1,4°C betrug, und erreichen im Deutschland-Mittel damit gegenwärtig mehr als 3°C (1988/89, 1989/90, 2006/07, 2013/14 oder 2015/16):

Abbildung 1: Keine winterliche Erwärmung in Deutschland seit 1987/88 – trotz deutlich steigender CO2-Konzentrationen.

Im abgelaufenen Winter war die angeblich so schlechte Luftqualität ein Dauerthema. Messwerte hierfür (NO2, Feinstaub, SO2) liegen leider meist nur bis in die frühen 1990er oder 1980er Jahre vor. Der Winter erweist sich wegen anhaltender Inversionswetterlagen als die problematischste Jahreszeit; auch werden oft mehr Luftschadstoffe als in den übrigen Jahreszeiten emittiert (Heizungen). Einen groben Anhaltspunkt für die Entwicklung der Luftschadstoff-Konzentration bietet die Anzahl der Tage mit Nebel (Sichtweite zumindest kurzzeitig unter 1Km), weil Schadstoffe die Nebelbildung fördern. In Potsdam werden seit dem Winter 1893/94 die Nebeltage gezählt – mit erstaunlichem Ergebnis: Die Winter waren dort nie so selten neblig, wie gegenwärtig, was auf eine sehr gute Luftqualität hindeutet; auch wenn die Potsdam-Daten nur bedingt aussagefähig für ganz Deutschland sind:

Abbildung 2: Während auf dem Höhepunkt der Luftverschmutzung (etwa 1950 bis 1985) nicht selten an einem guten Drittel aller Wintertage Nebel auftrat, ist er seit zwei Jahrzehnten mit fast stets weniger als 20 Tagen selten – im abgelaufenen Winter waren es nur 6 Nebeltage. Das deutet auf eine stark verbesserte Luftqualität hin.

Wegen der großen Schneemengen im Januar bietet sich außerdem ein Blick auf die winterliche Niederschlagsentwicklung an. Weil der Februar sehr trocken verlief, blieb dieser Winter 2018/19 nur mäßig niederschlagsreich; zwar zeigt sich eine langfristige, aber keine aktuelle Zunahme der Winterniederschläge in Deutschland:

Abbildung 3: Winterliche Niederschlagszunahme in Deutschland – aber nur bis etwa 1995 (siehe Trendlinie des „gleitenden“ Mittelwertes). Der abgelaufene Winter 2018/19 überschritt mit knapp 216mm nicht einmal die einfache Standardabweichung nach oben.

Nicht überall in den gemäßigten Breiten der Nordhalbkugel verlief dieser Winter 2018/19 so gelinde, wie in Mitteleuropa. Nordamerika bescherte er mehrere, harsche Kältewellen. An der von Wärmeinsel-Effekten wenig beeinflussten Station Dale Enterprise zeigt sich, anders als in Deutschland, auch langfristig keine Winter-Erwärmung:

Abbildung 4: An der westlich der Bundeshauptstadt Washington D.C. gelegenen, ländlichen Station Dale Enterprise erwärmte sich der Winter auch langfristig nicht.

Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen

Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; darunter erfolgt jeweils die Bewertung; meist auf die CLINO- Periode 1981 bis 2010 bezogen, abweichende Referenz-Zeiträume sind in den betreffenden Prognosen genannt. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um nicht mehr als +/- 0,5 Kelvin, so ergab das Note 3, darüber bei bis zu +/- 1K Abweichung Note 4; bei noch mehr Abweichung Note 5, über +/- 2 K Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. In die Bewertung wurde auch einbezogen, ob genauere Vorhersagen über den Gesamtwinter hinaus zu Einzelmonaten erfolgten. Fehlten diese ganz, so wurde um eine Note abgewertet Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, wurde ebenfalls um eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.

UKMO (Großbritannien): Vom 11.11.2018 Winter (D, J, F) mit gering erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist eine Wahrscheinlichkeit von 20 bis 40% auf; während ein zu kalter Winter zu etwas über 20% wahrscheinlich ist.

Neuerdings wird auch eine Median-bezogene Wahrscheinlichkeitsaussage angeboten; sie zeigt eine partiell leicht erhöhte Wahrscheinlichkeit für über dem Median liegende Wintertemperaturen besonders in Süd- und Mitteldeutschland:

Die aktuellen Karten jederzeit hier.

Bewertung: Nur sehr grob zutreffend, besonders in Norddeutschland wurde die Wahrscheinlichkeit für „zu mild“ unterschätzt, dazu sehr unkonkret, Note 5

Meteo Schweiz vom Nov. 2018: Gering erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter zu knapp 30% wahrscheinlich; normaler zu 33%. Die „doppelten T“ sind die Fehlerbalken; die Prognose gilt nur für die Nordostschweiz:

Bewertung: Auch in der Nordost-Schweiz verlief dieser Winter mit Ausnahme des Januars merklich zu mild. Grob zutreffend; aber sehr unkonkret, Note 4

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2018: Dezember normal, Januar sehr kalt, Februar etwas zu mild. Winter insgesamt etwa normal. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland:

Bewertung: Dezember und Januar stark unterschätzt; jeweils Note 6. Februar um knapp 1 K unterschätzt; Note 4. Winter insgesamt merklich unterschätzt; Note 5; Gesamtnote 5

IRI (folgende Abbildung), Vorhersage vom Nov. 2018: Kaum Aussagen für Deutschland; lediglich in Ostsachsen und Südbayern leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter; zu mild in weiten Teilen Nord- und Osteuropas:

Bewertung: Wegen fehlender Aussagen für weite Teile Deutschlands wertlose Prognose; auch in Südost-Sachsen und Südbayern verlief dieser Winter trotz der Schneemassen im Januar merklich zu mild; Note 6.

DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1990 bis 2017 (Stand Nov. 2018):

Bewertung: Das DWD-Wintermittel 1990 bis 2017 beträgt 1,3°C; die Abweichung dazu ergibt für 2018/19 1,5K; vorhergesagt waren 1,8 bis 2,3°C; gerade noch Note 3, weil aber Aussagen zu einzelnen Monaten fehlen, Abwertung auf Note 4

NASA (US-Weltraumbehörde) Karten vom November 2018: Alle drei Wintermonate und Winter insgesamt zu mild:

Bewertung: Dezember und Februar deutlich unterschätzt, jeweils Note 6. Januar leicht überschätzt, besonders für Süddeutschland, Note 3 bis 4. Da der Gesamtcharakter des Winters (zu mild) grob richtig geschätzt wurde, Gesamtnote 4.

Donnerwetter Berlin (Quelle). Neben den Aussagen für Berlin werden auch gesamtdeutsche getroffen, freilich ohne Bezugswert; Stand Nov. 2018:

Alle 3 Wintermonate in Deutschland zu kühl; in Berlin soll der Winter um 2 bis 3 Kelvin zu kalt ausfallen; wobei der Januar 2019 die stärksten negativen Abweichungen bringen soll.

Bewertung: Krasse Fehlprognose aller Monate und des gesamten Winters; Note 6

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 14. bis 23.11. 2018): Winter insgesamt zu mild. Dezember (links) normal, nur in Südwestdeutschland etwas zu mild, Januar (rechts) besonders in Ostdeutschland sehr mild, Februar (unten) besonders an den Küsten sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Diese experimentellen, fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Dezember und Februar stark unterschätzt; Note 6. Januar leicht überschätzt; Note 3 bis 4. Da der Gesamtcharakter des Winters (zu mild) grob richtig geschätzt wurde, Gesamtnote 4.

Stefan Kämpfe (verfasst am 25.11. und veröffentlicht bei EIKE am 28.11.2018):

Fazit: Eindeutige, verlässliche Anzeichen für einen Winter sowohl in die extrem kalte als auch in die extrem milde Richtung fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis zu milden Winters. Gegenwärtig kündigen sich keine markanten Kälteeinbrüche bis mindestens zum 10. Dezember an. Insgesamt fällt der Winter 2018/19 nach momentanem Stand also in etwa normal bis mäßig-mild aus und wird im Deutschland- Mittel auf -0,5 bis +2,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Kategorien „zu kalt“, „normal“ und „zu mild“ stellen sich die Wahrscheinlichkeiten des Winters 2018/19 folgendermaßen dar:

Die Schneesituation für Wintersport besonders in Lagen unter 1.500m bleibt zumindest in der ersten Dezemberdekade meist mangelhaft, weil intensive Niederschläge fehlen und es zeitweise auch hier zu Plustemperaturen kommen kann. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis zu mild). Für Jan/Feb. 2019 lässt sich noch kein Temperaturbereich schätzen; doch deuten manche Signale auf einen eher kalten Januar 2019 und einen eher sehr milden Februar hin. Das Schneeaufkommen nach Mitte Dezember ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein normaler bis milder Hochwinter deutlich wahrscheinlicher, als ein durchgehend zu kalter. Wegen eines möglichen Wechsels zur Westwindphase in der unteren Stratosphäre (QBO) sind nämlich längere, sehr milde Phasen noch nicht völlig ausgeschlossen; sie stehen im Widerspruch zu einigen Prognosesignalen für einen kalten Januar. Sollte der Dezember zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2019 noch weiter.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 5% Wirbelsturm-Aktivität und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Bewertung: DWD-Wintermittel (2,8°C) knapp verfehlt; Note 3. Dezember-Mittel 2018 für Erfurt (reell 3,8°C) um 1,3 K verfehlt; Note 5. Der Gesamtcharakter und der zeitliche Temperaturverlauf des Winters wurden grob richtig geschätzt; Gesamtnote 4.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 04.03.2019




Hurrikane und Klimawandel 3: Übertritte auf das Festland

Auf das Festland übertretende Hurrikane

Die globale Hurrikan-Statistik weist eine einfache Relation auf zu globaler und regionaler Klima-Variabilität und -Änderung. Allerdings gilt auf das Festland übertretenden Hurrikanen wegen deren sozio-ökonomischen Auswirkungen besonderes Interesse.

Wirtschaftliche Verluste durch auf das Festland übergreifende Hurrikane haben sich während der letzten Jahrzehnte erhöht, sowohl in den USA als auch global. Will man dabei ein Signal einer anthropogenen globalen Erwärmung ausmachen, erfordert dies die Identifikation eines Trends, welcher dieser Erwärmung zugeordnet werden kann, und zwar bei jedem der Faktoren, die zu den wirtschaftlichen Schäden beitragen. Zu diesen Faktoren gehören: Häufigkeit, Intensität, horizontale Ausdehnung, Verlagerungsgeschwindigkeit vor der Küste, Tornados und Regenmenge.

Kontinentale USA

Klotzbach et al. (2018) haben eine umfassende Evaluierung der Daten bzgl. auf das Festland übertretender Hurrikane durchgeführt, und zwar seit dem Jahr 1900.

Abbildung 5.1 (oben) zeigt die Zeitreihe der auf das Festland der USA übertretenden Hurrikane im Zeitraum von 1900 bis 2017. Während die Jahre 1986, 2004 und 2005 diesbezüglich Spitzenwerte aufweisen, zeigt sich seit 1900 eine insgesamt negative Trendlinie, wenngleich diese auch nicht statistisch signifikant ist. Abbildung 5.1 (unten) zeigt die gleiche Zeitreihe, aber für starke Hurrikane der Kategorie 3 bis 5. Den Spitzenwert in dieser Hinsicht hält das Jahr 2005 mit 4 derartigen Hurrikanen. Allerdings trat im Zeitraum 2006 bis 2016 kein einziger dieser starken Hurrikane auf das US-Festland über, was den längsten derartigen Zeitraum seit Beginn der Aufzeichnungen im Jahre 1900 markiert.

Abbildung 5.1: Zeitreihen von 1900 bis 2017 für auf das US-Festland tretende Hurrikane (oben) und starke Hurrikane (unten). Die gepunkteten Linien repräsentieren die jeweiligen Trendlinien über diesen Zeitraum, sind aber beide statistisch nicht signifikant. Nach Klotzbach et al. (2018)

Villarini et al. (2012) legen eine Auflistung der Festlands-Übertritte bis zurück zum Jahre 1878 vor (Abbildung 5.2). Während vielleicht einige Übertritte in den ersten Jahrzehnten nicht erfasst worden sein können, weil sie in dünn besiedelten Gebieten an der Golfküste stattfanden, ist es bemerkenswert, dass das Jahr mit der höchsten Anzahl von Übertritten in der gesamten Reihe das Jahr 1886 ist.

Abbildung 5.2: Zeitreihe der Anzahl auf das US-Festland übertretender Hurrikane im Zeitraum 1878 bis 2008. Nach Villarini et al. (2012).

Eine energetische Perspektive dieser Art von Hurrikanen zeigen Truchelut und Staehling (2017). Abbildung 5.3 zeigt die Zeitreihe der Akkumulierten Zyklon-Energie (ACE) dieser auf das Festland übertretenden Hurrikane, bezeichnet hier als Integrated Storm Activity Annually Over the Continental U.S. (ISAAC). Der Zeitraum 2006 bis 2016 ohne derartige Ereignisse hängt zusammen mit einem ACE-Wert, der unter 60% des Mittelwertes über den Zeitraum 1900 bis 2017 beträgt.

Abbildung 5.3: Zeitreihe von ISAAC 1900 bis 2017, mit einem bei zehn Jahren zentrierten mittleren Wert (rot). Nach Truchelut und Staehling (2017).

[Es folgen viele weitere Graphiken und Zahlen, die das oben Gesagte unterstreichen. Anm. d. Übers.]

Karibik

Klotzbach (2011) summiert auch die Hurrikane in der Karibik (Abbildung 5.8). Man erkennt keinen signifikanten langzeitlichen Trend. Der primäre Treiber der Variabilität in der Karibik ist die ENSO, wobei es bei La Nina-Bedingungen viel mehr Aktivität gibt als bei El Nino-Verhältnissen. Im multidekadischen Zeitmaßstab spielt die AMO eine signifikante Rolle bei der Hurrikan-Aktivität in der Karibik. Untersucht man ENSO und AMO kombiniert, findet sich sogar eine noch stärkere Relation. Beispiel: während der 10 stärksten La Nina-Jahre in einer positiven (warmen) AMO-Phase waren dort 29 Hurrikane aufgetreten, bei umgekehrten Verhältnissen beider Zirkulationssysteme waren es lediglich 2 Hurrikane.

Abbildung 5.8: Hurrikane in der Karibik im Zeitraum 1900 bis 2018. Aktualisiert nach Klotzbach (2011).

Chenoweth und Divine (2008) zeigen eine längerfristige Perspektive von Hurrikanen in der Karibik, indem sie auf der Grundlage eines historischen Dokumentes eine 318 Jahre lange Zeitreihe unter Einschluss der Kleinen Antillen im Zeitraum 1690 bis 2007 untersuchten. Zeitungsmeldungen, Logbuch-Eintragungen von Schiffen, meteorologische Journale und andere Quellen mit Dokumenten wurden herangezogen, um diesen Datensatz zu erstellen. … Die Anzahl tropischer Zyklone zeigt keine signifikanten Trends (Abbildung 5.9). Die meisten Hurrikane waren zu Beginn des 19. Jahrhunderts aufgetreten. Der Zeitraum 1968 bis 1977 war möglicherweise der inaktivste Zeitraum seit der Besiedlung der Inseln in den zwanziger und dreißiger Jahren des 17. Jahrhunderts.

Abbildung 5.9: Anzahl von Hurrikanen (oben), Tropical Storms (Mitte) und sowohl Hurrikane als auch Tropical Storms (unten) von 1690 bis 2007. Die rote Linie markiert ein gleitendes Mittel über 21 Jahre.

Global

Weinkle et al. (2012) fassen die Schwierigkeiten zusammen bei der Konstruktion eines homogenen Datensatzes bzgl. auf das Festland übertretender Hurrikane. Die Unsicherheit bei der Ortung und der Intensität ist eine Funktion des sich entwickelnden Beobachtungs-Netzwerkes über das gesamte vorige Jahrhundert. Das reicht von Schiffsbeobachtungen über Flugzeugmessungen bis hin zur Fernerkundung mittels Satelliten. Weinkle et al. (2012) erfassten alle Festlands-Übertritte im Nordatlantik, Nordost- und West-Pazifik, dem nördlichen Indischen Ozean und der Südhemisphäre. Sie nutzten dabei das International Best Track Archive for Climate Stewardship (IBTrACS).

Die globale Häufigkeit auf das Festland übertretender Hurrikane zeigt global eine beachtliche Variabilität von Jahr zu Jahr, aber keinen signifikanten linearen Trend (Abbildung 5.10). Außerdem gibt es bei Betrachtung jedes Ozeanbeckens individuell keinen signifikanten Trend außer auf der Südhemisphäre. Dies kommt nicht unerwartet angesichts der bekannten multidekadischen Signale der Aktivität tropischer Zyklone, was durch die kurze historische Reihe nicht adäquat aufgelöst werden kann.

Abbildung 5.10: Häufigkeit globaler Hurrikane im Zeitraum 1970 bis 2018. Aktualisiert von Weinkle et al. (2012)

Wasser – Regenmenge und Sturmfluten

Historisch waren die verhängnisvollsten Auswirkungen von Hurrikanen immer verursacht durch Sturmfluten und Überschwemmungen landeinwärts (Blake et al. 2011). In diesem Abschnitt wird beschrieben, ob es in dieser Hinsicht eine Zunahme gegeben hat.

Regenmenge

Es wurde geschätzt, dass im Mittel tropische Zyklone von mindestens der Stärke einer Tropical Depression etwa ein Viertel zur jährlichen Regenmenge im Südosten der USA beitragen. Soule et al. (2012) zeigten, dass tropische Zyklone in den südöstlichen USA häufig Dürren beendeten. In der Mehrzahl der Landkreise in Florida, Georgia, South Carolina und North Carolina sind mindestens 20% der dortigen Dürren durch einen tropischen Zyklon beendet worden, und zwar im Zeitraum 1950 bis 2008.

Hurrikane sind auch ursächlich für etwa 20% der gemessenen monatlichen Regenmenge von Juni bis November im Getreide-Gürtel der östlichen USA [U.S. Corn Belt]. Dieser umfasst die US-Bundesstaaten Wisconsin, Michigan, Illinois, Indiana, Ohio und Kentucky (Kellner et al. 2016).

Während Überschwemmungen landeinwärts typischerweise in einem auf das Festland übertretenden Hurrikan auftreten, führen verschiedene Faktoren zu exzessiven Regenmengen. Geringe Verlagerungsgeschwindigkeit der Hurrikane kann lokal zu sehr hohen Regenmengen führen. Berge/Gebirge in Küstennähe können durch erzwungene Hebung den Regen noch verstärken. Tröge der Höhenströmung und Kaltfronten können ebenfalls zu exzessiven Regenmengen führen. Größere tropische Zyklone haben auch einen größeren Regen-Fußabdruck. Hoher Feuchtigkeitsgehalt in der Luft trägt ebenfalls zu exzessiven Regenmengen bei. Verlagert sich ein Hurrikan weiter landeinwärts und wird dabei vom Nachschub von Wärme und Feuchtigkeit (aus dem Ozean) abgeschnitten, verringert sich die Regenmenge rasch, es sei denn, es kommt noch erzwungene Hebung im Luv von Gebirgen dazu.

Roth (2017) legt eine Liste mit Hurrikanen vor, welche die höchsten Regenmengen in jedem Land/jeder Insel im Nordatlantik mit sich brachten (Tabelle 5.2). In der Tabelle nicht enthalten ist die Regenmenge des Hurrikans Harvey mit 1539 mm Regen. Er war erst nach Erstellen der Tabelle aufgetreten. Man erkennt, dass die Hurrikane Mitch (1998), Wilma (2005), Flora (1963) und diejenigen im November 2009 jeweils Regenmengen lieferten, die über diejenige von Harvey hinausgingen.

Tabelle 5.2: Liste mit Hurrikanen, welche die größten Regenmengen im Nordatlantik mit sich brachten. Quelle: Roth (2017):

Sturmfluten

Die Magnitude einer Sturmflut ist abhängig von der Intensität, der Verlagerung, der Größe (= des Radius‘ maximaler Winde), dem Auftreff-Winkel an der Küste, dem Kerndruck, dem Zeitpunkt der jeweiligen Gezeiten und den Formen und Charakteristika küstennaher Landstriche.

Der Meeresspiegel beeinflusst ebenfalls die Höhe von Sturmfluten. Seit dem Jahr 1900 ist der Meeresspiegel global um 18 bis 20 cm gestiegen. Abhängig von der lokalen Topographie kann eine geringe Änderung der Höhe des Meeresspiegels zu einer signifikanten Zunahme der Ausbreitung von Sturmfluten landeinwärts führen.

Die höchste dokumentierte Sturmflut in den USA war im Zuge des Hurrikans Katrina aufgetreten, als an dem Messpunkt Pass Christian eine solche mit einer Höhe von ca. 8,5 m gemessen worden ist.

Tabelle 5.3: Hurrikan-Sturmfluten seit dem Jahr 1900 (Quelle):

Durch Hurrikane ausgelöste Tornados

Wie von Belanger et al. (2009) zusammengestellt, lösen die meisten Hurrikane auch Tornados aus. Hurrikane, die vom Golf von Mexiko aus auf das US-Festland übertreten, bringen mehr Tornadoereignisse mit sich als solche, die vom Atlantik her aufziehen. Die meisten dieser Tornados sind schwach, aber einige wenige verursachten auch schwere Schäden.

Schäden und Verluste

Von der MunichRe (2018) zusammengestellte Daten zeigen, dass die wirtschaftlichen Schäden weltweit durch auf das Festland übertretende tropische Zyklone während der letzten Jahrzehnte zugenommen haben. Historisch waren die größten Schäden durch Wind und Sturmflut aufgetreten. Jüngst gab es jedoch eine Reihe von Stürmen, bei denen die größten Schäden durch starken Regen verursacht worden waren, besonders bei sich nur wenig verlagernden Stürmen (z. B. Hurrikan Harvey 2017 und Hurrikan Florence 2018).

Während es aus Beobachtungen keinerlei Hinweise auf eine zunehmende Intensität derartiger Hurrikane gibt, weder im Atlantik noch global, gibt es klare Hinweise auf gestiegene Schäden durch diese Hurrikane. Ist diese Zunahme allein zunehmender Bevölkerung und Wohlstand in anfälligen Küstengebieten geschuldet, oder gibt es irgendein Element bzgl. Klimawandel, welches zu der Zunahme der Schäden beiträgt?

Um diese Frage zu beantworten, bedarf es einer korrekten Erkennung der relevanten Variablen, welche die Schäden treiben. Zusätzlich zu Häufigkeit und Intensität von auf das Festland übertretenden Hurrikanen tragen noch folgende Variablen zu den Schäden bei: horizontale Ausdehnung der Hurrikane, Verlagerungsgeschwindigkeit nahe der Küste, Sturmflut und Regenmenge.

Klotzbach et al. (2018) sowie Weinkle et al. (2018) haben sich der Frage gewidmet, ob die Schäden auf dem US-Festland inflationsbereinigt seit 1900 signifikant zugenommen haben. Beide Studien zeigen, dass seit dem Jahr 1900 weder die Häufigkeit noch die Intensität dieser Hurrikane signifikante Trends zeigen, einschließlich der verheerenden Saison 2017. Wachstum der Bevölkerung in küstennahen Gebieten und regionaler Wohlstand sind die überwältigend stärksten Faktoren bei der Zunahme von Schäden durch Hurrikane. Dieser Trend führte zu einer immer stärkeren Verwundbarkeit küstennahen Eigentums an der Ost- und der Golfküste.

Link: https://judithcurry.com/2019/02/27/hurricanes-climate-change-landfalls/#more-24758

Part II: https://judithcurry.com/2019/02/20/24737/#more-24737

Part I: https://judithcurry.com/2019/02/17/hurricanes-climate-change-detection/#more-24723

Übersetzt von Chris Frey EIKE




Dokument des Grauens Teil II – Svenja Schulze erläutert ihr Harakiri Gesetz den lieben Genossinnen und Genossen

Wenn es überhaupt noch eines Beweises bedurfte, dass die Merkel-Regierung gegen alle Interessen Deutschlands regiert, dann liefert ihn der Brief der Umweltbundesministerin Svenja Schulze (SPD) an die Mitglieder der SPD Bundestagsfraktion vom 4. März.  Darin versucht sie ihren „Lieben Genossinnen und Genossen“, den Sinn und Zweck, des von ihr vorgelegten Entwurfes für ein „Klimaschutzgesetz“ zu erläutern.

Gleich am Anfang bezieht sie sich auf den Koalitionsvertrag, den es abzuarbeiten gälte, aber auch auf die Ergebnisse der Kohleausstiegskommission, die auftragsgemäß (Hervorhebung vom Autor) „einen verbindlichen  Pfad zum Ausstieg aus der Kohleverstromung vorgeschlagen hat“.

Um dann mit dem vereinnahmenden „wir“ fortzufahren ..

„Damit schaffen wir die Grundlagen dafür, dass die Sektorziele 2030 erreicht werden. Auf dieser Grundlage wollen wirein Gesetz verab­schieden, das die Einhaltung der Klimaschutzziele 2030 gewährleistet.

Nach diesem kühnen Sprung, einen nicht bindenden Vorschlag, einer nicht gewählten, aber handverlesenen Kommission, die in der Mehrzahl ihrer Mitglieder aus voreingenommenen Klimaaktivisten bestand, oder aus Opportunisten, die schon immer nach der Pfeife der jeweiligen Regierung tanzten, zur bindenden Vorlage des wohl rabiatesten Gesetzes zur Einführung einer Ökodiktatur zu erklären, führt sie im Folgenden lauter Behauptungen auf, warum der (menschgemachte) Klimawandel so gefährlich sei.

Und nicht nur die Welt aufs Höchste gefährde, sondern auch sonst für alles Übel auf der Welt verantwortlich sei, wobei – nicht zu vergesseen- auch Deutschland „Teil des Problems“ sei:

Das liest sich dann so:

„Den vom Menschen verursachten Klimawandel einzugrenzen ist eine der zentralen Aufgaben unserer Zeit.Schon heute sind die Folgen wie Hungers­nöte, Wasserknappheit, Naturkatastrophen oder weltweit drastisch steigende Migrationsströme, die in nahezu alle Politikbereiche eingreifen, zu spüren. Und anders als oftmals behauptet wird, ist Deutschland Teil des Problems und hat seine Hausaufgaben längst nicht gemacht: Im Vergleich sind wir pro Kopf weltweit der viertgrößte Emittent von C02. Damit liegen wir zwar hin­ter den USA, Russland und Australien, aber deutlich vor China oder dem Durchschnitt der Europäischen Union.“

Doch obwohl nicht eine ihrer Behauptungen über die Gründe der Hungersnöte, Wasserknappheit  etc. belegt ist, weil nicht eine dieser Behauptungen den Tatsachen entspricht, und weil das alles – sowohl von Frau Ministerin, als auch ihren Ministerialen- leicht zu überprüfen wäre, ist all das, was die Politikerin da ihren Genossen schreibt, nichts weiter als eine Aneinanderreihung von groben Lügen.  Spricht jemand vorsätzlich, also wider besseres Wissen, die Unwahrheit, dann ist das eine Lüge!

So erwähnt sie mit keinem Wort, die massive Überbevölkerung, insbesondere in den arabischen Ländern, sowie weiten Teilen Afrikas, als Haupt-Ursache für Raubbau an den Ressourcen und anschließende Verteilungskämpfe, wie bspw. den Bürgerkrieg in Syrien..

Bspw. stieg die Bevölkerung Somalias in den letzten 50 Jahren von 1,6 auf 16 Millionen und wird in wenigen Jahrzehnten die 40 Millionen Grenze übersteigen.

Wenn dann noch Dürren, wie schon immer mal wieder, hinzukommen, die verhindern, dass sich die übernutzten Ressourcen bspw. an Wasser wieder auffüllen, dann kommt es zu dieser Wasserknappheit mit der Folge von Hungersnöten und allen dramatischen Folgen.

Das ist für Frau Schulze keiner Erwähnung wert.

Und so geht es munter weiter. Denn sie fährt fort, dass Deutschland sich ja verpflichtet hätte mehr für den „Klimaschutz“ zu tun, und nun würde das eben umgesetzt. Und Geld würde das ja auch alles nichts kosten. Jedenfalls nicht die Ressorts. Usw, usw, usw. Lüge reiht sich an Lüge.

Um schlussendlich mit diesem Gesetz, einen pseudo-objektiven „Sachverständigengremium für Klimafragen“ zu gründen, der, handverlesen wie andere bekannte „Sachverständigengremien“, genau das vorschlägt, was der „Klimaschutzplan“ 2050, nach ihrer getricksten Darstellung verlangt.

Und erfüllt damit punktgenau den schon lange geäußerten Wunsch des  Potsdamer Klimakatastrophenpapstes H.J. Schellnhuber und seines „Wissenschaftlichen Beirat Globale Umwelt“ (WBGU)[1], der schon seit langem fordert, genau einen solches Gremium zu gründen. Und dass es die letzte Instanz für alle Politik-Entscheidungen sein soll, die auf irgendeine Weise „das Klima“ betreffen. Also für alles und jedes.

Das ist Ökodiktatur pur. Und daran ändern auch die Lippenbekenntnisse zum Parlamentsvorbehalt nichts, denn wir haben ja erlebt wie schnell der ausgehebelt werden kann.

Nun kann man sich fragen, auf welche Seite sich die lieben Genossinnen und Genossen der Frau Svenja Schulze stellen werden. Auf die Seite einer nach Ökodiktatur strebenden Klimakirche mit ihren Erfüllungsgehilfen in Parteien, NGO´s und im Parlament, oder auf der Seite ihrer Wähler, die um Jobs bangen, ihre Steuern zahlen, weitestgehend auch die absurdesten Gesetze beachten und hart für ihren Lebensunterhalt jeden Tag arbeiten müssen.

Die kommenden Wahlen werden es zeigen. Vielleicht ist es aber dann schon zu spät.

Aber bitte lesen Sie selbst 190304_Brief-BM-Schulze_KSG

 

[1]Welt im Wandel (WBGU) 2011 https://www.wbgu.de/fileadmin/user_upload/wbgu.de/templates/dateien/veroeffentlichungen/hauptgutachten/jg2011/wbgu_jg2011.pdf