Wie genau sind unsere Messungen bzgl. Wetter und Klima?

Heute dagegen brauchen wir beispielsweise auf einem Flug von New York nach Los Angeles detailliertere und zuverlässigere Wetterinformationen, wie z. B. ob es bei der Zwischenlandung in St. Louis schneit. Oder der Landwirt in Nebraska, der die Vorhersage für die Frühjahrsweizenproduktion in der Ukraine sehen muss. Er braucht die bestmöglichen Informationen, um besser abschätzen zu können, wie viele Hektar Winterweizen er für die heutigen globalen Märkte anbauen sollte.

Wir brauchen vor allem bessere und zuverlässigere Informationen, um zu entscheiden, welche Maßnahmen wir zur Vorbereitung auf Klimaveränderungen in Betracht ziehen sollten.

Während Wissenschaftler, Ingenieure und Software-Programmierer die Bedeutung und die Notwendigkeit dieser Datengenauigkeit kennen, ist sich die breite Öffentlichkeit nicht bewusst, wie herausfordernd diese Aufgaben sein können.

Wenn wir langfristige Klimadaten betrachten, müssen wir unter Umständen mehrere Proxies (indirekte Messgrößen, von denen wir hoffen, dass sie direkt mit dem Wetter variieren) verwenden, die eine zusätzliche Ebene von Komplexität, Kosten und Fehlerquellen hinzufügen. Einer der am häufigsten verwendeten Proxies sind die alten Temperatur- und CO2-Werte aus Eiskernproben. In den letzten paar hundert Jahren waren auch Baumringdaten eine primäre Quelle für die Jahrestemperaturen. Aber seit dem letzten halben Jahrhundert werden direkte atmosphärische Messwerte verwendet, die sehr genau und zuverlässig sind.

Aus Abbildung 1 geht hervor, dass der CO2-Gehalt ab Mitte der 1950er Jahre dramatisch anstieg. Wir haben aufgehört, Proxies zur Messung des atmosphärischen CO2-Gehalts zu verwenden, und haben begonnen, direkte Messwerte von der Mauna Loa Wetterstation auf Hawaii zu verwenden. Wir müssen uns also fragen, ob dieser dramatische Anstieg des CO2-Gehalts real war, oder ob er durch die Änderung des Messverfahrens teilweise verzerrt wurde. Oder wir haben in den frühen 1960er Jahren aufgehört, Baumringdaten zu verwenden. In der Zeit, als wir sowohl Baumring- als auch Thermometer-Aufzeichnungen hatten, wurden gewisse Diskrepanzen festgestellt. Wir können solche Änderungen in den Messungen nicht vornehmen, ohne Raum für Zweifel zu lassen.

Abbildung 1 zeigt zum Beispiel den CO2-Gehalt der Jahrtausende alten antarktischen Eisschilde. Vor Mitte der 1950er Jahre wurden die CO2-Schätzungen auf der Grundlage des CO2-Gasgehalts der Eisbohrkerne berechnet. Die auf diese Weise gemessenen CO2-Gehalte schienen über einen Zeitraum von mehreren zehntausend Jahren nie viel über 280 ppm zu steigen.

Man beachte nun, dass wir, beginnend vor etwa 6.000 Jahren, einen kleinen, aber stetigen Anstieg sehen, wenn wir von links nach rechts schauen. Und der Anstieg scheint bis Mitte der 1990er Jahre einigermaßen konstant zu sein. Hier ist die klassische Annahme, dass sowohl das CO2 als auch die Temperaturen gestiegen sind.

Kürzlich haben sich Wissenschaftler die abwärts gehende Neigung angesehen, wenn wir in den 1950er Jahren stehen und von rechts nach links schauen. Dabei stellt sich die Frage, ob das CO2 durch das enorme Gewicht der Gletscher herausgedrückt wird, während sie altern, und vielleicht auch in Kombination mit CO2, das chemisch gebunden wird, und in welchen Anteilen. Ab Mitte der 1950er Jahre sehen wir einen sehr deutlichen und schnellen Anstieg der CO2-Werte, und wir sehen die inzwischen bekannten CO2-Hockeyschläger. Ist das CO2 so schnell angestiegen, oder war es Teil der Anomalie, die durch die Änderung der Messmethoden verursacht wurde? Wir denken Letzteres.

Woher soll der Durchschnittsbürger das wissen? Wurde diese dramatische Veränderung jemals genau und verständlich erklärt? Wir wollen das erst einmal allgemeiner als „Datenintegrität“ bezeichnen.

Hier ist ein weiteres einfaches Beispiel. Wenn wir die Temperatur in der Gegend von Boston vor 200 Jahren messen wollten, hätten wir vielleicht zwanzig Thermometer an zwanzig verschiedene Orte gebracht. Wir hätten einige allgemeine Entscheidungen getroffen, einige entlang der Küste und den Rest an verschiedenen Stellen in der Stadt und auf dem Land zu platzieren – vor allem auf Bauernhöfen. Wir hätten vielleicht nur ein oder zwei in den Bergen oder Wäldern aufgestellt, weil diese Stationen bemannt sein und die Daten mehrmals am Tag aufgezeichnet werden mussten. Dann, vielleicht ein- oder zweimal pro Tag oder Woche oder Monat, könnten sie konsolidiert worden sein, um eine durchschnittliche „Boston-Temperatur“ für Oktober 1820 zu erhalten. Wie würde es aussehen, wenn die Boston-Temperatur im Oktober 1920 bzw. 2020 verglichen werden, um zu sehen, ob sie gestiegen ist oder nicht? Nun, das stellt eine ziemliche Herausforderung dar:

In den letzten hundert Jahren könnten einige Bäume um das Thermometer herum gewachsen sein, während die Thermometer im Jahr 1920 vielleicht den ganzen Tag in der vollen Sonne standen. Was nun?

● Einige Instrumente wurden aus irgendeinem Grund verschoben, z. B. wegen einer großen Autobahnbaustelle; wie hat sich das auf die Temperaturmesswerte ausgewirkt?

● Einige Instrumente könnten nach und nach für Monate oder sogar Jahre nicht mehr kalibriert worden sein, bevor sie repariert oder ersetzt wurden. Was machen wir mit den verdächtigen Daten während des fraglichen Zeitraums? Ignorieren?

● Wenn die Instrumente ersetzt wurden, wie wurden sie ersetzt? Einige Variablen sind die gleiche Höhe über dem Boden, der gleiche Schutzkasten, Quecksilber ersetzt durch Alkoholthermometer oder Thermoelemente, usw.

● Eine Wetterstation befand sich in der Nähe einer unbefestigten Straße, bis sie 1926 mit Zement und 1963 mit Asphalt bedeckt wurde? Später wurde sie wieder zu einem Feldweg umgestaltet, als das Gebiet 2004 zu einem Naturpark wurde?

● Wie würden wir diese Temperaturen[iii] mit den Temperaturen bis zum Jahr 2020 vergleichen, kontrastieren und integrieren? Sehr unterschiedlich und sehr herausfordernd:

1) Instrumente, die einst auf einer Weide standen, befinden sich jetzt in der Nähe von Flughafenlandebahnen und Düsenabgasen!

2) Ein anderes war in der Nähe einer schattigen, sandigen Straße, die jetzt ein asphaltierter Parkplatz ist.

3) Thermoelemente haben viele Thermometer ersetzt; wie wurden die Messwerte „zusammengestoppelt“?

4) Andere Wetterstationen wurden einfach wegen der hohen Kosten für ihre Wartung aufgegeben oder durch ein ferngesteuertes Thermoelement oder Telemetrie ersetzt.

5) Wie kann man[i] die Auswirkungen der Umweltverschmutzung der 1960er bis 1990er Jahre mit dem unberührten Himmel der 1800er Jahre in Einklang bringen, wenn Wolken eine so wichtige Rolle spielen?

6) Und die Wolkendecke von 1820 war wahrscheinlich ganz anders als heute, als Folge der zunehmenden Menge an „Aerosolen“, die eine wichtige Rolle bei der Wolkenbildung, dem „Treibhaus“- und dem „Albedo“-Effekt spielen.

In den letzten Jahrzehnten, und vor allem seit der Satelliten-Ära, wurden Hunderte von erdgebundenen Wetterstationen aus verschiedenen Gründen aufgegeben, unter anderem aus Kostengründen und wegen der Zuverlässigkeit der Daten. In den letzten Jahrzehnten haben die NASA und die NOAA versucht, aktuelle und historische Wetteraufzeichnungen an Land und auf dem Meer zu „normalisieren“. Abbildung 2 zeigt zwei Sätze von genau denselben Daten! Die blaue Linie repräsentiert die tatsächlichen landbasierten Temperaturen von 1.218 Stationen in den USA, als die Messwerte aufgenommen wurden. Man vergleiche das mit der roten Linie, die genau die gleichen Temperaturaufzeichnungen darstellt, aber nachdem sie von der NOAA „normalisiert“ wurden*.

*In einem Beitrag bei Real Climate Science wird schon Ende 2016 festgestellt: „Das Problem mit der NOAA-Graphik besteht darin, dass es Fake-Daten sind. Die NOAA erzeugt den Erwärmungstrend künstlich mittels Veränderung der Daten. Die RohDaten der NOAA zeigen im vergangenen Jahrhundert keinerlei Erwärmung“.

„Normalisierung“ hat eine praktische Grundlage. Es ist ein bisschen so, als würde man die Menge des Obstes berechnen, wenn man Äpfel zu Orangen addiert. Allerdings ist der Prozess anfällig für fehlerhafte Annahmen und Ausführung. Der prominente Umweltwissenschaftler Donald Easterbrook behauptet, dass die bisherigen historischen Aufzeichnungen absichtlich manipuliert wurden, wie in Abb. 2 dargestellt. Es wurde der Vorwurf erhoben, dass diese Temperaturen verzerrt wurden, um in das aktuelle Narrativ des CO2-induzierten globalen Klimawandels zu passen. Die historischen Daten der blauen Linie wurden in den letzten Jahrzehnten mindestens viermal verändert, und nun in ihrer endgültigen Form zeigt die rote Linie einen dramatischeren, steileren Temperaturanstieg seit den 1980er Jahren, indem die Temperaturen in den vorangegangenen Jahrzehnten gesenkt wurden! Wenn wir heute aufgefordert werden, Multi-Billionen-Dollar-Entscheidungen zu treffen, die auf unserer Temperaturhistorie des letzten Jahrhunderts basieren, sind sie schwerwiegend und folgenreich geworden.

For more information we recommend our book A Hitchhikers Journey Through Climate Change, coming soon to the CFACT store at CFACT.org.

[i] http://www.clker.com/clipart-thermometer-in-beaker.html

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone is an Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2021/01/05/how-accurate-are-our-weather-and-climate-measurements/

Übersetzt von Chris Frey EIKE

 




Verlangsamung der CO2-Anreicherung in der Luft – durch COVID oder durch die Natur?

Hier möchte ich jetzt meine Hypothese überprüfen hinsichtlich des Löwenanteils der Ursachen für die CO2-Zunahme, selbst wenn ich sicher bin, dass dieses nur eine geringe Rolle bzgl. des Erdklimas spielt (wenn überhaupt eine).

Hier zunächst ein paar einfache Fakten:

1.Ozeane sind die größte CO2-Senke

2.Je wärmer die Ozeane, umso mehr CO2 wird freigesetzt

3.Die Ozeane sind wärmer geworden.

Beispiel: Man betrachte die Wassertemperatur heute (rechts) mit der vor 35 Jahren:

Meine Hypothese ist, dass sich durch die natürliche zyklische Erwärmung der Ozeane eine kumulative Ansammlung von CO2 entwickelt hat. Dies setzt sich so lange fort, bis ein Gleichgewicht erreicht ist. Der Planet versucht, dem mit immer mehr Laub entgegenzuwirken, was eines der Standbeine meiner „keine Schuld“-Lösung für die auf CO2 basierende und auf Indoktrination fußende AGW-Angst. Pflanzen Sie also genug Bäume, bauen Sie genug Kernkraftwerke und machen Sie Kohlenstoffabscheidung, und wenn Sie CO2 für die Erwärmung verantwortlich machen (was ich im Großen und Ganzen nicht tue), ist das Problem gelöst, egal was Sie glauben. Ich skizziere es in meinem neuen Buch, The Weaponization of Weather in the Phony Climate War. Das ist ein Novum: jemand, der tatsächlich eine fehlerfreie Lösung für ein Problem vorschlägt, das höchstwahrscheinlich gar nicht existiert und das unsere Lebensweise nicht zerstören wird.

Die andere „Lösung“ ist der „Green New Deal“, der als Nebenprodukt wahrscheinlich die wirtschaftliche Lebensader der US-Wirtschaft stören, wenn nicht gar zerstören wird und genau ins Herz des Systems geht, um das uns die Welt beneidet.

Tatsache ist jedoch, dass die Verlangsamung auf Covid zurückgeführt wird, da Covid im Frühjahr eine weltweite Abschaltung der Industrie für mehrere Wochen verursachte. Zu dieser Zeit sah die CO2-Kurve sehr ähnlich aus wie in den Vorjahren zu dieser Zeit. Wir konnten also nichts erkennen. Aber jetzt, später im Jahr, wird die Behauptung hinaus posaunt, dass es die Covid-Abschaltungen waren, die sie gesenkt haben, ohne überhaupt die andere Seite der Debatte zu betrachten. Die Ozeane kühlen sich ab und die Anstiegsrate sollte sich nach meiner Vorstellung etwas verlangsamen.

Um das „Problem“ der Schuldzuweisung weiter zu vergrößern, kann meine Seite der Debatte (diejenigen von uns, die an eine aufgeschlossene Debatte glauben) nicht vor der Tatsache davonlaufen, dass CO2 und Temperatur in den letzten 35 Jahren gestiegen sind. Was bedeutet, dass die andere Seite einen Grund hat, ihren Standpunkt zu vertreten. Das Problem ist, dass sie nicht denken, jemand könne deren Narrativ in Frager stellen. Also, was ist es? Wie in vielen Beiträgen zuvor, ziehe ich SUPER NINOS in Betracht, um die entsprechenden höheren Temperatur-Plateaus zu erklären – es ist weitgehend mehr Wasserdampf, nicht CO2.

Super-Nino’s setzen immense Mengen an Wasserdampf frei, welche die Temperatur beeinflussen, vor allem in den Polarregionen, wo sie niedrigere Temperaturen und Taupunkte viel mehr beeinflussen als dort, wo es warm und feucht ist. Wir haben keine Temperatur/CO2-Korrelationen. Wir haben Korrelationen zwischen Wasserdampf und Temperatur. Ich frage mich, warum? Empfohlene Lektüre in meinem Buch:

Kapitel 6: Die globale Temperatur als Waffe

Hier noch einmal die relevante Keeling-Graphik der letzten zwei Jahre (Quelle):

Hier möchte ich auf zweierlei hinweisen: 1) Es gibt eine Abflachung der Kurve von Januar bis März, die wahrscheinlich auf die maximale Ausdehnung des globalen Meereises zu dieser Zeit zurückzuführen ist, da dies die Ausgasung von CO2 aus dem Ozean verhindert, was wiederum die Bedeutung der Ozeane und des CO2 und nicht die des Menschen zeigt. Wären die Ozeane komplett vereist, dann gäbe es keine CO2-Ausgasung. Es gäbe wahrscheinlich auch keine Menschheit, ein kleiner Punkt. Immerhin hat Prinz Phillip gesagt, dass er als Virus, der die Menschen ausrottet, wieder ins Leben zurückkehren will.

„Wenn ich wiedergeboren werden würde, würde ich mir wünschen, als Killervirus auf die Erde zurückzukehren, um die menschliche Population zu senken.“

2) Seit dem Tiefpunkt in diesem Jahr bei 411,2 ppm am 1. Januar sind wir bei ca. 414,2 ppm, ein Anstieg um 3 ppm seit dem Tiefpunkt (Pflanzen werfen Laub ab, und die Erwärmung nimmt zu, daher der CO2 -Anstieg in der kalten Jahreszeit)

Im letzten Jahr hatten wir einen Tiefpunkt von ca. 408 und einen Anstieg auf 413 am 1. Januar. Grob gesagt, ist das ein Defizit von 2 ppm vom letzten Jahr bis zu diesem Jahr im Anstieg. Die Industrie hat wieder aufgeschlossen. Ich glaube nicht, dass es an Covid liegt, aber ich vermute, dass die Abkühlung des Ozeans etwas damit zu tun hat.

Aber man wird sehen, dass die Covid-Klima-Koalition davon ausgeht, dass die indoktrinierte Öffentlichkeit ihre Prämisse, dass nämlich CO2 ursächlich für die Verlangsamung ist, akzeptieren wird ohne auch nur ansatzweise auf die andere Seite des Problems hinzuweisen. Gewöhnen Sie sich daran: Sie sehen hier eine Generalprobe dessen, wofür hier das Klima instrumentalisiert wird.

Nun die ultimative Ironie: Ich beobachte, wie meine Gegner in dieser Sache meine Vorhersage verifizieren. Das ist irgendwie interessant, oder? Vielleicht sollte ich mich bei ihnen bedanken.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here. phonyclimatewar.com

Link: https://www.cfact.org/2021/01/03/is-covid-or-nature-slowing-the-increase-in-co2/

————————————

Zu diesem Thema hat sich auch Willis Eschenbach Gedanken gemacht. Einen davon beschreibt er so [Anm. d. Übers.]:

Eine CO2-Besonderheit

Willis Eschenbach

Jüngst kam mir der oben stehende Beitrag vor Augen. Die im Titel gestellte Frage wollte ich mir auch einmal vornehmen. Hier zeigen sich die Mauna Loa-Daten. Oben: Die CO2-Zunahme, unten: die mittlere Änderung des CO2-Gehaltes von Monat zu Monat:

Eines geht daraus ganz klar hervor.

Die Rate der CO2-Zunahme hat sich kein bisschen geändert. Ich biete dafür keine Erklärung an … aber das ist kein gutes Zeichen für all jene, die da behaupten, dass es Lockdowns á la Covid bedarf, um das CO2-Niveau zu senken.

Link: https://wattsupwiththat.com/2021/01/05/a-co2-oddity/

Übersetzt von Chris Frey EIKE

 




UK: Keinerlei Erwärmung mehr seit dem Jahr 2006

Dies ist jedoch nicht mehr als ein Versuch, die höchst unbequeme Wahrheit zu vertuschen, nämlich dass die Erwärmung im Jahr 2006 aufgehört hat. Der 10-Jahres-Durchschnitt zeigt dies deutlich.
Wir können uns ein klareres Bild davon machen, wenn wir den Zeitraum seit 1991 heranzoomen.

Die 10-Jahres-Durchschnitte stiegen in den 1990er und frühen 2000er Jahren langsam an. Seitdem sind sie jedoch allmählich zurückgegangen und haben ihren Höhepunkt im Zeitraum von 1997 bis 2006 erreicht:

Das alles führt uns zu der Frage: was ist das „normale“ Klima für England?

Das Met Office würde sagen, dass dies der 30-Jahres-Durchschnitt ist, aber das ist nur ein künstliches Konstrukt aus Bequemlichkeit. Derzeit liegt der 10-Jahres-Durchschnitt der MEZ bei 10,40C, was kaum über dem Durchschnitt von 1991-2020 von 10,25C liegt. Die Differenz liegt deutlich innerhalb einer natürlichen Schwankungsbreite.

Immerhin stiegen die Jahrestemperaturen von 8,86C im Jahr 2010 auf 10,72C im darauffolgenden Jahr, rein aufgrund von Schwankungen des „Wetters“.

Die Grafik unten mit den höchsten und niedrigsten monatlichen Durchschnittstemperaturen für jeden Monat seit 1991 zeigt, wie variabel das englische Wetter sein kann:

Würden die „wärmsten“ Monate alle im gleichen Jahr auftreten, läge der Jahresmittelwert bei 12,8°C. Und wenn das Gleiche für die „kältesten“ Monate gelten würde, läge der Jahresmittelwert bei 7,3°C.

Die nächste Grafik zeigt diesen Bereich, wenn er mit den tatsächlichen Jahrestemperaturen überlagert wird:

Obwohl eine solche Eventualität statistisch äußerst unwahrscheinlich sein mag, sehe ich meteorologisch keinen Grund, warum sie nicht möglich sein sollte.

Zusammenfassend lässt sich sagen, dass die Auffassung, es gäbe eine „normale“ Jahrestemperatur oder gar ein „normales“ Klima in England, unwissenschaftlich ist. In der Tat ist sie nicht wissenschaftlicher als die Behauptung, es gäbe hier „normales“ Wetter.

Was das englische „Klima“ immer noch dominiert, ist die Variabilität des Wetters, von Tag zu Tag, von Monat zu Monat und sogar von Jahr zu Jahr. Alle zugrundeliegenden Klimatrends gehen im Rauschen unter.

[Hervorhebung vom Übersetzer]

Laut CET stiegen die Jahrestemperaturen zwischen den 1940er und 2000er Jahren um etwa 0,7 °C. Aber wie viel davon hing mit den zugrunde liegenden klimatischen Bedingungen zusammen, und wie viel war wetterbedingt?

Vielleicht ist der beste Anhaltspunkt, den wir haben, der Vergleich der wärmsten Jahre. Während 2014 mit 10,95°C das wärmste Jahr war, lag das Jahr 1949 mit 10,65°C nicht weit dahinter. Gehen wir weiter zurück, sehen wir Jahre wie 1733, 1779 und 1834, die alle über 10,4°C lagen.

Dies deutet darauf hin, dass der größte Teil der Erwärmung in den letzten drei Jahrzehnten mit dem Wetter und nicht mit dem Klimawandel zusammenhängt.

Link: https://wattsupwiththat.com/2021/01/03/no-warming-in-uk-since-2006/

Übersetzt von Chris Frey EIKE

 




Zum Befeuern des Klima-Alarms werden gute Nachrichten grundsätzlich als Katastrophe verkauft

Kürzlich haben The Guardian und andere Medien behauptet, dass ein aktualisierter Atlas der Lebensräume von Vögeln zeigt, dass die globale Erwärmung die Vögel weiter nach Norden „drängt“. Die Geschichte des Guardian würde einen glauben machen, dass Vögel ein Scharen durch den Klimawandel aus schrumpfenden natürlichen Lebensräumen in ungeeignete Gebiete gedrängt werden. Dies ist jedoch nicht wahr. Wie der Präsident des Heartland Institute James Taylor in einem Beitrag bei Climate Realism als Reaktion auf den Artikel des Guardian schrieb, erzählt der Atlas selbst eine völlig andere Geschichte.

Anstatt Vögel aus ihrem normalen Verbreitungsgebiet zu „verdrängen“ und sie nach Norden zu zwingen, profitieren Vögel von einem sich erwärmenden Klima, indem sie ihr Gesamtverbreitungsgebiet ausweiten – sie gedeihen in neuen, nördlichen Regionen, während sie auch in südlichen Regionen weiterhin gut gedeihen. Das Ergebnis des Klimawandels ist kein negatives „Verdrängen“ von Vögeln aus ihrem Lebensraum, sondern Vögel erfreuen sich größerer Lebensräume, während sie zur biologischen Vielfalt in ihren neuen Gebieten beitragen.

In der Tat, trotz der irreführenden, alarmierenden Titel der Geschichte [übersetzt], „Atlas: Vögel sind inmitten der Klimakrise nach Norden gezwungen worden“, räumt der Guardian weiter unten ein, was der Atlas wirklich zeigt: „Insgesamt haben 35 Prozent der Vögel ihr Brutgebiet vergrößert, 25 Prozent haben ihr Brutgebiet verkleinert und der Rest hat keine Veränderung gezeigt, oder der Trend ist unbekannt.“ Das ist eine gute Nachricht, denn, so räumte die Zeitung ein, laut Atlas gilt: „Im Allgemeinen ist es weniger wahrscheinlich, dass eine Art ausstirbt, wenn sie in mehr Gebieten vorkommt.“

Ein weiteres beängstigendes, aber nachweislich unwahres Klima-Alarm-Narrativ wurde in diesem Jahr in Form von Dutzenden, wenn nicht Hunderten von Geschichten verbreitet, denen zufolge der Klimawandel (angeblich menschlichen Ursprungs) für eine Zunahme der Anzahl und Schwere von Hurrikanen und Waldbränden verantwortlich ist. Ein Beispiel für diese Kombination aus fehlerhafter Analyse und schlechter Berichterstattung findet sich in einer von Bloomberg veröffentlichten Geschichte mit dem Titel [übersetzt] „Klimawandel sorgte im Jahr 2020 für rekordhohe Versicherungsleistungen“.

Bloomberg schreibt: „Christian Aid, der Hilfsdienst von 41 Kirchen in Großbritannien und Irland, hat eine Rangliste der 15 verheerendsten Klimakatastrophen des Jahres erstellt, basierend auf den Versicherungsschäden.“ Die Studie von Christian Aid, über die auch der Guardian berichtete, als ob es sich um eine göttlich inspirierte, offenbarte Wahrheit handelte, behauptet, dass allein die 10 teuersten Wetterkatastrophen des Jahres 2020 Schäden in Höhe von 150 Milliarden Dollar anhäuften, wobei die Gesamtzahl aller mit dem Klimawandel zusammenhängenden Katastrophen im Jahr 2020 neue Rekorde aufstellte. Die Studie von Christian Aid macht insbesondere die durch den Klimawandel verschärften Waldbrände und Hurrikane für die gestiegenen Schäden und höheren Versicherungszahlungen verantwortlich. Und siehe da: Die realen Daten zu Waldbränden und Wirbelstürmen sprechen eine ganz andere Sprache, aber die guten Nachrichten wurden ignoriert.

Was die Waldbrände betrifft, so zeigen Langzeitdaten, dass die Anzahl der Waldbrände und die von ihnen verbrannte Fläche im letzten Jahrhundert dramatisch zurückgegangen ist. Wenn man nur das Jahr 2020 betrachtet, berichtet der Copernicus Atmosphere Monitoring Service, „dass 2020 eines der Jahre mit den wenigsten aktiven Bränden weltweit war.“

In der Tat berichtet die NASA über eine aktuelle Studie in Science, die herausfand, „dass die jedes Jahr von Bränden heimgesuchte Gesamtfläche zwischen 1998 und 2015 um 24 Prozent zurückgegangen ist. Insgesamt ist die jährlich verbrannte Fläche global um mehr als 540.000 Quadratmeilen zurückgegangen, von 1,9 Millionen Quadratmeilen zu Beginn des letzten Jahrhunderts auf heute 1,4 Millionen Quadratmeilen.“

Auch in den Vereinigten Staaten sind die Flächenbrände im Laufe des letzten Jahrhunderts stark zurückgegangen. Bei Climate at a Glance wird berichtet: Langzeitdaten des U.S. National Interagency Fire Center (NIFC) zeigen, dass die Anzahl und Schwere der Flächenbrände seit den frühen 1900er Jahren zurückgegangen ist. Die Auswertung von Daten über US-Flächenbrände, die bis ins Jahr 1926 zurückreichen, zeigt, dass die Größe der verbrannten Flächen heute weitaus geringer ist als zu Beginn des 20. Jahrhunderts, wobei die derzeit verbrannte Fläche nur ein Viertel bis ein Fünftel der Fläche beträgt, die in den 1930er Jahren niedergebrannt ist.

Die Daten über Hurrikane sind ebenso klar und überzeugend: Trotz der regen Hurrikansaison 2020 ist es entgegen der Behauptung des Guardian – und wie in einem früheren Artikel bei Climate Realism berichtet – durchaus möglich, dass 2020 keinen Rekord für atlantische Hurrikane aufgestellt hat. Vor 1950 war die Verfolgung von Hurrikanen relativ primitiv und spärlich, und es war unüblich, einen Sturm zu benennen, wenn er nicht irgendwo auf das Festland ü bergegriffen hatte.

Darüber hinaus berichtet das IPCC, dass es „nur geringes Vertrauen für die Zuordnung jeglicher nachweisbarer Veränderungen in der Aktivität tropischer Wirbelstürme zu anthropogenen Einflüssen gibt.“ Und Daten des National Hurricane Center (NHC) zeigen Climate at a Glance: Hurricanes zufolge, dass „die Vereinigten Staaten kürzlich mehr als ein Jahrzehnt (2005 bis 2017) ohne einen großen Hurrikan der Kategorie 3 oder höher erlebt haben, was die längste solche Periode in der aufgezeichneten Geschichte ist. Die Vereinigten Staaten erlebten kürzlich auch die geringste Anzahl von Hurrikanen in einem Achtjahreszeitraum (2009 bis 2017) in der aufgezeichneten Geschichte.“

Die Studie von Christian Aid konzentriert sich auf die möglicherweise rekordverdächtigen Kosten der wetterbedingten Naturkatastrophen des Jahres 2020. Dabei ignoriert sie jedoch, was Bjorn Lomborg in seinem Buch „False Alarm“ als den „expandierenden Bulls-Eye-Effekt“ bezeichnet. Die gestiegenen Kosten von Naturkatastrophen in den letzten Jahrzehnten sind darauf zurückzuführen, dass Gemeinden zunehmend in Gebiete vordringen, die historisch gesehen anfällig für Naturkatastrophen sind – wie Überschwemmungsgebiete, Wälder und Küstengebiete – und dort immer teurere Strukturen und Infrastrukturen errichten. Dies hat zur Folge, dass bei extremen Wetterereignissen immer mehr teures Eigentum zerstört wird. Die steigenden Kosten von Naturkatastrophen sind demnach nicht auf den vom Menschen verursachten Klimawandel zurückzuführen, sondern auf einen direkt messbaren anthropogenen Faktor: die Zunahme der Anzahl und des Wertes von Vermögenswerten, die durch die demografische Verschiebung von Wohnorten und Lebensstilen ins Visier geraten.

Eine weitere wichtige „gute Nachricht“, die die Klimaalarmisten im Jahr 2020 als Tragödie darzustellen versuchten, findet sich in den zahlreichen Nachrichten über einen Bericht der Weltbank, dem zufolge Wasserknappheit im Nahen Osten – verursacht durch den vom Menschen verursachten Klimawandel – die Pflanzenproduktion bedroht. Wieder einmal hatten sich die Autoren des Weltbankberichts und die linken Medien, die ihn veröffentlichten, nicht die Mühe gemacht, die tatsächlichen Daten zu überprüfen. Hätten sie das getan, hätten sie herausgefunden, dass die Pflanzenproduktion in den im Bericht genannten Ländern des Nahen Ostens boomt, zum großen Teil aufgrund des Kohlendioxid-Düngeeffekts.

Die Weltbank behauptet, dass die durch den Klimawandel verursachte Wasserknappheit die landwirtschaftliche Produktion vor allem im Iran, Irak, Jordanien, Libanon, Syrien und der Türkei verringern wird. Tatsächlich zeigen die Daten, dass trotz erheblicher politischer Unruhen und andauernder Konflikte in der Region die Getreideproduktion im von Natur aus trockenen Nahen Osten mit der leichten Erwärmung der Erde zugenommen hat.

Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) zeigen, dass während der Zeit der leichten Erwärmung seit 1989:

– Die Getreideproduktion im Irak stieg um 91 Prozent, während die Erntefläche um 5 Prozent zurückging.

– Die Getreideproduktion im Iran stieg um 187 Prozent, während die geerntete Fläche nur um 2,6 Prozent zunahm.

– Die Getreideproduktion in Jordanien stieg um 15 Prozent, während die geerntete Fläche um 30 Prozent zurückging.

– Die Getreideproduktion im Libanon stieg um 115 Prozent, während die geerntete Fläche um 30 Prozent zunahm.

– Die Getreideproduktion in Syrien stieg um 22 Prozent, obwohl die geerntete Fläche um 66 Prozent zurückging.
– Die Getreideproduktion in der Türkei stieg um 46 Prozent, obwohl die geerntete Fläche um 19 Prozent zurückging.

Die Tatsache, dass die Länder des Nahen Ostens ihre Ernteproduktion gesteigert haben – obwohl viele von ihnen in interne politische Unruhen, offene Bürgerkriege und externe Konflikte verwickelt sind – ist eindeutig eine gute Nachricht. Es ist keinesfalls Beweis für eine Klimakrise.

Die globale Erwärmung verlängert die Vegetationsperioden, reduziert Frostereignisse und macht mehr Land für die Pflanzenproduktion geeignet. Außerdem ist Kohlendioxid Dünger für die Pflanzenwelt. Die Pflanzen nutzen das Wasser unter Bedingungen mit höherem Kohlendioxid effizienter und verlieren weniger Wasser durch Transpiration. Letzteres sollte die Sorge der Weltbank über eine durch den Klimawandel verursachte Wasserknappheit und damit zu Ernteausfällen zerstreuen.

Traurigerweise übernehmen machthungrige Bürokraten und linke Mainstream-Medienorganisationen eine Behauptung nach der anderen mit unbegründeten Spekulationen über verschiedene Klimakatastrophen – während sie Fakten ignorieren, die darauf hinweisen, dass keine solchen Klimakatastrophen bevorstehen. Ich kann nur spekulieren, dass sie dies tun, weil gute Nachrichten nicht zu einem Ansturm auf eine autoritäre Klimapolitik ermutigen, die den Eliten die Kontrolle über Unternehmen und das Leben der Menschen gibt.

[Hervorhebung vom Übersetzer]

Quellen: Climate Realism; The Guardian; Phys.org; Climate Realism; World Bank; Bloomberg; Food and Agriculture Organization

Link: https://wattsupwiththat.com/2021/01/01/to-promote-climate-alarm-good-news-is-regularly-portrayed-as-a-disaster/

Übersetzt von Chris Frey EIKE




Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE