Verlangsamung der CO2-Anreicherung in der Luft – durch COVID oder durch die Natur?

Hier möchte ich jetzt meine Hypothese überprüfen hinsichtlich des Löwenanteils der Ursachen für die CO2-Zunahme, selbst wenn ich sicher bin, dass dieses nur eine geringe Rolle bzgl. des Erdklimas spielt (wenn überhaupt eine).

Hier zunächst ein paar einfache Fakten:

1.Ozeane sind die größte CO2-Senke

2.Je wärmer die Ozeane, umso mehr CO2 wird freigesetzt

3.Die Ozeane sind wärmer geworden.

Beispiel: Man betrachte die Wassertemperatur heute (rechts) mit der vor 35 Jahren:

Meine Hypothese ist, dass sich durch die natürliche zyklische Erwärmung der Ozeane eine kumulative Ansammlung von CO2 entwickelt hat. Dies setzt sich so lange fort, bis ein Gleichgewicht erreicht ist. Der Planet versucht, dem mit immer mehr Laub entgegenzuwirken, was eines der Standbeine meiner „keine Schuld“-Lösung für die auf CO2 basierende und auf Indoktrination fußende AGW-Angst. Pflanzen Sie also genug Bäume, bauen Sie genug Kernkraftwerke und machen Sie Kohlenstoffabscheidung, und wenn Sie CO2 für die Erwärmung verantwortlich machen (was ich im Großen und Ganzen nicht tue), ist das Problem gelöst, egal was Sie glauben. Ich skizziere es in meinem neuen Buch, The Weaponization of Weather in the Phony Climate War. Das ist ein Novum: jemand, der tatsächlich eine fehlerfreie Lösung für ein Problem vorschlägt, das höchstwahrscheinlich gar nicht existiert und das unsere Lebensweise nicht zerstören wird.

Die andere „Lösung“ ist der „Green New Deal“, der als Nebenprodukt wahrscheinlich die wirtschaftliche Lebensader der US-Wirtschaft stören, wenn nicht gar zerstören wird und genau ins Herz des Systems geht, um das uns die Welt beneidet.

Tatsache ist jedoch, dass die Verlangsamung auf Covid zurückgeführt wird, da Covid im Frühjahr eine weltweite Abschaltung der Industrie für mehrere Wochen verursachte. Zu dieser Zeit sah die CO2-Kurve sehr ähnlich aus wie in den Vorjahren zu dieser Zeit. Wir konnten also nichts erkennen. Aber jetzt, später im Jahr, wird die Behauptung hinaus posaunt, dass es die Covid-Abschaltungen waren, die sie gesenkt haben, ohne überhaupt die andere Seite der Debatte zu betrachten. Die Ozeane kühlen sich ab und die Anstiegsrate sollte sich nach meiner Vorstellung etwas verlangsamen.

Um das „Problem“ der Schuldzuweisung weiter zu vergrößern, kann meine Seite der Debatte (diejenigen von uns, die an eine aufgeschlossene Debatte glauben) nicht vor der Tatsache davonlaufen, dass CO2 und Temperatur in den letzten 35 Jahren gestiegen sind. Was bedeutet, dass die andere Seite einen Grund hat, ihren Standpunkt zu vertreten. Das Problem ist, dass sie nicht denken, jemand könne deren Narrativ in Frager stellen. Also, was ist es? Wie in vielen Beiträgen zuvor, ziehe ich SUPER NINOS in Betracht, um die entsprechenden höheren Temperatur-Plateaus zu erklären – es ist weitgehend mehr Wasserdampf, nicht CO2.

Super-Nino’s setzen immense Mengen an Wasserdampf frei, welche die Temperatur beeinflussen, vor allem in den Polarregionen, wo sie niedrigere Temperaturen und Taupunkte viel mehr beeinflussen als dort, wo es warm und feucht ist. Wir haben keine Temperatur/CO2-Korrelationen. Wir haben Korrelationen zwischen Wasserdampf und Temperatur. Ich frage mich, warum? Empfohlene Lektüre in meinem Buch:

Kapitel 6: Die globale Temperatur als Waffe

Hier noch einmal die relevante Keeling-Graphik der letzten zwei Jahre (Quelle):

Hier möchte ich auf zweierlei hinweisen: 1) Es gibt eine Abflachung der Kurve von Januar bis März, die wahrscheinlich auf die maximale Ausdehnung des globalen Meereises zu dieser Zeit zurückzuführen ist, da dies die Ausgasung von CO2 aus dem Ozean verhindert, was wiederum die Bedeutung der Ozeane und des CO2 und nicht die des Menschen zeigt. Wären die Ozeane komplett vereist, dann gäbe es keine CO2-Ausgasung. Es gäbe wahrscheinlich auch keine Menschheit, ein kleiner Punkt. Immerhin hat Prinz Phillip gesagt, dass er als Virus, der die Menschen ausrottet, wieder ins Leben zurückkehren will.

„Wenn ich wiedergeboren werden würde, würde ich mir wünschen, als Killervirus auf die Erde zurückzukehren, um die menschliche Population zu senken.“

2) Seit dem Tiefpunkt in diesem Jahr bei 411,2 ppm am 1. Januar sind wir bei ca. 414,2 ppm, ein Anstieg um 3 ppm seit dem Tiefpunkt (Pflanzen werfen Laub ab, und die Erwärmung nimmt zu, daher der CO2 -Anstieg in der kalten Jahreszeit)

Im letzten Jahr hatten wir einen Tiefpunkt von ca. 408 und einen Anstieg auf 413 am 1. Januar. Grob gesagt, ist das ein Defizit von 2 ppm vom letzten Jahr bis zu diesem Jahr im Anstieg. Die Industrie hat wieder aufgeschlossen. Ich glaube nicht, dass es an Covid liegt, aber ich vermute, dass die Abkühlung des Ozeans etwas damit zu tun hat.

Aber man wird sehen, dass die Covid-Klima-Koalition davon ausgeht, dass die indoktrinierte Öffentlichkeit ihre Prämisse, dass nämlich CO2 ursächlich für die Verlangsamung ist, akzeptieren wird ohne auch nur ansatzweise auf die andere Seite des Problems hinzuweisen. Gewöhnen Sie sich daran: Sie sehen hier eine Generalprobe dessen, wofür hier das Klima instrumentalisiert wird.

Nun die ultimative Ironie: Ich beobachte, wie meine Gegner in dieser Sache meine Vorhersage verifizieren. Das ist irgendwie interessant, oder? Vielleicht sollte ich mich bei ihnen bedanken.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here. phonyclimatewar.com

Link: https://www.cfact.org/2021/01/03/is-covid-or-nature-slowing-the-increase-in-co2/

————————————

Zu diesem Thema hat sich auch Willis Eschenbach Gedanken gemacht. Einen davon beschreibt er so [Anm. d. Übers.]:

Eine CO2-Besonderheit

Willis Eschenbach

Jüngst kam mir der oben stehende Beitrag vor Augen. Die im Titel gestellte Frage wollte ich mir auch einmal vornehmen. Hier zeigen sich die Mauna Loa-Daten. Oben: Die CO2-Zunahme, unten: die mittlere Änderung des CO2-Gehaltes von Monat zu Monat:

Eines geht daraus ganz klar hervor.

Die Rate der CO2-Zunahme hat sich kein bisschen geändert. Ich biete dafür keine Erklärung an … aber das ist kein gutes Zeichen für all jene, die da behaupten, dass es Lockdowns á la Covid bedarf, um das CO2-Niveau zu senken.

Link: https://wattsupwiththat.com/2021/01/05/a-co2-oddity/

Übersetzt von Chris Frey EIKE

 




UK: Keinerlei Erwärmung mehr seit dem Jahr 2006

Dies ist jedoch nicht mehr als ein Versuch, die höchst unbequeme Wahrheit zu vertuschen, nämlich dass die Erwärmung im Jahr 2006 aufgehört hat. Der 10-Jahres-Durchschnitt zeigt dies deutlich.
Wir können uns ein klareres Bild davon machen, wenn wir den Zeitraum seit 1991 heranzoomen.

Die 10-Jahres-Durchschnitte stiegen in den 1990er und frühen 2000er Jahren langsam an. Seitdem sind sie jedoch allmählich zurückgegangen und haben ihren Höhepunkt im Zeitraum von 1997 bis 2006 erreicht:

Das alles führt uns zu der Frage: was ist das „normale“ Klima für England?

Das Met Office würde sagen, dass dies der 30-Jahres-Durchschnitt ist, aber das ist nur ein künstliches Konstrukt aus Bequemlichkeit. Derzeit liegt der 10-Jahres-Durchschnitt der MEZ bei 10,40C, was kaum über dem Durchschnitt von 1991-2020 von 10,25C liegt. Die Differenz liegt deutlich innerhalb einer natürlichen Schwankungsbreite.

Immerhin stiegen die Jahrestemperaturen von 8,86C im Jahr 2010 auf 10,72C im darauffolgenden Jahr, rein aufgrund von Schwankungen des „Wetters“.

Die Grafik unten mit den höchsten und niedrigsten monatlichen Durchschnittstemperaturen für jeden Monat seit 1991 zeigt, wie variabel das englische Wetter sein kann:

Würden die „wärmsten“ Monate alle im gleichen Jahr auftreten, läge der Jahresmittelwert bei 12,8°C. Und wenn das Gleiche für die „kältesten“ Monate gelten würde, läge der Jahresmittelwert bei 7,3°C.

Die nächste Grafik zeigt diesen Bereich, wenn er mit den tatsächlichen Jahrestemperaturen überlagert wird:

Obwohl eine solche Eventualität statistisch äußerst unwahrscheinlich sein mag, sehe ich meteorologisch keinen Grund, warum sie nicht möglich sein sollte.

Zusammenfassend lässt sich sagen, dass die Auffassung, es gäbe eine „normale“ Jahrestemperatur oder gar ein „normales“ Klima in England, unwissenschaftlich ist. In der Tat ist sie nicht wissenschaftlicher als die Behauptung, es gäbe hier „normales“ Wetter.

Was das englische „Klima“ immer noch dominiert, ist die Variabilität des Wetters, von Tag zu Tag, von Monat zu Monat und sogar von Jahr zu Jahr. Alle zugrundeliegenden Klimatrends gehen im Rauschen unter.

[Hervorhebung vom Übersetzer]

Laut CET stiegen die Jahrestemperaturen zwischen den 1940er und 2000er Jahren um etwa 0,7 °C. Aber wie viel davon hing mit den zugrunde liegenden klimatischen Bedingungen zusammen, und wie viel war wetterbedingt?

Vielleicht ist der beste Anhaltspunkt, den wir haben, der Vergleich der wärmsten Jahre. Während 2014 mit 10,95°C das wärmste Jahr war, lag das Jahr 1949 mit 10,65°C nicht weit dahinter. Gehen wir weiter zurück, sehen wir Jahre wie 1733, 1779 und 1834, die alle über 10,4°C lagen.

Dies deutet darauf hin, dass der größte Teil der Erwärmung in den letzten drei Jahrzehnten mit dem Wetter und nicht mit dem Klimawandel zusammenhängt.

Link: https://wattsupwiththat.com/2021/01/03/no-warming-in-uk-since-2006/

Übersetzt von Chris Frey EIKE

 




Zum Befeuern des Klima-Alarms werden gute Nachrichten grundsätzlich als Katastrophe verkauft

Kürzlich haben The Guardian und andere Medien behauptet, dass ein aktualisierter Atlas der Lebensräume von Vögeln zeigt, dass die globale Erwärmung die Vögel weiter nach Norden „drängt“. Die Geschichte des Guardian würde einen glauben machen, dass Vögel ein Scharen durch den Klimawandel aus schrumpfenden natürlichen Lebensräumen in ungeeignete Gebiete gedrängt werden. Dies ist jedoch nicht wahr. Wie der Präsident des Heartland Institute James Taylor in einem Beitrag bei Climate Realism als Reaktion auf den Artikel des Guardian schrieb, erzählt der Atlas selbst eine völlig andere Geschichte.

Anstatt Vögel aus ihrem normalen Verbreitungsgebiet zu „verdrängen“ und sie nach Norden zu zwingen, profitieren Vögel von einem sich erwärmenden Klima, indem sie ihr Gesamtverbreitungsgebiet ausweiten – sie gedeihen in neuen, nördlichen Regionen, während sie auch in südlichen Regionen weiterhin gut gedeihen. Das Ergebnis des Klimawandels ist kein negatives „Verdrängen“ von Vögeln aus ihrem Lebensraum, sondern Vögel erfreuen sich größerer Lebensräume, während sie zur biologischen Vielfalt in ihren neuen Gebieten beitragen.

In der Tat, trotz der irreführenden, alarmierenden Titel der Geschichte [übersetzt], „Atlas: Vögel sind inmitten der Klimakrise nach Norden gezwungen worden“, räumt der Guardian weiter unten ein, was der Atlas wirklich zeigt: „Insgesamt haben 35 Prozent der Vögel ihr Brutgebiet vergrößert, 25 Prozent haben ihr Brutgebiet verkleinert und der Rest hat keine Veränderung gezeigt, oder der Trend ist unbekannt.“ Das ist eine gute Nachricht, denn, so räumte die Zeitung ein, laut Atlas gilt: „Im Allgemeinen ist es weniger wahrscheinlich, dass eine Art ausstirbt, wenn sie in mehr Gebieten vorkommt.“

Ein weiteres beängstigendes, aber nachweislich unwahres Klima-Alarm-Narrativ wurde in diesem Jahr in Form von Dutzenden, wenn nicht Hunderten von Geschichten verbreitet, denen zufolge der Klimawandel (angeblich menschlichen Ursprungs) für eine Zunahme der Anzahl und Schwere von Hurrikanen und Waldbränden verantwortlich ist. Ein Beispiel für diese Kombination aus fehlerhafter Analyse und schlechter Berichterstattung findet sich in einer von Bloomberg veröffentlichten Geschichte mit dem Titel [übersetzt] „Klimawandel sorgte im Jahr 2020 für rekordhohe Versicherungsleistungen“.

Bloomberg schreibt: „Christian Aid, der Hilfsdienst von 41 Kirchen in Großbritannien und Irland, hat eine Rangliste der 15 verheerendsten Klimakatastrophen des Jahres erstellt, basierend auf den Versicherungsschäden.“ Die Studie von Christian Aid, über die auch der Guardian berichtete, als ob es sich um eine göttlich inspirierte, offenbarte Wahrheit handelte, behauptet, dass allein die 10 teuersten Wetterkatastrophen des Jahres 2020 Schäden in Höhe von 150 Milliarden Dollar anhäuften, wobei die Gesamtzahl aller mit dem Klimawandel zusammenhängenden Katastrophen im Jahr 2020 neue Rekorde aufstellte. Die Studie von Christian Aid macht insbesondere die durch den Klimawandel verschärften Waldbrände und Hurrikane für die gestiegenen Schäden und höheren Versicherungszahlungen verantwortlich. Und siehe da: Die realen Daten zu Waldbränden und Wirbelstürmen sprechen eine ganz andere Sprache, aber die guten Nachrichten wurden ignoriert.

Was die Waldbrände betrifft, so zeigen Langzeitdaten, dass die Anzahl der Waldbrände und die von ihnen verbrannte Fläche im letzten Jahrhundert dramatisch zurückgegangen ist. Wenn man nur das Jahr 2020 betrachtet, berichtet der Copernicus Atmosphere Monitoring Service, „dass 2020 eines der Jahre mit den wenigsten aktiven Bränden weltweit war.“

In der Tat berichtet die NASA über eine aktuelle Studie in Science, die herausfand, „dass die jedes Jahr von Bränden heimgesuchte Gesamtfläche zwischen 1998 und 2015 um 24 Prozent zurückgegangen ist. Insgesamt ist die jährlich verbrannte Fläche global um mehr als 540.000 Quadratmeilen zurückgegangen, von 1,9 Millionen Quadratmeilen zu Beginn des letzten Jahrhunderts auf heute 1,4 Millionen Quadratmeilen.“

Auch in den Vereinigten Staaten sind die Flächenbrände im Laufe des letzten Jahrhunderts stark zurückgegangen. Bei Climate at a Glance wird berichtet: Langzeitdaten des U.S. National Interagency Fire Center (NIFC) zeigen, dass die Anzahl und Schwere der Flächenbrände seit den frühen 1900er Jahren zurückgegangen ist. Die Auswertung von Daten über US-Flächenbrände, die bis ins Jahr 1926 zurückreichen, zeigt, dass die Größe der verbrannten Flächen heute weitaus geringer ist als zu Beginn des 20. Jahrhunderts, wobei die derzeit verbrannte Fläche nur ein Viertel bis ein Fünftel der Fläche beträgt, die in den 1930er Jahren niedergebrannt ist.

Die Daten über Hurrikane sind ebenso klar und überzeugend: Trotz der regen Hurrikansaison 2020 ist es entgegen der Behauptung des Guardian – und wie in einem früheren Artikel bei Climate Realism berichtet – durchaus möglich, dass 2020 keinen Rekord für atlantische Hurrikane aufgestellt hat. Vor 1950 war die Verfolgung von Hurrikanen relativ primitiv und spärlich, und es war unüblich, einen Sturm zu benennen, wenn er nicht irgendwo auf das Festland ü bergegriffen hatte.

Darüber hinaus berichtet das IPCC, dass es „nur geringes Vertrauen für die Zuordnung jeglicher nachweisbarer Veränderungen in der Aktivität tropischer Wirbelstürme zu anthropogenen Einflüssen gibt.“ Und Daten des National Hurricane Center (NHC) zeigen Climate at a Glance: Hurricanes zufolge, dass „die Vereinigten Staaten kürzlich mehr als ein Jahrzehnt (2005 bis 2017) ohne einen großen Hurrikan der Kategorie 3 oder höher erlebt haben, was die längste solche Periode in der aufgezeichneten Geschichte ist. Die Vereinigten Staaten erlebten kürzlich auch die geringste Anzahl von Hurrikanen in einem Achtjahreszeitraum (2009 bis 2017) in der aufgezeichneten Geschichte.“

Die Studie von Christian Aid konzentriert sich auf die möglicherweise rekordverdächtigen Kosten der wetterbedingten Naturkatastrophen des Jahres 2020. Dabei ignoriert sie jedoch, was Bjorn Lomborg in seinem Buch „False Alarm“ als den „expandierenden Bulls-Eye-Effekt“ bezeichnet. Die gestiegenen Kosten von Naturkatastrophen in den letzten Jahrzehnten sind darauf zurückzuführen, dass Gemeinden zunehmend in Gebiete vordringen, die historisch gesehen anfällig für Naturkatastrophen sind – wie Überschwemmungsgebiete, Wälder und Küstengebiete – und dort immer teurere Strukturen und Infrastrukturen errichten. Dies hat zur Folge, dass bei extremen Wetterereignissen immer mehr teures Eigentum zerstört wird. Die steigenden Kosten von Naturkatastrophen sind demnach nicht auf den vom Menschen verursachten Klimawandel zurückzuführen, sondern auf einen direkt messbaren anthropogenen Faktor: die Zunahme der Anzahl und des Wertes von Vermögenswerten, die durch die demografische Verschiebung von Wohnorten und Lebensstilen ins Visier geraten.

Eine weitere wichtige „gute Nachricht“, die die Klimaalarmisten im Jahr 2020 als Tragödie darzustellen versuchten, findet sich in den zahlreichen Nachrichten über einen Bericht der Weltbank, dem zufolge Wasserknappheit im Nahen Osten – verursacht durch den vom Menschen verursachten Klimawandel – die Pflanzenproduktion bedroht. Wieder einmal hatten sich die Autoren des Weltbankberichts und die linken Medien, die ihn veröffentlichten, nicht die Mühe gemacht, die tatsächlichen Daten zu überprüfen. Hätten sie das getan, hätten sie herausgefunden, dass die Pflanzenproduktion in den im Bericht genannten Ländern des Nahen Ostens boomt, zum großen Teil aufgrund des Kohlendioxid-Düngeeffekts.

Die Weltbank behauptet, dass die durch den Klimawandel verursachte Wasserknappheit die landwirtschaftliche Produktion vor allem im Iran, Irak, Jordanien, Libanon, Syrien und der Türkei verringern wird. Tatsächlich zeigen die Daten, dass trotz erheblicher politischer Unruhen und andauernder Konflikte in der Region die Getreideproduktion im von Natur aus trockenen Nahen Osten mit der leichten Erwärmung der Erde zugenommen hat.

Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) zeigen, dass während der Zeit der leichten Erwärmung seit 1989:

– Die Getreideproduktion im Irak stieg um 91 Prozent, während die Erntefläche um 5 Prozent zurückging.

– Die Getreideproduktion im Iran stieg um 187 Prozent, während die geerntete Fläche nur um 2,6 Prozent zunahm.

– Die Getreideproduktion in Jordanien stieg um 15 Prozent, während die geerntete Fläche um 30 Prozent zurückging.

– Die Getreideproduktion im Libanon stieg um 115 Prozent, während die geerntete Fläche um 30 Prozent zunahm.

– Die Getreideproduktion in Syrien stieg um 22 Prozent, obwohl die geerntete Fläche um 66 Prozent zurückging.
– Die Getreideproduktion in der Türkei stieg um 46 Prozent, obwohl die geerntete Fläche um 19 Prozent zurückging.

Die Tatsache, dass die Länder des Nahen Ostens ihre Ernteproduktion gesteigert haben – obwohl viele von ihnen in interne politische Unruhen, offene Bürgerkriege und externe Konflikte verwickelt sind – ist eindeutig eine gute Nachricht. Es ist keinesfalls Beweis für eine Klimakrise.

Die globale Erwärmung verlängert die Vegetationsperioden, reduziert Frostereignisse und macht mehr Land für die Pflanzenproduktion geeignet. Außerdem ist Kohlendioxid Dünger für die Pflanzenwelt. Die Pflanzen nutzen das Wasser unter Bedingungen mit höherem Kohlendioxid effizienter und verlieren weniger Wasser durch Transpiration. Letzteres sollte die Sorge der Weltbank über eine durch den Klimawandel verursachte Wasserknappheit und damit zu Ernteausfällen zerstreuen.

Traurigerweise übernehmen machthungrige Bürokraten und linke Mainstream-Medienorganisationen eine Behauptung nach der anderen mit unbegründeten Spekulationen über verschiedene Klimakatastrophen – während sie Fakten ignorieren, die darauf hinweisen, dass keine solchen Klimakatastrophen bevorstehen. Ich kann nur spekulieren, dass sie dies tun, weil gute Nachrichten nicht zu einem Ansturm auf eine autoritäre Klimapolitik ermutigen, die den Eliten die Kontrolle über Unternehmen und das Leben der Menschen gibt.

[Hervorhebung vom Übersetzer]

Quellen: Climate Realism; The Guardian; Phys.org; Climate Realism; World Bank; Bloomberg; Food and Agriculture Organization

Link: https://wattsupwiththat.com/2021/01/01/to-promote-climate-alarm-good-news-is-regularly-portrayed-as-a-disaster/

Übersetzt von Chris Frey EIKE




Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE

 




Abschätzung der CO2-Klimasensivität auf Basis des GLOBAL TEMPERATURE REPORTS (GTR)

Abb 1: Links: Zollstock und digitaler Mess-Schieber. Unterschied der Genauigkeit Rechts: Bearbeitung einer Welle an einer Drehbank. Quelle: Jeweils Pixabay

Zur Verdeutlichung dieser Diskrepanz ein Vergleich aus einem Bereich der Technik, der leicht verständlich ist. Um die Kupfer-Welle (Abb.1, rechts) auf der Drehbank exakt zu messen bzw. zu bearbeiten, benötigt der Arbeiter einen Mess-Schieber. Ein Zollstock ist für ihn unbrauchbar. Genau diesen Widerspruch sehen wir jedoch in der Welt der Klimaforscher. Sie verwenden sprichwörtlich den Zollstock, um die Bauteile einer hoch präzisen Maschine zu fertigen. Die ungenauen Temperatur-Daten dienen als Basis für die komplizierten Simulationen auf Groß-Computern. Zu allem Überfluss postulieren die Klimaforscher ihre Methodik als die einzig gültige Wahrheit (IPCC). Welch eine unglaubliche Farce. Der Autor hat Erfahrung im Bereich „Computational Chemistry“, ein Hilfsmittel zur theoretischen Voraussage bzw. Bestätigung von Eigenschaften unterschiedlichster Moleküle, z. B. die 3D-Struktur, Reaktivität oder innere Beweglichkeit. Bei den Anwendern von Computer-Simulationen gibt es den geflügelten Satz für eine Ausgangs-Basis mit schlechten Anfangsdaten: „Shit in, shit out.

  1. GLOBAL TEMPERATURE REPORT (GTR)

Der GLOBAL TEMPERATURE REPORT [2] zeigt in monatlicher Abfolge die berechnete globale Temperatur der unteren Atmosphäre (s. Abb.2). Verantwortlicher Wissenschaftler hinter diesen Daten ist der bekannte Klimatologe Dr. John R. Christy von der University of Alabama in Huntsville. Seit 2013 werden satelliten-basierende Temperatur-Messungen zusammengeführt, verarbeitet und auf der Homepage veröffentlicht. Christy hat zusätzlich die ab 1979 verfügbaren Satelliten-Messungen nachträglich verarbeitet. Ergebnis ist ein Säulen-Diagramm (Abb.2) mit den monatlichen Temperatur Abweichungen zur Referenz-Linie (0-Linie). Diese wird als Durchschnitts-Temperatur von 1981 bis 2010 3 errechnet. Zusätzlich wird auch eine Karten-Darstellung der Erde mit farblich gekennzeichneten Bereichen zur Verfügung gestellt. Auch für den November 2020 schön zu erkennen, die leichte Erderwärmung findet tendenziell mehr auf der Nordhalbkugel statt. Besonders in Antarktis-Nähe kühlt es eher ab. Diese These ist in vielen Veröffentlichungen bestätigt worden.

Abb 2: GLOBAL TEMPERATURE REPORT von November 2020 [2]

Abb 3: GLOBAL TEMPERATURE REPORT von November 2020. Darstellung als Karte [2]

  1. Vorteile der Satelliten-Daten

Im bereits erwähnten Vorgänger-Artikel [1] zu diesem Aufsatz wird im Kapitel 5.1.) Zuverlässigkeit der Proxy-Daten auf die Vorteile von in sich konsistenten Datensätzen eingegangen. Die GTR-Daten wurden im gesamten Erfassungs-Zeitraum vom gleichen Messgerät ermittelt, die Methodik und die Randbedingungen bleiben konstant. Systematische Fehler können daher nahezu ausgeschlossen werden. Wie auch bei den Proxy-Daten liegt in der guten Genauigkeit der relativen Änderungen innerhalb der Messreihen. Wie oft in der Naturwissenschaft ist es nicht nötig, die absoluten Daten, hier die Temperaturen, zu ermitteln. Ob zum Beispiel die mittlere Temperatur für Deutschland im Jahr 2017 14,2 °C betrug, spielt für eine mathematisch physikalische Auswertung keine Rolle. Entscheidend ist die in sich geschlossene und verlässliche Messreihe und deren korrekte Auswertung.

  1. Bearbeitung der GTR-Daten und erster Überblick

4.1.) Erster Überblick und Erkenntnisse aus den GTR-Daten

Das von Dr. Christy veröffentlichte Balken-Diagramm (Abb.2) ist extrem detailreich und folglich wenig übersichtlich. Was ist relativ schnell zu ermitteln? Die relativen Temperatur-Daten sind in den 80er und 90er Jahren überwiegend blau (negative Abweichung) und in den 2000er Jahren überwiegend rot (positive Abweichung). Im Betrachtungs-Zeitraum von 40 Jahren wurde es grob geschätzt 0,7 K wärmer. Auffallend sind die beiden extremen Temperatur-Spitzen um die Jahre 1998 und 2016. Dazu später noch mehr. Wegen der starken Schwankungen fällt es schwer, noch weitere Erkenntnisse aus dem Diagramm zu ermitteln.

4.2.) Glättung und Bearbeitung der Koordinaten-Achsen

Die monatliche Auflösung auf der X-Achse und die Darstellung des betrachteten Zeitraums von 40 Jahren sind nicht optimal. Andererseits ist die Y-Achse mit Y(min.)= -1,0K und Y(max.) = +1,0K zu wenig aufgelöst. Als besten Kompromiss fand der Autor eine Darstellung, bei der die X-Achse gestaucht, die Y-Achse gestreckt und die „zappelnden“ Messwerte geglättet sind. Das Ergebnis ist in Abb.4 dargestellt. Tatsächlich ist es nun leichter möglich, zusätzliche Erkenntnisse aus dem Graphen zu erhalten.

4.3.) El Nino und langzeit-konstante Temperaturen

Beginnen wir mit den bereits erwähnten Warm-Peaks von 1998 und 2016. Klimatologen und andere Fachleute kennen die Ursache der beiden Temperatur-Spitzen. Beide Male ist ein extrem starker „El Nino“ schuld, eine Meeresströmungs-Umkehr im Pazifik. Dieses Phänomen tritt unregelmäßig in einem Durchschnitts-Abstand von 4 Jahren auf und hat Auswirkung auf die Temperaturen der gesamten Erde. Von Anfang 1979 bis Ende 1997 (19 Jahre) blieb die mittlere Erdtemperatur erstaunlich konstant. Ausgehend von einem Mittelwert -0,1 K schwankte die Temperatur nur ca. 0,2 K nach oben oder unten. Das gleiche Bild im Zeitraum von Anfang 1999 bis Mitte 2015 (16,5 Jahre). Nach dem El Nino von 1998 ist der Level der konstanten Temperatur um ca. 0,2K angestiegen. Schließlich begann nach dem
El Nino von 2016 eine 3. Phase konstanter Temperatur, die bis heute (4,5 Jahre) anhält. Der Anstieg des Levels beträgt diesmal knapp 0,4K.

Abb 4: Bearbeitete GTR-Daten. X-Achse gestaucht, Y-Achse gestreckt, Werte geglättet.

Schließlich hilft eine lineare Regression, die Temperaturanstiegs-Tendenz grob abzuschätzen. Die Gerade hat eine Steigung von 0,0132 K/Jahr, oder etwas greifbarer 0,26 K auf 20Jahre. Noch einfacher: Ein Temperatur-Anstieg von etwa einem Kelvin auf 80 Jahre, d. h. 1 K bis zum Jahr 2100!

4.4.) Interpretation der Ergebnisse

Es darf nicht außer Acht gelassen werden, dass der Betrachtungszeitraum von 40 Jahren für die Klimatologie ein sehr kurzer Zeitraum ist. Nach Definition handelt es sich nur um 1 1/3 aufeinander folgende 30-jährige Klima-Zeiträume. Deshalb muss bei der Interpretation der Ergebnisse eine vorsichtige und kritische halbquantitative Herangehensweise im Vordergrund stehen, nicht die blanken Zahlen-Werte.

Erstaunlich sind die relativ konstanten Temperaturen in den 3 angegebenen Zeiträumen. Der Autor sieht sich nicht in der Lage, dazu eine fundierte Interpretation abzugeben. Ein Vergleich kann trotzdem angestellt werden. Die Klimaforscher (IPCC) vertreten seit 2016 die These, das anthropogen verursachte CO2 sei die alleinige Ursache des Temperatur-Anstiegs der letzten 170 Jahre. Wie erklären diese Leute die Zeiträume von 16,5 Jahren und 19 Jahren, in denen das anthropogene CO2 einerseits massiv angestiegen ist, andererseits die Temperatur nahezu konstant blieb? Kaum zu beantworten für die Klima-Alarmisten. Nun zur ermittelten Steigung von etwa einem Kelvin auf 80 Jahre. Bitte unbedingt beachten! Dieser großzügig geschätzte Anstieg von 1 K ermittelt sich unter der Annahme eines unge-bremsten anthropogenen CO2-Ausstoßes bis zum Jahr 2100! Selbst ohne CO2-Reduzierungs-Maßnahmen, ohne regenerativen Strom und ohne Elektro-Autos entsteht daraus kein Weltuntergangs-Szenario.

  1. Abschätzung der CO2-Klimasensivität mit Hilfe bearbeiteten GTR-Daten

Durch die erstaunlichen Ergebnisse bei der Auswertung der GTR-Daten war es nahezu die zwangsmäßige Folgerung, auch die CO2-Klimasensivität aus den Rohdaten zu ermitteln. Wie bereits unter 4.4.) deutlich gemacht, soll hier keine exakte Berechnung durchgeführt werden. Vielmehr eine Abschätzung der Größenordnung der CO2-Klimasensivität.

5.1.) Was ist die CO2-Klimasensivität?

Die CO2-Klimasensivität ist einfach definiert: Der Anstieg der mittleren Erdtemperatur bei Verdoppelung der CO2-Konzentration in der Atmosphäre.

Das IPCC behauptet seit ca. 30 Jahren, die CO2-Klimasensivität liegt mit 95% Wahrscheinlichkeit zwischen 1,5 K und 4,5 K, mit größerer Wahrscheinlichkeit im Bereich zwischen 3 K und 4,5 K. Inzwischen tauchen im Umfeld des IPCC Computer-Modelle auf, die von einer CO2-Klimasensivität über 6 K ausgehen. Warten wir auf den neuen IPCC-Bericht, der für das Jahr 2021 angekündigt ist.

5.2.) CO2-Klimasensivität, die zentrale Größe im Klima-Streit

Seit Greta Thunberg und „Fridays For Future“ ist die Klima-Diskussion im Bewusstsein der breiten Öffentlichkeit angekommen. Vereinfacht ausgedrückt, der angenommene Wert der CO2-Klimasensivität ist der zentrale und wichtigste Punkt der gesamten Diskussion und Auseinandersetzung zwischen den Klima-Alarmisten und Klima-Skeptikern. Sollte der wahre Wert der CO2-Klimasensivität bei 2 K oder darunter sein, erübrigt sich jeglicher Streit. Die Auswirkung des anthropogenen CO2 auf die mittlere Erdtemperatur wäre zu gering, um katastrophale Auswirkungen zu erwarten (siehe 4.4.).

5.3.) Keeling-Kurve: CO2-Konzentration der Atmosphäre seit 1958

Dr. Ralph Keeling hat 1958 begonnen an der meteorologischen Wetterstation auf dem hawaiianischen Vulkan Mauna Loa kontinuierlich die CO2-Konzentration der Atmosphäre zu messen. Deshalb wurde das Diagramm in Abb.5 auch nach ihm als Keeling-Kurve benannt. Seit 1958 steigt die CO2-Konzentration in der Atmosphäre an, hauptsächlich verursacht durch anthropogenen Ausstoß. Hauptverursacher sind Industrie (Prozess-Wärme), Heizen und Verkehr.
5.4.) Zusammenhang von CO2-Konzentration und Temperatur

Der mathematische Zusammenhang zwischen CO2-Konzentration und der Temperatur ist den Physikern und Meteorologen bereits lange bekannt. Deshalb wurde auch der Terminus „CO2-Klimasensivität“ eingeführt. Nur bei einer logarithmischen Funktion vergrößert sich der Y-Wert um einen festen Betrag, wenn der X-Wert jeweils verdoppelt wird. Der große Vorteil einer logarithmischen Funktion ist die Unabhängigkeit der Betrachtung, egal wo ein Referenzpunkt auf der X-Achse gesetzt wird. Die ideale Voraussetzung zur Auswertung der relativen GTR-Werte.
Der Zusammenhang zwischen CO
2-Konzentration und Relativ-Temperatur ist somit eine

Logarithmische CO2-Funktion F(GTR) *

Abb 5: Keeling-Kurve. CO2-Konzentration der Atmosphäre seit 1958

Dabei ist die Temperatur-Änderung, F(GTR) ein Proportionalitäts-Faktor, im vorliegenden Fall die Konstante für die GTR-Daten, die CO2-Konzentration und eine Bezugs-CO2-Konzentration.

Die Keeling-Kurve weist für das Jahr 1980 eine CO2-Konzentration von ca. 337 ppm und für das Jahr 2020 eine CO2-Konzentration von 410 ppm aus. Die Temperatur-Differenz zwischen diesen Jahren beträgt ca. 0,60 Kelvin. Somit folgt:

Mit dem ermittelten Proportionalitäts-Faktor lässt sich nun sehr einfach die zugehörige CO2-Klimasensivität berechnen.

Abb 6: Ermittelte logarithmische Funktion der CO2-Konzentration anhand der GTR-Daten Y-Achse: in Kelvin

  1. Abschätzung der CO2-Klimasensivität

Die aus den GTR-Daten ermittelte rechnerische CO2-Klimasensivität beträgt somit
2 Kelvin. Was sagt dieser Wert aus? Die Voraussetzungen für die gerade ausgeführte Berechnung müssen unbedingt beachtet und angewendet werden.

Der logarithmische Graph, der sich aus der Berechnung ergibt, ist nur dann richtig, wenn ausschließlich das anthropogene CO2 die Erderwärmung bewirkt.

Unter Klimatologen wird weltweit diskutiert und spekuliert. Realistisch betrachtet, sollten maximal 50% der Erderwärmung 4 durch Einbringung großer Mengen an anthropogenem CO2 in die Atmosphäre mit der Erwärmung in Zusammenhang stehen. Die meisten Klimatologen und Klimaskeptiker postulieren niedrigere Werte (10-40%). Somit wird basierend auf den GTR-Daten die CO2-Klimasensivität auf einen Maximal-Wert von etwa 1 Kelvin geschätzt.

7.) Schlussfolgerungen

Die Abschätzung der CO2-Klimasensivität auf Basis der satellitengestützten GTR-Daten liefert ein Ergebnis in einer sinnvollen Größenordnung. Schwäche dieser Untersuchung ist der für Klimatologen kurze Betrachtungszeitraum von 40 Jahren. Der Autor hat sich bewusst darauf beschränkt, nur die in sich konsistenten Messdaten einer einzigen Mess-Quelle zu verwenden, um den im Vorgänger-Artikel [1] ausgearbeiteten Unwägbarkeiten der konventionell gewonnenen Global-Temperaturen aus dem Weg zu gehen.

Im Vergleich zu neuen Fach-Publikationen über das Thema CO2-Klimasensivität, die 2017 von Hans Penner 6 in einem Übersichts-Artikel zusammengefasst wurden, bewegt sich das Resultat in guter Gesellschaft. Abgesehen von den Verweisen auf die Werte des IPCC und des PIK-Mitarbeiters Stefan Rahmstorff liegen die Ergebnisse für die CO2-Klimasensivität im Bereich von 0,2 Kelvin bis 1,0 Kelvin. Die vorliegende Arbeit kommt auf einen Maximalwert von etwa 1 Kelvin.

Bereits 2014 veröffentlichte Koelle eine Übersicht der Forschungs-Ergebnisse zur

CO2-Klimasensivität und den zeitlich immer kleiner werdenden Ergebnissen [7].

Abb 7: Übersicht zur Entwicklung der ermittelten CO2-Klimasensivität. Scafetta 2017 [7]

Zum Schluss ein Zitat aus der Zusammenfassung der Arbeit von Hans Penner [6]:Aus diesen Befunden wird ersichtlich, dass nach dem heutigen Stand der Wissenschaft technische Kohlendioxid-Emissionen keinen schädlichen Einfluss auf das Klima ausüben.Dem ist nichts mehr hinzuzufügen!

Literatur-Verzeichnis

[1] https://kaltesonne.de/wie-zuverlaessig-sind-die-ermittelten-globaltemperaturen-der-letzten-170-jahre/

[2] https://www.nsstc.uah.edu/climate/

[3] https://www.nsstc.uah.edu/data/msu/v6.0beta/tlt/uahncdc_lt_6.0beta5.txt

[4] https://kaltesonne.de/schweizer-klimaszenarien-ch2018-bis-zur-halfte-der-beobachteten-erwarmung-der-letzte-50-100-jahre-hat-naturliche-ursachen/

[5] https://kaltesonne.de/zwei-weitere-studien-finden-eine-stark-reduzierte-co2-klimawirkung-von-13-grad-pro-co2-verdopplung/

[6] https://www.fachinfo.eu/fi036.pdf (Dr. Hans Penner)

[7] Scafetta et al., International Journal of Heat and Technology, Sept. 2017, Vol. 35, S.18-26