Warum belügt man uns hinsichtlich von Todesfällen durch extreme Temperaturen?

Kip Hansen

In einer jüngst erschienenen Kurzmeldung wies ich darauf hin, dass die großen Klimaalarm-Propaganda-Portale [CCNow, Inside Climate News] die Mainstream-Medien auf der ganzen Welt mit der Nachricht überschwemmen würden des Inhalts, dass in der nördlichen Hemisphäre, wo die Mehrheit der Menschheit lebt, Sommer ist und die Sommer dazu neigen, heiß zu sein.

Eines der gängigsten Argumente ist folgendes:

Hitze ist die häufigste wetterbedingte Todesursache in den USA und übertrifft die Todesfälle durch Hurrikane um das Achtfache. Die Rekordtemperaturen dieses Sommers, die durch die vom Menschen verursachte Klimakrise noch verschlimmert wurden, haben zu Befürchtungen geführt, dass im Jahr 2023 ein neuer Höchststand an Todesopfern erreicht werden könnte.“ [The Guardian]

Viele Mainstream-Medien verweisen auf den NOAA-Datensatz „Weather Related Fatality and Injury Statistics“. Und da ist er, der unwiderlegbare Beweis von einer Goldstandard-Quelle, dem Nationalen Wetterdienst der National Oceanic and Atmospheric Administration, dass Hitze weitaus tödlicher ist als Kälte.

Nur zählen sie natürlich nicht das, was Sie oder ich als „Hitzetote“ und „Kältetote“ bezeichnen würden, sondern etwas anderes. (Ich werde darauf später noch näher eingehen.)

Darüber hinaus stützen sich die Nachrichtenagenturen, ermutigt durch die Klimapropaganda-Kabalen, auf einen Bericht der weltweit führenden Zeitung The Guardian [Mitbegründer der Klimapropaganda-Organisation Covering Climate Now – CCNow]:

Extreme Temperaturen kosten jährlich 5 Millionen Menschen das Leben, hitzebedingte Todesfälle nehmen zu, so eine Studie [The Guardian].

Es ist üblich, selektiv aus diesem Artikel zu zitieren, auch wenn die Unterüberschrift lautet: „In den letzten 20 Jahren starben mehr Menschen an Kälte als an Hitze, aber der Klimawandel verschiebt das Gleichgewicht.“ Man muss den Artikel sehr genau lesen, um festzustellen, dass er über die Studie von Zhao et al. 2021 berichtet, die tatsächlich feststellte, dass die hitzebedingten Todesfälle zunahmen (da die Bevölkerung ebenfalls zunahm), und um zu entdecken, dass die sanfte Erwärmung des Klimas mehr Kältetote verhindert als die Zunahme der Hitzetoten – was zu einem Netto-Rückgang der Todesfälle durch extreme Temperaturen führt.

Um genau zu sein: 9,43 % aller Todesfälle waren auf nicht optimale Temperaturen zurückzuführen. Von diesen 5 Millionen waren 8,52 % kältebedingt und 0,91 % hitzebedingt. Nochmals: Über 8,5 % der Todesfälle sind kältebedingt und nur 0,9 hitzebedingt – das sind fast zehnmal so viele kältebedingte Todesfälle wie hitzebedingte Todesfälle.

Oh, und die Verschiebung der Todesfälle? Der Anstieg der hitzebedingten Todesfälle? Hier habe ich die Ergebnisse der Studie zitiert:

„Von 2000-03 bis 2016-19 veränderte sich das globale Verhältnis der kältebedingten überzähligen Todesfälle [definiert als ‚das Verhältnis zwischen den jährlichen überzähligen Todesfällen und allen Todesfällen eines Jahres‘ – kh] um -0-51 Prozentpunkte (95% eCI -0-61 bis -0-42) und das globale Verhältnis der hitzebedingten überzähligen Todesfälle stieg um 0-21 Prozentpunkte (0-13-0-31), was zu einer Nettoverringerung des Gesamtverhältnisses führte.“

[Nebenbei bemerkt: Es scheint eine statistische Schikane zu sein, „excess death ratio“ anstelle von etwas Einfacherem wie „change in deaths per million“ oder „lives saved by higher temperatures“ anzugeben. Was ich in dieser Studie über Todesfälle durch „nicht optimale Umgebungstemperaturen“ (das Thema dieser Studie) lese, ist ein Vergleich zwischen einer Verbesserung um einen halben Prozentpunkt bei einer großen Zahl von Todesfällen (~ 432.500 Kältetote) und einer Verschlechterung um zwei Zehntelprozentpunkte bei einer viel kleineren Zahl von Todesfällen (~45.000 Hitzetote). Es könnte sein, dass ich mich irre, vielleicht gibt es einen Grund aus dem Bereich der öffentlichen Gesundheit dafür, und ein kluger Kopf könnte das für die Leser in den Kommentaren klären].

Diese Lüge über Hitze- und Kältetote wird von Joshua Cohen bei Forbes in seinem Artikel Excessive Heat Can Kill, But Extreme Cold Still Causes Many More Fatalities vom Juli 2023 ziemlich gut entlarvt.

(Zitat unten aus diesem Forbes-Artikel – beachten Sie, dass der Autor über Zhao et al. 2021 schreibt):

„Zwischen 2000 und 2019 ist die Zahl der jährlichen Todesfälle durch Hitzeeinwirkung weltweit gestiegen. Der 20-Jahres-Zeitraum fiel mit einer Erwärmung der Erde um etwa 0,4 Grad Celsius zusammen. Die hitzebedingten Todesfälle betrafen überproportional Asien, Afrika und südliche Teile Europas und Nordamerikas.

„Interessanterweise nahmen im untersuchten Zeitraum 2000-2019 die hitzebedingten Todesfälle zu, während die Todesfälle durch Kälteeinwirkung zurückgingen. Und dieser Rückgang war stärker als der Anstieg der hitzebedingten Todesfälle. Insgesamt schätzten die Forscher, dass im Zeitraum 2000-2019 weltweit etwa 650.000 Menschen weniger an den Folgen von Hitzeeinwirkung starben als in den 1980er und 1990er Jahren.“

Klartext: In den letzten zwanzig Jahren wurden durch die langsame und stetige Erwärmung des Klimas zwischen 2000 und 2019 etwa 650.000 Menschenleben gerettet.

~ ~ ~ ~ ~

Kehren wir zum ersten Punkt zurück: Die Graphik der NOAA und des NWS (National Weather Service) zu den „Weather Fatalities“. Auch hier versucht Joshua Cohen von Forbes, die Dinge richtig zu stellen:

„Außerdem sind die beiden US-Regierungsbehörden, die Todesfälle durch Hitze und Kälte erfassen – die National Oceanic and Atmospheric Administration (NOAA) und die Centers for Disease Control and Prevention (CDC) – in ihren Schätzungen diametral entgegengesetzt.“

Wie bitte? Sind Fakten nicht auch, nun … Fakten? Wie können zwei große US-Bundesbehörden, die Todesfälle durch Wettereinflüsse und eine breitere Palette von Todesfällen verfolgen, in ihren numerischen Schätzungen „diametral entgegengesetzt“ sein? Ich meine, tote Menschen sind ziemlich einfach zu zählen, sie bewegen sich nicht und versuchen sich zu verstecken, oder? (Anmerkung: Aber es ist knifflig: siehe meine Beiträge Cause of Death und dessen Nachfolger).

„Die Darstellung der NOAA über das, was sie „wetterbedingte Todesfälle“ nennt, legt nahe, dass während des 30-jährigen Zeitraums von 1988 bis 2017 durchschnittlich 134 hitzebedingte Todesfälle pro Jahr auftraten, während 30 pro Jahr kältebedingt waren.

Im Gegensatz zur NOAA zeigt die National Center for Health Statistics Compressed Mortality Database der CDC, die auf tatsächlichen Sterbeurkunden basiert, dass in einem Jahr etwa doppelt so viele Menschen an Kälte sterben wie an Hitze.“

[Der Link führt zum CDC-Datenbank-Tool, das unglaublich kompliziert zu bedienen ist, und es ist schwierig, die Todesfälle nach Hitze und Kälte zu ermitteln. – Anna Skinner von Newsweek ist es jedoch gelungen, eine Zahl herauszufinden. Siehe Abschnitt Späte Ergänzungen unten. – Kip Hansen]

Cohen bietet eine vernünftige und möglicherweise richtige Erklärung:

„Es wäre nicht das erste Mal, dass die Schätzungen von Organisationen zu scheinbar gleichen beobachtbaren Ereignissen so weit auseinander liegen. Den Berechnungen der einzelnen Organisationen zu kälte- und hitzebedingten Todesfällen liegen unterschiedliche Definitionen und Annahmen zur Messung zugrunde.

Alles in allem ist es sehr wahrscheinlich, dass in einem bestimmten Jahr die Kälte mehr Todesfälle verursacht als die Hitze. Mit zunehmender Erwärmung der Erde nimmt die Zahl der hitzebedingten Todesfälle zu und die Zahl der Todesfälle durch Kälte ab. Die Zahl der kältebedingten Todesfälle geht schneller zurück als die Zahl der hitzebedingten Todesfälle. Unter dem Strich scheint es also weniger Todesfälle durch Hitzeeinwirkung zu geben.“

Lesen Sie Cohens Artikel, er sichert sich ab, damit man ihn nicht als Klimawandelleugner bezeichnen kann.

Dann gibt es die europäischen Daten zu Todesfällen durch Hitze im Vergleich zu Todesfällen durch Kälte in einem anderen Lancet-Artikel von 2023: „Übersterblichkeit aufgrund von Hitze und Kälte: Eine Studie zur Bewertung der Gesundheitsauswirkungen in 854 europäischen Städten“ und die berüchtigte Grafik dazu. Links ist die veröffentlichte Version, direkt aus dem Originalartikel kopiert, rechts mit angeglichenen numerischen Achsen, mit freundlicher Genehmigung von Bjorn Lomborg:

Aber genau wie ich selbst auch schrieb Cohen zu früh. Er hätte ein Jahr warten sollen, bis Zhao et al. ihre jüngste Arbeit (Mai 2024) speziell zu Todesfällen durch Hitzewellen schrieben zum Thema [übersetzt]: „Globale, regionale und nationale Belastung durch hitzewellenbedingte Sterblichkeit von 1990 bis 2019: Eine dreistufige Modellierungsstudie“ Ihre Ergebnisse lassen sich in dieser einfachen Aussage zusammenfassen:

„In den warmen Jahreszeiten von 1990 bis 2019 waren 153.078 Todesfälle auf Hitzewellen zurückzuführen (fast die Hälfte davon in Asien), was 0,94 % aller Todesfälle ausmachte und 236 Todesfällen pro 10 Millionen Einwohner entsprach. Die globale hitzewellenbedingte Übersterblichkeitsrate sank im Vergleich zum 30-Jahres-Durchschnitt um 7,2 % pro Jahrzehnt.“

# # # # #

Spätere Hinzufügungen

Judith Curry retweetet (kann nicht „re-X“ sagen) Andy Revkin, der den Verlust der journalistischen Integrität der Schlagzeile und der Story des Guardian beklagt, die in diesem Essay vorgestellt wurden – hier und hier.

Ein Artikel in Newsweek berichtet, dass „die Wassertemperaturen in Kalifornien auf gefährliche Werte fallen“, nämlich 8,5°C. In dem Artikel findet sich die Aussage: „Daten der National Institutes of Health haben ergeben, dass in den USA jedes Jahr 1.330 Menschen an Unterkühlung sterben.“ Und das ist nur die direkte Todesursache….

# # # # #

Kommentar des Autors:

Ich weiß, dass ich die im Titel gestellte Frage nicht beantwortet habe: „Warum lügen sie über Todesfälle durch extreme Temperaturen?“ Ich antworte nicht, weil ich es nicht weiß. Es gibt überwältigende öffentlich verfügbare Daten sowie veröffentlichte, ausführliche, von Experten überprüfte Studien, die sogar in Zeitschriften veröffentlicht wurden, die für ihre pro-Klima-Alarmisten-Voreingenommenheit bekannt sind Sie belegen, dass Kälte, niedrige Temperaturen, sogar mäßige Kälte weitaus mehr Menschen tötet als hohe Temperaturen.

Das gilt für die Vereinigten Staaten, das Vereinigte Königreich, Europa und die Welt im Allgemeinen.

Aber krasse Propaganda basiert auf dem einfachen Prozess, dieselbe Lüge immer und immer wieder zu wiederholen, bis sie als Wahrheit akzeptiert wird.

Hier sind die Links, die Sie verwenden können, um diese Lüge zu widerlegen:

Zhao et al. [2021]

Zhao et al. [2024]

Joshua Cohen in Forbes

Masselot et al. 2023 (European deaths)

Link: https://wattsupwiththat.com/2024/06/25/why-do-they-lie-about-extreme-temperature-deaths/

Übersetzt von Christian Freuer für das EIKE

 




Krampfhafte Suche nach Hockeyschlägern

Willis Eschenbach

Der legendäre „Hockeyschläger“ weigert sich einfach zu sterben. Er wurde erstmals von Mann, Bradley und Hughes in ihrer 1998 veröffentlichten Arbeit Global-scale temperature patterns and climate forcing over the past six centuries“ (im Folgenden „MBH98“) erschaffen.

Abbildung 1. Das Original Hockeyschläger-Diagramm

MBH98 behauptete zu zeigen, dass sich die Welt nach einem langen Zeitraum mit sehr geringen Veränderungen plötzlich zu erwärmen begann, und zwar schnell.

Vor ein paar Jahrzehnten leistete Steve McIntyre von Climate Audit wirklich ganze Arbeit, indem er eine Vielzahl von Fehlern in MBH98 aufdeckte. Und irgendwann in dieser Zeit stellte jemand, wahrscheinlich Steve, aber vielleicht auch jemand anderes fest, dass das merkwürdige (und mathematisch falsche) in MBH98 verwendete Verfahren aktiv Hockeysticks aus dem roten Rauschen herausarbeiten konnte.

Trotz alledem folgten auf MBH verschiedene Studien, die ich als „Hockeyschläger“ bezeichne, d. h. Studien, die vorgaben, unabhängig voneinander einen Hockeyschläger in den historischen Aufzeichnungen zu finden, und von denen daher behauptet wurde, sie würden den ursprünglichen Hockeyschläger von MBH98 unterstützen und validieren.

Natürlich wiederholten diese Studien viele der gleichen Fehler, die von McIntyre und anderen aufgedeckt worden waren. Hier ist die Geldgrafik aus meinem Beitrag Kill It With Fire, in dem der Versuch von Mann 2008 analysiert wurde, den Hockeystick zu rehabilitieren (M2008):

Abbildung 2. Cluster-Dendrogramm mit ähnlichen Gruppen in den Proxies des Hockeyschlägers M2008

Man beachte, dass die Hockeystick-Form nur von einigen wenigen Gruppen von Proxies abhängt.
Vor ein paar Tagen wurde mir klar, dass ich zwar geglaubt hatte, dass die fehlerhafte Mathematik von MBH98 Hockeysticks aus dem roten Rauschen herausarbeiten zu können, es aber nie selbst ausprobiert hatte. Und was noch wichtiger ist, ich hatte es nie mit einfacheren Berechnungen versucht, mit einfachen Durchschnittswerten anstelle des unzentrierten Hauptkomponenten-Verfahrens von MBH98. Dies ist also im Grunde mein Labornotizbuch aus dieser Untersuchung.

Der umfangreichste dieser Hockeyschläger betrifft den PAGES-Datensatz, den es in drei Varianten gibt: PAGES2017, PAGES2019 und PAGES2K. PAGES2K beginnt im Jahr 1 n. Chr. und enthält mehr als 600 Proxydaten. Hier sind mehrere PAGES2K-Rekonstruktionen aus einem Nature-Artikel, der die Behauptung aufstellt, dass es eine „konsistente multidekadische Variabilität in globalen Temperaturrekonstruktionen und -simulationen über das gemeinsame Zeitalter“ gibt:

Abbildung 3. Mehrere historische Rekonstruktionen unter Verwendung des PAGES2K-Datensatzes.

Wie Abbildung 3 zeigt, ist es wahr, dass verschiedene Untersuchungen von unterschiedlichen Teams sehr ähnliche Hockeystick-Formen ergeben haben. Dies scheint die Wissenschaftler sehr zu beeindrucken, aber in diesem Beitrag wird gezeigt, warum dies sowohl wahr als auch bedeutungslos ist.

Dazu müssen wir zunächst die einzelnen Schritte bei der Erstellung historischer Temperaturrekonstruktionen auf der Grundlage von Proxys verstehen. Ein „Proxy“ ist eine Messung von Unterschieden in einer messbaren Variable, die sich mit der Temperatur ändert. Wenn es zum Beispiel wärmer ist, wachsen Bäume und Korallen im Allgemeinen schneller. Daher können wir die Breite ihrer Jahresringe als Stellvertreter für die Umgebungstemperatur analysieren. Andere Temperaturproxys sind Isotope in Eisbohrkernen, Sedimentationsraten in Seen, Speläotheme, Magnesium/Kalzium-Verhältnisse in Muscheln und ähnliches.

Der Prozess der Erstellung eines historischen Datensatzes auf der Grundlage von Proxys geht folgendermaßen vor sich:

1. Sammeln Sie eine Reihe von Proxys.

2. Verwerfen Sie diejenigen, die nicht „temperatursensitiv“ sind. Temperatursensitive Proxies können identifiziert werden, indem man prüft, ob sie im Allgemeinen im Gleichschritt (oder gegen den Gleichschritt) mit historischen Temperaturbeobachtungen schwanken (hohe Korrelation).

3. Sie können positiv korreliert sein (Temperatur und Proxy steigen/fallen gemeinsam) oder negativ korreliert (wenn das eine steigt, fällt das andere). Beide reagieren empfindlich auf die Temperatur und sind daher nützlich. Wir müssen also einfach die Proxies mit negativer Korrelation umdrehen.

4. Verwenden Sie ein einfaches oder komplexes mathematisches Verfahren, um den Durchschnitt aller oder einer Teilmenge der einzelnen Proxies zu ermitteln.

5. Erklären Sie den Erfolg.

[Hervorhebungen im Original]

Das scheint eine vernünftige Idee zu sein. Man sucht nach temperatursensiblen Proxies und mittelt sie auf irgendeine Weise, um die Vergangenheit zu rekonstruieren. Also … was gibt es da zu beanstanden?

Zunächst einmal hier die Beschreibung aus der Studie, in dem PAGES2K angekündigt wird, mit dem Titel „A global multiproxy database for temperature reconstructions of the Common Era„:

Reproduzierbare Klimarekonstruktionen für die Common Era (1. Jh. n. Chr. bis heute) sind der Schlüssel, um die Erwärmung in der Industrie-Zeitalter in den Kontext der natürlichen Klimavariabilität zu stellen.

Hier stellen wir eine von der Gemeinschaft bereitgestellte Datenbank mit temperatursensitiven Proxydaten aus der PAGES2k-Initiative vor. Die Datenbank enthält 692 Datensätze aus 648 Orten, darunter alle Kontinentalregionen und die wichtigsten Meeresbecken. Die Aufzeichnungen stammen von Bäumen, Eis, Sedimenten, Korallen, Speläothemen, dokumentarischen Belegen und anderen Archiven. Ihre Länge reicht von 50 bis 2000 Jahren, mit einem Median von 547 Jahren, während die zeitliche Auflösung von zweiwöchentlich bis hundertjährlich reicht. Fast die Hälfte der Proxy-Zeitreihen sind signifikant mit der HadCRUT4.2-Temperatur im Zeitraum 1850-2014 korreliert.

PAGES2K hat also den ersten Schritt zur Erstellung einer proxy-basierten Temperaturrekonstruktion vollzogen. Sie haben eine Vielzahl von Proxies gesammelt und festgestellt, dass etwa die Hälfte von ihnen „temperaturempfindlich“ sind, basierend auf ihrer Übereinstimmung mit der HadCRUT-Temperatur.

Nochmals … was gibt es da zu beanstanden?

Um zu demonstrieren, was es zu beanstanden gibt, habe ich Gruppen von 692 „Pseudoproxies“ erstellt, die der Größe des PAGES2K-Datensatzes entsprechen. Dabei handelt es sich um nach dem Zufallsprinzip erzeugte „Zeitreihen“, die im Jahr 1 beginnen, um der Länge des PAGES2K-Datensatzes zu entsprechen. Ich habe sie so erstellt, dass ihre Autokorrelation in etwa mit der Autokorrelation der Temperaturaufzeichnungen übereinstimmt, die recht hoch ist. Auf diese Weise sind sie „lebensecht“, eine gute Übereinstimmung mit den tatsächlichen Temperaturaufzeichnungen. Hier sind die ersten zehn einer zufälligen Gruppe:

Abbildung 4. Nach dem Zufallsprinzip erzeugte Pseudoproxies mit hoher Autokorrelation, auch „rotes Rauschen“ genannt.

Wie man sieht, könnten sie alle die zwei Jahrtausende lange Temperaturgeschichte eines imaginären Planeten repräsentieren. Wie gut ist ihre Korrelation mit den Temperaturbeobachtungen? Abbildung 5 zeigt diese Daten:

Abbildung 5. Korrelationen von 692 zufälligen Pseudoproxies mit den modernen Temperaturbeobachtungen von Berkeley Earth.

Dies entspricht in etwa dem, was wir erwarten würden: Etwa die Hälfte der Pseudoproxies weist eine positive Korrelation mit den Temperaturbeobachtungen auf, die andere Hälfte eine negative Korrelation, und die meisten Proxies weisen keine starke Korrelation mit der Temperatur auf.
Und hier ist der Durchschnitt aller Pseudoproxies:

Abbildung 6. Durchschnitt, 692 Pseudoproxies. Die rote Linie zeigt den Beginn der instrumentellen Aufzeichnung von Berkeley Earth. Man beachte, dass es keinen Hockeyschläger gibt – im Gegenteil, in diesem Fall habe ich, um eine Verzerrung meiner Ergebnisse zu vermeiden, eine Reihe von Pseudoproxies ausgewählt, deren Durchschnitt am jüngsten Ende abfällt. Es gibt auch keinen signifikanten Trend in den Gesamtdaten.

OK, wir haben also die Proxies, und wir haben die Korrelation jedes einzelnen mit der instrumentellen Aufzeichnung berechnet. Dann habe ich in Schritt 3 des oben beschriebenen Verfahrens diejenigen Proxies umgedreht, die eine negative Korrelation mit dem instrumentellen Datensatz aufwiesen. Das bedeutete, dass alle Proxies positiv mit den Berkeley Earth-Daten korreliert waren.

An diesem Punkt wollte ich sehen, wie ein Durchschnitt aussehen würde, wenn ich nur die Pseudoproxies mit einer hohen Korrelation mit der instrumentellen Aufzeichnung auswählen würde, sagen wir 0,5 oder mehr, … aber vorher dachte ich ohne besonderen Grund, dass ich mir einen einfachen Durchschnitt des gesamten Datensatzes ansehen würde. Das hat mich verblüfft.

Abbildung 7. Durchschnitt aller Pseudoproxies nach einfachem Umdrehen (Invertieren) derjenigen, die eine negative Korrelation mit den Instrumentaldaten aufweisen.

HOPPLA!

Hier können wir sehen, warum alle verschiedenen Mittelungsmethoden die gleiche „historische Aufzeichnung“ ergeben … weil das oben genannte Verfahren aktiv nach Hockeyschlägern im zufälligen roten Rauschen sucht.

Ein interessantes Detail in Abbildung 7 ist, dass der Durchschnitt vor dem Beginn des für die Korrelation verwendeten Zeitraums stark abfällt. Ich nehme an, dies ist darauf zurückzuführen, dass für einen so starken Anstieg zunächst ein Tiefpunkt erreicht werden muss.

Und dieser Einbruch vor 1850 ist von Interesse, weil er sowohl in Panel A als auch in Panel B der in Abbildung 3 gezeigten PAGES2K-Rekonstruktionen zu sehen ist …

Ein weiterer bemerkenswerter Punkt ist, dass das Verfahren einen leichten Abwärtstrend von Anfang an bis zu einem starken Rückgang um 1775 eingeführt hat. Ich führe das darauf zurück, dass das Verfahren „U“-förmige Datensätze bevorzugt.

In jedem Fall ist der leichte Abwärtstrend ein echter Effekt des Verfahrens. Wir wissen das, weil es im gesamten Datensatz keinen Abwärtstrend gibt. Wir wissen auch, dass es sich um einen realen Effekt handelt, und zwar aus einem noch wichtigeren Grund: Wir sehen den gleichen leichten Abwärtstrend im ursprünglichen MBH-Hockeystick in Abbildung 1 und auch in Panel „a“ von Abbildung 2.

Und schließlich, warum gibt es so wenig Variation im „Griff“ des Hockeysticks? Sind die Temperaturen in der Vergangenheit wirklich so stabil?

Nein. Es handelt sich um ein weiteres Artefakt. Der Griff des Hockeysticks ist nur ein Mittelwert aus einer vermutlich großen Anzahl von zufälligen Datensätzen mit rotem Rauschen. Wenn man den Durchschnitt einer Reihe von zufälligen Datensätzen mit rotem Rauschen bildet, erhält man eine gerade Linie.

Mein nächster Gedanke war: Wie stark muss ich die Pseudoproxies beeinflussen, um einen sichtbaren Hockeyschläger zu erzeugen?

Um das zu untersuchen, habe ich den gleichen Originaldatensatz genommen. In diesem Fall habe ich jedoch nur 40 Proxies invertiert, und zwar diejenigen mit der stärksten negativen Korrelation. Ich habe also nur die stärksten negativen Signale umgedreht und den Rest der Proxies, die eine negative Korrelation aufwiesen, als unberührtes rotes Rauschen belassen. Hier ist das Ergebnis:

Abbildung 8. Durchschnitt aller Pseudoproxies nach Umdrehen derjenigen mit den vierzig höchsten negativen Korrelationen mit den Instrumentaldaten.

Man beachte, dass weniger als sechs Prozent (vierzig) der Pseudoproxies umgedreht wurden und alle vier Hockeyschläger-Merkmale bereits sichtbar sind – eine verringerte Variation im „Griff“ desselben, ein leichter Abwärtstrend bis 1775, ein starker Rückgang bis 1850 und eine fast vertikale „Blatt“ des Hockeyschlägers von 1850 an.

Wie sieht es am anderen Ende der Skala aus, wo wir nur die Daten mit der stärksten Korrelation auswählen? Hier ist der Durchschnitt nur des oberen Viertels der Daten (176 Pseudoproxies), gemessen an ihrer Korrelation mit der beobachteten Temperatur:

Abbildung 8a. Durchschnitt nur des obersten Viertels der Daten, d. h. derjenigen mit der besten Korrelation mit den Berkeley Earth-Daten.

Gleiche Sache. Gerader Griff am Hockeyschläger. Langsamer Rückgang bis 1775. Starker Rückgang. Vertikales Hockeyschläger-Blatt danach.

Schließlich wurde mir klar, dass ich mir die besten Szenarien angesehen hatte … aber was ist mit dem schlimmsten Fall? Hier ist also die Hälfte der Pseudoproxies mit der schlechtesten Korrelation mit der beobachteten Temperatur:

Abbildung 9. Durchschnitt nur der unteren Hälfte der Daten, derjenigen mit der schlechtesten Korrelation mit den Berkeley Earth-Daten.

Obwohl wir nur die Hälfte der Pseudoproxies mit der schlechtesten Korrelation mit den Temperaturen verwenden, nämlich diejenigen mit einer Korrelation von 0,22 oder weniger, erhalten wir die gleiche Geschichte wie zuvor – den gleichen geraden Hockeyschläger, den gleichen leichten Rückgang bis 1775, den gleichen starken Rückgang bis 1850 und das gleiche vertikale Hockeyschläger-Blatt nach 1850.

Es gibt einen interessanten und leicht zu übersehenden Punkt in den obigen Grafiken. Während die Form gleich bleibt, ist das Blatt des Hockeyschlägers umso höher, je größer die Korrelation ist. Die verschiedenen Verfahren veränderten die Spitze des Blattes von ~0,1, wenn nur 40 umgedreht wurden, über ~1,5, wenn die am schlechtesten korrelierten Pseudoproxies verwendet wurden, zu ~0,3, wenn alle Pseudoproxies umgedreht wurden, bis zu ~0,7, wenn nur die am besten korrelierten verwendet wurden. Alle zeigten also die gleiche Form des Hockeyschlägers, und sie unterschieden sich nur in der Größe des Blattes. Seltsam.

Ich habe weiter oben gesagt, dass dieser Beitrag zeigen würde, warum es sowohl wahr als auch bedeutungslos ist, dass verschiedene Studien alle zu Hockeyschlägern kommen.

Der Grund dafür ist in den obigen Zahlen ganz klar ersichtlich – egal, was die Forscher tun, da sie alle irgendeine Variante des Standardverfahrens verwenden, das ich oben im Beitrag aufgeführt habe, erhalten sie garantiert einen Hockeyschläger. Sie können dem nicht entkommen. Mit diesem Verfahren werden definitiv und sehr effektiv Hockeyschläger aus dem zufälligen roten Rauschen herausgefiltert.

[Hervorhebungen im Original]

Link: https://wattsupwiththat.com/2024/06/29/mining-for-hockeysticks/

Übersetzt von Christian Freuer für das EIKE

 




Unternehmen, welche die Wissenschaft verleugnen, sind dem Untergang geweiht

Christopher Monckton of Brenchley

Mit drei zu zwei Stimmen entschied der Oberste Gerichtshof von UK (ehemals Justizausschuss des Oberhauses) letzte Woche in einem 100-seitigen Urteil, dass der Grafschaftsrat von Surrey bei der Erteilung der Planungsgenehmigung an UK Oil and Gas plc für die Ölförderung in Horse Hill, Surrey, eine Schätzung der CO₂-Emissionen von Dritten, die die 3,3 Millionen Barrel Öl verbrennen, die das Horse Hill-Feld während seiner Lebensdauer produzieren könnte, weder verlangt noch in seiner Bewertung berücksichtigt hatte.

Das Unternehmen erklärt, es werde nun „eng mit dem Surrey County Council zusammenarbeiten, um die Situation umgehend zu bereinigen, entweder durch eine Änderung der Umweltverträglichkeitsprüfung“ im ursprünglichen Planfeststellungsantrag oder „durch einen neuen, nachträglichen Antrag“.

Der Bohrplatz Horse Hill, knapp 5 km vom Flughafen Gatwick, Surrey, KI-Simulation

Hier sind die „Fakten“, wie sie im Urteil des Obersten Gerichtshofs dargelegt sind, in vollem Wortlaut:

„Jeder, der sich für die Zukunft unseres Planeten interessiert, weiß inzwischen, welche Auswirkungen die Verbrennung fossiler Brennstoffe – vor allem Öl, Kohle und Gas – auf das Klima hat. Bei der Verbrennung fossiler Brennstoffe werden Kohlendioxid und andere Treibhausgase freigesetzt – so genannt, weil sie in der Erdatmosphäre wie ein Treibhaus wirken, die Sonnenwärme zurückhalten und die globale Temperatur steigen lassen. Laut dem Production Gap Report 2023 des Umweltprogramms der Vereinten Nationen (UNEP), S. 3, stammen fast 90 % der weltweiten Kohlendioxidemissionen aus der Verbrennung fossiler Brennstoffe.

Der gesamte Zweck der Förderung fossiler Brennstoffe besteht darin, Kohlenwasserstoffe für die Verbrennung verfügbar zu machen. Es kann daher mit ziemlicher Sicherheit gesagt werden, dass nach der Förderung von Erdöl der darin enthaltene Kohlenstoff früher oder später als Kohlendioxid in die Atmosphäre freigesetzt wird und somit zur globalen Erwärmung beiträgt. Dies gilt selbst dann, wenn nur der Nettoanstieg der Treibhausgasemissionen betrachtet wird. Öl an einem Ort im Boden zu belassen, führt nicht zu einem entsprechenden Anstieg der Produktion an einem anderen Ort: siehe UNEP-Bericht über die Produktionslücke 2019, S. 50, in dem auf der Grundlage von Studien unter Verwendung von Angebots- und Nachfrageelastizitäten aus der Wirtschaftsliteratur berichtet wird, dass jedes Barrel Öl, das in einer Region unerschlossen bleibt, dazu führt, dass längerfristig 0,2 bis 0,6 Barrel weltweit nicht verbraucht werden. …

Es genügt, aus veröffentlichten Quellen einen geeigneten Umrechnungsfaktor zu ermitteln, d.h. die geschätzte Menge an Kohlendioxid, die bei der Verbrennung jeder produzierten Tonne Öl freigesetzt wird. Die geschätzte Gesamtmenge des zu produzierenden Öls wird dann mit diesem Umrechnungsfaktor [3,22] multipliziert, um die gesamten Verbrennungsemissionen … für jede Tonne produzierten Öls zu berechnen. Multipliziert man den geschätzten Gesamtausstoß des vorgeschlagenen Projekts von 3,3 Millionen Tonnen Öl … mit diesem Faktor, ergibt sich eine geschätzte Gesamtsumme von 10,6 Millionen Tonnen CO₂-Emissionen während der Lebensdauer des Projektes.

Es ist aufschlussreich, die Menge dieser Emissionen mit den direkten Treibhausgasemissionen am Standort des Bohrlochs während der Lebensdauer des Projekts zu vergleichen, die 140.958 Tonnen CO₂ betragen. Neben dieser Zahl berechnete der Projektträger auch den Anteil dieser Zahl am gesamten britischen Kohlenstoffbudget. Auf der Grundlage dieser Berechnung wurden in der Umwelterklärung die Auswirkungen der geplanten Entwicklung auf das Klima als ‚vernachlässigbar‘ bezeichnet. Wären die Verbrennungsemissionen in die Bewertung einbezogen worden, wäre die Zahl der Treibhausgasemissionen, die dem Projekt zuzuschreiben sind, um fast zwei Größenordnungen höher gewesen und hätte auf diese Weise nicht als ‚vernachlässigbar‘ abgetan werden können.“

Insgesamt wurde also nur eine von 100 Seiten des Urteils den reinen Fakten gewidmet. Der Grund dafür ist, dass die hinter dem Projekt stehenden Unternehmen es wie üblich nicht wagten, gegen die Wissenschaft zu argumentieren. Stattdessen akzeptierten sie zahm die Parteilinie. Da sie sich weder mit den physikalischen noch mit den wirtschaftlichen Aspekten der globalen Erwärmung auseinandersetzen konnten, haben sie den Prozess teuer verloren.

Das Unglück des Urteils besteht darin, dass die 141.000 Tonnen CO₂ vernachlässigbar sind, die während der Lebensdauer der Bohrstelle emittiert werden, während die 10,6 Millionen Tonnen CO₂, die von Dritten bei der Verbrennung des an der Bohrstelle geförderten Öls emittiert werden, nicht als vernachlässigbar abgetan werden können. Die einzige Begründung für diese lächerliche Behauptung, auf die sich das gesamte Urteil stützt ist, dass 10,6 Millionen Tonnen CO₂ 75 mal 141.000 Tonnen sind.

Im „Urteil“ wurde kein Versuch unternommen zu berechnen, wie viel globale Erwärmung die 10,74 Millionen Tonnen CO₂ verursachen würden, die das Horse Hill-Projekt während seiner Lebensdauer ausstößt. Lassen Sie uns also das tun, was niemand in diesem Fall getan hat (am allerwenigsten die Richter) – rechnen.

Wie immer werden wir Mainstream-Daten und -Verfahren aus dem mittleren Bereich verwenden. Dabei befürworten wir diese nicht unbedingt. Wir akzeptieren sie ad argumentum – das heißt, um des Argumentes willen. Dieser Ansatz minimiert den Spielraum für eine Ablenkung der Diskussion vom Hauptpunkt, den wir aufzeigen wollen: 10,74 Millionen Tonnen CO₂, die Summe der direkten und indirekten Projektemissionen, sind in der Tat nach jeder vernünftigen Definition vernachlässigbar.

Wir beginnen mit 10.740.000 Tonnen CO₂, die entweder direkt oder indirekt durch das Projekt emittiert werden. Dieser Wert muss jedoch von vornherein reduziert werden, da, wie es im Urteil heißt, etwa 40 % des nicht geförderten Öls in Horse Hill an anderer Stelle gefördert werden. Die Einsparung durch den Verzicht auf das Projekt, d.h. die verbleibenden 60%, beträgt 6.444.000 Tonnen.

Die Masse der Atmosphäre beträgt etwa 5,1 x 10¹⁵ Tonnen (NASA 2022), und die derzeitige CO₂-Konzentration, die am Mauna Loa gemessen wurde, beträgt 427 Teile pro Million. Die Gesamtmasse des CO₂ in der Luft beträgt also 5,1 x 10¹⁵ x 427 / 10⁶ = 2,178 Billionen Tonnen.

Die Verringerung der CO₂-Konzentration durch den Verzicht auf das Horse Hill-Projekt beträgt demnach 6.444.000 x 427 / 2,178 Billionen, also etwa 0,00126 ppmv. Sie können sehen, worauf das hinausläuft.

Der Strahlungsantrieb durch eine Änderung der CO₂-Konzentration beträgt 5 ln(C / C0). Daher beträgt der verringerte Antrieb 5 ln [(2,178 Billionen – 6.444.000) / 2,178 Billionen), oder 0,0000148 W/m².

Um Watt pro Quadratmeter in vermiedene Erwärmung umzurechnen, multipliziert man mit der vorübergehenden Erwärmung im 21. Jahrhundert von 1,68 K durch verdoppeltes CO₂ (Nijsse 2020) und dividiert durch den verdoppelten CO₂-Antrieb von 3,93 W/m², um die Antwort zu erhalten: 0,00000632 K, oder weniger als ein 150.000stel eines Grades.

Dabei ist jedoch zu berücksichtigen, dass die dekadische Rate der globalen Erwärmung in dem Drittel des Jahrhunderts seit dem IPCC (1990) nur halb so hoch war wie damals vorhergesagt (und das ist immer noch so). Es handelt sich also um weniger als ein 300.000stel Grad oder nur ein Drittel von einem Prozent des 1/1000stel Grads, das selbst dann verringert würde, wenn das Vereinigte Königreich bis 2050 tatsächlich Netto-Null-Emissionen erreichen würde (was es nicht tun wird).

Ein positiver Aspekt: Das Urteil verbietet das Projekt nicht. Es verpflichtet den Grafschaftsrat von Surrey lediglich dazu, die Emissionen Dritter aus dem während der Projektlaufzeit geförderten Öl zu berücksichtigen. UK Oil and Gas muss dem Rat lediglich diesen Artikel zukommen lassen, und der Rat kann seine Entscheidung ändern und bestätigen, um das Projekt zu genehmigen.

Selbst wenn dies nicht gelingt, gibt es noch einen anderen Weg. Vor einigen Jahren war der „Supreme Court“ des Vereinigten Königreichs unklug genug, in Court 1 eine breit angelegte Propagandaveranstaltung zum Klimawandel abzuhalten, bei der natürlich nur die Parteilinie vertreten wurde, und zwar in den tendenziösesten und kindischsten Ausdrücken.

Der Oberste Gerichtshof – der inzwischen weithin als Witz angesehen wird – hatte also die Klimafrage vorweggenommen, indem er eine offene Voreingenommenheit zugunsten des offiziellen Narrativs an den Tag legte. Damit ist es ihm verwaltungsrechtlich auf Dauer verwehrt, irgendwelche Entscheidungen zu Fragen des Klimawandels zu treffen.

Denn das Recht von UK kennt nur zwei Grundsätze der natürlichen Gerechtigkeit: erstens, dass beide Seiten einer Frage – wie der Klimafrage – in angemessener Weise angehört werden sollten (audiatur et altera pars), und zweitens, dass keine Justizbehörde über diese Sache entscheiden darf, wenn sich diese eine Sache zu eigen gemacht hat, indem sie eine öffentliche Meinung dazu geäußert hat, die nicht Teil eines Urteils in einem bestimmten Fall war (nemo sit iudex in causa sua).

UK Oil and Gas hat daher die Möglichkeit, eine einfache Beschwerde beim Europäischen Gerichtshof für Menschenrechte im Sinne von Artikel 6 („Recht auf ein faires Verfahren“) einzureichen:

„Jeder hat bei der Feststellung seiner bürgerlichen Rechte und Pflichten … Anspruch auf ein faires und öffentliches Verfahren innerhalb einer angemessenen Frist durch ein unabhängiges und unparteiisches, auf Gesetz beruhendes Gericht. …“

Das Unternehmen sollte umgehend Berufung beim Menschenrechtsgerichtshof einlegen, da der Oberste Gerichtshof von UK in der Klimafrage kein „unabhängiges und unparteiisches Gericht“ ist und daher nicht befugt ist, die Entscheidungen der unteren Gerichte zugunsten des Unternehmens aufzuheben.

Die Berufung könnte die folgenden Beispiele für Vorurteile in der grob unzureichenden und mangelhaften Darstellung des Sachverhalts durch das Oberste Gericht anführen

  • „Jeder, der sich für die Zukunft unseres Planeten interessiert, weiß inzwischen, welche Auswirkungen die Verbrennung fossiler Brennstoffe auf das Klima hat.“

Dies ist ein krasses Vorurteil. Es geht davon aus, dass die Auswirkungen der Verbrennung von Kohle, Öl und Gas unbewiesen schädlich sind oder werden können. Bislang erweist sich die Verbrennung als sehr vorteilhaft. Die CO₂-Düngung hat die Gesamtbiomasse aller Bäume und anderer grüner Pflanzen auf der Erde in den letzten Jahrzehnten um 15-30% erhöht; die Getreideerträge pro Acker haben sich in 60 Jahren verdreifacht, zum Teil dank mehr CO₂ in der Luft, da CO₂ Pflanzennahrung ist; Pflanzen sind jetzt widerstandsfähiger gegen Trockenheit, dank der Verringerung der Anzahl von Spaltöffnungen an den Unterseiten der Blätter, durch die CO₂ eingeatmet und Wasser ausgeatmet wird; Infolgedessen sind die Hungersnöte weltweit auf einem Rekordtief; und diese und ähnliche indirekte Vorteile sind nichts im Vergleich zu den direkten Vorteilen, die der Welt durch die aus Kohle, Öl und Gas erzeugte statische und motorische Energie entstehen – Vorteile, die in dem Urteil gänzlich ignoriert werden.

  • Verwendung des Begriffs „fossile Brennstoffe“. Dies ist ein Propaganda-Jargon, der direkt aus dem Spielbuch der Klima-Extremisten stammt. Er hat in einem angeblich objektiven Urteil eines „unabhängigen und unparteiischen“ Tribunals nichts zu suchen.

Die Einlegung der Berufung zum jetzigen Zeitpunkt würde die Position des Unternehmens schützen. Die Berufung kann fallen gelassen werden, falls (oder besser gesagt, wenn) der Grafschaftsrat von Surrey die oben genannten einfachen Berechnungen in seine Beurteilung des Antrags des Unternehmens auf Zoneneinteilung einbezieht und bestätigt, dass die Bohrungen fortgesetzt werden können. Hoffen wir, dass ausnahmsweise einmal ein Unternehmen den Mut findet, dem Moloch die Stirn zu bieten.

  • „… Treibhausgase – so genannt, weil sie in der Erdatmosphäre wie ein Treibhaus wirken, …“.

Nein, sie verhalten sich nicht wie ein Treibhaus. Wenn ein CO₂-Molekül in der Luft auf ein Lichtphoton in seiner Absorptionsbande trifft, gibt es direkt Wärme ab, als ob ein winziger Heizkörper eingeschaltet wäre. Dies geschieht durch Quantenschwingungen im Schwingungszustand des CO₂. Das hat nichts mit der Funktionsweise eines Gewächshauses zu tun. „Treibhausgas“ ist ein weiterer Propagandabegriff, der von einer voreingenommenen Justiz unhinterfragt und unqualifiziert übernommen worden ist.

  • „… die Wärme der Sonne einfangen“.

Nein, strahlungsaktive Gase fangen die Wärme der Sonne nicht ein. Sie wirken nicht wie eine Decke. Sie wirken wie Strahler.

„… wodurch die globalen Temperaturen steigen.“

Hier, wie auch anderswo, versäumt es das Urteil, die Frage zu stellen, die jedes wirklich unabhängige und unparteiische Gericht stellen würde: nämlich, um wie viel erhöht der anthropogene Anstieg der CO₂-Konzentration die globale Temperatur? Der Oberste Gerichtshof hat sich nicht einmal die Mühe gemacht, diese Frage zu stellen: vielleicht der wichtigste Beweis dafür, dass sein Urteil auf einem ebenso uninformierten wie tiefgreifenden Vorurteil beruht.

Der Westen kann fahrlässige Dummheit in diesem Ausmaß nicht lange überleben.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2024/06/25/corporations-that-concede-the-science-are-doomed/

Übersetzt von Christian Freuer für das EIKE

 




Zahlen lügen nicht

Robert Bryce

Diese 9 Grafiken aus dem Statistical Review Of World Energy entlarven den Mythos der Energiewende und zeigen, dass Kohlenwasserstoffe schneller zunehmen als alternative Energien.

Der weltweite Energieverbrauch im Jahr 2023 erreicht mit 620 EJ einen neuen Rekord, wovon etwa 81,5 % auf Kohlenwasserstoffe entfallen. Graphik: Energy Institute.

Während seiner 16-jährigen Karriere in der NBA gehörte Rasheed Wallace zu den furchterregendsten Power Forwards im Basketball. Er war aber auch einer der unberechenbarsten. Wallace hält den Rekord für technische Fouls in einer Saison (41) und ist mit 317 technischen Fouls der drittbeste Spieler aller Zeiten.

Neben seiner Verachtung für die Schiedsrichter wurde der 1,85 m große Wallace auch durch einen besonderen Spruch berühmt. Falls „Sheed“ oder einer seiner Mannschaftskameraden für ein seiner Meinung nach unverdientes Foul angeklagt wurde und der gegnerische Spieler den anschließenden Freiwurf verschoss, rief er oft: „Der Ball lügt nicht“, um zu zeigen, dass der Basketballer wusste, dass der Schiedsrichter eine Fehlentscheidung getroffen hatte.

Der Ball lügt nicht. Genauso wenig wie die Zahlen im neuesten Statistical Review of World Energy.

Inmitten des andauernden Propagandagewitters über die „Energiewende“ und der müden Eskapaden der Trottel von Just Stop Oil – von denen einige letzten Mittwoch Stonehenge mit orangefarbener Farbe beschmiert haben – bietet der vom Energy Institute, KPMG und Kearney veröffentlichte statistische Bericht einen dringend benötigten Realitätscheck für das von den großen Medien, Akademikern und dem NGO-Unternehmens-Industrie-Klima-Komplex propagierte Narrativ.

Der am vergangenen Donnerstag veröffentlichte neue statistische Bericht zeigt einmal mehr, dass Wind- und Solarenergie trotz des Hypes, der Subventionen und Vorschriften nicht mit dem Wachstum der Kohlenwasserstoffe Schritt halten. Der weltweite Verbrauch von Kohlenwasserstoffen und die CO₂-Emissionen erreichten im Jahr 2023 mit einem Anstieg des Kohlenwasserstoffverbrauchs um 1,5 % auf 504 Exajoule (EJ) ein Rekordhoch. Dieser Anstieg wurde „von Kohle mit einem Plus von 1,6 % und von Öl mit einem Anstieg von 2 % auf erstmals über 100 Millionen Barrel [pro Tag] getragen.“ Die weltweite Erdgasnachfrage stagnierte, was hauptsächlich auf einen erstaunlichen Rückgang in Europa zurückzuführen war. Die Gasnachfrage in UK ging um 10 % zurück. Auch in Spanien ging sie um 11 %, in Italien um 10 % und in Frankreich ebenfalls um 11 % zurück.

Die steigende Stromnachfrage war auch im Jahr 2023 wieder das große Thema. Die weltweite Stromerzeugung stieg um 2,5 % auf 29.924 Terawattstunden. Etwa 32 % davon (9.456 TWh) wurden in China erzeugt, wo die Stromerzeugung um fast 7 % stieg. Die USA lagen mit 4.494 TWh weit abgeschlagen auf Platz zwei der Stromerzeugung. Die inländische Stromerzeugung ging im vergangenen Jahr um etwa 1 % zurück. Auch in Indien stieg die Stromerzeugung im vergangenen Jahr um etwa 7 % auf den Rekordwert von 1.958 TWh, wovon 75 % aus Kohlekraftwerken stammten.

Ich freue mich jedes Jahr auf die Veröffentlichung des Statistischen Berichts, weil die Daten in Excel heruntergeladen werden können. So können ich und andere aussagekräftige Vergleiche anstellen, die über die reinen Zahlen hinausgehen. Zahlenvergleiche sind ein wesentlicher Bestandteil der Debatte über Energie- und Klimapolitik. Der beste Rat, den ich je zur Präsentation von Zahlen erhalten habe, stammt vom Autor und Statistiker Edward Tufte. Er sagte: Wann immer Sie den Menschen eine Zahl nennen, geben Sie ihnen eine vertraute Metrik, damit sie einen Vergleich anstellen können. Dieser Ratschlag hat den Verlauf meiner Karriere verändert. Hier sind neun Diagramme aus der Statistical Review.

Graphik 1

Diese Graphik habe ich letzten Monat in dem Beitrag „What The Media Won’t Tell You About The Energy Transition“ veröffentlicht [in deutscher Übersetzung hier]. Ich habe sie mit den neuesten Zahlen von Bloomberg New Energy Finance und dem Statistical Review aktualisiert:

Graphik 2

Graphik 3

Graphik 4

Diese Graphik verwendet die gleichen Zahlen wie die auf der vorherigen Folie, hat aber eine höhere Auflösung, da die Zahlen besser verglichen werden können. Sie zeigt deutlich, dass die Emissionssenkungen im Westen durch den massiven Anstieg in China und Indien überkompensiert werden.

Graphik 5

Die USA sind auch 2023 weltweit führend bei der Reduzierung der Emissionen, aber wie die beiden vorangegangenen Folien zeigen, werden diese Reduzierungen durch das Wachstum in Indien und China zunichte gemacht.

Graphik 6

Klimaaktivisten können so viel Suppe auslöffeln, wie sie wollen, aber Öl ist nach wie vor die dominierende Energieform, die weltweit verbraucht wird. In den USA ist der Ölverbrauch im vergangenen Jahr leicht gestiegen, um etwa 0,5 %. In China stieg der Verbrauch dagegen sprunghaft, nämlich um fast 11 %. Auch in Indien stieg er um 5 % und in Vietnam um fast 13 %. Das Ergebnis: Die weltweite Nachfrage stieg um etwa 2,3 Millionen Barrel pro Tag, und der durchschnittliche Ölverbrauch betrug zum ersten Mal in der Geschichte über 100 Millionen Barrel pro Tag.

Graphik 7

Wie ich im Dezember letzten Jahres in dem Beitrag mit dem Titel [übersetzt] „Zwei Tage nach der COP28 liefert die IEA weitere harte Fakten zur Kohle“ schrieb, prognostiziert die Internationale Energieagentur seit Jahren einen Rückgang der weltweiten Kohlenachfrage. Ich erklärte, dass die IEA im Jahr 2015 behauptete: „Das goldene Zeitalter der Kohle in China scheint vorbei zu sein.“ In jenem Jahr sagte die Agentur voraus, dass die weltweite Kohlenachfrage bis 2020 auf 5,5 Milliarden Tonnen fallen würde. Das ist nicht eingetreten. Anstatt zu sinken, steigt die Kohlenachfrage weiter, mit einem starken Anstieg in China und Indien. Auch andere asiatische Länder, darunter Vietnam, die Philippinen und Bangladesch, verbrennen immer mehr Kohle.

Graphik 8

Der Inflation Reduction Act stellt Dutzende von Milliarden Dollar an Subventionen für Wind- und Solarenergie in den USA bereit. Wie unten zu sehen ist, wächst die Gaserzeugung jedoch immer noch schneller als diese beiden Quellen zusammen. Beachten Sie, dass die Winderzeugung im Jahr 2023 trotz des Zubaus von 6 Gigawatt Leistung zurückgeht. Der Grund? Der Wind hat nicht geblasen.

Graphik 9

Wir werden mit Behauptungen bombardiert, dass alternative Energien – und insbesondere Solarenergie – billiger sind als andere Formen der Stromerzeugung. Doch in China und Indien wächst die Kohleverstromung weiterhin schneller als die Solarenergie. Vielleicht haben sie die Nachricht nicht erhalten.

Ich werde bis Juni 2025, wenn die nächste Ausgabe veröffentlicht wird, weiterhin Zahlen aus der Statistischen Übersicht entnehmen. Und ich möchte hier einen Satz wiederholen, den ich bei meinen Vorträgen verwende: Das sind nicht meine Zahlen. Das sind die Zahlen.

Und die Zahlen lügen nicht.

Link: https://wattsupwiththat.com/2024/06/26/numbers-dont-lie/

Übersetzt von Christian Freuer für das EIKE

 




Eine Klima-Krise?

WUWT

Am 19. Juni hielt der Meteorologe Ole Humlum vor dem Irish Climate Science Forum (ICSF) und CLINTEL einen Vortrag, der zum Nachdenken anregte und die Hauptfrage stellte: Befinden wir uns derzeit in einer Klimakrise? Die Climate & Energy Realists of Australia stellten ein Video der Veranstaltung sowie ein Transkript zur Verfügung. Wie bei John Clauser waren die Folien ungewöhnlich gut, und dank Jim O’Brien von ICSF sind sie auf der SEPP-Website zu finden. Die TWTW wird sich bei der Besprechung des Vortrags auf die Folien beziehen. Professor Ole Humlum ist gut qualifiziert, um „Der Zustand des Erdklimas 2024 – Kein Beweis für eine planetarische ‚Krise‘!“ zu diskutieren. Seine Qualifikationen werden in der Einleitung des Videos genannt. Sie lauten:

„Prof. Ole Humlum nutzte meteorologische und klimatologische Daten, um den Zustand des Erdklimas objektiv zu bewerten. Die globalen Lufttemperaturen im Jahr 2023/24 sollen die „höchsten seit Beginn der Aufzeichnungen“ sein – wie signifikant ist das? Globale Temperaturaufzeichnungen bestätigen, dass der beobachtete durchschnittliche Anstieg der globalen Lufttemperatur etwa +0,15° C pro Jahrzehnt beträgt – ist das ernst zu nehmen? Seit 2004 haben sich die Ozeane oberhalb von 1900 m Tiefe im Durchschnitt um 0,037° C erwärmt – „kochen“ die Ozeane? Sind die jüngsten Schwankungen zwischen El-Niño- und La-Niña-Episoden in irgendeiner Weise ungewöhnlich? Inwieweit ist die atmosphärische CO₂-Konzentration tatsächlich auf den menschlichen Beitrag zurückzuführen? Ist der Anstieg des Meeresspiegels eine Bedrohung? Sind die Veränderungen der Meereisausdehnung in der Arktis und Antarktis in irgendeiner Weise alarmierend? Gibt es signifikante Trends bei der Aktivität tropischer Stürme und Hurrikane? Gibt es alarmierende Trends bei den weltweiten Niederschlägen? Ole liefert alle harten Fakten – und kommt zu dem Schluss, dass es diesen Beobachtungen zufolge keine Anzeichen für eine „existenzielle Klimakatastrophe“ gibt.

Professor Humlum stützt seine Erkenntnisse auf Beobachtungen aus der Natur, nicht auf spekulative Modelle. In der Naturwissenschaft regiert die Natur, sie ist der letzte und endgültige Richter. Im Gegensatz zu den Behauptungen der UNO, des IPCC und vieler Regierungsmitarbeiter sind Theorien, Konzepte und Ideen einfach falsch, wenn sie im Widerspruch zu dem stehen, was die Natur uns offenbart. Und Millionen von Dollar zur Unterstützung von Werbung oder Propaganda machen sie nicht richtig.

Humlum analysiert den aktuellen Stand des Klimas anhand von zehn Unterthemen:

  • Lufttemperatur
  • Wassertemperatur
  • Meeresspiegel
  • Meereis
  • Schnee
  • Wind und Extremwetter
  • Globaler Niederschlag
  • Globale Wolkenbedeckung
  • Klimawandel: Bedeutung der Ozeane
  • Schlussfolgerungen

Für die atmosphärische Temperatur verwendet er die Zahlen der Lufttemperatur der Hadley Center Climate Research Unit (HadCRUT). (Im Gegensatz zu anderen Daten wie NASA-GISS und NOAA enthält dieser Datensatz keine „imputierten“ Daten). Humlum zeigt seine Berechnungen der Anomalie der Lufttemperatur für 2023 im Vergleich zu den letzten zehn Jahren. Wichtig ist, dass er auch den gesamten Datensatz für die aus Satellitendaten berechneten globalen USH MSU-Temperaturanomalie zeigt, [also dem einzigen echten globale Datensatz für Temperaturtrends].

Humlum zeigt auch die globale NASA-GISS-Temperaturanomalie und zeigt eine Folie, die deutlich macht, wie NASA-GISS die Temperaturwerte zwischen Mai 2008 und Mai 2024 mehrmals geändert hat. Im Großen und Ganzen hat NASA-GISS die Daten von 1885 bis 1970 abgekühlt (mit ein paar Erwärmungsspitzen in diesem Zeitraum) und die Temperaturen nach 1975 erwärmt. Dies wirft ein schlechtes Licht auf die wissenschaftlichen Integritätsstandards von NASA-GISS und den Behörden in Washington, die diesen Datensatz verwenden. Humlum zeigt, wie NASA-GISS von Mai 2008 bis Mai 2024 die gemeldeten Januartemperaturen im Zeitraum von 1910 bis 2000 verändert und von 0,45°C im Jahr 2008 auf 0,67°C im Mai 2024 erhöht hat.

Humlum erörtert den Effekt der städtischen Wärmeinseln und konzentriert sich dabei auf Oslo und kommt zu dem Schluss: Es gibt noch viel über städtische Wärmeinseln zu lernen!

Anhand der UAH-MSU-Daten zeigt er die Unterschiede zwischen den Veränderungen in der Arktis und der Antarktis. Dann zeigt er die aufgezeichneten Temperaturen für sechs Orte in der Arktis und kommt zu dem Schluss: Was die Temperatur betrifft, ist die Arktis komplizierter als oft kommuniziert wird.

Humlum erörtert dann die von den Argo-Bojen aufgezeichneten Meerestemperaturen, die die Temperatur, den Salzgehalt und die Geschwindigkeit der Meeresströmungen der oberen 2000 Meter der Ozeane messen. Er kommt zu dem Schluss: Es gibt noch viel über die Ozeane zu lernen!

Humlum geht auf die anderen oben genannten Unterthemen ein. In Bezug auf den Meeresspiegel zeigt Humlum, dass kurzfristige Daten alle möglichen Trends hervorbringen können. Langfristige Daten müssen im Fokus jedes ehrlichen Forschers stehen. Für Korsor, Dänemark, beträgt der Trend von Januar 1897 bis Dezember 2017 beispielsweise plus 0,83 mm/Jahr oder etwas mehr als 8 cm pro Jahrhundert. Für Oslo zeigt der gesamte Datensatz, dass der Meeresspiegel mit einer Rate von 3,39 mm/Jahr oder 33 cm pro Jahrhundert fällt.

Mit Themen wie dem Meereis schließt Humlum: Es gibt noch viel über das Meereis zu lernen! In Bezug auf Schnee kommt Humlum zu dem Schluss: Die Schneedecke ist ziemlich stabil! Humlum zeigt, dass die Behauptung falsch ist, es gebe mehr extreme Wetterereignisse. Dann geht er auf die Wolkendecke ein und meint:

„Wenn alle Wolken plötzlich verschwinden würden, dann würde die Erde etwa 17 W/m² an Nettostrahlung gewinnen und sich erwärmen.“

Humlum zeigt dann zwei Diagramme, die TWTW noch nie zusammen auf einer Folie gesehen hat: 1) Globale Wolkenbedeckung (%); Satellite Application Facility on Climate Monitoring (CM SAF) von Januar 1982 bis Juni 2019, und 2) UAH MSU globale Temperaturanomalie für den gleichen Zeitraum. Dies deutet darauf hin, dass die Erwärmung der Atmosphäre in den UAH MSU-Daten größtenteils auf eine Verringerung der Wolkenbedeckung zurückzuführen sein könnte. Da die Verringerung der Wolkenbedeckung etwa 1995 begann und diese seit etwa 2004 nicht weiter abgenommen hat, ist sie nicht auf die jüngsten Auflagen zur Umstellung der von Schiffen verwendeten Kraftstoffe auf schwefelarme Kraftstoffe zurückzuführen. Außerdem ist die Bewölkung nicht die einzige Erklärung für den Anstieg der atmosphärischen Temperaturen, die nicht einheitlich sind, sondern nur eine mögliche Ursache. Humlum stellt fest:

„Wir müssen noch viel über die globale Wolkenbedeckung lernen!“

Diese Aussage stützt die Behauptung von John Clauser, die in den vorangegangenen vier TWTWs erörtert wurde. Niemand hat Wolken erfolgreich modelliert. William van Wijngaarden und William Happer arbeiten daran. Ohne eine erfolgreiche Modellierung der Wolken ist die Wissenschaft nicht settled, unabhängig davon, was einige Wissenschaftler behaupten. Außerdem sind die globalen Klimamodelle hoffnungslos vereinfacht, egal wie komplex sie erscheinen mögen. Jegliche Projektionen/Vorhersagen auf der Grundlage dieser Modelle sind reine Spekulationen und keine auf der Natur beruhende Wissenschaft.

Humlum schließt seine Folien mit der Grundsatzfrage ab: Befinden wir uns derzeit in einer Klimakrise?

1. Atmosphärische Temperaturen: Laufende Korrekturen der Daten. Möglicher globaler Anstieg von bis zu 1,5°C bis 2100, wahrscheinlich aber weniger. Die Temperaturen in der Antarktis bleiben stabil.

2. Meerestemperaturen: Vieles muss noch gelernt werden. Die Ozeane „kochen“ definitiv nicht.

3. Meeresspiegel: 15-20 cm weiterer globaler Anstieg bis 2100?

4. Meereis: Es gibt noch viel zu lernen. Das arktische Meereis verschwindet nicht.

5. Schnee: Die Schneedecke ist quasistabil, und der Schnee verschwindet nicht.

6. Wind und Stürme: Wiederkehrende (periodische?) Schwankungen. Kein Trend bei Hurrikanen.

7. Niederschlag: Wiederkehrende (periodische?) Schwankungen, überlagert von einem Aufwärtstrend seit 1900.

8. Wolkendecke: Die Wolkenbedeckung nimmt seit etwa 1980 ab. Diese Entwicklung trägt wahrscheinlich zur beobachteten Erwärmung der Atmosphäre und der Ozeane bei.

Warum habe ich nichts über CO₂ gesagt?

Das liegt daran, dass CO₂, obwohl es für das Leben sehr wichtig ist, meiner Meinung nach nicht übermäßig wichtig ist, um Meteorologie und Klima zu verstehen.

Humlum zeigt dann anhand eines einfachen Diagramms, worauf es bei der Lufttemperatur ankommt – die Ozeane:

„Das globale Temperatursignal hat seinen Ursprung an der Meeresoberfläche!

Was die Temperatur an der Meeresoberfläche steuert, steuert auch das globale Klima.

Zwei allgemeine Schlussfolgerungen und ein Vorschlag, worauf sich die Klimaforschung konzentrieren sollte:

1. Die beobachteten Daten stützen nicht die Vorstellung einer Klimakrise, sondern zeigen viele und teilweise wiederkehrende natürliche Schwankungen.

2. Die Temperatur der Ozeane steuert die atmosphärische Temperatur.

DAS IST DIE WOHL WICHTIGSTE FRAGE DER KLIMAFORSCHUNG:

Was steuert die Temperatur der Ozeane?“ Siehe Links hier für die Folien.

Link: https://wattsupwiththat.com/2024/06/24/weekly-climate-and-energy-news-roundup-603/, erste Meldung

Übersetzt von Christian Freuer für das EIKE