Klima „Krise“: Fake News-Rundschau

Kip Hansen

Ich hoffe, dass dies eine „zweiwöchentliche Zusammenfassung“ sein wird, ohne fest daran zu glauben, dass ich in der Lage sein werde, diese Bemühungen aufrechtzuerhalten – ich gebe zu, dass ich durch meine laufenden Verpflichtungen ziemlich ausgelaugt bin. Ich werde ein paar falsche Geschichten über die Klimakrise entlarven, die nicht in jeder Zusammenfassung einen eigenen Aufsatz erfordern.

Der asiatische Südwest-Monsun wird immer unregelmäßiger und heftiger

Ein einfacher Anfang, denn ich habe dies bereits übersetzt nach: „Der Südwest-Monsun – unberechenbarer?“ Das ist er nicht. Er ist so, wie er immer war, und hat sich in den letzten 121 Jahren, in denen die Regierungen Indiens (die ebenfalls ständig wechseln) akribisch Buch geführt haben, nicht wesentlich verändert.

Herbstallergien sind real. Und sie werden immer schlimmer.

Wenn Ihnen gesagt werden musste, dass Herbstallergien real sind, dann sind Sie kein Herbstallergiker. Man erkennt, dass es sich hier um eine Climate Change® Geschichte handelt, weil sie mit der obligatorischen positiven Behauptung beginnt, dass „irgendeine unerwünschte Sache oder ein Zustand“ (was auch immer man will, in diesem Fall Herbstallergien) „real“ ist – wie immer, wenn man den Lesern dies unnötigerweise mitteilt – niemand denkt, dass Herbstallergien ein Scherz sind.

Und warum werden sie schlimmer? Der Klimawandel! (natürlich….)

Die Times zitiert einen Experten: „Was viele Menschen nicht wissen ist, dass sich die Allergie-Saison aufgrund des Klimawandels fast verdoppelt hat und intensiver geworden ist“, sagte Kenneth Mendez, der Präsident und Geschäftsführer der Asthma and Allergy Foundation of America. „Höhere Kohlendioxidemissionen veranlassen die Pflanzen dazu, größere Mengen an Pollen freizusetzen“, sagte er. „Das ist der Grund, warum sich Allergien viel schlimmer anfühlen. Und da es länger warm bleibt und der erste Frost immer später eintritt, haben Pflanzen wie Ambrosia mehr Zeit zu wachsen und Allergene freizusetzen“, so Mendez.

Und vergessen Sie nicht den Wärmeinseleffekt, der dafür sorgt, dass es in den Städten (wo keine großen Ambrosia- und Goldrutenfelder wachsen) länger warm ist.

Wirklich! Es gibt eine Studie! Aber die Studie zeigt, dass es – machen Sie sich darauf gefasst – davon abhängt, wo Sie leben und in welchem Jahr. An manchen Orten gibt es weniger Pollen, an anderen mehr. Einzelheiten finden Sie in der Studie, der vollständige Text ist unter dem Link online.

Allergiesaisons – ja, es gibt mehr als eine – gibt es in den Vereinigten Staaten das ganze Jahr über, und sie überschneiden sich. Der Winter ist eine Pause von Allergien im Freien, aber da wir so viel Zeit in unseren Häusern verbringen, bringt der Winter auch Allergien in Innenräumen mit sich.

Unter dem Strich: Seit dem Ende der kleinen Eiszeit hat sich die Erde glücklicherweise etwas erwärmt, der CO2-Gehalt in der Atmosphäre ist gestiegen und den Pflanzen geht es besser. Die Vegetationsperioden haben sich in den meisten Regionen verlängert, was zu Rekorderträgen bei fast allen landwirtschaftlichen Nutzpflanzen geführt hat. Dies kam auch Bäumen und Unkräutern (Pflanzen, die wir nicht mögen“) zugute, deren Pollen Pollenallergien auslösen und die in einigen Gebieten ebenfalls Rekorderträge erzielen.

[Offenlegung: Der Autor lebt in einem Teil der Vereinigten Staaten, der regelmäßig auf der Top-Ten-Liste der Allergie-Hauptstädte der USA erscheint. Ich habe keine Veränderung der Allergiesaison bemerkt – sie kam mir schon immer „unendlich“ vor].

Diese Geschichte mit dem Untertitel: „Eine Katastrophe, die ein jahrzehntelanges Projekt zur Versorgung der nepalesischen Hauptstadt mit Wasser aus Rohrleitungen zunichte gemacht hat, zeigt das Missverhältnis zwischen langsam voranschreitenden, von Gebern finanzierten Bemühungen und der rapiden globalen Erwärmung.“

Kathmandu hat endlich Leitungswasser. Nach einer Klimakatastrophe war es verschwunden.

Wenn man ein Beispiel für die Umsetzung des Mantras „jedes Ereignis ist ein Klimakrisen-Ereignis“ braucht, dann reicht diese Geschichte. Es geht um eine Überschwemmung im Melamchi-Flusstal in Nepal.

Geologisch gesehen ist das gesamte Flusstal eine Überschwemmungsebene, die durch wiederholte Überschwemmungen entstanden ist, welche den Talboden ausgehöhlt haben. Überschwemmungen sind hier nicht unerwartet und haben sich offensichtlich im Laufe der Jahrhunderte immer wieder ereignet.

Die folgenden Bilder zeigen die Lage und den Zustand des Melamchi Water Supply Headworks nach der Überschwemmung:

Der AGU Blogosphäre The Landslide Blog erörtert die Ursache der Katastrophe und erklärt das Ausmaß der oben abgebildeten Schäden: „Das Kraftwerk des Projekts in Ambathan ist nach wie vor mehrere Meter tief unter Flutschutt begraben. … Laut Rajendra Prasad Pant, Sprecher des Melamchi Water Supply Development Board, ist es noch ungewiss, wann mit der Beseitigung der Trümmer und den Wiederherstellungsarbeiten begonnen wird… Nach ersten Schätzungen hat das Projekt einen Schaden von mehr als 1 Milliarde Rupien [etwa 6 Millionen Pfund] erlitten.“ (das Foto nach der Überschwemmung wurde von https://flyinglabs.org/nepal/ zur Verfügung gestellt).

Es hat eine Katastrophe stattgefunden, die das Wasserprojekt, das die Stadt Kathmandu mit sauberem Trinkwasser versorgen soll, möglicherweise auf Jahre hinaus beeinträchtigen wird.

Verursacht durch den Klimawandel? Nein, die Hauptursache war das Wetter, insbesondere die schweren Monsunregen, die es in Nepal fast jedes Jahr gibt, sowie die darauf folgenden Überschwemmungen in verschiedenen Flusstälern Nepals. Die Kathmandu Post berichtet, dass im letzten Jahrhundert viele Nepalesen bei diesen Überschwemmungen ums Leben gekommen sind, und schreibt: „Überschwemmungen in Nepal sind nach wie vor ein alljährliches Ereignis, so auch in diesem Jahr.“

Aber das Ausmaß dieser Überschwemmung wurde nicht nur durch zu viel Regen verursacht, was wetterbedingt ist, sondern durch einen besonderen Umstand:

„Das Verständnis dieser Katastrophe, von der wir wissen, dass sie durch den Bruch eines Erdrutschdamms verursacht wurde, ist während des Monsuns schwierig, wenn die Wolkendecke die Erfassung von Satellitenbildern erschwert. … aber es scheint, dass die Interpretation, dass ein Erdrutschdamm während der starken Regenfälle entstand und dann brach, richtig ist.“ [Quelle]

Ein Erdrutschdamm [.pdf für eine vollständige Erörterung] entsteht, wenn ein Erdrutsch niedergeht und den Durchfluss eines Baches oder Flusses blockiert.  Dies kommt recht häufig vor. In dem verlinkten Dokument wird erklärt, dass „Erdrutschdämme in allen Gebirgsregionen vorkommen“ und dass „aufgrund der relativ kurzen Lebensdauer der meisten dieser Dämme und des oft katastrophalen Versagens [seitens von Behörden] dringender Handlungsbedarf besteht, einschließlich der Bewertung von Überschwemmungen flussaufwärts und katastrophalen Überschwemmungen flussabwärts“. Genau das ist im Melamchi-Tal geschehen.

Ich habe sie persönlich in den Bächen gesehen, die aus den Catskill Mountains im Staat New York kommen. In den Catskills rutscht tonhaltiger Schlamm voller Steine von den steilen Hängen eines „Clove“ [ein Clove ist ein enges Tal mit steilen Hängen, der Begriff wird in den Gebieten Nordamerikas verwendet, die zuerst von den Niederländern besiedelt wurden] und blockiert den Bach oder Fluss am Grund. Schließlich überwindet das Wasser die Blockade und stürzt in einem reißenden Strom die Schlucht hinunter, wobei es Schlamm und Felsen mit sich reißt, während das durch den Damm zurückgehaltene Wasser ausströmt.

[Einschub des Übersetzers: Nicht überall in den USA ist man so sorglos. Im Osten des US-Bundesstaates Pennsylvania nahe der Stadt Stroudsburg gibt es ein Naturdenkmal, das „Delaware Water Gap“ {kann man googeln!}. Dort hatte man schon Ende der 1970er Jahre Vorsorge gegen ein solches Ereignis getroffen. – Ende Einschub]

Erdrutschdämme und ihre katastrophalen Zusammenbrüche sind nicht auf den Klimawandel zurückzuführen. Sie werden nicht durch die globale Erwärmung verursacht. Sie werden nicht einmal unbedingt durch starke Monsunregen verursacht.

Das Tal des Melamchi-Flusses selbst könnte durch wiederholte Brüche von Erdrutschdämmen aus dem Gebirge herausgeschnitten worden sein.

Unter dem Strich: Die unglückselige Überschwemmung des Melamchi-Flusstals im Juni 2022 wurde durch einen katastrophalen Bruch eines Erdrutschdamms verursacht. Die Schäden am Melamchi-Wasserversorgungsprojekt sind enorm und werden Jahre und viele internationale Spendengelder erfordern, um sie zu beheben. Dadurch wird sich die Versorgung Kathmandus mit zuverlässigem, sauberem Trinkwasser verzögern.

Der Klimawandel war jedoch nicht die Ursache.

Erste Studie über die Überschwemmungen in Pakistan: Wissenschaftler sehen den Klimawandel am Werk.

Im Juni und August kam es in der Region Sindh in Pakistan zu katastrophalen Überschwemmungen. Die Presse gab natürlich dem Klimawandel die Schuld. Durch die Magie der Wetter-Zuordnung hören wir aus jedem Sprachrohr der Klimakrisenmedien, dass die Überschwemmungen wahrscheinlich durch den Klimawandel verursacht wurden.

Das ist natürlich Unsinn. Damit das stimmt, müssten die Überschwemmungen etwas Neues sein, das jetzt auftritt, da sich das Klima gegenüber einem früheren Zustand verändert hat. Natürlich hat Pakistan seit jeher unter verheerenden Überschwemmungen gelitten. Bemerkenswerte Überschwemmungen gab es in den Jahren 1992, 1995, 2003, 2007, 2009, 2010, 2011, 2012, 2013, 2014, 2020, 2021 und auch in diesem Jahr. Eine der schlimmsten ereignete sich im Jahre 1950.

Überschwemmungen in Pakistan sind nicht neu, sondern leider die Regel.

Im Gegensatz zu den plappernden Stimmen der Klimakrisenpresse gibt es eine Reihe von Meinungsbeiträgen in der New York Times. Alle behaupten natürlich, dass der Klimawandel eine große Rolle bei der Katastrophe gespielt haben muss – solche Behauptungen sind obligatorisch, wenn man hofft, veröffentlicht zu werden. Doch jetzt, Monate nach der ersten Katastrophe, kommen immer mehr Bruchstücke dessen ans Licht, was dort wirklich los war:

a) David Wallace-Wells, ein Meinungsautor der Times, der sich auf das Klima konzentriert, räumt ein (ganz unten im Artikel): „Das Problem ist, dass der Klimawandel auch zu einer Ausrede wird“. Die Kolumnistin Arifa Noor fügt hinzu: „Die Regenfälle und ihre Intensität entziehen sich unserer Kontrolle; die Verwüstungen, die sie anrichten, aber nicht.“ Und „schlechte Regierungsführung hat die Überschwemmungen in Pakistan verschlimmert“, wobei sie einige langfristige Fehler aufzählt: versagende Wasserinfrastruktur, Abholzung, schlechte Entwässerungssysteme und gefährliche, unregulierte Bauvorhaben.

b) Fatima Bhutto stellt fest: „Die am schlimmsten betroffene Provinz Sindh im Süden leidet besonders. Sie scheint weder auf Katastrophen vorbereitet zu sein noch über Pläne zu verfügen, um die Wasserinfrastruktur oder das kaum funktionierende Abwassersystem zu stärken.“

c) Ibrahim Buriro, ein Organisator der Awami Workers Party und Masterstudent in Entwicklungsstudien, weist auf die Manie der pakistanischen Regierung hin, Dämme zu bauen und zu versuchen, die Flüsse zu kontrollieren, von denen die Nation abhängt. „Die feudalen Eliten und die schlechte Planung der Regierung haben sich in den natürlichen Lauf unserer Wasserwege eingemischt. Sie haben der Katastrophe den Weg geebnet – und sie kam.“

Um die Wasserprobleme Pakistans zu verstehen, muss man nur einen Blick auf die Landkarte werfen:

Die Region Sindh ist rot eingekreist. Der südlichste und östlichste Teil ist auf anderen Karten als „saisonal überschwemmt“ gekennzeichnet. Außerhalb des großen Indus-Tals ist das Land trocken. Auf der Karte sind Dämme und Hindernisse als rote Formen dargestellt. Wenn der Monsunregen im Norden, zu dem auch die Hänge des tibetischen Plateaus gehören einsetzt, fließt fast das gesamte Wasser aus dem trockenen, verdichteten Land in den Sindh hinunter. Ausführlichere Informationen findet man in einem YouTube-Video über den Indus.

Unter dem Strich: Das arme Pakistan war und ist den Monsunregenfällen ausgeliefert, die Wohlstand und Überschwemmungen bringen, wenn sie kommen, und Dürre, wenn der Monsun ausbleibt. Das rasante Bevölkerungswachstum hat dazu geführt, dass immer mehr Arme in der Landwirtschaft tätig sind und in gefährlicher Lage bauen. Die Politik und die Maßnahmen der Regierung haben dieses allgegenwärtige Risiko wahrscheinlich noch verschlimmert. Das fast völlige Fehlen von Notfallplanung und -vorbereitung verschärft die Probleme dort weiter. Der Klimawandel wird, wie überall, als Vorwand für lokal verursachte Probleme benutzt. Pakistan wird auf der nächsten UN-Klimakonferenz verstärkt um internationale Hilfe betteln.

——————————————

Kommentar des Autors Kip Hansen:

Ich warte darauf, dass die Staats- und Regierungschefs der Welt zur Vernunft kommen und erkennen, dass ihre ständigen Bemühungen, fossile Brennstoffe „wegen des Klimawandels“ zu unterdrücken, zerstörerisch und schädlich sind.

Experten raten Ländern wie Pakistan, Dämme zu bauen und zu versuchen, Flüsse auf eine Weise zu kontrollieren, die andernorts zu Katastrophen geführt hat, und dann den Klimawandel für die Katastrophen verantwortlich zu machen, die sie verursacht haben. Die Welt wird mehr internationale Hilfe für Pakistan bereitstellen, die auf ähnliche Weise missbraucht wird. Das ist die Welt, in der wir leben.

Zum Glück für die heutigen Staats- und Regierungschefs der Welt können sie den Klimawandel für ihre absichtlich zerstörerische Politik verantwortlich machen. Hoffentlich wachen ihre Bürger irgendwann auf und erkennen die Wahrheit – vielleicht in diesem Winter in Europa, wenn sie in ihren ungeheizten Häusern frösteln.

Link: https://wattsupwiththat.com/2022/10/12/climate-crisis-false-news-roundup/

Übersetzt von Christian Freuer für das EIKE

 




Globale Streudiagramme

Willis Eschenbach

Seit einiger Zeit verwende ich eine seltsame Art von Streudiagramm. Hier ist ein Beispiel. Es zeigt die Beziehung zwischen der Oberflächentemperatur und den Auswirkungen der Wolken auf die Oberflächenstrahlung. Wolken können die Oberfläche entweder erwärmen oder abkühlen, je nach Ort, Zeit und Art. Dieses Phänomen wird als „Wolkenstrahlungseffekt“ (Cloud Radiative Effect, CRE) bezeichnet.

Das Ausmaß der Erwärmung oder Abkühlung durch Wolkenstrahlung (CRE) wird in Watt pro Quadratmeter (W/m²) gemessen. Ein positiver Wert bedeutet, dass die Wolken die Oberfläche erwärmen, ein negativer, dass die Wolken die Oberfläche abkühlen. Im flächengewichteten Durchschnitt kühlen die Wolken die Oberfläche um etwa 21 W/m² ab.

Abbildung 1. Streudiagramm, Oberflächentemperatur (horizontale X-Achse) gegenüber dem Netto-Strahlungseffekt der Wolken (vertikale Y-Achse). Das gibt dem Wort „nichtlinear“ eine neue Bedeutung.

Jeder blaue Punkt in Abbildung 1 steht für eine Gitterzelle von 1° Breitengrad und 1° Längengrad irgendwo auf der Erdoberfläche. Jeder Punkt ist horizontal in Bezug auf seine 21-Jahres-Durchschnittstemperatur und vertikal in Bezug auf seine 21-Jahres-Wolkenstrahlungswirkung angeordnet. Die gelb/schwarze Linie ist eine LOWESS-Glättung, die den Gesamttrend der Daten zeigt.

Von besonderem Interesse ist die Steigung der gelb-schwarzen Linie, die angibt, wie stark sich die Strahlungswirkung der Wolken pro 1°C Temperaturänderung ändert.

Aus Abbildung 1 ist ersichtlich, dass Wolken im Allgemeinen die kältesten Gebiete des Planeten erwärmen. Gitterzellen in den ~ 10 % der Erde, in denen die mittlere Jahrestemperatur unter -5 °C liegt, werden durch Wolken erwärmt.

In wärmeren Gebieten hingegen kühlen die Wolken die Oberfläche ab. Und wenn die Temperatur über 25-26 °C steigt, nimmt die Abkühlung durch Wolken mit steigender Temperatur stark zu. In diesen Gebieten nimmt die Wolkenabkühlung mit jedem zusätzlichen Grad Temperatur um bis zu 15 W/m2 zu. Das liegt daran, dass Anzahl, Größe und Stärke der thermisch bedingten Gewitter in den feuchtwarmen Tropen oberhalb von 26 °C rasch zunehmen.

Hier ist ein Video, das zeigt, wie die Gewitter dem warmen Wasser das ganze Jahr über folgen:

Abbildung 2. Die Gewitterintensität wird durch Farben dargestellt (die Höhe der Wolkenobergrenze ist ein Maß für die Stärke des Gewitters). Die grauen Konturlinien zeigen Temperaturen von 27, 28 und 29°C.

Daraus ist ersichtlich, dass sich Gewitter bevorzugt über den Hot Spots bilden und den Temperaturanstieg in diesen Gebieten wirksam begrenzen. Dies ist der Grund dafür, dass nur 1 % der Erdoberfläche und praktisch kein offener Ozean eine Jahresdurchschnittstemperatur von mehr als 30 °C aufweist.

Da nur wenige Klimatologen ein Streudiagramm auf der Grundlage von Gitterzellen verwenden, möchte ich nun auf diese Art von Streudiagramm eingehen. Sie hat eine sehr wertvolle Eigenschaft.
Der Wert besteht darin, dass die Methode längerfristige Durchschnittswerte betrachtet. In Abbildung 1 zum Beispiel sind dies die Durchschnittstemperaturen, auf die sich jede der Gitterzellen nach Jahrtausenden eingestellt hat. Infolgedessen enthalten die Temperaturen der einzelnen Gitterzellen alle möglichen Rückkopplungen und den Großteil der langsamen Reaktionen auf sich ändernde Bedingungen.

Dies ermöglicht es uns, Fragen zu beantworten wie: „Wie werden die Wolken reagieren, wenn die Temperaturen langsam steigen“? Die Alarmisten wollen uns glauben machen, dass die Erwärmung durch die Rückkopplung der Wolken verstärkt wird.

Aber Abbildung 1 erzählt eine viel komplexere und nuanciertere Geschichte. Die Steigung der gelb/schwarzen Linie zeigt die Veränderung der CRE als Reaktion auf eine Temperaturänderung von 1°. Wenn sie nach rechts abfällt, zeigt dies, dass das Ausmaß der wolkenbedingten Abkühlung mit steigender Temperatur zunimmt – die CRE wird negativer, und die Wolken bewirken mehr Abkühlung.

Es gibt nur zwei Stellen, an denen die Wolken die zugrunde liegende Erwärmung verstärken. Dies sind die Bereiche in Abbildung 1, in denen die gelb-schwarze Linie nach rechts oben abfällt. Es handelt sich um die 3 % der Oberfläche, die kälter als -20 °C sind, und die ~30 % der Erde zwischen 15 °C und 25 °C. Diese machen etwa ein Drittel des Planeten aus.

Bei allen anderen Temperatur-Bereichen kühlen die Wolken mit zunehmender Erwärmung immer mehr, insbesondere in dem Drittel der Erde, das im Durchschnitt über 25 °C liegt.

Schlussfolgerung? Nur ein Drittel des Globus‘ hat eine wärmende Wolkenrückkopplung, und diese ist nicht sehr stark. Zwei Drittel der Erde haben eine kühlende Wolkenrückkopplung, und darüber hinaus ist die kühlende Rückkopplung viel stärker als die wärmende Rückkopplung.

Wir können also sagen, dass die Wolkenrückkopplung im Durchschnitt negativ und nicht positiv ist. Ein flächengewichteter Durchschnitt der obigen Daten zeigt, dass die Wolkenabkühlung weltweit im Durchschnitt -3,2 W/m² Abkühlung für jedes Grad C Erwärmung beträgt. (In Wirklichkeit wird die Gesamtreaktion der Wolken geringer ausfallen, da sich die wärmsten Gebiete der Erde, in denen die Wolkenrückkopplung am stärksten ist, im Allgemeinen nicht sehr stark erwärmen werden).

Ich habe oben erklärt, dass dieses Verfahren uns die langfristige Antwort liefert, nachdem fast alle verschiedenen Rückkopplungen, langsamen Erwärmungen und Anpassungen stattgefunden haben. Ich habe erklärt, dass dies nicht die kurzfristige Reaktion der Wolken auf die Oberflächentemperatur ist. Es handelt sich um die langfristige, im Wesentlichen stationäre Reaktion.

Damit kann die Frage nach der langfristigen Reaktion der Wolken auf 1°C Erwärmung tatsächlich beantwortet werden. Und sie kann die Frage im Detail beantworten, indem sie zeigt, wie die Rückkopplung der Wolken von den Polen zu den Tropen variiert.

Das einzige Argument, das ich dagegen sehen kann ist, dass eine langsame thermische Anpassung durch die jüngste Erwärmung noch nicht eingetreten ist. Möglich, aber hier ist der Grund, warum das wahrscheinlich kaum einen Unterschied machen wird – eine steigende Flut hebt im Allgemeinen alle Boote.

Mit anderen Worten: Wenn wir mehrere nahe gelegene Gitterzellen haben und eine davon eine langsame thermische Restanpassung durch die jüngste Erwärmung erfährt, werden aller Wahrscheinlichkeit nach auch die anderen nahe gelegenen Zellen eine ähnlich langsame thermische Restanpassung erfahren.

Dadurch bleibt die interessierende Steigung, die Steigung der gelben Linie in Abbildung 1, so gut wie unverändert.

Zumindest besagt das meine Logik. Aber ich habe schon immer Daten der Logik vorgezogen. Nach einigem Nachdenken wurde mir klar, dass ich dies testen konnte, indem ich anstelle des vollen 21-Jahres-Durchschnitts kürzere Durchschnittswerte der CERES-Daten nahm. Ich habe 5-Jahres-Durchschnittswerte der gleichen CERES-Daten verwendet. Zum Vergleich habe ich sie im gleichen Maßstab wie in Abbildung 1 aufgetragen:

Abbildung 3. LOWESS-Glättungen der Streudiagramme von vier ausgewählten Teilmengen der CERES-Daten. Die zugrundeliegenden Streudiagrammdaten sind nicht dargestellt.

Wie man sieht, liegen die glatten LOWESS-Trendlinien aller vier Rasterzellen-Scatterplots so dicht beieinander, dass sie sich gegenseitig überdecken. Dies zeigt eindeutig, dass ein Rasterzellen-Scatterplot tatsächlich die langfristige, allumfassende Beziehung zwischen den beiden interessierenden Variablen anzeigt. Sie wird durch die Veränderungen bei CRE und Temperatur zwischen den 5-Jahres-Zeiträumen kaum beeinflusst.

Link: https://wattsupwiththat.com/2022/10/14/global-scatterplots/

Übersetzt von Christian Freuer für das EIKE

 




Die wahre „existentielle Bedrohung“ für Menschen und den Planeten

Das ist die Politik des Vorantreibens „grüner“ Energie und die Unterdrückung fossiler Treibstoffe!

Don Ritter

Es ist eine Ironie. Genau die Maßnahmen der Biden-Regierung und der europäischen Regierung, die die angebliche „existenzielle Bedrohung“ durch den Klimawandel bekämpfen sollen, sind selbst die wahre existenzielle Bedrohung für die moderne Zivilisation.

Als jemand, der in Wissenschaft und Technik ausgebildet wurde, der sein Leben lang wandert, gärtnert und die Natur in höchstem Maße liebt, wünsche ich mir einen gesunden, nachhaltigen Planeten genauso sehr wie jeder, der die Klimawandel-Agenda unterstützt. Es geht nicht darum, dass „grüne“ Energie schlecht ist. Es geht darum, dass die Geschwindigkeit, mit der „grüne“ Energie erzeugt wird, und die enormen Investitionen, die dafür erforderlich sind, in keinem Verhältnis zum Energiebedarf der Gesellschaft stehen – weder jetzt noch in absehbarer Zukunft.

Elon Musk hat das verstanden, aber die meisten Regierungsvertreter nicht – oder sie schweigen lieber. „Realistisch betrachtet wird die Zivilisation zusammenbrechen, wenn wir nicht kurzfristig weiterhin Öl und Gas nutzen“, sagte Musk.

Der Zerfall der Zivilisation ist eindeutig eine „existenzielle Bedrohung“. Und dieser Mann verkauft Elektroautos! Er empfahl auch, „weiterhin nach Öl und Gas zu bohren und zu fördern“, weil er weiß, dass für die Herstellung und den Betrieb von Elektroautos auf Jahre hinaus erhebliche Mengen an Strom aus fossilen Brennstoffen benötigt werden.

„Existenzielle“ Fragen wie Krieg, Frieden, wirtschaftliche Vitalität, Arbeitsplätze und Lebensstandard haben alle die gleiche entscheidende Antriebskraft: Energie – alle Formen von Energie. Energie für den Transport von Menschen und Gütern, für den Betrieb von landwirtschaftlichen Betrieben und die Versorgung mit Nahrungsmitteln, für das Heizen und Kühlen von Häusern, für den Antrieb von Produktionsanlagen und für den Treibstoff von Schiffen, Flugzeugen und Fahrzeugen für unser Militär. Erdgas ist unverzichtbar für Düngemittel, um eine hungrige Welt zu ernähren. Erdöl und Erdgas sind die Bausteine für Kunststoffe, Arzneimittel, Kunstfasern, Farben und Tausende anderer Produkte.

Heute kommen diese lebenswichtigen, fast schon selbstverständlichen Vorteile fast ausschließlich aus Öl, Gas und Kohle. Wer sie hat, wird mächtig sein, wer sie nicht hat, wird nicht mächtig sein. China und Russland wissen das ganz genau.

Europa hat sich auf einen Pakt mit dem Teufel eingelassen, indem es seine Energieversorgung an Wladimir Putin und das energiereiche Russland auslieferte – und gleichzeitig seine eigene Energiezukunft mit einer Politik gegen fossile Brennstoffe und den Klimawandel vereitelte. Europa hat seine Kohle-, Gas- und Atomkraftwerke geschlossen und gleichzeitig teure, unzuverlässige und wetterabhängige Solar- und Windkraftanlagen gebaut. Putins Krieg gegen die Ukraine wäre ohne seine Vorherrschaft über die Gas-, Öl- und Kohlelieferungen nach Europa nicht möglich gewesen.

Und wo steht die Regierung der Vereinigten Staaten in Sachen Energie? Sie kopiert Europa, mit riesigen Subventionen für grüne Energie und einem unerbittlichen regulatorischen Krieg gegen fossile Brennstoffe, der die gesamte Regierung betrifft.

Amerika sollte einer Energie-unsicheren Welt sagen: „Wir werden alles in unserer Macht Stehende tun, um die Energieversorgung zu verbessern“, und zwar mit einem „Alles-aus-einer-Hand“-Ansatz: nicht nur fossile Brennstoffe und erneuerbare Energien, sondern auch Kernkraft und Wasserkraft, wo immer dies möglich ist. Stattdessen betteln wir feindselige Diktaturen an – die sich weder um Menschenrechte noch um ökologische Werte scheren – ihre Produktion zu erhöhen, weil wir uns weigern, unsere zu erhöhen.

Ist das nicht ein bisschen peinlich? Wir könnten die „Tankstelle der Demokratie“ für die freie Welt sein. Aber die Klimapolitik unserer Regierung steht dem im Weg.

Die einfache Arithmetik spricht Bände. Fossile Brennstoffe decken immer noch etwa 80 % des Energieverbrauchs der Welt und Amerikas ab. Der Rest stammt aus Wasserkraft, Kernkraft, Sonnenenergie, Windkraft und Biomasse. In den USA machen Solar- und Windenergie weniger als 5 % unseres Gesamtenergieverbrauchs aus – und weniger als 2 % für den Verkehr, um 290 Millionen Autos, Lastwagen und Busse zu betreiben. Bei Flugzeugen liegt der Anteil bei Null.

Kohle macht etwa 33 % des Gesamtenergieverbrauchs in den USA und 37 % weltweit aus. Dennoch wird sie durch die Klimapolitik vorzeitig aus der globalen Energieversorgung genommen. Das ist verheerend, vor allem für arme Länder.

Die Entwicklungsländer brauchen eine Ausweitung des Kohlebergbaus, um Strom zu erzeugen, Arbeitsplätze zu schaffen und Milliarden von Menschen aus der Armut zu befreien. Doch die Klima-besessenen Bürokratien der internationalen Finanzinstitutionen und staatlichen Hilfsorganisationen wie der Weltbank, der Asiatischen Entwicklungsbank und USAID verweigern ihnen den Zugang zu Kapital. Das ist heuchlerisch, vor allem, weil der Westen sich vor allem mit Kohle industrialisiert hat.

Klimaaktivisten auf allen Regierungsebenen und in der einkommensorientierten Privatwirtschaft haben eine neue Energiewirtschaft geschaffen, die auf umfangreichen Subventionen für Solar- und Windenergie basiert, um Kohle, Öl und Gas zu ersetzen. Für Europa und Amerika droht eine Katastrophe, weil sie es zu früh tun – bevor die Ersatzstoffe auch nur annähernd einsatzbereit sind.

Der „Inflation Reduction Act“ der Biden-Regierung enthält rund 370 Milliarden Dollar an neuen Subventionen für grüne Energie und lenkt damit absichtlich massive private Investitionen in Solar- und Windenergie und weg von fossilen Brennstoffen, die nach wie vor unverzichtbar sind – praktisch, wirtschaftlich und geopolitisch.

Bevor die Regierungen solche enormen Subventionen bereitstellen, müssen sie alle Umweltauswirkungen der Herstellung und Installation massiver Windturbinen-, Solarpanel- und Backup-Batterieanlagen analysieren. In den USA und weltweit würden diese Technologien den Abbau und die Verarbeitung von Metallen und Werkstoffen – fast ausschließlich fossile Brennstoffe – in einem Ausmaß erfordern, wie es in der Geschichte der Menschheit noch nie vorgekommen ist, und zwar in einem Ausmaß, das auf Jahrzehnte hinaus unmöglich zu erreichen ist.

Wind-, Solar- und Batterieanlagen beeinträchtigen und zerstören außerdem riesige Landflächen: Lebensräume für Wildtiere, Anbauflächen und landschaftlich reizvolle Gebiete. Sie töten Vögel, Fledermäuse und andere Wildtiere. Ohne teure, feueranfällige Batteriepufferung erfordern sie ineffiziente Kohlenwasserstoff-„Peaker“-Anlagen, die immer wieder ein- und ausgeschaltet werden, wenn der Wind nicht weht und die Sonne nicht scheint.

Die Verteufelung von Energiequellen birgt die Gefahr von Stromausfällen, Fabrikschließungen und frierenden Menschen im Dunkeln während langer Winter. Angeblich „saubere, grüne, erneuerbare“ Energie ist einfach noch nicht in der Lage, den wachsenden Strombedarf Amerikas und der Welt zu decken.

Die Substitution von Kohle durch Erdgas bei der Stromerzeugung ist der Grund dafür, dass Amerika bei der Reduzierung der Treibhausgasemissionen in der freien Welt führend ist. Erdgas sollte nicht als Ausgestoßener, sondern als „Brückenkraftstoff“ für eine Zukunft ohne fossile Brennstoffe betrachtet werden.

Die Biden-Regierung stellt langfristige, unsichere, möglicherweise fehlerhafte und wahrscheinlich übertriebene Klimavorhersagen über das Leben und die Unabhängigkeit der Ukraine, die Sicherheit unserer europäischen Verbündeten – und sogar die Sicherheit und das Wohlergehen Amerikas selbst. Indien, Brasilien, Indonesien und viele andere Länder des „globalen Südens“ brauchen Öl, Gas und Kohle, um zu existieren und sich zu modernisieren. Aber die Biden-Regierung wird ihnen nicht versichern, dass Amerika die Lücke schließen wird, wenn sie versuchen, sich von russischen fossilen Brennstoffen zu lösen. Ist es da ein Wunder, dass sie sich gegenüber Putins brutaler Invasion neutral verhalten haben?

Leider ist die Debatte über den Ausbau der amerikanischen Energieversorgung als Ersatz für die russische – und zur Gewährleistung unserer eigenen Energiesicherheit – in der Regierung, vielen Denkfabriken und den Medien so gut wie nicht vorhanden. Vielmehr arbeiten sie alle zusammen, um die Debatte zu zensieren und zum Schweigen zu bringen.

Das ist nicht nur seltsam, weil die steigenden Energiekosten der Hauptfaktor sind, der die Inflation antreibt und eine Rezession bedroht, nicht nur in Amerika, sondern weltweit. Es ist sogar mehr als merkwürdig.

Die staatliche Unterdrückung der Produktion fossiler Brennstoffe bedroht die nationale Sicherheit und die Wirtschaft zahlloser Länder. Die Forderung nach einem überstürzten „Umstieg“ stellt die größte „existenzielle Bedrohung“ überhaupt dar – für das Überleben der modernen Industrienationen, für die Entwicklungsländer und für das Überleben unseres Planeten, wie wir ihn kennen.

Don Ritter received his Doctorate in Metals and Materials from MIT. He served 14 years on the House Energy and Commerce and Science and Technology Committees; was Ranking Member on the Congressional Helsinki Commission, and was founding Co-Chair of the Baltic States-Ukraine Caucus. Ritter led the National Environmental Policy Institute after leaving Congress. He is a Trustee of the Victims of Communism Memorial Foundation, and Trustee and President & CEO Emeritus of the Afghan American Chamber of Commerce.

Link: https://wattsupwiththat.com/2022/10/16/the-real-existential-threat-to-people-and-planet/

Übersetzt von Christian Freuer für das EIKE

 




Vom (Nicht)Sterben der Alpengletscher und dem realen Sterben deutscher Intelligenz….

Raimund Leistenschneider

Doch zuerst möchte der Autor mit einer weit verbreiteten Fehlmeinung aufräumen:

Vielfach wird angenommen, dass die heutigen Gletscher der Alpen oder Skandinaviens Überbleibsel der letzten Eiszeit sind. Dies ist aber falsch. Europa war im Holozänoptimum (Abb.3) vor ca. 7.000 Jahren völlig eisfrei. Die meisten europäischen Gletscher sind erst danach entstanden und somit ziemlich jung und höchstens 6.000 Jahre alt. Ihr Umfang schwankte in den letzten Jahrtausenden zudem stark. Auch die skandinavischen Gletscher entstanden erst ab ca. 50 v. Chr. Anmerkung: Der 2. Punische Krieg war bekanntlich 218 v.Chr.

Dass die Alpen in früheren Jahren weitgehend eisfrei waren, belegen Holzfunde in heutigen Gletscherregionen der Alpen von Prof. Dr. Christian Schlüchter, Professor für Quartär- und Umweltgeologie an der Universität Bern und Lehrbeauftragter der ETH Zürich.

Er fand in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moors. Baumreste wurden einem Arvenstamm (alpenländischer Nadelbaum) zugeordnet und auf 4.920 ± 60 Jahre vor heute datiert. Die Moorreste datieren auf 2.100 ± 50 Jahre vor heute. Die Fundstücke sind außergewöhnlich, da Bäume und insbesondere ein Moor nur an Stellen vorkommen, an denen kein dauerhaftes Eis vorhanden ist und die Baumgrenze damit deutlich höher lag als heute. Aus den vorgenommenen Datierungen ergab sich, dass in den letzten 10.000 Jahren etwas mehr als 50% der Zeitspanne die Gletscher deutlich kürzer als waren als heute.

Prof. Schlüchter: „Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.“ Dies erklärt auch, warum in den sonst sehr detaillierten Beschreibungen der römischen Chronisten kaum ein Wort über die Gletscher zu finden ist. Als Hannibal 218 v.Chr. mit seinen Kriegselefanten (im Winter!!) die Alpen überquerte und ins römische Kernland einfiel, waren die Alpenpässe weitgehend eisfrei. Dies war die Zeit des römischen Klimaoptimums. Abb.2 links zeigt, wie es nach Rekonstruktionen seinerzeit dort ausgesehen hat.

Abb.2 links zeigt den Sustenpass (Passhöhe 2.224 ü. d. M.), wie er nach den Untersuchungen von Schlüchter zur Römerzeit vor etwa 2.000 Jahren ausgesehen hat. Der Steigletscher hat sich auf die Höhe der Tierberglihütte (2.795 m) zurückgezogen, die Baumgrenze lag deutlich höher als heute. Quelle: „Die Alpen“/ Zeichnung Atelier Thomas Richner nach Vorlage Christoph Schlüchter. Kopiert aus ETH-Zürich, “Grüne Alpen statt ewiges Eis“, 14.02.2005. (Quelle). Die rechte Abbildung zeigt den Gletscher um 1993 und seine Ausdehnung 1856 (nach der “Kleinen Eiszeit“) und 1922.

Abb.3, ergänzt nach Quelle Prof. Schönwiese. Deutlich zu erkennen, dass die Warmzeitmaxima eine insgesamt abfallende Tendenz aufweisen. Weiter, die Entstehung der Alpengletscher vor ca. 6.000 Jahren, sowie der Untergang von Doggerland in der Nordsee durch rasanten Meeresspiegelanstieg zu Beginn des Holozän-Klimaoptimums. Klimaschwankungen sind also nichts Außergewöhnliches und nicht vom Menschen gemacht oder in die Wege geleitet. Selbst sog. Klimaaktivisten werden nicht wagen zu behaupten, die (dieselgetriebenen) Pferdewagen der Römer wären für das Römische Klimaoptimum verantwortlich oder der starke Methanausstoß römischer Pferde.

Abb.4 geht noch weiter in die Erdgeschichte zurück und zeigt die aus Proxys gewonnene Rekonstruktion der Erdtemperaturen bis vor 500 Mio. Jahren. Zur besseren Übersicht haben die Verfasser die Zeitachse in Sektoren aufgeteilt.

Abb.4, Quelle. Dazu hat der Autor die roten Pfeile und deren Text eingefügt. Selbst bei Eintreffen der IPCC-Prognose, was nicht der Fall ist und sein wird (Abb.5) liegen die „befürchteten“, zukünftigen Temperaturen gerade mal auf dem Niveau der letzten Zwischeneiszeit vor 150.000 Jahren. Geschweige denn auf dem Temperaturniveau, dass über Jahrmillionen auf der Erde herrschte. Wir leben gegenwärtig in einer vergleichsweise kühlen Erdepoche!

Abb.5, Quelle, zeigt in rot, das Mittel der Temperaturentwicklung aus den Klimaprojektionen der IPCC-Klimamodelle und in blau und grün die reale, gemessene globale Temperaturentwicklung. Allein das reicht schon aus, den Unsinn der IPCC-Aussagen zu entlarven. Doch zurück zu den Gletschern und speziell, zu den Alpengletschern.

Die Gletscher (Kryosphäre = Oberflächenbereich der Erde, welcher von Eis bedeckt ist) bedecken eine Landfläche von 15.700.000 km² (Uni Karlsruhe). Anhand von einigen Dutzend Gletschern wurde darauf geschlossen, dass die übrigen 160.000 Gletscher auf der Erde ebenfalls schmelzen, von diesen 160.000 Gletschern sind gerade einmal knapp 70.000 vermessen. Für ca. 300 wurde eine 1-jährige Massenbilanz erstellt. Im Zeitraum bis zur Jahrtausendwende wurden nur 87 Gletscher länger als 10 Jahre untersucht (“Glaciers and the Canging Earth“, Mark B. Dyurgerov und Mark F. Meier, University of Colorado, 2005). Das ergibt sage und schreibe 0,054%!! die als Grundlage für die Aussage des weltweiten Gletscherrückganges stehen. Sowohl zu dem angeblichen „Konsens“, der immer wieder von den Klimaaktivisten als angeblicher Beweis herangeführt wird.

Gletschervorstoß oder Rückzug hängen weiter von lokalen Faktoren ab, wie Topographie, Temperatur, Niederschlagsmenge, Oberflächenstruktur (z.B. Bedeckung mit Saharastaub), ob das Fließbett gefroren ist…, so dass nicht ohne Weiteres aus einem Rückzug eines Gletschers auf eine regionale Erwärmung geschlossen werden kann.

Abb.6, Quelle: Geographisches Institut der Universität Zürich, Dr. Michael Zemp, 2006. Die Abbildung zeigt den prozentualen alpinen Gletscherrückgang für die Jahre 1970 und 2000, bezogen auf das Jahr 1850. Warum ausgerechnet das Jahr 1850 als Bezugspunkt genommen wurde, zeigt Abb.7.

Abb.7 zeigt den Temperaturverlauf der letzten 1.100 Jahre, ergänzt (Jahreszahlen) nach Quelle: Lord Christopher Monckton vom 05.11.2006. Sie zeigt deutlich, dass 1850 in einer Kaltphase und dazu noch kurz nach der “Kleinen Eiszeit“ (der kältesten Epoche der letzten 2.000 Jahre) lag. Auch der Vergleich von 2000 mit 1970 ist nicht statthaft, da 1970 ebenfalls (wenn auch nicht so ausgeprägt und diesmal zugunsten der Gletscherbedeckung) in einer Kaltperiode lag. Wir erinnern uns, Anfangs der 1970-Jahre war die Politik und Öffentlichkeit mit einer anstehenden drohenden Eiszeit beschäftigt. Wie war das doch nochmals mit der Statistik, die man nur dann glaubt, wenn man sie selbst gefälscht hat.

„Schweizer Gletscher schmelzen wie noch nie!“, so die Tagesschau am 28.09.2022. und dazu ein „bombastisches“ Bild (Abb.8).

Abb.8, Quelle. „Wissenschaftler“ verdeutlichen am schweizer (Parade)Gletscher*1), dem Großen Aletsch, wie stark die Eisdecke in diesem recht warmen Sommer geschmolzen ist und halten dazu einen 6m großen Stab neben den klein wirkenden Personen.

Da darf natürlich der Klimaaktivist (eigentlich als ZDF-„Wetterfrosch“ eingestellt) Herr Terli nicht fehlen (Abb.9).

Abb.9, Quelle: ZDF-Mediathek, zeigt Herrn Terli mit einem Bild am Großen Aletsch. Auch hier soll der 6m lange Stab verdeutlichen, wie viel Gletschereis geschmolzen ist. Dazu Herr Terli: „… Dieser Sommer war europaweit extrem… und diese 6m an Eis sind am Aletsch-Gletscher, am Konkordiaplatz weggeschmolzen. es ist quasi ein leises Sterben der Gletscher.“ Was dies alles mit dem Wetterbericht (kleines Bild oben links) für die kommenden Tage zu tun hat, mit dem die Sendung, für die Herr Terli Sendezeit erhält, angekündigt wird, bleibt rätselhaft. Statt Wetterbericht, wird die Sendezeit von ihm dazu missbraucht, um tendenziöse Klimapolemik zu verbreiten. Dazu gleich mehr.

*1) Alpine Gletscher werden in vier Kategorien eingeteilt:

A: >10 km

B: 5 bis <10 km

C: 1 bis  5 km

D: < 1km

Die Gletscher der Kategorie D sind relativ stationär. Zwar gibt es Jahre, in denen sie Verluste erleiden, sie stoßen aber immer wieder vor und behalten ihre Größe bei. Würden die IPCC-Vorhersagen zutreffen, müsste sie zuerst verschwinden. Es ist deshalb auch unsinnig, von einem alpinen Gletschersterben zu sprechen. Dieses findet nicht statt.

Gletscher der Kategorie A, wie z.B. der sehr gut untersuchte Großer Aletsch in der Schweiz, folgen auf Grund Ihrer Größen- also Massenträgheit, zeitverzögert Warm- bzw. Kaltphasen („glätten“ sozusagen Dekaden-Warm-, bzw. Kaltphasen) und zeigen somit seit Beginn der wärmeren Periode, ab dem Ende der Kleinen Eiszeit um 1850, eine schrumpfende Tendenz, während die massenärmeren Gletscher Temperaturentwicklungen schneller folgen. Aber auch bei Gletschern der Kategorie A ist der Gletscherschwund im 20. Jahrhundert nichts Außergewöhnliches, wie die Untersuchungen von Wilfried Haeberli und Hanspeter Holzhauser (Uni Zürich) zeigen (Abb.10).

Abb.10 zeigt die Gletscherentwicklung Großer Aletsch für die letzten 2.000 Jahre. Erklärung: Rote Balken stehen für Rückzug und blaue für Vorstoß. Unten = Rückzug, Oben = Vorstoß. Die rechte Skala zeigt die Gletscherbewegung in Metern und die linke die zugehörigen Jahreszahlen des aktuellen Gletscherrückgangs. Geglättet wurde über 50 Jahre. Deutlich ist zu erkennen, dass es Zyklen gibt, in denen der Gletscher wächst und schrumpft. So gab es in den letzten 2.000 Jahren drei in etwa gleich starke Minima: Heute, im 8. und im 1. Jahrhundert (dieses Gletscherschmelzen gar noch stärker als heute). Der heutige Rückzug begann um 1850, dem Ende der „Kleinen Eiszeit“.

Deutlich sind in Abb.10 Zyklen zu erkennen (rote Linien, ergänzt vom Autor). Diese haben eine mittlere Zykluszeit von ca. 220 Jahren. Dies entspricht ziemlich genau dem Hauptsonnenzyklus, dem im Mittel 207-jährigen De Vries/Suess-Zyklus, der in 2003, als Europa seinen Jahrhundertsommer erlebte und in unseren Breiten vermehrt Polarlichter zu sehen waren, sein Maximum hatte.

Nicht nur die Gletscherentwicklung der Alpen, sondern auch die arktische Eisbedeckung wird durch den Hauptsonnenzyklus, den de Vries/Suess-Zyklus moderiert, wie die Abb.11 zeigt.

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt Abb.11, Quelle: Dr. Nils Axel Mörner, „Keine Gefahr eines globalen Meeresspiegelanstiegs“. Zu sehen ist die arktische Eisentwicklung, in Verbindung mit den vorherrschenden Meeresströmungen, in Relation zum Hauptsonnenzyklus (de Vries/Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries/Suess-Zyklus. Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Anmerkung: Auch hier sind die IPCC-nahen Modell nach ACIA von der Realität weit entfernt. Die arktische Eisbedeckung nimmt aktuell nicht ab, sondern zu!

Abb.12, Unterlage mit Text von Herrn Klaus Puls, nach Daten NSIDC (US- National Snow and Ice Data Center) zeigt, dass die arktische Eisbedeckung langfristig (seit 1990) wieder zunimmt. Übrigens geht wegen der Abnahme der solaren Aktivität auch die NASA für die nächsten Jahrzehnte von einem deutlichen globalen Temperaturrückgang um bis zu 2°C aus. Und ohne den Unsinn von Paris und den horrenden Summen für die deutschen Bürger, die dieses Unsinnsabkommen von Paris verursacht.

Abb.13, Quelle: Ab 2050 fällt der Eddy-Zyklus (1.000-jähriger Sonnenzyklus, der dem De Vries/Suess-Zyklus „übergeordnet“ ist) der Sonne. Spätestens ab diesem Zeitpunkt geht die NASA von einem deutlichen Temperaturrückgang aus, der so stark wie in der „Kleinen Eiszeit“ (ca. 2°C kälter als heute) ausfallen kann. Zumindest aus Sicht der NASA (hier oder hier).

2°C kälter als heute (aus Sicht der NASA) und dass alles ohne diesen Schwachsinn – Entschuldigung, der am 12. Dezember 2015 in Paris abgeschlossen wurde und der eine vierköpfige Familie in Deutschland bis zu 150.000€ kostet!! Es kann nicht oft genug erwähnt werden, was in Paris am 12.Dezember 2015 für ein Unsinn beschlossen wurde!

Zum 1.000 jährigen Eddy-Zyklus, Abb.14 aus Luterbacher u.a.: European summer temperatures since Roman times. In: Environmental Research Letters. 2016, doi:10.1088/1748-9326/11/2/024001

Abb.14, vom Autor ergänzt nach o.g. Quelle. Aus der Arbeit ist in den letzten 2.000 Jahren kein einheitlicher Trend von Temperaturanomalien, bezogen auf den klimatologischen Referenzzeitraum von 1961 – 1990 zu erkennen. Daher hat der Autor eine Waagerechte zur Zeitachse eingefügt und dort festgesetzt, wo diese die drei stärksten Anomalien schneidet. Dies deckt sich exakt mit dem Eddy-Zyklus der Sonne.

Nach diesem kleinen Exkurs, wieder zurück zur alpinen Gletscherentwicklung und deren Sinnbild, dem Großen Aletsch.

Macht doch schon was her, so ein 6m-langer Stock, neben einem kleinen Menschen (Abb. 8 und 9). Damit kann der unwissende Betrachter schon beeindruckt werden und genau darum geht es: Nicht um wissenschaftliche Aufklärung, sondern um tendenziöse Meinungsmache. Daher folgender Vergleich.

Der Große Aletsch hat eine Länge von knapp über 20 km und eine max. Dicke von 800 m, und zwar genau dort am Konkordiaplatz, wo der 6m-Stab aufgestellt wurde. 6 m auf 20 km entspricht gerade mal 0,03%. Auf die Dicke bezogen, 0,75%. Donnerwetter, was für eine Eisschmelze, da wird es den Großen Aletsch bald nicht mehr geben….

Doch damit nicht genug. Auf der Zugspitze, dem höchsten Berg unseres Landes, fallen (Spalte „Durchschn. Schneefall“) in den Wintermonaten November bis März rund 8m Schnee! (Abb.15)

Abb.15, Quelle , zeigt die Schneefallstatistik der Zugspitze. Der durchschnittliche Schneefall über die Wintermonate November bis März beträgt 7,97m, fast 8m!

Und diese 8m („Mensch“, was gäbe das für einen langen Meterstock oder sollte der Autor lieber sagen: Lange Leitung) schmelzen jeden Winter, Frühling und Sommer wieder vollständig ab, ohne dass sich deswegen irgendjemand aufregen würde! Aber die „Wissenschaftler“ um Herrn Terli wünschen sich offenbar einen ständigen Winter und eine ständige Eiszeit. Müssen irgendwie bek….. sein. Aber nein, weit gefehlt, die sind nur raffiniert, um an das Geld anderer Leute zu gelangen. Denn Wissenschaftler verdienen ihr Geld nicht, wie der Karle vom Band oder die Jutta beim Aldi an der Kasse durch ihre täglich Arbeit, in der sie Waren/Dienstleistungen schaffen, sondern sind auf Fördergelder angewiesen, und um die zu bekommen, scheint offenbar jedes Mittel recht zu sein. Getreu dem Urteil des früheren Präsidenten der Max Planck Gesellschaft, Prof. Dr. Hubert Markl:

„Es ist nicht zu bestreiten, dass es auch in der Wissenschaft – häufiger als uns Wissenschaftlern lieb ist – Lug und Trug gibt, nicht nur fahrlässige Schlamperei, sondern wirklich absichtsvollen Betrug.“

In dieses Bild passt auch die Tatsache, warum so gern der Große Aletsch genommen wird, ein angeblich nie da gewesenes Gletscherschmelzen beweisen zu wollen (Abb.16).

Abb.16, Quelle. Julia Fritschle Gletscherrückgänge in den Alpen, nach FUNK-SALAMI 2004: 169, zeigt den Gletscherrückzug an drei großen Alpengletschern. nur der Große Aletsch zeigt kontinuierlich einen Rückgang, während der Rückgang der beiden anderen zyklisch und weitaus „undramatischer“ ist und sich deshalb nur der Große Aletsch für eine Massenmanipulation eines vermeintlichen Gletschersterbens eignet. Wie war das doch nochmal mit der Statistik, der man nur glaubt, wenn man sie selbst gefälscht hat? Dass sich der große Große Aletsch untypisch für alpine Gletscher verhält, zeigen die beiden folgenden Abbildungen.

Abb. 17, ergänzt nach ETH-Zürich “Alpen-Gletscherschmelze von Atlantikströmung beeinflusst?“, Geophysical Research Letters (2010), 37, L10501. zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002 (vgl. mit dem zyklischen Verhalten der beiden Gletscher aus Abb.16). Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO, die vom Brückner-Zyklus gesteuert wird und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

„Die Untersuchungen anhand von 30 Gletschern zeige, dass die Massenbilanz der Schweizer Gletscher mit der AMO korreliere“, so die Forscher. Und weiter “Es zeigte sich, dass die AMO die Perioden besonders markanter Gletscherrückgänge, wie etwa in den 1940ern und seit den 1980ern, so wie Stagnation oder Zuwachs in den 1910er und 1970er Jahren, erklären kann.“

Die ETH-Forscher ermittelten eine um 18 W/m² höhere solare Einstrahlung als in den vergangenen 10 Jahren bis heute, was, angesichts dem Strahlungsantrieb von 1,5 W/m², welcher das IPCC dem CO2 in seinen Klimamodellen zubilligt, enorm ist. Siehe auch hier und hier.

In ihrer Studie geben die Forscher der Sonneneinstrahlung den maßgeblichen Anteil am Gletscherrückgang. Dabei dienten ihnen die seit 1934 vorliegenden Messungen der Sonneneinstrahlung in Davos. Während die ETH-Wissenschaftler die verstärkte Sonneneinstrahlung auf die alpinen Gletscher, auf die geringere Aerosol-Konzentration der Atmosphäre zurückführen (Aerosole reflektieren direkt das Sonnenlicht, bzw. dienen über chemische Reaktionen als Kondensationskeime für Wassertropfen und beeinflussen somit maßgeblich die Wolkenbildung), sind direkte solare Aktivitätssteigerungen und damit verbundener geänderter Wetterlagen und höhere Temperaturen ebenso ausschlaggebend für die Periode der Gletscherrückgänge, was die vorherige Abbildung und die folgende zeigt.

Abb.18 zeigt die Gletscherentwicklung in der Schweiz im Zeitraum von 1880 bis 2008. Ebenfalls in Zusammenhang zur AMO. Auch hier ist, wie bei der österreichischen Gletscherentwicklung, ein deutlicher Zusammenhang zur AMO sichtbar. In Zeiten einer negativen, also kalten AMO, kommt es zu einem deutlichen Gletschervorstoß und in Zeiten einer positiven, also warmen AMO, zu einem deutlichen Gletscherrückgang. Auch hier ist in der Zeit der 1940-Jahre ein deutlicher Gletscherrückgang zu beobachten. Dies zeigt, dass die Gletscherfluktuation in den Schweizer Alpen, auf natürliche, wiederkehrende Ursachen zurückzuführen ist und nichts mit einem postulierten anthropogenen Klimawandel zu tun hat.

Abb.18, Quelle. Die schweizerischen Gletscherentwicklung im Zeitraum von 1890 – 2008 zeigt ebenfalls keinerlei Zusammenhang mit dem Anstieg eines atmosphärischen CO2-Pegels, dagegen aber einen nicht zu übersehenden Zusammenhang mit der AMO. Während der AMO-Warmphasen kommt es zu einem deutlichen Gletscherrückgang und während der AMO-Kaltphase zu einem entsprechenden Gletschervorstoß, wobei der heutige Gletscherschwund nichts Außergewöhnliches darstellt und ebenfalls zyklisch ist. Gegenwärtig befinden wir uns in einer AMO-Warmphase, die noch einige Jahre anhalten wird!

Wie auf Grund der geographischen Nähe nicht anders zu erwarten, fluktuiert die alpine schweizerische Gletscherentwicklung, wie die österreichische alpine Gletscherentwicklung, mit der natürlichen, zyklischen AMO.

Fazit:

1. Das Gerede von einer nie da gewesenen alpinen Gletscherschmelze oder gar von einem „leisen Sterben“ der Gletscher ist nichts anderes als Effekthascherei derer, die damit ihre (Forschungs)Gelder verdienen.

2. In der alpinen Gletscherschmelze hat es mehrere Schmelzereignisse gegeben, die genauso stark oder stärker (römisches Klimaoptimum) waren, wie das heutige.

3. Im Holozänoptimum vor 7.000 Jahren waren die Alpen komplett Gletscher-frei. Die alpinen Gletscher sind erst vor ca. 6.000 Jahren entstanden.

4. Die zyklischen Schwankungen der alpinen Gletscherbedeckung sind natürlichen Ursprungs und schwanken mit der solaren Aktivität, die sich u.a. im Brückner-Zyklus, der die AMO moderiert, wiederspiegeln.

5. Der Große Aletsch als Symbol eines stetigen alpinen Gletscherrückgangs heranzuziehen ist wissenschaftlicher Betrug oder verharmlosend als „cherry picking“ zu bezeichnen. Im Deutschen passt dazu: Statistischer Betrug.

Offensichtlich haben angesichts der realen Probleme, vor denen unser Land und unsere Gesellschaft steht, sehr viele noch nicht begriffen, was wir uns mit solchen Kassandrarufen wie „Klimakatastrophe“ (die es gar nicht gibt), „leises Sterben der Gletscher“ (was es auch nicht gibt), etc. einhandeln: Den Verlust der industriellen und damit wirtschaftlichen Basis unseres Landes, die in einem horrenden Verlust von Arbeitsplätzen und der Verarmung weiter Teile der Bevölkerung gipfelt.

Die Beschlüsse von Paris kosten eine vierköpfige Familie rund 150.000€ (hier) und da sind die aktuell sprunghaft gestiegenen Energiepreise noch gar nicht mit betrachtet. Und es gibt immer noch viel zu viele, die uns Deutschen weismachen wollen, unser Heil läge in sog. Erneuerbaren, die uns unabhängig von Gaslieferungen machen. Genau das Gegenteil ist der Fall:

Je mehr Windräder, umso stärker ist die Abhängigkeit von Gaslieferungen, denn der Wind weht oft genug gar nicht (Abb.19) und dann müssen sog. Reservekraftwerke her. Nun raten Sie mal, welche Kraftwerke das sind? Richtig: Gaskraftwerke. Will heißen, je mehr (nutzlose) Windenergie wir haben, umso mehr Reservekraftwerke benötigen wir! Die Pufferung der Kraftwerksleistung beträgt nämlich etwa 1 zu 1!! Das heißt nichts anderes, als das jedes Windkraftwerk im Prinzip nutzlos und damit überflüssig ist.

Abb.19, Quelle: Rolf Schuster, zeigt für den August 2022 die installierte Windleistung (roter Balken), die (mickrige) tatschliche Windleistung (Einspeisung, blau), die Solarleistung (gelb, die nachts immer Null ist = Sandmännchenenergie), den Verbrauch (karminrot, am Tage stets höher als nachts).

An fast der Hälfte des Monats ist die Einspeisung sog. Erneuerbarer = Null oder geht gegen Null. Wollen wir nicht im Dunkeln umher wandeln, muss die komplette Energieerzeugung von konventionellen Kraftwerken abgedeckt werden. Da hilft auch keine Verdoppelung oder Verdreifachung der Windanlagen. Denn Null mal Null ergibt immer Null.

Aber offensichtlich haben die Nullen in der deutschen Politik und den deutschen Medien die Regie fest in Händen und viel zu viele glauben den Unsinn, der täglich dort verbreitet wird. Und weitere Horrormärchen, wie das angebliche alpine Gletschersterben stehen schon bereit, so z.B. das angebliche Insektensterben, dass es genauso wenig gibt – jeder, der im Sommer mit dem Auto auf Autobahnen unterwegs war, konnte sich vor lauter Fliegen auf der Windschutzscheibe darüber sicherlich nicht freuen – wie einen menschengemachten Klimawandel. Das Ziel dabei ist klar: Die chemische Industrie soll damit getroffen werden (und unsere Nahrungsmittelherstellung). Angesichts der Tatsache, dass mehr als 90% (!!!) der Wertschöpfungskette mit Chemie anfängt und ohne Chemie nicht vorstellbar sind (ARD-Fakt vom 29.09.2022) kann man über soviel Dummheit derer, die sich solches (Insektensterben, wie Klimakrise) auf ihre „Fahnen schreiben“ nur wundern.

Der Ruf nach immer mehr sog. Erneuerbaren zur Energiegewinnung, im Anblick der (weitgehend hausgemachten) Energiekrise (eine tatsächliche Krise!), in der unserer Land steckt, erinnert den Autor doch sehr an die Rede im Volkspalast, zu einem Zeitpunkt, als das Ende und damit die Katastrophe bereits absehbar waren und trotzdem anschließend alle Anwesenden lauthals „Ja“ geschrien haben…. Offensichtlich haben wir Deutsche oder zumindest große Teile davon, nicht viel aus unserer Geschichte gelernt!

„Wir spielen mit 6 Millionen*2) Arbeitsplätzen, wie jüngst Prof. Vahrenholt resümierte, welche die immer schneller fortschreitenden Deindustrialisierung unseres Landes mit sich bringt (hier). Und dass alles für eine natürliche Temperaturerhöhung von +0,4°C bis 0,7°C in Deutschland, wie die Teile 1 und 2 der Autoren Leistenschneider / Kowatsch belegten, sowie einen gigantischen Schwindel um Temperaturmesswerte und Temperaturmessstationen.

*2) Hatten wir schon mal: Als 6 Millionen stempeln gingen (Weimarer_Republik ). Dass Ergebnis, als seinerzeit die vermeintlichen „Heilsbringer“ gerufen wurden, ist bekannt.

Abb.20, Quelle: Götz Wiedenroth mit seiner freundlichen Erlaubnis.

Angesichts der immer größer werdenden realen Probleme, sollten wir endlich damit aufhören. so weiter zu machen, wie bisher und Fiktionen, wie einem menschengemachten Klimawandel oder einer vermeintlichen nie da gewesenen Gletscherschmelze Tür und Tor zu öffnen, sondern sie aus unserem „Grundstück“ entfernen. Die, die uns Klimakrisen etc. weismachen wollen, tun dies aus finanziellen Gründen (z.B. um Forschungsgelder zu erhalten) und/oder aus politischen Gründen. Die meisten jedoch (Volkspalastparallele) sind ganz einfach nur Dummköpfe.

 




Unsicherheiten bei Routine-Messungen der Temperatur – Teil 3

Thomas Berger und Geoffrey Sherrington.

Teil 1 hier, in deutscher Übersetzung hier.

Teil 2 hier, in deutscher Übersetzung hier

Alle Hervorhebungen im Original

———————————

Begrüßen Sie bitte den Mitautor Tom Berger, der diese australischen Temperaturdatensätze mehrere Jahre lang mit mathematisch-forensischen Untersuchungsmethoden untersucht hat. Viele davon basieren auf der Statistiksoftware SAS JMP.

Bitte lesen Sie diesen langen Aufsatz bis zum Ende, denn wir sind zuversichtlich, dass er eine Menge neues Material enthält, das Sie veranlassen wird, das gesamte Thema der Qualität der grundlegenden Daten hinter dem Klimawandel-Theater zu überdenken. Ich fand es Augen öffnend, beginnend mit diesem Satz von Temperaturen von der ersten BOM-Site am Sydney Observatory. Die angeblichen „Roh“-Daten sind nicht roh, weil identische Daten von Juli 1914 bis Juli 1915 kopiert und eingefügt wurden:

Dies geschah vor den Augen derjenigen, die die homogenisierte Version 22 von ACORN-SAT erstellt haben, die Ende 2021 veröffentlicht worden war. Damit wurde die Büchse der Pandora geöffnet, denn dies ist nicht das einzige Kopieren und Einfügen in den „Rohdaten“ von Sydney. Siehe auch Juni 1943 bis Juni 1944 (ganzer Monat), Dezember 1935 bis Dezember 1936 (ganzer Monat, aber 2 im Jahr 1935 fehlende Werte haben Werte im Jahr 1936).

Tom hat mir gegenüber argumentiert, dass…

„Die Strategie, die Menschen dazu zu bringen, den wissenschaftlichen Weg zu respektieren, ist ein hoffnungsloser Fall, fürchte ich. Die Idee ist, verschiedene Dinge zu zeigen und sie selbst zu einer Schlussfolgerung kommen zu lassen!!! Das ist entscheidend.“

Das geht mir als langjährigem Wissenschaftler zwar gegen den Strich, aber da wir das tun, was aufgeschlossene Wissenschaftler tun sollten, werden wir Toms Arbeit akzeptieren und veröffentlichen. Tom schlägt vor, dass wir der Propaganda stärker entgegentreten, also lassen Sie uns das tun, indem wir mit dem Thema der „rohen“ Temperaturmessungen beginnen. Dies führt dazu, was „bereinigte“ Temperaturen für die intellektuelle und mathematische Reinheit bedeuten können. Dann wird Tom einige Methoden vorstellen, die sicher nur wenige Leser kennen.

Bei diesen Temperaturen handelt es sich bei den „rohen“ Daten um die Aufzeichnungen der Beobachter über ihre täglichen Beobachtungen. Ich habe die Bibliothek des Bureau of Meteorology in Melbourne besucht und mit Erlaubnis fotografiert, was als „Rohdaten“ gezeigt wurde. Hier ist ein solches Blatt, aus Melbourne, August 1860. (Ich habe die Spalten, die von besonderem Interesse sind, leicht eingefärbt):

http://www.geoffstuff.com/melborig.jpg

Der nächste Monat, September 1860, hat ein ganz anderes Aussehen, was auf monatliche Aufräumarbeiten hindeutet:

http://www.geoffstuff.com/nextmelborig.jpg

Diejenigen, die täglich Messungen vorgenommen haben, könnten den Eindruck haben, dass es sich bei diesen Blättern um Abschriften von früheren Dokumenten handelt. Ich habe ihn. Die Handschrift ändert sich von Monat zu Monat, nicht von Tag zu Tag. Abschriften sind ein fruchtbarer Boden für Korrekturen.

Abgesehen von den Berichtigungen der Rohdaten stammen die in diesem Aufsatz verwendeten „bereinigten“ Daten fast immer aus dem ACORN-SAT-Homogenisierungsverfahren, das von der BOM verwendet wird. Es gibt vier Versionen, die in der Kurzform als V1, V2, v21 und v22 für Version 1, Version 2. Version 2.1 und Version 2.2. Die Tageshöchsttemperaturen und -minima werden als Diagrammbeschriftungen im Stil von minv22 oder maxraw abgekürzt, um nur zwei Beispiele zu nennen. Die meisten Wetterstationen sind nach Ortschaften benannt, wie z.B. die nächstgelegene Stadt, wobei die ACORN-SAT-Stationen in diesem Katalog aufgeführt sind.

http://www.bom.gov.au/climate/data/acorn-sat/stations/#/23000

Der ACORN-SAT-Anpassungs-/Homogenisierungsprozess wird in mehreren BOM-Berichten wie diesem und weiteren beschrieben:

http://www.bom.gov.au/climate/change/acorn-sat/documents/About_ACORN-SAT.pdf

http://www.bom.gov.au/climate/data/acorn-sat/documents/ACORN-SAT_Report_No_1_WEB.pdf

Ohne die wirklich grundlegenden, fundamentalen, rohen Beweise wie z. B. Original-Beobachterbögen, die ich erfolglos gesucht habe, wende ich mich nun an Tom, der die verfügbaren Daten studiert, um zu sehen, was bei einer forensischen Untersuchung noch alles gefunden werden kann.

———————————

Von der BOM für die Erstellung von Trends verwendete Australische Klimadaten werden analysiert und seziert. Die Ergebnisse zeigen, dass die Daten verzerrt und fehlerhaft sind, bei einigen Stationen sogar bis zum Jahr 2010, so dass sie sich nicht für Vorhersagen oder Trends eignen.

In vielen Fällen handelt es sich bei den Temperatursequenzen der Daten um eine Aneinanderreihung von Duplikaten und wiederholten Sequenzen, die keine Ähnlichkeit mit den beobachteten Temperaturen haben.

Diese Daten würden in vielen Branchen wie der Pharmaindustrie und der industriellen Steuerung verworfen werden. Viele der Methoden zur Verarbeitung von Stücklistendaten sind für die meisten Branchen ungeeignet.

Ungeeignete Datenstationen scheinen in das Netz aufgenommen worden zu sein, um das Argument der Knappheit des Klimanetzes zu entkräften, das gegen das australische Klimanetz vorgebracht wurde. (Modeling And Pricing Weather-Related Risk, Antonis K. Alexandridis et al)

Wir verwenden eine forensische Explorations-Software (SAS JMP), um plausibel gefälschte Sequenzen zu identifizieren, entwickeln aber auch eine einfache Technik, um Cluster von gefälschten Daten aufzuzeigen. Zusammen mit Data-Mining-Techniken wird kausal gezeigt, dass BOM-Anpassungen gefälschte unnatürliche Sequenzen erzeugen, die nicht mehr als Beobachtungs- oder Beweisdaten funktionieren.

„Diese (Klima-)Forschungsergebnisse enthalten einen Zirkelschluss, weil die Hypothese am Ende mit Daten bewiesen wird, aus denen die Hypothese abgeleitet wurde.“

Zirkelschluss in der Forschung zum Klimawandel – Jamal Munshi

BEVOR WIR BEGINNEN – EINE ANOMALIE EINER ANOMALIE

Ein ewig währender Mythos:

„Beachten Sie, dass die Temperatur-Zeitreihen als Anomalien oder Abweichungen vom Durchschnitt 1961-1990 dargestellt werden, da Temperaturanomalien dazu neigen, in weiten Gebieten konsistenter zu sein als die tatsächlichen Temperaturen.“BOM (Link)

Das ist Blödsinn. Beachten Sie den Terminus „dazu neigen“, das auf der endgültigen NASA-Website nicht vorkommt. Die BOM versucht, die Aussage abzuschwächen, indem sie einen Ausweg anbietet. Wenn Worthülsen wie „vielleicht“, „kann“, „könnte“ oder „tendieren“ verwendet werden, sind dies rote Fahnen, die nützliche Bereiche für Untersuchungen liefern.

Die Verwendung eines willkürlich gewählten Durchschnittswerts eines 30-jährigen Temperaturblocks, eines Offsets, macht diese Gruppe nicht „normal“ und liefert auch nicht mehr Daten, als man bereits hat.

Die Aufzeichnung von Abweichungen von diesem willkürlich gewählten Offset für ein begrenztes Netz von Stationen bringt keine weiteren Erkenntnisse und bedeutet ganz sicher nicht, dass man die Analyse auf Gebiete ohne Stationen ausdehnen oder Extrapolationen legitimieren kann, wenn man dort keine Messungen vorgenommen hat.

Die Mittelung von Temperaturanomalien „über weite Gebiete“, wenn man nur einige wenige Stationsmesswerte hat, ergibt kein genaueres Bild als die Mittelung der reinen Temperaturen.

GROSS DENKEN, GLOBAL DENKEN:

Betrachtung der jährlichen globalen Temperaturanomalien: Ist dies die Waffe der Wahl, wenn es darum geht, Panikmache zu betreiben? Sie besteht darin, fast eine Million Temperaturanomalien zu einer einzigen Zahl zusammenzufassen. (Link)

Hier eine zusammenfassende Grafik von der BOM-Website aus dem Jahr 2022 (die Daten reichen eigentlich nur bis 2020):

Die Wayback-Website findet die Jahre 2014 und 2010 und 2022 auf der BOM-Website. Es wurde nichts früheres gefunden. Hier das Diagramm aus dem Jahr 2010:

Wenn man sich die beiden Diagramme ansieht, kann man Unterschiede erkennen. Diese lassen darauf schließen, dass es eine Erwärmung gegeben hat, aber um wie viel?

Die Überlagerung der Temperaturanomalien aus den Jahren 2010 und 2020 ist hilfreich:

Die BOM betonen, dass ihre Anpassungen und Änderungen gering sind, zum Beispiel:

„Die Unterschiede zwischen den ‚rohen‘ und den ‚homogenisierten‘ Datensätzen sind gering und erfassen die Unsicherheit in den Temperaturschätzungen für Australien.“ – BOM (Link)

Lassen Sie uns dies mit einer Hypothese testen: Nehmen wir an, dass bei jeder Version der Grafik der globalen Temperaturanomalien (2010, 2014, 2020) die Erwärmung auf dem 95 %-Niveau signifikant zugenommen hat (unter Verwendung der gleichen Signifikanzniveaus wie bei BOM).

Die Nullhypothese besagt, dass die Verteilungen gleich sind und keine signifikante Erwärmung zwischen den verschiedenen Plots stattgefunden hat.

Also: 2010 > 2014 <2020.

Um dies zu testen, verwenden wir:

EINEN NICHTPARAMETRISCHEN KOMBINATIONSTEST

Dabei handelt es sich um einen Permutationstest, der eine genaue Kombination verschiedener Hypothesen ermöglicht. Er macht keine Annahmen, außer dass die Beobachtungen austauschbar sind, funktioniert mit kleinen Stichproben und wird nicht durch fehlende Daten beeinträchtigt.

Pesarin hat den NPC populär gemacht, aber Devin Caughey vom MIT hat die aktuellste und flexibelste Version des Algorithmus, geschrieben in R. (Link). Er wird auch häufig verwendet, wenn eine große Anzahl von Kontrasten untersucht wird, wie z. B. in Gehirnscan-Labors. (Link)

„Da die NPC auf der Permutationsinferenz basiert, erfordert sie keine Modellierungsannahmen oder asymptotische Begründungen, sondern nur, dass die Beobachtungen unter der globalen Nullhypothese, wonach die Behandlung keine Wirkung hat, austauschbar sind (z. B. zufällig zugeordnet).“ – Devin Caughey, MIT

Nachdem wir NPC in R ausgeführt haben, ist unser wichtigstes Ergebnis:

2010<2014 führt zu einem p-Wert von 0,0444

Dieser Wert liegt unter unserem Grenzwert von p = 0,05, so dass wir den Nullfall ablehnen und sagen können, dass die globalen Temperaturanomalien in den Diagrammen 2010 und 2014 eine signifikante Erwärmung erfahren haben und dass die Verteilungen unterschiedlich sind.

Das Ergebnis 2020 > 2014 hat einen p-value = 0,1975

Wir verwerfen hier nicht die Null, also ist 2014 nicht signifikant verschieden von 2020.

Wenn wir die p-Werte unter Verwendung der Hypothese (2010<2014>2020, d. h. zunehmende Erwärmung in jeder Version) mit der NPC kombinieren, erhalten wir einen p-Wert von 0,0686. Dieser Wert liegt knapp unter dem Signifikanzniveau von 5 %, so dass wir die Nullhypothese nicht zurückweisen, obwohl die Diagramme eine fortschreitende Erwärmung belegen.

Daraus ergibt sich, dass sich die Grafiken der globalen Temperaturanomalien durch die Erhöhung der Temperaturen zwischen 2010 und 2014 erheblich verändert haben, danach blieben sie im Wesentlichen gleich. Die Frage ist, ob es sich um eine tatsächliche Erwärmung oder um eine synthetische Erwärmung handelt.

ICH SEHE ES, ABER ICH GLAUBE ES NICHT…

„Wenn Sie Durchschnittswerte verwenden, liegen Sie im Durchschnitt falsch. – Dr. Sam Savage über den Makel der Durchschnittswerte

Wie unten gezeigt wird, neigt das BOM dazu, Temperatursequenzen zu kopieren/einzufügen oder zu verändern, wodurch Blöcke mit doppelten Temperaturen oder doppelten Sequenzen entstehen, die einige Tage oder Wochen oder sogar einen ganzen Monat dauern. Bei einer so kleinen Stichprobe wie den globalen Temperaturanomalien hätten sie das sicher nicht getan, oder?

Unglaublicherweise gibt es sogar in dieser kleinen Stichprobe eine doppelte Sequenz. SAS JMP berechnet, dass die Wahrscheinlichkeit, diese Sequenz bei dieser Stichprobengröße und der Anzahl eindeutiger Werte zufällig zu sehen, gleich der Wahrscheinlichkeit ist, dass bei einem Münzwurf 10 Köpfe hintereinander fallen. Mit anderen Worten: unwahrscheinlich, aber möglich. Skeptiker halten es für wahrscheinlicher, dass es sich um die Hypothese der fragwürdigen Daten handelt.

Fragwürdige Sequenzen gibt es in Rohdaten, wenn bis zu 40 Stationen gemittelt werden, sie entstehen auch durch „Anpassungen“.

DER FALL DES HUNDES, DER NICHT GEBELLT HAT

So wie der Hund, der in einer bestimmten Nacht nicht bellt, für Sherlock Holmes bei der Lösung eines Falles von großer Bedeutung war, so ist es für uns wichtig zu wissen, was nicht da ist.

Wir müssen wissen, welche Variablen verschwinden und auch, welche plötzlich wieder auftauchen.

Eine Studie, die Daten auslässt, ist eine große rote Fahne. Eine Entscheidung, Daten einzubeziehen oder auszuschließen, macht manchmal einen großen Unterschied.“ – Standardabweichungen, fehlerhafte Annahmen, verfälschte Daten und andere Möglichkeiten, mit Statistiken zu lügen, Gary Smith.

Eine Zusammenfassung der fehlenden Daten der Wetterstation Palmerville in Nord-Queensland zeigt, wie die Daten von verschiedenen Versionen der BOM-Software gelöscht oder unterstellt werden. Betrachtet man die Mindesttemperaturen, so sind die anfänglichen Daten, mit denen die BOM arbeitet, Rohdaten, so dass minraw 4301 fehlende Temperaturen aufweist. Nach den Anpassungen der Version minv1 fehlen nun 4479 Temperaturen, was einem Verlust von 178 Werten entspricht.

Nach den Anpassungen der Version minv2 fehlen jetzt 3908 Werte, so dass jetzt 571 Werte importiert oder ergänzt wurden.

Einige Jahre später ist die Technologie so weit fortgeschritten, dass das BOM eine neue Version minv21 herausbringt, und nun fehlen 3546 Werte – ein Nettogewinn von 362 Werten, die importiert/ausgefüllt wurden. In der Version minv22 fehlen 3571 Werte, und 25 Werte sind jetzt nicht mehr verfügbar.

Wenn man bedenkt, dass die BOM kein Problem mit dem massiven Datenimport von 37 Jahren hatte, wie in Port Macquarie, wo es keine Daten gab, wurden die Daten zusammen mit Ausreißern und Trends und ausgeprägten Monaten erstellt (zweifellos gemittelt aus der Liste der 40 Stationen, nach denen die BOM-Software sucht). Es ist fast so, als würden die fehlenden/hinzugefügten Werte die Hypothese unterstützen.

Daten, die NICHT zufällig fehlen, werden gemeinhin als MNAR (missing not at random) bezeichnet und führen zu einer Verzerrung der Daten.

So wie hier von der Station Moree, NSW:

Ein Drittel der Zeitreihe verschwindet an einem Sonntag! Den Rest der Woche sind die Werte wieder da. Die Version minv1 ist dauerhaft gelöscht – offenbar gefiel dem BOM nach der Erstellung der Rohdaten das erste Drittel der Daten für minv1 nicht und es löschte es. Dann haben sie es sich mit allen anderen Versionen anders überlegt und Daten erstellt – außer für den Sonntag natürlich.

Mildura möchte jedoch anders sein und führt den Montag als den Tag, an dem die Daten auf magische Weise verschwinden:

Nhill an einem Sonntag (unten links) ist anders als an einem Montag (unten rechts) …:

Das ist etwas anderes als Dienstag – Samstag (unten). Wie Sie sehen, gibt es allerdings immer noch eine Lücke bei den Daten um 1950. Aber warum sollte man eine gute Sache mit all diesen Daten-Importen erzwingen; wenn man einige Lücken lässt, wirkt das Ganze authentischer.

FEHLENDE TEMPERATURBEREICHE

Streudiagramme gehören zu den ersten Dingen, die wir bei der Datenexploration machen. Bei den BOM-Daten fällt als erstes auf, dass je nach Monat, Jahrzehnt oder Wochentag einige Daten fehlen. Komplette Temperaturbereiche können für viele, ja sogar für die meisten der 110-jährigen ACORN-SAT-Zeitreihen fehlen.

Zum Beispiel Palmerville:

Die langen horizontalen Lücken oder „Korridore“ mit fehlenden Daten zeigen vollständige Temperaturbereiche, die für die meisten Zeitreihen nicht existieren. Hier dauert es bis etwa 2005, bis alle Temperaturbereiche angezeigt werden. Außerdem ist zu beachten, dass Anpassungen, die auf die Rohdaten folgen, die Situation noch verschlimmern:

Gleiches gilt für den November:

Die beunruhigende Tendenz dabei ist, dass Anpassungen die Situation oft noch verschlimmern – Daten fehlen, Temperaturbereiche fehlen, falsche Sequenzen werden eingeführt:

Wenn man sich die zuerst ertsellten Rohdaten ansieht, kann man erkennen, wie eine duplizierte Sequenz nach „Anpassungen“ entstanden ist. Das Ergebnis ist eine offensichtlich verfälschte Temperatursequenz.

Im nachstehenden Beispiel aus Charleville, bei dem 1942 mit 1943 verglichen wird, ist zu erkennen, dass ein einzelner Rohwert aus dem Jahr 1942 aus dem Jahr 1943 gelöscht und ein einzelner minv2-Wert zwischen den Jahren geringfügig geändert wurde (…), aber eine lange duplizierte Sequenz wurde so belassen, wie sie war:

Es gibt zwei Arten von Sequenzen, die hier von Interesse sind:

1 – Eine Reihe von duplizierten Temperaturen.

2 – Eine Temperatursequenz, die an anderer Stelle dupliziert wird.

Es gibt Hunderte und Aberhunderte dieser Sequenzen über den größten Teil der ACORN-SAT-Zeitreihe. In Sydney wurden sogar zweieinhalb Monate in ein anderes Jahr kopiert/eingefügt, wie wir gesehen haben. Computer wählen nicht „zufällig“ Daten aus, die nur einen Kalendermonat lang sind, immer und immer wieder – das machen Menschen.

Die Wahrscheinlichkeit, dass diese Sequenzen zufällig auftreten, wird von der SAS JMP-Software als unwahrscheinlich bis unmöglich berechnet. Selbst die Simulation von Daten mit Autokorrelation unter Verwendung der Block-Bootstrap-Methode zeigt die Unmöglichkeit der Sequenzen.

Das Ergebnis sind gefälschte Temperaturverläufe, die die meisten Zifferntests für Beobachtungsdaten nicht bestehen, wie z. B. Benford’s Law für Anomalien, Simonsohn’s Number Bunching Tests (www.datacolada.com) und Ensminger+Leder-Luis Bank of Digit Tests (Measuring Strategic Data Manipulation: Evidence from a World Bank Project von Jean Ensminger und Jetson Leder-Luis)

Beispiele aus Palmerville finden Sie unten. Die duplizierten Sequenzen auf der linken Seite sind eine sehr hinterhältige Art der Erwärmung – eine wärmere Monatssequenz wird in einen kälteren Monat kopiert.

Das BOM hat offensichtlich Schwierigkeiten, selbst im Jahr 2004 saubere Daten zu erhalten:

Palmerville gehört zu den schlechtesten Acorn-Standorten, was die Datenreinheit angeht. Sehr viele der Temperaturbeobachtungen sind ganzzahlig, mit keiner Nachkommastelle. Aus dem Stationskatalog von ACORN-SAT:

„Der gleiche Beobachter hat 63 Jahre lang, von 1936 bis 1999, Beobachtungen durchgeführt und war während des letzten Teils dieses Zeitraums der einzige verbliebene Bewohner des Gebiets. Nachdem die manuellen Beobachtungen bei ihrem Weggang 1999 eingestellt wurden, wurden die Beobachtungen erst mit der Inbetriebnahme der automatischen Station wieder aufgenommen.“

Die Stationen in Melbourne Regional (ca. 1856-2014) und Sydney Observatory (ca. 1857-Okt 2017) werden hier als die besten der BOM-Qualität angesehen. (Link)

Temperaturbereiche fehlen auch über viele Jahre hinweg, sie erscheinen in vielen Fällen erst in den 2000er Jahren. Und das kann auch nach Anpassungen passieren.

Im Folgenden bleiben wir bei Palmerville für alle Augustmonate von 1910 bis 2020. Dazu verwenden wir die grundlegendste aller Datenanalysegrafiken, das Streudiagramm. Dies ist eine Datendarstellung, die die Beziehung zwischen zwei numerischen Variablen zeigt:

Oben – Dies ist eine vollständige Datenansicht (Streudiagramm) der gesamten Zeitreihe, minraw und minv22. Raw kam zuerst in der Zeit (unten in rot), so dass dies unsere Referenz ist. Nach den Anpassungen von minv22 sind ganze Bereiche verschwunden, die horizontalen „Rinnen“ zeigen fehlende Temperaturen, die nie auftauchen. Selbst im Jahr 2000 sieht man horizontale Lücken, in denen Dezimalwerte verschwunden sind, so dass man nur ganzzahlige Temperaturen wie 15°C, 16°C usw. erhält.

Im Katalog der BOM-Station ist vermerkt, dass der Beobachter 1999 abreiste, und für die AWS gilt: „Die automatische Wetterstation wurde Mitte 2000 160 m südöstlich des früheren Standorts installiert, begann aber erst im Juli 2001 mit der Übertragung von Daten.“ Zwischen diesen Daten wurden also offenbar keine Daten gesammelt. Woher stammen die Daten, die im obigen Diagramm rot dargestellt sind?

Die Rohdaten wurden viermal mit vier Versionen der modernsten BOM-Software angepasst, und das ist das Ergebnis – ein schlechteres Ergebnis:

Für den Januar gibt es keine sauberen Daten, massive „Korridore“ mit fehlenden Temperaturbereichen bis 2005 oder so. Auch hier sind die Daten nach den Anpassungen schlechter:

Auch die Märzdaten sind nach den Anpassungen schlechter. Sie hatten ein echtes Problem mit den Temperaturen von etwa 1998-2005.

Unten – Sehen Sie sich die Daten vor und nach den Anpassungen an. Dies sind sehr schlechte Datenverarbeitungsverfahren, und es ist nicht zufällig, also erwarten Sie nicht, dass diese Art von Manipulation Fehler ausgleicht:

SONNTAG IN NHILL = FEHLENDE DATEN NICHT ZUFÄLLIG

EINE VERZERRUNG ENTSTEHT DURCH NICHT ZUFÄLLIG FEHLENDE DATEN (Link).

Unten – Nhill an einem Samstag hat einen großen Anteil an fehlenden Daten, sowohl bei den Rohdaten als auch bei den angepassten Daten:

Unten: Am Sonntag, voila … gibt es jetzt Tausende von Rohtemperaturen, aber es fehlen immer noch die angepassten Daten:

Unten – Moment, da ist noch mehr – jetzt ist es Montag, und einfach so erscheinen Tausende von angepassten Temperaturen!

Mildura am Freitag:

Mildura am Sonntag:

Mildura am Montag:

Oben – Am Montag verschwindet ein großes Stück in den angepassten Daten. Seltsamerweise wird der dünne Streifen fehlender Rohdaten bei etwa 1947 in minv2.2 aufgefüllt.

Diese Art der Datenverarbeitung deutet auf viele andere Probleme der Verzerrung hin.

SYDNEY-WOCHENTAG-EFFEKT

Betrachtet man alle Septembermonate der Sydney-Zeitreihe von 1910-2020, so zeigt sich, dass der Freitag eine deutlich andere Temperatur aufweist als der Sonntag und der Montag.

Die Wahrscheinlichkeit, dass dies zufällig auftritt, liegt bei über 1000:1:

Samstag ist ebenfalls wärmer als Donnerstag im Dezember, das ist hoch signifikant:

NIEMALS AN EINEM SONNTAG

Moree von Montag bis Donnerstag sieht so aus:


Unten – Aber dann kommt der Sonntag in Moree, und ein Drittel der Daten verschwindet! (bis auf ein paar ungerade Werte):

Ein Drittel der Zeitserie geht am Sonntag verloren! Es scheint, dass die griechische Filmkomödie „Niemals am Sonntag“, in der die griechische Prostituierte Ilya versucht, Homer zu verführen (aber niemals an einem Sonntag), auf Moree übergegriffen hat.

ANPASSUNGEN ERZEUGEN DOPPELTE DATENSEQUENZEN

Unten – Sydney zeigt, wie durch Anpassungen Duplikate erzeugt werden:

Die doppelten Daten werden von der BOM mit ihrer hochmodernen Anpassungssoftware erzeugt, wobei sie zu vergessen scheinen, dass es sich um Beobachtungsdaten handelt. Unterschiedliche Rohwerte werden in maxv22 zu einer Folge von doppelten Werten!

EINE SCHLAUE ART DER ERWÄRMUNG:

Die letzten beiden Beispiele aus Palmerville, von denen eines eine raffinierte Art der Erwärmung durch Kopieren vom März und Einfügen in den Mai zeigt!:

„Achten Sie auf unnatürliche Gruppierungen von Daten. Bei der eifrigen Suche nach veröffentlichungsfähigen Theorien – ganz gleich, wie unplausibel sie sind – ist es verlockend, die Daten so zu verändern, dass sie die Theorie besser stützen, und es ist ganz natürlich, nicht allzu genau hinzuschauen, wenn ein statistischer Test die erhoffte Antwort liefert“ – Standardabweichungen, fehlerhafte Annahmen, manipulierte Daten und andere Möglichkeiten, mit Statistiken zu lügen, Gary Smith.

„Bei dieser Art von voreingenommener Forschung suchen die Forscher nicht objektiv nach der Wahrheit, was auch immer sie sein mag, sondern versuchen vielmehr, die Wahrheit dessen zu beweisen, was sie bereits wissen, dass es wahr ist oder was wahr sein muss, um den Aktivismus für eine edle Sache zu unterstützen (Nickerson, 1998).“ – Zirkel-Argumentation in der Forschung zum Klimawandel, Jamal Munshi

DIE QUALITÄT DER BOM-ROHDATEN

Wir sollten nicht von Rohdaten sprechen, weil dies ein irreführender Begriff ist …

„Der Begriff Rohdaten ist an sich schon irreführend, da er häufig einen vor der Anpassung erstellten Datensatz impliziert, der als reine Aufzeichnung an einem einzigen Stationsstandort betrachtet werden könnte. Für zwei Drittel der ACORN-SAT gibt es keine rohen Temperaturreihen, sondern eine zusammengesetzte Reihe von zwei oder mehr Stationen.“ – BOM

„Die Homogenisierung erhöht nicht die Genauigkeit der Daten – sie kann nicht höher sein als die Genauigkeit der Beobachtungen.“ (M.Syrakova, V.Mateev, 2009)

Der Grund für die Irreführung liegt darin, dass BOM die Daten weiterhin als „roh“ bezeichnet, obwohl es sich um einen einzigen Durchschnittswert vieler Stationen handelt; die Standard-Auswahl in der BOM-Software beträgt 40 Stationen. Dies ist die schwache Form des Flaw of Averages (Dr. Sam Savage, 2009) [Fehler von Durchschnittswerten], so dass diese einzelne zusammengesetzte Zahl wahrscheinlich falsch ist.

In der Phase der Datenexploration sollte man sich zunächst die Verteilung mit einem Histogramm ansehen. Hier beginnen die Probleme:

Die Wiederholungen/Häufigkeit des Auftretens sind auf der Y-Achse, die Rohtemperaturen sind auf der X-Achse aufgetragen. Das Histogramm zeigt, wie oft bestimmte Temperaturen auftreten. Es ist sofort ersichtlich, dass es ein Problem gibt; es scheinen zwei Histogramme übereinander gelegt zu sein. Das stachelige Histogramm ist sehr methodisch mit gleichmäßigen Abständen. Es ist schnell klar, dass es sich nicht um saubere Beobachtungsdaten handelt.

Es stellt sich heraus, dass die Ursache für diese Spitzen die doppelte Rundungsungenauigkeit ist, bei der Fahrenheit auf z. B. 1 Grad genau gerundet, dann in Celsius umgewandelt und auf 0,1 C genau gerundet wird, wodurch ein Überschuss an dezimalen 0,0er-Werten und ein Mangel an 0,5er-Werten* (in diesem Beispiel) entsteht; es gibt verschiedene Rundungsszenarien, bei denen unterschiedliche dezimale Knappheiten und Überschüsse in der gleichen Zeitreihe entstehen!

[*Am Meteorologischen Institut der Freien Universität Berlin wurde bei der Berechnung der Mitteltemperaturen an der Station Berlin-Dahlem ein anderes Verfahren praktiziert. Bei Werten von x,5 wurde grundsätzlich zur geraden Zahl gerundet. Ein Wert von 2,5 ergibt also 2, einer von 3,5 demnach 4. Auf diese Weise wurde eine Warm-Verzerrung durch ein mathematisch korrektes grundsätzliches Aufrunden in diesen Fällen vermieden. A. d. Übers.]

Die nachstehende Abbildung stammt aus der zitierten Studie und zeigt verschiedene Rundungs-/Umrechnungs-/Rundungsprotokolle. Betrachtet man zum Beispiel die erste Zahlenreihe, 0,5°C und 2,0°F, so bedeutet dieses Szenario, dass Fahrenheit auf 2 Grad genau gerundet und dann auf 0,5°C genau umgerechnet wurde. Alle diese Szenarien wurden in der Studie untersucht, aber was sich speziell auf die BOM-Daten auswirkt, ist das sechste Protokoll von unten – Rundung auf 1,0°F Genauigkeit, Konvertierung und anschließende Rundung auf 0,1°C Genauigkeit. Dies führt zu einem Übermaß an dezimalen 0’s und keinen 0,5’s

Die Studie: „Decoding The Precision Of Historical Temperature Observations“ – Andrew Rhimes, Karen A McKinnon, Peter Hubers. [Etwa: Entschlüsselung der Genauigkeit historischer Temperaturmessungen]

Die BOM-Doppelrundungsfehler, die es gibt, werden durch dieses spezielle Protokoll verursacht, und man kann sie unten leicht erkennen, wenn man die Dezimalhäufigkeit pro Jahr mit den Jahren vergleicht. Die Verwendung der Dezimalhäufigkeit pro Jahr ist der Schlüssel zum Verständnis des Gesamtbildes:

Die Abbildung zeigt die Gemeinde Yamba und verdeutlicht den Mangel an 0,5er-Dezimalstellen von 1910 bis 1970 und die übermäßige Verwendung von 0,0 und 0,5 Dezimalstellen von 1980 bis 2007 oder so. Wenn man sich die meisten Landesstationen anschaut, wird deutlich, dass die Probleme mit dem Dezimalsystem noch lange nach der Dezimalisierung in den 70er Jahren bestehen, und in einigen Fällen sogar bis 2010.

Sehen Sie sich zum Beispiel Bourke unten an:

Diese verschiedenen Szenarien mit doppelten Rundungsfehlern lassen in einigen Fällen Zweifel an den Aufzeichnungen aufkommen (siehe oben) und führen dazu, dass die Zeitreihen nicht mehr übereinstimmen. Wie zu sehen ist, hat BOM das Problem des doppelten Rundungsfehlers nicht korrigiert, obwohl eine einfache Matlab-Korrektursoftware in dem oben genannten Dokument vorhanden ist.

Der Marmorbalken unten zeigt genau das gleiche Problem: unkorrigierte doppelte Rundungsfehler, die zu einer Knappheit von 0,5 Dezimalstellen führen. Auch hier gibt es um das Jahr 2000 herum einen Überschuss an 0,0 und 0,5er-Dezimalstellen, die verwendet werden. Aus dem BOM-Stationskatalog für Marble Bar:

„Die automatische Wetterstation wurde im September 2000 eröffnet, mit Instrumenten im gleichen Bildschirm wie die frühere manuelle Station (4020). Der manuelle Standort wurde bis 2006 weitergeführt, wurde aber wegen der sich danach verschlechternden Datenqualität nur noch bis Ende 2002 in ACORN-SAT verwendet.“

Zurück zu den stacheligen Histogrammen: So werden sie gebildet:

Durch die Verwendung von dynamisch verknüpften Datentabellen in SAS JMP werden durch die Auswahl bestimmter Datenpunkte diese mit allen anderen Datentabellen verknüpft, was zeigt, wie die Spikes gebildet werden.

Die geringe Anzahl von 0,5er-Dezimalstellen führt zu einem Histogramm auf niedrigerem Niveau (siehe obige Darstellung), bei dem die Datenpunkte auf ein niedrigeres Niveau fallen und Lücken und Spitzen hinterlassen. Dies verursacht die seltsam aussehenden Histogramme und ist ein Hinweis darauf, dass die Daten nicht um doppelte Rundungsfehler korrigiert sind. Praktisch alle untersuchten BOM-Landstationen weisen dieses Problem auf.

ANPASSUNGEN ODER KORREKTUREN DER TEMPERATUREN, UM TRENDS ZU VERSTÄRKEN.

„Stellen Sie sich zum Beispiel vor, dass eine Wetterstation in Ihrem Vorort oder Ihrer Stadt wegen eines Bauvorhabens verlegt werden musste. Es ist gut möglich, dass der neue Standort etwas wärmer oder kälter ist als der vorherige. Wenn wir der Allgemeinheit die beste Schätzung des wahren langfristigen Temperaturtrends an diesem Ort liefern wollen, ist es wichtig, dass wir derartige Veränderungen berücksichtigen. Zu diesem Zweck verwenden das Amt und andere große meteorologische Organisationen wie die NASA, die National Oceanic and Atmospheric Administration und das britische Met Office ein wissenschaftliches Verfahren namens Homogenisierung.“ – BOM

Das herablassende BOM-Zitat unter der Überschrift bereitet Sie auf das vor, was kommen wird:
Es wurde eine ganze Industrie geschaffen, um „Verzerrungen“ zu korrigieren. BOM hat den SNHT-Algorithmus mit einer Standardliste von 40 in die engere Wahl gezogenen Stationen verwendet, um daraus eine einzige Zahl zu ermitteln. Bei einem Signifikanzniveau von 95 % bedeutet dies, dass 1 von 20 „Schritten“ oder „Verzerrungen“ ein falsches Positiv ist.

Die iterative Verwendung verschiedener Softwareversionen für die gleichen Daten ohne die Verwendung von Vielfachkorrekturen, um den Zufall bei der Suche nach dieser „Verzerrung“ zu berücksichtigen, führt zu Fehlern und Verzerrungen in den Daten.

„Systematische Verzerrungen haben, solange sie sich nicht ändern, keinen Einfluss auf die Temperaturveränderungen. So führt eine falsche Platzierung der Messstationen zu einer Verzerrung, aber solange sie sich nicht ändert, ist sie unerheblich. Aber jede Änderung der Anzahl und des Standorts der Messstationen könnte den Anschein eines falschen Trends erwecken.“ – Prof. Thayer Watkins, Universität San Jose.

Da es keine Reihen gibt, die eindeutig als homogen eingestuft werden können, ist es nicht möglich, eine vollkommen homogene Referenzreihe zu erstellen.

Außerdem liefert SNHT keine Schätzung des Konfidenzniveaus der Anpassungen.

Wir sollen glauben, dass die Verschiebung einer Station oder das Wachstum der Vegetation oder jede andere Verzerrung, die sich bildet, zu diesen Arten von Anpassungen führt:

Eine „schrittweise Veränderung“ würde wie der Pfeil aussehen, der auf 1940 zeigt. Aber schauen Sie sich die Zeit um 1960 an – es gibt eine Vielzahl von Anpassungen, die einen großen Temperaturbereich abdecken, es ist ein chaotisches Durcheinander von Anpassungen in verschiedenen Bereichen und Jahren. Wenn wir nur das Jahr 1960 in Moree betrachten:

Das BOM möchte uns glauben machen, dass diese chaotischen Anpassungen für nur 1960 in diesem Beispiel exakte und präzise Anpassungen sind, die zur Korrektur von Verzerrungen erforderlich sind.

Weitere Streudiagramme für Anpassungen:

Eine wahrscheinlichere, auf dem Modus Operandi der BOM beruhende Erklärung ist, dass bestimmte Monate und Jahre eine bestimmte Erwärmung und Abkühlung erfahren, um den gewünschten Trend zu verstärken.

Wenn man sich die Streudiagramme ansieht, kann man deutlich erkennen, dass es bei den Anpassungen nicht um die Korrektur von „Schrittwechseln“ und Verzerrungen geht. Wie wir oben gesehen haben, verschlimmern die Anpassungen in den meisten Fällen die Daten, indem sie doppelte Sequenzen und andere Verzerrungen hinzufügen. Das Bedford’sche Gesetz zeigt auch eine geringere Übereinstimmung mit Anpassungen, die auf Datenprobleme hinweisen.

Bestimmte Monate werden mit den größten Anpassungen belastet, und dies ist bei vielen Zeitreihen der Fall:

Und einige Anpassungen hängen davon ab, welcher Wochentag gerade ist:

Die Anpassung nach Wochentag bedeutet, dass der Modalwert, die häufigste Temperatur in der Zeitreihe, ebenfalls von dieser Verzerrung betroffen ist – und damit auch die mittlere Temperatur.

„Die Analyse hat gezeigt, dass die neu vorgenommenen Anpassungen in ACORN-SAT Version 2.2 den geschätzten langfristigen Erwärmungstrend in Australien nicht verändert haben.“ – BOM

„…..gepoolte Daten können verschiedene individuelle Manipulations-Signaturen ausgleichen. – (Diekmann, 2007)

Es wird angenommen, dass die frühen Temperaturen die gleichen Konfidenzintervalle haben wie die jüngeren Temperaturen, was offensichtlich falsch ist.

Einzelne Stationstrends können sicherlich durch Anpassungen verändert werden, insbesondere bei Jahreszeiten, die die BOM-Software auswertet:

Nachfolgend sehen wir uns Werte an, die in Raw fehlen, aber in Version 2.1 oder 2.2 erscheinen.

Dies zeigt uns, dass es sich um erstellte oder importierte Werte handelt. In diesem Fall fehlen die schwarzen Punkte im Rohdatenmaterial, erscheinen aber jetzt als Ausreißer.

Diese Ausreißer und Werte haben für sich genommen einen Aufwärtstrend. Mit anderen Worten: Die importierten/erstellten Daten weisen einen Erwärmungstrend auf (siehe unten).

Zusammenfassend lässt sich sagen, dass die Anpassungen Läufe mit doppelten Temperaturen erzeugen und auch Läufe mit doppelten Sequenzen, die in verschiedenen Monaten oder Jahren existieren. Dies sind offensichtlich „gefälschte“ Temperaturen – keine Klimadatenbank kann zum Beispiel 17 Tage (oder schlimmer) in Folge mit der gleichen Temperatur rechtfertigen.

Anpassungen werden vor allem in bestimmten Monaten vorgenommen und können davon abhängen, welcher Wochentag gerade ist.

Anpassungen führen auch dazu, dass Daten verschwinden oder wieder auftauchen, ebenso wie Ausreißer. Datenanalyse-Digit-Tests (Simonsohn’s oder Benford’s oder Luis-Leder Weltbank-Digit-Tests) zeigen, dass die Rohdaten nach Anpassungen im Allgemeinen schlechter werden! Außerdem können ganze Temperaturbereiche bis zu 80 Jahren oder mehr verschwinden.

Diese Daten wären für die meisten Branchen ungeeignet.

DAS DEUTSCHE PANZER-PROBLEM

Im Zweiten Weltkrieg wurde jeder in Deutschland hergestellte Panzer oder jedes Waffenteil mit einer Seriennummer versehen. Anhand der Seriennummern von beschädigten oder erbeuteten deutschen Panzern konnten die Alliierten die Gesamtzahl der Panzer und anderer Maschinen im deutschen Arsenal berechnen.

Die Seriennummern enthielten zusätzliche Informationen, in diesem Fall eine Schätzung der Gesamtbevölkerung auf der Grundlage einer begrenzten Stichprobe.

Dies ist ein Beispiel für das, was David Hand als Dark Data bezeichnet. Dabei handelt es sich um Daten, die in vielen Branchen vorhanden sind, aber nie genutzt werden, jedoch interessante Informationen preisgeben, die genutzt werden können. (Link)

Dark Data im Zusammenhang mit den australischen Klimadaten würde uns einen zusätzlichen Einblick in das gewähren, was das BOM hinter den Kulissen mit den Daten macht, von denen sie vielleicht nichts weiß. Wenn fragwürdige Arbeit geleistet würde, wären sie sich eines „Informationslecks“ nicht bewusst.

Ein einfaches Dark-Data-Szenario wird hier ganz einfach durch die erste Differenz einer Zeitreihe erstellt. (Die erste Differenzierung ist eine bekannte Methode in der Zeitreihenanalyse).
Ermitteln Sie die Differenz zwischen Temperatur 1 und Temperatur 2, dann die Differenz zwischen Temperatur 2 und Temperatur 3 und so weiter. (unten)

Wenn die Differenz zwischen zwei aufeinanderfolgenden Tagen gleich Null ist, haben die beiden gepaarten Tage die gleiche Temperatur. Auf diese Weise kann man schnell und einfach feststellen, ob die beiden Tage die gleiche Temperatur haben.

Intuitiv würde man eine Zufallsverteilung ohne offensichtliche Häufungen erwarten. Block-Bootstrap-Simulationen, bei denen die Autokorrelation erhalten bleibt, bestätigen dies. Einige der untersuchten europäischen Zeitreihen weisen zum Beispiel eine gleichmäßige Verteilung der gepaarten Tage auf:

Oben ist deKooy in den Niederlanden mit einer ziemlich gleichmäßigen Verteilung zu sehen. Schweden ist sehr ähnlich. Diff0 in der Graphik bezieht sich auf die Tatsache, dass der Unterschied zwischen einem Temperaturpaar bei Anwendung der obigen Technik der ersten Differenz gleich Null ist, was bedeutet, dass die beiden Tage identische Temperaturen aufweisen. Die roten Punkte zeigen die Streuung an.

Schauen wir uns unten Melbourne, Australien, an:

Die gepaarten Tage mit gleichen Temperaturen sind im kühleren Teil des Diagramms zusammengefasst. Sie verjüngen sich nach 2010 oder so (weniger rote Punkte). Die Daten für Melbourne stammen von verschiedenen Standorten, wobei 2014 ein Wechsel vom Standort des BOM Regional Office (86071) zum 2 km entfernten Standort des Olympic Park (86338) erfolgte.

Unten ist Bourke zu sehen, und auch hier sind die Daten mit roten Punkten gebündelt.

Aus dem BOM Stationskatalog:

„Der derzeitige Standort (48245) ist eine automatische Wetterstation auf der Nordseite des Flughafens Bourke … Er wurde im Dezember 1998 in Betrieb genommen, 700 m nördlich des früheren Flughafenstandortes, aber mit nur minimaler Überlappung. Diese Daten werden seit dem 1. Januar 1999 in ACORN-SAT verwendet.“

Unten ist Port Macquarie zu sehen, wo es zwischen 1940 und 1970 zu einer extrem dichten Häufung kommt:


Diese Daten stammen aus bereinigten ACORN-SAT-Quellen, nicht aus Rohdaten. Sie variieren mit den Anpassungen, in vielen Fällen gibt es sehr große Unterschiede vor und nach den Anpassungen.

Die Hauptstädte variieren um 3-4% der gepaarten Daten. Die Länderstationen können bei einigen Nischengruppen bis zu 20% betragen.

Die Hypothese lautet wie folgt: Die am stärksten geclusterten Datenpunkte sind die am stärksten manipulierten Datenbereiche.

Außerdem können einige der roten Punktcluster visuell mit den im Katalog vermerkten Standortänderungen korreliert werden.

Betrachten wir einen sehr dichten Punkt in Port Macquarie, 1940-1970:

Es ist sofort ersichtlich, dass viele Tage doppelte Sequenzen aufweisen. Auch wenn es sich um kürzere Sequenzen handelt, sind es immer noch mehr, als man zufällig erwarten würde, aber beachten Sie auch die seltsamen systematischen Abstände und Lücken unten.

Mehr über Port Macquarie, BOM-Stationskatalog:

„Es gab eine Verschiebung um 90 m seewärts (die genaue Richtung ist unklar) im Januar 1939 und eine Verschiebung um 18 m nach Südwesten am 4. September 1968… Der derzeitige Standort (60139) ist eine automatische Wetterstation am Flughafen Port Macquarie… Er befindet sich an der südöstlichen Seite der Landebahn des Flughafens. Sie wurde 1995 in Betrieb genommen, wird aber erst seit Januar 2000 im ACORN-SAT-Datensatz verwendet, da es Probleme mit den ersten Daten gab. Im Oktober 2020 wurde auf dem Flughafengelände ein neuer Standort (60168) eingerichtet, der den derzeitigen Standort zu gegebener Zeit ablösen soll“.

Das folgende Beispiel bezieht sich auf die frühen 1950er Jahre:

Hier haben wir Lücken von 1 und 3 zwischen den Sequenzen.

Unten haben wir Lücken von 8 zwischen den Sequenzen:

Unten – jetzt haben wir Lücken von 2, dann 3, dann 4, dann 5. Denken Sie daran, dass die meisten Zeitreihen viele dieser „Fake“-Sequenzen haben!

Nachweis der Kausalität

CO2 und Erwärmung beruhen auf Korrelation, aber wir alle wissen, dass Korrelation nicht gleichbedeutend mit Kausalität ist.

Tony Cox ist ein führender Experte auf dem Gebiet der Kausalanalyse und verfügt über eine Software zur Prüfung der Kausalität.

Mit Hilfe von CART-Entscheidungsbäumen und einigen neueren Algorithmen testen wir, welche Variablen kausal sind, wenn wir gepaarte Tage mit der gleichen Temperatur betrachten.

Wenn wir die Bourke-Minimum-Temperaturen über die gesamte Zeitreihe verwenden und als Ziel „MIN Paired Days, Same Temp“ festlegen, werden von CART Regeln erstellt, um prädiktive kausale Zusammenhänge zu finden:

/*Rules for terminal node 3*/

if

MAXpaired days same temp <= 0.06429 &&

MINadjustments > -0.62295 &&

MINadjustments <= -0.59754

terminalNode = 3;

Dies bedeutet, dass, wenn das Maximum der gepaarten Tage gleicher Temperatur weniger als 0,06429 beträgt UND die Anpassungen bei den MIN-Temperaturen zwischen -0,62295 und -0,59754 liegen, Knoten 3 zutrifft und ein hoch prädiktiver Cluster von 50 % gefunden wurde.

ANMERKUNG: Gepaarte Tage mit gleicher Temperatur für die MAX-Reihe und Anpassungen durch BOM wurden als kausale Vorhersage erkannt!

Port Macquarie Minimum-Temperatur-Zeitreihe

Ziel: Minimum-gepaarte Tage gleicher Temperaturen

/*Rules for terminal node 3*/

if

MAXadjustments > 0.53663 &&

MAXpaired days same temps <= 0.02329

terminalNode = 3;

class prob= 20%

Die obige ROC-Kurve für Port Macquarie zeigt ein sehr prädiktives Modell, wobei die prädiktivste kausale Variable MAX gepaarte Tage, gleiche Temperaturen ist, wobei große Max-Anpassungen kausal für die Vorhersage von MIN gepaarten Tagen, gleiche Temperaturen sind!

Unten ist die CART-Baum-Ausgabe für die Suche nach dem Ziel in Palmerville:

MIN gepaarte Tage, gleiche Temperaturen:

Hier findet es Wochentage und Jahre vorhersagend kausal. Sie lesen den Baum, indem Sie einen Zweig Wenn wahr abwärts gehen und die Wahrscheinlichkeit ablesen, dass der Cluster wahr ist.

In diesen und weiteren getesteten Fällen ist das kausale Vorhersageergebnis des Ziels Minimum Paired Days With Same Temps der Wochentag, das Jahr und das Ausmaß der Anpassungen!

Erinnern wir uns: Gepaarte Tage mit gleichen Temperaturen waren ein Hinweis auf doppelte oder „gefälschte Läufe“ von Temperaturen. Je höher die Clusterkonzentration, desto mehr Sequenzen wurden gefunden.

Offensichtlich haben die Daten ernsthafte Probleme, wenn der Wochentag bei der Modellierung eine Rolle spielt. BOM-Anpassungen sind ebenfalls ursächlich für die Bildung von Clustern „falscher“ Sequenzen.

———————————

Hier sind einige Fragen, die sich aus Toms Arbeit ergeben: Warum mussten wir diese grundlegende Qualitätskontrolle der primären Temperatur-Rohdaten der BOM im Bürgerwissenschaftler-Modus durchführen?

Wusste die BOM bereits von der großen Anzahl von Fällen korrumpierter und/oder verdächtiger Daten, teilte aber weiterhin mit, dass die Rohdaten im Wesentlichen unangetastet blieben, abgesehen von der Entfernung von Tippfehlern und einigen offensichtlichen Ausreißern?

Wie kann man angesichts der Tatsache, dass sowohl die „Rohdaten“ als auch die „ACORN-SAT“-Daten inhärente Probleme aufweisen, behaupten, dass aus diesen Zahlen abgeleitete Verteilungen Gültigkeit haben?

Wie kann man also ein auf Verteilungen basierendes Argument rechtfertigen, um die Anwendung des zentralen Grenzwertsatzes zu ermöglichen, wenn so viele Verteilungen verfälscht sind?

Kann man das Gesetz der großen Zahlen gültig auf Daten anwenden, die von Menschen erfunden wurden und die keine Beobachtungen sind?

Wie schätzt man die Messunsicherheit bei Daten, die von Menschen erfunden wurden?

Wo ist das Handbuch für die Schätzung des Vertrauens in unterstellte Werte? Ist es genau?

Sind Beobachtungen dieser Art überhaupt für den Zweck geeignet?

Warum wurde dem BOM von Experten, die den Wert von ACORN-SAT untersucht haben, ein „Freifahrtschein“ ausgestellt? Warum haben sie keine Unregelmäßigkeiten in den Daten gefunden?

Ist es möglich, diese Millionen von Beobachtungen „nachzujustieren“, um sicherzustellen, dass sie Tests der hier beschriebenen Art bestehen?

Oder sollte die BOM darauf hinweisen, dass in Zukunft nur noch Daten seit (sagen wir) dem 1. November 1996 verwendet werden dürfen? (Das war der Zeitpunkt, an dem viele BOM-Wetterstationen von manueller Thermometrie auf elektronische AWS-Beobachtungen umstellten).

Gibt es auch andere Bereiche der Beobachtungswissenschaft, die ähnliche Probleme haben, oder stellt das BOM einen Sonderfall dar?

Wir mussten diesen langen Aufsatz wirklich kürzen. Hätten die WUWT-Leser gerne einen vierten Teil dieser Serie, der viel mehr über diese Temperaturen zeigt?

Schlussfolgerungen

Wir kritisieren in keiner Weise die vielen Beobachter, die die ursprünglichen Temperaturdaten aufgezeichnet haben. Unsere Sorge gilt den nachträglichen Änderungen der Originaldaten, wobei wir daran erinnern, dass das australische Bureau of Meteorology (BoM) über einen 77 Millionen Dollar teuren Cray XC-40 Supercomputer namens Australis verfügt. Ein einziger Tastendruck an einem Tag auf Australis kann die geduldige, hingebungsvolle Arbeit vieler Menschen über viele Jahrzehnte hinweg, wie die der ursprünglichen Beobachter, verändern.

Ich bitte Sie ernsthaft um Antworten auf diese Fragen, denn es gibt ein großes Problem. In der Wissenschaft der Metrologie wird häufig beschrieben, dass Messungen auf Primärnormale zurückgeführt werden müssen, wie z. B. auf den 1-Meter-Stab [das Ur-Meter], der in Frankreich für Längenmessungen verwendet wird. In dem von uns untersuchten Zweig der Meteorologie haben wir versucht, die Primärdaten nachzuweisen, sind aber gescheitert. Daher muss der Schwerpunkt auf ungewöhnliche Muster und Ereignisse in den derzeit verwendeten Daten gelegt werden. Genau das hat Tom getan. Es gibt eine sehr große Anzahl von Unregelmäßigkeiten.

Die gegenwärtig verwendeten Daten werden von der BOM verpackt und an globale Zentren geschickt, wo Schätzungen der globalen Temperatur vorgenommen werden. Tom hat zu Beginn dieses Aufsatzes gezeigt, wie das BOM ein globales Erwärmungsmuster dargestellt und vermutlich gebilligt hat, das sich durch Veränderungen im 21. Jahrhundert verstärkt hat.

Ist die angezeigte Erwärmung real oder ein Artefakt der Datenmanipulation?

Diese Frage ist von grundlegender Bedeutung, denn die globale Erwärmung hat inzwischen zu Befürchtungen einer „existenziellen Krise“ und zu Maßnahmen geführt, die darauf abzielen, die Nutzung fossiler Brennstoffe in vielen Bereichen einzustellen. Dies bedeutet enorme Veränderungen für die gesamte Gesellschaft, so dass die Daten, die zu diesen Veränderungen führen, von hoher Qualität sein müssen.

Wir zeigen, dass sie von geringer Qualität sind. Das gilt für Australien. Was ist über Ihre eigenen Länder bekannt?

Für uns Australier ist es wichtig genug, erneut zu fordern, dass unabhängige Untersuchungen, ja sogar eine königliche Kommission, eingesetzt werden, um festzustellen, ob diese Temperaturmessungen mit ihren schwerwiegenden Folgen zweckmäßig sind.

Link: https://wattsupwiththat.com/2022/10/14/uncertainty-of-measurement-of-routine-temperatures-part-iii/

Übersetzt von Christian Freuer für das EIKE