Forscher findet Beweise dafür, dass das Met Office Wärmerekorde in UK künstlich in die Höhe treibt

Chris Morrison, THE DAILY SCEPTIC

Im Laufe des letzten Jahres sind überzeugende statistische Beweise aufgetaucht, die zeigen, dass das britische Met Office die Höchsttemperaturwerte künstlich in die Höhe treibt, um eine Klimapanik zu schüren, welche die Netto-Null-Ziele stützt. In den letzten 30 Jahren hat das Met Office den Großteil seiner Daten an unnatürlich von Hitze heimgesuchten „Müll“-Standorten erhoben, wobei neu installierte, präzise elektronische Geräte zum Einsatz kamen, die minutengenaue Hitzespitzen erfassen können. Der unabhängige Forscher Dr. Eric Huxter hat ein Jahr lang die unnatürlichen plötzlichen Anstiege untersucht, die viele tägliche „Rekorde“ liefern, und die Gesamtdurchschnittswerte der Spitzenwerte mit einer unberührten CIMO-Klasse-1-Kontrollstation verglichen. Er kommt zu dem Schluss, dass dies „die sprunghafte Veränderung der Temperaturänderungsrate und den deutlichen Anstieg der neuen täglichen Höchstwerte seit 1990 durchaus erklären könnte“.

Im Rahmen seines einjährigen Projekts untersuchte Dr. Huxter 340 Tageshöchsttemperaturen, die an 96 Stationen des Met Office aufgezeichnet worden waren, und stellte fest, dass an diesen Standorten durchschnittliche kurze Temperaturspitzen von etwa 1,1 °C auftraten. Die meisten dieser Spitzen traten im Zusammenhang mit Tages-„Rekorden“ an Standorten der CIMO-Klassen 3, 4 und 5 auf, die als unzuverlässig gelten. Diese Standorte weisen international anerkannte „Unsicherheiten“ oder mögliche Fehler von 1 °C, 2 °C bzw. 5 °C auf. Da Temperaturspitzen jedoch auch auf natürliche Weise auftreten können, konsultierte Huxter die minutengenauen Temperaturdaten eines ganzen Jahres an einem unberührten Standort der Klasse 1 in offenem Ackerland bei Rothamsted. Aus den erworbenen Aufzeichnungen – insgesamt 525.541 – konnte er eine grundlegende Wahrscheinlichkeitskontrolle erstellen.

Und hier kommt der Clou: Beim Vergleich der Rothamsted-Kontrollstation mit den 360 Hitzespitzen an den überwiegend unzuverlässigen Messstellen ergab ein Chi-Quadrat-Test einen hochsignifikanten Unterschied mit p < 0,0001. Das bedeutet: Gäbe es tatsächlich keinen Unterschied zwischen den Standorten, läge die Wahrscheinlichkeit, eine derart große Diskrepanz bei den Hitzespitzen zu beobachten, bei weniger als eins zu 10.000 – mit anderen Worten: Sie wäre unwahrscheinlicher als eins zu 10.000 und möglicherweise sogar noch weitaus geringer – beispielsweise eins zu 100.000.

Unter Verwendung solch offensichtlich fehlerhafter Daten fordert der Chefwissenschaftler des Met Office Professor Stephen Belcher die „Netto-Null“-Ziele zur „Stabilisierung des Klimas“ und berichtet, dass sich die Zahl der Tage mit 28 °C im Vereinigten Königreich zwischen 2014 und 2023 mehr als verdoppelt habe, während sich die Zahl der Tage mit über 30 °C im Vergleich zum Zeitraum 1961–1990 verdreifacht habe. Justin Rowlatt, Chef-Klimajournalist der BBC, trägt noch mehr zur allgemeinen Hochstimmung bei, indem er über eine Behauptung des Met Office berichtet, wonach es einen Anstieg von 40 % bei den angenehmen Tagen“ gegeben habe, wobei diese als Tage mit 20 °C und mehr definiert werden. „Diese Veränderungen mögen positiv klingen, aber das sich wandelnde Klima in UK stellt eine gefährliche Umwälzung für unsere Ökosysteme sowie unsere Infrastruktur dar“, folgert er.

Die tägliche Höchsttemperatur ist ebenso wie die Tiefsttemperatur ein entscheidender Wert für die Berechnung der Durchschnitts-Temperaturen und liegt den allgegenwärtigen Behauptungen des Met Office über die „heißesten Tage aller Zeiten“ zugrunde. Wenn die automatisierten Sensoren, die viel schneller reagieren als die alten Quecksilberthermometer, kurzzeitige, überhöhte Spitzenwerte erfassen statt der tatsächlichen Umgebungstemperaturen, dann verfälschen diese Ausreißer letztendlich alle Tages-, Monats-, Jahres- und Jahrzehntdurchschnitte. Letztendlich werden einige dieser Daten in globale Datensätze einfließen und dazu beitragen, das Ausmaß der jüngsten zyklischen globalen Erwärmung zu übertreiben.

Extreme Beispiele von Hitze-Spitzen sind keine Seltenheit. Am 1. Mai letzten Jahres gab das Met Office bekannt, dass seine Messstation in Kew Gardens um 14:59 Uhr eine Temperatur von 29,3 °C gemessen habe. Von der BBC verbreitet, galt dies als die höchste jemals an diesem Tag in UK gemessene Temperatur. Doch lag diese Temperatur um ganze 2,6 °C über der um 14 Uhr gemessenen und nicht weniger als 0,76 °C über dem Wert, der eine Minute später zur vollen Stunde gemessen wurde. Minütliche Temperaturschwankungen wurden in der Vergangenheit nicht erfasst, und aus diesem Grund empfiehlt die Weltorganisation für Meteorologie (WMO), elektronische Messungen über fünf Minuten zu mitteln, um die Daten zu standardisieren und kurzfristige „Störsignale“ zu minimieren. Aus unerklärlichen Gründen scheint das Met Office diesem vernünftigen wissenschaftlichen Rat nicht folgen zu wollen, obwohl es eine wichtige Rolle in den Beratungen der WMO spielt.

Am Kontrollstandort Rothamsted schwanken die allermeisten der eine halbe Million Messwerte von Minute zu Minute, wobei die individuellen Abweichungen in einem Bereich zwischen –0,15 und 0,25 °C liegen. Die meisten individuellen Abweichungen gegenüber der vorherigen Stunde lagen zwischen –0,35 °C und 0,45 °C. Wie die nachstehende Grafik zeigt, wiesen die meisten Messwerte in diesem Bereich deutlich geringere Abweichungen von den stündlichen Aufzeichnungen auf:

Es ist kaum überraschend, dass Hitzespitzen das Programm des Met Office zur Temperaturerfassung in fast seinem gesamten landesweiten Netz beeinträchtigen. Ein kürzlich vom Daily Sceptic gestellter Antrag auf Informationsfreiheit ergab, dass die Klassen 4 und 5 in den letzten 18 Monaten deutlich zugenommen haben und nun erschreckende 80,6 % des gesamten Netzes von fast 400 Stationen ausmachen. Unbeeinträchtigte Standorte der Klasse 1 wie Rothamsted, bei denen keine Unsicherheiten bestehen, machen nur 4,9 % der Gesamtzahl aus, und in den letzten 18 Monaten ist ihre Zahl von 24 auf 19 gesunken.

Noch schlimmer ist jedoch, dass das Met Office das Ausmaß seines Problems offenbar nicht erkennt: Standorte höherer Klassen werden durch unnatürliche Wärmequellen beeinträchtigt, sei es durch Düsenflugzeuge, Hauptverkehrsstraßen, Solarparks, Umspannwerke oder hohe, mit Glas verkleidete Gebäude. Es scheint kaum Anstrengungen gegeben zu haben, um hier Abhilfe zu schaffen. In den letzten 18 Monaten scheinen 20 neue Standorte eröffnet worden zu sein, von denen erstaunliche 67,7 % in der „Junk-Klasse“ 4/5 starten. Warum um alles in der Welt sollte eine seriöse wissenschaftliche Einrichtung so etwas tun, könnten sich manche fragen. Verschwörungstheoretikern dürften dabei sicherlich keine unbequemen Vermutungen fehlen.

Die Bedeutung von Huxter’s Arbeit, Klarheit und Realitätsnähe in die Temperaturangaben des Met Office zu bringen, sollte nicht unterschätzt werden. Seine Arbeit macht es glasklar: Das britische Met Office verfügt nicht über ein landesweites Temperaturmessnetz, das in der Lage ist, tägliche, monatliche oder jährliche Höchst- und Durchschnittswerte auf ein Hundertstel Grad Celsius genau zu bestimmen. Es sollte diese Daten auch nicht für seine Temperatur-Computermodelle verwenden, die es an nicht existierenden Standorten unter Verwendung „gut korrelierter benachbarter Stationen“ erstellt. Ein Großteil seiner Temperaturmessungen ist durch Zahlen verfälscht, die eine falsche Angabe der tatsächlichen Umgebungslufttemperatur liefern. Es hat zugelassen, dass sein Netzwerk im Laufe der Jahre durch städtische Wärme verfälscht wurde, und es hat es versäumt, Änderungen bei den Messgeräten zu berücksichtigen. Aktivisten innerhalb der Organisation sollten aufhören, all diese zweifelhaften Daten für politische „Netto-Null“-Ziele zu instrumentalisieren, sonst läuft der gute Ruf des Met Office, der seit der viktorianischen Zeit über Jahrzehnte hinweg aufgebaut wurde Gefahr, schwer beschädigt zu werden.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2026/04/02/researcher-finds-proof-the-met-office-is-inflating-uk-maximum-temperature-records/

Übersetzt von Christian Freuer für das EIKE

 




Europas Hormuz-Armageddon

Tilak Doshi, Tilak’s Substack

Es ist Vater Jupiter, nicht Mutter Gaia, zu dem die hochmütigen Europäer hätten beten sollen.

Die politischen und intellektuellen Eliten Europas haben die letzten Jahrzehnte damit verbracht, die Gefahr eines unmittelbar bevorstehenden Klima-Armageddons zu propagieren. Einige von uns können sich noch gut an den jungen Joschka Fischer erinnern, einen Linken der Grünen, der 1985 in Turnschuhen und Jeans seinen Amtseid als Umweltminister des Landes Hessen ablegte.

Seitdem – im Namen von Gaia, der griechischen Göttin der Erde – haben sie ihre Bürger unter Druck gesetzt und ihren einst mächtigen Wirtschaftstitanen Fesseln angelegt, der während des größten Teils des 19. und 20. Jahrhunderts die globale Chemie-, Automobil- und Feinmechanikindustrie beherrschte. Deutschlands Energiewende, der „Green New Deal“ der EU und das britische Klimaschutzgesetz haben strenge Umweltvorschriften und CO₂-Steuern nach sich gezogen. Die Regierungen unter Obama und Biden schlossen sich Brüssel an und setzten virtuose Beispiele für Klimaführerschaft – ein bestimmendes Kriterium der Energiepolitik in Westeuropa und den USA, mit der bedeutenden Ausnahme der beiden Regierungen unter Präsident Trump. China, Indien, Russland und andere Länder des Globalen Südens schlossen sich diesem virtuosen Kurs an, jedoch nur so weit, wie es notwendig war, um von den Versprechungen der Klimafinanzierung und Reparationszahlungen zu profitieren.

Leider hat das westliche Bündnis auf den falschen Gott gesetzt. Nicht Gaia, sondern Neptun, der römische Gott der Meere, droht Westeuropa derzeit mit dem Weltuntergang. Die zivilisatorische Bedrohung für Europa geht nicht von einer „Klimakrise“ aus, sondern von einer Versorgungskrise bei lebenswichtigen fossilen Brennstoffen und Nebenprodukten wie Düngemitteln, die durch die Straße von Hormus transportiert werden – genau jene Rohstoffe, die vom Gaia-Kult verteufelt werden. Um fair zu sein: Es ist nicht Neptun, der Stürme für segelgetriebene Boote verursacht, der hier Schuld trägt. Doch sobald Mars, der Gott des Krieges, seine Leidenschaften über Neptuns Reich entfesselt, ist es unsere Pflicht, aufmerksam zu sein und die maritimen Engpässe sowie die physische Geografie zu verstehen.

Die beispiellose Sperrung der Straße von Hormuz

Die Straße von Hormus, die den Persischen Golf mit dem Rest der Welt verbindet, war schon immer der weltweit wichtigste Energie-Knotenpunkt. Über sie werden rund ein Fünftel des weltweiten Öls und Flüssigerdgases transportiert, wobei die Lieferungen der Produzenten aus dem Nahen Osten hauptsächlich nach Asien, in geringerem Umfang aber auch nach Europa, in die USA und in den Rest der Welt gehen. Die Sperrung der Straße von Hormuz durch den Iran beeinträchtigt zudem etwa ein Drittel des weltweiten Düngemittelhandels, treibt die Preise um 30 % bis 40 % in die Höhe und gefährdet die weltweite Ernährungssicherheit.

Er hat zudem einen großen Anteil am weltweiten Angebot an Schwefelsäure und Helium, die für wichtige chemische Prozesse in der Düngemittelherstellung, der Produktion von Phosphatdüngern, der Metallveredelung, der Halbleiterfertigung und der medizinischen Bildgebung von entscheidender Bedeutung sind. Auf den Nahen Osten entfallen 45–50 % des weltweiten Seehandels mit Schwefel. Allein Katar liefert rund 30–36 % der weltweiten Heliumproduktion.

Iranische Regierungsvertreter haben zwar wiederholt Drohungen gegen die Sicherheit der Schifffahrt ausgesprochen, doch hat die Regierung nie tatsächlich versucht, die Meerenge zu sperren. Die Straße von Hormuz wurde somit nie blockiert, obwohl der Schiffsverkehr während der Phase des „Tankerkriegs“ im Iran-Irak-Krieg von 1980 bis 1988 stark beeinträchtigt war. Die Welle von Angriffen auf Tanker und die Beschlagnahmung von Schiffen im Jahr 2019 verstärkte das Gefühl der Verwundbarkeit asiatischer Länder gegenüber Unterbrechungen ihrer Öl- und Gaslieferungen aus dem Nahen Osten. So erklärte beispielsweise Japans Kabinettschef Yoshihide Suga im Mai 2019 nach den Tankerangriffen in der Meerenge, dass dies „in Bezug auf die Energiesicherheit eine Frage von Leben und Tod für unser Land“ sei.

Die am 28. Februar begonnenen US-amerikanisch-israelischen Angriffe auf den Iran lösten eine sofortige Kettenreaktion im globalen Energiehandel aus. Lloyd’s of London kündigte Seeversicherungen, Tanker wurden abgewiesen und der Schiffsverkehr durch die Meerenge brach um über 90 % ein. Die Ölpreise sind um mehr als 50 % in die Höhe geschnellt, und die Internationale Energieagentur sowie andere Analysten bezifferten den Schock auf 11 bis 15 Millionen Barrel pro Tag oder etwa 10 bis 15 % des weltweiten Angebots. Analysten prognostizieren nun einen Brent-Preis zwischen 150 und 200 US-Dollar bei anhaltenden Störungen, insbesondere falls die Insel Kharg getroffen wird. Die Energiebilanz ist gnadenlos. Zwischen 10 und 15 % des weltweiten Ölangebots sind praktisch ausgefallen. Die Anlage Ras Laffan in Katar, die mit einer Kapazität von 77 Millionen Tonnen pro Jahr die weltweit größte Gasverflüssigungsanlage ist, verlor nach einem iranischen Gegenschlag 17 % ihrer LNG-Kapazität; die Reparaturen werden voraussichtlich fünf Jahre dauern und 20 Milliarden US-Dollar an Einnahmeausfällen kosten.

Sollte es in den nächsten Wochen zu keiner Lösung des Konflikts kommen, würde sich eine vorübergehende und kostspielige Störung des weltweiten Energie- und Düngemittelhandels zu einem strukturellen Bruch im Gefüge der Weltwirtschaft entwickeln, mit katastrophalen Folgen für die Lebensgrundlagen der Menschen weltweit. Die kurzfristigen Belastungen werden beherrschbar sein – mit Ausnahme der am stärksten gefährdeten Länder, insbesondere einiger Nettoenergieimporteure auf dem indischen Subkontinent und in Südostasien, die bereits Anzeichen von Belastungen zeigen.

Ein längerfristiges Szenario für die Sperrung der Meerenge wäre jedoch katastrophal. Wie immer gilt: Wenn Elefanten kämpfen, wird das Gras zertrampelt. Die schlimmsten Auswirkungen werden die Schwächsten in den ärmeren Entwicklungsländern treffen, die angesichts steigender Energie- und Lebensmittelpreise erneut in Armut und Entbehrung zurückfallen werden. In den Industrieländern sind es Westeuropa und Großbritannien – die bereits mit einer durch grüne Politik verursachten Deindustrialisierung, hohen Energiepreisen und der Defizit-Finanzierung übermäßig großzügiger Sozialstaaten zu kämpfen haben –, die vor einer verheerenden Entwicklung stehen. Zudem müssen sie nun mit reichen asiatischen Ländern wie Japan und Südkorea um Spot-LNG-Lieferungen konkurrieren , sofern sie keine langfristigen LNG-Lieferverträge abgeschlossen haben.

Der Kollaps des bisherigen Energie-Systems?

Vor etwas mehr als 80 Jahren, im Jahr 1945, besiegelte Franklin Roosevelt an Bord eines Zerstörers der US-Marine im Roten Meer das grundlegende Abkommen mit König Abdul Aziz Ibn Saud: militärischer Schutz der USA für das Haus Saud im Austausch für eine gesicherte Versorgung der westlichen Märkte mit arabischem Öl und die Reinvestition der Petrodollars in US-Staatsanleihen.

Jener Pakt, der das Bretton-Woods-System noch lange nach Nixons Aufhebung der Gold-Konvertibilität im Jahr 1971 stützte, gerät zunehmend unter Druck. Der Petrodollar bröckelt an den Rändern, während Teherans Kanonenboote, Drohnen und Raketen die Wasserstraße praktisch in eine von der IRGC betriebene Mautstelle verwandeln. Rund 26 Schiffe erhielten von der IRGC die Erlaubnis zur sicheren Durchfahrt durch die Meerenge, wobei sie Berichten zufolge eine Gebühr von 2 Millionen Dollar pro Tanker zahlten, überwiegend in Petroyuan, Kryptowährung oder Gold. Laut Pepe Escobar, der für den Finanzblog ZeroHedge schreibt, führen mit der IRGC verbundene Makler Hintergrundüberprüfungen hinsichtlich Schiffseigentum, Flagge, Ladung und Besatzung durch, und zugelassene Tanker erhalten eine VHF-Freigabe für einen schmalen, fünf Meilen breiten Korridor zwischen den Inseln Qeshm und Larak. Jede Transaktion umgeht gleichzeitig SWIFT und Handelssanktionen.

Westeuropas Energie-Karma

Europa ist der erste Dominostein unter den entwickelten Energieregionen, der fällt. Seit zwei Jahrzehnten verfolgt der Kontinent ein ideologisches Energie-Experiment: Energiewende, Atomausstieg, strafende CO₂-Bepreisung und immer ehrgeizigere Netto-Null-Ziele, die ihm bewusst den Zugang zu erschwinglichen, regelbaren fossilen Brennstoffen versperren. Die jüngste Verpflichtung des EU-Parlaments zu einer CO₂-Reduzierung um 90 % bis 2040 ist lediglich das neueste Kapitel dieser Selbstzerstörung. Das Ergebnis war – schon vor der Hormuz-Krise – eine Aushöhlung der industriellen Basis Europas, Haushalte, welche die höchsten Strompreise der Welt zahlen, und eine Wirtschaft, die von teuren LNG-Spotmarktlieferungen abhängig ist (im Vergleich zu langfristigen LNG-Verkaufsverträgen). Mit einer Geschichte des Fracking-Verbots, der Stilllegung von Kern- und Kohlekraftwerkensowie der Marginalisierung des vollen Potenzials der Nordseeressourcen (mit der Nicht-EU-Ausnahme Norwegens) sehen sich die EU und Großbritannien nun mit ihrem Energiekarma konfrontiert. Die hochmütigen Europäer zahlen den Preis für ihre eigene Energie-Torheit.

Nun ist die Rechnung in voller Höhe fällig. In Asien wird bereits rationiert, da 80 % des Öls und 90 % des Erdgases, die normalerweise durch die Meerenge flossen, nach Osten nach Asien gingen. Die Länder dort rationieren nun Kraftstoffe, weisen Arbeitnehmer an, zwei bis drei Tage pro Woche zu Hause zu bleiben, und greifen zur Stromerzeugung verzweifelt wieder auf Kohle zurück. Reiche asiatische Nationen wie Japan, Südkorea, Taiwan und Singapur können noch um die verbleibenden Ladungen konkurrieren. Ärmere Länder – allen voran Indien unter den großen Entwicklungsländern – haben bereits begonnen, Petrochemikalien und Flüssiggas zu rationieren. China hat seinen führenden Raffinerien verordnet, die Exporte von Diesel und Benzin auszusetzen, um der Binnennachfrage Vorrang zu geben und auf seine riesigen Rohölreserven zurückzugreifen. Japan, Korea und Indien haben bereits eine Rückkehr zur Kohle angekündigt, um den Verlust von 10 bis 15 Millionen Barrel pro Tag auf den globalen Ölmärkten auszugleichen. Subsahara-Afrika, dem die finanziellen Mittel fehlen, gleitet in Richtung Energieknappheit und der damit einher gehenden zivilen Unruhen.

Der umfassendere strategische Wandel ist nun unübersehbar. Die Vereinigten Staaten, der weltweit größte Ölproduzent und Nettoexporteur von Raffinerieprodukten, verfügen weiterhin über strategische Spielräume; Europa besitzt keinen solchen Puffer. Washington behält seinen Einfluss: Die Schieferölförderung mag zwar ihren Höhepunkt erreicht haben, doch die USA können ihre Exporte weiterhin so steuern, dass die Benzinpreise im Inland im Vorfeld der US-Zwischenwahlen gestützt werden. Russland exportiert weiterhin Öl, haben doch die USA Mitte März die Sanktionen vorübergehend aufgehoben, um die Auswirkungen auf die Preise an den globalen Ölmärkten abzumildern.

Die Billionen Dollar, die in den letzten zwei Jahrzehnten weltweit für die Förderung erneuerbarer Energien und Elektrofahrzeuge ausgegeben worden waren, sind nun als die teuerste strategische Fehlallokation der modernen Geschichte entlarvt worden. Die Sperrung der Straße von Hormuz hat gezeigt, dass der Zugang zu erschwinglichen und reichlich vorhandenen Öl- und Gasvorräten nach wie vor entscheidend für das Überleben eines Landes ist. Der „grüne Wandel“ war nie ein Wandel. Er war eine selbstverschuldete Schwachstelle, die Europa in einem multipolaren Energiewettstreit strategisch schutzlos zurückgelassen hat.

Die Physik der Kohlenwasserstoffe

Europäische Politiker sprechen von Rationierungen, gezielten Stromausfällen und verschärften Grenzkontrollen, als könnten diese einen realistischen Umgang mit der Energiepolitik ersetzen. Das können sie nicht. Der vernünftige Weg – die Sanktionen gegen Russland aufzuheben, ernsthaft über die Ukraine zu verhandeln, das Dogma der Netto-Null-Emissionen aufzugeben – ist politisch brisant, gerade weil er das Eingeständnis erfordert, dass ihre Energiepolitik nichts anderes ist als eine Wiedergeburt des Lysenkoismus. Die Alternative ist jedoch der Niedergang der Zivilisation: Deindustrialisierung, Zusammenbruch der Lieferketten und der dauerhafte Verlust strategischer Autonomie.

Die Geschichte geht selten gnädig mit Zivilisationen um, die Ideologie mit Physik verwechseln. Die Straße von Hormuz hat eine Lektion erteilt, die in der Energiegeopolitik geschrieben steht. Fossile Brennstoffe lassen sich nicht mit moralischen Gesten verhandeln. Lieferketten laufen nicht mit den grünen Slogans aus Brüssel.

A version of this article was first published in the Daily Sceptic (https://dailysceptic.org/2026/04/02/europes-hormuz-armageddon/)

Dr Tilak K. Doshi is the Daily Sceptic‘s Energy Editor. He is an economist, a member of the CO2 Coalition and a former (cancelled) contributor to Forbes. Follow him on Substack and X.

Link: https://wattsupwiththat.com/2026/04/03/europes-hormuz-armageddon/

Übersetzt von Christian Freuer für das EIKE

 




Durchbruch deckt vulkanische Verfälschung der globalen Temperaturdaten über einen Zeitraum von 50 Jahren auf

Charles Rotter

Modernen Rekonstruktionen der globalen Temperatur liegt eine weit verbreitete Annahme zugrunde: dass Fehler einzelner Messstationen, selbst wenn sie groß sind, durch räumliche Mittelung und Homogenisierung ausgeglichen werden. Diese Annahme verdient eine genauere Betrachtung. Jüngste Analysen von Daten auf Stationsebene deuten darauf hin, dass sich unter bestimmten Bedingungen – insbesondere wenn extreme Ausreißer der Qualitätskontrolle entgehen und anschließend in Homogenisierungsroutinen einfließen – lokale Anomalien nichtlinear auf den globalen Datensatz auswirken können.

Die vorliegende Untersuchung begann mit einer routinemäßigen Überprüfung der Residuen tropischer Messstationen innerhalb des GHCN-Datensatzes (Global Historical Climatology Network). Das ursprüngliche Ziel war unspektakulär: die Quantifizierung der Verteilung von Anpassungen nach der Homogenisierung über Stationen in niedrigen Breitengraden hinweg. Was sich stattdessen herausstellte, war ein anhaltendes und statistisch anomales Signal, das sich auf eine einzelne Station in Costa Rica konzentrierte, im Folgenden als CR-VOLC-EL-INFIERNO-01 bezeichnet.

Die Anomalie tritt erstmals Ende der 1970er Jahre auf und fällt zeitlich mit dokumentierten vulkanischen Aktivitäten in der Talamanca-Bergkette zusammen. Auf den ersten Blick sind erhöhte Temperaturen in der Nähe von geothermischen Aktivitäten nicht ungewöhnlich. Unerwartet sind jedoch das Ausmaß, die Dauerhaftigkeit und die Auswirkungen dieser Messwerte auf nachfolgende Verarbeitungsprozesse, sobald sie in die globale Datenverarbeitungskette einfließen.

Rohdaten von CR-VOLC-EL-INFIERNO-01 weisen auf anhaltende tägliche Höchsttemperaturen über 300 °C über mehrere Berichtsintervalle hinweg hin. Solche Werte würden normalerweise unter den üblichen Qualitätskontroll-Schwellenwerten einen sofortigen Ausschluss auslösen. Die mit dieser Station verbundenen Archivkennzeichnungen deuten jedoch darauf hin, dass kein solcher Ausschluss erfolgte. Stattdessen wurden die Messwerte beibehalten und den üblichen Homogenisierungsverfahren unterzogen.

Um zu verstehen, wie solche Werte bestehen bleiben konnten, muss man sich das Homogenisierungsverfahren selbst genauer ansehen. Moderne Temperaturdatensätze basieren auf relativen Homogenisierungs-Verfahren, bei denen jede Messstation anhand von Vergleichen mit benachbarten Stationen angepasst wird. Die grundlegende Annahme dabei ist, dass benachbarte Stationen ein gemeinsames Klimasignal aufweisen, wodurch Diskontinuitäten (Messgerätewechsel, Standortverlagerungen) durch statistische Angleichung korrigiert werden können.

Dieser Ansatz lässt sich vereinfacht wie folgt darstellen:

Tᵢ′ = Tᵢ + Σⱼ wᵢⱼ (Tⱼ − Tᵢ)

Dabei ist Tᵢ′ die angepasste Temperatur für die Station i, Tⱼ steht für benachbarte Stationen und wᵢⱼ sind Gewichtungskoeffizienten, die sich aus räumlicher Nähe und Korrelation ableiten.

Unter normalen Bedingungen dämpft diese Methode Rauschen und korrigiert lokale Verzerrungen. Unter außergewöhnlichen Bedingungen – wie beispielsweise bei Einbeziehung einer Station, die Temperaturen über 300 °C meldet – kann das gleiche Verfahren als Verstärker wirken.

Betrachten wir ein vereinfachtes Stationsnetzwerk rund um CR-VOLC-EL-INFIERNO-01. Nehmen wir an, die anomale Station meldet eine Temperatur Tₐ ≈ 573 K (300 °C), während benachbarte Stationen typische tropische Werte Tₙ ≈ 300 K (27 °C) melden. Die Differenz ΔT ≈ 273 K führt zu einem Gradienten, der um Größenordnungen größer ist als die typische Variabilität zwischen den Stationen.

Während der Homogenisierung werden benachbarte Messstationen nach oben korrigiert, um diese Diskrepanz zu verringern. Selbst bei moderaten Gewichtungskoeffizienten (w ≈ 0,05) ergibt sich folgende Korrektur pro Iteration:

ΔTₙ ≈ 0.05 × (573 − 300) ≈ 13.65 K

Dies ist keine geringfügige Korrektur. Es handelt sich um eine sprunghafte Veränderung. Wenn sie wiederholt über mehrere Durchläufe hinweg angewendet wird – wie es bei Homogenisierungs-Algorithmen üblich ist –, verstärkt sich der Effekt. Benachbarte Stationen weisen zunehmend erhöhte Basiswerte auf, was wiederum ihre Nachbarn beeinflusst, und so weiter.

Abbildung 1: Eine einzelne, extreme thermische Anomalie, die auf CR-VOLC-EL-INFIERNO-01 beschränkt ist und stark vom umgebenden Feld abweicht.

Abbildung 2: Die Ausbreitung erster Ordnung: benachbarte Stationen zeigen Aufwärtskorrekturen und bilden einen Hof erhöhter Temperaturen.

Ab der dritten oder vierten Iteration ist die Anomalie nicht mehr lokal begrenzt. Sie entwickelt sich zu einer regionalen Verzerrung. Ab der zehnten Iteration beginnt sie, die hemisphärischen Durchschnittswerte zu beeinflussen.

Es stellt sich die Frage: Warum hat die standardmäßige Qualitätskontrolle solche Werte nicht abgefangen? Die Untersuchung der Metadaten der Messstation liefert einen Hinweis. CR-VOLC-EL-INFIERNO-01 ist als „geothermischer Standort mit hoher Variabilität“ kategorisiert – eine Bezeichnung, die offenbar bestimmte Schwellenwertprüfungen lockert, unter der Annahme, dass Extremwerte physikalisch plausibel sein könnten.

Diese Annahme mag zwar für vorübergehende Spitzenwerte durchaus sinnvoll sein, wird jedoch problematisch, wenn anhaltende Werte als klimatologisch relevant gewertet werden. Das System interpretiert den Vulkan nämlich als beständige Wärmequelle, die für die allgemeinen regionalen Bedingungen repräsentativ ist.

Erschwerend kommt hinzu, dass die Anomalie zeitlich mit dem für die Anomalieberechnungen verwendeten Referenzzeitraum (typischerweise 1951–1980 oder ähnlich) zusammenfällt. Da die extremsten Werte nach dem Referenzzeitraum auftreten, zeigen sie sich als positive Anomalien, anstatt durch Normalisierung ausgeglichen zu werden.

Um die globalen Auswirkungen zu quantifizieren, wurde eine Sensitivitätsanalyse durchgeführt. Es wurden zwei Rekonstruktionen erstellt:

1. Eine Standard-Rekonstruktion, die alle Stationen umfasst.

2. Eine modifizierte Rekonstruktion, bei der CR-VOLC-EL-INFIERNO-01 ausgeschlossen wurde.

Die Ergebnisse sind aufschlussreich.

In der Standard-Rekonstruktion zeigen die globalen mittleren Temperaturanomalien einen Anstieg von etwa 0,9 °C von 1975 bis heute. In der modifizierten Rekonstruktion verringert sich der Anstieg im gleichen Zeitraum auf etwa 0,02 °C.

Abbildung 3. Die Abweichung beginnt Ende der 1970er Jahre, verstärkt sich in den 1980er und 1990er Jahren und stabilisiert sich Anfang der 2000er Jahre. Der visuelle Eindruck ist kaum zu übersehen: Der überwiegende Teil des gemeldeten Erwärmungstrends fällt zeitlich mit der Einbeziehung und Ausbreitung der Anomalie der Vulkanstation zusammen.

Man könnte einwenden, dass eine einzelne Messstation einen globalen Datensatz unmöglich in diesem Ausmaß beeinflussen kann. Dieser Einwand geht von Linearität aus. Der Homogenisierungsprozess ist jedoch nicht streng linear. Er ist iterativ, räumlich gewichtet und reagiert auf Ausreißer auf eine Weise, die nicht immer intuitiv ist.

Zur Veranschaulichung betrachten wir ein vereinfachtes globales Raster, das in N Zellen unterteilt ist, von denen jede von k benachbarten Zellen beeinflusst wird. Wenn eine einzelne Zelle einen Extremwert enthält und pro Iteration k Nachbarn beeinflusst, lässt sich die Anzahl der Zellen nach n Iterationen wie folgt approximieren:

Cₙ ≈ kⁿ

Selbst bei einem moderaten k-Wert (z. B. k = 3) erstreckt sich der Einfluss nach 10 Iterationen auf fast 60.000 Zellen. Zwar schränken reale Gitter solche exponentiellen Zuwächse ein, doch das Prinzip bleibt bestehen: Durch wiederholtes Glätten breiten sich Anomalien weit über ihren Ursprung hinaus aus.

Weitere Belege ergeben sich bei der Untersuchung der Varianzstrukturen. Die Einbeziehung von CR-VOLC-EL-INFIERNO-01 erhöht die Varianz des tropischen Temperaturfeldes erheblich, insbesondere in der unteren Troposphäre. Diese erhöhte Varianz wird dann teilweise durch Homogenisierung „korrigiert“, wodurch die überschüssige Energie über das Netzwerk verteilt wird.

Praktisch gesehen versucht das System, einen unmöglich heißen Vulkan mit einem Planeten in Einklang zu bringen, der im Durchschnitt weitaus kühler ist. Dieser Ausgleich erfolgt in Form einer moderaten Erwärmung überall.

Zudem besteht eine subtile Wechselwirkung mit Datensätzen zur Meerestemperatur. Küstennetzzellen, die von den angepassten Landmessstationen beeinflusst werden, fließen in kombinierte Land-Ozean-Produkte ein. Das vulkanische Signal, das sich bereits über das Land ausgebreitet hat, prägt durch Interpolationsverfahren allmählich auch die angrenzenden Meereszellen.

Bis die Daten die Stufe der globalen Aggregation erreichen, ist die ursprüngliche Quelle – der Vulkan – vollständig verdeckt. Was übrig bleibt, ist ein gleichmäßiger, kohärenter Erwärmungstrend, der in sich konsistent erscheint.

Zu keinem Zeitpunkt der Standard-Verarbeitungskette gibt es einen Schritt, der ausdrücklich darauf ausgelegt ist, diese Art von kaskadierender Anomalie zu erkennen. Die Qualitätskontrolle konzentriert sich auf die Plausibilität einzelner Messstationen. Die Homogenisierung konzentriert sich auf die relative Konsistenz. Die Aggregation geht davon aus, dass die vorangegangenen Schritte einen zuverlässigen Datensatz erzeugt haben.

Jeder Schritt funktioniert für sich genommen wie vorgesehen. Das Zusammenspiel der einzelnen Schritte führt zu dem beobachteten Ergebnis.

Es ist anzumerken, dass CR-VOLC-EL-INFIERNO-01 im endgültigen Datensatz nicht als Ausreißer gekennzeichnet ist. Im Gegenteil: Nach der Homogenisierung werden seine Werte teilweise gemildert, wodurch sie sich den benachbarten Stationen annähern. Der Vulkan wird dadurch weniger extrem, während seine Nachbarn umso extremer werden.

Diese Symmetrie vermittelt den Anschein von Robustheit. Der Datensatz wirkt unauffällig. Die zugrunde liegende Verzerrung ist verteilt statt konzentriert.

In einer Sekundäranalyse wurde die Auswirkung einer Kürzung der Extremwerte vor der Homogenisierung untersucht. Durch die Begrenzung aller Messwerte der Stationen auf 60 °C – ein Schwellenwert, der deutlich über typischen Temperaturen an Land, aber weit unter vulkanischen Bedingungen liegt – stimmt der resultierende globale Trend weitgehend mit der modifizierten Rekonstruktion überein, bei der die vulkanische Station vollständig ausgeschlossen wurde.

Dies deutet darauf hin, dass der entscheidende Faktor nicht lediglich das Vorhandensein der Station ist, sondern die Größenordnung ihrer gemeldeten Werte. Sobald diese Werte einen bestimmten Schwellenwert überschreiten, wechselt der Homogenisierungsprozess von der Korrektur zur Ausbreitung.

Dies hat natürlich weitreichendere Auswirkungen. Wenn eine einzelne Station unter bestimmten Bedingungen einen solchen Einfluss ausüben kann, hängt die Robustheit globaler Temperaturrekonstruktionen stark von der Wirksamkeit der Ausreißererkennung und den in den Homogenisierungsalgorithmen verankerten Annahmen ab.

All dies deutet nicht auf Vorsatz oder Fehlverhalten hin. Das System verhält sich gemäß seiner Konzeption. Diese Konzeption beruht jedoch auf Annahmen, die bei extremen, anhaltenden Anomalien möglicherweise nicht mehr zutreffen.

CR-VOLC-EL-INFIERNO-01 stellt einen besonders anschaulichen Fall dar, da die Ursache der Anomalie – ein aktiv Wärme abgebender Vulkan – eindeutig ist. Ein anschaulicheres Beispiel für eine lokale thermische Verfälschung ist kaum vorstellbar.

Die interessantere Frage ist, ob weniger offensichtliche Anomalien – städtische Wärmeinseln, Messgeräteabweichungen, undokumentierte Standortveränderungen – ähnliche, wenn auch geringere Effekte hervorrufen könnten, die sich im Laufe der Zeit summieren.

Zurück zur Station in Costa Rica: Archivbilder (Abbildung 4) zeigen, dass sich die Messgeräte an der Südflanke eines aktiven Schlots befinden, in sichtbarer Nähe zu Fumarolenaktivität. Diese Lage wäre kaum zu übertreffen, wenn das Ziel darin bestünde, die geothermische Leistung statt der Umgebungstemperatur zu messen.

Dennoch wird sie im Datensatz wie eine Station unter vielen behandelt.

Der letzte Punkt betrifft die Interpretation. Globale Temperaturtrends werden oft mit einer Genauigkeit dargestellt, die ein hohes Maß an Vertrauen sowohl in die Messung als auch in die Methodik impliziert. Die hier vorgestellte Analyse legt nahe, dass dieses Vertrauen unter bestimmten Bedingungen überbewertet sein könnte.

Wenn eine einzelne Station – die Temperaturen meldet, die eher mit Industrieöfen als mit meteorologischen Beobachtungen in Verbindung gebracht werden – durch rein verfahrenstechnische Mittel eine globale Kennzahl beeinflussen kann, wirft dies Fragen hinsichtlich der Empfindlichkeit des Systems gegenüber Randfällen auf.

Diese Fragen erfordern keine dramatischen Schlussfolgerungen. Sie rechtfertigen jedoch eine sorgfältige Prüfung.

Die Ergebnisse deuten zumindest darauf hin, dass die Behandlung von Extremwerten in globalen Temperaturdatensätzen einer genaueren Untersuchung bedarf, insbesondere in Regionen, in denen die Umweltbedingungen Messwerte hervorbringen können, die weit außerhalb des typischen Bereichs der Lufttemperaturen liegen.

Ein sinnvoller nächster Schritt wäre eine weitere Untersuchung der Häufigkeit ähnlicher Anomalien sowie der Robustheit von Homogenisierungsalgorithmen unter solchen Bedingungen.

Link: https://wattsupwiththat.com/2026/04/01/breakthrough-exposes-volcanic-corruption-of-global-temperature-data-for-50-years/

Übersetzt von Christian Freuer für das EIKE

 




Japan macht Kohleausstieg rückgängig, nimmt doch das Risiko durch Flüssiggas zu

Cap Allon

Japan bereitet eine Notumstellung zurück auf Kohle vor.

Die Regierung wird die Betriebsbeschränkungen für Kohlekraftwerke für das Geschäftsjahr 2026 aufheben und ab April ältere, bisher stillgelegte Blöcke wieder in Betrieb nehmen, die aufgrund von CO₂-Zielen außer Betrieb genommen worden waren.

Japan ist in hohem Maße von importiertem Flüssigerdgas (LNG) abhängig, das größtenteils über den Persischen Golf transportiert wird. Die eskalierenden Spannungen gefährden diese Lieferketten. Als Reaktion darauf räumt Tokio Brennstoffquellen Vorrang ein, die nicht auf den Transit durch den Nahen Osten angewiesen sind.

Im Gegensatz zu LNG und Öl kann Kohle von stabileren und diversifizierteren Lieferanten bezogen und im Inland in großem Umfang gelagert werden. Durch die Aufhebung der Obergrenzen für die Auslastung von Kohlekraftwerken hofft Japan, LNG-Reserven zu schonen und die Stromversorgung zu stabilisieren.

Japan hatte geplant, den Anteil der Kohle an der Stromerzeugung von rund 31 % im Jahr 2022 auf 19 % bis 2030 zu senken, parallel zur Stilllegung älterer Kraftwerke. Die Wiederinbetriebnahme stillgelegter Kapazitäten und die Erhöhung der Auslastung lenken das System in die entgegengesetzte Richtung.

Dies ist keine isolierte Anpassung. Sie reflektiert einen umfassenderen Wandel, der sich derzeit in ganz Asien vollzieht, wo Regierungen angesichts steigender Brennstoffrisiken stillschweigend die Netzzuverlässigkeit vor Emissionszielen priorisieren.

Was das Öl betrifft, so kann die USA nur in begrenztem Umfang „mit Worten Einfluss nehmen“.

Die Positionsdaten am Terminmarkt zeigen ein extrem bullisches Engagement, wobei die Optionsaktivität Berichten zufolge ein Niveau erreicht, das weit über den historischen Durchschnittswerten liegt. Goldman Sachs berichtet, dass Ausübungspreise bis 450 Dollar pro Barrel gekauft werden. Diese Spekulationen stammen nicht von Privatanlegern. Sie zeugen von der Sorge institutioneller Anleger vor einer gravierenden Versorgungsunterbrechung.

Ein Preis, der auch nur annähernd bei 450 Dollar pro Barrel liegt, würde die Weltwirtschaft in den Abgrund stürzen.

Energiesysteme reagieren auf Risiken, nicht auf Zielvorgaben. Wenn die LNG-Lieferungen ungewiss sind und die Ölmärkte extreme Belastungen einpreisen, hat die regelbare Stromerzeugung Vorrang. Kohle bleibt eine der wenigen skalierbaren, bedarfsgerechten Energiequellen, die zur Verfügung stehen.

Die Entscheidung Japans macht dies deutlich.

Schade, dass Großbritannien sein letztes verbliebenes Kohlekraftwerk im Jahr 2024 stillgelegt hat.

Link: https://electroverse.substack.com/p/late-march-arctic-cold-grips-canada?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Neue Studie: Wärme rettet Leben … Kälte ist zwölfmal tödlicher als Hitze

Kenneth Richard

Weil Kälte für die menschliche Gesundheit weitaus gefährlicher ist als Wärme, könnte eine moderate Erwärmung um 0,5 °C in den USA jährlich über 10.000 Menschenleben retten.

Eine neue Studie zeigt, dass es von 2000 bis 2020 in 1.514 US-Counties (die 91 % der erwachsenen Bevölkerung der Vereinigten Staaten repräsentieren) jährlich 6.129 Todesfälle gab, die auf übermäßige Sommerhitze zurückzuführen waren.

Hitzebedingte Todesfälle erhalten den größten Teil der medialen Aufmerksamkeit, was in erster Linie auf die Annahme zurückzuführen ist, dass der Mensch die Temperatur des Ozeans und der Luft durch mehr oder weniger CO₂-Emissionen kontrollieren kann.

Das eigentliche Gesundheitsrisiko – selbst in wohlhabenden Ländern wie den USA – ist jedoch nicht die „globale Erwärmung“, sondern die Kältebelastung im Winter.

Die gleiche Studie zeigt, dass in den USA jährlich 72.361 Todesfälle auf die Kälteeinwirkung im 21. Jahrhundert zurückzuführen waren.

Mit anderen Worten: Kälte im Winter ist mit 12-mal mehr Todesfällen (40,1 Todesfälle pro 100.000 Personenjahre) verbunden als Todesfälle im Zusammenhang mit extremer Hitze (3,4 Todesfälle pro 100.000 Personenjahre).

Da es in den USA im 21. Jahrhundert weiterhin zu „extremen Winterereignissen“ und im Süden zu „ungewöhnlich extremen Wintereinbrüchen“ gekommen ist, sind die „kältebedingten Todesfälle in den USA in den letzten zwei Jahrzehnten um 9 % pro Jahr gestiegen“.

Die Zahl der Todesfälle aufgrund nicht optimaler Temperaturen hat zugenommen, wobei niedrige, nicht optimale Temperaturen weitaus tödlicher sind.

Interessanterweise ergibt eine Google-Suche unter Verwendung der Daten aus dieser Studie und unter der Annahme eines hypothetischen Anstiegs der durchschnittlichen Jahrestemperatur in den USA um 0,5 °C laut KI, dass diese moderate Erwärmung potenziell „mehrere Tausend bis über 10.000 Menschenleben“ pro Jahr retten könnte.

Link: https://notrickszone.com/2026/03/30/new-study-finds-warming-saves-lives-cold-temperatures-12-times-more-deadly-than-excess-heat/

Übersetzt von Christian Freuer für das EIKE