Wie viele Milliarden Menschen würden im Zuge von Net Zero zu Tode kommen?

Chris Morrison, THE DAILY SCEPTIC

Der BBC-Kauz Chris Packham hat sich gegen Behauptungen in Neil Olivers GB News-Show gewehrt, wonach die Hälfte der Weltbevölkerung sterben könnte, wenn Net Zero vollständig umgesetzt würde. „Können Sie bitte erklären, wie Sie die Ausstrahlung dieses völligen Blödsinns zulassen können“, schimpft er. Zu Ofcom zu rennen scheint eine Schutzmaßnahme für den Handel zu sein – Millionen werden sterben ist seit Jahrzehnten der bewährte Modus Operandi des Klimakatastrophisten Chris.

Es scheint sich um denselben Chris Packham zu handeln, der im Oktober 2010 dem Telegraph sagte, es gebe zu viele Menschen auf dem Planeten und „wir müssen etwas dagegen tun“. Im Jahr 2020 teilte er der Daily Mail mit, dass Pocken, Masern, Mumps und Malaria „ganz offen gesagt“ dazu da seien, „unsere Bevölkerung zu regulieren“. Im Laufe seiner Fernsehkarriere hat Packham, unbehelligt vom Interesse der Ofcom, ein Massenaussterben allen Lebens auf der Erde an die Wand gemalt, wenn die Menschen nicht aufhören, Kohlenwasserstoffe zu verbrennen. Natürlich gibt es Leute, die darauf hinweisen, dass diese populären Massenaussterben nur in Computermodellen zu existieren scheinen. In der Zwischenzeit haben Kohlenwasserstoffe in vielen Teilen des Planeten, der heute eine nachhaltige Bevölkerung von acht Milliarden Menschen beherbergt, zu einem beispiellosen Wohlstand und einer Gesundheit geführt, die für frühere Generationen unvorstellbar war.

Natürlich wird Net Zero nicht vier Milliarden Menschen umbringen, denn Net Zero wird es nie geben. Tag für Tag bröckelt die Unterstützung auf der ganzen Welt, da das politische Kollektivierungsprojekt, das sich auf zunehmend diskreditierte Computermodelle stützt, auf den harten Felsen der Realität zu stoßen beginnt. Die Geschichte lehrt uns, dass Stämme, die schwach und dekadent werden, eine leichte Beute für ihre stärkeren Nachbarn sind. Aber die Behauptung, dass vier Milliarden Menschen sterben werden, wenn die Weltbevölkerung jemals den Netto-Nullpunkt erreichen sollte, ist es wert, untersucht zu werden. Schließlich ist es wahrscheinlich, dass sie wahr ist.

Die in GB News erwähnten vier Milliarden Toten gehen auf eine Bemerkung von Dr. Patrick Moore zurück, einem der ursprünglichen Gründer von Greenpeace. In einem Interview auf Fox News sagte er: „Wenn wir fossile Brennstoffe verbieten, würde die landwirtschaftliche Produktion zusammenbrechen. Die Menschen würden verhungern, und die Hälfte der Bevölkerung würde in kürzester Zeit sterben“. Vier Milliarden Tote bei einem Verbot von Kunstdünger sind kein „BS“, sondern ein fast garantiertes Ergebnis. In einer kürzlich erschienenen wissenschaftlichen Abhandlung stellten die emeritierten Professoren William Happer und Richard Lindzen vom Princeton bzw. MIT fest, dass „die Abschaffung von Stickstoffdünger und Pestiziden, gewonnen aus fossilen Brennstoffen, zu einer weltweiten Hungersnot führen wird“. Dank des Einsatzes von Stickstoffdünger sind die Ernteerträge in den letzten Jahrzehnten weltweit stark angestiegen, und natürliche Hungersnöte – im Gegensatz zu den vom Menschen verursachten lokalen Ausbrüchen – sind weitgehend verschwunden.

Ein Großteil der Net-Zero-Besessenheit der luxuriösen Mittelschicht beruht auf einem scheinbaren Hass auf den menschlichen Fortschritt. Es ist eine Kampagne, um die Vorteile der Massenindustrialisierung zurückzudrängen, obwohl es zweifelhaft ist, dass viele der glühenden Befürworter glauben, dass die drastischen Reduzierungen des Lebensstandards sie selbst betreffen werden. Es handelt sich um Narzissmus auf Stelzen, der auf einer fast vollständigen Unkenntnis darüber beruht, wie die Lebensmittel auf ihre Teller kommen, die sie zu sich nehmen. Es zeigt eine völlige Missachtung der zentralen Rolle, die Kohlenwasserstoffe in ihrem Leben spielen. Sie beruht auf einer tiefen Abneigung gegen fast alle modernen Herstellungsverfahren. Heutzutage kennen sie keine Menschen mehr, die tatsächlich etwas herstellen, und wenn sie sie treffen, mögen sie sie oft nicht. Der durchgeknallte Guardianista George Monbiot twitterte kürzlich, dass die Abschaffung der Tierhaltung genauso wichtig sei wie die Beibehaltung der fossilen Brennstoffe im Boden. „Der Verzehr von Fleisch, Milch und Eiern ist ein Genuss, den sich der Planet nicht leisten kann“, fügte er hinzu.

Wenn wir die fossilen Brennstoffe im Boden lassen, werden die Folgeprodukte weitgehend verschwinden.

Die Illustration, die in den sozialen Medien verbreitet und kürzlich von Paul Homewood veröffentlicht wurde, ist ein Weckruf für die Bedeutung von Kohlenwasserstoffen. Ohne sie wäre es für die Menschen schwierig, viele Medikamente und Kunststoffe herzustellen. Ähnliche Schwierigkeiten gäbe es bei der Herstellung gängiger Produkte wie Kleidung, Lebensmittel Konservierungsmittel für Lebensmittel, Reinigungsmittel und weiche Kontaktlinsen.

Alec Epstein, der Autor des Bestsellers Fossil Future, stimmt zu, dass eine Netto-Null-Politik bis 2050 „apokalyptisch zerstörerisch wäre und in der Tat bereits katastrophal zerstörerisch gewesen ist, obwohl sie bislang kaum umgesetzt wurde. Dies ist vielleicht eine Anspielung auf die bösartige Politik westlicher Banken und Eliten, die sich weigern, Kredite für den Bau von mit Kohlenwasserstoffen betriebenen Wasseraufbereitungsanlagen in den ärmeren Teilen der Entwicklungsländer zu vergeben. Milliarden von Menschen fehlt immer noch die kostengünstige Energie, die sie für ein Leben in Wohlstand und Sicherheit benötigen, stellt Epstein fest. Viele Menschen in den Entwicklungsländern kochen immer noch mit Holz und Dung. Wie Happer und Lindzen ist auch er der Meinung, dass bei einer Umsetzung von Net Zero „praktisch alle acht Milliarden Menschen auf der Welt in Armut und einen vorzeitigen Tod stürzen werden“.

Vieles von dem, was geplant ist, liegt im Verborgenen. Die von reichen Milliardären finanzierte C40-Gruppe, deren Vorsitz der Londoner Bürgermeister Sadiq Khan innehat, hat eine Rationierung im Stil des Zweiten Weltkriegs mit einer täglichen Fleischmenge von 44 g untersucht. Auch die Einschränkung des Individualverkehrs und massive Beschränkungen des Flugverkehrs wurden in Betracht gezogen. Das Mitglied der Labour-Partei, Khan, hat die Anliegen seiner elitären Zahlmeister bereits in Angriff genommen, indem er vor kurzem viele Autos der weniger Wohlhabenden mit speziellen Strafgebühren von den Londoner Straßen vertrieben hat.

Bei der von der britischen Regierung finanzierten Organisation UK FIRES herrscht Ehrlichkeit vor. Dort zeigen Wissenschaftler aus dem Elfenbeinturm grausam offene Berichte, die zeigen, dass Net Zero die verfügbare Energie um etwa drei Viertel reduzieren würde. Sie gehen zu Recht davon aus, dass es derzeit und in absehbarer Zukunft keine realistische Technologie gibt, um die aus den unregelmäßigen Brisen und Sonnenstrahlen gewonnene Energie zu sichern. Es ist die Rede von Flugverbot, Schifffahrtsverbot, drastischer Einschränkung des Fleischkonsums und dem Verbot des Heizens. Vorgeschlagen wird auch eine rücksichtslose Abschaffung moderner Baumaterialien, wobei traditionelle Baustoffe durch neue Materialien wie Stampflehm ersetzt werden sollen.

Eine Rückkehr zum Primitivismus deutet sich auch in einem kürzlich erschienenen Bericht der Vereinten Nationen an, in dem vorgeschlagen wird, mit Lehmziegeln, Bambus und „Waldabfällen“ zu bauen. Man könnte meinen, dass Lehm- und Grashütten kaum ausreichen werden, um unfreundliche fremde Horden abzuschrecken, die sich in Zukunft am Horizont abzeichnen. Und es macht auch keinen Sinn, den Letzten zu bitten, das Licht auszumachen, weil es sowieso keinen Strom geben wird.

Chris Morrison is the Daily Sceptic’s Environment Editor.

Link: https://wattsupwiththat.com/2024/04/22/how-many-billions-of-people-would-die-under-net-zero/

Übersetzt von Christian Freuer für das EIKE

 




Jetzt sieht man Eis, jetzt wieder nicht

Willis Eschenbach

Ich habe über das Meereis und die Klimamodelle nachgedacht. Hier ist, was wir über die Ausdehnung des polaren Meereises wissen, mit Daten, die mit der Satellitenära beginnen, als wir anfingen, genaue Beobachtungen der Pole zu machen.

Abbildung 1. Arktische, antarktische und globale Meereisausdehnung. Die farbigen Linien sind CEEMD-Glättungen der zugrunde liegenden Datensätze.

Die Aufzeichnungen über die Meereisausdehnung enthalten einige recht große Kuriositäten.

– Der Nordpol ist ein flüssiger Ozean, der mit Meereis bedeckt ist, wobei das meiste Eis polwärts von 70°N liegt. Der Südpol ist ein riesiger Klumpen gefrorenen Gesteins, umgeben von Meereis, mit fast keinem Eis polwärts von 70°S. Warum haben also beide Pole etwa die gleiche Ausdehnung an Meereis?

– Seit Beginn der Satelliten-Ära bis ~2015 nahm die Ausdehnung des arktischen Meereises ab und die des antarktischen Meereises zu … und infolgedessen war die gesamte globale Meereisausdehnung relativ konstant, wobei 2014 etwa die gleiche globale Meereisausdehnung aufwies wie 1978. Und warum?

– Um 2015 begann die antarktische Meereisausdehnung rapide zu sinken … aber das arktische Meereis hörte auf zu sinken und pendelte sich bis zur Gegenwart ein. Und warum?

– Nachdem die antarktische Meereisausdehnung einige Jahre lang rapide abgenommen hatte, hörte das plötzlich wieder auf … und infolgedessen flachte auch die globale Eisausdehnung ab. Und warum?

Und jetzt kommt der interessante Teil. Niemand kennt die Antworten auf eine dieser Fragen. Und ich nehme an, es ist vorhersehbar, dass, da sie auf unserem (falschen) Verständnis des Klimas beruhen, keines der Klimamodelle die Ausdehnung des Meereises auch nur annähernd so vorhersagt wie die tatsächlichen Beobachtungen.

Ich lasse dies hier als Beleg dafür stehen, wie wenig wir die großartige globale Wärmekraftmaschine verstehen, die wir Klima nennen …

Link: https://wattsupwiththat.com/2024/04/19/now-you-sea-ice-now-you-dont/

Übersetzt von Christian Freuer für das EIKE

 




Wash Post gibt die Realität zu: „Inmitten einer explosiven Nachfrage geht Amerika der Strom aus“ …

… Das US-Stromnetz „gerät an den Rand des Abgrunds. Versorgungsunternehmen können nicht mithalten“ — „Es ist erschütternd“ — Aber WaPo befürchtet, dass Energieknappheit „den Übergang zu sauberer Energie zu ersticken droht“

Marc Morano, CLIMATE DEPOT

WaPo: Weite Teile der Vereinigten Staaten laufen Gefahr, unter Strommangel zu leiden, da sich stromhungrige Rechenzentren und Fabriken für saubere Technologien im ganzen Land ausbreiten, so dass Versorgungsunternehmen und Regulierungsbehörden nach glaubwürdigen Plänen zum Ausbau des knirschenden Stromnetzes der Nation suchen.

In Georgia steigt die Nachfrage nach Industriestrom auf ein Rekordniveau, und die Prognosen für den künftigen Stromverbrauch in den nächsten zehn Jahren sind 17 Mal höher als noch vor kurzem. Arizona Public Service, der größte Stromversorger in diesem Bundesstaat, hat ebenfalls Probleme, mit der Nachfrage Schritt zu halten, und rechnet damit, dass seine Übertragungskapazitäten noch vor Ende des Jahrzehnts erschöpft sein werden, wenn nicht umfangreiche Modernisierungen vorgenommen werden.

Nord-Virginia benötigt das Äquivalent mehrerer großer Kernkraftwerke, um alle geplanten und im Bau befindlichen neuen Rechenzentren zu versorgen. Texas, wo Stromengpässe an heißen Sommertagen bereits an der Tagesordnung sind, steht vor dem gleichen Dilemma.

Die rasant steigende Nachfrage führt dazu, dass versucht wird, mehr Strom aus dem alternden Stromnetz herauszuholen, während gewerbliche Kunden gezwungen sind, außergewöhnliche Anstrengungen zu unternehmen, um sich Energiequellen zu sichern, z. B. durch den Bau eigener Kraftwerke.

Die Washington Post ist besorgt, dass diese Stromknappheit „den Übergang zu sauberer Energie zu ersticken droht, da die Führungskräfte der Versorgungsunternehmen darauf drängen, die Stilllegung fossiler Kraftwerke zu verzögern und weitere in Betrieb zu nehmen“.

„Wenn man sich die Zahlen ansieht, ist das erschütternd“, sagte Jason Shaw, Vorsitzender der Georgia Public Service Commission, die für die Regulierung der Stromversorgung zuständig ist. „Man kratzt sich am Kopf und fragt sich, wie wir in diese Situation geraten sind. Wieso lagen die Prognosen so weit daneben? Das ist eine Herausforderung, wie wir sie noch nie zuvor gesehen haben“.

Ein wichtiger Grund für den sprunghaften Anstieg der Nachfrage ist die rasante Innovation im Bereich der künstlichen Intelligenz, die den Bau großer Rechenzentren vorantreibt. Diese benötigen exponentiell mehr Energie als herkömmliche Rechenzentren. Die künstliche Intelligenz ist auch Teil einer gewaltigen Ausweitung des Cloud-Computing. Technologieunternehmen wie Amazon, Apple, Google, Meta und Microsoft suchen landesweit nach Standorten für neue Rechenzentren, ebenso wie viele weniger bekannte Firmen.

Die Situation entfacht landesweit Streit darüber, wer für die neue Energieversorgung aufkommen soll, wobei die Regulierungsbehörden befürchten, dass die privaten Steuerzahler die Rechnung für die kostspielige Umrüstung bezahlen müssen. Außerdem droht die Umstellung auf saubere Energie zu scheitern, da die Führungskräfte der Energieversorgungsunternehmen darauf drängen, die Stilllegung fossiler Kraftwerke zu verzögern und neue in Betrieb zu nehmen. Die Energiekrise gefährdet ihre Fähigkeit, die Energie zu liefern, die benötigt wird, um die Millionen von Elektroautos und Haushaltsgeräten aufzuladen, die zur Erreichung der staatlichen und bundesstaatlichen Klimaziele erforderlich sind.

Amerika geht der Strom aus wegen der Klimaschwindel und die Anti-Fossilbrennstoff-Politik von @BarackObama und @JoeBiden. 1/https://t.co/AdIkxKba9H pic.twitter.com/mC529Sw3f8

— Steve Milloy (@JunkScience) 7. März 2024

Link: https://wattsupwiththat.com/2024/04/19/wash-post-admits-reality-amid-explosive-demand-america-is-running-out-of-power-u-s-power-grid-being-pushed-to-the-brink-utilities-can/

Übersetzt von Christian Freuer für das EIKE

 




Offizielle Temperaturdaten, die gar keine „Daten“ sind

H. Sterling Burnett

Schon vor unserem ersten Bericht über die Oberflächenstationen im Jahr 2009 war das Heartland Institute führend bei der Berichterstattung über Probleme mit der Aufzeichnung der Temperatur.

Wir haben hervorgehoben, dass die Stations-Aufzeichnungen nicht mit den Temperaturen übereinstimmen, die von globalen Satelliten und Wetterballonen aufgezeichnet wurden, zwei alternativen Temperatur-Datenquellen, deren Datensätze sich eng aneinander anlehnen. Heartland hat sowohl in den Vereinigten Staaten als auch im Ausland wiederholt Fälle aufgedeckt, in denen offizielle Stellen vergangene Temperaturdaten an unberührten Stationen manipuliert haben, um sie kühler erscheinen zu lassen, als sie tatsächlich aufgezeichnet wurden, während die jüngsten Temperaturen nach oben korrigiert wurden. Wir haben die Anpassungen genau verfolgt, die korrupte NOAA-Wissenschaftler 2015 vor den Verhandlungen zum Pariser Klimaabkommen vorgenommen haben. Dabei wurden Daten von unvoreingenommenen Ozeanbojen mit hitzebedingten Temperaturmessungen an den Wassereinlässen von Schiffsmotoren vermischt, was den Anschein erweckte, der Ozean erwärme sich plötzlich schneller als zuvor.

Vor allem aber haben wir unabhängig voneinander die schwerwiegenden Probleme mit der offiziellen Aufzeichnung der Temperatur dokumentiert, die sich aus der Tatsache ergeben, dass die große Mehrheit der Temperaturstationen schlecht platziert ist. Die Stationen entsprechen nicht den NOAA-Standards für qualitativ hochwertige, unvoreingenommene Stationen und melden Temperaturen, die u. A. durch den UHI-Effekt (Urban Heat Island) verzerrt sind.

Mein Kollege, der preisgekrönte Meteorologe Anthony Watts, hat 2009 und dann noch einmal im Jahr 2022 anhand von Stationsstandortdaten und fotografischen Beweisen die problematischen Stationen detailliert beschrieben. Stationen, die offizielle Daten lieferten, befanden sich an Orten, an denen die umgebenden Oberflächen, Strukturen und Geräte gespeicherte Wärme abstrahlten oder Wärme ausstrahlten, die die aufgezeichneten Temperaturen direkt verzerrten oder höher trieben als die an Stationen in derselben Region aufgezeichneten Temperaturen, die nicht durch den bekannten UHI (die von Alarmisten und offiziellen Regierungsbehörden weitgehend ignoriert wird) beeinträchtigt wurden.

Über die Stichproben von Hunderten von Stationen im ganzen Land, die Watts und sein Freiwilligenteam im Jahr 2009 dokumentierten, schrieb Watts:

Wir fanden Stationen in der Nähe der Abluftventilatoren von Klimaanlagen, umgeben von asphaltierten Parkplätzen und Straßen, auf glühend heißen Dächern und in der Nähe von Gehwegen und Gebäuden, die Wärme absorbieren und abstrahlen. Wir fanden 68 Stationen in Kläranlagen, wo der Prozess der Abfallvergärung zu höheren Temperaturen führt als in der Umgebung.

Tatsächlich fanden wir heraus, dass 89 Prozent der Stationen – also fast 9 von 10 – die Anforderungen des National Weather Service an die Standortwahl nicht erfüllen …

Die Medien und die Regierung nahmen die Ergebnisse von Watts zur Kenntnis, wobei letztere offizielle Stellungnahmen abgaben, in denen sie das Problem einräumten, gleichzeitig aber behaupteten, die Temperaturaufzeichnungen seien trotz der groben Verletzung etablierter Regeln für eine solide Temperaturdatenerfassung weiterhin gültig und zuverlässig.

Die Regierung behauptete zwar, es sei „nichts passiert“, schloss aber einige der in Watts‘ Bericht hervorgehobenen Stationen mit den schlechtesten Messwerten und richtete ein alternatives Temperaturnetzwerk ein, das nur aus unvoreingenommenen Stationen besteht, das U.S. Climate Reference Network (USCRN), das sich aus bestehenden, gut platzierten Stationen zusammensetzt. Der Temperaturdatensatz des USCRN zeigt weniger als die Hälfte der Erwärmung und eine langsamere Erwärmungsrate als das breitere Netzwerk, das von der Regierung in ihren offiziellen Berichten verwendet wird, die eine beispiellose Erwärmung behaupten. Die Regierung verfügt über gute Daten, die sie nur nicht als offizielle Daten ausweist oder zählt.

Gleichzeitig fügte die Regierung dem offiziellen Netz Tausende von Temperaturstationen hinzu, die zuvor nicht gezählt worden waren und von verschiedenen Agenturen und privaten Parteien unterhalten wurden – bestehende Stationen, die ohne jegliche Qualitätskontrolle hinzugefügt wurden.

Das Ergebnis dieser Bemühungen war vorhersehbar katastrophal, wenn man bedenkt, dass es darum geht, eine qualitativ hochwertige, zuverlässige Aufzeichnung der nicht durch die UHI beeinflussten Temperaturen zu erstellen. Der Folgebericht von Watts, der auf einer im Jahr 2022 durchgeführten Untersuchung basierte, stellte fest, dass die Aufzeichnungen nun noch schlechter waren. Watts und sein Team von Freiwilligen dokumentierten mit Standortdaten und Fotos eine Stichprobe von 128 Stationen in 11 Staaten. (Ich selbst habe fünf Stationen in Nordzentral- und Osttexas aufgesucht und dokumentiert). Sie fanden, wie in einer Zusammenfassung der Studie berichtet, Folgendes heraus:

Von den 128 untersuchten Stationen wurden nur zwei als Stationen der Klasse 1 (beste Lage) eingestuft: Dubois, die Idaho Agricultural Experiment Farm und die Louisiana Agricultural Experiment Farm. Nur drei Stationen wurden als Klasse 2 (akzeptable Standorte) eingestuft, während die übrigen 123 Stationen als Klasse 3, 4 und 5 und damit als inakzeptable Standorte eingestuft wurden.

„Mit einem 96-prozentigen Warm-Bias in den US-Temperaturmessungen ist es unmöglich, irgendeine statistische Methode zu verwenden, um einen genauen Klimatrend für die USA abzuleiten“, sagte Anthony Watts, führender Mitarbeiter am Heartland Institute und Leiter der Studie. „Die Daten der Stationen, die nicht durch fehlerhafte Platzierung verfälscht wurden, zeigen eine Erwärmungsrate in den Vereinigten Staaten, die im Vergleich zu allen Stationen um fast die Hälfte reduziert ist.“

Ein investigativer Bericht von Katie Spence, Journalistin bei The Epoch Times, deckt nun ein weiteres Problem mit der Aufzeichnung der Temperaturen in den USA auf – ein Versäumnis, das, wenn überhaupt, noch ungeheuerlicher ist als die bisher erörterten Probleme: Viele „Stationen“, die angeblich Temperaturen „melden“, existieren in Wirklichkeit gar nicht mehr, und das schon seit Jahren. Die Regierung erfindet einfach die von vielen Stationen gemeldeten Daten auf der Grundlage von Durchschnittswerten der an anderen Stationen in der Region gemessenen Temperaturen. In der Epoch Times wird die Situation so beschrieben:

Wenn sie sich auf vergangene Temperaturen berufen, um Vergleiche mit der Gegenwart anzustellen und, was noch wichtiger ist, um Informationen für die künftige Klimapolitik zu erhalten, verlassen sich Beamte wie [der Generalsekretär der Vereinten Nationen, António] Guterres und Präsident Biden zum Teil auf die Temperaturmesswerte des United States Historical Climatology Network (USHCN).

Das Netzwerk wurde eingerichtet, um „genaue, unvoreingenommene, aktuelle historische Klimaaufzeichnungen für die Vereinigten Staaten“ zu liefern, so die NOAA, und es hat mehr als 100 Jahre lang tägliche Höchst- und Tiefsttemperaturen von Stationen in den gesamten Vereinigten Staaten aufgezeichnet.

Experten zufolge besteht das Problem darin, dass eine zunehmende Anzahl von USHCN-Stationen gar nicht mehr existiert.

Und es sind nicht nur ein paar fehlende Stationen, die erfundene Zahlen liefern, sagte Oberstleutnant John Shewchuk, ein zertifizierter beratender Meteorologe, der von Spence für den Artikel interviewt wurde. Er berichtete:

Die Zahl der USHCN-Stationen erreichte 1957 einen Höchststand von 1218 Stationen, aber nach 1990 begann die Zahl der aktiven Stationen aufgrund veralteter Ausrüstung und des Ausscheidens von Mitarbeitern zu sinken.

Die NOAA zeichnet immer noch Daten von diesen Geisterstationen auf, indem sie die Temperaturwerte von umliegenden Stationen nimmt und deren Durchschnitt für die Geisterstation aufzeichnet, gefolgt von einem „E“ für Schätzung.

„Die NOAA fabriziert Temperaturdaten für mehr als 30 Prozent der 1218 USHCN-Meldestationen, die nicht mehr existieren“, sagte Shewchuk. „Sie sind physisch verschwunden, melden aber immer noch Daten — wie von Zauberhand …“

Aufgrund seiner praktischen Erfahrung bei der Verfolgung der Stationen wurde Watts auch für den Bericht konsultiert. Wie die Enthüllungsjournalisten der Epoch Times schreiben, hat er es ihnen gesagt:

Die Hinzufügung der Daten der Geisterstationen bedeutet, dass die „monatlichen und jährlichen Berichte der NOAA nicht repräsentativ für die Realität sind“, sagte Anthony Watts, ein Meteorologe und Senior Fellow für Umwelt und Klima am Heartland Institute. „Wenn diese Art von Verfahren vor Gericht angewandt würde, dann würden die Beweise als ungültig verworfen werden.“

Temperaturdaten von kompromittierten, voreingenommenen Stationen, Temperaturen, die von nicht existierenden Geisterstationen gemeldet wurden, Temperaturdaten, die angepasst oder homogenisiert wurden, um in ein Narrativ zu passen, und unabhängige Datenquellen von der Oberfläche (USCRN), Satelliten und Wetterballons, die von einer viel geringeren Erwärmung berichten als die, die von den kompromittierten, angepassten und jetzt offensichtlich nicht existierenden Stationen aufgezeichnet wurden: Es führt zu der Frage, warum irgendjemand den offiziellen Regierungsberichten über schnell steigende, regelmäßig rekordverdächtige Temperaturen vertrauen sollte. Solche gefälschten Daten würden einer gerichtlichen Überprüfung nicht standhalten. Man sollte sich sicher nicht darauf verlassen, um die öffentliche Politik dazu zu bringen, die Freiheit von Milliarden von Menschen in ihrem persönlichen und wirtschaftlichen Leben einzuschränken.

Quellen: The Epoch Times; The Heartland Institute; The Heartland Institute

Link: https://heartlanddailynews.com/2024/04/climate-change-weekly-503-official-temperature-data-isnt-data-at-all/

Übersetzt von Christian Freuer für das EIKE

 




Evaluierung der Modellprojektionen

Willis Eschenbach

Jemand hat im Internet die Fähigkeiten der frühen Klimamodelle angepriesen und sich dabei auf die Studie Evaluating the Performance of Past Climate Model Projections von Zeke Hausfather, Henri F. Drake, Tristan Abbott und Gavin A. Schmidt bezogen.

Und ja, die Studie zeigt, dass die Klimamodelle wunderbar in der Lage sind, die Vergangenheit zurückzuverfolgen und die Zukunft vorherzusagen. Sie stellen eine Vielzahl von Tabellen und Grafiken zur Verfügung, um dies zu zeigen.

Aber ich war an etwas anderem interessiert. Ich wollte sehen, wie die vorübergehende Klimareaktion (Transient Climate Response, TCR) der einzelnen Modelle aussieht. Der IPCC definiert die vorübergehende Klimareaktion (TCR) als die globale Temperaturänderung zum Zeitpunkt einer Verdoppelung des Kohlendioxids (CO₂) in einem Experiment mit einem Anstieg von 1 % pro Jahr.

Mit anderen Worten, es handelt sich um die Temperaturänderung, die einer Erhöhung des Antriebs um 1 W/m² entspricht, multipliziert mit der Erhöhung des Antriebs um 3,7 W/m², die laut IPCC bei einer Verdoppelung des CO₂ eintreten wird.

Also habe ich mir die Modelldaten angesehen, die die Autoren sehr verantwortungsbewusst als Excel-Tabelle auf GitHub online gestellt haben, und die TCR für jedes analysierte Modell berechnet.

Dann wollte ich zusätzlich zur TCR die ECS, die Equilibrium Climate Sensitivity, berechnen. Dazu habe ich mir die TCR und die ECS von 23 Modellen aus dieser Studie angesehen. Hier sind diese Daten, zusammen mit einer LOWESS-Glättung der Daten:

Abbildung 1. Streudiagramm, Gleichgewichts-Klimasensitivität (ECS) gegen transiente Klima-Reaktion (TCR), 23 CMIP-Modelle.

Daher habe ich die TCR-Werte aus der Modellleistungsstudie in ECS-Werte umgerechnet, wobei ich die LOWESS-Linie für die Umrechnung verwendet habe. Details in den Fußnoten.
Hier sind die Ergebnisse für die verschiedenen Modelle:

Abbildung 2. TCR und ECS für die 12 Modelle, die in der Studie zur Modellleistung untersucht wurden.

Das Interessante daran ist, dass die Klimasensitivität (ECS) der Modelle eine sehr große Spanne abdeckt, von zwei bis vier Grad bei einer Verdopplung des CO₂ … und dennoch leisten sie alle eine hervorragende Arbeit beim Hindcasting der Temperaturentwicklung des Planeten.

Und FALLS sie alle „physikalisch begründet“ sind, wie immer behauptet wird, tut es mir leid, aber das ist nicht möglich.

Ich nenne dies „Dr. Kiehl’s Paradox“, weil Jeffrey Kiehl 2007 in einem in GRL veröffentlichten Artikel mit dem Titel „Twentieth century climate model response and climate sensitivity“ (Reaktion des Klimamodells im zwanzigsten Jahrhundert und Klimasensitivität) diese Merkwürdigkeit zum ersten Mal bemerkte. Er sagte:

Die Frage ist: Wenn sich die Klimamodelle in ihrer Klimasensitivität um den Faktor 2 bis 3 unterscheiden, wie können sie dann alle die globale Temperaturaufzeichnung mit angemessener Genauigkeit simulieren?

Das ist in der Tat eine gute Frage. Als Antwort auf diese Studie habe ich einen Beitrag mit dem Titel „Dr. Kiehl’s Paradox“ geschrieben. Darin diskutierte ich Dr. Kiehls Antwort ebenso wie meine eigene Antwort auf diese Frage. Darauf folgten einige weitere Analysen mit den Titeln „Zero Point Three Times The Forcing“ (hier) und „Life Is Like A Black Box Of Chocolates“ (hier).

In diesen Beiträgen habe ich gezeigt, dass die globalen Temperaturergebnisse der Klimamodelle trotz ihrer immensen Komplexität sehr genau durch eine einzeilige Gleichung nachgebildet werden können, die einfach die als Input für die Modelle verwendeten Antriebsfaktoren verzögert und skaliert.

Ach ja, eine letzte Kuriosität. Im Hansen-Modell von 1981 sind die TCR und damit die ECS nicht konstant. Von 1981 bis 2024 steigt der ECS von etwa 1,6°C/2xCO₂ auf etwa 2,5°C/2xCO₂. Die ECS steigt dann bis 2040 weiter, geht bis 2075 leicht zurück und steigt bis 2100 auf 2,8°C/2xCO₂. Das ist fast das Doppelte des Ausgangswerts.

Was bedeutet das?

Abbildung 3. TCR und ECS für das Modell von Hansen 1981. Die TCS für jedes Jahr wird anhand der Veränderung von Treibhausgas und Temperatur von 1950 zu Treibhausgas und Temperatur für dieses Jahr berechnet.

Ich muss sagen, dass ich von der scheinbaren Übereinstimmung der Modelle mit der Realität nicht beeindruckt bin. Sie basieren nicht auf der Physik. Stattdessen sind sie einfach so eingestellt, dass sie mit der Vergangenheit übereinstimmen … und im Fall von Hansen 1981 so eingestellt, dass sie die zukünftige Erwärmung übertreiben.

Und wie mein genialer älterer Bruder zu sagen pflegte: „Es ist leicht, die Zukunft vorherzusagen … solange sie genau wie die Vergangenheit ist“.

Wie ich in meinem letzten Beitrag mit dem Titel Now You Sea Ice, Now You Don’t gezeigt habe (erscheint demnächst auch in deutscher Übersetzung), unterscheidet sich das Klima leider gelegentlich und ziemlich unvorhersehbar stark von der Vergangenheit …

Für die Mathematiker: Die Funktion, die ich in Excel verwendet habe, um den TCR in den ECS umzurechnen, basiert auf einer Annäherung an die LOWESS-Kurve in Abbildung 1. Sie lautet:

= IF(TCR < 1.6, 1.39 + 0.8 * TCR, IF(TCR < 2, -1.04 + 2.32 * TCR, 1.4 + 1.1 * TCR))

Damit werden drei annähernd geradlinige Abschnitte der LOWESS-Glättung definiert und deren Formeln zur Berechnung des ECS in Abhängigkeit vom TCR-Wert verwendet.

Link: https://wattsupwiththat.com/2024/04/20/evaluating-the-model-projections/

Übersetzt von Christian Freuer für das EIKE