EU-Präsidentin: „Freie Rede ist eine Infektionskrankheit“

Cap Allon

EU-Kommissionspräsidentin Ursula von der Leyen ist die jüngste in einer langen Reihe von Eliten, welche die Meinungsfreiheit unter dem Vorwand des „Schutzes“ der Gesellschaft zu ersticken versuchen. Indem sie ihre Agenda mit Euphemismen wie „Impfung gegen Desinformation“ ummantelt, schützt von der Leyen nicht die Öffentlichkeit, sondern ihre Macht. Es geht nicht darum, die Wahrheit zu schützen – es geht darum, sie zu monopolisieren.

In einer kürzlich gehaltenen Rede ruft sie zum „Pre-Bunking“ im öffentlichen Forum auf (weil „Debunking“ nicht ausreicht):

Das hier gezeigte Video lässt sich wegen der Zahlschranke hier leider nicht reproduzieren. Es ist 1,30 Minuten lang und zeigt den entsprechenden Redeausschnitt der von der Leyen. A. d. Übers.

Im Laufe der Geschichte hat jedes autoritäre Regime die Zensur als notwendiges Mittel zur Ausrottung „falscher“ Ideen gerechtfertigt. Von der Leyen spielt nach genau dem gleichen Regelwerk. Indem sie abweichende Meinungen als „Desinformation“ brandmarkt, positioniert sie sich und ihre Miteliten als die alleinigen Schiedsrichter dessen, was Wahrheit ist. In ihrer Welt wird jede Idee, die ihr Narrativ in Frage stellt, als gefährlich, ketzerisch und von Natur aus falsch bezeichnet. Und warum? Weil sie es nicht riskieren können, dass sich alternative Standpunkte durchsetzen.

Bei der Zensur geht es nie um den Schutz der Öffentlichkeit. Es geht darum, die Machthaber vor einer Überprüfung zu schützen. Von der Leyens Kreuzzug wird nicht von der Sorge um die Wahrheit angetrieben, sondern von dem verzweifelten Bedürfnis, diejenigen zum Schweigen zu bringen, die es wagen, ihre Handlungen in Frage zu stellen, vor allem, wenn ihre Bilanz skandalumwittert ist. Nehmen wir das Impfstoffgeschäft mit Pfizer, ein undurchsichtiger Vertrag im Wert von 20 Milliarden Euro, der hinter verschlossenen Türen ausgehandelt wurde und bei dem von der Leyen eine zentrale Rolle spielte. Gegen sie wird nun wegen dieser höchst geheimen Angelegenheit ermittelt, doch sie erwartet, dass die Öffentlichkeit ihrem Urteil darüber vertraut, welche Informationen sie hören sollte und welche nicht.

Es gehört schon eine atemberaubende Arroganz dazu, wenn man strafrechtlich ermittelt und gleichzeitig darauf drängt, jeden zu zensieren, der die eigene Version der Ereignisse in Frage stellt. Aber das ist kein Zufall. Es ist ein kalkulierter Schachzug. Die Eliten wissen, dass die freie Meinungsäußerung ihre größte Bedrohung ist, weil sie ihre Korruption aufdeckt und sie zur Rechenschaft zieht. Von der Leyen und ihre Verbündeten wollen abweichende Meinungen zum Schweigen bringen, weil abweichende Meinungen die Fäulnis im Kern ihrer Herrschaft aufdecken.

Die Geschichte der Zensur ist eine Geschichte der Tyrannei. Von Kaisern bis zu Diktatoren haben die Mächtigen immer versucht, Ideen zu unterdrücken, die ihre Kontrolle in Frage stellen. Sie fürchten den freien Austausch von Informationen, weil er die einfachen Menschen stärkt, den Ausgegrenzten eine Stimme gibt und die sorgfältig errichteten Mauern der Propaganda einreißt, die sie an der Macht halten. Bei der Zensur geht es nicht um die Wahrheit, sondern um die Aufrechterhaltung der Macht, indem sie das unterdrücken, was sie nicht vollständig kontrollieren können: freie Gedanken.

Die Wahrheit muss nicht vor Debatten geschützt werden – nur die zerbrechlichen Egos der Machthaber, die Angst haben, als Betrüger entlarvt zu werden. Genau das fürchtet von der Leyen: Entlarvung. Je lauter sie nach Zensur ruft, desto mehr sollten wir hinterfragen, was sie verbirgt – und das Gleiche gilt für Bill Gates, John Kerry, Al Gore und die unsichtbaren Herren, die an ihren Fäden ziehen.

Glücklicherweise gibt es viele, die sich gegen diese Intrige auflehnen – auch weil die Globalisten verzweifelt aggressiv vorgehen. Im Folgenden äußert sich die deutsche Europaabgeordnete Christine Anderson zu diesem Thema: „Ihnen läuft die Zeit davon, denn immer mehr Menschen wachen auf.“

Link: https://electroverse.substack.com/p/early-snows-continue-in-turkey-middle?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Technische Analyse natürlicher Zyklen kündigt Abkühlung an

Cap Allon

Alvar Nurre Nyrén, ein schwedischer technischer Analyst, der seit 30 Jahren natürliche Zyklen und Muster untersucht, hat vor kurzem einen Artikel über die globalen Klimatrends veröffentlicht. Nyrén wendet sein Fachwissen im Bereich der technischen Analyse auf Klimadaten an – ein Verfahren, das auf den Finanzmärkten häufig zur Vorhersage von Trends eingesetzt wird.

Seine Arbeit konzentriert sich auf die Identifizierung wiederkehrender natürlicher Bewegungen, wie z. B. wellenartige Muster, um langfristige Klimaveränderungen verständlich zu machen.

In seiner neuesten Arbeit untersucht Nyrén die jüngsten Satellitendaten vom September 2024, die einen weiteren Anstieg der globalen Temperaturen zeigen. Die Messungen zeigen einen globalen Temperaturanstieg auf +0,96 °C, gegenüber +0,88 °C im August.

Die nördliche Hemisphäre hat sich weiter erwärmt, während die südliche Hemisphäre, insbesondere Australien, einen leichten Rückgang verzeichnete. Trotz dieser regionalen Unterschiede bleibt die globale Gesamttemperatur erhöht.

Nach Ansicht von Nyrén könnten diese Temperaturverschiebungen das Ende einer langfristigen natürlichen Erwärmungsphase signalisieren. Er geht davon aus, dass das Klima durch sich wiederholende Zyklen von Erwärmung und Abkühlung gesteuert wird, ähnlich wie Wellenmuster. Vergleicht man die derzeitige Periode mit vergangenen natürlichen Zyklen, wie dem Höhepunkt im Jahr 1998, so glaubt Nyrén, dass der derzeitige Erwärmungstrend sich seinem Ende nähert und wir am Rande einer Abkühlungsphase stehen könnten.

Nyrén setzt Verfahren der technischen Analyse ein, insbesondere die Erkennung von Wellenmustern, um darauf hinzuweisen, dass der aktuelle Klimazyklus, der seit der „Kleinen Eiszeit“ um 1600 eine stetige Erwärmung verzeichnete, kurz vor seinem Höhepunkt steht und sich bald umkehren könnte. Obwohl die Bestätigung einer Abkühlungsphase Zeit braucht, geht er davon aus, dass sie in den kommenden Jahren oder Jahrzehnten eintreten dürfte.

Die Analyse unterstreicht, dass diese natürlichen Klimaschwankungen nicht chaotisch sind, sondern logischen, vorhersehbaren Mustern folgen. Nyrén verweist auf die Dauer der letzten großen Erwärmungsphase und sieht ein ähnliches Timing im aktuellen Trend, was darauf hindeutet, dass eine Abkühlungsphase bevorsteht. Er bezieht auch Fibonacci-Sequenzen ein – ein wichtiges mathematisches Werkzeug, das häufig in der Musteranalyse (die in der Natur zu finden ist) verwendet wird -, um das Fortschreiten dieser Zyklen zu verfolgen.

Nyrén kritisiert die Mainstream-Klimawissenschaft dafür, dass sie sich zu sehr auf vom Menschen verursachte Faktoren konzentriert und die Bedeutung natürlicher Zyklen, Muster und mathematischer Zusammenhänge außer Acht lässt. Er weist darauf hin, dass eine möglicherweise lang anhaltende Abkühlung unmittelbar bevorstehen und schwerwiegender sein könnte, als derzeit von vielen angenommen wird.

– Eine andere Umschreibung für „die KALTEN ZEITEN kehren zurück…“.

Für eine vollständige Lektüre von Nyréns Artikel, der weit mehr ins Detail geht, klicken Sie bitte hier (frei zugänglich; schwedisch)

Link: https://electroverse.substack.com/p/cold-records-shattered-across-yukon?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Kältereport Nr. 41 / 2024

Christian Freuer

Vorbemerkung: Gerade wird wieder von offizieller Seite (also von Ideologie-Funktionären) verkündet, wie sich die Natur zu verhalten hat. Vor allem wollen diese Polit-Akrobaten festlegen, dass es keine Kälte und nur noch Wärme gibt. Schauen wir mal. Der Kaltmeldungen gibt es jedoch immer noch Einige. Schwerpunkt diesmal: wieder Asien.

Meldungen vom 21. Oktober 2024:

Früh-saisonale Schneefälle verstärken sich in ganz Asien

Niedrige Temperaturen und starker Schneefall haben in weiten Teilen Asiens früher als üblich eingesetzt und das tägliche Leben gestört, aber auch die Vorfreude auf die kommende Wintersaison geschürt.

In Kirgisistan haben schwere Schneefälle im Bergdistrikt Chatkal tragischerweise zu tödlichen Lawinenabgängen geführt. Das kirgisische Ministerium für Notsituationen bestätigte die Bergung von sechs Leichen einer 14-köpfigen Gruppe, die am 9. Oktober beim Sammeln von Heilpflanzen verschollen war.

Kirgisistan erlebte in diesem Jahr bereits am 27. und 28. August sowie Anfang September seltene Sommerschneefälle.

Weiter östlich hat auch der indische Bundesstaat Sikkim einen ersten Vorgeschmack auf den Winter bekommen.

Im Changu-Tal gab es am Wochenende den ersten Schnee der Saison. Auch in Thangu und in der Region des Gurudongmar-Sees kam es zu erheblichen Schneefällen, die zu blockierten Straßen, Glätte und weitreichenden Behinderungen im gesamten Bundesstaat führten, so dass die Border Roads Organisation mobilisiert wurde, um wichtige Strecken zu räumen.

Im Norden ist es in Russland noch kälter geworden. Nach den Tiefstwerten der letzten Woche ist Yarol’In noch einen Schritt weiter gegangen und hat am 21. Oktober einen historischen Tiefstwert von -35,3 °C gemessen – die bislang niedrigste Temperatur der nördlichen Hemisphäre in dieser Saison (außerhalb Grönlands).

Noch weiter östlich, auf dem südkoreanischen Berg Seorak, fiel in der Nacht zum Samstag der erste Schnee der Saison, und die Temperaturen sanken bis Sonntagmorgen auf -2,6 °C.

Die koreanische Wetterbehörde gab für die nördliche Gangwon-Region die erste Kältewellenwarnung der Saison heraus, wobei sowohl die Warnung als auch der Schnee selbst früher als gewöhnlich eintrafen.

Die Hauptstadt Seoul meldete am Wochenende anomale Kälte, ebenso wie die Insel Jeju.

Wieder weiter östlich blieb auch Japan nicht verschont. In Sapporo auf der nördlichen Insel Hokkaido fiel der erste Schnee am 20. Oktober, mehr als eine Woche früher als normal. Die 20 cm, die sich ansammelten, führten dazu, dass das erste Skigebiet der Saison am Fujiyama mit der Öffnung seiner Pisten begann.

Im äußersten Osten der Türkei – geographisch gesehen ein westasiatisches Land – wurden Städte wie Rize, Kars, Erzurum und Kastamonu von einer Schneedecke bedeckt, wobei die Temperaturen bis -4 °C sanken.

Örtlichen Berichten zufolge kam es in hoch gelegenen Gebieten zu erheblichen Schneemengen, wobei bis zu 20 cm auf den Bergplateaus und in den Skigebieten zu finden waren. Diese bereiten sich auf eine frühzeitige Öffnung vor, wie z. B. in Uludağ, eines der wichtigsten Skigebiete der Türkei.

—————————————-

Beißender Frost flutet Kanada

Die Kälte hat Kanada fest im Griff und bringt die ersten größeren Schneefälle der Saison mit sich. In Teilen des Landes, wie etwa in Margaret Lake im Yukon, sind die Temperaturen bis zu -24,6 °C gesunken, was einen neuen Tiefstwert für die Jahreszeit bedeutet.

In Alberta kühlt es stark ab. Calgary wurde von einem massiven Kaltluftvorstoß erfasst, begleitet von Schnee. In der Nacht zum Montag werden die Temperaturen dort auf -7 °C sinken, und es könnte sich Glatteis bilden. Zusammen mit 5 cm Schnee wird dies ausreichen, um den Bewohnern glatte Straßen und tückische Fahrbedingungen zu bescheren.

Es wird erwartet, dass sich in den umliegenden Vorgebirgen und Bergen noch viel mehr Schnee ansammeln wird, vielleicht sogar bis zu 20 cm.

Ein früher Wintereinbruch hält auch südlich der Grenze in den USA Einzug. In Colorado zum Beispiel ist der erste nennenswerte Schnee in Silverton Mountain und Wolf Creek gefallen, wo jeweils 30 cm gemeldet wurde. In zahlreichen Skigebieten in Colorado und im gesamten Westen wurde mit der Beschneiung begonnen, was den Beginn der Skisaison einläutet.

Link: https://electroverse.substack.com/p/early-season-snow-intensifies-across?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 22. Oktober 2024:

Chile: Valle Nevado beendet die längste und schneereichste Saison jemals

Valle Nevado, Chile, beendete seine Skisaison 2024 am Sonntag, den 20. Oktober, nach bemerkenswerten 143 Tagen auf den Pisten – der längsten in seiner 36-jährigen Geschichte. Die verlängerte Saison wurde durch anhaltende, außergewöhnliche Schneefälle und eine hohe Nachfrage bestimmt.

Die ersten Schneestürme gaben den Ton an, so dass Valle Nevado bereits am 31. Mai vorzeitig eröffnet werden konnte und der volle Betrieb am 7. Juni – zwei Wochen früher als geplant – aufgenommen wurde.

Während der gesamten Saison erhielt das Skigebiet rund 7 Meter Schnee, ein neuer Rekord, der nicht nur für hervorragende Skibedingungen sorgte, sondern auch eine zweiwöchige Verlängerung über das geplante Schließungsdatum hinaus ermöglichte.

„Diese Saison war wirklich rekordverdächtig“, sagte Ricardo Margulis, der Betreiber des Skigebietes.

—————————————-

Eine Stadt in China: Frühester Schneefall seit 1951

Eine ungewöhnlich frühe Kaltfront hat in dieser Woche weite Teile Chinas heimgesucht und in mehreren Regionen den ersten Schnee der Saison gebracht.

In der autonomen tibetischen Präfektur Gannan in der Provinz Gansu war ein Abschnitt des National Highway 248, der als „Locke Road“ bekannt ist, plötzlich mit Schnee bedeckt. Diese frühe, in der Nacht von Samstag auf Sonntag einsetzende Anhäufung, überraschte viele unvorbereitet. Die anhaltenden Schneefälle bis zum Sonntag führten zu hohen Verwehungen und auch zu Glatteis, so dass Straßenräumungs-Mannschaften eingesetzt werden mussten.

In der Provinz Shanxi kam es in der Stadt Taiyuan ebenfalls zu ungewöhnlich frühen Schneefällen. Dort gab es sogar den ersten Schneefall seit 1951. Der plötzliche Temperatursturz verursachte Probleme auf den Straßen der Stadt.

—————————————-

Frühe Öffnung der Skigebiete in Colorado

Ein frühzeitiger Wintersturm hat die Front Range von Colorado heimgesucht und am Montagmorgen für eisige Bedingungen für Pendler gesorgt.

Der Wintersturm erstreckte sich von Fairplay bis Red Feather Lakes, wobei in einigen Gebieten bis zu 30 cm Schnee fiel.

Der Sturm brachte den Skigebieten des Bundesstaates beträchtliche Schneemengen: Copper Mountain erhielt 30 cm, Loveland 25 cm und Arapahoe Basin 23 cm. Das Wolf Creek Skigebiet öffnet heute, am 22. Oktober, und vielleicht folgen Arapahoe Basin und Keystone im Laufe dieser Woche, dank der kalten Bedingungen und der Beschneiungsmaßnahmen – frühe Eröffnungen signalisieren einen starken Start in die Skisaison.

Link: https://electroverse.substack.com/p/valle-nevado-wraps-up-longestsnowiest?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 23. Oktober 2024:

Kälterekorde in Yukon und Alaska gebrochen

Ein plötzlicher Kälteeinbruch hat im südlichen Yukon für frühe und intensive Schneefälle gesorgt und eine Reihe von Rekorden gebrochen.

Nach Angaben von Environment Canada (ECCC) wurden am Flughafen Whitehorse am 19. und 20. Oktober noch nie dagewesene Schneemengen gemessen. Am 19. Oktober erreichte die Schneedecke 20 cm und verdoppelte damit den bisherigen Rekord von 10 cm aus dem Jahr 1990. Am darauffolgenden Tag verringerte sich die Schneehöhe auf 15 cm, übertraf aber immer noch den bisherigen Rekord von 13 cm aus dem Jahr 1992.

Neben starkem Schneefall war es in Whitehorse rekordverdächtig kalt. Der 20. Oktober markierte den Tiefstwert für dieses Datum mit einer Höchsttemperatur von nur -7,6 °C und übertraf damit den bisherigen Wert von -6,1 °C aus dem Jahr 1970.

Der ECCC-Meteorologe Ken Dosanjh bezeichnete die Rekordtiefsttemperaturen und den Rekordschnee widerwillig als „irgendwie ungewöhnlich“.

Während Yukon Mitte Oktober mit Schnee bedeckt war, erlebte Alaska seinen eigenen rekordverdächtigen Wintersturm.

Am 21. Oktober erlebte Fairbanks den drittnassesten Tag aller Zeiten mit einer Niederschlagsmenge von 50,5 mm, von denen der Großteil als Schnee fiel. Damit wurde der bisherige Rekord von 7,9 mm aus dem Jahr 1935 weit übertroffen.

Bettles, Tanana und Nome brachen ebenfalls die Tagesniederschlagsrekorde, wobei in der gesamten Region erhebliche Schneemengen gemeldet wurden.

In Fairbanks fielen zwischen 10 und 25 cm Schnee, was zu Schulschließungen und der Einstellung des öffentlichen Nahverkehrs führte. Der Sturm kam im Gefolge einer Kaltfront, welche die Temperaturen an einigen Stellen bis zu -17,8 °C sinken ließ. Da der Schnee bis zum 22. Oktober anhielt, warnten die Meteorologen vor weiteren Störungen und neuem Schnee: In den Hügeln um Fairbanks werden weitere 45 cm erwartet.

Damit droht ein weiterer historischer Winter, ähnlich wie im letzten Jahr und im Jahr davor.

Die Stadt Anchorage zum Beispiel strebt die dritte Saison in Folge mit mehr als 250 cm Schnee an, nach den 255 cm im Winter 2022-23 und den 340 cm im Winter 2023-24. Anchorage hat nur zweimal in Folge mehr als 30 cm Schnee erhalten, nämlich im letzten Jahr und in den Wintern 1954-55 und 1955-56. Ein drittes Jahr wäre ein noch nie dagewesener, eigenständiger Rekord.

Die Saison 2024-25 hat einen soliden Start hingelegt – eine Tatsache, die den offiziellen Prognosen des USDA widerspricht: „Es wird erwartet, dass die Schneefälle in ganz Alaska abnehmen werden, wobei die Schneedecke in Süd- und Westalaska aufgrund der steigenden Temperaturen um 20-90 % abnehmen wird.“

—————————————-

Früh-saisonaler Schneefall auch in Japan

Die Vorhersagen der JMA scheinen sich zu bewahrheiten, der Winter hält früh Einzug in Japan.

Im Norden Japans hat es bereits den ersten Schneefall der Saison gegeben. In Sapporo auf der Insel Hokkaido kam der Schnee acht Tage früher als gewöhnlich, während in der östlich von Sapporo gelegenen Stadt Obihiro der erste Schnee bereits 12 Tage früher gefallen ist.

Link: https://electroverse.substack.com/p/cold-records-shattered-across-yukon?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Meldungen vom 24. Oktober 2024:

Weitere vor-saisonale Schneefälle in der Türkei

Die Türkei erlebt weiterhin einen frühen Vorgeschmack auf den Winter, denn in vielen Regionen gab es die ersten Schneefälle der Saison.

In der nördlichen Provinz Kastamonu hat die Schneehöhe 50 cm überschritten, so dass umfangreiche Straßenräumungsarbeiten erforderlich waren.

Starker Schneefall hat auch in den Schwarzmeerprovinzen Trabzon und Giresun zu Behinderungen geführt, wo Hirten von einem schneebedeckten Plateau gerettet wurden und Notfallteams zahlreichen Autofahrern halfen, die in ihren Autos festsaßen.

Die türkischen Skigebiete freuen sich über einen frühen Start in die Saison. So meldeten Bolu’s Kartalkaya, Erciyes und Yıldız seltene Schneemengen für Oktober.

Dazu gibt es dieses Video.

striche

Kälte im Nahen und Mittleren Osten

In Westasien sind die Temperaturen auf den tiefsten Stand seit Jahren gesunken, und in einigen Regionen herrschte eine Kälte wie seit den 1980er Jahren nicht mehr.

Im Irak zum Beispiel wurde es im Norden 3 °C kalt, während in der Hauptstadt Bagdad ein Tiefstwert von 6,3 °C gemessen wurde – das ist der niedrigste Oktoberwert seit 1984. Damit setzt sich eine Entwicklung fort, die sich zu einem der kältesten Oktober seit Jahrzehnten entwickelt.

Zum Vergleich: Die durchschnittlichen Tiefsttemperaturen im Nordirak liegen im Oktober in der Regel zwischen 10 °C und 12 °C, während sie in Bagdad normalerweise zwischen 15 °C und 17 °C liegen.

—————————————-

Eine Meldung vom 25. Oktober 2024:

Weiterer früher Schneefall in Russland

Nordrussland erlebt einen ungewöhnlich frühen Wintereinbruch, da starke Schneefälle weite Regionen bedecken. Vor allem der Norden ist mit Temperaturen weit unter dem Durchschnitt konfrontiert, die eher für den Mittwinter typisch sind.

Am 23. Oktober zog die jüngste Kaltfront heran und brachte unter anderem im südöstlichen Evenki in der Region Krasnojarsk beträchtliche Schneemengen, so dass nun schon mehr als 30 cm Schnee liegen – eine Seltenheit für den Monat Oktober.

Dieser frühe Schneefall hat die Landschaft verändert und deutet auf eine harte Saison hin, die noch bevorsteht.

Link: https://electroverse.substack.com/p/early-snow-continues-in-russia-the?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————————-

Wird fortgesetzt mit Kältereport Nr. 42 / 2024

Redaktionsschluss für diesen Report: 25. Oktober 2024

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Die Hypothese der globalen Erwärmung kann aufgrund von Problemen mit Oberflächendaten nicht validiert werden

Joseph D’Aleo, CCM, AMS Fellow

Höhepunkte der Temperaturmessung im Zeitstrahl

Praktisch jeden Monat und jedes Jahr lesen wir in den ehemals zuverlässigen Medien und von ehemals unparteiischen Datenzentren Berichte, in denen der wärmste Zeitraum in der gesamten Aufzeichnung bis 1895 oder noch weiter zurück verkündet wird. Die folgenden Ausführungen legen nahe, dass der größte Teil dieses Zeitraums auf modellbasierten Vermutungen beruht.

Anfang der 1970er Jahre – als ich in den 1970er Jahren als Produzent für Wettersendungen tätig war und dann an der Universität Wetter und Klima unterrichtete und später in den 1980er Jahren Mitbegründer des Kabelfernseh-Wetterkanals war, griffen wir auf lokale Klimadaten zurück und nutzten sie, um aktuelle oder vorhergesagte Bedingungen und Extreme ins rechte Licht zu rücken. Wir bezogen uns auf Studien und Berichte in Zeitschriften wie Monthly Weather Review und monatlichen Wettermagazinen wie Weatherwise, die das monatliche und saisonale Wetter und Stürme (Temperatur- und Niederschlagsanomalien in den USA, Hurrikane, Tornados, Dürren, Überschwemmungen und Schneefälle) sowie Temperaturextreme (Minusgrade im Winter und dreistellige Temperaturen im Sommer) zum Thema hatten.

Es wurde nicht versucht, eine offizielle nationale oder globale Routineanalyse durchzuführen und nach Trends zu suchen. Die Idee, dies mit einer gewissen Präzision zu tun, wurde als entmutigend angesehen, wie Sie anhand dieser Zeitleiste sehen werden.

1974: Das National Center Atmospheric Research veröffentlichte eine einmalige Schätzung des Temperaturtrends, die sich auf die Landgebiete der nördlichen Hemisphäre beschränkte (zuverlässige Daten in größerem Maßstab und über den Ozean waren nicht ohne weiteres verfügbar oder vertrauenswürdig). Die Schätzung, über die im Des Moines Register berichtet wurde, zeigte eine dramatische Erwärmung von den 1800er Jahren bis etwa 1940, dann eine Umkehrung, die in einer entsprechenden Abkühlung in den späten 1970er Jahren endete, als sogar die CIA schrieb, dass die Wissenschaftler glaubten, wir könnten auf eine gefährliche neue Eiszeit zusteuern. Die Abkühlung setzte sich bis Ende der 1970er Jahre fort und machte die fast 60 Jahre andauernde Erwärmung nahezu zunichte. Dann folgte wieder eine Erwärmung.

1978: Die New York Times berichtet, dass es zu wenig Temperaturdaten von der südlichen Hemisphäre gibt, um zuverlässige Schlussfolgerungen zu ziehen. Der Bericht, auf den sie sich bezog, wurde von deutschen, japanischen und amerikanischen Fachleuten erstellt und erschien in der Ausgabe vom 15. Dezember der britischen Zeitschrift Nature. Darin heißt es: „Die Daten aus der südlichen Hemisphäre, insbesondere südlich des 30. südlichen Breitengrades, sind so spärlich, dass zuverlässige Schlussfolgerungen nicht möglich sind“, heißt es in dem Bericht. „Die Schiffe fahren auf fest etablierten Routen, so dass weite Teile des Ozeans von Schiffen einfach gar nicht überquert werden, und selbst die Schiffe, die dies tun, liefern möglicherweise keine Wetterdaten von der Route.“

1979: Beginn der globalen satellitengestützten Temperaturmessung der Atmosphäre durch UAH und RSS

1981: James Hansen und andere von der NASA berichten, dass „die Probleme bei der Erstellung einer globalen Temperaturgeschichte auf die ungleichmäßige Verteilung der Stationen zurückzuführen sind, wobei die südliche Hemisphäre und die Ozeangebiete schlecht vertreten sind“ – (Science, 28. August 1981, Band 213, Nummer 4511)

1989: Als Reaktion auf die Notwendigkeit einer genauen, unverfälschten, modernen historischen Klimaaufzeichnung für die Vereinigten Staaten definierten Mitarbeiter des Global Change Research Program des US-Energieministeriums und des NCEI ein Netzwerk von 1219 Stationen in den zusammenhängenden Vereinigten Staaten, deren Beobachtungen einen wichtigen Basisdatensatz für die Überwachung des US-Klimas bilden sollten. Seitdem wurde der USHCN-Datensatz mehrmals überarbeitet (z. B. Karl et al., 1990; Easterling et al., 1996; Menne et al. 2009). Die drei in Quinlan et al. 1987, Karl et al., 1990 und Easterling et al., 1996 beschriebenen Datensätze werden nun als USHCN-Version-1-Datensätze bezeichnet.

Zu den berücksichtigten dokumentierten Änderungen gehören Änderungen des Beobachtungszeitpunkts (Karl et al. 1986), Stationsverlegungen und Instrumentenwechsel (Karl und Williams, 1987; Quayle et al., 1991). Offensichtliche Verstädterungseffekte wurden in Version 1 ebenfalls mit einer speziellen Korrektur des urbanen Bias berücksichtigt (Karl et al. 1988).

Der erste Klimachef der NOAA, Tom Karl, schrieb 1986 zusammen mit Kukla und Gavin in einer Studie über die Erwärmung in Städten: „Meteosäkulare Trends der Lufttemperatur, die überwiegend aus [städtischen] Stationsdaten berechnet wurden, weisen wahrscheinlich eine ernsthafte Erwärmungsverzerrung auf… Der durchschnittliche Unterschied zwischen den Trends [städtische vs. ländliche Standorte] beläuft sich auf eine jährliche Erwärmungsrate von 0,34°C/Dekade (3,4°C/Jahrhundert)… Der Grund, warum die Erwärmungsrate beträchtlich höher ist, könnte sein, dass die Rate nach den 1950er Jahren zugenommen hat, entsprechend dem starken Wachstum in und um Flughäfen. Unsere und andere Ergebnisse zeigen, dass die Inhomogenität des städtischen Wachstums schwerwiegend ist und bei der Bewertung der Zuverlässigkeit von Temperaturaufzeichnungen berücksichtigt werden muss.“

1989: Die NY Times berichtet, dass die US-Daten den von Hansen 1980 vorhergesagten Erwärmungstrend nicht zeigen.

1992: Die erste globale monatliche Bewertung der NOAA begann (GHCNm – Vose). Zu den nachfolgenden Veröffentlichungen gehören Version 2 im Jahr 1997 (Peterson und Vose, 1997), Version 3 im Jahr 2011 (Lawrimore et al. 2011) und zuletzt Version 4 (Menne et al. 2018). GHCNm v4 bestand nur aus mittleren monatlichen Temperaturdaten.

1992: Das Automated Surface Observing System (ASOS) des National Weather Service (NWS), das als primäre Datenquelle für mehr als 900 Flughäfen im ganzen Land dient und für die Archivierung von Klimadaten verwendet wird, wurde in den frühen 1990er Jahren eingeführt. Beachten Sie, dass die Kriterien einen RMSE von 0,4°C und einen maximalen Fehler von 1,1°C vorgaben. ASOS wurde entwickelt, um wichtige Informationen für die Luftfahrt zu liefern, wie z. B. Sichtbarkeit der Obergrenze, Wind, Hinweise auf Gewitter und Vereisung. Es wurde nicht für die Bewertung des Klimas entwickelt.

1999: Die USHCN-Temperatur blieb 1934 wie schon ein Jahrzehnt zuvor zurück – James Hansen stellte fest: „Die USA haben sich im vergangenen Jahrhundert erwärmt, aber die Erwärmung übersteigt kaum die Schwankungen von Jahr zu Jahr. In der Tat war das wärmste Jahrzehnt in den USA die 1930er Jahre und das wärmste Jahr 1934.“ Auf die Frage nach dem Grund für diese Diskrepanz sagte Hansen, dass die USA weniger als 2 % der Welt ausmachten und beide Werte richtig sein könnten.

2000: Ein Netz von fast 4000 Tauchbojen (ARGO) wurde weltweit eingesetzt, um die erste Echtzeitüberwachung der Meerestemperaturen und des Wärmeinhalts der Ozeane zu ermöglichen.

2001: Der IPCC räumte in seinem dritten Bericht (2001) ein: „In der Klimaforschung und -modellierung sollten wir anerkennen, dass wir es mit einem gekoppelten nichtlinearen chaotischen System zu tun haben und dass daher eine langfristige Vorhersage künftiger Klimazustände nicht möglich ist.“ (Kapitel 14, Abschnitt 14.2.2.2. )

2004: Das nationale Klimareferenznetz wurde mit Hilfe von John Christy von der UAH eingerichtet, um unverfälschte Temperaturen in den 48 Staaten zu liefern. Die 114 Stationen erfüllten die Spezifikationen, die sie von lokalen Wärmequellen fernhielten.

2005: Pielke und Davey (2005) stellten fest, dass die Mehrheit der Stationen, einschließlich der Klimastationen im östlichen Colorado, nicht den Anforderungen an eine ordnungsgemäße Standortwahl entsprachen. In zahlreichen von Fachleuten begutachteten Veröffentlichungen dokumentierten sie ausführlich die Probleme der mangelhaften Standortwahl und Landnutzungsänderungen, darunter „Unresolved issues with the assessment of multi–decadal global land surface temperature trends“ (2007)

2007: Eine neue Version, USHCNv2, ersetzte die Anpassung für die städtische Erwärmung durch erhebliche andere Anpassungen, einschließlich der Entfernung der Anpassungen für die städtische Erwärmung, die durch „Homogenisierung“ ersetzt wurden. Der Trend kehrte sich um: 1998 ist nun wärmer als 1934 und der mittlere Trend ist höher als in den 1930er Jahren.

David Easterling, Leiter der wissenschaftlichen Abteilung des NOAA-Klimazentrums, äußerte sich in einem Brief an James Hansen von der NASA besorgt: „Ein Wermutstropfen ist ein neues Anpassungsschema für USHCNv2, das einige, wenn nicht sogar alle lokalen Trends, die Landnutzungsänderungen und die Erwärmung in den Städten einschließen, auszugleichen scheint.“ Es reduziert den „lästigen warmen Fleck von 1940“, den die Warmisten minimieren wollten.

Siehe Tony Hellers Diagramm der NOAA USHCN-Höchsttemperatur (5-Jahres-Mittelwert und jährlich) für die gemessenen Daten (blau) und die „gemeldete“ Temperatur (rot).

Die Höchsttemperatur ist ein besseres Maß für Trends, da sie nicht durch die städtische Wärmeinsel verfälscht wird, die vor allem die Minima erhöht. Die NASA-Daten haben sich im Einklang mit den NOAA-Daten verändert. Zwischen 2008 und 2018 fügte NASA GISS dem Zeitraum von 1910 bis 2000 eine trendverstärkende Erwärmung um 0,24 °C hinzu. Um diese Veränderung zu erreichen, wurden die Temperaturen vor 1950 abgekühlt und die jüngeren Temperaturen erwärmt, um einen lineareren Erwärmungstrend zu erzeugen. Kenneth Richards erklärte in No TricksZone: „Da es beträchtliche Beweise dafür gibt, dass die Integrität der Klimaaufzeichnungen beeinträchtigt wurde, ist es vielleicht an der Zeit zu überdenken, wie die globalen Temperaturtrends aussehen könnten, wenn sie nicht so ‚korrigiert‘ werden, dass sie in die von den Datenüberwachern bevorzugte Darstellung passen.“

Im vierten nationalen Klimabericht (NCA4) des U.S. Global Change Research Program (USGCRP) wurden die Maximal- und Minimaltemperaturen von 1986 bis 2016 im Langzeitvergleich (1901-1960) verglichen und es zeigte sich, dass die Maximaltemperaturen in den zentralen bis östlichen USA gesunken sind. Die Minima waren vor allem in der Mitte, im Nordwesten und im Nordosten höher.

2008: Im Rahmen eines Projekts einer ehrenamtlichen Befragung haben Anthony Watts und seine mehr als 650 Freiwilligen auf www.surfacestations.org festgestellt, dass über 900 der ersten 1 067 Stationen des 1 221 Stationen umfassenden US-Klimanetzes nicht annähernd den Spezifikationen entsprachen, die in den Kriterien des Klimareferenznetzes (CRN) festgelegt sind. Nur etwa 3 % entsprachen der idealen Spezifikation für die Standortwahl. Die Stationen befanden sich neben den Abluftventilatoren von Klimaanlagen, umgeben von asphaltierten Parkplätzen und Straßen, auf glühend heißen Dächern und in der Nähe von Gehwegen und Gebäuden, die Wärme absorbieren und ausstrahlen.

Die Forscher fanden 68 Stationen in Kläranlagen, wo der Prozess der Abfallvergärung zu höheren Temperaturen führt als in den umliegenden Gebieten. Tatsächlich stellten sie fest, dass 90 % der Stationen nicht den eigenen Standortanforderungen des National Weather Service entsprechen, wonach die Stationen mindestens 30 m von einer künstlichen Heiz- oder Reflexionsquelle entfernt sein müssen.

[Anmerkung: Auch beim EIKE sind diese Manipulationen öfter dokumentiert worden – sie gehen alle in die gleiche Richtung. Siehe u. A. hier und hier und hier und hier. A. d. Übers.]

2009: Climategate-E-Mails mit aufschlussreichen Kommentaren über die lästige Wärmeerscheinung von 1940 und Daten, welche die Modelle nicht unterstützen.

Tom Wigley, Datum: Sonntag, 27. September 2009: „Wenn wir also den Ozeanausschlag um, sagen wir, 0,15 Grad Celsius reduzieren könnten, dann wäre das für den globalen Mittelwert signifikant – aber wir müssten immer noch den Landausschlag erklären. Ich habe hier absichtlich 0,15 gewählt. Damit bleibt immer noch ein Ozean-Sprung übrig, und ich denke, man braucht eine Form des Ozean-Sprungs, um den Land-Sprung zu erklären (entweder durch einen gemeinsamen Antrieb oder durch den Ozean, der das Land antreibt, oder umgekehrt, oder durch all diese Faktoren).“

Tom Wigley, Datum: Freitag, 6. November 2009: „Wir müssen wahrscheinlich mehr dazu sagen. Die Erwärmung an Land seit 1980 war doppelt so hoch wie die Erwärmung im Ozean – und Skeptiker könnten behaupten, dass dies beweist, dass die Erwärmung in den Städten real und wichtig ist.“

Kevin Trenberth, Mittwoch, 14. Oktober 2009: „Tatsache ist, dass wir die fehlende Erwärmung im Moment nicht erklären können, und es ist eine Schande, dass wir das nicht können. Die CERES-Daten, die im August in der BAMS 09-Beilage zu 2008 veröffentlicht wurden, zeigen, dass es noch mehr Erwärmung geben sollte: aber die Daten sind sicherlich falsch. Unser Beobachtungssystem ist unzureichend.“

2009: Dr. Edward R. Long von der NASA untersuchte in einer Analyse von 2009 die neue Version der US-Daten. Sowohl die Rohdaten als auch die bereinigten Daten des NCDC (jetzt NCEI) wurden für eine Reihe ausgewählter ländlicher und städtischer Stationen (jeweils 48 oder eine pro Bundesstaat) in den zusammenhängenden USA untersucht. Die Rohdaten ergaben einen Temperaturanstieg von 0,13 und 0,79 °C/Jahrhundert für die ländliche und städtische Umgebung, was mit den städtischen Faktoren übereinstimmt. Die bereinigten Daten ergaben 0,64 bzw. 0,77 Grad Celsius pro Jahrhundert.

Ein Vergleich der bereinigten Daten für den ländlichen Bereich mit den Rohdaten zeigt eine systematische Behandlung, die dazu führt, dass die Temperaturanstiegsrate des korrigierten ländlichen Bereichs um das Fünffache höher ist als die der Rohdaten. Dies deutet darauf hin, dass das NCDC-Protokoll zur Anpassung der Daten dazu führt, dass die historischen Daten die zeitlichen Merkmale der städtischen Daten annehmen. Die Folge ist, ob beabsichtigt oder nicht, die Angabe einer falschen Temperaturanstiegsrate für die zusammenhängenden USA, die mit der Modellierung unter Verwendung der Treibhaustheorie übereinstimmt.

2009: Indur M. Goklany schrieb im Jahre 2009: „Daten des Nationalen Zentrums für Gesundheitsstatistiken der USA für den Zeitraum 2001-2008 zeigen, dass in den Monaten Dezember, Januar, Februar und März durchschnittlich 7.200 Amerikaner pro Tag starben, verglichen mit durchschnittlich 6.400, die während des restlichen Jahres täglich starben. Im Jahr 2008 gab es 108 500 „überzählige“ Todesfälle während der 122 Tage in den kalten Monaten (Dezember bis März).

2010: 2009 veröffentlichte eine große Gruppe von Klimawissenschaftlern einen Überblick über die Temperaturproblematik mit dem Titel Surface Temperature Records: Eine politisch motivierte Täuschung. Darin wurden viele Probleme in den USA und weltweit erörtert. Selbst als die Zahl der Stationen in den globalen Datensätzen zunahm, wurde ihre Zuverlässigkeit zu einer Herausforderung, da viele große Kontinente einen hohen Prozentsatz an fehlenden Monaten in den Stationsdaten aufwiesen. Dies erforderte von den Datenzentren, die fehlenden Daten zu schätzen, um einen monatlichen und dann einen jährlichen Durchschnitt zu erhalten.

Viele werden überrascht sein, dass dieses Problem fehlender Daten in der obigen Abbildung auch heute noch besteht. Tatsächlich scheint es noch schlimmer zu sein, wenn fehlende Daten anhand von Daten der nächstgelegenen Stationen geschätzt werden, die manchmal viele hundert Kilometer entfernt sind. Sehen Sie sich die ersten Datenbereiche im September 2018 an, die durch Algorithmen ausgefüllt wurden. Dazu gehört das Ausfüllen eines großen Datenlückenbereichs mit einer Wärmerekordbewertung (Heller 2018).

2010: Eine wegweisende Studie mit dem Titel [übersetzt] „Analyse der Auswirkungen der Stationsexposition auf die Temperaturen und Temperaturtrends des U.S. Historical Climatology Network“, verfasst von Souleymane Fall, Anthony Watts, John Nielsen-Gammon, Evan Jones, Dev Niyogi, John R. Christy, Roger A. Pielke Sr, war das Ergebnis jahrelanger Arbeit zur Untersuchung der Qualität des Temperaturmesssystems der Vereinigten Staaten. Die Studie untersuchte Temperaturunterschiede zwischen verschiedenen Standortqualitätsstufen. Sie fanden heraus, dass Temperatur-Trendschätzungen je nach Standortklassifizierung variieren, wobei eine schlechte Standortwahl zu einer Überschätzung der Tiefsttemperaturtrends führt, was wiederum eine übertriebene Erhöhung der Durchschnittstemperaturen zur Folge hat.

2010: In einer durch diesen Befund ausgelösten Überprüfung stellte das GAO fest: „42 % der aktiven USHCN-Stationen im Jahr 2010 erfüllten eindeutig nicht die Standortstandards der NOAA. Darüber hinaus liegen nur für 24 der 1.218 Stationen (etwa 2 %) vollständige Daten aus der Zeit ihrer Errichtung vor.“

2010: Der im Zentrum des Climategate-Skandals stehende CRU-Wissenschaftler an der East Anglia University, Phil Jones, gab 2010 bei der BBC freimütig zu, dass seine „Temperaturdaten in einem derartigen Durcheinander sind, dass sie vermutlich weder verifiziert noch reproduziert werden können, dass es in den letzten 15 Jahren keine statistisch signifikante globale Erwärmung gegeben hat und dass die Tendenz zwischen 2002 und 2009 bei 0,12°C pro Jahrzehnt lag.“

2013: Die NOAA reagierte auf die Studien zur Standortwahl und die Ermahnung des GAO, indem sie die schlechtesten Stationen entfernte und/oder ersetzte. Außerdem werden in den monatlichen Pressemitteilungen niemals Satellitenmessungen erwähnt, obwohl die NOAA Karl gesagt hatte, dass dies die Zukunft der Beobachtungen sei.

2015: Eine Pause in der Erwärmung, die um 1997 begann, wurde schließlich in der Zeitschrift Nature von Kevin Trenberth, dem Hauptautor des IPCC, anerkannt und auf zyklische Einflüsse natürlicher Faktoren wie El Nino und Ozeanzyklen auf das globale Klima zurückgeführt. Auf der AMS-Jahrestagung 2015 gab es 3 Foren, die sich mit der „Pause“ befassten.

2015: Regierungsbehörden und Medienberichterstatter betonen weiterhin die Gefahr von Hitze und ignorieren Kälte in ihren Studien und Berichten. Die mit dieser Irreführung verbundene Gefahr besteht darin, dass kaltes Wetter 20 Mal so viele Menschen tötet wie warmes Wetter. Dies geht aus einer internationalen Studie hervor, in der über 74 Millionen Todesfälle an 384 Orten in 13 Ländern untersucht wurden. Die Ergebnisse wurden in The Lancet veröffentlicht.

„Man geht oft davon aus, dass extremes Wetter die meisten Todesfälle verursacht, wobei sich die meisten bisherigen Untersuchungen auf die Auswirkungen extremer Hitzewellen konzentrieren“, sagt der Hauptautor Dr. Antonio Gasparrini von der London School of Hygiene & Tropical Medicine in UK.

In der Studie wurden über 74 Millionen (74.225.200) Todesfälle zwischen 1985 und 2012 in 13 Ländern mit einem breiten Spektrum an Klimazonen untersucht – von kalt bis subtropisch. Anhand von Daten über die tägliche Durchschnittstemperatur, die Sterberaten und Störvariablen (z. B. Luftfeuchtigkeit und Luftverschmutzung) wurde die Temperatur mit der geringsten Sterblichkeit (die optimale Temperatur) berechnet und die Gesamtzahl der Todesfälle aufgrund nicht optimaler Umgebungstemperaturen an den einzelnen Standorten ermittelt. Etwa 7,71 % aller Todesfälle wurden durch nicht optimale Temperaturen verursacht, wobei es erhebliche Unterschiede zwischen den Ländern gab, die von etwa 3 % in Thailand, Brasilien und Schweden bis zu etwa 11 % in China, Italien und Japan reichten. Kälte war für die meisten dieser Todesfälle verantwortlich (7,29 % aller Todesfälle), während nur 0,42 % aller Todesfälle auf Hitze zurückzuführen waren.

Dr. Gasparrini: „Die derzeitigen Maßnahmen im Bereich der öffentlichen Gesundheit konzentrieren sich fast ausschließlich auf die Minimierung der gesundheitlichen Folgen von Hitzewellen. Unsere Ergebnisse deuten darauf hin, dass diese Maßnahmen neu ausgerichtet und erweitert werden müssen, um eine ganze Reihe von mit der Temperatur verbundenen Auswirkungen zu berücksichtigen.“

2015: Unter Druck beendete die NOAA die Pause, indem sie die von den Argo-Bojen gemessenen Ozeantemperaturen änderte, um sie besser an die von den Schiffen in angesaugtem Wasser gemessenen Temperaturen anzupassen, die in den vergangenen Jahrzehnten trotz der Bedenken wegen der von den Schiffsmotoren ausgehenden Wärmeverschmutzung zur vorherrschenden Methode geworden waren. Dies führte dazu, dass die globalen Oberflächendaten besser zur Theorie der Erwärmung des Treibhauses passten. John Bates, Datenqualitätsbeauftragter bei der NOAA, beschrieb in einer Studie in Science im Juni 2015, nur wenige Monate bevor sich die Staats- und Regierungschefs in Paris auf ein kostspieliges Pariser Klimaabkommen einigen sollten, wie Tom Karl die unbequeme Pause durch die Veränderung der Meerestemperaturen beseitigte. Da die Ozeane 71 % des Erdballs bedecken, haben selbst kleine Änderungen große Auswirkungen.

2017: Ein neuer US-Klimadatensatz nClimDiv mit Modellrekonstruktionen der Klimaabteilung und landesweiten Durchschnittswerten wurde schrittweise eingeführt und ersetzte USHCNv2. Das Ergebnis war, dass die NOAA für 40 der 48 US-Bundesstaaten eine „neue“ Erwärmung angab. Die dekadische CONUS-Erwärmungsrate Drd964x von 1895 bis 2012 betrug 0,05°C/Dekade. Die neue nClimDiv-Rate von 1895 bis 2014 beträgt nun plötzlich 0,08°C/Dekade.

2017: In dem Forschungsbericht mit dem Titel On the Validity of NOAA, NASA and Hadley CRU Global Average Surface Temperature Data & The Validity of EPA’s CO2 Endangerment Finding, Abridged Research Report haben Dr. James P. Wallace III, Joseph S. D’Aleo, Dr. Craig D. Idso im Juni 2017 hinreichende Beweise dafür vorgelegt, dass die Daten der Global Average Surface Temperature (GAST) für die Verwendung in der Klimamodellierung und für jeden anderen Zweck der Analyse der Klimawandelpolitik ungültig sind.

„Die schlüssigen Ergebnisse dieser Forschung sind, dass die drei GAST-Datensätze keine gültige Darstellung der Realität sind. Das Ausmaß ihrer historischen Datenanpassungen, durch die ihre zyklischen Temperaturmuster entfernt wurden, steht in völligem Widerspruch zu veröffentlichten und glaubwürdigen Temperaturdaten aus den USA und anderen Ländern. Daher ist es unmöglich, aus den drei veröffentlichten GAST-Datensätzen zu schließen, dass die letzten Jahre die wärmsten aller Zeiten waren – trotz der aktuellen Behauptungen einer rekordverdächtigen Erwärmung.“

2018: In diesem Folgebericht wird argumentiert, dass die Frage der statistischen Signifikanz der Auswirkungen von Treibhausgasen mit geeigneten mathematischen Methoden angegangen werden muss. Solche Methoden werden auch in diesem neuen Forschungsbericht verwendet und beweisen, dass steigende atmosphärische CO₂-Konzentrationen keinen statistisch signifikanten Einfluss auf den UAH TLT 6.0 Temperaturdatensatz im Zeitraum 1979 bis 2016 hatten. Der Forschungsbericht zeigt, dass es eine „Pause“ im UAH TLT-Temperaturtrendanstieg im Zeitraum 1995 bis 2016 gab. Dies ist ein Zeitraum, in dem die atmosphärische CO₂-Konzentration um über 12,0 % gestiegen ist.“

2019: Tony Thomas in Quadrant Online über Dr. Mototaka Nakamura, der in einem Buch über „den traurigen Zustand der Klimawissenschaft“ mit dem Titel „Bekenntnisse eines Klimawissenschaftlers: Die Hypothese der globalen Erwärmung ist eine unbewiesene Hypothese“ schrieb: „Die angebliche Messung der globalen Durchschnittstemperaturen seit 1890 basiert auf Thermometerablesungen, die kaum 5 Prozent des Globus‘ abdecken, bis die Satellitenära vor 40-50 Jahren begann.“ Außerdem verachtete er die Behauptungen über die „Validierung“ von Modellen und sagte, dass die Modellierer lediglich „versuchen, Erzählungen zu konstruieren, die die Verwendung dieser Modelle für Klimavorhersagen rechtfertigen.“ Und er schloss: „Da die Werte der Parameter, die viele komplexe Prozesse darstellen sollen, konstant gehalten werden, sind viele nichtlineare Prozesse im realen Klimasystem in den Modellen nicht vorhanden oder stark verzerrt. Es ist eine Illusion zu glauben, dass Simulationsmodelle, in denen wichtige nichtlineare Prozesse im realen Klimasystem fehlen, (auch) den Sinn oder die Richtung des Klimawandels korrekt vorhersagen können“.

2019: Der oben zitierte Forschungsbericht von Wallace et al. vom Juni 2017 und die Studie von Christy et al. (2018) vom Mai 2018 über die „Untersuchung der in der Klimaforschung verwendeten weltraumgestützten atmosphärischen Großraumtemperaturen“ lieferten hinreichende Beweise dafür, dass die Daten der globalen durchschnittlichen Temperatur (GAST) für die Verwendung in Klimamodellen und für alle anderen Zwecke der Analyse der Klimawandelpolitik ungültig sind. Darüber hinaus lieferten diese Berichte reichlich Beweise dafür, dass die aktuellen, offiziell gemeldeten GAST-Daten einfach nicht glaubwürdig sind und somit die Gefährdungsermittlung von 2009 ungültig machen. Es gab jedoch ein sehr kritisches wissenschaftliches Argument, das in keinem der beiden Berichte angeführt wurde, das aber im Addendum zum Forschungsbericht vom Juni 2017 enthalten ist.

Der Nachtrag macht deutlich, dass es einen völlig unabhängigen Beweis gibt, der viel leichter zu verstehen ist. Für den Zeitraum von 1900 bis 2000 gibt es für mindestens 40 % der Erdoberfläche praktisch keine glaubwürdigen Temperaturdaten. Dies ergibt sich aus der Tatsache, dass die Oberfläche der südlichen Hemisphäre zu über 80 % aus Ozeanen besteht (.50*.80=40), und dass für diese riesigen Ozeane in diesem Zeitraum praktisch keine glaubwürdigen Temperaturdaten erfasst wurden.

Daher war es nie sinnvoll, auch nur den Versuch zu unternehmen, einen GAST-Datensatz über diesen Zeitraum zu berechnen, es sei denn, man wollte einen Temperaturdatensatz erstellen, der über diesen Zeitraum praktisch jedes beliebige Muster aufweisen könnte, das die beteiligten Institutionen als Realität darstellen wollten. Da für weit über 40 % der Erdoberfläche buchstäblich keine glaubwürdigen Temperaturdaten zur Verfügung standen, waren diese Institutionen in Wahrheit nur durch das begrenzt, was für die Außenwelt glaubwürdig war.

In Unkenntnis dieser Fakten haben alle relevanten Parteien, z. B. Regulierungsbehörden, Umweltschützer und Regierungsbeamte, die GAST-Aufzeichnungen bisher viel zu sehr als gültige globale Temperaturdatenbank akzeptiert. Da nun separat nachgewiesen wurde, dass die GAST-Daten kein gültiges Abbild der Realität sind, bedeutet dies auch, dass die CO₂-Bedrohungsfeststellung von 2009 erneut für ungültig erklärt wurde – was bedeutet, dass die anderen drei ebenfalls ungültig sind.

2019: Als letzter Nagel im Sarg gehen alle Treibhausmodelle von einem so genannten tropischen Hot Spot aus, d. h. die Erwärmung in der höheren tropischen Atmosphäre wäre größer als die Oberflächenerwärmung, was zu einer Erwärmung von oben nach unten führen würde. In Übereinstimmung mit der Abbildung unten zeigen jedoch sowohl die UAH- und RSS-Satellitendaten als auch die Wetterballondaten, dass die Erwärmung in der hohen Atmosphäre weniger als die Hälfte der Erwärmung an der Oberfläche beträgt.

Die Klimamodelle sind also aus mindestens zwei Gründen ungültig: Erstens gehen sie alle von der Existenz eines nicht existierenden tropischen Hotspots aus, und zweitens sind sie alle so abgestimmt, dass sie die inzwischen erwiesenermaßen völlig gefälschten Daten zur globalen durchschnittlichen Temperatur am besten erklären.

2022: Im Bericht: „96% der US-Klimadaten sind korrumpiert“ wurde unter der Leitung von Anthony Watts und David Legates eine gründliche Analyse der Stationsstandorte durchgeführt, und man kam zu dem Schluss, dass die Entfernung der am stärksten exponierten Stationen nur an der Oberfläche kratzte und die Mehrheit der Stationen immer noch verzerrt war und die tatsächlichen Trends in den wenigen verbleibenden, korrekt platzierten Stationen durch Homogenisierung (Vermischung) verfälschte.

2024: The Epoch Times berichtet am 9. April 2024 in Hidden Behind Climate Policies, dass Daten von nicht existierenden Temperaturstationen verwendet werden. „Hunderte von ‚Geister‘-Klimastationen sind nicht mehr in Betrieb; stattdessen werden ihnen Temperaturen von umliegenden Stationen zugeordnet.“

Link: https://alarmistclaimresearch.wordpress.com/wp-content/uploads/2024/04/surface-station-timeline-040924.pdf

Übersetzt von Christian Freuer für das EIKE

Anmerkung: Die Links aus diesem PDF konnten leider nicht hinterlegt werden.

 




Klima-Alarmismus: eine fahrlässige Ablenkung von der realen Katastrophe

Vijay Jayaraj

Bevor der Hurrikan Milton in Florida an Land ging, brachten die Medien „einen historischen“ Sturm mit dem Klimawandel in Verbindung und warnten vor noch größeren Katastrophen in der Zukunft. Trotz des ganzen Lärms wurde Hurrikan Milton zu einem Sturm der Kategorie 3 herabgestuft, was für die meisten schon schlimm genug, wenn nicht gar apokalyptisch war.

Nichtsdestotrotz wird die Medienhetze über eine Klimakrise nicht aufhören. Dieser Alarmismus speist sich aus der emotionalen Intensität, mit der die Menschen auf Naturkatastrophen reagieren.

Aber diese Hysterie ist mehr als nur ein Ärgernis; sie ist wissenschaftlich ungenau und schädlich. Der Missbrauch von Wirbelstürmen als politischer Schlachtruf verstärkt die Angst in einer Zeit, in der eine besonnene Vorbereitung notwendig ist; er stellt den aktuellen Stand der Wissenschaft über Wirbelstürme und den Klimawandel falsch dar; er politisiert das, was ein unpolitischer Fokus auf Katastrophenschutz und -vorbereitung sein sollte.

Die von einem Hurrikan ausgehende unmittelbare Bedrohung hängt in erster Linie von seiner aktuellen Stärke, Größe und Zugbahn ab – nicht von langfristigen Klimatrends, unabhängig von deren Ursache. Weder die Häufigkeit von Hurrikanen weltweit noch die Anzahl der Hurrikane, die auf das amerikanische Festland treffen, haben signifikant zugenommen.

Die bis 1851 zurückreichenden Daten der National Oceanic and Atmospheric Administration, „U.S. Hurricane Strikes by Decade“, zeigen weder bei der Anzahl der Hurrikane in den USA noch bei der Anzahl schwerer Hurrikane (Kategorie 3-5) zwischen 1900 und 2023 einen signifikanten Trend.

Von 2006 bis 2017 erlebten die USA eine noch nie dagewesene „Hurrikan-Dürre“, in der 12 Jahre lang kein Sturm der Kategorie 3 oder höher auf das Festland übergegriffen hatte. Dies geschah trotz der Vorhersagen Einiger, dass der Klimawandel zu häufigeren und intensiveren Hurrikanen führen würde.

Der IPCC stellte in seinem jüngsten Zustandsbericht fest, dass es nur „geringes Vertrauen“ in langfristige (mehrdekadische bis hundertjährige) Trends bei der Häufigkeit aller Kategorien tropischer Wirbelstürme gibt, was auf einen minimalen Zusammenhang zwischen der Erwärmung im 21. Jahrhundert und der Häufigkeit von Hurrikanen hinweist.

Eine weitere wichtige Kennzahl, die im öffentlichen Diskurs wenig Beachtung findet, ist die Accumulated Cyclone Energy (ACE), welche die Anzahl, Stärke und Dauer aller tropischen Wirbelstürme in einer Saison berücksichtigt. Die globale ACE hat in den letzten 50 Jahren keine steigende Tendenz gezeigt. Vielmehr lag die Intensität der schweren Stürme in den letzten Jahren deutlich unter der Intensität im Zeitraum 1984-1998.

In Wahrheit gibt es keinen Hinweis darauf, dass wir Menschen die Hurrikane verschlimmert oder ihre Häufigkeit erhöht haben. Außerdem gab es Hurrikane schon lange vor dem Beginn der modernen Erwärmung, beeinflusst durch natürliche Zyklen wie El Niño und La Niña.

Die Auswirkungen von Wirbelstürmen sind heute aufgrund der Entwicklung der Küstengebiete für mehr Menschen spürbar. So lebten beispielsweise im Jahr 1900 weniger als 130 000 Menschen in der Tampa Bay. Bis 1950 war die Zahl auf 300.000 gestiegen; heute leben dort mehr als 3 Millionen Menschen.

Es ist also klar, dass die finanziellen Verluste zunehmen werden, da nun mehr Infrastruktur in Gefahr ist. Verbesserte Bauvorschriften, Vorhersagen und Evakuierungsverfahren haben jedoch dazu geführt, dass Hurrikane in den Industrieländern weniger tödlich sind.

Als Vermittler von Informationen haben Medien und Regierungen eine große Verantwortung, über Wirbelstürme ehrlich zu berichten und sie nicht als Gelegenheit zu missbrauchen, unbegründete Angst zu schüren.

Darüber hinaus tragen die fehlgeleiteten Prioritäten der fiktiven Klimakrise zu einer Fehlallokation von Ressourcen und Fehlverhalten aller Art bei, einschließlich einer mangelnden Vorbereitung auf echte Notfälle.

Fragen über die Angemessenheit der Finanzierung der Federal Emergency Management Agency bei der Reaktion auf den Hurrikan Helene unterstreichen, wie lebensgefährlich es ist, die Aufmerksamkeit von den akuten Bedürfnissen von Menschen in Notlagen abzulenken.

This commentary was first published at BizPac Review on October 14, 2024.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Arlington, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://cornwallalliance.org/frivolous-climate-diversion-in-the-face-of-real-disaster/

Übersetzt von Christian Freuer für das EIKE