400 Tiefsttemperatur-Rekorde in China gebrochen

Cap Allon

Vorbemerkung des Übersetzers: Wie aus allen bisherigen Kältereports dieses Jahres hervorgeht, ist in Ostasien allgemein und in China im Besonderen ein außerordentlich kalter Winter im Gange. Cap Allon hat hierzu in einem seiner Zusammenstellungen ausführlicher dazu Stellung genommen. Als Gegengewicht z. B. zu der wilden Propaganda des sehr milden Februars hierzulande werden diese Ausführungen hier übersetzt. – Ende Vorbemerkung

Die Einwohner der Stadt Shanghai haben gerade den kältesten Tag Ende Februar seit 43 Jahren (seit 1981) erlebt.

Die offizielle Temperatur zeigte am Samstag in Xujiahui 2,2°C an, als ein seltener Vorstoß von Luft arktischen Ursprungs die Metropole erfasste.

Am Samstagmorgen kam es in Shanghai zum ersten Mal in den über 150 Jahren meteorologischer Aufzeichnungen zu gefrierendem Regen.

Der Frost in China war wirklich sehr weitreichend und hat weit mehr Gebiete als nur Shanghai erfasst.

So sieht es in ganz China aus, und die Annalen zeigen es.

Nach der rekordverdächtigen Kälte in der vergangenen Woche, der bereits Ende Januar und Anfang Februar Kälteeinbrüche vorausgingen, haben weitere 400 Stationen die Tiefsttemperaturen für Ende Februar (Stand Sonntag) gebrochen, wobei 29 davon auch die Tiefstwerte für den gesamten Februar gebrochen haben.

Chinas arktischer Ausbruch war wirklich extrem und führte zu einem historischen Tiefststand im Süden.

Für eine Reihe von Orten wird dieser Monat als der kälteste Februar jemals in die Annalen eingehen.

Die AGW-Partei war – wie zu erwarten – auf „Schadensbegrenzung“ aus, wobei diejenigen Medien, die es wagten, Chinas Eiseskälte zu erwähnen, die landesweiten Extreme eifrig dem „Wohlstand im Westen“ (d. h. den CO₂-Emissionen) zuschrieben:

Diese Kälte stellt nicht nur einen Rekord für die niedrigste Tagestemperatur im Februar auf, sondern steht auch in krassem Gegensatz zu den normalerweise milden Winterbedingungen in der Stadt. Dieses Ereignis verdeutlicht laut lokalen meteorologischen Berichten die zunehmende Unvorhersehbarkeit von Wettermustern, eine wahrscheinliche Folge der weltweit zu beobachtenden Klimaveränderungen – bnnbreaking.com.

Die von der Xujiahui-Station aufgezeichneten Daten tragen nicht nur zu historischen Wetteraufzeichnungen bei, sondern dienen auch als wichtiger Analysepunkt für Wissenschaftler und Meteorologen, die versuchen, die sich verändernde Klimadynamik zu verstehen.

Während Shanghai nach dem kältesten Februartag seit über vier Jahrzehnten wieder auftaut, könnte dieses Ereignis ein deutlicher Ruf nach mehr Umweltbewusstsein und -maßnahmen sein, der sowohl die Einwohner als auch die politischen Entscheidungsträger dazu auffordert, die weiterreichenden Auswirkungen des Klimawandels und die dringende Notwendigkeit nachhaltiger Lebensweisen zu berücksichtigen.

Agenden stehen der Wahrheit im Weg, zumindest im Westen…

Die Winter in China sind in den letzten 6.000 Jahren milder geworden, ohne dass dies auf menschliche Aktivitäten zurückzuführen ist, so eine Studie einer Gruppe chinesischer Forscher. Mit Blick auf die Zukunft sagen die Wissenschaftler jedoch eine plötzliche und schwerwiegende Abkühlung voraus und weisen auf die ernsten Härten und Gefahren hin, die eine solche Episode mit sich bringen wird.

In der von prominenten chinesischen Wissenschaftlern geleiteten und im Online-Journal of Geophysical Research veröffentlichten Studie wird festgestellt, dass die Winde aus dem arktischen Sibirien seit Tausenden von Jahren schwächer geworden sind, dass sich die Baumgrenze der Nadelbäume nach Norden zurückgezogen hat und dass die biologische Vielfalt im Rahmen eines allgemeinen, bis heute anhaltenden Erwärmungstrends stetig zugenommen hat.

Diese Abschwächung des sibirischen Windes scheint nach Ansicht der Forscher nichts mit dem jüngsten Anstieg der Treibhausgase zu tun zu haben, der vermutlich mit der industriellen Revolution begann. Der leitende Wissenschaftler Dr. Wu Jing von der Chinesischen Akademie der Wissenschaften erklärte, die Studie habe keine Hinweise auf einen menschlichen Einfluss auf die Erwärmung der Winter in Nordchina ergeben.

„Zu den treibenden Kräften gehören die Sonne, die Atmosphäre und die Wechselwirkung mit dem Ozean“, erklärte Wu. „Wir haben keine Hinweise auf einen menschlichen Einfluss gefunden. Aber das bedeutet nicht, dass wir einfach nur entspannen und nichts tun können“.

Wu und ihre Kollegen befürchten, dass die Menschen in dem Maße, in dem sie vom Konzept der globalen Erwärmung indoktriniert werden, ein falsches Vertrauen in unsere Fähigkeit entwickeln werden, das Klima zu kontrollieren, was wir ihrer Meinung nach nicht können. Die Natur, so warnen die Wissenschaftler, wird uns wahrscheinlich austricksen und uns völlig unvorbereitet erwischen, was zu Chaos, Panik, Hungersnöten und sogar Kriegen führen kann.

Es gibt bereits besorgniserregende Anzeichen dafür, heißt es in der Studie.

Zunächst einmal haben Wu und ihre Kollegen herausgefunden, dass die Erwärmung des Winters in den letzten 6000 Jahren alles andere als linear verlaufen ist, mit heftigen Auf- und Abschwüngen, die etwa alle 500 Jahre auftreten.

Nach mehr als 13 Jahren engagierter Forschung an vulkanischen Seen in der Wildnis des Khingan-Gebirges in der Inneren Mongolei haben die Wissenschaftler Klimadaten gesammelt und ausgewertet, die bis zu 10 000 Jahre zurückreichen.

Ihre Ergebnisse bestätigten eine frühere Studie eines anderen Teams chinesischer Wissenschaftler, die 2014 veröffentlicht wurde und in der erstmals das 500-jährige zyklische Muster des chinesischen Sommermonsuns entdeckt und mit der Sonnenaktivität in Verbindung gebracht wurde.

Diese Studie aus dem Jahr 2014, die sich auf Proxydaten aus 5000 Jahren stützte, deutete darauf hin, dass die derzeitige warme Phase innerhalb der nächsten Jahrzehnte enden und eine brutale 250-jährige Abkühlungsphase (auch bekannt als „Super Grand Solar Minimum“) einleiten würde.

Wu sagte, dass ihre jüngste Studie nicht nur dazu beigetragen hat, den 500-Jahres-Zyklus zu konkretisieren, sondern auch einen bisher unbekannten Prozess hinter dem Phänomen aufgedeckt hat, der zeigt, dass der Einfluss der Sonne auf das Klima der Erde weitaus größer ist als bisher angenommen.

Wie Wu ausführte, reichten die Schwankungen der Sonnenaktivität allein in der Regel nicht aus, um die raschen Veränderungen der Vegetation hervorzurufen, die das Forschungsteam in den Sedimentkernen der Vulkanseen beobachtete. Stattdessen fanden die Wissenschaftler heraus, dass die Auswirkungen durch eine massive Wechselwirkung zwischen dem Meerwasser an der Oberfläche und der Atmosphäre im Pazifischen Ozean verstärkt wurden, die als „El Nino-Southern Oscillation bekannt ist (mit anderen Worten: Das Klimasystem ist komplex – viel komplexer als die AGW-Partei uns glauben machen will).

Aufgrund ihrer Ergebnisse sagte Wu, dass sie sich nun mehr Sorgen über die globale Abkühlung als über die globale Erwärmung mache.

„Ein starker Temperaturrückgang nützt niemandem“, sagte sie. „Das größte Problem ist, dass wir wissen, dass er kommen wird, aber wir wissen nicht genau, wann“.

Lassen Sie sich nicht von den Märchen täuschen, die von den herrschenden Eliten der Welt gesponnen werden. Diese zwielichtigen Mächte wollen, dass wir verängstigt, mittellos und krank sind. Der beste Weg, sich auf den „Klimawandel“ vorzubereiten, besteht darin, davon auszugehen, dass es kälter wird – das Leben hat mit der Kälte zu kämpfen, das war schon immer so, und wir Menschen sind trotz unserer modernen technischen Errungenschaften alles andere als immun.

Link: https://electroverse.substack.com/p/china-breaks-400-low-temperature (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Neue Studien widerlegen zentrale Behauptungen zum Klimawandel

Der Klima-Aktivismus ist zur neuen Religion des 21. Jahrhunderts geworden – Ketzer sind nicht willkommen, und es dürfen keine Fragen gestellt werden“, sagt der Astrophysiker Willie Soon.

Alex Newman

Temperaturaufzeichnungen, die von Klimawissenschaftlern und Regierungen verwendet werden, um Modelle zu erstellen, die dann gefährliche Auswirkungen der vom Menschen verursachten globalen Erwärmung vorhersagen, weisen ernsthafte Probleme und sogar Fälschungen in den Daten auf, so mehrere Wissenschaftler gegenüber The Epoch Times, die kürzlich Studien zu diesem Thema veröffentlicht haben.

Die Regierung Biden stützt sich auf ihren jüngsten Bericht über die nationale Klimabilanz als Beweis dafür, dass die globale Erwärmung durch menschliche Aktivitäten beschleunigt wird. In dem Dokument heißt es, dass die menschlichen Emissionen von „Treibhausgasen“ wie Kohlendioxid die Erde in gefährlicher Weise erwärmen.

Der IPCC vertritt die gleiche Ansicht, und seine führenden Vertreter drängen daraufhin auf umfassende Änderungen der globalen Politik.

Doch wissenschaftliche Experten aus aller Welt und aus den verschiedensten Disziplinen wehren sich dagegen. In von Fachleuten begutachteten Studien weisen sie auf eine Vielzahl von Mängeln bei den globalen Temperaturdaten hin, die für die düsteren Schlussfolgerungen herangezogen wurden; sie sagen, es sei an der Zeit, die gesamte Darstellung zu überdenken.

Zu den Problemen mit den Temperaturdaten gehören der Mangel an geographisch und historisch repräsentativen Daten, die Kontaminierung der Aufzeichnungen durch Wärme aus städtischen Gebieten und die Verfälschung der Daten durch einen als „Homogenisierung“ bezeichneten Prozess.

Die Mängel sind so gravierend, dass sie die Temperaturdaten – und die darauf basierenden Modelle – im Grunde unbrauchbar oder sogar noch schlimmer machen, erklärten drei unabhängige Wissenschaftler des Center for Environmental Research and Earth Sciences (CERES).

Die Experten sagten, dass die vermeintliche, angeblich durch menschliche Aktivitäten verursachte „Klimakrise“ verschwindet, wenn man die Datenverfälschung berücksichtigt. Stattdessen biete die natürliche Klimavariabilität eine viel bessere Erklärung für die Beobachtungen, so die Experten.

Experten: Fixierung auf CO₂ ignoriert wahren Treiber der Temperatur

Einige Experten erklärten gegenüber der Epoch Times, dass es sich offenbar um vorsätzlichen Betrug handele, während andere eher harmlose Erklärungen anführten.

Doch unabhängig von der Ursache der Probleme können die Auswirkungen der Ergebnisse kaum überschätzt werden.

Wenn es keine Klimakrise gibt, fällt die Rechtfertigung für Billionen von Dollar an Staatsausgaben und kostspielige Änderungen der öffentlichen Politik zur Begrenzung der Kohlendioxid (CO₂)-Emissionen in sich zusammen, erklärten die Wissenschaftler in einer Reihe von Interviews über ihre Forschung.

In den letzten 35 Jahren wurden die Worte des IPCC als Evangelium betrachtet“, so der Astrophysiker und CERES-Gründer Willie Soon. Bis vor kurzem arbeitete er als Forscher am Center for Astrophysics, Harvard & Smithsonian. „Und tatsächlich ist der Klima-Aktivismus zur neuen Religion des 21. Jahrhunderts geworden – Ketzer sind nicht willkommen, und es dürfen keine Fragen gestellt werden. Gute Wissenschaft verlangt aber, dass Wissenschaftler ermutigt werden, das Dogma des IPCC in Frage zu stellen. Die angebliche Reinheit der globalen Temperaturaufzeichnungen ist eines der heiligsten Dogmen des IPCC.“

Im jüngsten Bericht der US-Regierung über die nationale Klimabilanz heißt es: „Menschliche Aktivitäten verändern das Klima. Die Beweise für eine Erwärmung in vielen Bereichen des Erdsystems sind unbestreitbar, und die Wissenschaft ist sich einig, dass die Zunahme der atmosphärischen Treibhausgase für viele der beobachteten Trends und Veränderungen verantwortlich ist.“

Dem Bericht zufolge ist dies vor allem auf menschliche Aktivitäten wie die Verbrennung fossiler Brennstoffe für Verkehr, Energie und Landwirtschaft zurückzuführen.

Ein Blick auf die Zeitskala macht die großen Probleme mit dieser Darstellung deutlich, so Soon: „Wenn die Leute nach der globalen Erwärmung oder dem Klimawandel fragen, ist es wichtig zu fragen: ‚Seit wann? Die Daten zeigen, dass es sich seit den 1970er Jahren erwärmt hat, aber dass dies auf eine Abkühlungsphase seit den 1940er Jahren folgte.“

Zwar ist es jetzt „definitiv wärmer“ als im 19. Jahrhundert, sagte Soon, doch zeigen die Proxy-Temperaturdaten, dass das 19. Jahrhundert „außergewöhnlich kalt war. Es war das Ende einer Periode, die als Kleine Eiszeit bekannt ist“, sagte er.

Daten von Temperaturstationen in ländlichen Gebieten, Ozeanmessungen, Wetterballone, Satellitenmessungen und alternative Temperaturdaten wie Baumringe, Gletscher und Seesedimente „zeigen, dass sich das Klima immer verändert hat“, sagte Soon. „Sie zeigen, dass das derzeitige Klima außerhalb der Städte nicht ungewöhnlich ist“ und fügte hinzu, dass die Wärme aus städtischen Gebieten die Daten unzulässig beeinflusst.

Wenn wir die Temperaturdaten aus den Städten herausnehmen, die nur 3 Prozent des Planeten ausmachen, erhalten wir ein ganz anderes Bild des Klimas.“

Homogenisierung

Ein Problem, das nach Ansicht der Wissenschaftler die Daten verfälscht, ist ein obskurer Prozess, der als „Homogenisierung“ bekannt ist.

Nach Angaben von Klimawissenschaftlern, die mit Regierungen und der UNO zusammenarbeiten, sind die für die Homogenisierung verwendeten Algorithmen darauf ausgelegt, verschiedene, in den rohen Temperaturdaten möglicherweise vorhanden Verzerrungen so weit wie möglich zu korrigieren.

Zu diesen Verzerrungen gehören u. a. die Verlegung von Temperatur-Messstationen, Änderungen in der zur Datenerfassung verwendeten Technologie oder Veränderungen in der Umgebung eines Thermometers, die sich auf dessen Messwerte auswirken könnten.

Wenn beispielsweise eine Temperaturmessstation ursprünglich auf einem leeren Feld platziert war, dieses Feld aber inzwischen zu einem Parkplatz umgewandelt wurde, würde die Aufzeichnung viel höhere Temperaturen anzeigen. Daher wäre es sinnvoll, zu versuchen, die erfassten Daten zu korrigieren.

Praktisch niemand bestreitet, dass eine gewisse Homogenisierung erforderlich ist, um verschiedene Faktoren zu berücksichtigen, welche die Temperaturdaten kontaminieren können.

Eine genauere Untersuchung des Prozesses, wie er jetzt abläuft, gibt jedoch Anlass zu großen Bedenken, sagte Ronan Connolly, ein unabhängiger Wissenschaftler bei CERES. „Während die wissenschaftliche Gemeinschaft süchtig danach geworden ist, diese Computerprogramme blind zu benutzen, um die Datenverzerrungen zu korrigieren, hat sich bis vor kurzem niemand die Mühe gemacht, unter die Haube zu schauen, um zu sehen, ob die Programme funktionieren, wenn sie auf reale Temperaturdaten angewandt werden“, sagte er gegenüber The Epoch Times.

Seit Anfang der 2000er Jahre verlassen sich verschiedene staatliche und zwischenstaatliche Organisationen, die globale Temperaturaufzeichnungen erstellen, auf Computerprogramme zur automatischen Anpassung der Daten.

Soon, Connolly nebst einem Team von Wissenschaftlern aus der ganzen Welt haben sich jahrelang mit diesen Programmen beschäftigt, um herauszufinden, wie sie funktionieren und ob sie zuverlässig sind.

Einer der an der Analyse beteiligten Wissenschaftler, Peter O’Neill, hat die Daten der National Oceanographic and Atmospheric Administration (NOAA) und ihres Global Historical Climatology Network seit 2011 täglich verfolgt und heruntergeladen. Er fand heraus, dass die NOAA jeden Tag andere Anpassungen an den Daten vornimmt.

Sie verwenden dasselbe Computerprogramm zur Homogenisierung und führen es etwa alle 24 Stunden erneut aus“, so Connolly. „Aber jeden Tag sind die Anpassungen der Homogenisierung anders, die sie für jede Temperaturaufzeichnung berechnen. Das ist sehr bizarr. Wenn die Anpassungen für eine bestimmte Wetterstation irgendeine Grundlage in der Realität haben, dann würden wir erwarten, dass das Computerprogramm jedes Mal die gleichen Anpassungen berechnet. Wir haben festgestellt, dass dies nicht der Fall ist.“

Diese Bedenken waren der Auslöser für die internationale Untersuchung des Themas durch Soon et al.

Da die NOAA keine historischen Informationen über ihre Wetterstationen aufbewahrt, wandten sich die CERES-Wissenschaftler an europäische Wissenschaftler, welche die Daten für die von ihnen betreuten Stationen zusammengestellt hatten.

Sie fanden heraus, dass nur 17 Prozent der NOAA-Anpassungen konsequent angewendet wurden. Und weniger als 20 Prozent der NOAA-Anpassungen waren eindeutig mit einer dokumentierten Änderung der Stationsbeobachtungen verbunden. „Als wir unter die Motorhaube schauten, stellten wir fest, dass statt eines Motors ein Hamster im Rad lief“, sagte Connolly. „Es scheint, dass bei diesen Homogenisierungsprogrammen das Heilmittel schlimmer ist als die Krankheit“.

Ein Sprecher der Nationalen Zentren für Umweltinformationen der NOAA spielte die Bedeutung herunter, sagte aber, dass die Behörde daran arbeite, die in den Dokumenten angesprochenen Probleme zu lösen.

Die NOAA verwendet den gut dokumentierten paarweisen Homogenisierungs-Algorithmus jeden Tag für die GHCNm (monatlich)-Version 4, und die Ergebnisse spezifischer Anpassungen einzelner Stationsreihen können sich von Lauf zu Lauf unterscheiden“, sagte der Sprecher und fügte hinzu, dass die fraglichen Arbeiten nicht die Ansicht unterstützten, dass die Bedenken über die Homogenisierung der Daten diese unbrauchbar oder schlechter machten. „Die NOAA wird die in diesen beiden Arbeiten aufgeworfenen Fragen in einer zukünftigen Version des GHCNm-Temperaturdatensatzes und der dazugehörigen Dokumentation behandeln.“

Städtische Wärmeinseln

Einer der größten Fehler in den Temperaturdaten, der eine Homogenisierung überhaupt erst notwendig macht, ist der so genannte städtische Wärmeinseleffekt (UHI).

Im Wesentlichen sind die Temperaturstationen, die sich früher in ländlichen Gebieten befanden, heute in vielen Fällen von Straßen, Gebäuden, Flughäfen und Städten umgeben. Dies führt zu einer zusätzlichen lokalen Erwärmung in der Umgebung des Thermometers, was den Anschein einer drastischen „globalen Erwärmung“ erweckt, wenn viele ähnliche Stationen zusammen untersucht werden.

Der Weltklimarat hat den städtischen Wärmeinseleffekt und die Kontaminierung der Daten anerkannt, doch nach Ansicht der Wissenschaftler, die mit The Epoch Times sprachen, hat die UN-Organisation fälschlicherweise angenommen, es handele sich um ein geringfügiges Problem.

In einer neuen, von Experten begutachteten Studie schätzt die Koalition von Wissenschaftlern, dass bis zu 40 Prozent der beobachteten Erwärmung seit dem 19. Jahrhundert, die vom IPCC verwendet wird, tatsächlich das Ergebnis dieser städtischen Wärmeverzerrung ist – und nicht eines der CO₂-getriebenen globalen Erwärmung.

Wenn wir uns die nicht-städtischen Temperaturdaten für das Land, die Ozeane und andere Temperaturaufzeichnungen ansehen, ist die Erwärmung viel weniger dramatisch und scheint anderen Warmzeiten vor der industriellen Revolution zu ähneln“, sagte Connolly. „Der IPCC berücksichtigt den städtischen Wärmeinseleffekt nicht“.

Als Connolly und andere Wissenschaftler eine Temperaturreihe erstellten, bei dem nur ländliche Temperaturstationen verwendet wurden, verschwand fast die Hälfte der von der UNO unterstellten globalen Erwärmung. In der Tat stimmen die Datensätze, die nur für den ländlichen Raum gelten, viel besser mit den Daten von Wetterballonen und Satelliten überein.

Insgesamt zeigen die nur für den ländlichen Raum geltenden Aufzeichnungen, dass die mäßige Erwärmung wahrscheinlich nur eine Erholung von der Kleinen Eiszeit von etwa 1300 bis 1900 n. Chr. ist, die wiederum auf die mittelalterliche Warmzeit von etwa 800 bis 1200 n. Chr. folgte, in der die Wikinger in Grönland Landwirtschaft betrieben.

„Die mittelalterliche Warmzeit scheint in etwa so warm gewesen zu sein wie die moderne Warmzeit, aber nur, wenn wir die Aufzeichnungen nur für den ländlichen Raum verwenden“, sagte Connolly. „Während es seit dem Ende der Kleinen Eiszeit eine globale Erwärmung gegeben hat, zeigen alle primären globalen Temperaturschätzungen, dass der Planet zwischen Phasen der Erwärmung und der Abkühlung wechselt, wenn die städtischen Datensätze ausgeschlossen werden“, sagte er.

Die derzeitige Erwärmung begann in den 1970er Jahren, als die Wissenschaftler noch vor der angeblich vom Menschen verursachten globalen Abkühlung warnten, die in den 1940er Jahren eingesetzt hatte.

Michael Connolly, ein weiterer unabhängiger Wissenschaftler bei CERES und Vater von Ronan Connolly, stellte fest, dass die Erwärmung in den etwa 3 Prozent der Landoberfläche der Erde bedeckenden Städten tatsächlich zu einem „großen Problem“ wird, das angegangen werden sollte.

Aber es kann nicht durch Treibhausgaspolitik gelöst werden“, sagte er. „Stattdessen sollten wir mehr in die Begrünung der Städte und andere Maßnahmen investieren, um die Hitzewellen in den Städten zu reduzieren.“

Vermischung von Daten aus ländlichen und städtischen Gebieten

Ein anderes Problem mit Homogenisierungs-Algorithmen wurde in einer anderen Studie untersucht, die letztes Jahr im Journal of Applied Meteorology and Climatology veröffentlicht wurde.

Das Problem, das Ronan Connolly und seine Kollegen als „Urban Blending“ [urbane Vermischung] bezeichnen, betrifft die Vergleiche zwischen den Temperaturaufzeichnungen einer Station und anderen in der Umgebung.

Wenn die Daten einer Station nicht mit den anderen übereinstimmt, geht das Programm davon aus, dass es sich um eine nichtklimatische Abweichung handelt, die korrigiert werden sollte.

Das vielleicht größte Problem dabei ist, dass die Erwärmung in den Städten die gesamte Temperaturaufzeichnung kontaminieren kann, indem sie mit Daten aus dem ländlichen Raum vermischt wird.

Das Ergebnis ist, dass städtische und ländliche Daten miteinander vermischt werden, so dass ein Teil der städtischen Erwärmung in die ländlichen Daten hinein gemengt wird, obwohl das Problem bei diesen nicht auftritt.

Eine nützliche Analogie ist, dass wenn man Erdbeeren und Bananen in einem Mixer mischt, man am Ende eine homogene Mischung hat, die weder aus Erdbeeren noch aus Bananen besteht“, sagte Ronan Connolly. „Betrachtet man die Temperaturdaten, bedeutet dies, dass die homogenisierten ländlichen Aufzeichnungen ebenfalls die städtische Erwärmung enthalten.“

Die angeblich „ungewöhnliche“ globale Erwärmung, auf die sich der IPCC und andere Quellen berufen, sei nur in den städtischen Daten zu finden, die durch die mit den Städten verbundene Wärme kontaminiert seien, sagte er. Aber durch die Verwendung der homogenisierten Daten werden alle Daten durch den städtischen Wärmeeffekt künstlich verzerrt.

Wenn wir uns die Temperaturdaten ansehen, die nicht durch die Erwärmung in den Städten kontaminiert wurden, scheint es, dass die Temperaturveränderungen seit der Zeit vor der industriellen Revolution fast zyklisch verlaufen sind – Abkühlungsperioden gefolgt von Erwärmungsperioden“, so Ronan Connolly. „Dies lässt sich nicht mit dem Anstieg der Treibhausgase erklären, da diese nur nach oben gehen. Stattdessen deutet es darauf hin, dass die Wissenschaftler, die fälschlicherweise die Erwärmung in den Städten mit den Temperaturveränderungen außerhalb der Städte vermischt haben, mit ihrer Überzeugung, dass CO₂ der Haupttreiber des Klimas ist, einem Ablenkungsmanöver hinterherlaufen.“

Allerdings ist nicht jeder davon überzeugt, dass diese Probleme so bedeutsam sind, wie die CERES-Wissenschaftler behauptet haben.

Professor Robert Lund, ein anerkannter Experte auf diesem Gebiet und Lehrstuhlinhaber für Statistik an der Universität von Kalifornien-Santa Cruz, erklärte gegenüber der Epoch Times, dass ihn die von Herrn Soon und seinen Kollegen vorgebrachten Argumente „erschaudern“ ließen.

Es stimmt, dass viele Klimawissenschaftler im Allgemeinen nicht die besten Methoden verwenden, um die Daten zu bereinigen“, sagte Lund. „Aber die Behauptung der CERES-Wissenschaftler, dass die Rückschlüsse auf die Erwärmung, die wir machen, wegen der Veränderungen der Messgeräte und der Verlegung der Messstationen und ihrer suboptimalen Behandlung in den Homogenisierungsverfahren falsch sind, ist einfach nicht wahr“, sagte er. „Unabhängig davon, wie man mit der Frage der Veränderungspunkte umgeht, weisen alle global gemittelten Reihen (wie die IPCC-Reihen) starke Aufwärtstrends auf. So einfach ist das. Das Homogenisierungsproblem könnte vielleicht 0,1 oder 0,2 Grad Celsius pro Jahrhundert von den 1,3 [Grad Celsius] ausmachen, die wir global erwärmen, aber nicht mehr“.

Er warf den CERES-Wissenschaftlern vor, dass sie „versuchen, jede Menge Unsicherheit einzuführen, diese zu potenzieren und alles zu diskreditieren“.

Auf die Frage, ob er vorhabe, ihre Studien in einer eigenen Arbeit zu widerlegen, sagte Lund, dass er und andere auf diesem Gebiet des Kampfes gegen Wissenschaftler überdrüssig geworden seien, die vor allem daran interessiert seien, das Klimanarrativ zu diskreditieren.

Eine Reihe anderer Wissenschaftler auf beiden Seiten der Debatte reagierte nicht auf Bitten um Kommentare.

Mehrere Kritiker der vom Menschen verursachten globalen Erwärmung baten darum, sich inoffiziell zu äußern, da sie Vergeltungsmaßnahmen seitens ihrer Institutionen, Kollegen, Zeitschriften oder Geldgeber befürchteten.

[Hervorhebung vom Übersetzer]

Weitere Probleme

Vor den 1970er Jahren gibt es eigentlich keine historischen Temperaturdaten, was jede Art von Langzeitstudie erschwert. Und außerhalb Europas und Nordamerikas gibt es nur sehr wenige Daten.

Bis vor kurzem waren die Daten aus den Ozeanen – die mehr als zwei Drittel der Erdoberfläche ausmachen – ebenfalls spärlich und beschränkten sich hauptsächlich auf gelegentliche Messungen an den Haupt-Schifffahrtsrouten der nördlichen Hemisphäre.

Die NOAA wurde dafür kritisiert, dass mehr als 90 Prozent ihrer Klimastationen von der städtischen Wärmeverzerrung betroffen sind, berichtete die Epoch Times im Januar unter Berufung auf Wissenschaftler und eine separate Studie, in welcher die Temperaturaufzeichnungen der NOAA separat untersucht wurden.

Eine Studie des Meteorologen Anthony Watts ergab, dass im Jahr 2022 rund 96 Prozent der Stationen die Zuverlässigkeitsstandards der Behörde nicht erfüllen werden.

Michael Connolly wies darauf hin, dass die Wetterstationen ursprünglich zur Überwachung des täglichen Wetters und nicht zur Beobachtung langfristiger Klimaveränderungen eingerichtet worden seien. „Die meisten Wissenschaftler, mit denen ich persönlich spreche, geben zwar zu, dass sie Vorbehalte gegen bestimmte Aspekte der derzeitigen Darstellung des Klimawandels haben, aber sie sagen, dass ihre Institutionen darunter leiden würden, wenn sie sich äußern würden“, sagte er.

[Hervorhebung vom Übersetzer]

Soon räumte ein, dass die Messung des Klimawandels ein „sehr schwieriges wissenschaftliches Problem“ sei, vor allem weil die Daten unvollkommen seien. Aber Wissenschaftler haben die Pflicht, in dieser Hinsicht ehrlich zu sein. „Viele Forschungsgruppen scheinen in der Hektik, Zuschüsse zu erhalten und ihre Arbeit zu veröffentlichen, die schwerwiegenden Probleme der von ihnen verwendeten Daten zu übersehen“, sagte er und fügte hinzu, dass viele Wissenschaftler um ihre Arbeitsplatzsicherheit besorgt seien und sich nicht trauten, ihre Meinung zu sagen.

[Hervorhebung vom Übersetzer]

Aber einige Analysten, die sich mit dieser Problematik auseinander gesetzt haben sagen, dass es sich um vorsätzlichen Betrug handelt.

Der Wissenschaftler und Ingenieur Tony Heller von der Website Real Climate Science sagte, dass die Temperaturdaten – sowohl die historischen als auch die geographischen – „völlig unzureichend“ seien.

Die Bedenken über Homogenisierung und Vermischung wiederholend sagte er der Epoch Times, dass „die Theorie zu sein scheint, dass das Mischen einer Menge sehr schlechter Zutaten eine gute Suppe ergibt“.

Heller beschuldigt die NOAA, ihre Daten zu manipulieren, um den „Anschein einer Erwärmun“ zu erwecken, und nennt die globalen und US-amerikanischen Temperaturaufzeichnungen „Propaganda, nicht Wissenschaft“.

Die irreführenden Anpassungen der Daten und die allgemeine Täuschung seien „absolut vorsätzlich“, sagte er. „Billionen Dollar werden in die Propagierung der globalen Erwärmung und des Klimawandels gesteckt.“

Bislang wurden die Studien von Soon und anderen in keiner von Fachleuten überprüften Literatur widerlegt. Einige prominente Wissenschaftler, die für die Bundesregierung und andere mit der Klimabewegung verbundene Einrichtungen arbeiten, haben die Autoren jedoch lächerlich gemacht und beleidigt, wie die Epoch Times im Oktober 2023 berichtete.

Weder der IPCC noch der führende NASA-Klimaforscher Gavin Schmidt reagierten auf die Bitte um Stellungnahme.

————————-

Übersetzt von Christian Freuer für das EIKE

Dieser Beitrag ist per E-Mail übermittelt worden, so dass kein expliziter Link angegeben werden kann. Wer die Übersetzung überprüfen will, kann das mit dem DOC-Dokument im Anhang tun.

Außerdem ist die gesamte Studie von Soon et al. im PDF beigefügt.

AlexNewman24-Feb28-TextoftheArticle-SoonCERES022824

AlexNewman24-Feb28-New Studies Undercut Key Climate Change Claims




Der Hockeyschläger-Prozess

Rupert Darwall

„Die Wissenschaft“, schrieb der Philosoph Karl Popper, „ist eine der wenigen menschlichen Tätigkeiten – vielleicht die einzige – in der Fehler systematisch kritisiert und ziemlich oft mit der Zeit korrigiert werden“. Der Untertitel von Poppers Buch Conjectures and Refutations [etwa: Behauptungen und Widerlegungen] aus dem Jahr 1963, in dem er argumentierte, dass die Wissenschaft durch inspirierte Vermutungen voranschreitet, die durch Versuche überprüft werden, sie durch Kritik zu widerlegen lautet „The Growth of Scientific Knowledge“. Nun hat eine sechsköpfige Jury in Washington, D.C., Poppers Formulierung von der Einzigartigkeit der Wissenschaft widerlegt und zugunsten des Klimawissenschaftlers Michael Mann in der Verleumdungsklage entschieden, die dieser 2012 gegen Rand Simberg und Mark Steyn angestrengt hatte.

Im Mittelpunkt von Manns Argumentation stand sein Versuch, die globale Temperaturentwicklung des letzten Jahrtausends zu rekonstruieren – die berühmte „Hockeyschläger“-Grafik. Die Grafik zeigt, dass die globalen Temperaturen angeblich jahrhundertelang sanken und mit dem Beginn der industriellen Revolution plötzlich in die Höhe schossen. Manns Hockeystick-Darstellung wurde hauptsächlich aus ausgewählten Baumringdaten abgeleitet, wobei er davon ausging, dass Baumringe genaue Ersatzwerte für die Temperatur darstellen und nicht durch Störfaktoren wie Niederschläge, saisonale Schwankungen und den Kohlendioxidgehalt in der Atmosphäre kontaminiert sind. Die von Mann erzielten Ergebnisse hängen auch von willkürlichen Entscheidungen und der Anwendung statistischer Verfahren ab.

An der historischen Bedeutung des Hockeysticks für die Entwicklung und Verbreitung dessen, was zum vorherrschenden wissenschaftlichen Paradigma des Klimawandels wurde, gibt es kaum Zweifel. Im Jahr 2001 wurde der Hockeystick im Dritten Sachstandsbericht des IPCC zum Star, wo er zweimal im Synthesebericht, zweimal in einem Diagramm, das vergangene und künftige Temperaturveränderungen kombiniert, und erneut auf der dritten Seite der Zusammenfassung der Arbeitsgruppe I für politische Entscheidungsträger erschien. Gerald North, ein führender Atmosphärenphysiker an der Texas A&M University und einer der meistzitierten Autoren in den Geowissenschaften, hatte keinen Zweifel an der Bedeutung des Hockeysticks. „Der Planet hat sich langsam abgekühlt, bis er vor einhundertzwanzig Jahren sprunghaft wärmer wurde“, erklärte North im Jahr 2000 gegenüber Science. „Wir haben uns bei der Erkennung von [Treibhausgasen] abgearbeitet, aber ich fand die eintausendjährigen Aufzeichnungen überzeugender als alle unsere Erkennungsstudien.“ Für Mann war der Hockeystick seine Eintrittskarte zum Superstar des Klimas.

Im Einklang mit Poppers Prämisse über die Wissenschaft stieß Manns Hockeystick jedoch schon bei seinem ersten Erscheinen auf Kritik. Als Reaktion darauf bemühte sich Mann, jegliche Kritik am Hockeystick und die Diskussion über konkurrierende Temperatur-Rekonstruktionen zu unterdrücken, die heikle Fragen zu seiner wissenschaftlichen Gültigkeit aufwerfen könnten. Eine konkurrierende Rekonstruktion des Paläoklimatologen Keith Briffa zum Beispiel, die von Baumringdaten aus Nordkanada und Sibirien abgeleitet wurde, zeigte einen deutlichen Temperaturrückgang in der zweiten Hälfte des 20. Jahrhunderts – Beginn einer Abweichung von der instrumentalen Aufzeichnung. Wenn die Baumringe einen Temperaturrückgang anzeigten, während die Temperaturen in Wirklichkeit stiegen, wie konnten die Klimawissenschaftler dann noch Vertrauen in die Baumringe als Thermometer setzen? Oben könnte wirklich unten bedeuten.

Briffa schrieb daraufhin einen Artikel für Science, in dem er die konkurrierenden Rekonstruktionen verglich. Wie wir aus den 2009 durchgesickerten Climategate-E-Mails wissen, wandte sich Mann an den Herausgeber von Science. „Besser, es erscheint nichts, als etwas, das für uns inakzeptabel ist“, schrieb er und kopierte einen seiner Mitautoren hinein, Raymond Bradley. Nachdem Science Briffas Arbeit veröffentlicht hatte, versuchte Mann, die Dinge wieder in Ordnung zu bringen. „Danke für all die harte Arbeit“, schrieb er per E-Mail an seine Kollegen. Das kam bei Bradley nicht gut an. „Entschuldigen Sie mich, während ich mich übergeben muss“, mailte Bradley an Briffa.

Solche Machenschaften sind ein Klacks im Vergleich zu den Operationen, die an den Diagrammen der im Dritten Sachstandsbericht des IPCC vorgestellten Proxy-Rekonstruktionen vorgenommen worden waren. Um mit Briffas fragwürdigem Temperaturrückgang fertig zu werden, griffen Mann als Hauptautor des Kapitels und ein engmaschiges Team zu dem einfachen Mittel, nachteilige Daten abzuschneiden, die als „potenzielle Ablenkung“ dienen könnten, wie Mann seinen Kollegen erklärte, und so den Temperaturrückgang zu verbergen, den Briffas Proxies zeigten, während die Temperaturen stiegen. Der Trick beinhaltete auch die Verwendung tatsächlicher Temperaturdaten, um die Proxy-Kurven zu glätten, was als „Mike’s Nature-Trick“ bekannt wurde, etwas, das Mann zuvor in einer bei dieser Zeitschrift eingereichten Arbeit getan hatte.

Es gab ein grundlegenderes Problem mit der Konstruktion des Hockeysticks. Eine von den Kanadiern Steve McIntyre, einem ehemaligen Bergbauingenieur mit fundierten mathematischen Kenntnissen, und dem Umweltökonomen Ross McKitrick durchgeführte Analyse, bei der ein auf einem Fragment von Manns Computercode basierender Algorithmus verwendet worden war ergab, dass die Ausführung von statistisch trendlosem „rotem Rauschen“ in 99 Prozent der Fälle Hockeystick-Formen ergab. Mit anderen Worten: Man kann Hockeysticks aus zufälligen Schrottdaten erzeugen, wenn man nur genug davon hat.

Mann nahm in seinen Proxy-Datensatz eine Reihe von Daten von Borstenkiefern und Fuchsschwanzkiefern aus dem Westen der Vereinigten Staaten auf, die der Forscher Donald Graybill ausgewählt hatte, um die möglichen Auswirkungen der Kohlendioxiddüngung auf das Baumwachstum zu untersuchen. Um aus den Daten den Hockeystick zu erhalten, benötigte Mann sowohl den Algorithmus als auch die Baumringdaten von Graybill. Wusste Mann, was er da tat? In seinem Verzeichnis der nordamerikanischen Proxydaten hatte Mann einen Ordner mit der Bezeichnung BACKTO_1400-CENSORED, der die nordamerikanischen Daten mit Ausnahme aller sechzehn Graybill-Serien enthielt. Wenn die Zahlen aus dem Ordner CENSORED ausgeführt wurden, verschwand das Blatt des Hockeysticks.

Das Blatt des Hockeysticks zeigte zwar einen starken, anomalen Anstieg der globalen Temperatur, der mit dem Beginn der industriellen Revolution zusammenfiel, aber sein Schaft hatte auch eine entscheidende Funktion bei der radikalen Revision der zuvor akzeptierten klimatologischen Aufzeichnungen, indem er einen stetigen Rückgang der Temperaturen ab dem Ende des ersten Jahrtausends zeigte. Was frühere Generationen von Klimatologen als mittelalterliche Warmzeit bezeichneten, war verschwunden.

Die mittelalterliche Warmzeit stellte für die neue Orthodoxie des Klimawandels ein doppeltes Problem dar. Sie deutete auf eine viel größere Amplitude der natürlichen Variabilität hin, die über die Grenzen des neuen wissenschaftlichen Konsenses über den vom Menschen verursachten Klimawandel hinausging, und sie stellte die katastrophistische Erzählung von der globalen Erwärmung in Frage. Wenn der Wohlstand des Mittelalters und die Besiedlung Grönlands durch die Wikinger in einer längeren Periode ungewöhnlicher Wärme stattfand, dann könnten auch moderne Gesellschaften in einer Periode steigender Temperaturen überleben und gedeihen.

[Hervorhebung vom Übersetzer]

In einer schriftlichen Stellungnahme vor dem Kongress im Jahr 2011 erinnerte sich der Klimawissenschaftler John Christy an Diskussionen bei der Erstellung des Dritten Sachstandsberichts, als er darauf drängte, die Ergebnisse einer Arbeit aus dem Jahr 1998 einzubeziehen, in der die Temperaturen aus Grönlandeisbohrungen eine Rekonstruktion der letzten 20.000 Jahre liefern. „Ihr Ergebnis deutete auf eine klare 500-jährige Temperaturperiode hin, in der es wärmer war als heute, mit dem Zentrum um 900 n. Chr.“, sagte Christy. Trotz – oder vielleicht gerade wegen – der Bedeutung dieser Arbeit für die Widerlegung des Hockeysticks wurde sie im Dritten Sachstandsbericht völlig ignoriert.

In einer Veröffentlichung aus dem Jahr 2008 ging Mann noch weiter und präsentierte eine Rekonstruktion der Temperatur der letzten 2000 Jahre. Die Rekonstruktion wurde von Sedimenten aus dem Korttajarvi-See in Island abgeleitet und in einer Arbeit der finnischen Geologin Mia Tiljander analysiert. Manns Rekonstruktion kehrte jedoch die Tiljander-Proxies um, so dass aus der Erwärmung eine Abkühlung und aus der Abkühlung eine Erwärmung wurde. Laut Matti Saarnisto, einem der Mitautoren von Tiljander, wurde die mittelalterliche Warmzeit spiegelbildlich dargestellt. In einer E-Mail, die er von Bradley erhalten hatte, der trotz seiner früheren Erfahrung immer noch einer der Co-Autoren von Mann war, hatte eine große Gruppe von Forschern umfangreiches Material bearbeitet, und „irgendwann ist es passiert, dass diese Grafik auf den Kopf gestellt wurde“. Geschah dies mit Absicht oder aus Versehen? „Es wurde in Science zweimal auf den Kopf gestellt, und jetzt bezweifle ich, dass es sich um einen Fehler handeln kann“, sagte Saarnisto und fügte hinzu, dass die Autoren zu einer Gruppe gehören, „die dieser mittelalterlichen Warmzeit skeptisch gegenübersteht und versucht hat, sie bis zu einem gewissen Grad zu verbergen.“

***

Bei der Verleumdungsklage von Mann ging es um zwei Punkte. Der erste bezieht sich darauf, dass Simberg und Steyn die Ermittlungen gegen Mann an der Penn State, wo er Professor für Meteorologie war, mit den Ermittlungen und der Vertuschung der Universität im Zusammenhang mit dem Footballtrainer und verurteilten Kinderschänder Jerry Sandusky in Verbindung brachten. Der Präsident von Penn State, Graham Spanier, wurde später wegen seiner Rolle bei der Vertuschung von Sandusky wegen Gefährdung von Kindern verurteilt. Steyn sagte dem Gericht in seinem Eröffnungsplädoyer:

Der gleiche Betrüger, der Sandusky schützte, schützte auch Michael Mann. Wir vergleichen also nicht Mann mit Sandusky; wir vergleichen die Ermittlungen gegen Mann mit den Ermittlungen gegen Sandusky – denn beide Ermittlungen wurden von dem gleichen Kerl kontrolliert: einem korrupten, verurteilten Kriminellen namens Graham Spanier.

Von den beiden Angeklagten war Simbergs Sprache die weniger delikate und direktere. Steyn sagte den Geschworenen, indem er direkt aus seinem Originalbeitrag zitierte: „Ich bin mir nicht sicher, ob ich diese Metapher mit demselben Eifer wie Herr Simberg bis in die Duschen der Umkleidekabine ausgedehnt hätte, aber er hat nicht ganz Unrecht“, und distanzierte sich damit von Simbergs Aussage, dass Mann als der Jerry Sandusky der Klimawissenschaft angesehen werden könnte.

Der zweite Punkt bezieht sich auf Simberg und Steyn, die Manns Hockeystick als betrügerisch bezeichneten. Obwohl dies weniger aufrührerisch war als die Verbindung zwischen Mann und Sandusky, die durch die jeweiligen Ermittlungen der Penn State hergestellt wurde, war die Jury der Meinung, dass dies das größere Vergehen war. Sie verhängten nur 1000 Dollar Schadenersatz gegen Simberg, aber 1 Million Dollar – das Tausendfache – gegen Steyn. (Die Geschworenen sprachen Mann je einen Dollar von Simberg und Steyn zu, um ihn für die Schädigung seines Rufes zu entschädigen.) Der massive Unterschied in den Strafen, die die Geschworenen für die beiden Angeklagten verhängten, kann nur durch die politische Verzerrung der Geschworenen erklärt werden. Steyn ist einer der profiliertesten konservativen Kommentatoren. Offensichtlich wollten die Geschworenen in Washington ein Exempel an Steyn statuieren und jede öffentliche Infragestellung des heutigen Konsens‘ über den vom Menschen verursachten Klimawandel verhindern.

In seiner Eröffnungsrede argumentierte Steyn, dass es nicht Aufgabe der Gerichte sei, über die Wissenschaft zu urteilen. „Ein wissenschaftliches Theorem, das durch ein Gerichtsurteil bestätigt werden muss, ist überhaupt keine Wissenschaft“, so Steyn. Grundsätzlich sollte ein Gericht in der Lage sein zu beurteilen, ob Beweise, die für eine wissenschaftliche Behauptung herangezogen werden, wissentlich verfälscht, weggelassen, verheimlicht oder auf andere Weise manipuliert wurden, um ein gewünschtes Ergebnis zu erzielen. Schließlich ist Betrug nicht auf Diebstahl beschränkt, sondern umfasst auch den Tatbestand der betrügerischen Falschdarstellung.

Manns Klage zeigt, dass die Gerichte – zumindest ein Gericht in der Hauptstadt mit politisch manipulierten Geschworenen – nicht zu einer objektiven Beurteilung fähig sind. In solchen Fällen geht es auch um Bundesvorschriften über die Zulässigkeit von Beweisen, die von Sachverständigen vorgelegt werden, und um den Daubert-Standard für wissenschaftliche Beweise. In einem 39 Seiten starken Bericht vertrat die Klimawissenschaftlerin Judith Curry die Ansicht, dass es „angemessen“ sei, den Hockeystick im Jahr 2012 als „betrügerisch“ zu bezeichnen, da „Aspekte davon trügerisch und irreführend sind“.

Richter Alfred S. Irving schloss jedoch Currys Bericht aus, in dem die Datenmanipulationen zur Erzielung der Hockeyschlägerform katalogisiert und heftige Kritik am Hockeyschläger selbst von Klimawissenschaftlern geäußert wurde, die den Klimawandel-Konsens unterstützen (die meisten davon privat). Der Richter begründete seinen Ausschluss damit, dass „die Methoden des Sachverständigen auf der wissenschaftlichen Methode beruhen müssen, so dass eine andere Person mit ähnlichem Fachwissen sie wiederholen könnte“. In seinem Urteil über die Unzulässigkeit ihrer Aussage sagte Richter Irving: „Ihr Sachverständigenbericht enthält keinerlei Erläuterungen zu ihren Verfahren, so dass es dem Gericht unmöglich ist, ihre Aussage für zuverlässig zu halten.“ Es gibt kaum einen theoretischen Unterschied zwischen der Katalogisierung von Beweisen zur Feststellung betrügerischer Falschdarstellungen in Finanz- und Handelsfällen und Beweisen zur Beurteilung von wissenschaftlichem Betrug; es wäre absurd, von Betrugsermittlern zu verlangen, dass sie ihre Methodik darlegen, und zu erwarten, dass verschiedene Ermittler identische Berichte zusammenstellen.

Zum Abschluss des Prozesses appellierte John Williams, der Anwalt von Mann, unverhohlen an die politischen Vorurteile der Geschworenen. Williams forderte die Geschworenen auf, einen Strafschadenersatz zu verhängen, damit es niemand mehr wagt, „Klimaleugner“ zu sein – so wie Donald Trumps „Wahlleugnung“ unterdrückt werden musste. „In 41 Jahren, in denen ich Fälle vor Geschworenen verhandle“, schrieb John Hinderaker im Powerline-Blog, „habe ich noch nie einen so unverschämt unangemessenen Appell gehört.“

Steyn wies in seiner Eröffnungsrede darauf hin, dass Mann sich entschieden hatte, ihn nicht zu verklagen, weil er den Hockeystick in einem der englischsprachigen Länder, in denen die Meinungsfreiheit nicht durch den ersten Verfassungszusatz geschützt ist, als betrügerisch bezeichnet hatte. Das Ergebnis von Manns Sieg, so warnte Steyn, wäre, dass „man seinen Hockeystick in den Vereinigten Staaten nicht als Betrug bezeichnen kann, wohl aber in all den Ländern, die sich im Gegensatz zu euch rebellischen Leuten dafür entschieden haben, im britischen Empire zu bleiben“.

Dies verweist auf die wichtigste Frage, um die es in dem Prozess geht. An der Nordostwand des Jefferson-Denkmals in Washington ist ein kurzer Text eingemeißelt, den Thomas Jefferson für ein Gesetz zur Einführung der Religionsfreiheit verfasst hatte. Seine Präambel liefert die philosophische Begründung dafür, warum der Erste Verfassungszusatz an erster Stelle steht:

Die Wahrheit ist mächtig und wird sich durchsetzen, wenn sie sich selbst überlassen wird; sie ist der richtige und ausreichende Gegenspieler des Irrtums und hat in diesem Konflikt nichts zu befürchten, es sei denn, sie wird durch menschliches Eingreifen ihrer natürlichen Waffen, des freien Arguments und der Debatte, beraubt; Irrtümer hören auf, gefährlich zu sein, wenn es erlaubt ist, ihnen frei zu widersprechen.

Wie Popper argumentierte, sind freie Argumente und Debatten nicht nur für den Fortschritt der wissenschaftlichen Erkenntnis unerlässlich. Sie sind auch die Grundvoraussetzung für die Aufrechterhaltung einer konstitutionellen Republik.

This article originally appeared at Real Clear Energy

Link: https://www.cfact.org/2024/02/22/the-hockey-stick-trial/

Übersetzt von Christian Freuer für das EIKE

 




Meeresspiegel: Noch ein Sargnagel? Nein.

Willis Eschenbach

Bei meinen Streifzügen durch das Multiversum bin ich über eine Bucht in der Nähe der nordwestlichen Ecke von Kalifornien auf Folgendes gestoßen:

Im Artikel hyperventilieren viele Leute hinsichtlich der imaginären Auswirkungen eines angeblichen Anstiegs des Meeresspiegels um einen Meter in „ein paar Jahrzehnten“.

Richtig … genau das passiert nicht.

Ich muss allerdings zugeben, dass mich die Behauptungen über einen starken Anstieg des Meeresspiegels in der Humboldt Bay überrascht haben. Der Meeresspiegel entlang eines Großteils der nördlichen Westküste Nordamerikas ist aufgrund der geologischen Hebung des Landes gering oder negativ. Ich hatte erwartet, dass dies auch bei Humboldt der Fall sein würde. Als ich stattdessen die NOAA-Website zum Meeresspiegel aufsuchte, fand ich Folgendes: Eureka auf der Karte unten ist die Stadt am Ufer der Humboldt Bay.

Der Artikel ist also in einer Hinsicht korrekt. Der gemessene Meeresspiegel steigt in Eureka tatsächlich schnell … aber seltsamerweise zeigen die nächsten beiden Gezeitenstationen im Norden, Crescent City in Kalifornien und Port Orford in Oregon, einen sinkenden Meeresspiegel.

Wie bitte?

Ich war überrascht, denn die Westküste Nordamerikas wird von der tektonischen Platte des Pazifiks ständig nach oben gedrückt. Die pazifische Platte taucht beim Zusammenstoß mit der nordamerikanischen Platte nach unten und drückt die gesamte Westküste im Laufe der geologischen Zeit vertikal nach oben.

Und überraschenderweise ist die Geschwindigkeit der Landhebung in vielen Gebieten größer als die Geschwindigkeit des Meeresspiegelanstiegs, was zu all den malerischen Klippen führt, die man auf Fotos von der Nordküste sieht. Wie auf der obigen Karte zu sehen ist, befinden sich die beiden Gezeitenmessstationen, die Eureka (Humboldt Bay) am nächsten liegen, in Crescent City, Kalifornien, wo der Meeresspiegel mit -0,8 mm pro Jahr sinkt (nicht steigt, sondern fällt), und in Port Orford, Oregon, wo er mit -0,06 mm pro Jahr zwar kaum negativ ist, aber dennoch sinkt.

Die Humboldt Bay ist also eine Anomalie mit einem Meeresspiegelanstieg von 5,0 mm pro Jahr. Was ist da los?

In meiner glücklicherweise vergeudeten Jugend habe ich einen Winter lang in der Humboldt Bay kommerziell Krabben gefischt und mir dabei die Finger abgefroren, als ich um 5 Uhr morgens auf dem Weg nach draußen durch den unten gezeigten Eingang gefrorene Köder für die Krabbenreusen zerkleinerte. Ich kenne mich also mit den örtlichen Gegebenheiten ein wenig aus. Die Humboldt Bay ist eine Art von Bucht, die an der Westküste der USA ungewöhnlich, an der Ostküste jedoch sehr verbreitet ist. Sie besteht aus einer langen, schmalen Bucht, die durch eine lange, dünne natürliche Sandbarriere vor dem Festland in Form von langen Sandgruben oder Sandbarriereinseln parallel zur Festlandsküste gebildet wird.

Humboldt wird von zwei solchen langen Sandbänken gebildet, die phantasievoll „North Spit“ und … nun, Sie haben es erraten. Die natürliche Öffnung zwischen ihnen wurde am Ende jeder Nehrung durch einen Deich künstlich verlängert, wie unten zu sehen ist:

Humboldt Bay, Eingang zur Bucht und Stadt Eureka, 40,1°N

Die Humboldt Bay ist eine gefürchtete Bucht für Fischer, da sich im Laufe des Jahres eine Unterwasser-Sandbank über dem Eingang bildet. Das bedeutet, dass bei bestimmten und in gewisser Weise unvorhersehbaren Wind- und Gezeitenverhältnissen eine plötzliche „Sneaker-Welle“ entstehen kann, die sich quer durch den Raum zwischen den Deichen bricht und den gesamten Eingang mit Wildwasser verschließt … hässlich.

Oder der Wind peitscht die Wellen auf und sie brechen ständig über die gesamte Einfahrt, und die Küstenwache erklärt die Einfahrt für geschlossen, und wenn man draußen ist, ist es ein langer und gefährlicher Weg bis zum nächsten Hafen. Nur die Küstenwache fährt dann rein oder raus, und das ist nicht schön.

Um den Eingang zur Humboldt Bay offen zu halten, muss er jedes Jahr ausgebaggert werden. Das ausgebaggerte Material besteht zu etwa 90 % aus Sand und zu 10 % aus Schlick.

Und das wirft eine interessante Frage auf: Der Schlick kommt aus den Flüssen, welche in die Humboldt Bay münden. Aber woher kommt der endlose Vorrat an Sand?

Die Antwort ist, dass ein Strand an der Westküste der USA eher als ein Zögern in einem langsamen Fluss aus Sand beschrieben werden kann, der endlos nach Süden fließt. Der gesamte Sand wird fast überall an der Küste durch das Zusammenwirken der vorherrschenden Strömungen, der Strandwellen und der vorherrschenden Nordwestwinde ständig nach Süden bewegt. All diese Faktoren nehmen unaufhörlich Sandpartikel auf und bewegen sie ein wenig nach Süden.

In der Luftaufnahme oben können Sie die Meerestiefen an der Küste farblich erkennen. Und Sie können sehen, dass die beiden künstlichen Dämme den Fluss von Wasser und Sand in Richtung Süden behindert haben. Die Untiefen erstrecken sich kreisförmig um die Mündung des befestigten Eingangs zur Humboldt Bay:

Wenn Sie nun einen Gezeitenpegel aufstellen würden, würden Sie ihn auf der einen oder anderen der sich bewegenden nördlichen und südlichen Nehrungen anbringen … oder würden Sie ihn auf der Festlandsseite der Bucht aufstellen?

Nun, man nimmt an, dass der Gezeitenmesser aus historischen Gründen in der Station der Küstenwache am Rande der Samoa Dunes State Recreation Area auf der nördlichen Nehrung steht, und zwar an der oben und unten gezeigten Stelle:

Aber natürlich nicht an Land. Sondern auf einem Pfeiler. Oder genauer gesagt, auf einem ganzen Betonpfeiler. So steht es auf der Homepage der Station:

Die Pegelmarken befinden sich auf dem Gelände der Küstenwache. Der Gezeitenpegel befindet sich am östlichen Ende des südlichen von zwei Fingerpiers direkt östlich des dreistöckigen Stationsgebäudes der Küstenwache. Beschreibung der Station: Die Instrumente hängen auf dem Dachboden des Bootshauses der Küstenwache.

Hier ist ein Foto und eine Draufsicht. Sieht aus wie eine Kombination aus Bootshaus für zwei Boote und Gezeitenmessstation:

Es gibt noch mehr Komplikationen. Sehen Sie sich die nachstehende Seekarte an:

Die Docks und Gebäude oben rechts in der Grafik sind die Station der Küstenwache und der Standort des NOAA-Gezeitenmessers.

In der obigen Grafik können Sie die Auswirkungen des nördlichen Wellenbrechers auf den langsam nach Süden fließenden Sandstrom erkennen. Auf der Nordseite hat sich der Sand in der Ecke zwischen dem nördlichen Wellenbrecher und der Nordspitze angesammelt. Er hat den Strand in dieser Ecke nach außen hin erweitert und vergrößert, und die Untiefen reichen nun bis zur Spitze des Wellenbrechers.

Sand in Bewegung.

Als Nächstes sehen Sie den regelmäßig ausgebaggerten Eingangskanal, der in Weiß dargestellt ist. Er reicht weit in die Bucht hinein. Und er ist bis zur Kante der Docks der Küstenwache ausgebaggert, um das Anlegen von großen Schiffen zu ermöglichen.

So: Um das Ganze zu überprüfen:

– Der NOAA-Gezeitenmesser befindet sich nicht auf festem Boden, nicht einmal auf dem Festland, sondern auf einer vorgelagerten Nehrung, die aus … Sand besteht.

– Sein nächster Nachbar ist die Samoa Dunes State Recreation Area, die wie North Spit im Allgemeinen vollständig aus … Sand besteht.

– Der Gezeitenpegel befindet sich in einem großen Gebäude auf massiven, schweren Betonpfeilern, die bis in den … Sand hineinreichen.

– Das Gebiet, das vom Pegel aus am weitesten in die Bucht hineinreicht, wird jährlich ausgebaggert, um … den Sand zu entfernen.

– Die örtlichen Sandströme und die Form von North Spit wurden durch den Bau von zwei großen vorgelagerten Wellenbrechern und durch das jährliche Ausbaggern des Eingangskanals stark beeinträchtigt.

Sind Sie nun überrascht, dass das so erheblich anomale Verhalten des Meeresspiegels deutlich darauf hindeutet, dass der Pegel der Nehrung langsam im Sand versinkt?

Die gute Nachricht ist: Abgesehen von den Kleinstädten Fairhaven, Manila und Samoa, die dummerweise direkt auf der Nehrung gebaut wurden, ist die Meeresspiegelkatastrophe in der Humboldt-Bucht abgesagt – sorry, keine Rückerstattung für diejenigen, die Tickets gekauft haben.

Diese Kleinstädte können sinken oder auch nicht – schließlich gibt es die Nehrungen schon sehr, sehr lange. Das bedeutet, dass in der Vergangenheit der Sand, der durch Wind und Wasser ständig von der Nehrung abgetragen wurde, durch neuen Sand ersetzt wurde, der durch Wind und Wasser von der Ozeanseite auf die Nehrung getragen wurde. Für diese Städte besteht also wahrscheinlich keine unmittelbare Bedrohung.

Die andere gute Nachricht ist, dass ich einen Hauch von Verzweiflung bei den Leuten wahrnehme, die mit dem Spruch „Alle in Panik, in einem Jahrzehnt sind wir tot“ werben … nach fünf Jahrzehnten gescheiterter serieller Untergangsvorhersagen werden anscheinend immer mehr Leute schlauer.

Und die beste Nachricht? Das wäre die Tatsache, dass ich immer noch auf der grünen Seite des Grases stehe, nicht auf der braunen Seite … und mit 77 Jahren danke ich jeden Tag dafür.

Daten zum Meeresspiegel: North Spit, Crescent City, Port Orford

PS: Warum passt die NOAA die Daten nicht an die Landabsenkung an? Ich vermute, es liegt am Mangel an Daten. Laut Sonel ist das „Co-located GPS“ RedwoodsCCCN2004 … das weit unten am südlichen Ende der Bucht und nicht auf einer der Nehrungen liegt. Es zeigt Senkungen an, aber nur mit -0,85 mm/Jahr, deutlich weniger als der Gezeitenpegel auf der Nordspitze.

Link: https://wattsupwiththat.com/2024/02/26/another-canary-not/

Übersetzt von Christian Freuer für das EIKE

 




Klimamodellverzerrung 1: was ist ein Modell?

Andy May

Es gibt drei Arten von wissenschaftlichen Modellen, wie in Abbildung 1 dargestellt. In dieser Serie von sieben Beiträgen über die Verzerrung von Klimamodellen befassen wir uns nur mit zwei von ihnen. Das erste sind mathematische Modelle, die gut etablierte physikalische und chemische Prozesse und Prinzipien nutzen, um einen Teil unserer Realität zu modellieren, insbesondere das Klima und die Wirtschaft. Das zweite sind konzeptionelle Modelle, die sich wissenschaftlicher Hypothesen und Annahmen bedienen, um eine Vorstellung davon zu vermitteln, wie etwas, z. B. das Klima, funktioniert. Konzeptuelle Modelle werden im Allgemeinen durch die Erstellung eines mathematischen Modells getestet und hoffentlich validiert. Die Ergebnisse des mathematischen Modells werden mit Beobachtungen verglichen, und wenn die Ergebnisse mit den Beobachtungen übereinstimmen, ist das Modell validiert. Es ist nicht bewiesen, aber es hat sich als nützlich erwiesen, und das konzeptionelle Modell gewinnt an Glaubwürdigkeit.

Abbildung 1. Die drei Arten von wissenschaftlichen Modellen.

Modelle sind nützlich, wenn sie dazu verwendet werden, ein komplexes natürliches System wie das Klima der Erde oder einen Teil des Systems in seine zugrunde liegenden Komponenten und Triebkräfte zu zerlegen. Mit Hilfe von Modellen kann versucht werden zu bestimmen, welche der Systemkomponenten und Einflussfaktoren in verschiedenen Modellszenarien am wichtigsten sind.

Gute Modelle werden nicht nur zur Vorhersage der Zukunft oder einer möglichen Zukunft verwendet, sondern sollten uns auch sagen, was in der Zukunft nicht passieren sollte. Wenn diese Ereignisse nicht eintreten, wird die Hypothese dadurch gestützt. Dies sind die Aufgaben, die die im Rahmen des Coupled Model Intercomparison Project (CMIP) [1] erstellten Klimamodelle erfüllen sollen. Der IPCC [2] analysiert die Ergebnisse der CMIP-Modelle zusammen mit anderen von Fachleuten geprüften Forschungsergebnissen und versucht in seinen Berichten, die heutige globale Erwärmung zu erklären. Der jüngste IPCC-Bericht trägt die Bezeichnung AR6 [3].

Im Zusammenhang mit dem Klimawandel, insbesondere im Zusammenhang mit dem AR6-Bericht des IPCC [4], wird der Begriff „Modell“ oft als Abkürzung für ein allgemeines Zirkulationsmodell verwendet.[5] Moderne allgemeine Zirkulationsmodelle gibt es seit den 1960er Jahren, und heute sind sie riesige Computerprogramme, die auf leistungsstarken Computern tagelang oder länger laufen können. Klimamodelle gibt es jedoch schon seit mehr als einem Jahrhundert, lange bevor der Computer erfunden wurde. Später in diesem Bericht werde ich kurz auf ein Treibhausgas-Klimamodell aus dem 19. Jahrhundert eingehen, das von Svante Arrhenius entwickelt und veröffentlicht worden ist.

Neben der Modellierung des Klimawandels enthält der AR6 auch Beschreibungen sozio-ökonomischer Modelle, die versuchen, die Auswirkungen ausgewählter Klimaveränderungen auf Gesellschaft und Wirtschaft vorherzusagen. In gewissem Sinne ist der AR6, genau wie die vorangegangenen Bewertungsberichte, eine Präsentation der Ergebnisse der neuesten Iteration ihrer wissenschaftlichen Modelle des zukünftigen Klimas und ihrer Modelle der Auswirkungen möglicher zukünftiger Klimata auf die Menschheit.

Einführung

Moderne computergestützte Klimamodelle mit allgemeiner atmosphärischer Zirkulation wurden erstmals in den 1960er Jahren von Syukuro Manabe und Kollegen eingeführt.[6] Diese Modelle und ihre Nachfolger können nützlich sein, auch wenn sie die Natur eindeutig zu stark vereinfachen und wie alle Modelle in vielerlei Hinsicht falsch sind [7], [8]. Leider werden die Ergebnisse von Klimamodellen von den Medien und der Öffentlichkeit oft mit Beobachtungen gleichgesetzt, obwohl sie alles andere als das sind.

Ich habe in den 1970er Jahren begonnen, wissenschaftliche Modelle von Gesteinen [9] zu schreiben und sie für Computer zu programmieren, und wie alle Modellierer dieser Zeit wurde ich stark von George Box beeinflusst, dem berühmten Statistiker der University of Wisconsin. Box lehrt uns, dass alle Modelle iterativ entwickelt werden: [10] Zunächst stellen wir Annahmen auf und erstellen ein konzeptionelles Modell darüber, wie ein natürliches, wirtschaftliches oder anderes System funktioniert und was es beeinflusst, dann modellieren wir einen Teil davon oder das gesamte System. Die Modellergebnisse werden dann mit Beobachtungen verglichen. In der Regel gibt es einen Unterschied zwischen den Modellergebnissen und den Beobachtungen. Diese Unterschiede sind vermutlich auf Modellfehler zurückzuführen, da wir davon ausgehen, dass unsere Beobachtungen zumindest anfangs keine Fehler aufweisen. Wir untersuchen die Fehler, passen die Modellparameter oder die Modellannahmen oder beides an und führen das Modell erneut durch, um die Fehler erneut zu untersuchen. Dieser „Lernprozess“ ist der Hauptvorteil von Modellen. Box sagt uns, dass gute Wissenschaftler die Flexibilität und den Mut haben müssen, solche Fehler aufzuspüren, zu erkennen und auszunutzen, insbesondere Fehler in den konzeptionellen Modellannahmen. Indem wir die Natur modellieren, lernen wir, wie die Natur funktioniert.

Als nächstes rät uns Box, dass „wir uns nicht in unsere Modelle verlieben sollten“, und „da alle Modelle falsch sind, können die Wissenschaftler kein ‚richtiges‘ Modell durch übermäßige Ausarbeitung erreichen“. Ich habe dieses Prinzip anderen Modellierern immer grob erklärt, indem ich darauf hinwies, dass ein Misthaufen, wenn man ihn poliert, immer noch ein Misthaufen ist. Man muss erkennen, wann ein Modell so weit gegangen ist, wie es gehen kann. An einem bestimmten Punkt ist es am Ende, und mehr Daten, eine aufwändigere Programmierung oder kompliziertere Annahmen können es nicht mehr retten. Der Nutzen des Modells ist das, was man bei seiner Erstellung gelernt hat, nicht das Modell selbst. Wenn der unvermeidliche Endpunkt erreicht ist, müssen Sie das Modell verwerfen und mit dem Aufbau eines neuen konzeptionellen Modells neu beginnen. Ein neues Modell wird eine Reihe neuer Annahmen enthalten, die auf den „Lehren“ aus dem alten Modell und anderen neuen Daten und Beobachtungen beruhen, die in der Zwischenzeit gesammelt worden sind.

Jeder IPCC-Bericht, seit der erste 1990 veröffentlicht wurde, [11] ist eine einzige Iteration desselben konzeptionellen Gesamtmodells. In diesem Fall ist das „konzeptionelle Modell“ die Idee oder Hypothese, dass der Mensch mit seinen Treibhausgasemissionen das Klima (oder vielleicht nur die Geschwindigkeit der globalen Erwärmung) steuert. [12] Es werden verschiedene, immer detailliertere Computermodelle erstellt, um zu versuchen, die Auswirkungen der menschlichen Emissionen auf das Klima der Erde zu messen.

Eine weitere Grundannahme des IPCC-Modells ist, dass der Klimawandel gefährlich ist und wir deshalb den Verbrauch fossiler Brennstoffe einschränken (reduzieren) müssen, um die durch den Klimawandel verursachten Schäden für die Gesellschaft zu verringern oder zu verhindern. Schließlich gehen sie davon aus, dass eine wichtige Messgröße für diesen globalen Klimawandel bzw. die Erwärmung die Empfindlichkeit des Klimas gegenüber einer vom Menschen verursachten Zunahme des CO₂ ist. Diese Sensitivität kann mit Modellen oder anhand von Messungen der Veränderungen des atmosphärischen CO₂-Gehaltes und der globalen durchschnittlichen Temperatur der Erde berechnet werden. Der IPCC setzt Änderungen der globalen durchschnittlichen Temperatur mit „Klimawandel“ gleich.

Dieses Maß für die Klimasensitivität wird oft als „ECS“ bezeichnet, was für die Gleichgewichts-Klimasensitivität gegenüber einer Verdoppelung des CO₂-Gehalts steht, oft abgekürzt als „2 x CO₂“ [13]. Moderne Klimamodelle haben seit den Modellen, die für den berühmten Charney-Bericht von 1979 verwendet worden waren, [14] mit Ausnahme des AR6 eine Spanne von ECS-Werten von 1,5 bis 4,5 °C pro 2 x CO₂ ergeben. AR6 verwendet ein ziemlich einzigartiges und komplexes subjektives Modell, das zu einer Spanne von 2,5 bis 4°C/2 x CO₂ führt. Mehr dazu später in dem Bericht.
George Box warnt die Modellierer:

„So wie die Fähigkeit, einfache, aber aussagekräftige Modelle zu entwickeln, das Markenzeichen eines großen Wissenschaftlers ist, so sind Überarbeitung und Überparametrisierung oft das Zeichen von Mittelmäßigkeit.“[15] – Box, 1976

Der IPCC hat seit 1990 sechs große und zahlreiche kleinere Berichte veröffentlicht [16]. Wir werden hier argumentieren, dass sie mehr als dreißig Jahre damit verbracht haben, den Misthaufen zu polieren – mit wenig Erfolg. Sie haben sich immer ausgefeiltere Verfahren ausgedacht, um ihre Hypothese zu retten, dass die vom Menschen erzeugten Treibhausgase die jüngsten Klimaveränderungen verursacht haben und dass die Sonne und die internen Schwankungen im Klimasystem der Erde wenig bis gar keine Auswirkungen hatten. Wie wir zeigen werden, werden neue klimawissenschaftliche Entdeckungen seit 1990 von den IPCC-Modellen nicht erklärt, tauchen nicht in den Modellergebnissen auf, und neu entdeckte Klimaprozesse, insbesondere wichtige Ozean-Oszillationen, werden nicht in sie einbezogen.

Nur ein Beispiel. Eade et al. berichten, dass die modernen, für die Berichte AR5 und AR6[17] verwendeten allgemeinen Klimamodelle die wichtige Nordatlantische Oszillation („NAO“) nicht reproduzieren. Das NAO-ähnliche Signal, das die Modelle in ihren Simulationsläufen[18] erzeugen, ist nicht von zufälligem weißen Rauschen zu unterscheiden. Eade, et al. berichten:

„Dies deutet darauf hin, dass die derzeitigen Klimamodelle wichtige Aspekte des Prozesses für die niederfrequente Variabilität der NAO nicht vollständig abbilden.“[19] – Eade et al., 2022

Alle Modelle des AR6, sowohl die klimatischen als auch die sozioökonomischen, weisen erhebliche Diskrepanzen zwischen Modell und Beobachtungen auf. Im Laufe der Zeit haben die Modellierer und Autoren immer wieder neue Entwicklungen in der Klimawissenschaft und der Ökonomie des Klimawandels ignoriert, da ihre „Über-Ausarbeitung und Über-Parametrisierung“ immer extremer wurde. Während sie ihre Modelle immer weiter ausarbeiten, ignorieren sie nach und nach immer mehr neue Daten und Entdeckungen, um ihre scheinbare „Unsicherheit“ zu verringern und ihr angebliches „Vertrauen“ zu erhöhen, dass der Mensch den Klimawandel verursacht. Es ist ein falsches Vertrauen, das auf den Bestätigungs- und Berichterstattungsverzerrungen sowohl in den Modellen als auch in den Berichten beruht.

Bei der Durchsicht aller sechs großen IPCC-Berichte bin ich zu der Überzeugung gelangt, dass der AR6 der am stärksten verzerrte von allen ist.[20] In einem wichtigen neuen Buch haben zwölf Kollegen und ich, die unter dem Dach von Clintel [21] arbeiten, den AR6 untersucht und erhebliche Beweise für die Verzerrung aufgeführt.

Aus dem Epilog[22] des Clintel-Buches:

„Der AR6 stellt fest, dass „der langfristige Einfluss von Sonnenaktivität und Vulkanen vernachlässigbar ist“ [23] und erkennt trotz … jüngster Entdeckungen keinen anderen natürlichen Einfluss auf den multidekadischen Klimawandel an – ein echter Fall von Tunnelblick.

Uns wurde versprochen, dass die IPCC-Berichte objektiv über die von Fachleuten überprüfte wissenschaftliche Literatur berichten würden, doch wir finden zahlreiche Beispiele, in denen wichtige Forschungsergebnisse ignoriert wurden. In Ross McKitricks Kapitel [24] über den „Hot Spot“ listet er viele wichtige Arbeiten auf, die im AR6 nicht einmal erwähnt werden. Marcel [Crok] gibt in seinem Kapitel über Szenarien Beispiele dafür, dass unvernünftige Emissionsszenarien verwendet werden, um die Öffentlichkeit zu verängstigen,[25] und Beispiele für das Verschweigen guter Nachrichten in seinem Kapitel über extreme Wetterereignisse [26]. Zahlreiche weitere Beispiele sind in anderen Kapiteln dokumentiert. Diese absichtlichen Auslassungen und Verzerrungen der Wahrheit sprechen nicht für den IPCC, eine Reform der Institution ist dringend erforderlich.“ – Crok und May, 2023

Bestätigungs-[27] und Berichtsverzerrungen [28] gibt es im AR6 sehr häufig. Wir finden auch Beispiele für den Dunning-Kruger-Effekt [29], In-Group-Bias [30] und Anchoring Bias [31].
Im Jahr 2010 überprüfte der InterAcademy Council der Vereinten Nationen die Prozesse und Verfahren des IPCC und stellte zahlreiche Mängel fest.[32] Insbesondere kritisierte er den subjektiven Umgang mit Unsicherheit. Sie kritisierten auch die offensichtliche Verzerrung in den IPCC-Berichten [33] und wiesen darauf hin, dass die federführenden Autoren zu oft abweichende Meinungen oder Verweise auf Arbeiten weglassen, mit denen sie nicht einverstanden sind. Der Rat empfahl, dass alternative Ansichten im Bericht erwähnt und zitiert werden sollten. Obwohl diese Kritik bereits 2010 geäußert wurde, fanden meine Kollegen und ich zahlreiche Beispiele für diese Probleme im AR6, der elf Jahre später, 2021 und 2022, veröffentlicht worden war.[34]

Obwohl der AR6 von Verzerrungen durchzogen ist, wird sich diese Serie hauptsächlich auf Verzerrungen in den CMIP6 [35]-Klimamodellen des AR6 Band 1 (WGI) konzentrieren, die zur Vorhersage des künftigen Klimas verwendet werden. Wir werden uns jedoch auch mit den Modellen befassen, die in Band 2 (WGII) zur Ermittlung und Quantifizierung der Auswirkungen des Klimawandels und in Band 3 (WGIII) zur Berechnung der Kosten-Nutzen-Analyse der von ihnen empfohlenen Maßnahmen zur Eindämmung des Klimawandels (Reduzierung fossiler Brennstoffe) verwendet werden. Als ehemaliger petrophysikalischer Modellierer weiß ich, wie sich Verzerrungen in ein Computermodell einschleichen können. Manchmal ist sich der Modellierer bewusst, dass er Verzerrungen in die Ergebnisse einbringt, manchmal nicht. Verzerrungen gibt es in allen Modellen, da sie alle auf Annahmen und Ideen beruhen (das „konzeptionelle Modell“), aber ein guter Modellierer wird sein Bestes tun, um sie zu minimieren.

In den nächsten sechs Beiträgen werde ich Ihnen einige der Beweise für die Verzerrung vorstellen, die ich in den CMIP6-Modellen und im AR6-Bericht gefunden habe. In Teil 2 wird ein Blick auf die Geschichte der Modellierung des vom Menschen verursachten Klimawandels geworfen. Beweise dafür, dass der IPCC den möglichen Einfluss der Sonne auf das Klima ignoriert hat, werden in Teil 3 vorgestellt. Der IPCC ignoriert Beweise dafür, dass Veränderungen der Konvektion und der atmosphärischen Zirkulationsmuster in den Ozeanen und der Atmosphäre den Klimawandel auf multidekadischen Zeitskalen beeinflussen; dies wird in Teil 4 untersucht.

Entgegen der gängigen Darstellung gibt es erhebliche Beweise dafür, dass die Stürme (extreme Wetterlagen) in der Kleinen Eiszeit, auch bekannt als „vorindustrielle Zeit“, stärker waren (Teil 5). Der IPCC AR6 WGII-Bericht[36] über die Auswirkungen, die Anpassung und die Anfälligkeit für den Klimawandel (Teil 6) und der Bericht[37] über die Eindämmung des Klimawandels (Teil 7) werden auf Verzerrungen untersucht.

Download the bibliography here.

1. https://wcrp-cmip.org/

2. https://www.ipcc.ch/

3. (IPCC, 2021)

4. Der IPCC ist die Abkürzung für den Zwischenstaatlichen Ausschuss für Klimaänderungen (Intergovernmental Panel on Climate Change), eine Einrichtung der Vereinten Nationen. AR6 ist ihr sechster großer Bericht über den Klimawandel, „Assessment Report 6“.

5. Es gibt verschiedene Bezeichnungen für Klimamodelle, darunter das allgemeine Zirkulationsmodell der Atmosphäre und des Ozeans (AOGCM, verwendet im AR5) oder das Erdsystemmodell (ESM, verwendet im AR6). Neben diesen komplizierten Computer-Klimamodellen gibt es noch andere Modelle, die im AR6 verwendet werden. Einige modellieren Energieflüsse, die Auswirkungen des Klimawandels auf die Gesellschaft oder die Weltwirtschaft oder die Auswirkungen verschiedener Bemühungen zur Eindämmung von Treibhausgasen. Wir diskutieren in diesem Bericht nur einige dieser Modelle. (Der IPCC, 2021, S. 2223)

6. (Manabe & Bryan, Climate Calculations with a Combined Ocean-Atmosphere Model, 1969), (Manabe & Wetherald, The Effects of Doubling the CO₂ Concentration on the Climate of a General Circulation Model, 1975)

7. (McKitrick & Christy, A Test of the Tropical 200- to 300-hPa Warming Rate in Climate Models, Earth and Space Science, 2018) and (McKitrick & Christy, 2020)

8. (Box, 1976)

9. Petrophysikalische Modelle genannt.

10 (Box, 1976)

11 (IPCC, 1990)

12 „Der IPCC (Intergovernmental Panel on Climate Change) bewertet die wissenschaftlichen, technischen und sozioökonomischen Informationen, die für das Verständnis des Risikos des vom Menschen verursachten Klimawandels relevant sind“. (UNFCCC, 2020).

13 Normalerweise bedeutet ECS die Gleichgewichts-Klimasensitivität oder die letztendliche Änderung der Temperatur aufgrund einer CO₂-Verdoppelung. Im AR6 wird jedoch manchmal auf die „effektive Klimasensitivität“ oder die „effektive ECS“ verwiesen, die als die Erwärmung nach einer bestimmten Anzahl von Jahren definiert ist (IPCC, 2021, S. 931-933). Im AR6, WGI, Seite 933 gibt es eine vollständigere Definition.

14 (Charney, et al., 1979)

15 (Box, 1976)

16 Siehe https://www.ipcc.ch/reports/

17 CMIP5 und CMIP6 sind die jeweils in den IPCC-Berichten AR5 und AR6 verwendeten Modelle.

18 (Eade, Stephenson, & Scaife, 2022)

19 (Eade, Stephenson, & Scaife, 2022)

20 (May, Is AR6 the worst and most biased IPCC Report?, 2023c; May, The IPCC AR6 Report Erases the Holocene, 2023d)

21 https://clintel.org/

22 (Crok & May, 2023, pp. 170-172)

23 AR6, page 67.

24 (Crok & May, 2023, pp. 108-113)

25 (Crok & May, 2023, pp. 118-126)

26( Crok & May, 2023, pp. 140-149)

27 Bestätigungs-Verzerrung: Die Tendenz, nur nach Daten zu suchen, die eine bereits bestehende Überzeugung bestätigen. Dies bedeutet auch, dass alle neuen Daten so interpretiert werden, dass sie eine frühere Überzeugung unterstützen. Wikipedia hat einen recht guten Artikel über häufige kognitive Verzerrungen.

28 Verzerrte Berichterstattung: In diesem Zusammenhang bedeutet dies, dass nur Ergebnisse berichtet oder veröffentlicht werden, die eine zuvor vertretene Überzeugung begünstigen, und dass Ergebnisse, die zeigen, dass die Überzeugung fragwürdig ist, zensiert oder ignoriert werden.

29 Der Dunning-Kruger-Effekt bezeichnet die Tendenz, die eigenen Fähigkeiten in einem bestimmten Bereich zu überschätzen. In diesem Zusammenhang sehen wir, dass Klimamodellierer, die sich selbst als „Klimawissenschaftler“ bezeichnen, ihr Wissen über Paläoklimatologie, Atmosphärenwissenschaften und Kernphysik überbewerten.

30 Gruppeninterne Verzerrung führt dazu, dass Hauptautoren und Redakteure ihre Autoren und Forschungsarbeiten unter ihren Freunden und Bekannten auswählen, die ihre Überzeugungen teilen.

31 Zu einer Verzerrung kommt es, wenn sich ein frühes Ergebnis oder eine Berechnung, z. B. Svante Arrhenius‘ ECS (Klimasensitivität gegenüber CO₂) von 4 °C (siehe unten), im Kopf eines Forschers festsetzt und er dann sein Denken und seine Dateninterpretation so „anpasst“, dass er sich diesem Wert immer annähert, während er das Gegenteil belegende Daten ignoriert.

32 (InterAcademy Council, 2010)

33 (InterAcademy Council, 2010, pp. 17-18)

34 (Crok & May, 2023)

35 https://wcrp-cmip.org/cmip-phase-6-cmip6/

36 (IPCC, 2022)

37 (IPCC, 2022b)

Link: https://andymaypetrophysicist.com/2024/02/28/climate-model-bias-1-what-is-a-model/

Übersetzt von Christian Freuer für das EIKE