Heartland Newsletter
In der vergangenen Woche wurden der wachsenden Zahl von Veröffentlichungen zwei weitere Artikel hinzugefügt, in denen die Tatsache erörtert wird, dass die Klimamodelle seit ihrer Einführung die Temperaturen und Temperaturtrends auf der Erde nicht genau vorhersagen konnten.
Als ob das nicht schon schlimm genug wäre, berichten Wall Street Journal und Powerline, dass die Prognosen der Klimamodelle für künftige Temperaturen mit der Zeit immer schlechter geworden sind. Während neue Generationen von angeblich verbesserten Klimamodellen entwickelt und verfeinert werden, nimmt die Genauigkeit ihrer Temperatursimulationen ab. Jede neue Generation von allgemeinen Zirkulationsmodellen stimmt nicht mit den gemessenen Temperaturveränderungen und -trends überein oder entspricht ihnen in höherem Maße als die vorherige Generation.
Dies macht die Behauptungen des IPCC zur Farce, wonach sich die Klimamodelle verbessert haben, was im normalen Sprachgebrauch bedeuten würde, dass sie genauer geworden sind.
Jedes Mal, wenn der IPCC einen neuen Bericht herausgibt, vom ersten (AR1) aus dem Jahr 1990 bis zum sechsten und letzten Sachstandsbericht (AR6), der im August 2021 veröffentlicht wurde, behauptet es, dass die neueste Generation der von ihm verwendeten Modelle genauer ist als die vorherige Generation. In der „Summary for Policymakers“ des AR3 heißt es: „Das Vertrauen in die Fähigkeit der Modelle, das künftige Klima zu prognostizieren, ist gestiegen“. Doch anstatt den Bereich der möglichen zukünftigen Temperaturen im Vergleich zum vorherigen Bericht zu verkleinern, hat sich dieser Bereich fast verdoppelt. Das ist so, als würde man die Größe der Zielscheibe verdoppeln, nur knapp den äußeren Rand der größeren Zielscheibe treffen und dann behaupten, das sei ein Zeichen dafür, dass die Treffsicherheit des Schützen gestiegen ist.
Im CAR6-Bericht des IPCC heißt es:
„Diese Modelle enthalten neue und bessere Darstellungen von physikalischen, chemischen und biologischen Prozessen sowie eine höhere Auflösung im Vergleich zu den Klimamodellen, die in früheren IPCC-Zustandsberichten berücksichtigt wurden. Dies hat die Simulation des aktuellen mittleren Zustands der meisten großräumigen Indikatoren des Klimawandels und vieler anderer Aspekte des Klimasystems verbessert.“
Wie können ihre Simulationen „verbessert“ werden, wenn, wie ich in Climate Change Weekly 407 erörtert habe, die Modellierer selbst gezwungen waren, nur wenige Wochen vor der Veröffentlichung von CAR6 zuzugeben, dass die Modelle noch höhere Temperaturen und steilere Temperaturtrends als die vorherige Iteration vorhersagen, deren simulierte Temperaturen bereits zu hoch waren und die gemessenen Temperaturen nicht genau wiedergaben?
Nur eine Regierungsbürokratie oder ein Hochstapler könnte ernsthaft behaupten, dass sich eine Technologie verbessert hat, wenn sie ihre Aufgabe nicht so gut erfüllt wie die leistungsschwachen Vorgängerversionen. Das ist so, als würde man selbstbewusst behaupten, dass sich eine Klasse von Elektrofahrzeugen auf der Grundlage von Labormodellen verbessert, obwohl die Kilometerzahl, die sie zwischen zwei Aufladungen zurücklegen können, abnimmt und die Zeit, die zum Aufladen benötigt wird, immer länger wird. Schlechtere Leistung ist nicht besser, es sei denn, das Ziel besteht darin zu scheitern.
Die Tatsache, dass Computermodelle fehlerhaft sind und unzuverlässige Klimaprognosen liefern, ist seit langem bekannt. In Berichten des National Center for Policy Analysis (die ich während meiner Tätigkeit dort redigiert habe) aus dem Jahr 2001 von Umweltwissenschaftler Kenneth Green, Ph.D., und aus dem Jahr 2002 von David Legates, Ph.D. (damals Direktor des Center for Climatic Research an der University of Delaware-Newark) wurden die zahlreichen fehlerhaften Vorhersagen von Computermodellen detailliert beschrieben, und es wurde erklärt, warum diese Fehler auftraten und wahrscheinlich weiterhin die Norm sein werden.
Legates schrieb:
Modelle sind in wichtigen Punkten begrenzt, unter anderem durch:
● ein unvollständiges Verständnis des Klimasystems,
● die unvollkommene Fähigkeit, unser Wissen in genaue mathematische Gleichungen umzuwandeln,
● die begrenzte Leistung von Computern,
● die Unfähigkeit der Modelle, wichtige atmosphärische Phänomene zu reproduzieren, und
● ungenaue Darstellungen der komplexen natürlichen Zusammenhänge.
Aufgrund dieser Schwächen sind GCM-basierte Vorhersagen zu unsicher, um als Grundlage für politische Maßnahmen im Zusammenhang mit künftigen Klimaveränderungen dienen zu können.
Während sich die Rechenleistung im Laufe der Zeit deutlich verbessert hat, hat sich das Wissen der Modellierer über die zahllosen Faktoren und Zusammenhänge, die den Klimawandel antreiben, nicht verbessert. Dies liegt zum Teil daran, dass das IPCC sich immer auf das Verständnis der menschlichen Faktoren konzentriert hat, die das Klima beeinflussen, und andere Faktoren ausschließt, obwohl zugegeben wird, dass andere Faktoren einen gewissen Einfluss haben.
In den ARs 1 bis 5 wurde anerkannt, dass natürliche Faktoren – Sonne, Wolken, Meeresströmungen usw. – zumindest eine gewisse Rolle beim Klimawandel spielen, auch wenn sie zu diesem Zeitpunkt noch nicht ausreichend verstanden wurden. Das IPCC hat Listen von natürlichen und menschlichen Faktoren erstellt, die die Temperaturen beeinflussen. Die Liste hat sich im Laufe der Zeit geändert, ebenso wie die Schätzungen, in welche Richtung die verschiedenen Faktoren die Temperatur beeinflussen und in welchem Umfang. Was sich jedoch nie ändert, ist das Maß an Vertrauen oder der Grad des Verständnisses, das der IPCC in Bezug auf die Temperatureinflüsse nicht anthropogener Faktoren hat, da die Untersuchung dieser Faktoren weitgehend ignoriert wird. In früheren Zustandsberichten wurde immer wieder eingeräumt, dass der IPCC nur geringe oder sehr geringe Kenntnisse über alle natürlichen Faktoren hat, die Temperaturveränderungen bewirken. Nichtsdestotrotz hat das IPCC diese Faktoren als signifikante Quellen des derzeitigen Klimawandels verworfen.
Das ist so, als würde man versuchen zu verstehen, wie ein Auto funktioniert, und zugeben, dass man nichts über Kühler, Lichtmaschinen, Zahnriemen, Ölpumpen und unzählige andere Systeme weiß, aber davon überzeugt ist, dass ein voller Benzintank und ein Schlüssel im Zündschloss die einzigen wirklichen Faktoren sind, die ein Auto zum Laufen bringen. Wenn das Auto dann nicht anspringt, behaupten Sie selbstbewusst, der einzige Grund, warum es nicht anspringt, sei, dass der Schlüssel abgebrochen ist oder das Auto kein Benzin mehr hat.
Der IPCC ist mit diesem Unsinn durchgekommen, indem er behauptet hat, dass seine Modelle ohne Kohlendioxid nicht die erwartete Erwärmung bewirken, unabhängig von den Änderungen der Annahmen über die anderen Faktoren, aber wenn er Kohlendioxid hinzufügt, bewirken die Modelle eine erhebliche Erwärmung. Das ist im besten Fall ein Zirkelschluss und im schlimmsten Fall idiotisch. Es sollte uns nicht überraschen, dass die Annahmen, die die Modellierer über Kohlendioxid und andere Treibhausgasemissionen machen, die einzigen sind, die zu den Ergebnissen führen, die sie erwarten und bekommen.
Im AR6 gibt der IPCC sogar den Anschein wissenschaftlicher Neugier über die Auswirkungen nicht menschlicher Faktoren auf das Klima auf. Wenn Sie nur die Zusammenfassung des AR6 für politische Entscheidungsträger lesen würden, wüssten Sie nicht, dass es Wolken gibt, es sei denn, der Mensch hat sie durch die Erzeugung von Aerosolen verursacht. Doch Wasserdampf ist das bei weitem dominierende Treibhausgas, das mehr als 97 Prozent aller Treibhausgase in der Atmosphäre ausmacht, und Wolken haben enorme lang- und kurzfristige Auswirkungen auf die Temperaturen. Der IPCC hat dies bereits in früheren Berichten über den Weltklimarat eingeräumt und zugegeben, dass die Klimamodelle die Rolle, die Veränderungen der Wolkenbedeckung beim Klimawandel spielen, nur unzureichend berücksichtigen.
Der AR6 ignoriert praktisch jeden Einfluss der Sonne auf den Klimawandel. In dem Bericht wird in einer Grafik auf Seite SPM-8 (Summary for Policy Makers) kaum erwähnt, dass die Sonneneinstrahlung überhaupt eine Rolle beim Klimawandel spielt. Die Sonnenzyklen, von denen wir aus der Geschichte wissen, dass sie mit Klimaveränderungen korrelieren, werden nicht erwähnt. Auch wird in dem Bericht nicht einmal erwähnt, dass die Zu- und Abnahme der kosmischen Strahlung infolge von Sonnenschwankungen die Bewölkung und damit die Temperaturen beeinflussen. Mit Ausnahme der Vulkane werden alle anderen Faktoren – wie etwa die großräumigen dekadischen Ozean-Zirkulationsmuster – in eine Kategorie namens „Interne Variabilität“ gepackt, welcher im AR6 fast keine Auswirkungen auf den Klimawandel zugeschrieben wird.
Die Antwort der Klimamodellierer auf die Tatsache, dass ihre Modelle schlecht abschneiden und sich ihre Leistung im Laufe der Zeit verschlechtert hat, besteht nicht darin, zuzugeben, dass es sich um eine Angelegenheit von „Garbage in, Garbage out“ handelt, die sie dazu veranlassen sollte, ihre grundlegenden Annahmen darüber in Frage zu stellen, ob die menschlichen Treibhausgasemissionen der einzige oder sogar der dominierende Faktor für Änderungen der Temperatur sind. Stattdessen, so berichtet das Wall Street Journal:
…überarbeiteten sie 2,1 Millionen Zeilen des Supercomputer-Codes, der verwendet wird, um die Zukunft des Klimawandels zu erforschen, und fügten kompliziertere Gleichungen für Wolken und Hunderte von anderen Verbesserungen hinzu. Sie testeten die Gleichungen, überprüften sie und testeten sie erneut.
Die Wissenschaftler fanden heraus, dass selbst die besten Werkzeuge nicht in der Lage sind, das Klima mit der Sicherheit zu modellieren, die die Welt angesichts der steigenden Temperaturen in fast allen Regionen braucht.
Die Antwort der Klimamodellierer auf das ständige Versagen ihrer Modelle bei der Wiedergabe der realen Klimabedingungen besteht darin, dass sie mehr Geld und Zeit aufwenden, um ihre Modelle noch komplexer zu machen. Komplexität ist an und für sich keine Tugend.
Das Klimasystem ist zweifellos komplex. Dennoch gibt es keinen Grund zu der Annahme, dass Modelle, die komplexer sind, auch genauer werden. Wir verstehen nicht alle Faktoren, die das Klima verändern, oder wie die Erde auf verschiedene Störungen des Gesamtklimas reagiert. Was man nicht versteht, kann man nicht gut modellieren. Ohne dieses grundlegende Verständnis werden die Modelle nur noch fehleranfälliger, wenn man immer mehr Codezeilen hinzufügt und immer komplexere Annahmen über die Rückkopplungsmechanismen des Klimas trifft, die noch weniger bekannt sind als die physikalischen Grundlagen. Jede Codezeile und jede komplexe Berechnung ist ein weiterer Bereich, eine weitere Formel oder ein weiterer Operator, bei dem sich eine fehlerhafte Annahme oder ein einfacher Fehler in der Mathematik oder der Zeichensetzung auf das gesamte Modell auswirken kann. Durch die Komplexität ergeben sich mehr Möglichkeiten für Fehler oder „Bugs“ im Code, die die Projektionen verfälschen können.
Die Tatsache, dass die Modellierer ihre Modelle immer komplexer gestalten und ihre simulierten Klimaergebnisse immer mehr von den realen Klimadaten abweichen, sollte als Indikator dafür dienen, dass Komplexität eine Schwäche der Modelle ist. Die Modellierer wissen einfach nicht, was sie nicht wissen. Diese Tatsache sollten sie zugeben, anstatt ihre Unwissenheit in ihre Modelle einzubauen, indem sie vorgeben, dass elegante mathematische Formeln die Realität widerspiegeln, nur weil sie elegant und komplex sind. Der erste Schritt, um aus einem Loch herauszukommen, das man gegraben hat, ist, mit dem Graben aufzuhören.
Ein zweites Indiz dafür, dass komplexe Klimamodelle von Natur aus fehlerhaft sind, ist die Tatsache, dass einfachere Klimamodelle die realen Temperaturdaten besser abbilden. Einfache Modelle lehnen Annahmen darüber ab, wie verschiedene Aspekte des Klimasystems die relative Erwärmung bei steigenden Treibhausgasemissionen verstärken oder verringern. Ohne den zusätzlichen Antrieb durch modellierte Rückkopplungsmechanismen oder -schleifen prognostizieren die einfachen Modelle eine bescheidene Erwärmung als Reaktion auf steigende Emissionen. In dieser Hinsicht spiegeln die einfachen Modelle gut wider, was auf der Erde tatsächlich vor sich gegangen ist.
Es hat keine unkontrollierbare Erwärmung gegeben, und es gibt wenig oder gar keinen Grund, eine solche durch einen vernünftigerweise zu erwartenden Anstieg der Treibhausgaskonzentrationen in der Atmosphäre zu erwarten. Wenn die Modelle mit ihren grundlegenden Vorhersagen – den Temperaturen – nicht richtig liegen, gibt es keinen Grund, ihren zusätzlichen oder prognostizierten Sekundäreffekten zu trauen, die angeblich durch steigende Temperaturen verursacht werden.
Quellen: Intergovernmental Panel on Climate Change; The Wall Street Journal; Powerlineblog
Übersetzt von Christian Freuer für das EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
>>Das Vertrauen in die Fähigkeit der Modelle, das künftige Klima zu prognostizieren, ist gestiegen<<
Welch ein Unfug!! In der Wissenschaft hat bisher immer nur der Beweis gezählt und sonst nix. Mercedes-Benz hat den 180D (mit 43 PS) Ende der 50er Jahre gebaut und dessen Höchstgeschwindigkeit mit 110 km/h angegeben. Real schaffte der auf der ebenen Straße aber 125 km/h.
Wer also die Fähigkeiten der sog. Modelle bestimmen will, der muß die mit der gemessene Vergangenheit vergleichen. Also beispielsweise ab 1970 für die nächsten 30 Jahre das tägliche Wetter berechnen und mit der gemnessenen Realität vergleichen.
Ich weiß noch, wie ein Meteorologe auf ner großen Segelfliegertagung die Behauptung aufstellte, daß an einem ganz bestimmten Tag zwar die Wetterkarte (Druckkarte) die Möglichkeit eines extrem weiten Segelfluges von Norddeutschland bis weit nach Frankreich anzeigen würde, das aber falsch sei. Nur an dem Tag hab ich in meinem einzigen Versuch gleich mit dem Segelflieger binnen 5 Stunden die 500 km bis Belgien geflogen, und hätte noch viel weiter fliegen können. Nur wurde mir das zu teuer. Und das beweist: Vorhersagen mit simplen Daten sind wertlos. Das Einzige, was zählt, ist die Erfahrung. Und die haben die sog. „Klimamodellberechner“ nicht. Denn sonst wüßten die, daß die meisten Messungen der langjährigen Wettervariablen bereits durch die menschlichen Aktivitäten wie Städtebau & Co nach oben getrieben wurden. Die Station Hamburg Fuhlsbüttel, vor dem Krieg weit außerhalb der Stadt gelegen befindet sich jetzt mitten im aufgeheizten Stadtgebiet + den Vororten.
Und die Station Lübeck befindet sich mitten im Asphaltbereich des Flughafens und der in die Stadt führenden Straße nebst Eisenbahn von und nach Lüneburg.
Die einzige saubere Station in den USA mit ner Meßzeit von mehr als 110 Jahren hab ich im Staat Kentucky gefunden.Da wurde täglich TMIN und TMAX gemessen und wird es noch.
>>Treibhausgaskonzentrationen<<
Es fehlt jeglicher Beweis für die Existenz von „Treibhausgas“. Wodurch wird denn im sog „Treibhaus“, dem gäsernen Gewächshaus, die angestiegene Lufttemperatur erzeugt?
Und wer das im größeren Rahmen wissen möchte, der muß sich die Messungen der Uni HH am NDR-Sendemast bis ca. 300m Höhe beschaffen. Natürlich kann man auch Segelflieger befragen. Die kennen die vertikale Tagestemperaturentwicklung bis zur Inversion oder den Cumuluswolken genau. Die wissen ganz genau wo es rauf geht und wo es runter geht.
Was ist denn das Klima? Doch nix weiter als eine dreißigjährige lokale Mittelung der Wetterdaten irgendwo auf der Erdoberfläche. Und daß diese Mittelungen über mehr als ein Jahrhunderet variabel sind, kann jeder anhand der käuflichen Wetterdaten selbst errechnen.
In den USA gibt es die Daten übrigens gratis. Man muß nur aufpassen, daß die Meßorte solide sind und nicht irgendwie durch menschliche Aktivitäten beeinflußt werden. Wenn der Meßgerätebehälter auf nem Parkplatz aus asphalt aufgestellt wurde, dürften die Meßdaten unbrauchbar sein. Oder wenn die Dinger neben Flüssen rumstehen usw. wohl auch. Die Meßdaten von Hamburg werden mitten in der Stadt auf dem Flughafen Fuhlsbüttel gemessen. Die in Lübeck ebenfalls auf dem asphaltierten Flugfeld neben der Autobahnzufahrt und der Eisenbahnlinie nach Lüneburg. Und die Ostsee ist auch nicht weit weg. gibt im Sommer bei Nordostwind schöne Kühle da. Und bei Südostwind kommt die gekühlte Luft vom Ratzeburger See. Thermik gibt es dann da nicht.
Und damit dürfte klar sein: Klimamodelle sind Quatsch. Und Wettervorhersagen aufgrund bestimmter Meßdatenorte ebenfalls.
Bemerhaven hat auch ne schöne Wetterstation neben der Fischereihafenausfahrt mitten in der Geestemündung. Ach ja, die Weser ist auch nur 30m weit im Westen.
Verdienstvoll, den folgenschweren Unsinn mit den Computer-Alarmmodellen in aller Deutlichkeit herauszustellen! Hinzukommt, dass das CO2 in der Atmosphäre dank steigendem Partialdruck nicht beliebig weiter steigt – auch ohne Dekarbonisierungs-Kamikaze. Und auf dieser armseligen Basis spielt die westliche Welt verrückt! Ganz besonders die Vorreiter, die sich auf dem unterirdischen Niveau von Klima-hysterischen Merkels und Luisas bewegen. Politiker, die die Klima-Hysterie in paranoide Klimapolitik umsetzen – „große Transformation“ genannt.
Eine Klimapolitik, von der nur eines gewiss ist, dass sie dem Land und der Menschheit schadet. Weitaus mehr als das „Weltklima“ es jemals vermag. Es sei denn, die Eiszeit kehrt zurück, was uns tatsächlich bevorsteht. Die unfähigsten Politiker weltweit sind dann komplett hilflos und unfähig wie immer. Und kämpfen fanatisch weiter gegen das CO2, getrieben vom Klima-Wahn. Realismus Fehlanzeige – deutsche „Weltretter“ huldigen dem Klima-Popanz, koste es was es wolle.
Wenn der Klimawandel „menschengemacht“ sein soll, warum setzen die IPCC Modellierer statt des CO2 nicht die Anzahl der Menschen dieser Erde als Variable ein? Das Ergebnis wäre das Gleiche mit einer direkten Aussage zu „menschengemacht“. Eine Umsetzung ist allerdings nicht denkbar, wohl aber alle denkbaren Aktivitäten der Menschen (Geburtenrate, Ernährung, Versiegelung und Bebauung, Farbgebung, Rodung, Energie, Industrie und Landwirtschaft, Mobilität, Freizeit, Sport, etc.).
Was zu erarbeiten wäre, wäre die Kausalität dieses Ergebnisses. Obwohl es im Vergleich zum CO2 mMn. realitätsnäher wäre.