Die Klimapolitik verteuert die Urlaubsreisen der Bürger

https://www.drroyspencer.com/latest-global-temperatures/

von Fritz Vahrenholt

Die seit 2023 ungewöhnlich starke Erwärmung der globalen Temperaturen geht im Oktober 2024 leicht zurück. Mit den möglichen Ursachen habe ich mich in meinem letzten newsletter befasst. Die Messergebnisse dieses Monats können nicht mehr mit denen der Vormonate verglichen werden, da das Team um Dr. Spencer von der University of Alabama einen der Messsatelitten, der keine belastbaren Ergebnisse mehr lieferte, aus der Berechnung ausgesondert hat. Da dieser Fehler schon einige Monate andauerte, sind die Messergebnisse entprechend korrigiert worden. Das führt zu etwa 0,1 Grad Celsius niedrigeren Werten.

Heute befasse ich mich mit den Verteuerungen des Flugverkehrs durch die Klimapolitik der Bundesregierung sowie mit einer neuen Bevölkerungsprognose, die die Klimaszenarien des Weltklimarates für 2100 in Frage stellt.

Die Bundesregierung verteuert die Flugreisen für die Bürger und beschädigt den
Wirtschaftsstandort Deutschland

Carsten Spohr, der Vorstandsvorsitzende der Lufthansa, platzte der Kragen. In der Bild-Zeitung sprach er am 12.10.24 Klartext: „Ich mache mir grosse Sorgen um die Anbindung unseres Wirtschaftsstandortes. Die extrem gestiegenen staatlichen Kosten im Luftverkehr führen weiter zu einem schrumpfenden Angebot. Immer mehr Airlines meiden deutsche Flughäfen oder streichen wichtige Verbindungen.“
Einer seiner Kritikpunkte: die von der Ampelregierung beschlossene Anhebung der Luftverkehrssteuer- auch Ticketsteuer genannt – vom 1.5.2024 von etwa 1,5 Milliarden € auf 2 Milliarden Euro.
Die Luftverkehrssteuer wurde unter Angela Merkel im Jahre 2011 beschlossen, als es noch keine CO2-Abgabe für den Luftverkehr gab. Sie sollte abgeschmolzen werden und am Ende ganz entfallen, wenn der Luftverkehr am europäischen CO2-Emissionshandelssystem teilnimmt.

Und tatsächlich war es nach Einführung des europäischen Emissionshandelssystem für den Luftverkehr jahrelange Praxis, die Kosten aus den CO2-Zertifikaten bei der Luftverkehrssteuer anzurechnen. Daher kam es nicht zu einer Doppelbelastung des Flugverkehrs, denn die Luftverkehrssteuer wurde um den entsprechenden Betrag der CO2- Zertifikate abgesenkt.
Nun steigen seit 2024 auf Grund der EU-Vorschriften die Kosten für die CO2-Zertifikate für Flugreisen. Für die 7,6 Millionen t CO2, die von Deutschland abfliegende Maschinen (ausser Fernreisen) ausstossen, sind in 2024 125 Millionen €, in 2025 250 Millionen € und in 2026 500 Millionen € (bei einem Preis von heute 67 €/tCO2) aufzubringen. Weil daher der Kürzungsbetrag für die Luftverkehrssteuer immer größer wurde, hat Rot-Grün-Gelb am 1.5.2024 die Verrechnung abgeschafft. Gleichzeitig hat sie sogar noch die Luftverkehrssteuer um 25 % angehoben

Wenn man also den Luftverkehr in Deutschland nachhaltig beieinträchtigen will, dann belastet man die Flugreisen doppelt :
1. Es wird die Verrechnung von Luftverkehrssteuer und CO2-Abgabe gestrichen
2. Und zusätzlich wird die Luftverkehrsteuer von 1,5 Milliarden auf rund 2 Milliarden angehoben.

Dieses Geld, was die Flugreisenden zu berappen haben, landet in Herrn Habecks Klima-und Transformationsfonds, aus dem Solar- und Windkraftbetreiber subventioniert werden, wenn der Strompreis an der Börse nicht genügend Einnahmen abwirft. Und natürlich bekommen auch diejenigen Unternehmen aus diesem Topf Geld, die sich mit Robert Habeck auf die Traumreise in die Wasserstoffwirtschaft machen. Denken Sie daran, wenn Sie bei der nächsten Fernreise 70,83 € Luftverkehrssteuer – also Ticketsteuer- zu bezahlen haben.
Man hätte ja auch so reagieren können wie die konservative Regierung in Schweden. Sie hat die steigenden CO2-Preise für den Luftverkehr zum Anlass genommen, die Luftverkehrssteuer zum 1.7. 2024 vollständig zu streichen.

Und der nächste Alleingang zur Rettung der Welt auf Kosten des Flugverkehrs steht vor der Tür. Die EU hat beschlossen, dass ab 2025 2 % „klimaneutraler Treibstoff“, sogenannte SAFs ( Sustainable Air-Fuels) eingesetzt werden müssen, ab 2030 bereits 6 %, 2050 70 %.
Hierzu gibt es zwei Verfahren der Herstellung. Zum einen kann der SAF-Kraftstoff aus Biomasse CO2-frei hergestellt werden. Zum andern kann er aufwendig auf Basis grünen Wasserstoffs produziert werden. Hierzu müsste Wasserstoff durch Elektrolyse mittels Solar-und Windstrom erzeugt werden und in einem zweiten Schritt der Wasserstoff mit CO2 zu Kerosin umgesetzt werden (Fischer-Tropsch-Synthese) . Da es noch keine Anlagen gibt, um genügend Kraftstoff aus grünem Wasserstoff herzustellen, hat die EU den Einsatz von wasserstoffbasiertem Kraftstoff erst ab 2030 mit einem Anteil von 1,2 % vorgeschrieben. Doch die Bundesregierung hat schon für 2026 eine Quote von 0,5 % für den wasserstoffbasierten SAF-Kraftstoff vorgeschrieben. Bei Nichterfüllung sind Strafzahlungen fällig.

Carsten Spohr beklagt für die Lufthansa zu Recht, dass es diese Kraftstoffe noch nicht in ausreichender Menge gibt : „Wir bräuchten etwa die Hälfte des deutschen Stroms, um genügend Kraftstoffe zu erzeugen“. Und weiter: „Ich glaube nicht, dass Herr Habeck mir das geben wird“

Um die grüne Politik aus dem Traumland  in die Realität zu holen, rechne ich das mal vor :
Der Gesamtkerosinverbrauch der bundesdeutschen Fluggesellschaften (im wesentlichen Lufthansa und ihre Töchter ) betrug  9 707 797 m³ Kerosin im Jahre 2023. Das entspricht einem Energiegehalt von 86 Milliarden Kilowattstunden (86 TWh). Der energetische Wirkungsgrad der Erzeugung von Kerosin durch Wasserstoffelektrolyse auf Basis von Solar- und Windstrom und anschliessender Synthese des Wasserstoffs mit CO2 hat nach Angaben des Umweltbundesamtes einen Wirkungsgrad von 41 %.(Quelle : Power to Liquid, Umweltbundesamt 2022, S. 16). Demnach benötigt man 210 TWh Strom für die Erzeugung des Lufthansa-Kerosins. Das ist mehr als die Gesamterzeugung aus Photovoltaik und Windenergie in Deutschland im Jahre 2023. Bezogen auf die Gesamterzeugung von 450 TWh in 2023 sind das 47 %.

Carsten Spohr hat also richtig gerechnet. Die Kosten wären übrigens 3 mal so hoch wie herkömmliches Kerosin.(60 €ct/l heute)
Aber damit ist der Alptraum noch nicht zu Ende. Man könnte den SAF-Kraftstoff ja einfach aus Biokraftstoff machen, etwa aus Rapsöl oder Sonnenblumöl. Das hat die EU aber verboten : er darf nur aus biogenen Abfällen (!) stammen. Daher kauft die Lufthansa zur Zeit sämtliches Frittenfett auf, dass die Airline kriegen kann, um die Quote erfüllen zu können. In Deutschland gibt es 200 000 t Frittierfett. Wenn deutsche Fluggesellschaften sämtliches Frittierfett einsetzen würden, kämen sie auf einen Anteil von etwa 2 % von ihrem Gesamtkerosinverbrauch. Eine Quote von 6 % in 2030 zu erreichen, erscheint kaum erfüllbar. Man hört förmlich das schallende Gelächter der Manager von China Airlines, Turkish Airlines oder Emirates. Diese politische Torheit ist im übrigen mit den Stimmen  von CDU, SPD, Grünen und FDP im Europaparlament erfolgt. Und danach von der Ampelregierung abgesegnet worden.
Aber wenn man Grüne gewähren lässt, gibt es noch größere Torheiten. Der rot-grüne Hamburger Senat erhöhte die Flughafengebühr im nächsten Jahr (Wahljahr)  für die Passagiere um 15 %. Eine Erhöhung um 2,30 € wird kaum einer merken, wird man sich gedacht haben, die Bürger haben ja keine Alternative. Ausserdem beschloss der Senat, die Erhöhung erst nach der Wahl im März in Kraft treten zu lassen. Aber die Airlines reagierten, weil der Senat keine Vorstellung hatte über die geringen Margen der Fluggesellschaften. Wenn Fluggesellschaften nur noch 20-30 € pro Passagier erlösen, bringen 2,30 € das Fass zum Überlaufen. Ryanair , Eurowings und Condor kündigten umgehend an, das Angebot aus Hamburg massiv zusammenzustreichen und ihre Maschinen dort fliegen zu lassen, wo sie günstigere Bedingungen vorfinden.  Im Ergebnis werden die Fluggäste schon im nächsten Sommer höhere Preise wegen des geringeren Angebots zu zahlen haben und der Flughafen wird weniger Einnahmen wegen etwa 500 000 fehlender Passagiere haben.
Die TAZ reagierte auf den Abzug der Airlines: „Geht doch !“ und „Das ist eine Gewinn für den Klimaschutz“
Der Rückgang der Weltbevölkerung stellt die Prognosen des Weltklimarates in Frage
Ich habe an dieser Stelle schon häufig die übertrieben alarmistischen Szenarien des Weltklimarates IPCC kritisiert. Nur mit unrealistischen CO2-Emissionen (Verdreifachung !) können mit Hilfe der umstrittenen Klimamodelle Temperaturprognosen von angstmachenden 3-5 Grad Celsius  für das Jahr 2100 errechnet werden (8.5-Szenario siehe Grafik unten). Die realistische Entwicklung der CO2-Emissionen ist  in der folgenden Abbildung mit dem 4.5-Szenario wiedergegeben. Hierfür nimmt selbst der Weltklimarat lediglich eine Temperatursteigerung auf insgesamt 2,7 Grad Celsius an. Wir wissen zwar von der Unzulänglichkeit der Klimamodelle, die Effekte, wie die erhöhte direkte Solarstrahlung auf Grund sich verdünnender Wolken in den letzten Jahren, nicht wiedergeben können. Aber wir nehmen für einen Augenblick an, die IPCC-Modellrechnungen seien realistisch. Selbst dann gibt es Anlass, die Ergebnisse deutlich nach unten zu korrigieren.
Das Modell 4.5 geht von einer Bevölkerungsentwicklung der Welt mit einem Peak im Jahre 2080 von 10,13 Milliarden Menschen aus. Selbst in 2100 wird noch  mit einer Bevölkerung der Welt  von 9,88 Milliarden – 1,7 Milliarden mehr Menschen als heute – gerechnet. (siehe nächste Grafik rote Kurve)
Die neuesten Schätzungen zeichnen ein völlig anderes Bild.
Die weltweit anerkannte Bevölkerungsforschungseinrichtung der Universität von Washington IHME geht in einer oberen Schätzung von einem Peak von 9,7 Milliarden Menschen in 2064 aus (siehe Grafik blaue Kurve). In einer unteren Schätzung (gelbe Kurve) gehen sie von einem Peak von rd. 9 Milliarden Menschen in 2054 aus. Diese untere Schätzung wird von dem Demographieexperten Jesus Fernandes-Villaverde von der Universität von Pennsylvania gestützt. In 2100 würden demnach etwa 3,5 Milliarden Menschen weniger auf der Erde leben als das IPCC annimmt.
Die Ursache  für den Bevölkerungsrückgang ist die weltweite und mit Verzug auch in Afrika zurückgehende Kinderzahl sogar unter die Erhaltungszahl von 2,1. Diese Entwicklung beginnt bereits 2030.
Das hat gravierende Folgen für die CO2-Emissionen: weniger Menschen – weniger CO2-Emissionen.
Roger Pielke, ehemaliger Professor an der Universität in Boulder, Colorado, hat in seinem blog die Folgen durchgerechnet und kommt zu einer um 0,6 Grad Celsius geringeren Erwärmung in 2100 in den IPCC-Modellen, nämlich 2,07 Grad.
Wäre das nicht eine gute Nachricht für die Delegierten der 29. Weltklimakonferenz, die vom 11.-24. November in Baku stattfindet? Die Einhaltung des Pariser Klimaziels ist demnach sehr wahrscheinlich, wenn wir auf dem sehr wahrscheinlichen Pfad der Emissionsentwicklung weiter fortschreiten, nämlich einem leichten Anstieg der Emissionen bis 2050 und danach ein sukzessiver Rückgang bis 2100 auf etwa die Hälfte der Emissionen. Das wäre ohne Wohlstandsverluste erreichbar. Welcher Klimaforscher wagt es, der Bundesregierung diese Realitäten nahezubringen und damit ihren Kurs der Zerstörung der wirtschaftlichen Grundlagen dieses Landes zu korrigieren?
Wenn es die Wissenschaft nicht tut, müssen es die Bürger tun und Politiker wählen, die aufhören, den Bürgern Angst einzujagen, die aufhören, die Bürger und Unternehmen in eine CO2-freie Politik zu gängeln, die beginnen, den Bürgern das zurückzugeben, was sie verdient haben: Freiheit, Wohlstand und eine gute Zukunft.



Verzerrte Berichterstattung bzgl. tropischer Zyklone

Cap Allon

Während die atlantische Hurrikansaison recht aktiv war, bleibt die Gesamtaktivität der tropischen Wirbelstürme auf der gesamten Nordhalbkugel weit unter dem Durchschnitt.

In diesem Jahr gab es nur 49 benannte Stürme, weit weniger als der historische Durchschnitt von 54,1, sowie 27 Hurrikane gegenüber den üblichen 30,1. Auch die Zahl der schweren Wirbelstürme ist mit nur 12 gegenüber dem Durchschnitt von 16,3 rückläufig. Der ACE-Index (Accumulated Cyclone Energy), ein Maß für die Intensität von Stürmen, liegt derzeit bei 360,3 und damit deutlich unter dem Durchschnitt von 509,2.

Trotz dieser Indikatoren, trotz dieser Fakten bleibt die Medienberichterstattung darauf fixiert, sich die atlantischen Stürme herauszupicken, während die unterdurchschnittliche Anzahl der Stürme der nördlichen Hemisphäre als Ganzes völlig ignoriert werden, was ihre verzerrte Darstellung aufrecht erhält.

„Etwas, das wir tun, funktioniert eindeutig nicht“, sagte der Milliardär Jeff Bezos kürzlich in einer Moralpredigt an seine Mitarbeiter der Washington Post. „Die meisten Menschen glauben, dass die Medien voreingenommen sind. Jeder, der das nicht sieht, achtet kaum auf die Realität, und wer die Realität bekämpft, verliert. Die Realität ist ein ungeschlagener Champion.“

Offiziell ist das Vertrauen in die Medien auf einem historischen Tiefpunkt angelangt: Die Öffentlichkeit sieht in der Presse kaum mehr als ein Sprachrohr für mächtige Geldgeber und schädliche Agenden. Der Öffentlichkeit wird bewusst, dass die Medien sorgfältig kuratiert werden – nicht um zu informieren, sondern um die öffentliche Meinung so zu formen, dass sie der Agenda ihrer Sponsoren entspricht. Klimaalarmismus, selektive Skandalberichterstattung und der Schutz einflussreicher Persönlichkeiten wie Bill Gates vor einer Überprüfung offenbaren den beunruhigenden Abstieg der Presse vom Wachhund zum Schoßhund.

Wie bereits erwähnt, sind die Schlagzeilen trotz einer unterdurchschnittlichen Saison für tropische Wirbelstürme in der nördlichen Hemisphäre voll von übertriebenen Berichten über „rekordverdächtige“ Stürme und „katastrophale“ Trends, die ein Bild der Krise zeichnen, obwohl es gar keine gibt. Anstatt über Fakten zu berichten, nutzen viele Medien selektive Daten, um Klimaängste zu schüren und ein profitables Narrativ des drohenden Unheils zu untermauern. Das Ziel? Die Öffentlichkeit bei der Stange zu halten, die Politik bestimmter Umweltlobbyisten zu unterstützen und einen stetigen Strom von Werbeeinnahmen aus grünen Unternehmensinitiativen zu erhalten. Das Ergebnis ist keine gut informierte Öffentlichkeit, sondern eine ängstliche, die ständig mit sensationsheischenden Halbwahrheiten gefüttert wird, die eher provozieren als aufklären sollen.

Und dann ist da noch Bill Gates, der Tech-Titan, der zum „Philanthropen“ der öffentlichen Gesundheit geworden ist und der jetzt in den Niederlanden wegen fragwürdiger Impfstoffpraktiken vor Gericht steht. Trotzdem bleibt die Berichterstattung in den Mainstream-Medien verdächtig zurückhaltend. Gates, der Milliarden in Medieninitiativen und globale Gesundheitsprojekte investiert hat, genießt eine einzigartig wohlwollende Presse, die keine schwierigen Fragen stellt. Die Medien übersehen seine jüngste Anklage und ziehen es stattdessen vor, sein sorgfältig gepflegtes Image als wohlwollender Visionär zu wahren. Die Botschaft könnte nicht klarer sein: Die Presse schützt ihre Gönner, indem sie die Mächtigen vor genau der Prüfung bewahrt, die sie rücksichtslos auf andere anwendet.

Nicht nur seine Unternehmungen im Bereich der öffentlichen Gesundheit entgehen der Kritik. Kürzlich leitete Gates 50 Millionen Dollar an die Harris-Kampagne weiter, wobei er die Gelder durch Hintertüren leitete, um sie geheim zu halten – ein weiterer Schritt, der von den Medien übersehen wurde. Wenn Musk jedoch die andere Seite des politischen Spektrums unterstützt, werden solche Spenden von der Presse als eine Bedrohung für die Demokratie selbst angeprangert.

Dieses Muster wiederholt sich bei unzähligen Themen.

Wo bleibt die unvoreingenommene Berichterstattung über strittige Themen? Wo sind die ausgewogenen Berichte? Die Antwort ist, dass sie unter einem Haufen von Prioritäten begraben ist, die nichts mit dem öffentlichen Wohl zu tun haben. Stattdessen ist die Presse geschickt darin geworden, sich Geschichten auszusuchen, die den Interessen ihrer Gönner entsprechen, und diejenigen zu ignorieren oder abzutun, die nicht in die Agenda passen.

Diese Verzerrung hat die Menschen weg von den Mainstream-Medien und hin zu alternativen Quellen getrieben, selbst wenn diese ebenfalls ungeprüft oder fehleranfällig sind. Die Menschen ziehen eine unvollkommene, unabhängige Stimme, die nach der Wahrheit sucht, einer von Sonderinteressen gekauften und bezahlten Stimme vor. Sie fordern echte Antworten und Transparenz.

Der Ruf der Medien liegt heute in Trümmern – nicht, weil sich die Menschen nicht mehr um die Wahrheit kümmern, sondern weil sie nicht mehr glauben, dass die Presse eine solche bietet. Die alten Medien haben sich in ein Megafon für die Reichen verwandelt, eine Propagandamaschine, die die öffentliche Wahrnehmung formen und kontrollieren soll. Und was war die Antwort des Establishments auf seine nachlassende Kontrolle? Angriffe auf alternative Quellen wie X und in Ländern wie Großbritannien sogar Gefängnisstrafen für diejenigen, die es wagen, ihre Frustrationen online zu äußern.

Die WaPo und ihresgleichen könnten in Flammen aufgehen, und nur wenige würden den Verlust beklagen – sie sind zu hohlen Lockvögeln verkommen.

Link: https://electroverse.substack.com/p/skewed-tropical-cyclone-reporting?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Relative Bedeutung von Kohlendioxid und Wasser für den Treibhauseffekt: Wedelt hier der Schwanz mit dem Hund?

Charles Rotter

In seiner Studie mit dem Titel [übersetzt] „Relative Bedeutung von Kohlendioxid und Wasser für den Treibhauseffekt: Wedelt der Schwanz mit dem Hund?“ untersucht Demetris Koutsoyiannis die Hauptfaktoren des Treibhauseffekts und stellt die These auf, dass Wasserdampf und Wolken den Beitrag von Kohlendioxid (CO₂) bei weitem in den Schatten stellen. Mithilfe eines Strahlungstransfermodells (MODTRAN) analysiert Koutsoyiannis die Einstrahlung sowie die langwellige Ausstrahlung und leitet makroskopische Beziehungen ab, welche die Treibhausgaseffekte quantitativ ausdrücken. Seine Berechnungen deuten darauf hin, dass Wasserdampf und Wolken zwischen 87 % und 95 % zum Treibhauseffekt beitragen, während der Einfluss von CO₂ nur etwa 4 % bis 5 % beträgt. Die Ergebnisse deuten auch darauf hin, dass der jüngste Anstieg des atmosphärischen CO₂ von 300 auf 420 ppm einen vernachlässigbaren Beitrag leistet, der mit nur 0,5 % sowohl für die Ein- als auch für die Ausstrahlung beziffert wird.

Abstract

Mit Hilfe eines detaillierten atmosphärischen Strahlungstransfermodells leiten wir makroskopische Beziehungen zwischen absteigender und ausgehender langwelliger Strahlung ab, die es ermöglichen, deren partielle Ableitungen in Bezug auf die erklärenden,die Treibhausgase darstellenden Variablen zu bestimmen. Wir validieren diese makroskopischen Beziehungen mit Hilfe empirischer Formeln, die auf den in der Hydrologie üblichen Daten der abwärts gerichteten Strahlung und den Satellitendaten für die abgehende Strahlung beruhen. Wir verwenden die Beziehungen und ihre partiellen Ableitungen, um die relative Bedeutung von Kohlendioxid und Wasserdampf für den Treibhauseffekt zu ermitteln. Die Ergebnisse zeigen, dass der Beitrag von Kohlendioxid 4 bis 5 % beträgt, während Wasser und Wolken mit einem Beitrag von 87 % – 95 % dominieren. Der geringe Einfluss von Kohlendioxid wird durch die geringe, nicht wahrnehmbare Wirkung des jüngsten Anstiegs der CO₂-Konzentration in der Atmosphäre von 300 auf 420 ppm bestätigt. Dieser Effekt wird mit 0,5 % sowohl für die abwärts gerichtete als auch für die abgehende Strahlung beziffert. Wasser und Wolken erfüllen auch andere wichtige Funktionen für das Klima, wie die Regulierung der Wärmespeicherung und der Albedo sowie die Kühlung der Erdoberfläche durch latente Wärmeübertragung, die 50 % ausmacht. Diese Ergebnisse bestätigen die wichtige Rolle des Wassers für das Klima und legen nahe, dass die Hydrologie in der Klimaforschung eine wichtigere und aktivere Rolle spielen sollte. – https://doi.org/10.53234/scc202411/01

Eine gute Faustregel ist, dass alles, was sich „Wissenschaft“ nennt, wahrscheinlich keine ist. — J.R. Searle (1984)

Diese Ergebnisse stehen im Gegensatz zu der weit verbreiteten Ansicht, dass CO₂ der entscheidende Faktor für den Treibhauseffekt der Erde ist. Koutsoyiannis argumentiert, dass Wasser aufgrund seiner Fülle und seines schnellen Kreislaufs die atmosphärische Temperaturregulierung dominiert und somit als primäres Treibhausgas fungiert. Er behauptet, dass der historische Fokus auf CO₂ die Klimaforschung verzerrt hat, wodurch die Rolle der Hydrologie geschmälert und ein vollständiges Verständnis der Klimadynamik eingeschränkt wurde.

Koutsoyiannis kritisiert auch die Mainstream-Perspektive der Klimawissenschaft, die seiner Meinung nach zu sehr mit politischen Agenden verwoben ist. Er verweist auf Diskussionen in prominenten Fachzeitschriften, in denen CO₂ als „Steuerknopf“ des Klimas dargestellt wird, eine Darstellung, die seiner Meinung nach nicht durch empirische Beweise gestützt wird. Indem er sein Modell anwendet, stellt er die These in Frage, dass die Beseitigung von CO₂ das Klima der Erde dramatisch verändern würde; stattdessen argumentiert er, dass Wasserdampf aufgrund seines dominanten Treibhauseffekts und seiner kurzen atmosphärischen Verweildauer weiterhin die Temperatur regulieren würde.

Die Studie bezieht Daten der ERA5-Reanalyse und satellitengestützte Strahlungsmessungen zur Validierung ein, insbesondere die des CERES-Projektes. Diese Datensätze geben Aufschluss über die Strahlungsprofile und stützen das Argument des Autors, dass Wasserdampf aufgrund seiner regionalen Variabilität und seines schnellen Zyklus‘ einen starken Treibhauseffekt ausüben kann, den CO₂ nicht erreichen kann.

Koutsoyiannis räumt jedoch ein, dass der hypothetische, in theoretischen Studien oft diskutierte Wegfall von CO₂ empirisch nicht belegt ist, da CO₂ über geologische Zeiträume hinweg stets ein Teil der Erdatmosphäre war. Er kontrastiert auch den schnellen Umsatz von Wasserdampf mit der längeren Verweildauer von CO₂ und hebt dessen gut durchmischte Beschaffenheit in der Atmosphäre als möglichen Grund dafür hervor, dass dessen Erwärmungseffekte diffus erscheinen.

In seiner Analyse fordert Koutsoyiannis eine Neuausrichtung der Klimaforschung und drängt die wissenschaftliche Gemeinschaft, der Hydrologie mehr Aufmerksamkeit zu schenken und die zentrale Rolle von CO₂ in Klimamodellen zu überdenken. Er kommt zu dem Schluss, dass das Verständnis des Erdklimas durch die derzeitige Fokussierung auf CO₂-Emissionen eingeschränkt sein könnte, da die nuancierten und regionalspezifischen Auswirkungen von Wasserdampf übersehen werden.

Insgesamt ist „wedelt der Schwanz mit dem Hund?“ eine Kritik an den vorherrschenden Paradigmen der Klimawissenschaft, die für ein Modell plädiert, das Wasserdampf und Wolken als die wichtigsten Treibhausfaktoren anerkennt, während der Gesamteffekt von CO₂ heruntergespielt wird. Koutsoyiannis‘ Beitrag regt eine Verlagerung des Schwerpunkts der Klimaforschung auf die Hydrologie an und stellt die Mainstream-Positionierung von CO₂ als Eckpfeiler der Theorie des Klimawandels in Frage.

Außerdem hat Koutsoyiannis die Kommentare von Gutachtern zu seinen früheren Veröffentlichungsversuchen in anderen Fachzeitschriften veröffentlicht.

Bei dieser Datei handelt es sich um die ergänzenden Informationen zu der Studie „Relative importance of carbon dioxide and water in the greenhouse effect: Does the tail wag the dog?“ Sie enthält interessantes Material, da sie die gegenwärtigen Verfahren aufzeigt, mit denen Stimmen zum Schweigen gebracht werden, die mit den als Wissenschaft ausgegebenen Mainstream-Meinungen nicht übereinstimmen. Zu den enthaltenen Materialien gehören die von drei Zeitschriften abgelehnten Arbeiten, nämlich Hydrological Sciences Journal, MDPI Hydrology und Ecohydrology and Engineering. Das Dokument enthält alle Gutachten und die Antworten darauf sowie den wichtigsten Schriftwechsel mit den Redaktionen der Zeitschriften. Die Antworten auf die Rezensionen sind enthalten, wenn der Herausgeber der Aufforderung, sie zu widerlegen, nachgekommen ist – ansonsten wurden keine Antworten verfasst. [Siehe hhier]

Link: https://wattsupwiththat.com/2024/11/07/relative-importance-of-carbon-dioxide-and-water-in-the-greenhouse-effect-does-the-tail-wag-the-dog/

Übersetzt von Christian Freuer für das EIKE-Editor




Warum numerische Modelle bei der langfristigen Klima-Prognose versagen

Kip Hansen

Vorbemerkung des Übersetzers: Dieser Beitrag geht ausführlich auf meine Ausführungen in Kurzform ein, die man hier als Ergänzung zu diesem Artikel betrachten kann. – Alle Hervorhebungen im Original. – Ende Vorbemerkung

Wann immer die Vorhersagen von Klimamodellen erwähnt werden, gibt es hier und anderswo in den Blogs eine Menge „Modell-Bashing“. Dieser Aufsatz ist ein sehr ausführlicher Versuch, den eher reflexartigen Teil dieses wiederkehrenden Phänomens abzukühlen.

Wir alle verwenden Modelle, um Entscheidungen zu treffen, wobei die meisten von uns einfach zusammengewürfelte mentale Modelle im Sinne von: „Ich sehe keine Autos auf der Straße, ich höre keine Autos auf der Straße, ich habe zweimal in beide Richtungen geschaut, also sagt mir mein mentales Modell, dass ich die Straße jetzt sicher überqueren werde.“ Ihr kleines „sicheres Überqueren der Straße“-Modell ist durchaus nützlich und (sofern keine unbekannten oder anderweitig nicht berücksichtigten Beweise vorliegen) verlässlich für die persönliche Sicherheit beim Überqueren der Straße.

Es ist in keiner Weise nützlich oder richtig zu sagen: „Alle Modelle sind Schrott“.

Die Modelle, über die wir hier auf dieser Website sprechen, sind „numerische Klimamodelle [oder eine breitere Suche nach Referenzen hier], die üblicherweise auf Supercomputern laufen. Die NASA sagt Folgendes dazu:

Klimamodellierer lassen den von ihnen geschriebenen Klimasimulations-Computercode auf den Supercomputern des NASA Center for Climate Simulation (NCCS) laufen. Bei der Durchführung ihrer mathematischen Simulationen unterteilen die Klimamodellierer die Atmosphäre in 3D-Gitter. Innerhalb jeder Gitterzelle berechnet der Supercomputer physikalische Klimawerte wie Windvektoren, Temperatur und Feuchtigkeit. Nachdem die Bedingungen anhand realer Beobachtungen initialisiert wurden, wird das Modell um einen „Zeitschritt“ vorwärts bewegt. Mithilfe von Gleichungen werden die Klimawerte neu berechnet, wodurch eine projizierte Klimasimulation entsteht.

Wikipedia erklärt dazu:

Ein allgemeines Zirkulationsmodell (GCM) ist eine Art von Klimamodell. Es verwendet ein mathematisches Modell der allgemeinen Zirkulation einer planetarischen Atmosphäre oder eines Ozeans. Es verwendet die Navier-Stokes-Gleichungen auf einer rotierenden Kugel mit thermodynamischen Termen für verschiedene Energiequellen (Strahlung, latente Wärme). Diese Gleichungen bilden die Grundlage für Computerprogramme, mit denen die Erdatmosphäre oder die Ozeane simuliert werden. Atmosphärische und ozeanische GCMs (AGCM und OGCM) sind neben den Komponenten für Meereis und Landoberflächen die wichtigsten Komponenten.

Ich bin offen für andere Definitionen für das grundlegende GCM. Es gibt natürlich Hunderte von verschiedenen „Klimamodellen“ unterschiedlicher Art und Verwendung.

Aber lassen Sie uns nur das allgemeine Thema betrachten, das die Grundlage für Behauptungen bildet, die mit dem Satz beginnen: „Klimamodelle zeigen, dass…“

Hier sind ein paar Beispiele aus einer einfachen Google-Suche zu diesem Satz:

Klimamodelle zeigen, dass der Anstieg des Meeresspiegels durch thermische Expansion unvermeidlich ist (hier)

Globale Klimamodelle zeigen, dass das arktische Meereis zumindest für einen Teil des Jahres zu verschwinden droht (hier)

Klimamodelle zeigen, dass die globale Erwärmung bis zum Jahr 2100 um 1,8 bis 4,4°C zunehmen könnte (hier)

Sowohl historische Daten als auch zukünftige Klimamodelle zeigen, dass die globale Erwärmung (ungefähr) direkt proportional zum Anstieg der CO₂-Konzentration ist (hier)

Alle Klimamodelle zeigen, dass die Zugabe von Kohlendioxid in die Atmosphäre zu einer globalen Erwärmung und zu Veränderungen bei den Niederschlägen führen wird (hier)

Klimamodelle zeigen, dass Kapstadt eine trockenere Zukunft bevorsteht (hier)

Versuchen wir es mal mit „die Klimawissenschaft prophezeit…“:

Die Klimawissenschaft prophezeit, dass sich die Landgebiete der Welt schneller erwärmen sollten als die Meere, und unsere Temperaturdaten bestätigen dies (hier)

Die Muster extremer Wetterereignisse in den Vereinigten Staaten verändern sich, und die Klimawissenschaft prophezeit weitere Veränderungen (hier)

Es gibt zahllose Beispiele. Aber fragen wir uns: „Was meinen sie, wenn sie sagen ‚Die Klimawissenschaft prophezeit…‘?“

Im Allgemeinen meinen sie eine der beiden folgenden Aussagen:

1) Dass irgendein Klimawissenschaftler oder der IPCC oder irgendeine Gruppe in irgendeinem Klimabericht behauptet [oder allgemein angenommen wird, dass er/sie behauptet hat, was sehr oft nicht genau der Fall ist], dass ein solches zukünftiges Ereignis/eine solche Bedingung eintreten wird.

2) Ein Klimamodell [oder ein einzelner Durchlauf eines Klimamodells oder eine bestimmte Anzahl von Klimamodellausgaben, die gemittelt wurden] hat prophezeit/projiziert, dass ein solches zukünftiges Ereignis/eine solche zukünftige Bedingung eintreten wird.

Man beachte, dass der erste Fall oft selbst auf dem zweiten beruht.

Die Ergebnisse von Klimamodellen pauschal abzulehnen, ist genauso dumm, wie den gesamten Klimaskeptizismus pauschal abzulehnen. Ein bisschen Intelligenz und Verständnis ist erforderlich, um aus beidem schlau zu werden. Es gibt einige Punkte/Behauptungen von Klimaskeptikern, denen ich nicht zustimme, und es gibt Behauptungen zur Klimakrise, denen ich nicht zustimme.

Aber ich weiß, warum ich nicht zustimme.

Warum ich die meisten Klimamodellvorhersagen oder Projektionen zukünftiger Klimazustände nicht akzeptiere

Vor Jahren, am 5. Oktober 2016, schrieb ich Lorenz validiert, der auf Judith Currys Blog Climate Etc. veröffentlicht wurde. Es ist eine interessante Lektüre und wichtig genug, um sie erneut zu lesen, wenn man wirklich neugierig ist, warum die numerische Klimamodellierung so schwerwiegende Probleme hat, dass sie von vielen, mich eingeschlossen, als nur zufällig gültige langfristige Prognosen angesehen wird. Ich sage „zufällig“ in demselben Sinne, in dem eine stehengebliebene Uhr zweimal am Tag die richtige Zeit anzeigt, oder vielleicht wie eine falsch eingestellte Uhr, die mit einer leicht falschen Geschwindigkeit läuft und nur gelegentlich und zufällig die richtige Zeit anzeigt.

Ich behaupte nicht, dass ein numerisches Klimamodell niemals eine korrekte Vorhersage machen kann und wird.

Jennifer Kay und Clara Deser, beide von der University of Colorado Boulder und mit dem NCAR/UCAR [National Center for Atmospheric Research, University Corporation for Atmospheric Research] verbunden, haben zusammen mit 18 anderen im Jahr 2016 Experimente mit Klimamodellen durchgeführt und eine wunderbare Studie mit dem Titel: „The Community Earth System Model (CESM) Large Ensemble Project: A Community Resource for Studying Climate Change in the Presence of Internal Climate Variability“ geschrieben.

Die vollständige Studie steht hier zum Download bereit [.pdf].

Folgendes haben sie getan (in Kurzform):

„Um die möglichen Auswirkungen winziger Störungen des Klimas zu erforschen – und um ein umfassenderes Verständnis der möglichen Klimaschwankungen zu erlangen – leiteten Deser und ihre Kollegin Jennifer Kay, eine Assistenzprofessorin an der University of Colorado Boulder und Gastwissenschaftlerin am NCAR, ein Projekt, bei dem das NCAR-basierte Community Earth System Model (CESM) 40 Mal von 1920 bis zum Jahr 2100 durchlaufen wurde. Bei jeder Simulation veränderten die Wissenschaftler die Ausgangsbedingungen des Modells nur geringfügig, indem sie die globale atmosphärische Temperatur um weniger als ein Billionstel eines Grades anpassten und damit eine einzigartige und chaotische Kette von Klimaereignissen in Gang setzten.“ [Quelle]

Worauf beziehen sich Deser und Kay hier?

„Es ist der sprichwörtliche Schmetterlings-Effekt“, sagt Clara Deser… “Könnte ein Schmetterling, der in Mexiko mit den Flügeln schlägt, diese kleinen Bewegungen in der Atmosphäre auslösen, die zu großräumigen Veränderungen der atmosphärischen Zirkulation führen?“

Anmerkung des Autors: Die Antwort auf die genaue ursprüngliche Frage von Edward Lorenz lautet „Nein“, und zwar aus vielen Gründen, die mit der Größe und Viskosität der Atmosphäre zu tun haben und über die endlos gestritten wird. Aber der Grundsatz „extreme Empfindlichkeit gegenüber den Anfangsbedingungen“ ist wahr und richtig und wurde in der Studie von Deser und Kay in der praktischen Anwendung in einem echten Klimamodell nachgewiesen.

Was geschah, als Deser und Kay das Community Earth System Model (CESM) 40 Mal laufen ließen und dabei genau denselben Modelllauf vierzig Mal wiederholten, wobei sie alle dieselben Eingaben und Parameter verwendeten, mit Ausnahme einer Eingabe: der globalen atmosphärischen Temperatur? Diese Eingabe wurde bei jedem Durchlauf geändert durch:

weniger als ein Billionstel eines Grades

oder

< 0.0000000000001 °C

Und diese eine Änderung führte zu den Projektionen für „Wintertemperaturtrends (in Grad Celsius) für Nordamerika zwischen 1963 und 2012“, die als Grafiken dargestellt sind:

Beachten Sie zunächst, wie unterschiedlich die 30 Projektionen sind. Vergleichen Sie Nr. 11 mit Nr. 12 direkt daneben. In Nr. 11 ist der Norden Kanadas und Alaskas kalt, während es in Nr. 12 im Norden Kanadas und Alaskas heiß ist. Dann schauen Sie sich Nr. 28 an.

Vergleichen Sie Nr. 28 mit OBS (Beobachtungen, die Realität, die Wirklichkeit, das, was tatsächlich stattgefunden hat). Denken Sie daran, dass es sich nicht um Temperaturen, sondern um Temperaturtrends über 50 Jahre hinweg handelt. Nicht Wetter, sondern Klima.

Schauen Sie sich nun EM an, neben OBS in der unteren Reihe. EM = Ensemble Mean (Ensemble-Mittelwert) – sie haben die Ergebnisse von 30 Durchläufen zu einem einzigen Ergebnis GEMITTELT.

Das Experiment sollte zeigen, ob numerische Klimamodelle extrem empfindlich auf die Anfangsbedingungen reagieren oder nicht. Sie änderten eine einzige Eingabe um einen verschwindend geringen Betrag – weit unterhalb der tatsächlichen Messgenauigkeit in der realen Welt (oder unserer Fähigkeit, die Lufttemperaturen zu messen). Dieser Betrag? Ein Billionstel Grad Celsius – 0,0000000000001 °C. Um ganz fair zu sein, ist die Abweichung geringer als das.

In dem Artikel erklären die Autoren, dass sie sich der extremen Abhängigkeit von den Anfangsbedingungen bei der numerischen Klimamodellierung durchaus bewusst sind. In gewisser Weise ist das sogar der Grund für ihr Experiment. Sie wissen, dass sie chaotische Ergebnisse (wie im Bereich der Chaos-Theorie) erhalten werden. Und sie erhalten tatsächlich chaotische Ergebnisse. Keiner der 30 Durchläufe entspricht der Realität. Die 30 Ergebnisse unterscheiden sich alle in erheblicher Weise. Der Ensemble-Mittelwert unterscheidet sich erheblich von den Beobachtungen und stimmt nur darin überein, dass die Winter im Allgemeinen etwas milder sein werden, weil den Modellen ausdrücklich gesagt wird, dass es wärmer wird, wenn die CO₂-Konzentrationen steigen (was der Fall war).

Aber was sie als chaotische Ergebnisse bezeichnen, ist die interne Klimavariabilität.

Das ist ein großer Irrtum. Ihre hübschen kleinen Bilder stellen die numerisch chaotischen Ergebnisse nichtlinearer dynamischer Systeme dar, die durch mathematische Formeln dargestellt werden (von denen die meisten selbst sehr empfindlich auf die Anfangsbedingungen reagieren), wobei jedes Ergebnis bei jedem nachfolgenden Zeitschritt ihres Klimamodells in die Formeln zurückgeführt wird.

Edward Lorenz zeigte in seiner bahnbrechenden Studie „Deterministic Nonperiodic Flow“, dass numerische Wettermodelle Ergebnisse liefern, die extrem empfindlich auf die Anfangsbedingungen reagieren, und je weiter in die Zukunft man sie laufen lässt, je mehr Zeitschritte berechnet werden, desto größer und breiter wird die Streuung der chaotischen Ergebnisse.

Was genau hat Lorenz gesagt? „Zwei Zustände, die sich um unmerkliche Beträge unterscheiden, können sich schließlich zu zwei beträchtlich unterschiedlichen Zuständen entwickeln … Wenn es also irgendeinen Fehler bei der Beobachtung des gegenwärtigen Zustands gibt – und in jedem realen System scheinen solche Fehler unvermeidlich zu sein – kann eine akzeptable Prophezeiung eines momentanen Zustands in der fernen Zukunft durchaus unmöglich sein….. Angesichts der unvermeidlichen Ungenauigkeit und Unvollständigkeit von Wetterbeobachtungen scheint eine präzise Vorhersage über sehr weite Entfernungen nicht existent zu sein.

Diese numerischen Klimamodelle können nicht versagen, wenn sie keine genauen langfristigen Klimazustände prophezeien oder projizieren. Diese Situation kann nicht vermieden werden. Sie kann nicht „umgangen“ werden. Sie kann nicht durch immer feinere Gitter gelöst werden.

Nichts kann die Tatsache korrigieren, dass die Empfindlichkeit gegenüber den Anfangsbedingungen – das Hauptmerkmal der Auswirkungen der Chaostheorie auf die Klimamodelle – dazu führt, dass die Modelle die Fähigkeit verlieren, langfristige zukünftige Klimazustände zu prophezeien.

Deser und Kay zeigen dies in ihrer Studie von 2016 und in nachfolgenden Studien deutlich auf.

Was bedeutet das für die praktische Arbeit in der Klimawissenschaft?

Das bedeutet genau das, was Lorenz vor all den Jahren festgestellt hat – um den IPCC TAR zu zitieren: „Das Klimasystem ist ein gekoppeltes nichtlineares chaotisches System, und daher ist die langfristige Prophezeiung zukünftiger Klimazustände nicht möglich.“

Deser und Kay bezeichnen die in ihrer Studie gefundenen chaotischen Ergebnisse als „interne Klimavariabilität“. Das ist völlig, total, absolut und grandios falsch.

Die chaotischen Ergebnisse, die sie als chaotische Ergebnisse aufgrund der Empfindlichkeit gegenüber den Ausgangsbedingungen bezeichnen, sind nicht mehr und nicht weniger als chaotische Ergebnisse aufgrund der Empfindlichkeit gegenüber den Ausgangsbedingungen. Diese Variabilität ist numerisch – die Zahlen variieren, und sie variieren, weil es Zahlen sind [und nicht das Wetter und nicht das Klima].

Die in Klimamodellen variierenden Zahlen variieren chaotisch, weil die Zahlen aus der Berechnung nichtlinearer partieller Differentialgleichungen stammen, wie z. B. die Navier-Stokes-Gleichungen, ein System partieller Differentialgleichungen, das die Bewegung eines Fluids im Raum beschreibt wie z. B. in der Atmosphäre oder den Ozeanen. Die Navier-Stokes-Gleichungen spielen in numerischen Klimamodellen eine wichtige Rolle. „Das offene Problem der Existenz (und Glättung) von Lösungen der Navier-Stokes-Gleichungen ist eines der sieben Millenniumspreis-Probleme in der Mathematik“ – für die Lösung des gestellten Problems gibt es $ 1.000.000,00. Aus diesem Grund wird in Modellen eine linearisierte Version der Navier-Stokes-Gleichungen verwendet.

Wie sieht das nun in den heutigen Klimamodellen aus – welche Verfahren werden verwendet, um diese Hindernisse für langfristige Vorhersagen zu umgehen?

„Offensichtlich würde ein dynamisches System, das zu Beginn keine explizite Zufälligkeit oder Ungewissheit aufweist, nach ein paar Zeitschritten unvorhersehbare Entwicklungen zeigen, wenn sich die Anfangswerte nur geringfügig ändern. Wenn man sieht, wie selbst die Lorenz-Gleichungen (wie sie im Laufe der Zeit bekannt geworden sind) chaotische Züge aufweisen, kann man sich vorstellen, in welchem (vermutlich kurzen) Ausmaß die Navier-Stokes-Gleichungen auf einem Gitter mit einer Million Punkten vorhersagbar sein würden. Wie bereits erwähnt, ist dies der Grund, warum die heutigen Atmosphärenmodelle eine Reihe von vereinfachenden Annahmen, Linearisierungen und statistischen Verfahren verwenden, um brauchbarere Systeme zu erhalten.“ [Quelle – oder download.pdf]

Mit anderen Worten: Das Mantra, dass Klimamodelle korrekt und verlässlich sind und genaue langfristige Prognosen liefern, weil sie auf bewährter Physik basieren, ist falsch – die Physik wird mit subjektiven Annahmen behandelt, welche die Physik „vereinfachen“, Linearisierungen der bekannten mathematischen Formeln (die das Unlösbare lösbar machen) und dann statistischen Verfahren unterworfen, um „ brauchbarere Systeme“ zu erhalten.

Natürliche Variabilität kann nur in der Vergangenheit gesehen werden. Es ist die Variabilität in der Natur – der realen Welt – in dem, was wirklich passiert ist.

Das Wetter und das Klima werden sich in der Zukunft verändern. Und wenn wir darauf zurückblicken, werden wir die Variabilität sehen.

Aber was in numerischen Klimamodellen passiert, ist das Gegenteil der natürlichen Variabilität. Es ist numerisches Chaos. Dieses numerische Chaos ist keine natürliche Klimavariabilität – und auch keine interne Klimavariabilität.

Aber wie können wir das numerische Chaos, das in den Klimamodellen zu sehen ist, von dem Chaos trennen, das in dem gekoppelten nichtlinearen chaotischen System, welches das Klima der Erde ist, deutlich sichtbar ist?

(Und jetzt muss ich auf meine persönliche Meinung zurückgreifen – eine fundierte Meinung, aber letztendlich nur eine Meinung):

Wir können es nicht!

Ich kann (und habe) Bilder und Diagramme der chaotischen Ausgabe verschiedener Formeln zeigen, die numerisches Chaos demonstrieren. Sie können sich meine Chaos-Serie hier ansehen, indem Sie nach unten scrollen und sich die Bilder ansehen.

Es ist klar, dass die gleiche Art von chaotischen Merkmalen in allen Arten von realen physikalischen Systemen auftritt. Bevölkerungsdynamik, Luftströmung, Krankheitsausbreitung, Herzrhythmen, Gehirnwellenfunktionen….fast alle dynamischen Systeme der realen Welt sind nichtlinear und weisen Aspekte des Chaos auf. Und natürlich ist auch das Klima der Erde im Sinne der Chaostheorie chaotisch.

Aber bedeutet das nicht, dass das numerische Chaos in den Klimamodellen eine interne oder natürliche Variabilität ist? Nein, das bedeutet es nicht.

Eine perfekt berechnete Flugbahn einer Kanonenkugel, basierend auf den besten Newtonschen Gesetzen, wird keine Burgmauer zum Einsturz bringen. Es ist nur ein Gedanke, eine Beschreibung. Die aus den Formeln berechnete Energie ist nicht real. Die beschriebene Kanonenkugel ist kein Ding. Und um ein klischeehaftes Sprichwort zu verwenden: Die Karte ist nicht das Gebiet.

Ebenso ähnelt das numerische Chaos, das von Klimamodellen erzeugt wird, in seiner Erscheinung dem Chaos, das wir im Klima der realen Welt beobachten, aber es ist nicht dieses Chaos und nicht das zukünftige Klima. Lorenz’ „Entdeckung“ des numerischen Chaos führte zu den Entdeckungen, dass die Chaostheorie auf dynamische Systeme in der realen Welt anwendbar ist.

Nehmen wir ein Beispiel aus den Nachrichten dieser Woche:

Der Weg des Hurrikans Rafael hat sich laut Tracker-Modellen stark verändert:

Dargestellt sind die von unseren führenden Hurrikan-Modellen projizierten Pfade mit Stand 12:00 UTC am 6. November 2024. Der unordentliche schwarze Fleck direkt über Westkuba ist der 24-Stunden-Punkt, an dem die Modelle beginnen, stark auseinander zu laufen.

Warum weichen sie voneinander ab? All das oben Genannte – alles in diesem Essay – diese Hurrikan-Zugprojektionen sind ein anschauliches Beispiel dafür, was Chaos mit Wettervorhersagen und damit auch mit Klimavorhersagen macht. Schon 24 Stunden im Voraus beginnen alle Projektionen auseinander zu laufen. In 72 Stunden könnte sich der Hurrikan irgendwo zwischen nordwestlich von Yucatan und bereits an der Küste Floridas befinden.

Wenn Sie ein Haus in Galveston, Texas hätten, was würden Ihnen diese Projektionen nützen? Wäre es nützlicher, wenn NCAR die Pfade „gemittelt“ hätte, um einen Ensemble-Mittelwert zu ermitteln?

Zurück zum ersten Bild der 30 projizierten Wintertemperaturtrends, einer sehr vagen Messgröße: Ist der EM (Ensemble-Mittelwert) dieser speziellen Modellläufe, erstellt mit einer der vom Copernicus Climate Change Service vorgeschlagenen Verfahren, genauer als alle anderen Zukunftsprognosen? Oder ähnelt er nur zufällig den Beobachtungen?

Kommentar des Autors:

Dies ist kein einfaches Thema. Es ist umstritten. Klimaforscher kennen Lorenz, Chaos, Empfindlichkeit gegenüber Anfangsbedingungen, nichtlineare dynamische Systeme und wissen, was das für Klimamodelle bedeutet. Der IPCC wusste es früher, ignoriert die Fakten aber heute.

Einige Kommentatoren hier werden schreien: „Es ist kein Problem der Anfangsbedingungen, sondern ein Randproblem“ – als ob damit alles in Ordnung wäre. Sie können hier sehr ausführlich etwas darüber lesen. Vielleicht schreibe ich in einem zukünftigen Essay über diesen Versuch, der Realität auszuweichen.

Ich werde mit einem Verweis auf die Kommentare des eklektischen R G Brown schließen, die ich hier gesponsert habe und in denen er sagt:

„Was niemand zugibt, ist, dass die aktuellen Klimamodelle trotz ihrer rechnerischen Komplexität und ihres enormen Umfangs und Aufwands noch immer nicht mehr als Spielzeuge sind, unzählige Größenordnungen von der Integrationsskala entfernt, bei der wir eine vernünftige Hoffnung auf Erfolg haben könnten. Sie werden hemmungslos verwendet, um zahllose Klimaverläufe zu erzeugen, von denen keine besonders dem Klima ähnelt, und dann werden sie auf eine Art gemittelt, die eine absolute statistische Obszönität darstellt, als ob der linearisierte Durchschnitt eines Feigenbaum-Baums chaotischen Verhaltens ein guter Prädiktor des Verhaltens eines chaotischen Systems wäre! …  Das ist nicht nur dumm, es ist mehr als dumm. Es ist buchstäblich ein Verrat an den Wurzeln der gesamten Disziplin für Manna.“

Und das sage ich auch!

Link: https://wattsupwiththat.com/2024/11/08/why-numerical-climate-models-fail-at-long-term-climate-prediction/

Übersetzt von Christian Freuer für das EIKE

 




Der 100-Prozent-Klimazirkus gerät unter Druck

Heute beginnt die Weltklimakonferenz in Aserbaidschan. Donald Trump wird wohl erneut aus dem Pariser Klimaabkommen aussteigen. Dabei sollen sich doch mindestens 97 Prozent der Wissenschaftler in Sachen Klimakatastrophe einig sein? Aber stimmt das überhaupt? 

 

Von Gisela Müller-Plath.

„Ja, und die Erde ist eine Scheibe“, bekomme ich zu hören, wenn ich im Familien- oder Kollegenkreis zu sagen wage, es gebe vermutlich auch andere Ursachen für die Temperaturanstiege in den letzten Jahrzehnten als die menschlichen CO2-Emissionen. Ein ebenfalls skeptischer Freund forderte kürzlich vom NDR unter Berufung auf das Rundfunkgesetz eine ausgewogene Darstellung in einer Sendung über Klimawandel und bekam zur Antwort:

„Der menschengemachte Klimawandel ist eine wissenschaftlich gesicherte Erkenntnis und nicht nur eine These. Es handelt sich hier also nicht um eine strittige wissenschaftliche Frage. Die überwältigende Mehrheit der Klimaforscher, etwa 97-98 %, ist sich einig, dass die Emission von Treibhausgasen die Hauptursache für die aktuelle globale Erwärmung ist.“

Tatsächlich liest und hört man das so häufig in Presse, Hörfunk, Fernsehen und Internet, dass es fast niemandem mehr in den Sinn kommt, an dieser Aussage zu zweifeln. Es versteht sich von selbst, dass eine rein quantitative Übereinstimmung noch nichts über die qualitative Richtigkeit einer These aussagt. Wahrheit kann nicht durch demokratische Abstimmung ermittelt werden.

In der Wissenschaftsgeschichte gibt es mehrere berühmte Beispiele, bei denen eine Theorie zunächst breit abgelehnt wurde, sich später aber als richtig herausstellte (z.B. Galileo Galileis Planetenbahnen, Alfred Wegeners Kontinentalverschiebung u.a.). Aber in unserem Zeitalter der Pseudo-Erleuchtung ist der 97protzentige-Konsens von Forschern eine mächtige rhetorische Waffe, um politische Gegner zu marginalisieren.

Im folgenden werde ich die der Zahl von 97 Prozent zugrunde liegenden Studien von John Cook (2013) und James Powell (2016, 2019) besprechen. Sie weisen so eklatante methodische Fehler auf, dass die genannten hohen Prozentzahlen nicht einmal annähernd stimmen können. Dass methodisch so unzulängliche Studien es in begutachtetes Fachjournale schaffen (und von dort direkt in Presse und Politik), zeigt, wie niedrig die Hürden inzwischen sind, so lange „die Botschaft stimmt“.

 

 

Die Studien

Die vielzitierte Zahl von 97 Prozent Konsens unter Klimawissenschaftlern in Bezug auf die Hypothese des menschgemachten Klimawandels (AGW-Hypothese, „Anthropogenic Global Warming“) beruht auf einer 2013 erschienenen Studie von John Cook und Kollegen mit dem Titel „Quantifying the consensus on anthropogenic global warming in the scientific literature“, auf Deutsch: „Bezifferung des Konsenses über die vom Menschen verursachte globale Erwärmung in der wissenschaftlichen Literatur“.

Wie kam die Zahl von 97 Prozent zustande? Cook und sein Team hatten die Datenbank „ISI Web of Science“ durchsucht nach Forschungsartikeln, die zwischen 1991 und 2011 erschienen waren und die Suchworte global warming (globale Erwärmung) oder global climate change (globaler Klimawandel) in ihrer vorangestellten Zusammenfassung (Abstract) enthielten. Die Suche ergab 11.944 Forschungsartikel.

Hilfskräfte machten sich dann an die Arbeit, alle diese Zusammenfassungen in anonymisierter Form zu lesen und danach einzuteilen, ob die Autoren überhaupt eine Position in Bezug auf die AGW-Hypothese äußerten, und wenn ja, ob sie der AGW-Hypothese zustimmten oder sie ablehnten. Jede Zusammenfassung wurde unabhängig von zwei Hilfskräften beurteilt; bei unterschiedlichem Urteil entschied eine dritte. Ergebnis: In 7.930 Zusammenfassungen (66,4 Prozent) äußerten die Autoren überhaupt keine Position zur AGW-Hypothese, in 4014 Zusammenfassungen äußerten sie eine. Unter diesen 4014 waren 3896 Zusammenfassungen, in denen die Autoren eine zustimmende Position einnahmen, in 78 Fällen lehnten sie die AGW-Hypothese explizit ab, und in 40 Fällen äußerten sie Unentschlossenheit. Nun berechneten Cook und sein Team den Anteil der Wissenschaftler, der der AGW-Hypothese zustimmen, so: 3896 Zustimmungen geteilt durch 4014 geäußerte Positionen = 0,971 = 97,1 % Konsens unter Klimawissenschaftlern pro AGW-Hypothese.

In den darauffolgenden Jahren (2016 und 2019) erschienen zwei Studien von James Powell, in denen dieser den wissenschaftlichen Konsens zuerst mit „über 99,99  Prozent“ und dann mit 100 Prozent bezifferte. Zunächst kritisierte er (zu Recht), dass Cook den überwiegenden(!) Anteil von Studien, die gar keine Position zur AGW-Hypothese bezogen hatte, einfach aus der Berechnung des Konsens ausgeschlossen hatte. Dann machte Powell es sich einfacher (allerdings beileibe nicht besser, siehe unten): Er suchte zunächst über 24.000 Artikel von insgesamt über 60.000 Autoren, die 2013 bis 2014 erschienen waren, und dann über 11.000 Artikel, die 2019 erschienen waren, im „ISI Web of Science“ mit ähnlichen Suchwörtern wie Cook und sein Team. Dann suchte er unter den gefundenen Artikeln diejenigen, die in der Zusammenfassung die AGW-Hypothese aufführten zusammen mit dem Schlüsselwort „reject“(= zurückweisen, verwerfen). In seiner ersten Studie fand er 5 solche Artikel, in seiner zweiten keine einzige. Da 5/24.000 = 0,0002 = 0,02 Prozent sind, kam er zu der Bezifferung von „über 99,99 Prozent“ (2016) und dann 100 Prozent (2019). Er betitelte seine zweite Studie mit „Scientists Reach 100 % Consensus on Anthropogenic Global Warming“.

Aus drei Gründen lassen die Arbeiten den behaupteten Schluss von 97 bis 100  Prozent Einigkeit in der Klimaforschung jedoch nicht zu:

Kritik 1. Falsche Grundgesamtheit

Cook et al. (2013) hatten 11.944 Forschungsartikel geprüft und in 3.896 davon eine zustimmende Haltung zur AGW-Hypothese gefunden. Es ist unredlich, die 66,4 Prozent auszuschließen, die keine explizite Positionierung einnehmen, da man nicht weiß, wie diese darüber denken. Seine 97,1 Prozent sind also eine „Märchenzahl“. Teilt man 3.896 durch 11.944, kommt man nur auf 32,6 % Zustimmung.

Powell (2016) kritisiert dies zu Recht. Aber er macht es nicht besser, im Gegenteil: Da beide nur nach den Stichworten Global Warming und (Global) Climate Change gesucht haben, finden sowohl Cook als auch Powell (a) hauptsächlich Arbeiten, die gar nicht nach den Ursachen der Erderwärmung fragen, und (b) übersehen dabei viele, die danach fragen.

Zu (a) Die Suchworte Global Warming und Climate Change liefern, das zeigt z.B. die online gestellte Datenbank von Powell (2019), vor allem Arbeiten, die diese Begriffe als Anlass oder Marketing, nicht aber als eigentlichen Gegenstand der Forschung haben. Das heißt, sie untersuchen gar nicht die Ursachen der Erderwärmung, sondern ganz andere Fragen. Bereits die ersten beiden Artikel der Datenbank sind z.B. ingenieurwissenschaftliche Arbeiten in den Zeitschriften „Advanced Materials“ bzw. „Applied Materials“. (Beispielzitat: „CO2 photoconversion into hydrocarbon solar fuels by engineered semiconductors is considered as a feasible plan to address global energy requirements in times of global warming“, auf Deutsch:„Die Photokonvertierung von CO2 in Kohlenwasserstoff-Solarkraftstoffe durch technische Halbleiter wird als praktikabler Plan angesehen, um den globalen Energiebedarf in Zeiten der globalen Erwärmung zu decken.“). Wenn in einem solchen Artikel nicht das Wort „reject“ vorkommt, heißt das noch lange nicht, dass die Autoren der AGW-Hypothese zustimmen.

Zu (b) Eine in der Fachliteratur alternativ diskutierte Hypothese zu Ursachen von Klimawandel beziehungsweise Erderwärmung betrifft den Einfluss natürlicher solarer und ozeanischer Zyklen auf den Klimawandel mit Verstärkungsmechanismen, welche gegenwärtig weiter erforscht werden (z.B. Svensmark et al. 2017). Geben Sie zum Beispiel einmal „solar forcing“ auf Google Scholar ein, dann sehen Sie, wie lebhaft und kontrovers die Fachdiskussion nach wie vor ist!

Kritik 2. Falsches Kriterium

Ich verfolge die fachwissenschaftliche Diskussion zu den Ursachen des Klimawandels seit Langem. Nach meiner Wahrnehmung besteht der aktuelle Dissens nicht so sehr darin, ob der Mensch irgendeinen Anteil an einer globalen Erwärmung habe, sondern vielmehr, wie groß dieser sei – und ob eine menschgemachte Erderwärmung (AGW) nur den CO2-Eintrag oder auch den urbanen Wärmeinseleffekt (UHI) umfasst. Heute wie früher schätzen zahlreiche Fachwissenschaftler den Anteil des Menschen an der Erderwärmung auf deutlich unter 50 πrozent. Das sind die so genannten Skeptiker.

Man wird ihre Arbeiten mit Cooks oder Powells Methoden aber nicht auffinden, da sie nicht plump „reject“ schreiben oder dies in der Zusammenfassung erkennen lassen. In den Erhebungszeitraum von Powell fällt beispielsweise die Arbeit von Laurenz, Lüdecke & Lüning (2019), die die Alternativhypothese von Ozean- und solaren Zyklen unterstützt, mit den groben Suchkriterien aber übersehen wird. (Allein durch dieses Beispiel sind Powells 100 Prozent schon falsifiziert). Es gibt sehr viel mehr Arbeiten dieser Art. Angesichts der politischen Lage (siehe Punkt 3) vermeiden es Autoren aber zunehmend, die Autorin eingeschlossen, explizit zu sagen, dass sie die strenge AGW-Hypothese des menschlichen CO2 als alleinige Ursache ablehnen, obwohl der Inhalt des Artikels dies zeigt: Zum Beispiel beziffern Lüdecke et al. (2021) und Müller-Plath et al. (2022, Ehemann der Autorin, Anm.) den Anteil natürlicher Klimazyklen an Niederschlagsschwankungen regional auf über 50 Prozent.

Kritik 3. Statistische Verzerrung durch einseitige Förderung und Publikationspolitik

Der Teil der Klimaforschung, der menschliche CO2-Emissionen als alleinigen Klimatreiber ansieht, wird weltweit finanziell stark gefördert, skeptische Forscher nicht. Das IPCC (Intergovernmental Panel of Climate Change) wurde überhaupt nur gegründet, um die Hypothese vom menschgemachten Ursprung des jüngsten Klimawandels wissenschaftlich zu belegen. Die in den IPCC-Berichten berücksichtigten Forschergruppen werden zwar nach wissenschaftlichen Kriterien ausgewählt, bedeutende skeptische Forscher bleiben aber unberücksichtigt. Dies verletzt wissenschaftliche Ergebnisoffenheit und unterscheidet IPCC-Forschung, die ergebnisorientiert arbeitet, von wirklich neutraler Forschung.

Aufgrund von Berichten skeptischer Klimawissenschaftler über gezielte Mittelkürzungen und Stellenstreichungen bis hin zum Verlust der eigenen Stelle ist anzunehmen, dass es auch im wissenschaftlichen Begutachtungs-System zu erheblichen Verzerrungen kommt: Skeptische Ansätze haben es heutzutage ungleich schwerer, in die Fachjournale zu gelangen. Das führt zu einer systematischen Unterrepräsentation in Datenbanken. Die Bezifferung einer Zustimmung der Klimaforscher zur AGW-Hypothese mit über 97 Prozent oder höher ist folglich mit Sicherheit falsch!

Wie viele und wie gut qualifizierte Skeptiker gibt es in der Klimaforschung?

In den Jahren 2013/14, in denen Powell (2016) den Konsens auf angeblich über 99,99 Prozent bezifferte (s.o.), wurden über 1350 Publikationen in internationalen begutachteten Fachjournalen gefunden, die der strengen AGW-Hypothese („der Klimawandel ist zu fast 100 Prozent menschgemacht“) beziehungsweise dem IPCC widersprechen. Sie wurden explizit in „Popular Technology.net„ aufgeführt. Die reale Zahl bis heute dürfte noch weit höher liegen; einige aktuelle Arbeiten sind oben bereits genannt. Allein deswegen sind die regelmäßigen medialen Äußerungen über einen Konsens und angeblich fehlende Gegenstimmen falsch. Im wissenschaftlichen Ansehen übertreffen die „Skeptiker“ die „Alarmisten“ bei weitem: Zu den Skeptikern gehören die Physik-Nobelpreisträger Ivar Giaever (1973), Robert Laughlin (1998) und John Francis Clauser (2022).

Hingegen gibt es keinen Befürworter der AGW-Hypothese, der einen Physik-Nobelpreis hätte. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow, William Nierenberg „Klimaskeptiker“ – ähnliche wissenschaftliche Reputationen sind von den an den IPCC-Berichten mitarbeitenden Forschern nicht bekannt. Eine ausführliche Zusammenstellung dazu findet sich ebenfalls in „Popular Technology.net“. Weiterhin können Hunderte promovierte Naturwissenschaftler und fachnahe Professoren benannt werden, die sich in Petitionen und Manifesten gegen die strenge AGW-Hypothese und das IPCC artikulierten. Hier die (unvollständige) Aufzählung:

• Heidelberger Manifest, 1992, (4000 Naturwissenschaftler, 72 Nobelpreisträger, überwiegend keine Klimaforscher) als Antwort auf den Klimagipfel von Rio de Janeiro.

• Leipziger Erklärung, 1995, überarbeitet 2005. 80 Forscher der Naturwissenschaft und 25 Meteorologen bekunden „Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden.“

• Oregon Petition Project, 2008, 31.000 Unterzeichner, davon 9000 promoviert, meist Ingenieure, aber auch zahlreiche Klimaforscher. Das Projekt wendet sich gegen die Behauptungen „Die Wissenschaft sei sich einig über die menschgemachte globale Erwärmung“.

• Anonyme Umfrage von D. Bray und H. von Storch, 2007,  unter ca. 1250 Klimawissenschaftlern. Die Frage „Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung des Treibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage „Können Klimamodelle die Klimabedingungen der Zukunft voraussagen‘‘ beantworteten 64% ablehnend!

• Umfrage von H. M. Kepplinger und S. Post, Forschungsmagazin der Universität Mainz, 2008. Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben sei.

• U.S. Senate Minority Report, 2008, 700 Naturwissenschaftler. Die Unterzeichner wehren sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der ‚‚Zusammenfassung für Politiker‘‘ des IPCC beteiligten 52 Wissenschaftler um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, welche die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen.

• Offener Brief an UN Generalsekretär Ban Ki-Moon, 2012, 125 Naturwissenschaftler widersprechen den von Ki-Moon unterstützten Behauptungen des Klima-Alarms über zunehmende Hurrikane, Dürren, Starkstürme, Überschwemmungen.

• Petition von R. Lindzen an Präsident Donald Trump, 2017, 300 Unterzeichner von Klimaforschern über Biologen, Statistiker, Ökonomen bis hin zu einem ehemaligen Direktor der NASA. In der Petition heißt es „Observations since the United Nations Framework Convention on Climate Change (UNFCCC) was written 25 years ago show that warming from increased atmospheric CO2 will be benign …“

• Petition von 90 italienischen Fachwissenschaftlern gegen Klimaalarm, 2019.

Offener Brief von Prof. Guus Berkhout (CLINTEL) an den UN-Generalsekretär António Guterres mit Bezug zur zurzeit jüngsten Petition von 1500 Unterzeichnern, davon 500 Klimawissenschaftlern, verfasst 2019.

Alle hier aufgeführten Petitionen und Umfragen wurden von den deutschen Mainstream-Medien, von seltenen Ausnahmen abgesehen, nicht zur Kenntnis genommen und im Internet, insbesondere Wikipedia, als unbedeutend oder verlogen diskreditiert.

Prof. Dr. Gisela Müller-Plath, geb. 1963, ist Diplom-Psychologin. Seit 2010 ist sie Universitätsprofessorin für Methodenlehre und Maritime Psychologie am Institut für Psychologie und Arbeitswissenschaft der TU Berlin. Ihre universitäre Lehre konzentriert sich überwiegend auf Statistik. Aktuell forscht und publiziert sie in Klimawissenschaft, Statistik und Mensch-Technik-Interaktion in der Schifffahrt. Frau Müller-Plath ist Mitglied der WerteUnion.

Der Beitrag erschien zuerst bei ACHGUT hier