Anhörung des Haushaltsausschusses des Senats: Judith Curry spricht

Judith Curry, Climate Etc.

[Dieser Beitrag wird bei WUWT unter der Rubrik „Government Idiocy“ gelistet. A. d. Übers.]

Die Anhörung in der vergangenen Woche war ein trauriges Beispiel für das, was im US-Senat als Debatte und Überlegungen durchgeht. Auf jeden Fall ist sie ein interessantes Beispiel dafür, warum die USA nicht in der Lage sind, die Kluft zwischen den Parteien zu überbrücken und herauszufinden, wie man vernünftig mit dem Thema Klimawandel umgehen kann.

Falls Sie es verpasst haben, der Vorsitzende des Haushaltsausschusses des Senats, Sheldon Whitehouse, hat seine Befragung von mir am Ende der Anhörung auf YouTube verewigt: Chairman Whitehouse Presses GOP Witness in Budget Hearing on Climate Change and Insurance Markets [etwa: Vorsitzender Whitehouse bedrängt GOP-Zeugen in Haushaltsanhörung zu Klimawandel und Versicherungsmärkten].

Ich hatte erwartet, dass SW auf mich losgehen würde, wie er es schon oft bei republikanischen Zeugen getan hat. In meiner schriftlichen Aussage fügte ich am Ende meines Lebenslaufs einen Absatz hinzu, um den Vorwurf zu entkräften, dass ich in der Tasche des „Big Oil“ stecke. Als SW die Zeugen vorstellte, dankte er jedem von ihnen und sagte, er freue sich auf ihre Aussagen – auch auf die des anderen republikanischen Zeugen. Als er mich vorstellte, nannte er einfach meinen Namen und meine Positionen. Das war von Beginn der Anhörung an klar. Allerdings hatte ich nicht mit dem Irrsinn gerechnet, der dann folgte.

Es scheint, dass Senator Whitehouse dachte, dass sein Verhör mit mir eine Art großartiges „Takedown“ war: falsche Charakterisierung von Dingen, die ich vor über einem Jahrzehnt geschrieben hatte, aus dem Zusammenhang gerissene Verweise auf meine Verwendung der alarmistischen Auslösewörter „Schwindel“ und „korrupt“ in Interviews und obskuren Blogbeiträgen, unveröffentlichte Grafiken, die ich noch nie gesehen habe, Worte der „Weisheit“ von Exxon in den 1960er Jahren usw.

Abgesehen davon, dass fast nichts davon etwas mit meiner Aussage zu tun hatte und ich die meiste Zeit keine Ahnung hatte, wovon er sprach, gab er mir etwa 30 Sekunden Zeit, um auf jede dieser Fragen zu antworten, und sagte, dass ich später schriftlich antworten könne. Am Tag nach der Anhörung schickte mir sein Mitarbeiter eine E-Mail mit Folgefragen von Senator Grassley (siehe meine Antworten: Judith Currys Antwort auf die Fragen von Senator Grassley) und dem Hinweis, dass „ich Ihnen in den nächsten Tagen auch eine Abschrift Ihrer Ausführungen von der Anhörung schicken werde, damit Sie kleinere Änderungen vornehmen können“ – diese Abschrift habe ich noch nicht erhalten.

Auf jeden Fall klingt das nicht so, als hätte ich wirklich eine Chance, im Kongressprotokoll sinnvoll zu antworten, wie es Senator Whitehouse mehrfach versprochen hat. Deshalb antworte ich hier in meinem Blog, um zu zeigen, wie sinnlos ein solches Verhalten in den Hallen des Kongresses ist, wo ernsthafte Themen ernsthaft debattiert werden sollten.

Meine Anhörung vor dem Kongress im Jahre 2014

SW brachte meine Aussage aus dem Jahr 2014 vor dem Senatsausschuss für Umwelt und öffentliche Arbeiten zur Sprache, in der ich die Aussagen des IPCC AR4 (2007) mit denen des IPCC AR5 (2013) verglich, was mich zu dem Schluss brachte, dass der AR5 eine schwächere Argumentation für die anthropogene Erwärmung enthielt als der AR4.

SW las meine zusammenfassenden Aufzählungspunkte ab, ohne die umfangreiche Dokumentation zu erwähnen, die ich in Form von direkten Zitaten aus dem AR5 zur Verfügung gestellt hatte, und versuchte dann, meine Aussage von 2014 zu widerlegen, indem er meine Aussagen falsch darstellte und aktuelle Beobachtungen anführte, z. B. dass das antarktische Meereis derzeit auf einem Rekordtief sei.

Hier ist der Text aus meiner Aussage von 2014, die direkte Zitate aus dem IPCC AR5 sind:

„Die Erwärmungsrate der letzten 15 Jahre (1998-2012) beträgt 0,05 [-0,05 bis +0,15] °C pro Jahrzehnt, was geringer ist als die seit 1951 (1951-2012) berechnete Rate von 0,12 [0,08 bis 0,14] °C pro Jahrzehnt.

Es ist sehr wahrscheinlich, dass die mittlere Rate des global gemittelten Meeresspiegelanstiegs zwischen 1901 und 2010 1,7 [1,5 bis 1,9] mm pro Jahr-1, zwischen 1971 und 2010 2,0 [1,7 bis 2,3] mm pro Jahr-1 und zwischen 1993 und 2010 3,2 [2,8 bis 3,6] mm pro Jahr-1 betrug. Es ist wahrscheinlich, dass ähnlich hohe Raten zwischen 1920 und 1950 auftraten.

Es ist sehr wahrscheinlich, dass die jährliche Ausdehnung des antarktischen Meereises zwischen 1979 und 2012 mit einer Rate von 1,2 bis 1,8 % pro Jahrzehnt zugenommen hat. „Es besteht geringes Vertrauen in das wissenschaftliche Verständnis der beobachteten Zunahme der antarktischen Meereisausdehnung seit 1979, da die wissenschaftlichen Erklärungen für die Ursachen der Veränderungen unvollständig sind und miteinander konkurrieren und das Vertrauen in die Schätzungen der internen Variabilität gering ist.“

[Alle Hervorhebungen im Original]

SW fragt, wie sich diese Schlussfolgerungen im Laufe der Zeit bewahrheitet haben. Die historischen Temperatur- und Meeresspiegeldaten bleiben unverändert (zumindest größtenteils), und die langsame, aber unregelmäßige Erwärmung hat sich fortgesetzt.

Senator Whitehouse nutzte das jüngste Rekordtief der antarktischen Meereisausdehnung als Widerlegung der Aussagen in meiner Stellungnahme von 2014. Die Aussagen des IPCC AR5 über das antarktische Meereis, die in meiner Aussage von 2014 zitiert wurden, haben sich im Allgemeinen bestätigt. Hier ein Text aus dem IPCC AR6 WGI Report (Abschnitt 2.3.2.1.2):

„AR5 (2013) berichtete über einen kleinen, aber signifikanten Anstieg der gesamten mittleren jährlichen antarktischen Meereisausdehnung, der sehr wahrscheinlich im Bereich von 1,2-1,8 % pro Jahrzehnt zwischen 1979 und 2012 (0,13-0,20 Mio. km² pro Jahrzehnt) lag (sehr hohes Vertrauen), während SROCC (2019) berichtete, dass die gesamte antarktische Meereisbedeckung über den Zeitraum der Satellitenbeobachtungen (1979-2018) keinen signifikanten Trend aufwies (hohes Vertrauen). Das SROCC stellte fest, dass ein signifikanter positiver Trend bei der mittleren jährlichen Eisbedeckung zwischen 1979 und 2015 nicht fortgesetzt wurde, was auf drei aufeinanderfolgende Jahre mit unterdurchschnittlicher Eisbedeckung (2016-2018) zurückzuführen ist. Der SROCC stellte außerdem fest, dass historische antarktische Meereisdaten aus verschiedenen Quellen auf einen Rückgang der antarktischen Meereisbedeckung seit den frühen 1960er Jahren hinweisen, der jedoch zu gering ist, um von natürlichen Schwankungen getrennt zu werden (hohes Vertrauen).“

Nirgendwo in den IPCC-Berichten wird ein Rückgang der antarktischen Meereisausdehnung auf die vom Menschen verursachte Erwärmung zurückgeführt.

Diskrepanzen zwischen Klima-Modellprojektionen und Beobachtungen

Während der Anhörung wurde mir eine Zahl vorgelegt, die angeblich beweisen sollte, dass die Klimamodelle im Jahr 2004 die globale Durchschnittstemperatur seither genau vorhergesagt hatten.

Ich kannte diese Zahl nicht, wusste aber, dass die CMIP3-Modelle, die im IPCC AR4 von 2007 verwendet wurden, im AR5 die Temperaturen für den Zeitraum 1999-2012 zu hoch vorhergesagt hatten. Ich wusste auch, dass die CMIP3-Klimamodelle stark auf die historischen Temperaturdaten abgestimmt waren (was die gute Übereinstimmung vor 2004 erklärt). Später fand ich heraus, dass diese Zahl in einem Blogbeitrag veröffentlicht wurde, ohne dass genau beschrieben wurde, wie der Vergleich zwischen Modell und Beobachtung durchgeführt worden war.

Hier ist die entsprechende Abbildung aus dem IPCC AR5. Abbildung 11.25 vergleicht Klimamodellprojektionen mit Beobachtungen der globalen Temperaturanomalien bis 2012:

Abbildung 11.25 zeigt, dass die kurzfristigen Klimaprojektionen für den Zeitraum 1999-2012 viel höher waren als die beobachteten Temperaturen, wobei mehrere Jahre unter die 5-95%-Grenze der Klimamodellsimulationen fielen.

Zu den CMIP3-Simulationen, die in dem Blogbeitrag und dem von Senator Whitehouse vorgestellten Diagramm verwendet wurden, heißt es im IPCC AR5:

„Allerdings sind die implizierten Erwärmungsraten im Zeitraum 1986-2005 bis 2016-2035 aufgrund des Hiatus geringer: 0,10°C-0,23°C pro Jahrzehnt, was darauf hindeutet, dass die AR4-Bewertung [CMIP3-Modelle] nahe dem oberen Ende der aktuellen Erwartungen für diesen spezifischen Zeitraum lag.“

Ed Hawkins ist der IPCC-Autor, der Abbildung 11.25 erstellt hat. Er aktualisierte die Abbildung mit Temperaturen bis 2021. In diesen späteren Zeitraum fielen auch die extrem warmen Temperaturen im Zusammenhang mit dem Super-El-Nino im Jahr 2016. Das Jahr 2016 erreichte kaum die Mitte der Klimamodellspanne; vergleichen Sie 2016 mit 1998 (einem früheren Super-El-Nino), das die obere Grenze der 5-95%-Spanne leicht überschritt.

Reizwörter: Korruption und Schwindel

Der unsinnigste Teil der Befragung bestand darin, mich auf meine Verwendung von zwei Reizwörtern für Klimawandel-Alarmisten anzusprechen – „korrupt“ und „Schwindel“.

SW erklärte: Sie haben das IPCC der Korruption beschuldigt. Stehen Sie zu dieser Anschuldigung? Er hat kein direktes Zitat belegt, ich habe keine Ahnung, worauf er sich genau bezieht, selbst nach einer Google-Suche nach den relevanten Wörtern.

In einem Interview für das Discover Magazine aus dem Jahr 2010 habe ich die folgende Aussage gemacht:

„Es besteht ein erhebliches öffentliches Interesse an der Untersuchung der durch Climategate aufgeworfenen Fragen. Zu diesen Fragen gehören: der Wunsch nach einer Bewertung der Zuverlässigkeit und Genauigkeit der historischen und Paläo-Temperaturaufzeichnungen/Rekonstruktionen; der Wunsch nach einer Bewertung, ob der IPCC korrumpiert wurde und ob seine Schlussfolgerungen zuverlässig sind und als Grundlage für die internationale Kohlenstoff- und Energiepolitik vertrauenswürdig sind; und die Frage, ob es einige „faule Äpfel“ in der Klimaforschungsgemeinschaft gibt, die in dem Sinne ausgemerzt werden müssen, dass sie sich nicht in verantwortlichen Positionen als Herausgeber von Zeitschriften, leitender IPCC-Autor oder Administrator befinden.“

Diese Aussage wurde später in einem Profil des Scientific American über mich aus dem Jahr 2010 in unangemessener Weise übertrieben:

„Nur wenige Wissenschaftler würden behaupten, dass der IPCC perfekt ist, aber Curry ist der Meinung, dass er gründlich reformiert werden muss. Sie beschuldigt ihn der ‚Korruption‚. ‚Ich werde nicht einfach drauflosreden und den IPCC gutheißen‘, sagt sie, ‚denn ich glaube, ich habe kein Vertrauen in den Prozess.’“

In einem Interview mit oilprice.com aus dem Jahr 2012 wurde die folgende Aussage gemacht, die meine Bedenken bezüglich des IPCC-Prozesses korrekt wiedergibt:

Judith war einst eine Unterstützerin des IPCC, bis sie begann, mit bestimmten Strategien und Methoden der Organisation nicht mehr einverstanden zu sein. Sie befürchtete, dass die Kombination aus Gruppendenken und politischer Befürwortung in Verbindung mit einem tief verwurzelten „Syndrom der edlen Sache“ die wissenschaftliche Debatte erstickt, den wissenschaftlichen Fortschritt verlangsamt und den Bewertungsprozess korrumpiert.“

Etwa zur gleichen Zeit, als diese Interviews stattfanden, begann der InterAcademy Council (IAC) der Vereinten Nationen als Reaktion auf die durch Climategate aufgeworfenen Fragen mit einer gründlichen Überprüfung der Politik und Praxis des IPCC. Der IAC lud mich zu einem Vortrag über meine Bedenken ein. Etwa zur gleichen Zeit lud mich das U.S. Natural Research Council Committee on Science, Engineering and Public Policy ein, einen Vortrag über meine Bedenken hinsichtlich der Integrität der Klimawissenschaft im Lichte von Climategate zu halten.

Obwohl der IPCC mehrere der vom IAC empfohlenen Änderungen vorgenommen hat, bin ich weiterhin sehr besorgt über die Politisierung des IPCC. Seit 15 Jahren setze ich mich für die Integrität der wissenschaftlichen Forschung und der Bewertungsprozesse ein.

Zum jetzigen Zeitpunkt ist die IPCC-WGI zu den physikalischen Grundlagen des Klimawandels noch einigermaßen objektiv, obwohl die Zusammenfassung für die politischen Entscheidungsträger politisiert ist und die Ergebnisse herausgepickt wurden. Wie der kürzlich veröffentlichte IPCC-Synthesebericht zeigt, scheint die Wissenschaft den Raum verlassen zu haben, wobei der Schwerpunkt auf schwach begründeten Erkenntnissen über Klimaauswirkungen durch extreme Emissionsszenarien der WGII und politisierten politischen Empfehlungen zur Emissions-Reduzierung der WGIII liegt.

Das Thema „Schwindel“ ist sogar noch unsinniger.

Senator Whitehouse gab die folgende Erklärung ab: „Curry hat Trumps Beschreibung des Klimawandels als ‚Schwindel‘ zugestimmt und 2016 geschrieben, dass die UN-Definition des vom Menschen verursachten Klimawandels „als Schwindel zu qualifizieren ist.“ Dies ist eine eklatante Falschdarstellung dessen, was ich geschrieben habe.

In einem Blogbeitrag von 2016 mit dem Titel „Trumping the climate“ habe ich die Äußerungen des designierten Präsidenten Trump zum Klimawandel und seine häufige Verwendung des Wortes „Schwindel“ untersucht.

Schauen wir uns zunächst die Definition von „Schwindel“ [hoax] an; hier sind einige, die ich beim Googeln gefunden habe:

● eine humorvolle oder bösartige Täuschung.

● ein Trick, um etwas Falsches und oft Absurdes zu glauben oder als echt zu akzeptieren

● ein Plan, eine große Gruppe von Menschen zu täuschen

● eine absichtlich fabrizierte Unwahrheit, die als Wahrheit getarnt werden soll.

Mit diesen Definitionen im Hinterkopf, hier zwei Beispiele, die als Schwindel zu qualifizieren sind und über die ich bereits geschrieben habe:

1. Die UNFCCC-Definition des „Klimawandels“ ist wohl ein Schwindel: Der Klimawandel ist eine Veränderung des Klimas, die direkt oder indirekt auf menschliche Aktivitäten zurückzuführen ist, die die Zusammensetzung der globalen Atmosphäre verändert und die zusätzlich zu den über vergleichbare Zeiträume beobachteten natürlichen Klimaschwankungen auftritt[Link]. Diese Pervertierung der Definition des Begriffs „Klimawandel“ soll die Menschen zu der Annahme verleiten, dass der gesamte Klimawandel vom Menschen verursacht wird.

In Bezug auf Punkt 1 habe ich folgende Bedenken: Das UNFCCC hat den Begriff „Klimawandel“ neu definiert, weg von der traditionellen Definition, die in den geologischen, atmosphärischen und ozeanischen Wissenschaften verwendet wird, um eine Unterscheidung zwischen Klimawandel – zurückzuführen auf menschliche Aktivitäten, die die Zusammensetzung der Atmosphäre (hauptsächlich CO) verändern – und Klimavariabilität – zurückzuführen auf natürliche Ursachen – zu treffen. Diese Neudefinition des Begriffs „Klimawandel“, die sich nur auf vom Menschen verursachte Veränderungen der atmosphärischen Zusammensetzung bezieht, hat dazu geführt, dass der natürliche Klimawandel aus der öffentlichen Diskussion verschwunden ist – der allgemeine Sprachgebrauch spricht von „Klimawandel“ und erwähnt die natürliche Klimavariabilität nicht. Infolgedessen wird nun implizit davon ausgegangen, dass jede Veränderung, die in den letzten hundert Jahren beobachtet wurde, durch menschliche Emissionen in die Atmosphäre verursacht wurde. Diese Annahme führt dazu, dass jedes ungewöhnliche Wetter- oder Klimaereignis mit dem vom Menschen verursachten Klimawandel durch die Emissionen fossiler Brennstoffe in Verbindung gebracht wird. Diese Neudefinition des Begriffs „Klimawandel“ durch die UNFCCC ist eine Täuschung und Irreführung, die wohl dazu beigetragen hat, dass Trump den Klimawandel als Schwindel bezeichnet hat.

Warum jemand glaubt, dies sei eine Anhörung im Kongress wert, ist mir schleierhaft.

EXXON und das American Petroleum Institute

Mir wurde ein nicht entzifferbares Diagramm gezeigt, das von EXXON zu einem nicht näher bezeichneten Zeitpunkt, aber vermutlich in den 1960er oder 1970er Jahren, erstellt worden war. SW bezeichnete dieses Diagramm der CO₂-Konzentrationen und Temperaturen als ein „Modell“, das sich als ziemlich genau erwies. Zwei Linien, die beide den gleichen Trend aufweisen, stellen kein Modell dar und sagen auch nichts über die Kausalität aus.

Ich habe auch eine Erklärung gelesen, die 1968 in einem vom American Petroleum Institute in Auftrag gegebenen Bericht abgegeben wurde und in der davor gewarnt wird, dass ein weiterer Anstieg des CO₂ bis zum Jahr 2000 zu einer Klimaerwärmung führen könnte.

Der Punkt ist folgender: Unser Wissen über den Klimawandel steckte in den 1960er Jahren noch in den Kinderschuhen. Was Exxon oder irgendjemand anderes zu dieser Zeit „wusste“, war mit einer sehr schwachen Wissensbasis verbunden und ist für die aktuelle wissenschaftliche Debatte zu diesem Thema irrelevant. Wir haben den grundlegenden Effekt des atmosphärischen Treibhauseffekts seit dem 19. Jahrhundert verstanden; die wichtigsten Fragen sind nach wie vor sein Ausmaß und seine Bedeutung im Verhältnis zur natürlichen Klimavariabilität.

Der 1990 veröffentlichte Erste Sachstandsbericht des IPCC, der den besten Stand unseres Wissens mehrere Jahrzehnte nach dem Exxon-‚Modell‘ und dem AIP-Bericht widerspiegelt, enthält folgende zusammenfassende Beurteilung:

„Das Ausmaß dieser Erwärmung stimmt weitgehend mit den Vorhersagen der Klimamodelle überein, hat aber auch die gleiche Größenordnung wie die natürliche Klimaschwankung. Der beobachtete Anstieg könnte also weitgehend auf diese natürliche Schwankung zurückzuführen sein; alternativ könnten diese Schwankung und andere menschliche Faktoren eine noch stärkere, vom Menschen verursachte Treibhauserwärmung ausgeglichen haben. Die eindeutige Feststellung des verstärkten Treibhauseffekts anhand von Beobachtungen ist erst in einem Jahrzehnt oder später zu erwarten.“

Mein Op-Ed in der Washington Post aus dem Jahr 2007

Senator Whitehouse fragte mich, ob ich zu meinem Meinungsartikel von 2007 stehe, nachdem er den Teil über Risiko und Risikomanagement vorgelesen hatte. Dies ist für diese Anhörung tatsächlich von Bedeutung.

Wenn das Risiko jedoch groß ist, kann es sich lohnen, dagegen vorzugehen, auch wenn die Wahrscheinlichkeit gering ist. Betrachten Sie das Risiko als das Produkt aus Folgen und Wahrscheinlichkeit: was passieren kann und wie hoch die Wahrscheinlichkeit ist, dass es passiert [JC-Nachtrag: bei der Risikobewertung muss auch die Stärke der Wissensbasis berücksichtigt werden]. Ein Anstieg der globalen Temperaturen um 10 Grad bis 2100 ist nicht wahrscheinlich; das Gremium gibt ihm eine Wahrscheinlichkeit von 3 Prozent. Solche Risiken mit geringer Wahrscheinlichkeit und großen Auswirkungen werden routinemäßig in jede Analyse und Managementstrategie einbezogen, ob an der Wall Street oder im Pentagon.

Der Grund für die Verringerung der Kohlendioxid-Emissionen besteht darin, das Risiko möglicher katastrophaler Folgen zu verringern. Die Umstellung auf sauberere Brennstoffe hat den zusätzlichen Vorteil, dass die Auswirkungen auf die öffentliche Gesundheit und die Ökosysteme verringert und die Energiesicherheit verbessert werden, was auch dann von Nutzen ist, wenn das Risiko letztendlich verringert wird. [JC-Einschränkung: Ich stehe zu dieser Aussage, aber sie ist ganz sicher keine Befürwortung eines raschen Umstiegs auf Wind- und Sonnenenergie].

Es gibt keine einfache Lösung für dieses Problem; die Herausforderung besteht darin, wie man am besten Optionen entwickelt, die machbar, effizient, lebensfähig und skalierbar sind. Lomborg ist zu Recht besorgt über die Möglichkeit von Fehlentscheidungen in der Politik. Aber ich habe noch keine Option gesehen, die schlimmer ist, als das Risiko der globalen Erwärmung zu ignorieren und nichts zu tun.

Ich habe mich geirrt, als ich dem IPCC in Bezug auf die Eisbären vertraute, und ich lag mit den meisten meiner Kritikpunkte an Lomborg falsch. Meine Aussagen über das Risiko sind jedoch auch nach 16 Jahren noch recht gut nachvollziehbar. Aus meiner neueren Perspektive, da ich ein Buch zu diesem Thema geschrieben habe, möchte ich die folgende Nuance hinzufügen: „Climate Uncertainty and Risk“, insbesondere im Hinblick auf das „Nichtstun“.

Ein akzeptables Risiko erfordert kein Management. Risiken sind tolerierbar, wenn Aktivitäten aufgrund des damit verbundenen Nutzens als erstrebenswert erachtet werden. Bei tolerierbaren Risiken werden Bemühungen zur Risikominderung oder -bewältigung begrüßt, sofern der Nutzen der Aktivitäten nicht verloren geht. Die Verbrennung fossiler Brennstoffe wurde in der Vergangenheit als tolerierbares Risiko betrachtet. Die Risiken des Klimawandels wurden von verschiedenen Personen und Gruppen als akzeptabel, tolerierbar und nicht tolerierbar eingestuft – eine eindeutig zweideutige Situation. Wie ich in meiner schriftlichen Erklärung dargelegt habe, hängt die Einschätzung der untragbaren Risiken des Klimawandels damit zusammen, dass die langsam fortschreitende globale Erwärmung (ein sich abzeichnendes Risiko) fälschlicherweise mit den Folgen extremer Wetter- und Klimaereignisse (Notfallrisiken) verwechselt wird.

Die schleichende Erwärmung lässt sich am besten als tolerierbares Risiko beschreiben. Falls wir dieses Risiko beseitigen können, indem wir die Emissionen fossiler Brennstoffe so reduzieren, dass keine weiteren Schäden entstehen, dann ist dies zu begrüßen. Pläne, unsere Energieinfrastruktur schnell abzubauen und durch unzuverlässige Wind- und Solarenergie zu ersetzen, bergen jedoch die Gefahr, dass sie größeren Schaden anrichten als alle denkbaren Auswirkungen des Klimawandels. In meiner schriftlichen Stellungnahme bezeichne ich dies als „Übergangsrisiko“.

Vulkane und Klimawandel

Die einzige Erwähnung meiner schriftlichen Aussage durch SW ist eine Frage zu Vulkanen als Antwort auf meine Aussage:

„Plausible Szenarien der natürlichen Klimavariabilität in der Mitte des 21. Jahrhunderts (die nicht in den Klimamodellsimulationen enthalten sind) deuten auf eine Verlangsamung der globalen Erwärmung hin, die durch ein erwartetes solares Minimum, die Möglichkeit explosiver Vulkanausbrüche und eine prognostizierte Verschiebung der Ozeanzirkulationsmuster über mehrere Dekaden hinweg verursacht wird.“

SW stellte die Frage, ob ich erwarte, dass Vulkane uns vor der globalen Erwärmung retten werden. Meine Meinung dazu steht im Einklang mit der IPCC AR6 WG1 Box 4.1:

In der Regel gab es in drei von vier Jahrhunderten mindestens eine Eruption mit einer Stärke von mehr als -1 W/m² (Pinatubo oder größer). Die vulkanische Aerosolbelastung war im 20. Jahrhundert um 14 % geringer als im Durchschnitt der vorangegangenen 24 Jahrhunderte, während das 13. Jahrhundert mit vier Eruptionen, die die des Pinatubo 1991 übertrafen, zu den vulkanisch aktivsten gehörte.

Aufgrund der direkten Strahlungswirkung vulkanischer stratosphärischer Aerosole führen große Vulkanausbrüche zu einem Gesamtrückgang der GSAT [Global Surface Air Temperature], der sich im Fall von gebündeltem Vulkanismus auf Zeitskalen von mehreren Dekaden oder Jahrhunderten erstrecken kann.

[Hervorhebung im Original]

Angesichts der Unvorhersehbarkeit einzelner Ausbrüche wird der vulkanische Antrieb in CMIP6-Modellen als konstante Hintergrundbelastung vorgegeben. Das bedeutet, dass die Auswirkungen potenzieller großer Vulkanausbrüche in den Modellprojektionen weitgehend unberücksichtigt bleiben, und nur wenige Studien haben sich mit den möglichen Auswirkungen auf die Erwärmung im 21. Jahrhundert befasst. Eine Studie untersuchte Zukunftsszenarien mit hypothetischen Vulkanausbrüchen, die mit dem Niveau der vulkanischen Aktivität im CE [Common Era] unter RCP4.5 übereinstimmen, und stellte fest, dass die Klimaprojektionen erheblich verändert werden könnten. Wenn auch nur vorübergehend, könnten nach einem Ausbruch von der Größe des Samalas 1257 weltweit für einige Jahre Temperaturen nahe dem vorindustriellen Niveau erreicht werden.

Eine Häufung von Eruptionen hätte erhebliche Auswirkungen auf die Entwicklung der globalen Temperatur (GSAT) während des gesamten Jahrhunderts und könnte weitreichende Folgen haben, wie bei früheren Eruptionen beobachtet worden ist.

Mitteilung von JC an Senator Whitehouse

Wenn Sie in Zukunft einen solchen Versuch unternehmen wollen, schlage ich vor, dass Sie bessere Mitarbeiter brauchen. Die Fragen zu „korrupt“, „Schwindel“, Exxon und API waren wirklich unsinnig. Wenn Sie versuchen, etwas zu beweisen, z. B. dass die Projektionen der Klimamodelle von 2004 mit den Beobachtungen übereinstimmen, sollten Sie sich auf eine bessere Quelle als einen Blogbeitrag stützen. Auf jeden Fall scheint all dies die etwa 80 ahnungslosen Kommentatoren Ihres Youtube-Clips beeindruckt zu haben. Aber es wird ernsthafte Menschen nicht beeindrucken.

Der Klimawandel ist ein ernstes Thema. Je nach Sichtweise und Wertvorstellungen wird es in Zukunft viele Verluste und Schäden geben, entweder durch den Klimawandel selbst oder durch die Maßnahmen, die den Klimawandel verhindern sollen. Die Konflikte im Zusammenhang mit dem Klimawandel wurden durch eine zu starke Vereinfachung sowohl des Problems als auch seiner Lösungen verschärft. Und weil die Risiken des Klimawandels falsch dargestellt werden.

Eine konstruktive Zusammenarbeit mit Ihren republikanischen Kollegen ist unerlässlich, um etwas zu erreichen, das unsere Anfälligkeit für extreme Wetterereignisse und die schleichende Erwärmung verringern könnte. Ein guter Anfang wäre es, den von den Republikanern eingeladenen Zeugen ein gewisses Maß an Respekt entgegenzubringen und die in ihren Aussagen vorgebrachten Argumente sorgfältig zu prüfen. Die Anhörungen sind eine Gelegenheit für die Senatoren, tatsächlich etwas von den Experten zu lernen.

Link: https://wattsupwiththat.com/2023/03/27/senate-budget-committee-hearing-judith-curry-responds/

Übersetzt von Christian Freuer für das EIKE

 




Die gemessenen Meerespegelverläufe bieten keinen Pegelalarm. Macht nichts, erzeugen wir die Alarmistischen eben selbst

Helmut Kuntz

Das IPCC hat am 20. März seinen aktuellen AR6 Synthesis Report Climate Change 2023 veröffentlicht. Zuerst das kurze Summary für die Politik, den vorher mehrere Hundert politische Abgesandte Wort für Wort richtig, das heißt alarmistisch genug, formulieren mussten und danach einen nicht allzu aussagekräftigen „Longer Report“. Der wirklich wichtige Langbericht, den man benötigt um vielleicht die Chance zu haben Daten auch selbst bewerten zu können, ist bisher noch nicht veröffentlicht.

Brutale Klarheit

Unsere Annalena sagte zur Veröffentlichung des „politisch vorgekauten“ Berichtes [4] „Wir haben nur diese eine Welt und der Bericht des Weltklimarats macht mit brutaler Klarheit deutlich, dass wir an dem Ast sägen, auf dem wir als Weltgemeinschaft sitzen … Denn unsere Entscheidungen von heute werden die Welt für Jahrtausende prägen“
und zeigte damit wieder, dass gedankenloses „Nachplappern“ eine ihrer größten „Stärken“ ist.

Wie vom IPCC nicht entfernt anders zu erwarten war, werden die Klimaprobleme angeblich noch viel schlimmer, als es bisher geahnt wurde. Hoffnung gibt es nur, wenn die Bürger noch viel, viel mehr CO2-Emissionskosten an ihre Regierungen bezahlen. Und zwar so lange, bis ihnen kein Geld mehr für Emissionen übrigbleibt, da dann der angeblich notwendige Null-Emissionsweg erfüllt ist (kleine Übertreibung des Autors).

Im Gegensatz zu unserer Annalena, die wirklich alles glaubt, auch wenn es in einem von Politikern „ausgehandeltem“ Dokument steht, zeigt dieser Bericht für den Autor vor allem wieder die Methodik, mit der angebliche Wissenschaft(ler) bewusst Alarme schüren, um einer vorgegebenen Agenda zu genügen.

Was sagt der Report beispielsweise zum Meerespegelanstieg

Im Report ist zum Meerespegelverlauf einzig das folgende Bild mit Zukunftsprojektionen enthalten:

Bild 1 [1] (Teilbild) Panel (c): Left – Global mean sea level change in centimetres, relative to 1900. The historical changes (black) are observed by tide gauges before 1992 and altimeters afterwards. The future changes to 2100 (coloured lines and shading) are assessed consistently with observational constraints based on emulation of CMIP, ice-sheet, and glacier models, and likely ranges are shown for SSP1-2.6 and SSP3-7.0 …

Danach steigt der Meerespegel von 2023 bis zum Jahr 2100 irgendwo noch zwischen 27 … 63 cm, könnte aber auch (gestrichelte Linie) wesentlich höher steigen.
Das ist einiges, aber erheblich weniger, als es uns WIKIPEDIA mit 1 …. 4 m, unsere Annalena mit ihren 7 m und das PIK mit nicht mit absoluter Sicherheit ausschließbaren 8,9 m Anstieg erzählen [3] und zeigt damit zusätzlich auf, wie viel Unsinn über den Meerespegel – teils sogar mittels Studien – selbst von „Wissensplattformen“ und „Fachinstituten“ wie dem PIK verbreitet werden darf, wenn der Pegel nur kräftig genug anzusteigen droht.

Vor Kurzem hat der Autor bereits eine kleine Pegelsichtung vorgelegt [3]. Daraus die mit den neuen IPCC-Werten ergänzte Übersichtsgrafik:

Bild 2 Langzeit-Tidenpegelverlauf Rotterdam mit verschiedenen Pegelvoraussagen für 2100. Grafik vom Autor erstellt

Was bisher gerade war, wird plötzlich rund

Die Legende der neuen IPCC-Pegelgrafik sagt aus, dass der bisherige Pegelverlauf (1950 bis 2022) bis 1991 aus dem Verlauf der Tidenpegel und danach aus dem Satellitenpegelverlauf zusammengesetzt wurde.
Das ist nicht zufällig entstanden. Es wurde das gleiche, bewährte BetrugsVerfahren wie beim Hockeystick angewendet, also zwei methodisch inkompatible Messreihen gereiht. Nur so ließ sich der in Bild 1 bis zum Jahr 2020 deutlich ausgeprägte, konische Verlauf erzeugen, welcher einen bereits in der Vergangenheit stetig steigenden und in der Zukunftsprojektion logisch aussehenden, weiteren Anstieg „erzeugt“.

Die „Maler“ dieses Verlaufs sind dabei so raffiniert vorgegangen, dass trotz zweier Geradenstücke die kleine, optisch aber äußert wichtige Rundung entsteht. Beim Teilstück Satellitenpegel wurde dazu extra ein Artefakt verwendet. In Wirklichkeit ist nämlich auch dieser Verlauf gerade, wie es eine Auswertung zeigt:
[
Link] EIKE 07.01.2021: Steigt der Meeresspiegel immer schneller? (T1/2)
Anbei die Grafik des Verlaufs der Satellitenpegel daraus. Gibt man zum Beispiel „Excel“ vor, darin ein Polynom statistisch einzubetten, macht es das exzellent. Und nur anhand des Urdatenverlaufs lässt sich erkennen, dass der Verlauf nicht durch eine Polynomkurve, sondern sehr wohl durch eine Gerade erklärbar ist.

Bild 3 Original-Satellitendaten (3,4 mm/pa). Grafik vom Autor erstellt

Es würde nicht wundern, wenn irgendwann eine Studie „belegt“, dass die ersten Satelliten noch falscher gemessen haben, als bisher vermutet und deren Pegel zu tieferen Werten hin korrigiert werden müssen. Dass alternativ die Grafik (Bild 1) an die Wirklichkeit angepasst wird, ist weniger zu vermuten.

Bild 4 Darstellung, wie durch Reihen zweier methodisch nicht kompatibler – da mit unterschiedlichen Messmethoden erzeugten – Messreihen ein zusätzlicher Anstieg erzeugt wird

Zur Darstellung sind nun in die IPCC-Grafik die zwei unterschiedlichen Pegelsegmente eingetragen und linear bis 2100 weitergeführt.
Erkennbar liegen alle Simulationsprojektionen und sogar deren Vertrauensgrenzen darüber.

Bild 5 Bild 1 mit den vom Autor zugefügten Verläufen des Tidenpegels mit 1,4 mm/pa und des Satellitenpegels mit 3,4 mm/pa

Welcher Pegelverlauf ist der richtige?

Diese Frage darf eigentlich nicht gestellt werden. Ganz klar müssen es die vom IPCC simulierten sein. Wenn „tausende Wissenschaftler aus aller Welt“ (WIKIPEDIA) zuarbeiten und zum Beispiel für den AR6 230.000 Studien (WIKIPEDIA) gesichtet werden konnten (wozu Einstein einstmals sinngemäß sagte, eine reicht ihm, wenn sie das Gegenteil belegen würde) können sich doch keine groben Fehler einschleichen.

Allerdings würde man dann erwarten, dass sich der vom IPCC angezogene Verlauf auch in den Tidenpegeln zeigt. Man muss nämlich sehr, sehr viel blindes Vertrauen in die (zunehmend politisierende) Wissenschaft haben, um zu glauben, dass ein Pegel direkt an der Küste gemessen ungenauer wäre als der aus 1300 km Höhe von Satelliten „angenommene“.
Der Satellit misst auch nicht wirklich auf die besagten, zehntel Millimeter genau. Er misst lediglich eine Zeitdauer mit ausreichend hoher Auflösung, aus der nach vielen, vielen, dynamischen Korrekturen und Vergleichen ein Wert herausgefiltert und dann als am Wahrscheinlichsten angenommen wird. Unglücklich dazu, dass Satelliten keine Küstenpegel messen können, so dass ein direkter Vergleich mit Tidenpegeln damit nicht möglich ist.

Tatsache bleibt, dass sich die Pegel-Anstiegsraten zwischen den zwei Messverfahren um fast 100 % unterscheiden und die Satellitenpegel wegen Instrumentendriften und -Fehlern inzwischen schon regelmäßig rückwirkend nachkorrigiert werden. Auf „wundersame Weise“ allerdings (wie man es von den Temperaturwerten bereits kennt) immer zu früher niedrigeren Pegelwerten, was den „Pegelanstieg“ rückwirkend immer erhöht.

Zum Glück werden Tidenpegel immer noch gemessen, wenn auch – zumindest bei den über Viewer zugänglichen Daten – mit teils grausam schlechter Qualität und sehr oft auch nicht bis aktuell.
Andererseits lassen sich nur über Tidenpegel die häufigen, teils dramatischen Landsenkungen und Horizontalverschiebungen durch Erdbeben (welche beide oft hemmungslos dem Klimawandel zugeschrieben werden) erkennen:
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[Link]
EIKE, 21.11.2022: Früher musste man seinen Namen zumindest tanzen können, heute reicht es, sich werbewirksam anzukleben

Belegen die Tidenpegel den vom IPCC gezeigten, leicht konkaven Pegelverlauf mit Anstiegserhöhung seit 1992?

Bei der NOAA, Tides & Currents (USA), kann man „Auswertungen“ von Tidenpegeln ansehen. Leider nicht zu jedem Pegel, aber zu manchen.

Man betrachte einmal das dort Hinterlegte zum Pegelverlauf von Honolulu, Hawaii. Gezeigt ist ein Pegelanstieg wie mit dem Lineal gezogen:

Bild 6 Tidenpegelverlauf Honolulu von ca. 1905 – 2020. Quelle: NOAA Tides & Currents. Vom Autor ergänzt

Dazu gibt es eine Grafik mit dem 50jahre, relativem Trendverlauf:

Bild 7 Tidenpegel Honolulu von ca. 1905 – 2020. Trendverlauf. Quelle: NOAA Tides & Currents

Und nun, was „Wissenschaftler“ aus diesen Pegelverlaufsdaten für den IPCC in die Zukunft projizieren:
The projection of future sea levels that are shown below were released in 2022 by a U.S. interagency task force in preparation for the Fifth National Climate Assessment. The projections for 5 sea level change scenarios are expected to assist decision makers in responding to local relative sea level rise. The 2022 Sea Level Rise Technical Report provides further detailed information on the projections.

Nur und alleine aufgrund von zwei „Pegelhupfern“ im Zeitraum von ca. 5 Jahren und ohne, dass der Trendverlauf in Bild 6 und die Variation irgend einen Anlass bieten, werden spontane, unglaubliche Zukunfts-Pegelanstiege projiziert.
So etwas kann man nur zum Klimawandel veröffentlichen, da in dieser Pseudowissenschaft auch mit dem schlimmsten publiziertem Unsinn keine Blamage möglich ist (rein persönliche Ansicht des Autors). Um den hier (mit Sicherheit bewusst) simulierten Unsinn zu kaschieren, wurden mit dem Beginn 1960 die schon früher erschienenen, im Bild 6 deutlich erkennbaren, früheren Pegelspitzen weggeschnitten, welche zeigen, dass solche „natürlich“ und keinesfalls nur als Beginn eines nun unaufhörlich folgenden – simulierten – Anstiegs vorkommen.

Bild 8 Tidenpegel Honolulu von 1960 – 2020 mit Zukunftsprojektionen. Quelle: NOAA Tides & Currents

Wenn man sich aktuellere Pegelverläufe von Hawaii lädt und in die Grafik von Bild 8 kopiert, sieht man den Betrug Fehler, der durch die Simulationen erzeugt wird. Die Simulationen haben gar kein „Interesse“ am wahren Tidenpegelverlauf. Sie erzeugen das, was der „Wissenschaftler“ vor dem Computer erzeugt haben will:

Bild 9 Aktueller Tidenpegel Honolulu, Hawaii von 1960 – 2022 (Monatsauflösung) über den Tidenpegelverlauf von Bild 8 kopiert. Quelle: PSLMS-Pegelviewer. Grafik vom Autor erstellt

Sichtung weiterer Tidenpegelverläufe

Nun weitere Tidenpegelverläufe um nachzusehen, ob und wo sich der vom IPCC postulierte, seit 1992 zunehmende Pegelanstieg äußert.
Niederlande: Kein zusätzlicher Anstieg seit 1990 ist zu sehen:

Bild 10 Tidenpegelverlauf Maassluis NL. Quelle: NOAA Tides & Currents

Bild 11 Tidenpegelverlauf Maassluis NL. Variation. Quelle: NOAA Tides & Currents

Dazu der Verlauf der jährlichen, maximalen Monatspegel. Seit ca. 1960 zeigen die Maximal-Spitzenwerte eine Stagnation:

Bild 12 Tidenpegelverlauf Maassluis NL. Verlauf des maximalen Jahrespegels (aus den Monatswerten). Quelle: PSMSL. Grafik vom Autor erstellt.

Nun ein Pegelverlauf an der Ostsee. Dort hebt sich das Land noch wegen der letzten Eiszeit, was den absoluten Pegelanstieg verringert. Trotzdem fanden unsere „Öffentlichen“ eine Studie, in der Schlimmes zum Pegel steht:
[Link] NDR, 20.10.2022: Im gemäßigten Szenario simuliert die Studie einen Anstieg an der Ostsee um 47 Zentimeter bis 2100. Werden keine weiteren Maßnahmen ergriffen, um Emissionen zu sparen, könnte der Meeresspiegel der Ostsee sogar um 70 Zentimeter steigen. In einem dritten Worst-Case-Szenario rechnet das Forscherteam in der Studie mit einem Anstieg um 140 Zentimeter …
Nur betätigt genau das der Tidenpegel nicht:

Bild 13 Tidenpegelverlauf Travemünde, Ostsee. Quelle: NOAA Tides & Currents

Bild 14 Tidenpegelverlauf Travemünde. Variation. Quelle: NOAA Tides & Currents

Cuxhaven an der Nordsee zeigt ebenfalls nicht den vom IPCC dargestellten Anstieg, sondern genau das Gegenteil:

Bild 15 Tidenpegelverlauf Cuxhaven. Quelle: NOAA Tides & Currents

Bild 16 Tidenpegelverlauf Cuxhaven. Variation. Quelle: NOAA Tides & Currents

Auf der gegenüberliegenden Atlantikseite (USA Ostküste) sieht es genau so aus. Nichts bestätigt die IPCC-Grafik:

Bild 17 Tidenpegelverlauf Portland, Maine, USA. Quelle: NOAA Tides & Currents

Bild 18 Tidenpegelverlauf Portland, Maine, USA. Variation. Quelle: NOAA Tides & Currents

Das folgt auch an der US-Westküste:

Bild 19 Tidenpegelverlauf Seattle, Washington, USA. Quelle: NOAA Tides & Currents

Bild 20 Tidenpegelverlauf Seattle, Washington, USA. Variation. Quelle: NOAA Tides & Currents

Namibia liefert ein recht lückenhaftes Pegelbild. Aber es zeigt trotzdem, dass dort entweder die Pegel-Messtation oder einer unserer „Öffentliche“ falsche Angaben machen:

Bild 21 Screenshot

Bild 22 Tidenpegelverlauf Walfischbay, Namibia. Quelle: NOAA Tides & Currents

Australien bestätigt die IPCC-Angabe auch nicht. Weder an seiner Westküste…:

Bild 23 Tidenpegelverlauf Fremantle, Australien. Quelle: NOAA Tides & Currents

Bild 24 Tidenpegelverlauf Fremantle, Australien. Variation. Quelle: NOAA Tides & Currents

…noch an der Ostküste:

Bild 25 Tidenpegelverlauf Sydney, Australien. Quelle: NOAA Tides & Currents

Bild 26 Tidenpegelverlauf Sydney, Australien. Variation. Quelle: NOAA Tides & Currents

Von Indien ein Beispiel eines offensichtlich fehlerbehafteten Pegelverlaufs, aber mit der Trendauswertung trotzdem aussagekräftig:

Bild 27 Tidenpegelverlauf Mumbai Indien. Quelle: NOAA Tides & Currents

Bild 28 Tidenpegelverlauf Mumbai Indien. Variation. Quelle: NOAA Tides & Currents

Bild 28 a Tidenpegelverlauf Victoria, Kanada

Bild 29 Tidenpegelverlauf Midway Atoll, Pazifik. Quelle: NOAA Tides & Currents

Bild 30 Tidenpegelverlauf Los Angeles, USA. Quelle: NOAA Tides & Currents

Bild 31 Tidenpegelverlauf Argentine Islands, Antarctika. Quelle: NOAA Tides & Currents

Man sieht allerdings auch Anzeichen schlimmer Pegelanstiege

Bild 32 Tidenpegelverlauf Manila. Quelle: NOAA Tides & Currents

Allerdings zeigt der Verlauf von Manila das, was bei vielen Küstenstädten rund um die Welt inzwischen passiert: Diese Millionenstädte versinken rasant im eigenen, sumpfigen Untergrund, der vor nicht allzu langer Zeit lediglich ein paar kleine Fischerhäuser tragen musste. Diese Erklärung ist aber zu einfach und vor allem, bringt sie kein Geld. Also wird es dem Klimawandel zugeschrieben:
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

Der Meerespegel steigt nicht übernatürlich, aber die Steuer dagegen

Viele Tidenpegel zeigen im Verlauf eine deutliche Diskrepanz zu den Satellitenpegeln. Und vor allem zeigen sie keinen immer weiter fortschreitenden Pegelanstieg, wie vom IPCC postuliert.

Das IPCC macht so weiter, wie es begonnen hat und deren „Wissenschaft“ zeigt immer neu, dass man ihr nichts mehr glauben darf.
Leider ist die daraus abgeleitete CO2-Bepreisung eine so geniale Erfindung zur Versorgung der chronisch klammen Politik- und Funktionärskaste, dass weder diese Steuer, noch die (damit auch finanzierte) „Wissenschaft“ zu deren Belegung jemals wieder abgeschafft werden wird.

Protest ist auch nicht zu erwarten, nachdem erstmals in der Jahrtausende-langen Steuergeschichte Bürger(Kinder) auf der Straße für noch mehr von dieser Steuer hüpfen und andere sich dort dafür sogar festkleben. Trotz Internet mit seinen wirklich guten Informationsmöglichkeiten wirkt gut gemachte Propaganda und eine gut formulierte „Erbschuld“ weiterhin wie in alten Zeiten.

Ein Redakteur der Tageszeitung des Autors antwortete dazu: Ich glaube den etablierten Wissenschaftlern. Wenn es so einfach wäre zu beweisen, dass diese (teils) falsch liegen, wäre das längst geschehen.

Quellen

[1] IPCC, March 2023: SYNTHESIS REPORT OF THE IPCC SIXTH ASSESSMENT REPORT (AR6) Longer Report
[2] AR6 Synthesis Report Climate Change 2023
[3] EIKE, 23.03.2023: Wie man Amsterdam retten könnte
[4] Auswärtiges Amt. 20.03.2023: Außenministerin Baerbock zum neuen IPCC-Bericht




Emissionen und CO₂-Konzentration: Ein auf Evidenz basierender Ansatz

Joachim Dengler und John Reid, Climate Etc.

Eine neue Sichtweise auf den atmosphärischen Kohlenstoffhaushalt.

Die Klimawissenschaft befasst sich in der Regel mit der Frage „Wie viel CO₂ verbleibt in der Atmosphäre?“, angesichts der anthropogenen Emissionen und der begrenzten Fähigkeit der Ozeane und der Biosphäre, die überschüssige CO₂-Konzentration aufzunehmen. Dies hat zu Schlussfolgerungen der Art geführt, dass ein bestimmter zunehmender Teil der anthropogenen Emissionen für immer in der Atmosphäre verbleiben wird. Der häufig verwendete Begriff „airborne fraction“, der den in der Atmosphäre verbleibenden Teil der anthropogenen Emissionen bezeichnet, scheint dies zu suggerieren.

Wir ändern den Fokus der Aufmerksamkeit, indem wir die logisch äquivalente Frage „Wie viel CO₂ verbleibt nicht in der Atmosphäre?“ stellen. Warum ist das so anders? Die Menge an CO₂, die nicht in der Atmosphäre verbleibt, kann durch direkte Messungen berechnet werden. Wir müssen nicht jeden Absorptionsmechanismus aus der Atmosphäre in die Ozeane oder Pflanzen diskutieren. Aus den bekannten globalen Konzentrations-Änderungen und den bekannten globalen Emissionen können wir die Summe der tatsächlichen jährlichen Absorption gut abschätzen. Diese sind mit der CO₂-Konzentration verknüpft, was die Leithypothese für ein lineares Absorptionsmodell begründet. Es stellt sich heraus, dass wir die tatsächlichen Koeffizienten der einzelnen Absorptionsmechanismen nicht zu kennen brauchen – es reicht aus, ihre lineare Abhängigkeit von der aktuellen CO₂-Konzentration anzunehmen.

Dies ist eine kurze Zusammenfassung einer kürzlich veröffentlichten Arbeit, in der alle hier getroffenen Aussagen detailliert hergeleitet und mit Referenzen nebst einem mathematischen Modell untermauert werden.

Massenerhaltung von CO₂

Wie bei einem Bankkonto ergibt sich die atmosphärische CO₂-Bilanz aus den Gesamtemissionen abzüglich der Gesamtabsorptionen:

Konzentrationszunahme = Emissionen – Absorptionen

Die Gesamtemissionen (blau) übersteigen den jährlichen Anstieg der CO₂-Konzentration (grün), was bedeutet, dass die effektive Absorption (rot) mit der steigenden CO₂-Konzentration zunimmt:

Die Annahme einer annähernden Linearität der relevanten Absorptionsprozesse wird durch ein Streudiagramm veranschaulicht, das die effektive CO₂-Absorption mit der CO₂-Konzentration in Beziehung setzt:

Es zeigt sich eine langfristige lineare Abhängigkeit der effektiven Absorption von der atmosphärischen CO₂-Konzentration mit erheblichen kurzfristigen Abweichungen, wobei die effektive Null-Absorptionslinie bei ca. 280 ppm überschritten wird. Dies wird als die vorindustrielle CO₂-Gleichgewichtskonzentration angesehen, bei der die natürlichen jährlichen Emissionen durch die jährlichen Absorptionen ausgeglichen sind. Die durchschnittliche jährliche Absorption beträgt ca. 2 % der CO₂-Konzentration, die 280 ppm überschreitet. Da die Daten vor 1950 mit großer Unsicherheit behaftet sind, wurden die folgenden Berechnungen auf der Grundlage von Daten nach 1950 durchgeführt, was zu einem etwas geringeren Absorptionsanteil von 1,6 % führt.

CO₂-Konzentration als Temperaturproxy

Wenn wir Vorhersagen mit hypothetischen zukünftigen CO₂-Emissionen machen, kennen wir die zukünftigen Temperaturen nicht. Ohne in die problematische Diskussion darüber einzutauchen, wie stark der Einfluss der CO₂-Konzentration auf die Temperatur ist, gehen wir vom „schlimmsten Fall“ einer vollständigen Vorhersagbarkeit der Temperatureffekte durch die CO₂-Konzentration aus.

Ohne Annahmen über die Kausalität C->T zu treffen, wurde die geschätzte funktionale Abhängigkeit des Temperaturproxys aus der Regression auf die CO₂-Konzentration C wie folgt ermittelt:

Tproxy = -16.0 + 2.77*log(C) = 2.77* log(C/(235ppm))

Dies entspricht einer Sensitivität von 1,92° C.

Validierung des Modells

Das Modell mit der Annahme konstanter Absorptionsparameter und konstanter natürlicher Emissionen wird mit einer Vorhersage der CO₂-Konzentration 2000-2020 auf der Grundlage von Emissionsdaten 1950-2020 und Konzentrationsdaten 1950-2000 validiert:

Dies ist eine hervorragende Vorhersage der Konzentrationen auf der Grundlage der Emissionen und der oben genannten Modellannahmen. Es gibt nur geringe offensichtliche Abweichungen zwischen den Vorhersagen und den tatsächlichen Daten. Obwohl das Modell unterschiedliche Absorptionen im Laufe der Zeit zulässt, führen die Daten der letzten 70 Jahre, d.h. des Zeitraums, in dem die meisten anthropogenen CO₂-Emissionen stattfanden, zu der Schlussfolgerung, dass der CO₂-Absorptionsparameter keine signifikante temperatur- oder sonstige zeitabhängige Komponente aufweist und ein aktueller CO₂-Emissionsimpuls mit einer Halbwertszeit von 42 Jahren absorbiert wird.

Das zukünftige Emissions-Szenario

Das wahrscheinlichste künftige Emissionsszenario ist das von der IEA festgelegte Emissionsszenario mit annähernd konstanten, leicht sinkenden globalen Emissionen. Der tatsächlich verwendete Datensatz für eine realistische Zukunftsprojektion wird durch eine Trendextrapolation der erklärten politischen Maßnahmen über das Jahr 2050 hinaus erstellt, wobei davon ausgegangen wird, dass die Daten zur Landnutzungsänderung dem derzeitigen Trend folgen und bis zum Jahr 2100 auf 0 zurückgehen werden. Die Emissionen werden im Jahr 2100 nicht auf Null sinken, sondern in der Nähe des Niveaus von 2005 verharren:

Vorhersage der zukünftigen CO₂-Konzentration

Ausgehend von diesem realistischen Emissionsszenario wird die künftige CO₂-Konzentration mit unserem Modell rekursiv vorhergesagt.

Mit dem von der IEA angegebenen Politikszenario, d.h. ohne besondere CO₂-Reduktionsmaßnahmen, wird in der zweiten Hälfte dieses Jahrhunderts ein CO₂-Konzentrationsgleichgewicht von ca. 475 ppm erreicht. Auf der Grundlage der obigen empirischen CO₂-Temperaturproxy-Gleichung entspricht dieser Anstieg der CO₂-Konzentration von 410 ppm (im Jahr 2020) auf 475 ppm einem Temperaturanstieg von 0,4°C ab 2020 bzw. 1,4°C ab 1850:

Daraus folgt, dass wir in der zweiten Hälfte dieses Jahrhunderts eine maximale CO₂-Konzentration von etwa 475 ppm erwarten können. Zu diesem Zeitpunkt werden die Emissionen durch die Absorption vollständig ausgeglichen sein, was per Definition die „Netto-Null-Situation“ darstellt.

Geht man von dem unwahrscheinlichen schlimmsten Fall aus, dass die CO₂-Konzentration vollständig für alle globalen Temperaturveränderungen verantwortlich ist, so beträgt der maximale erwartete Anstieg der globalen Temperatur, der durch den erwarteten Anstieg der CO₂-Konzentration verursacht wird, 0,4°C von jetzt an oder 1,4°C seit Beginn der Industrialisierung.

Wenn wir also mit den derzeitigen CO₂-Emissionen und einer Effizienzsteigerung von 3 % pro Jahrzehnt weitermachen, sind die Klimaziele von Paris erfüllt.

[Hervorhebung im Original]

Link: https://wattsupwiththat.com/2023/03/25/emissions-and-co2-concentration-an-evidence-based-approach/

Übersetzt von Christian Freuer für das EIKE




Neue Studie: Atmosphärische CO₂-Verweildauer beträgt nur 5 Jahre – zu kurz, um „das Klima zu beeinflussen“

Kenneth Richard

Seit Anfang der 1990er Jahre wird üblicherweise davon ausgegangen, dass ein vom Menschen ausgestoßenes CO₂-Molekül jahrhundertelang in der Atmosphäre verbleibt – seine Verweildauer – und mit der Modellierung übereinstimmt. Dies passt zum Narrativ der anthropogenen globalen Erwärmung (AGW). Empirische Erkenntnisse widersprechen jedoch diesen modellbasierten Annahmen. Die Verweilzeit liegt eher bei 5-10 Jahren.

In Tabelle 1 einer neuen Studie hat Stallinga (2023) eine Liste von 36 veröffentlichten Schätzungen der CO₂-Verweildauer aus den Jahrzehnten 1957-1992 zusammengestellt. Alle diese Wissenschaftler kamen zu dem Ergebnis, dass die atmosphärische Verweildauer von CO₂ bei 5 bis 10 Jahren oder weniger liegt.

Der Titel der Studie: Residence Time vs. Adjustment Time of Carbon Dioxide in the Atmosphere [etwa: Verweilzeit vs. Anpassungszeit von Kohlendioxid in der Atmosphäre]

Quelle: Stallinga, 2023

Bildinschrift rechts neben der Tabelle:

Wir untersuchen die Konzepte von Verweilzeit und Anpassungszeit für Kohlendioxid in der Atmosphäre. Das System wird mit einem Zwei-Box-Modell erster Ordnung analysiert. Anhand dieses Modells kommen wir zu drei wichtigen Schlussfolgerungen: (1) Die Anpassungszeit ist nie größer als die Verweilzeit und kann daher nicht länger als etwa 5 Jahre sein. (2) Die Vorstellung, dass die Atmosphäre in der vorindustriellen Zeit bei 280 ppm stabil war, ist unhaltbar. (3) Nahezu 90 % des gesamten anthropogenen Kohlendioxids ist bereits aus der Atmosphäre entfernt worden.

Einer der Hauptpunkte in der Diskussion über das Szenario der anthropogenen globalen Erwärmung (AGW) ist die Verweildauer des zugeführten Kohlendioxids (CO₂) in der Atmosphäre. In einer umfangreichen Studie kam Solomon zu dem Schluss, dass die Verweildauer von Kohlenstoffatomen in der Atmosphäre in der Größenordnung von 10 Jahren liegt [1], siehe Tabelle 1. Eine so kurze Zeitspanne würde das Hauptargument der AGW untergraben, da ein CO₂-Molekül keine Zeit hat, zu einem Treibhauseffekt beizutragen, bevor es in Senken verschwindet, wo es keinen thermischen Schaden anrichten kann. Genauso wie Wasser, ein Molekül, das eine um Größenordnungen größere Treibhauswirkung hat, in der AGW-Diskussion irrelevant ist, weil jedes Wasser, das durch (nicht nur kohlenstoffhaltige) fossile Brennstoffe erzeugt wird, sich schnell ausgleicht und der Effekt gleich Null ist. Bestenfalls wird es den Meeresspiegel um einige Mikrometer anheben. Wenn die Verweildauer weniger als 30 Jahre beträgt (das Klimafenster), hat das Einbringen von CO₂ in die Atmosphäre genau wie Wasser keine Auswirkungen auf das Klima. Oder wie der IPCC in seinem kommenden Bericht über einen anderen atmosphärischen Bestandteil schreibt: „[Wasser] wird aufgrund seiner Verweilzeit in der Atmosphäre von durchschnittlich nur 8-10 Tagen weitgehend von der Temperatur bestimmt“, wobei der Wert von 8-10 Tagen von Ent [2] stammt.

Wie wir aus der Analogie der parallelen elektronischen Widerstände wissen, ist die dominierende Zeitkonstante in diesem Fall die kleinste und die daraus resultierende Zeitkonstante kürzer als die kürzeste Verweilzeit. Mit anderen Worten: Die Anpassungszeit der Atmosphäre ist kürzer als die Verweilzeit des Kohlenstoffs in der Atmosphäre. Wenn beispielsweise die Verweilzeit in der Atmosphäre 10 Jahre und die Verweilzeit in der Senke 100 Jahre beträgt, beträgt die Anpassungszeit 9,1 Jahre. Die Aussage gilt auch für die Kinetik nicht erster Ordnung; kein Übergang kann durch Hinzufügen eines Rückflusses in die untersuchte Box verlangsamt werden, es würde nur den Gleichgewichtswert ändern und die Zeit bis zu dessen Erreichen verkürzen. Anmerkung: Manchmal wird auch das Konzept der „Halbwertszeit“ verwendet. Es ist klar, dass die Zeit, in der die Hälfte der Veränderung verschwunden ist, durch t1/2=τln(2) gegeben ist. Die gleiche Argumentation wie für τ gilt natürlich auch für t1/2, wobei die gefundenen Zeitkonstanten mit etwa 0,69 multipliziert werden.

Die Verweildauer in der Atmosphäre lässt sich anhand der oberirdischen Atombombentests recht gut abschätzen [1], was uns froh macht, dass diese zumindest dem Zweck dienten, die Atmosphärenforschung voranzubringen. Die beste Schätzung liegt bei τa = 5 Jahren [9]. In anderen Quellen werden andere Zeiten genannt, wobei der IPCC in seinem 5. Sachstandsbericht die kürzeste Zeit (4 Jahre) angibt (S. 1457 in [4])

Wir erwarten jedoch, dass die wahrscheinlichste Verbesserung des Modells darin besteht, die Vorstellung aufzugeben, dass die Verweilzeiten τa und τs konstant sind. Sie sind in der Tat sehr stark von der Temperatur abhängig. Das Verhältnis zwischen den beiden, das uns die Konzentrationen (und damit die Massen) von Kohlendioxid in der Atmosphäre und in der Senke angibt, wenn wir annehmen, dass diese Senke die Ozeane sind, unterliegt beispielsweise dem Henry’schen Gesetz, und dieses Konzentrationsverhältnis ist dann von der Temperatur abhängig. Wenn wir solche Effekte einbeziehen, könnten wir sogar zu dem Schluss kommen, dass die gesamte Kohlendioxid-Konzentration in der Atmosphäre vollständig von solchen Umweltparametern abhängt und völlig unabhängig von den menschlichen Einleitungen in das System ist. A ist einfach eine Funktion vieler Parameter, einschließlich der Temperatur T, aber nicht von Fh. Es ist, als ob die Entspannungszeit extrem kurz ist und alle vom Menschen oder auf andere Weise eingebrachten Veränderungen schnell verschwinden und das von der Natur festgelegte Gleichgewicht schnell erreicht wird.

Dies passt sehr gut zu der kürzlich gemachten Feststellung, dass das Abwürgen der Wirtschaft und die damit einhergehende starke Reduzierung der Kohlenstoff-Emissionen während der Covid-Pandemie keinerlei sichtbare Auswirkungen auf die Dynamik der Atmosphäre hatte [15]. Das Ergebnis dieser Forschung, die Hypothese, dass der Anstieg des Kohlendioxids in der Atmosphäre vollständig auf natürliche Ursachen und nicht auf den Menschen zurückzuführen ist, passt sehr gut zu den experimentellen Daten, und die Hypothese, dass der Mensch vollständig für den Anstieg verantwortlich ist, kann ebenfalls wissenschaftlich verworfen werden.

[Ende Bildinschrift]

Natürlich waren dies die Jahrzehnte vor dem IPCC in der Klimaforschung, als „die Wissenschaft“ unabhängig von staatlichen Eingriffen betrieben wurde. So war es beispielsweise in den 1950er bis frühen 1990er Jahren noch akzeptabel, dass Wissenschaftler tatsächliche Eiskernmessungen veröffentlichten, die zeigten, dass der atmosphärische CO₂-Gehalt in den untersuchten Eisschilden und Gletschern während der letzten 10.000 Jahre bis zu 700 ppm, ja sogar 2450 ppm betrug (Jaworowski et al., 1992).

Eine tatsächliche Verweildauer, die 20- bis 40-mal kürzer ist, als es die von AGW modellierten Gedankenexperimente zulassen, untergräbt die gefährliche Treibhausgasakkumulation, denn „wenn die Verweildauer unter 30 Jahren liegt, würde das Einspritzen von CO₂ in die Atmosphäre das Klima ebenso wenig beeinflussen wie Wasser“. (Stallinga, 2023).

Dr. Stallinga stellt nicht nur eine erschöpfende Liste früherer Schätzungen zusammen, die eine Verweildauer von 5-10 Jahren belegen, sondern führt auch die Beweise von Atombombentests, das Fehlen jeglicher atmosphärischer CO₂-Effekte durch die pandemischen Abriegelungen und den damit verbundenen drastischen Rückgang der Emissionen sowie die zeitlich verzögerte Beziehung zwischen CO₂-Emissionen und Temperatur als Beweise an, die die einst allgemein akzeptierte Schlussfolgerung stützen, dass die Verweildauer von CO₂ eher bei 5 Jahren und nicht bei Jahrhunderten liegt.

Und wenn die Verweildauer nur 5 Jahre beträgt, sind fast „90 % des gesamten anthropogenen Kohlendioxids bereits aus der Atmosphäre entfernt worden“.

Quelle: Stallinga, 2023

Daraus die Graphik:

Abbildung 3: (a) Jährliche globale CO₂-Emissionen aus fossilen Brennstoffen. (b) Kumulierte Emissionen (Integral der linken Grafik). Die gelbe Kurve ist der Rest des anthropogenen CO₂ in der Atmosphäre, wenn wir eine Verweilzeit in der Senke annehmen, die viel länger ist als die 5-jährige Verweilzeit in der Atmosphäre; in diesem Fall wurde τs=50τa verwendet. (Quelle der Daten: Unsere Welt in Daten [8]).

Stallingas Schlussfolgerungen ähneln denen von Dr. Chauncey Starr (1993), einem Atomphysiker, der betonte, dass die Behauptungen über eine jahrhundertelange Verweilzeit aus „globalen Kohlenstoffkreislaufmodellen abgeleitet werden, die so angepasst sind, dass sie zu der Annahme passen, dass die anthropogenen Emissionen die Hauptursache für den beobachteten Anstieg des atmosphärischen CO₂ sind.“

Starr lieferte empirische Belege für die Schlussfolgerung, dass die Verweilzeit 4-5 Jahre beträgt. Die Atombombentests in großer Höhe im Jahr 1964 haben beispielsweise gezeigt, wie schnell (3-11 Jahre) die Atmosphäre diese Störungen durchläuft. Die Konstanz der Amplitude des saisonalen CO₂-Zyklus und das Ausmaß der Schwankungen der jährlichen Konzentrationen sprechen für die Photosynthese als treibende Kraft der CO₂-Variabilität, was eine Verweilzeit von 5 Jahren oder weniger bestätigt.

Ähnlich wie Dr. Stallinga berichtet auch Starr, dass „nur etwa 15 % der Emissionen aus fossilen Brennstoffen in der Atmosphäre verbleiben“.

Quelle: Starr, 1993

[Auf das {zeitaufwändige} Herauslesen des Textes wird hier verzichtet]

Link: https://notrickszone.com/2023/03/23/new-study-atmospheric-co2-residence-time-is-only-5-years-too-short-to-affect-the-climate/

Übersetzt von Christian Freuer für das EIKE

 




Versicherungsansprüche: Versicherer schreiben Elektrofahrzeuge mit kleinen Schäden ab

Eric Worrall

Erstmals veröffentlicht bei JoNova und Not a lot of people know that: Würden Sie ein EV fahren wollen, dessen Batterien durch einen kleinen Zusammenstoß leicht beschädigt worden sein könnten, auch wenn es keine sichtbaren Anzeichen von Schäden gibt?

Zerkratzte EV-Batterie? Ihr Versicherer muss vielleicht das ganze Auto verschrotten

Nick Carey, Paul Lienert und Sarah McFarlane

LONDON/DETROIT, 20. März (Reuters) – Bei vielen Elektrofahrzeugen gibt es keine Möglichkeit, auch nur leicht beschädigte Akkus nach Unfällen zu reparieren oder zu begutachten, was die Versicherungsgesellschaften dazu zwingt, Autos mit wenigen Kilometern abzuschreiben – was zu höheren Prämien führt und die Gewinne aus der Umstellung auf Elektroautos schmälert.

Und nun stapeln sich diese Akkus in einigen Ländern auf Schrottplätzen – eine bisher nicht gemeldete und teure Lücke in einer vermeintlichen Kreislaufwirtschaft.

„Wir kaufen Elektroautos aus Gründen der Nachhaltigkeit“, sagt Matthew Avery, Forschungsdirektor beim Automobil-Risikoforschungsunternehmen Thatcham Research. „Aber ein Elektroauto ist nicht sehr nachhaltig, wenn man die Batterie nach einer kleinen Kollision wegwerfen muss“.

Lauterwasser wies darauf hin, dass die Produktion von Elektroauto-Batterien weitaus mehr CO₂ ausstößt als die von Modellen mit fossilen Brennstoffen, was bedeutet, dass Elektroautos Tausende von Kilometern gefahren werden müssen, bevor sie diese zusätzlichen Emissionen ausgleichen.

„Wenn man das Fahrzeug in einem frühen Stadium wegwirft, hat man so gut wie alle Vorteile in Bezug auf die CO₂-Emissionen verloren“, sagte er.

Mehr hier.

So viel zur grünen „Kreislaufwirtschaft“.

Es gibt viele Videos im Internet, die zeigen, wie E-Fahrzeuge spontan brennen und thermisch verglühen.

In Anbetracht dieses offensichtlichen Risikos und der Tatsache, dass dieses Risiko durch einen mechanischen Schock der Batterie noch verstärkt wird, ist es verständlich, dass die Versicherer die Ansicht vertreten, dass selbst kleinere Kollisionen eine EV-Batterie in eine tickende Zeitbombe verwandeln können.

[Hervorhebung im Original]

Im folgenden Video aus dem Jahr 2022 wird das Problem des Batterie-Dumpings erwähnt. Es geht auch auf die Bemühungen der Hersteller von Elektrofahrzeugen ein, das Brandrisiko zu verringern, indem sie verschiedene Batteriechemien erforschen und versuchen, angeblich viel sicherere Festkörperbatterien auf den Markt zu bringen:


Link: https://wattsupwiththat.com/2023/03/23/claim-insurers-writing-off-electric-vehicles-with-minor-damage/

Übersetzt von Christian Freuer für das EIKE