Ein Experiment zur Veranschaulichung, wie „Homogenisierung“ einen falschen Klimatrend erzeugt

Anthony Watts

Diejenigen unter Ihnen, die WUWT schon seit einigen Jahren verfolgen, wissen, dass ich oft praktische Experimente durchführe, um einige der lächerlichsten Behauptungen zum Klimawandel zu veranschaulichen und zu entkräften, die auf beiden Seiten der Debatte aufgestellt werden. Auf der Seite der Panikmacher erinnern Sie sich vielleicht an dieses Experiment:

Al Gore und Bill Nye VERSAGEN bei einem einfachen CO2-Experiment.

Die Replikation von Al Gores Videoexperiment Climate 101 (aus dem 24-Stunden-Gore-a-thon) zeigt, dass seine „Highschool-Physik“ niemals so funktionieren kann, wie angekündigt.

Leider hat YouTube das Video abgeschaltet, aber ich werde versuchen, es anderswo zu veröffentlichen, z. B. auf Rumble. Die Diagramme der Temperaturmessungen und andere Bilder sind noch da.

Trotz der Tatsache, dass ich zweifelsfrei bewiesen habe, dass das Experiment nicht nur tödlich mangelhaft, sondern sogar FALSCH war, wird es heute noch als Propaganda auf der Webseite von Al Gore verwendet.

Sie haben es nie heruntergenommen. Idioten.

In diesem Sinne habe ich, wie Willis es oft tut, über den kürzlich in Atmosphere veröffentlichten Artikel einiger unserer Waffenbrüder (Willie Soon, The Connallys usw.) in Sachen Klimaskepsis nachgedacht [Zu dieser Studie ist ein anderer Beitrag in deutscher Übersetzung beim EIKE hier veröffentlicht].

Evaluation of the Homogenization Adjustments Applied to European Temperature Records in the Global Historical Climatology Network Dataset

[etwa: Bewertung der Homogenisierungs-Anpassungen, die auf die europäischen Temperaturaufzeichnungen im Datensatz des Globalen Netzwerks für historische Klimatologie (GHCN) angewendet wurden

Abstract

Der weit verbreitete monatliche Temperaturdatensatz des Global Historical Climatology Network (GHCN) ist in zwei Formaten verfügbar – nicht homogenisiert und homogenisiert. Seit 2011 wird dieser homogenisierte Datensatz fast täglich aktualisiert, indem der „paarweise Homogenisierungsalgorithmus“ (PHA) auf die nicht homogenisierten Datensätze angewendet wird. Frühere Studien haben gezeigt, dass der PHA bei der Korrektur synthetischer Zeitreihen gut funktioniert, wenn bestimmte künstliche Verzerrungen eingeführt werden. Seine Leistung bei realen Daten ist jedoch weniger gut untersucht worden. Daher wurden die homogenisierten GHCN-Datensätze (Version 3 und 4) über einen Zeitraum von zehn Jahren (2011-2021) fast täglich heruntergeladen, was 3689 verschiedene Aktualisierungen der Datensätze ergab. Die verschiedenen identifizierten Bruchpunkte wurden für eine Reihe von Stationen aus 24 europäischen Ländern analysiert, für die Metadaten zur Stationsgeschichte verfügbar waren. Dabei zeigte sich eine bemerkenswerte Inkonsistenz bei den identifizierten Haltepunkten (und damit den vorgenommenen Anpassungen). Von den für GHCN Version 4 angewandten Anpassungen wurden 64 % (61 % für Version 3) bei weniger als 25 % der Läufe identifiziert, während nur 16 % der Anpassungen (21 % für Version 3) bei mehr als 75 % der Läufe konsistent identifiziert wurden. Die Konsistenz der PHA-Anpassungen verbesserte sich, wenn die Haltepunkte mit dokumentierten Ereignissen in den Metadaten der Stationsgeschichte übereinstimmten. Allerdings waren nur 19 % der Haltepunkte (18 % für Version 3) mit einem dokumentierten Ereignis innerhalb eines Jahres verbunden, und 67 % (69 % für Version 3) waren mit keinem dokumentierten Ereignis verbunden. Obwohl der PHA ein nützliches Werkzeug in der Homogenisierungs-Toolbox der Gemeinschaft bleibt, könnten viele der PHA-Anpassungen, die auf den homogenisierten GHCN-Datensatz angewendet wurden, falsch gewesen sein. Die Verwendung von Stationsmetadaten zur Bewertung der Zuverlässigkeit von PHA-Anpassungen könnte möglicherweise dazu beitragen, einige dieser falschen Anpassungen zu identifizieren.

Zusammengefasst kommen sie zu dem Schluss, dass der Homogenisierungsprozess künstliche Verzerrungen in die langfristigen Temperaturaufzeichnungen einführt. Das ist etwas, was ich schon vor über 10 Jahren beim USHCN vermutet und auf der AGU 2015 mit dieser Grafik veröffentlicht habe, die zeigt, dass das Endprodukt der homogenisierten Daten so viel wärmer ist als Stationen, die nicht durch Urbanisierung und künstliche Oberflächen wie Asphalt, Beton und Gebäude beeinträchtigt wurden. Nach meiner Analyse sind fast 90 % des gesamten USHCN-Netzes nicht standortkonform und leiden daher unter den falschen Auswirkungen nahe gelegener Wärmequellen und -senken:

In dem neuen Papier gibt es einen relevanten Absatz, der sich auf die Grafik bezieht, die ich 2015 auf der AGU veröffentlicht habe:

Je mehr Haltepunkte für jeden Datensatz angepasst werden, desto mehr werden sich die Trends dieses Datensatzes den Trends seiner Nachbarn annähern. Auf den ersten Blick mag dies wünschenswert erscheinen, da die Trends der homogenisierten Datensätze homogener sein werden (wohl eines der Hauptziele der „Homogenisierung“), und daher haben einige gegen diese Kritik Einspruch erhoben [41]. Wenn jedoch mehrere Nachbarn systematisch von ähnlichen langfristigen nicht-klimatischen Verzerrungen betroffen sind, dann werden die homogenisierten Trends eher zu den Durchschnittswerten des Stationsnetzes (einschließlich systemischer Verzerrungen) konvergieren als zu den wahren klimatischen Trends der Region.

Der Schlüsselbegriff ist „mehrere Nachbarn, d. h. nahe gelegene Stationen“.

Bereits am 1. August 2009 habe ich eine Analogie zu diesem Problem mit der Homogenisierung anhand von Schüsseln mit schmutzigem Wasser erstellt. Wenn das sauberste Wasser (eine gute Station an einem guten Standort) mit nahegelegenen Stationen homogenisiert wird, die aufgrund von Schmutz im Wasser unterschiedliche Trübungsgrade aufweisen, wobei 5 der schlechteste Wert ist, vermischt die Homogenisierung effektiv das saubere und das schmutzige Wasser, und am Ende erhält man einen Datenpunkt für die mit „?“ gekennzeichnete Station, der einen gewissen Trübungsgrad aufweist, aber nicht klar ist. Im Grunde handelt es sich um eine Datenmischung aus sauberen und schmutzigen Daten, die zu trübem Wasser bzw. verworrenen Daten führt.

Bei der Homogenisierung werden die Daten im Vergleich zu den benachbarten Stationen in einem bestimmten Umkreis gewichtet. So kann eine Station, die mit einem Wert von „1“ beginnt, mit den Daten der benachbarten Stationen verunreinigt werden und als neuer Wert, z. B. gewichtet mit „2,5“, enden.

Was glauben Sie, wie hoch die Werte (der Trübung) der Stationen in der Karte unten sein würden, wenn eine homogenisierende Glättung angewandt und die Stationen in der Nähe der Stationen mit den Fragezeichen nach ihrer Entfernung gewichtet würden? Und wie nahe würden diese beiden Werte für die fragliche Station an der Ostküste und die fragliche Station an der Westküste beieinander liegen? Beide würden näher an einem geglätteten mittleren Wert liegen, der auf den benachbarten Stationen basiert.

Natürlich ist dies nicht die eigentliche Methode, sondern nur eine visuelle Analogie. Aber es ist im Wesentlichen das, was laut diesem neuen Papier mit den Temperaturdaten geschieht.

Und es liegt nicht nur an mir und dieser neuen Studie, die dies behauptet. Bereits 2012 habe ich über eine andere Studie berichtet, die das Gleiche behauptet.

Neue Studie macht Homogenisierung von Wetterstationsdaten für etwa die Hälfte der globalen Erwärmung verantwortlich

Die Autoren Steirou und Koutsoyiannis kommen nach Berücksichtigung von Homogenisierungsfehlern zu dem Schluss, dass die globale Erwärmung im vergangenen Jahrhundert nur etwa die Hälfte [0,42 °C] der vom IPCC behaupteten Erwärmung [0,7-0,8 °C] betrug.

Hier ist der Teil, der mir wirklich gefällt: Bei 67 % der untersuchten Wetterstationen wurden fragwürdige Anpassungen an den Rohdaten vorgenommen, die zu folgenden Ergebnissen führten:

„verstärkte positive Trends, verringerte negative Trends oder änderte negative Trends in positive“, während „der erwartete Anteil bei 1/2 (50%) liegt“.

Und:

„Die bis heute angewandten Homogenisierungsverfahren sind hauptsächlich statistisch, nicht gut durch Experimente begründet und werden selten durch Metadaten unterstützt. Es kann argumentiert werden, dass sie oft zu falschen Ergebnissen führen: natürliche Merkmale hydroklimatischer Zeitreihen werden als Fehler angesehen und bereinigt.“

Aus meiner Sicht ist es also ziemlich klar, dass die Homogenisierung eine falsche Klimaerwärmung hinzufügt, wo es eigentlich kein echtes Klimasignal gibt. Stattdessen wird der Urbanisierungseffekt, der zu einer Erwärmung der Durchschnittstemperatur führt, aufgegriffen und dem Klimasignal hinzugefügt.

Steve McIntyre stimmt dem in einem Beitrag zu und schreibt:

Wenn schließlich Referenzinformationen von nahe gelegenen Stationen verwendet wurden, neigen Artefakte an Nachbarstationen dazu, Anpassungsfehler zu verursachen: das Problem der „schlechten Nachbarn“. In diesem Fall wurden nach der Anpassung die Klimasignale an nahe gelegenen Stationen ähnlicher, auch wenn die durchschnittliche Verzerrung über das gesamte Netzwerk nicht verringert wurde.

Daher möchte ich ein Experiment zur Simulation und Veranschaulichung des „Bad Neighbour“-Problems mit Wetterstationen konzipieren und ein Video dazu erstellen.

Ich denke dabei an Folgendes:

1. Verwenden Sie die Analogie zur Trübung in irgendeiner Weise, vielleicht mit roter und blauer Lebensmittelfarbe anstelle eines Schwebstoffs, der sich absetzen wird. Dies dient lediglich der Veranschaulichung.

2. Verwenden Sie die tatsächliche Temperatur, indem Sie Temperatur-kontrollierte Wasserfläschchen mit unterschiedlichen Temperaturen herstellen.

3. Mischen des Inhalts der Fläschchen und Messen der daraus resultierenden Trübung/Farbänderung und der daraus resultierenden Temperatur der Mischung.

Der Trick besteht darin, einzelne Temperatur-kontrollierte Wasserfläschchen herzustellen und diese Temperatur zu halten. Dazu werden einige Laborgeräte, Schläuche und Pumpen benötigt.

Zur Veranschaulichung könnte ich eine Karte der USA oder der Welt erstellen, die Fläschchen darin platzieren und damit die Ergebnisse visualisieren und messen.

Link: https://wattsupwiththat.com/2022/02/23/im-designing-an-experiment-to-illustrate-how-homgenization-creates-a-false-climate-trend-suggestions-welcome/

Übersetzt von Christian Freuer für das EIKE

 




Fracking in Polen

Andy May

Was ist also aus den europäischen Bemühungen geworden, eine Schiefergas- und -ölindustrie zu entwickeln, wie wir sie in den Vereinigten Staaten haben? Die jüngsten Engpässe, Putins Einmarsch in der Ukraine und die hohen Energiepreise haben gezeigt, dass wir nicht im Entferntesten darauf vorbereitet sind, ohne fossile Brennstoffe auszukommen.

Wie Holman Jenkins in der gestrigen Ausgabe des Wall Street Journal (Jenkins, 2022) erklärt, lieferte sich der so genannte „Engine No. 1“-Hedgefonds einen lautstarken Kampf mit ExxonMobil um Sitze im Aufsichtsrat, die dazu beitragen sollten, das Unternehmen von fossilen Brennstoffen wegzuführen. Es hat nichts gebracht, außer dass es Chris James, den milliardenschweren Gründer von Engine No. 1, noch reicher gemacht hat. Die Medien griffen sein Anliegen vorhersehbar auf und trieben den Aktienkurs von ExxonMobil in den Bereich der 30 Dollar. James kaufte seine ExxonMobil-Aktien sehr billig, und nun haben sie ihren Wert in weniger als zwei Jahren mehr als verdoppelt, der heutige Kurs liegt bei 78 Dollar. Wollte er die fossilen Brennstoffe abschaffen, oder wollte er nur reicher werden?

Es liegt auf der Hand, dass Europa seine potenziell reichhaltigen Schiefergasreserven erschließen sollte, aber es hat es nicht getan – warum? Ich war in einem früheren Leben Petrophysiker für Schiefergas und -öl und kann bestätigen, wie aufwändig und komplex die Entdeckung, Bewertung und Erschließung von Schiefergas und -öl ist. Es ist schwierig, aber nicht unmöglich, und es ist sicherlich lohnender und profitabler als Wind- und Solarenergie, trotz der verzerrten Zahlen, die Sie vielleicht in den Nachrichtenmedien gesehen haben. Die Nachrichtenmedien erklären, dass nicht-disponierbare Wind- und Solarenergie niedrigere LCOE (Levelized Cost of Electricity Generation) oder LACE (Levelized Avoided Cost of Electricity Generation) als alle fossilen Brennstoffe haben, aber sie berichten nicht über die Details, die zeigen, dass diese Berechnungen ausgeklügelte Lügen der EIA sind, wie die EIA im Kleingedruckten zugibt:

[Hervorhebung vom Übersetzer]

Die LCOE-Werte für Wind- und Solartechnologien sind nicht direkt mit den LCOE-Werten für andere Technologien vergleichbar, die einen ähnlichen durchschnittlichen jährlichen Kapazitätsfaktor haben können. Aus diesem Grund werden Wind- und Solartechnologien separat als nicht-dispatchbare Technologien ausgewiesen. Wasserkraftwerke, einschließlich Anlagen mit Speicherbecken, die einen flexibleren Tagesbetrieb ermöglichen, und hybride Solaranlagen weisen im Allgemeinen erhebliche saisonale bzw. tägliche Schwankungen in der Verfügbarkeit auf. Die EIA weist sie als nicht-dispatchbar aus, um den Vergleich mit Technologien zu erschweren, die eine gleichmäßigere saisonale und tageszeitliche Verfügbarkeit aufweisen [fossile Brennstoffe und Kernkraft].

U. S. EIA, Seite 6

Mit anderen Worten: Solar- und Windenergie und in geringerem Maße auch die Wasserkraft stehen möglicherweise nicht zur Verfügung, wenn man sie braucht; ihre Verfügbarkeit hängt vom Wetter, der Jahreszeit und der Tageszeit ab. In den LCOE sind die Kosten für die Unterstützung dieser Energiequellen durch fossile oder nukleare Brennstoffe nicht enthalten, es wird lediglich davon ausgegangen, dass die Unterstützung bei Bedarf verfügbar ist. Zweitens beziehen LCOE und LACE den Wert umfangreicher Subventionen für Wind- und Solarenergie in ihre Berechnungen ein, was die Zahlen weiter verzerrt, da es in den Vereinigten Staaten keine Subventionen für fossile Brennstoffe gibt. Für eine genauere Bewertung der relativen Kosten verschiedener Stromquellen siehe die Diskussion hier. Sie zeigt deutlich, dass Wind- und Solarenergie gegenüber fossilen Brennstoffen nicht wettbewerbsfähig sind, was uns auch die realen Experimente in Kalifornien und Deutschland gezeigt haben.

Schiefergas und -öl in Polen

Unsere wichtigste Quelle ist ein von Fachleuten geprüfter Artikel von Professor Andreea Maierean in der Zeitschrift Discover Energy (Maierean, 2021). Sie kommt zu dem Schluss, dass die in Polen tätigen multinationalen Energiekonzerne aufgrund politischer, sozialer und technischer Faktoren ihre Bemühungen um die Erschließung polnischer Schiefervorkommen aufgeben mussten.

Sie weist darauf hin, dass Landbesitzer in den USA von der Förderung unter ihrem Grund und Boden profitieren, während dies in Polen und im übrigen Europa nicht der Fall ist. Fossile Brennstoffe und andere gewinnbringende Mineralien unter der Oberfläche sind in Polen im Besitz der Regierung, so dass der örtliche Grundstückseigentümer keinen Anreiz hat, die Erkundung und Förderung auf seinem Land zuzulassen, und einen großen abschreckenden Anreiz hat, dies zu tun. In den USA gibt es manchmal eine Aufteilung des Eigentums, bei der eine Person die Mineralienrechte unter dem Land und eine andere die Oberflächenrechte besitzt. Nach US-amerikanischem Recht kann der Oberflächeneigentümer den Eigentümer der Mineralien nicht daran hindern, auf seine Mineralien zuzugreifen, allerdings steht dem Oberflächeneigentümer eine Entschädigung für den Zugang zum Land und für Schäden zu. In Europa gibt es kein derartiges Gesetz oder Prinzip, und obwohl dort üblicherweise eine Oberflächenpacht gezahlt wird, hat der Eigentümer der Oberfläche mehr Möglichkeiten, den Eigentümer der Mineralien, in der Regel die Regierung, vom Zugang zu seinen Mineralien abzuhalten.

Ein weiterer Vorteil der Vereinigten Staaten ist die Dezentralisierung. Die lokalen und bundesstaatlichen Regierungen kontrollieren die Energievorschriften in den meisten Teilen der Vereinigten Staaten. In Europa sind die Mineralien in der Regel im Besitz und unter der Kontrolle der nationalen Regierungen, die in der Regel restriktiver sind.

Neben den rechtlichen Vorteilen in den Vereinigten Staaten verfügen die USA über eine fortschrittliche und weit verbreitete Bohr-, Bewertungs- und Hydraulic-Fracturing-Industrie. Die europäischen Länder haben zwar einen gewissen Zugang zu diesen Technologien und Dienstleistungen, aber nicht in dem Umfang und zu den Kosten, die für die Ausbeutung von Schiefergestein erforderlich sind. Europäische Umweltgruppen, die nach Angaben der NATO möglicherweise teilweise von Russland finanziert werden, konnten genügend Druck ausüben, um das Hydraulic Fracturing in den meisten europäischen Ländern zu stoppen.

Es gibt zwei Hauptgründe dafür, dass die multinationalen Öl- und Gasunternehmen ihre Bemühungen zur Erschließung von Schiefergas in Europa aufgegeben haben. Der Hauptgrund war der Zugang und die Infrastruktur. Eine 2.000 Meter lange horizontale Bohrung kostet in den USA weniger als vier Millionen Dollar, in Polen jedoch über elf Millionen Dollar. Außerdem gibt es in Polen nur sehr wenige Pipelines, und diese befinden sich nicht an den besten Bohrstellen, was in Verbindung mit dem polnischen Verbot des Abfackelns von Gas während der Erprobung von Bohrlöchern eine ordnungsgemäße Exploration praktisch unmöglich machte.

Der zweite Grund war eine Kombination aus öffentlichen Protesten gegen Bohrungen und Vorschriften, die eine ordnungsgemäße Prüfung der Bohrungen untersagten. In den Jahren 2012 und 2013 protestierten polnische Landwirte und wehrten sich gegen die Bohrmannschaften von Chevron und stoppten erfolgreich deren Explorationsarbeiten in der Nähe von Żurawlów, Polen (Szolucha, 2019). Schließlich musste Chevron seine Explorationsbemühungen aufgeben.

Die Exploration von Schiefergestein unterscheidet sich stark von der Exploration von konventionellem Öl und Gas. Bei Schiefergestein weiß man bereits, wo sich die Ressource befindet, das Problem besteht darin, den Ort im Schiefergestein zu finden, an dem man die Ressource wirtschaftlich erschließen kann. Das bedeutet, dass eine Reihe von Bohrungen durchgeführt, abgeschlossen und gefördert werden müssen, bis man Standorte und Techniken gefunden hat, bei denen die Bohr-, Fracturing- und Fördertechniken wirtschaftlich funktionieren. In konventionellen Feldern wird zuerst die Lagerstätte erkundet und dann gefördert, in Schiefergestein muss man beides gleichzeitig tun. Außerdem dauert die Testphase in Schiefergestein länger, in der Regel sechs Monate, während ein Test einer konventionellen Entdeckung in ein oder zwei Tagen abgeschlossen ist. Bei konventionellen Bohrungen ist oft kein Aufbrechen des Reservoirs erforderlich, und die Fördermengen können in Tanks gelagert werden. Nicht so bei Schiefergestein.

Polen verfügte einfach nicht über die Infrastruktur oder die Vorschriften, die erforderlich waren, um sein Schieferpotenzial zu ermitteln. Einige sind der Meinung, dass die Schiefer ohnehin nicht sehr ergiebig sind, was für die Standorte, an denen gebohrt wurde, zutrifft: Der organische Gehalt der Schiefer war gering, und die Schiefer waren zu zäh, um an diesen Standorten richtig aufzubrechen. An anderen Stellen, an denen nicht gebohrt werden durfte, könnte es jedoch funktioniert haben.

Polen verfügt wahrscheinlich über 350 bis 5.300 Milliarden Kubikmeter potenziell förderbares Erdgas, wobei die große Spanne der Schätzungen auf das Fehlen guter geologischer Daten zurückzuführen ist, was wiederum auf den Mangel an Bohrungen und Tests zurückzuführen ist. Polens Erdgasverbrauch lag im Jahr 2020 bei etwa 21 Milliarden Kubikmetern, um diese Zahlen zu relativieren (Johnson & Boersma, 2013).

Ein polnischer Geologe warnte den polnischen Senat (das Oberhaus des polnischen Parlaments):

Lasst uns dieses Thema nicht öffentlich machen! Es ist nicht die Europäische Union, die unser Schiefergasprojekt behindern wird, sondern wir werden es selbst tun. Es ist gegen das nationale Interesse Polens, über die Besteuerung von Ressourcen zu sprechen, mit ihnen zu drohen… Gesetze können im Geheimen geschaffen werden und so weiter, aber ich warne Sie davor, laut darüber zu sprechen, denn es wird böse enden.

Anonymer polnischer Geologe.

Er hat eine Folie erstellt, auf der Gazprom (als riesiger russischer Bär) mit der Europäischen Union Schach spielt. Die Karikatur fasste zusammen, wie viele polnische Geologen über die Hauptbedrohungen für das Schiefergasprojekt dachten (Szolucha, 2019). Ich konnte weder die Karikatur noch den Namen des Autors finden, aber Abbildung 1 aus der Korea Times zeigt einen ähnlichen Sachverhalt.

Abbildung: Aus der „Korea Times“ vom 13. April 2014

 

Der Platzbedarf (die benötigte Fläche) für die Erschließung von Schieferöl- und -gasvorkommen ist zwar viel kleiner als der von Solar- und Windkraftanlagen, aber größer als der für konventionelle Öl- und Gasfelder. Solange Polen und das übrige Europa ihre Vorschriften nicht ändern, um die Erschließung von Schiefergasfeldern zu ermöglichen, wird dies nicht geschehen. Das Problem bei der Förderung von Schiefergas und -öl in Europa liegt nicht in der Technik, Geologie oder Finanzierung, sondern in den staatlichen Vorschriften und dem öffentlichen Willen. Die einzige Möglichkeit, dies zu erreichen, besteht wahrscheinlich darin, die von der Regierung gehaltenen unterirdischen Mineralienrechte an die derzeitigen Eigentümer der Oberflächenrechte zu übergeben.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2022/02/26/fracking-in-poland/

Übersetzt von Christian Freuer für das EIKE

 




Gefunden: große Probleme mit den Daten-Adjustierungen in einem verbreitet genutzten globalen Temperatur-Datensatz

Eine neue klimawissenschaftliche Studie, an der ein Gremium von 17 Experten aus 13 Ländern beteiligt war, wurde soeben in der Fachzeitschrift Atmosphere veröffentlicht. In der Studie wurden die verschiedenen Datenanpassungen untersucht, die in den letzten zehn Jahren routinemäßig an den europäischen Temperaturaufzeichnungen im weit verbreiteten Datensatz des Global Historical Climatology Network (GHCN) vorgenommen worden waren.

Der monatliche Temperaturdatensatz des GHCN ist die wichtigste Datenquelle für Thermometer-Aufzeichnungen, die von vielen Wissenschaftlern zur Berechnung der globalen Erwärmung verwendet werden, darunter die NOAA, das Goddard Institute for Space Studies (GISS) der NASA und die Japan Meteorological Agency (JMA).

Die Länge dieser Thermometer-Aufzeichnungen kann von Jahrzehnten bis zu mehr als einem Jahrhundert reichen. In diesen langen Zeiträumen enthalten die Aufzeichnungen einzelner Wetterstationen oft abrupte Veränderungen aufgrund lokaler Faktoren, die nichts mit globalen oder nationalen Temperaturtrends zu tun haben. Dazu gehören beispielsweise Änderungen des Standorts der Wetterstation, der Art der verwendeten Thermometer oder das Wachstum städtischer Wärmeinseln in der Umgebung der Station.

Um diese nicht klimabedingten Verzerrungen zu korrigieren, hat die NOAA, die den GHCN-Datensatz verwaltet, ein Computerprogramm laufen lassen, das mit Hilfe statistischer Methoden abrupte Sprünge in den Aufzeichnungen erkennt. Wann immer das Programm einen abrupten Sprung feststellt, wird eine Anpassung vorgenommen, um diesen Sprung aus den Aufzeichnungen der Station zu entfernen. Dieser Vorgang wird als Temperatur-Homogenisierung bezeichnet. Bis jetzt sind die meisten Wissenschaftler davon ausgegangen, dass der Prozess im Allgemeinen korrekt funktioniert.

In dieser neuen Studie analysierten die Autoren Tausende verschiedener Versionen des Datensatzes, die über 10 Jahre hinweg heruntergeladen wurden. Sie untersuchten die Homogenisierungs-Anpassungen für mehr als 800 europäische Temperatur-Aufzeichnungen. Sie fanden heraus, dass sich diese Anpassungen jeden Tag dramatisch änderten, wenn die NOAA ihr Computerprogramm erneut laufen ließ.

Die Autoren stellten fest, dass nur 17 % der NOAA-Anpassungen von Lauf zu Lauf konsistent waren.

Durch die Zusammenstellung historischer Aufzeichnungen, so genannter Stationsverlaufs-Metadaten, für jede der Stationen konnten sie außerdem die vom NOAA-Computerprogramm vorgenommenen Anpassungen mit den dokumentierten Veränderungen vergleichen, von denen bekannt war, dass sie an der Wetterstation stattgefunden hatten. Sie fanden heraus, dass weniger als 20 % der von der NOAA vorgenommenen Anpassungen mit einem von den Stationsbeobachtern festgestellten Ereignis übereinstimmten, wie z. B. einer Änderung der Instrumentierung oder einer Stations-Verlagerung.

Die Ergebnisse der Studie zeigen, dass die meisten der von der NOAA vorgenommenen Homogenisierungsanpassungen erstaunlich inkonsistent waren.

Außerdem werden die Anpassungen, die NOAA auf den gesamten Datensatz anwendet, jeden Tag neu berechnet und geändert, sobald die neuesten Aktualisierungen der Thermometer-Aufzeichnungen eintreffen. Dies hat zur Folge, dass für eine bestimmte Station, z. B. Cheb in der Tschechischen Republik, die offiziellen homogenisierten Temperaturen für 1951 (als Beispiel) im Datensatz von Dienstag ganz anders aussehen können als im Datensatz von Montag.

Die Studie selbst befasste sich nicht mit den Nettoauswirkungen dieser Anpassungen auf langfristige Klimatrends. Die Autoren warnten jedoch, dass diese bizarren Ungereimtheiten in diesem weit verbreiteten Klimadatensatz wissenschaftlich beunruhigend sind. Sie sind auch besorgt darüber, dass die meisten Forscher, die diesen wichtigen Datensatz verwenden, sich dieser Probleme bisher nicht bewusst waren.

Die Autoren schließen ihre Studie mit verschiedenen Empfehlungen, wie diese Probleme gelöst werden könnten und wie die Temperatur-Homogenisierung in Zukunft verbessert werden kann.

Die Studie

Titel: Evaluation of the Homogenization Adjustments Applied to European Temperature Records in the Global Historical Climatology Network Dataset

by Peter O’Neill, Ronan Connolly, Michael Connolly, Willie Soon, Barbara Chimani, Marcel Crok, Rob de Vos, Hermann Harde, Peter Kajaba, Peter Nojarov, Rajmund Przybylak, Dubravka Rasol, Oleg Skrynyk, Olesya Skrynyk, Petr Štěpánek, Agnieszka Wypych and Pavel Zahradníček

Atmosphere 2022, 13(2), 285; https://doi.org/10.3390/atmos13020285

Übersetzt von Christian Freuer für das EIKE

Hinweis: Da dieser Beitrag per E-Mail verbreitet worden ist, kann kein Link angegeben werden. Wer die Übersetzung überprüfen will, kann das mittels des beigefügten PDF tun:

https://eike-klima-energie.eu/wp-content/uploads/2022/02/press-release-for-ONeill-et-al-2022.pdf

 




Der Amoklauf der grünen Lemminge

Viv Forbes

Kein Land der Erde verlässt sich vollständig auf Wind- und Sonnenenergie, aber die australischen Politiker wollen dieses Wunder erreichen.

Sie sind führend bei der „Stampede of the Green Lemmings“*.

[*So lautet auch die Überschrift im Original. Für den Terminus ‚Stampede‘ gibt es m. E. keine passende Übersetzung. Vorschläge von Kommentatoren sind willkommen! A. d. Übers.]

Die Solarenergie hat ein großes Problem. Selbst an sonnigen Tagen wird fast nichts erzeugt, um die Nachfragespitzen um die Frühstücks- und Abendessenszeit zu decken – die Solarenergie-Gewerkschaft arbeitet nur sechs Stunden am Tag, streikt ohne Vorwarnung und wird ziemlich oft krank.

[Hervorhebung vom Übersetzer]

Mindestens 18 Stunden am Tag muss der Strom also woanders herkommen. Dann, um die Mittagszeit, produzieren Millionen von Sonnenkollektoren weit mehr Strom als benötigt wird, was zu einem elektrischen und finanziellen Chaos im Stromnetz führt.

Natürlich sehen unsere grünen „Ingenieure“ die Windenergie als Lückenfüller für die Solarenergie. Aber auch die Windkraft hat eine Gewerkschaft, und sie wird oft krank, wenn über weiten Teilen des Kontinents kein Wind weht. Und bei Stürmen, Orkanen oder Wirbelstürmen legen sie ihre Werkzeuge nieder, falls ihr wirbelndes Spielzeug beschädigt wird.

Die grünen Planer behaupten also, dass Batterien diese intermittierenden Probleme der grünen Energiezwillinge lösen können.

Es müssen aber riesengroße Batterien sein.

Batterien sind nur eine Krücke für ein verkrüppeltes Stromerzeugungssystem. Und angesichts der regelmäßig gemeldeten heftigen Brände von Lithiumbatterien – wer will schon eine riesige feuergefährdete Batterie über dem Gartenzaun oder im Keller haben?

Eine Batterie ist kein Stromerzeuger – jede Batterie (einschließlich Snowy 2.0) ist ein Nettostromverbraucher. Batterien sind sehr teuer, die meisten verlieren mit zunehmendem Alter an Kapazität, und jede Umwandlung zwischen Gleichstromspeicherung und Wechselstromübertragung führt zu Energieverlusten. Um Ökostrom zu sammeln, zu speichern und wieder zu verteilen, ist ein den ganzen Kontinent umspannendes Spinnennetz von Übertragungsleitungen erforderlich, mit allen Kosten und Energieverlusten, die dieses Netz mit sich bringt.

Stille Nächte und ruhige, bewölkte Tage sind es, die die Probleme von Wind-Solar-plus-Batterien wirklich deutlich machen.

Nehmen wir an, die Stromverbraucher benötigen jeden Tag 100 Einheiten Strom. Ein gut konzipiertes Kohle-, Atom- oder Gaskraftwerk kann das leisten, rund um die Uhr, Tag für Tag, bei jedem Wetter.

Aber um ein Wind- oder Solarsystem gegen, sagen wir, 7 Tage ruhiges oder bewölktes Wetter zu versichern, wäre eine Batterie erforderlich, die 700 Stromeinheiten speichern kann. Um diese riesige Batterie wieder aufzuladen und gleichzeitig die Verbraucher zu versorgen, ist eine viel größere Wind- oder Solarstromerzeugungskapazität erforderlich. Wenn jedoch mehrere Wochen lang windiges oder sonniges Wetter herrscht, bleibt diese große Batterie ungenutzt und ist an ein aufgeblähtes, teures Stromerzeugungssystem angeschlossen, das weit mehr Strom liefern kann als benötigt wird.

Sonniges oder windiges Wetter führt zu einer Flut von grüner Energie, die die Strompreise in unregelmäßigen Abständen in die Höhe schnellen lässt und zuverlässige Stromerzeuger dazu zwingt, ihre Produktion einzustellen und Geld zu verlieren. Letztendlich werden sie geschlossen. Wenn erst einmal alle Kohle- und Gaserzeuger abgeschaltet sind, wird jede (unvermeidliche) Dürreperiode mit grüner Energie das Schreckgespenst eines großflächigen Stromausfalls hervorrufen.

Zu all diesen praktischen Problemen der grünen Energie kommt noch der massive Betrug mit den Emissionszertifikaten hinzu, bei dem Spekulanten grüne Märchen an gierige Banker verkaufen und echte Produzenten gezwungen sind, diese fiktiven „Produkte“ zu kaufen und die Kosten auf die echte Industrie und die Verbraucher abzuwälzen.

Australien folgt den grünen Energie-Lemmingen in Europa.

Deutschland produzierte einst reichlich zuverlässigen Strom aus Kohle und Kernkraft – das Rückgrat der deutschen Industrie. Dann begannen grüne Ameisen an diesem Rückgrat zu knabbern und ersetzten es durch Wind-Solar-Spielzeuge. Jetzt hat Deutschland teuren Strom – ein Netz, das zusammenzubrechen droht, und muss sich auf importiertes Gas aus Russland, Atomstrom aus Frankreich oder Wasserkraft aus Skandinavien verlassen.

[Hervorhebung vom Übersetzer]

Auch das Vereinigte Königreich verfolgt eine ähnlich törichte Energiepolitik und verbietet sogar die Erkundung seiner eigenen Öl- und Gasvorkommen.

Australien ist fast allein in den südlichen Ozeanen, ohne nahe Nachbarn, von denen es Strom kaufen, erbetteln oder leihen könnte. Wir können es uns nicht leisten, den grünen Energie-Lemmingen oder ihren milliardenschweren Rattenfängern zu folgen.

Link: https://spectator.com.au/2022/02/the-stampede-of-green-lemmings/

Übersetzt von Christian Freuer für das EIKE

 




Wie wir das Klimarisiko falsch eingeschätzt haben

Judith Curry, Climate Etc.

„Die derzeitige Denkweise und die Ansätze, die diese Konzeptualisierung und Beschreibung leiten, sind nachweislich nicht wissenschaftlich fundiert, was zur Folge hat, dass die Risiken und Unsicherheiten des Klimawandels nur unzureichend dargestellt werden. Der Bereich Klimawandel muss seine risikowissenschaftlichen Grundlagen stärken, um die derzeitige Situation zu verbessern.“ – Der norwegische Risikowissenschaftler Terje Aven

Für Entscheidungsträger ist der Klimawandel ein Problem bei der Risikobewertung und dem Risikomanagement. Der Klimawandel ist ein Risiko, weil er sich negativ auf Wohlstand und Sicherheit auswirken kann und weil seine Folgen ungewiss sind.

Die globale Klimapolitik wurde von einer spezifischen Strategie des Risikomanagements beherrscht – dem Vorsorgeprinzip als Rechtfertigung für die Festlegung spezifischer Ziele für die Beseitigung der vom Menschen verursachten Kohlendioxidemissionen.  In den frühen 1980er Jahren war das Umweltprogramm der Vereinten Nationen (UNEP) von der Auffassung überzeugt, dass fossile Brennstoffe einen gefährlichen Klimawandel verursachen würden. Die Aussicht auf die Abschaffung fossiler Brennstoffe deckte sich mit den umfassenderen Interessen des UNEP an Umweltqualität und Weltordnungspolitik. In Villach im Jahr 1985, zu Beginn der Klimavertragsbewegung, löste sich die politische Bewegung zur Abschaffung fossiler Brennstoffe von jeglicher Verankerung in der Wissenschaft – die Rhetorik der Vorsorge besagte, dass wir auf jeden Fall handeln sollten, um fossile Brennstoffe abzuschaffen, nur für den Fall. Diese Sichtweise wurde 1992 im Vertrag über das Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen (UNFCCC), 1997 im Kyoto-Protokoll und 2015 im Pariser Klimaabkommen festgeschrieben.

Anstatt die IPCC-Bewertungen auf eine Risikobewertung auszurichten, wurden die Bewertungen in den IPCC-Berichten eng gefasst, um die UNFCCC-Politik zu unterstützen, wobei der Schwerpunkt auf dem gefährlichen Klimawandel im Zusammenhang mit den Emissionen fossiler Brennstoffe lag. Die Verdrehung der Klimawissenschaft und die Herstellung eines Konsenses über den gefährlichen, vom Menschen verursachten Klimawandel vereinfachten nicht nur die wissenschaftlichen und sozialen Herausforderungen, sondern führten auch zur Annahme einer „Vorhersage und dann handeln“-Strategie zur Bewältigung und Kontrolle, die die in den 1980er Jahren getroffenen Entscheidungen zur Beseitigung der Emissionen fossiler Brennstoffe unterstützte. Die Übereinstimmung der IPCC-Bewertungen und der UNFCCC-Politik stärkt den Glauben, dass der Klimawandel ein einfaches oder zahmes Problem ist, bei dem die Wissenschaft alle praktischen Fragen und widersprüchlichen Werte und Ziele übertrumpft.

Diese Strategie des Risikomanagements impliziert, dass der Klimawandel ein einfaches, zahmes Problem der „Dosis-Wirkungsbeziehung“ ist. Diese Charakterisierung hat zu einer relativen Vernachlässigung des Klimarisikos in formalen Bewertungsprozessen wie dem IPCC geführt. Erst in ihrem jüngsten Bewertungsbericht, AR6, wurde versucht, den Klimawandel in einen konsistenten Risikorahmen zu stellen (es wird interessant sein zu sehen, wie dies in den kommenden Berichten der WGII und III aussehen wird). Infolge der frühen Annahme einer bevorzugten Risikomanagement-Strategie sind wir von einer vollständigen Bewertung des gesamten Klimarisikos weit entfernt.

Durch die Charakterisierung des Klimawandels als ein gut verstandenes Problem mit einem starken Konsens gehen die traditionellen Risikomanagementansätze davon aus, dass der Klimawandel vernünftig gesteuert oder zumindest eingedämmt und vorzugsweise beseitigt werden kann und sollte. Die Vielfalt der klimabezogenen Einflussfaktoren und ihre komplexen Zusammenhänge, verschiedene inhärente und nicht reduzierbare Unsicherheiten, Unklarheiten über die Folgen des Klimawandels und die ungleiche Verteilung der Exposition und der Auswirkungen über Geografie und Zeit hinweg erschweren jedoch jede einfache oder unbestrittene Anwendung traditioneller Risikomanagementansätze. Infolgedessen ist der politische Prozess, der sich in den letzten Jahrzehnten entwickelt hat, nicht nur unzureichend, um mit den mit dem Klimawandel verbundenen Risiken umzugehen, sondern hat auch die gesellschaftlichen Kontroversen um das Klimarisiko angeheizt.

Das Risiko wird häufig als eine Art statistischer Erwartungswert beschrieben – das Produkt aus Eintrittswahrscheinlichkeit und Auswirkung. Eine solche Charakterisierung ist jedoch nur für einfache oder zahme Probleme angemessen. Breiter gefasste Definitionen des Risikos umfassen die spezifizierten Folgen eines Ereignisses oder einer Handlung, ein Maß für die mit den Folgen verbundene Unsicherheit und die Stärke der Wissensbasis, die die Bewertung stützt.

Die Akzeptanz der IPCC-Bewertungen als „beste verfügbare“ Wissensbasis ist nicht unvereinbar mit der Anerkennung erheblicher Schwächen in der Wissensbasis im Zusammenhang mit der Klimarisikoanalyse. Ein wichtiges Element der Risikobeschreibung ist die Bewertung der Stärke der Wissensbasis. Bedenken hinsichtlich der Stärke der Wissensbasis werden von Personen geäußert, die Aspekte der IPCC-Bewertung in Frage stellen, die zur Ableitung des Klimarisikos verwendet werden. Der Ansatz des IPCC basiert auf der Beurteilung der verfügbaren Beweise und der Einigkeit unter den Experten. Anspruchsvollere Wissenscharakterisierungen für das Risikomanagement (Aven 2017b) umfassen:

● das Ausmaß, in dem die getroffenen Annahmen vernünftig/realistisch sind – wachsende Besorgnis über die Konzentration auf unplausible Emissionsszenarien RCP8.5/SSP5-8.5.

● das Ausmaß, in dem Daten/Informationen vorhanden, zuverlässig und relevant sind – die historische und Paläodatenbasis ist unzureichend für eine vollständige, globale Charakterisierung der natürlichen Klimaschwankungen auf mehrdekadischen bis tausendjährigen Zeitskalen

● das Ausmaß der Meinungsverschiedenheiten unter den Experten (einschließlich derer aus unterschiedlichen Umfeldern) – Versuche, Meinungsverschiedenheiten und alternative Perspektiven unter den Experten zu unterdrücken

● das Ausmaß, in dem die betreffenden Phänomene verstanden werden und genaue Modelle existieren Bedenken hinsichtlich der Zuverlässigkeit und des Nutzens von Klimamodellen

● der Grad, bis zu dem das Wissen im Hinblick auf unbekannte Erkenntnisse gründlich geprüft wurde (d. h. andere, aber nicht die Analysegruppe, verfügen über das Wissen) – Vernachlässigung der unbekannten Erkenntnisse im Zusammenhang mit der natürlichen Klimavariabilität.

Die internationale Klimapolitik hat zu systematischen Verzerrungen bei der Art des Fachwissens und der Beweise geführt, die für eine Berücksichtigung als geeignet erachtet werden. (Lucas) Das UNFCCC und der IPCC haben den Klimawandel als ein ökologisches und wirtschaftliches Problem bezeichnet, und Geowissenschaftler und Ökonomen haben den Bewertungs- und Politikgestaltungsprozess dominiert.

Die Probleme mit dem derzeitigen CO2-Anstieg und der Erwärmung sind jedoch sozialer und nicht ökologischer Natur. Die Erde hat geologische Perioden mit höheren Temperaturen und atmosphärischen CO2-Konzentrationen durchlaufen, in denen das Leben gedieh. Die Charakterisierung des Klimawandels als Umweltproblem hat die kulturellen und politischen Dimensionen des Themas heruntergespielt. Viele Sozialwissenschaftler haben argumentiert, dass die vom IPCC und der UNFCCC auferlegten disziplinären Beschränkungen viele wichtige Erkenntnisse vernachlässigt haben, die aus einem breiten Spektrum von Experten und nicht anerkannten Quellen stammen.

Eine Risikobewertung für ein Problem wie den Klimawandel – mit einem hohen Maß an Komplexität, Unsicherheit und Mehrdeutigkeit – muss die folgenden Elemente umfassen (King et al. 2015):

Klären Sie die Ziele der Risikoanalyse – die gefährdeten Gefahren oder Werte

● Ganzheitliche Betrachtung aller relevanten Faktoren

● Identifizieren Sie die größten Risiken – die plausiblen Worst-Case-Szenarien

● Legen Sie Werturteile explizit dar

Werte und Gefahren

Eines der größten Probleme im Zusammenhang mit der Risikobewertung des Klimawandels besteht darin, dass es keine einfache Möglichkeit gibt, die mit einem wärmeren Klima verbundenen Gefahren zu benennen. Bei dem Versuch, politischen Willen für die internationalen Verträge zu schaffen, wurden die negativen Auswirkungen der durch fossile Brennstoffe verursachten Erwärmung übertrieben – schwere Wetter-/Klimaereignisse, der Anstieg des Meeresspiegels und viele negative Auswirkungen auf Ökosysteme, Gesundheit, Wirtschaft und Geopolitik mit all ihren komplexen Ursachen wurden mit der durch fossile Brennstoffe verursachten Erwärmung verwechselt. Darüber hinaus wurden die von den Emissionen fossiler Brennstoffe ausgehenden Risiken nicht in den angemessenen Kontext anderer globaler und regionaler Risiken gestellt.

Ein Schlüsselelement der Risikobewertung ist die Beurteilung, ob Aktivitäten akzeptabel, tolerierbar oder untragbar sind. Aktivitäten sind tolerierbar, wenn sie aufgrund des damit verbundenen Nutzens als erstrebenswert angesehen werden. Bei tolerierbaren Risiken werden Anstrengungen zur Risikominderung oder -bewältigung begrüßt, sofern der Nutzen der Aktivitäten nicht verloren geht. Die Verbrennung fossiler Brennstoffe wurde in der Vergangenheit als tolerierbares Risiko betrachtet. Zu den wirklich untragbaren Risiken gehören existenzielle Bedrohungen – wie auf der Erde einschlagende Komet in dem Film Don’t Look Up – oder „Ruin“-Probleme. Bei weniger schwerwiegenden Bedrohungen, die ungeachtet der Vorteile als nicht tolerierbar gelten, sollte sich das Risikomanagement darauf konzentrieren, die Aktivität, die das Risiko verursacht, zu verbieten oder schrittweise einzustellen, oder, falls dies nicht möglich ist, das Risiko auf andere Weise abzumildern oder abzuschwächen oder die Widerstandsfähigkeit der Gesellschaft zu erhöhen.

Die Abgrenzung zwischen „akzeptabel“, „tolerierbar“ und „nicht tolerierbar“ ist eine der umstrittensten Aufgaben im Prozess der Risikobeherrschung bei komplexen Risiken. Mehrdeutigkeit resultiert aus abweichenden und umstrittenen Ansichten über die Berechtigung, den Schweregrad oder die weitere Bedeutung einer wahrgenommenen Bedrohung (Stirling 2003). Die Risiken des Klimawandels wurden von verschiedenen Personen und Gruppen als akzeptabel, tolerierbar und untragbar eingestuft – eine eindeutig mehrdeutige Situation. „Mehrdeutigkeit“ bedeutet, dass es verschiedene legitime Standpunkte gibt, von denen aus beurteilt werden kann, ob es negative Auswirkungen gibt oder geben könnte und ob diese Risiken tolerierbar sind. Mehrdeutigkeit resultiert aus abweichenden und umstrittenen Ansichten über die Berechtigung, den Schweregrad oder die weitere Bedeutung einer wahrgenommenen Bedrohung (Stirling 2003).

Subjektive Werturteile sind sowohl bei der Identifizierung eines Risikos als auch bei der Entscheidung, wie sehr wir uns darum kümmern, von Bedeutung. Alle formalen Risikobewertungen des Klimawandels sind durch zugrunde liegende Werte und normative Ziele strukturiert, die manchmal explizit, aber oft verborgen sind. Zu diesen Werten gehören gesellschaftliche Einstellungen zum Eigenwert der Natur, Fehleinschätzungen des Risikos und implizite Urteile über die Akzeptanz oder Abneigung gegen Ungleichheit in der Gesellschaft.

Die Einschätzung untragbarer Risiken durch den Klimawandel hängt damit zusammen, dass man fälschlicherweise die schleichende globale Erwärmung mit den Folgen extremer Wetter- und Klimaereignisse in Verbindung bringt, dass man sich Sorgen über eine ungleiche Risikoexposition ärmerer Bevölkerungsschichten sowie um künftige Generationen macht.

Das Risiko des Klimawandels umfasst sowohl Elemente des inkrementellen Risikos (z. B. den langsamen schleichenden Anstieg des Meeresspiegels) als auch des Notfallrisikos. Notfallrisiken werden mit extremen Wetterereignissen in Verbindung gebracht; technisch gesehen handelt es sich dabei um Wetterrisiken und nicht um Klimarisiken, auch wenn die globale Erwärmung nachweislich zu einer zunehmenden Verschlimmerung der Wettergefahr führen könnte. Ein Wetterrisiko kann zu einem Klimarisiko werden, wenn die globale Erwärmung dazu führt, dass das Ereignis eine Anfälligkeitsschwelle überschreitet, die ansonsten durch das Wetterereignis nicht überschritten worden wäre. Es wird auch versucht, die mit extremen Wetterereignissen verbundenen inkrementellen Kosten/Schäden zu bewerten. Solche Bewertungen sind vor dem Hintergrund der natürlichen Wetter- und Klimavariabilität sehr schwierig.

Wenn man das Risiko der meisten extremen Wetter- und Klimaereignisse von den Folgen der globalen Erwärmung abzieht, wird die Reduzierung der Emissionen fossiler Brennstoffe als weniger dringlich angesehen. Die Fehleinschätzung der Dringlichkeit inkrementeller Risiken hat zu Maßnahmen geführt, die nicht nur kostspielig und suboptimal sind, sondern wohl auch die Widerstandsfähigkeit verringern. Die ärmsten Bevölkerungsschichten würden von einem Zugang zum Stromnetz und von der Unterstützung bei der Verringerung der Anfälligkeit für extreme Wetterereignisse weit mehr profitieren als von einer Verringerung der CO2-Menge in der Atmosphäre.

Die Moralisierung rund um das Thema Klimawandel hat das Problem des Klimawandels als eine einfache, gerechte Werteentscheidung betrachtet: Bist du für den Planeten oder gegen ihn? Dieses Moralisieren vernachlässigt, dass die Menschen Aktivitäten ausüben, die für sie von Wert sind und bei denen zufällig Kohlenstoff als Nebenprodukt ausgestoßen wird. Darüber hinaus schließt dieses enge Moralisieren systematisch wichtige ethische Werte aus, wie etwa die Verbesserung des Lebens von einer Milliarde Menschen, die derzeit in inakzeptabler Armut leben, oder den Schutz anderer Aspekte der Umwelt.

Die Frage der Generationengerechtigkeit (Sorge um die Enkelkinder) ist von besonderer Bedeutung, da zwischen dem Ausstoß von Treibhausgasen und dem Auftreten der Schäden eine Zeitspanne liegt. Es gibt keine einfache Möglichkeit zu entscheiden, welche Fürsorgepflicht wir künftigen Generationen schulden, aber die sozioökonomischen Pfade des IPCC für das 21. Jahrhundert zeigen alle, dass die Welt bis 2100 besser dasteht, selbst bei den extremsten Emissionsszenarien.

Vor diesem Hintergrund brauchen wir eine breitere ethische Debatte über die Folgen des Klimawandels für die Werte, die wir Menschen zu Recht schätzen, damit wir glaubwürdige Maßnahmen zu deren Schutz ergreifen können. Dies erfordert eine ebenso sorgfältige Abwägung der positiven wie der negativen Folgen.

Ganzheitliche Betrachtung von plausiblen Worst-Case-Szenarien

Die IPCC-Bewertungen haben sich auf die wahrscheinliche Bandbreite der Erwärmung, des Anstiegs des Meeresspiegels und anderer Einflussfaktoren konzentriert. Wie ich in vielen früheren Blogbeiträgen erörtert habe, bieten die IPCC-Szenarien für das Klima des 21. Jahrhunderts keine ganzheitliche Perspektive auf den Klimawandel des 21. Jahrhunderts – sie vernachlässigen eine Reihe plausibler Szenarien für solare Variabilität, Vulkanausbrüche und natürliche interne Variabilität über mehrere Jahrzehnte bis Jahrtausende. Ihre Interpretation extremer Wetter- und Klimaereignisse stützt sich auf Daten seit 1950 – längere historische Datensätze und Paläoklima-Datensätze werden ignoriert.

Unter dem Strich: das IPCC hat keine vollständige Reihe plausibler Szenarien für den Klimawandel des 21. Jahrhunderts vorgelegt. Auch wenn Modelle für das Verständnis komplexer Systeme nützlich sein können, sollten Faktoren, die nicht in die Betrachtung eines Modells fallen, nicht ignoriert werden. Wenn sich ein System nicht sinnvoll modellieren lässt, können Szenarien entwickelt werden, um sich die möglichen zukünftigen Zustände vorzustellen.

Zusätzlich zu den Risiken, die mit erhöhten CO2-Konzentrationen und dem raschen Ausstieg aus fossilen Brennstoffen verbunden sind, muss anerkannt werden, dass natürliche Klimaschwankungen und -veränderungen sowie extreme Wetter- und Klimaereignisse ebenso wichtige gesellschaftliche Auswirkungen haben. Darüber hinaus umfasst der vom Menschen verursachte Klimawandel auch Emissionen von Nicht-CO2-Treibhausgasen und Aerosolpartikeln sowie Änderungen der Landnutzung.

Zum ersten Mal wird im AR6 der Ermittlung von Worst-Case-Ergebnissen Aufmerksamkeit gewidmet, abgesehen von der fehlgeleiteten Konzentration auf die unplausiblen Emissionsszenarien RCP8.5/SSP5-8.5. Die Behandlung des Meeresspiegelanstiegs im AR6 ist in dieser Hinsicht vorbildlich und verdeutlicht die Stärke der Wissensbasis im Zusammenhang mit verschiedenen Extremszenarien. Der Schwerpunkt des AR6 auf dem regionalen Klimawandel löst sich zu Recht von der bisherigen Strategie, dass Klimamodell-Szenarien für diesen Zweck ausreichend sind, und legt den Schwerpunkt zunehmend auf physikalisch basierte Szenarien. Der historische Datensatz, insbesondere wenn er bis ins 19. Jahrhundert zurückreicht, ist wohl die ergiebigste Quelle für extreme Wetter- und Klimaszenarien für das 21. Jahrhundert.

Wie die Plausibilität von Szenarien mit hohem Risiko zu bewerten ist, ist ein Thema, dem bisher zu wenig Aufmerksamkeit geschenkt wurde.

Risiken des Übergangs

Die soziale Verstärkung von Risiken kann durch Reaktionen auf wahrgenommene Ergebnisse erfolgen, entweder in Erwartung oder als Gegenmaßnahme.

Das UNFCCC ignoriert in seinem dringenden Bestreben nach NET-ZERO-Emissionen das Übergangsrisiko. Zu den Folgen eines raschen Umstiegs auf erneuerbare Energien gehören die wirtschaftlichen Kosten des Umstiegs, negative Umweltauswirkungen im Zusammenhang mit Wind- und Solarenergie und Biokraftstoffen, die Auswirkungen der Unterbrechung der erneuerbaren Energien auf die Zuverlässigkeit und die Kosten der Energieversorgung, eine komplexere und umfangreichere Stromübertragungsinfrastruktur mit einer größeren Anzahl von Ausfallknotenpunkten, eine geringere Energiesicherheit, der große Bedarf an seltenen Erden und die damit verbundenen geopolitischen Veränderungen. Diese Folgen des Übergangs sind mit einer recht soliden Wissensbasis verbunden, was viele Menschen dazu veranlasst, sich mehr Sorgen über die Risiken des Übergangs zu machen als über die ungewisseren Risiken des Klimawandels selbst, die eine weitaus schwächere Wissensbasis haben. Die Debatte dreht sich also um tolerierbare, aber möglicherweise unnötige Risiken, die sich aus der raschen Abkehr von fossilen Brennstoffen ergeben, im Gegensatz zu den höchst ungewissen Auswirkungen des Klimawandels, die von verschiedenen Personen, Ländern und Organisationen als akzeptabel bis untragbar eingeschätzt werden.

Das größte Risiko bei einer raschen Abkehr von fossilen Brennstoffen sind wohl die Opportunitätskosten – wir laufen Gefahr, unsere Ressourcen für Bemühungen zu verschwenden, die das Klima möglicherweise nicht nennenswert verändern, so dass uns keine Mittel für bessere Lösungen zur Verfügung stehen, die das menschliche Wohlergehen sowohl kurz- als auch langfristig verbessern. Darüber hinaus ignorieren wir andere Risiken, die für das kurzfristige menschliche Wohlergehen wohl wichtiger sind und die mit denselben Ressourcen produktiver angegangen werden könnten.

Conclusions

Das UNFCCC fördert eine Lösung für ein äußerst komplexes, unsicheres und mehrdeutiges Problem ohne eine angemessene Risikobewertung, die sich auf die umfassenderen ethischen Fragen und die politische und praktische Machbarkeit bezieht. Infolgedessen haben wir es versäumt, das Klimasystem und die umfassenderen Ursachen für die Anfälligkeit menschlicher und natürlicher Systeme wirklich zu verstehen und den machbaren politischen Spielraum systematisch und umfassend zu bewerten.

Das Endergebnis ist, dass wir nach 30 Jahren UNFCCC/IPCC auf die Kleinigkeiten der Treibhausgasemissionen und das abstrakte und unmögliche Problem der Begrenzung der atmosphärischen CO2-Konzentration fixiert sind – während wir die natürliche Klimavariabilität ignorieren und die menschliche Seite drastisch vereinfachen. Solange die derzeitige Situation anhält, werden die IPCC-Bewertungen des anthropogenen Klimawandels und die UNFCCC-Maßnahmen-Empfehlungen völlig unzureichend bleiben.

Link: https://wattsupwiththat.com/2022/02/22/how-we-have-mischaracterized-climate-risk/

Übersetzt von Christian Freuer für das EIKE