Wie viel globale Erwärmung sollte der nächste IPCC-Report prophezeien?

Wie Monckton von Brenchley et al. (2015) in einer Studie für die Chinesische Akademie der Wissenschaften im Jahr 2015 betonten, braucht man kein komplexes, milliardenschweres Computermodell, das bei jedem Einschalten den Stromverbrauch einer Kleinstadt verschlingt und ein Dutzend Eisbären umfallen lässt, falls man nur die ECS berechnen will. ECS ist ein nützlicher Standardmaßstab, weil der verdoppelte CO2-Antrieb ungefähr dem gesamten anthropogenen Antrieb entspricht, den wir in diesem Jahrhundert bei einem Business-as-usual-Szenario erwarten könnten. Diese Studie wurde übrigens von der Website der Zeitschrift der Chinesischen Akademie häufiger heruntergeladen als jedes andere in ihrer 60-jährigen Geschichte, und zwar um eine ganze Größenordnung.

Hier ist ein praktischer ECS-Rechner zum Selbermachen, der auf den neuesten Daten basiert:

Das IPCC (1990) hatte eine mittelfristige anthropogene Erwärmung von 0,34 K pro Dekade simuliert. In der Realität jedoch beträgt der Least-Squares-Trend über die 30 Jahre 1991-2020 der mittleren Anomalien in zwei monatlichen Temperaturdatensätzen für die Oberfläche (GISS und HadCRUT) und zwei für die untere Troposphäre (RSS und UAH) 0,2 K pro Dekade, wovon 70 % (Wu et al. 2019), also 0,14 K, auf uns zurückzuführen sind.

Daher hat sich die ursprüngliche mittelfristige Erwärmung der unteren Atmosphäre des IPCC als 2,4-fach überbewertet erwiesen. John Christy (2021) hat kürzlich in einem faszinierenden Online-Vortrag gezeigt (Abb. 1), dass die CMIP6-Modelle die mittelfristige Erwärmung der mittleren Troposphäre ebenfalls um das 2,4-fache überbewertet haben:

Abb. 1: Die 2,4-fache Übertreibung der mittleren Erwärmung der mittleren Troposphäre in den CMIP6-Modellen.

Man kann eine erste grobe Schätzung der mittleren ECS erhalten, indem man die mittlere CMIP6 ECS-Vorhersage von 3,7 K (Meehl et al. 2020) nimmt und durch 2,4 dividiert. Antwort: 1,5 K: nicht genug, um sich Sorgen zu machen.

Um ECS ΔE2 genauer abzuleiten, indem man die Ideen der Studie von der Chinese Academy weiter entwickelt, braucht man nur sieben leicht zugängliche und vernünftig eingeschränkte mittlere Parameter aus dem Mainstream:

1: Der Planck-Sensitivitätsparameter P ist die erste Ableitung der Stefan-Boltzmann-Gleichung: d.h. das Verhältnis der Oberflächentemperatur zum 4-fachen der Albedo-angepassten einfallenden Strahlungsflussdichte über der Atmosphäre (Schlesinger 1988). Somit ist P= 288 / (4 x 241), oder 0,3 K/Wm². Dieser unumstrittene Wert variiert mit der Oberflächentemperatur: aber von 1850 bis zur Verdoppelung des CO2 im Vergleich zur heutigen Temperatur ist er nahe genug an 0,3 und macht damit keinen wesentlichen Unterschied.

2: Der Verdopplungs-CO2-Strahlungsantrieb ΔQ2 wurde in Andrews (2012) mit 3,45 W/m² angegeben, dem Mittelwert von 15 CMIP5-Modellen. Für CMIP6 geben Zelinka et al. (2020) 3,52 W/m² an. Da wir die neuesten Mainstream-Daten verwenden, ziehen wir Letzteren heran.

3: Der exponentielle Wachstumsfaktor H pro Rückkopplungs-Einheit mit der Referenzsensitivität wird hier vorsichtshalber mit dem Wert von 1,07 pro K gleichgesetzt, der in Wentz (2007) als Clausius-Clapeyron-Zunahme der spezifischen Feuchtigkeit bei Erwärmung angegeben wird. Auch diese Größe variiert mit der Temperatur, kann aber über das hier relevante enge Temperaturintervall sicher als konstant angenommen werden. In der Realität wird das exponentielle Wachstum der spezifischen Luftfeuchtigkeit durch die logarithmische Temperaturreaktion auf dieses Wachstum ausgeglichen, und das IPCC (2013) schätzt, dass im mittleren Bereich alle anderen Rückkopplungen sich selbst aufheben. In der Realität gibt es wahrscheinlich nur ein geringes oder gar kein Wachstum der Einheitsrückkopplung unter den heutigen Bedingungen. Doch selbst falls man H = 1,2 annehmen würde, was deutlich über der Realität liegt, würde sich ECS kaum ändern.

4: Der anthropogene Antrieb ΔQ1 von 1850-2020 betrug 2,9 W/m², die Summe des 3,2 W/m² akkumulierten Treibhausgasantriebs und der 0,4 W/m² Ozon-, -0,8 W/m² Aerosol- und 0,1 W/m² Black-Carbon-Antriebe (NOAA AGGI; Gaudel+ 2020; Dittus+ 2020; IPCC 2001, S. 351).

5: Der anthropogene Anteil M der Erwärmung und des Strahlungsungleichgewichts von 1850-2020 betrug 0,7 (Wu et al., 2019; Scafetta 2021). Die Arbeit von Wu hat Gerald Meehl als Co-Autor.

6: Die vorübergehende Erwärmung T1 von 1850-2020 betrug 1,07 K (HadCRUT5: Morice et al. 2020). Basierend auf Wu et al. waren nur 70% davon, also 0,75 K, anthropogen bedingt.

7: Das Energieungleichgewicht ΔN1 der Erde von 1850-2020 berücksichtigt die Verzögerung des Einsetzens der Erwärmung nach einem Forcing. Schuckmann et al. (2020) geben die aktuelle Mainstream-Mittelwertschätzung 0,87 W/m².

Abb. 2: Die sieben Größen für die ECS-Gleichung

Mit diesen sieben Größen (Abb. 2), alle im mittleren Bereich, alle aktuell, alle aus klimatologischen Mainstream-Quellen, kann man nicht nur eine verlässliche mittlere Schätzung des beobachteten ECS direkt ableiten, ohne auf überkomplexe, unzureichend falsifizierbare und fehleranfällige Computermodelle zurückgreifen zu müssen, sondern auch die Vertretbarkeit des derzeit projizierten ECS-Intervalls 3,7 [2,0, 5,7] K (mittlerer Bereich Meehl et al., 2020; Grenzen Sherwood et al., 2020) falsifizieren. Die Berechnungen sind in Abb. 3 dargestellt. Diese einfache Tabelle bedeutet den Untergang für die Profiteure des Untergangs.

Abb. 3. ECS einfach gemacht. Die sieben Eingangsgrößen sind in grün dargestellt.

Wie es funktioniert: Seit 1850 haben wir nun angeblich 170 Jahre lang das Klima beeinflusst. Davor war unser Einfluss vernachlässigbar. Aus den sieben Größen in Abb. 2 lässt sich eine entscheidende Größe ableiten – die Einheitsrückkopplungs-Reaktion, die zusätzliche Erwärmung durch Rückkopplung pro Grad Referenzsensitivität. Damit lässt sich diese Reaktion für den Zeitraum von jetzt bis zur CO2-Verdoppelung mit Hilfe des Exponentialwachstumsfaktors H finden, woraus sich ECS ΔR1 ableiten lässt.

1850-2020: Die Periodeneinheit der Rückkopplungsreaktion U1 ist 1 kleiner als das Verhältnis der Gleichgewichtssensitivität ΔE1 zur Referenzsensitivität ΔR1: d. h. 1 kleiner als das Verhältnis der Periodenerwärmung einschließlich Rückkopplungsreaktion zur Periodenerwärmung ohne Rückkopplungsreaktion).

Die Perioden-Referenzsensitivität ΔR1, die direkte Erwärmung vor Hinzurechnung der Rückkopplung, beträgt 0,865 K, das Produkt aus dem Planck-Parameter 0,3 K W-1 m2 und dem anthropogenen Perioden-Antrieb ΔQ1 von 2,9 W/m².

Die Perioden-Gleichgewichts-Sensitivität ΔE1, die eventuelle Erwärmung, nachdem alle kurzzeitigen Rückkopplungen gewirkt haben und sich das Klima wieder im Gleichgewicht befindet, ist etwas komplizierter. Sie ist das Produkt aus zwei Ausdrücken: dem anthropogenen Anteil M ΔT1 der beobachteten vorübergehenden Erwärmung ΔT1 und dem Energie-Gleichgewichts-Verhältnis.

Das Energie-Ungleichgewichts-Verhältnis ist der periodische anthropogene Antrieb ΔQ1 geteilt durch die Differenz zwischen ΔQ1 und dem anthropogenen Anteil M ΔN1 des periodischen Energie-Ungleichgewichts der Erde ΔN1. Im Gleichgewicht gäbe es kein Energieungleichgewicht: der Divisor und der Dividend wären beide gleich ΔQ1. In diesem Fall wäre ΔE1 gleich M ΔT1. Besteht jedoch (wie derzeit) ein Energieungleichgewicht, wird es auch ohne weiteren Strahlungsantrieb nach 2020 zu einer weiteren Erwärmung kommen, so dass ΔE1 das Produkt aus M ΔT1 und dem Energieungleichgewichtsverhältnis ist: also 0,975 K.

Die Einheits-Rückkopplungs-Reaktion U1, die Rückkopplungs-Reaktion pro Grad der Perioden-Referenzempfindlichkeit, ist 1 kleiner als der Systemverstärkungsfaktor ΔE1 / ΔR1. Er beträgt nur 0,127. Vergleichen Sie diesen einfachen, aus Beobachtungen abgeleiteten Mittelwert mit dem Wert von 3,0, der in der folgenden Passage aus Lacis et al. (2010) impliziert ist, die die fehlerhafte offizielle Position zusammenfasst:

Nicht-kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die die gegenwärtigen Niveaus des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen“ (Lacis et al., 2010).

2020 auf verdoppeltes CO2:  Wie bei 1850-2020, so bei verdoppelter CO2-Konzentration im Vergleich zu den 415 ppmv im Jahr 2020, beginnen Sie mit der Periode die Referenzsensitivität ΔR2, die direkte Erwärmung vor der Addition jeglicher Rückkopplung. ΔR2 ist 1,054 K. Es ist das Produkt aus dem 0,3 K/Wm² (Planck-Parameter) und den 3,52 W/m² anthropogenen Periodenantrieb ΔQ2.

Als nächstes wird die Rückkopplung berücksichtigt, um ECS ΔE2 zu erhalten. Die Methode besteht darin, die Rückkopplungsreaktion U1 der Einheit 1850-2020 entsprechend dem Exponential-Wachstumsfaktor H zu erhöhen.

Das Einheits-Rückkopplungsverhältnis X ist gleich exp(P ΔQ2 ln H), d. h. exp(ΔR2 ln H), oder, einfacher, aber für Mathematik-Puristen anstößig, HΔR2, was 1,074 ist.

Die Einheitsrückkopplung U2 ist das Produkt aus U1 und X, d. h. 1,136.

ECS ΔE2 ist das Produkt aus der Referenzsensitivität ΔE2 auf verdoppeltes CO2 und dem Systemverstärkungsfaktor U2 + 1, d. h. 1,2 K. Nicht 3,7 K (CMIP6: Meehl et al. 2020). Nicht 3,9 K (CMIP6: Zelinka et al. 2020). Nur 1,2 K mittlere anthropogene globale Erwärmung als Reaktion auf verdoppeltes CO2, oder auf alle anthropogenen Antriebe über das gesamte 21. Jahrhundert. Kein großer „Klimanotstand“ also, oder?

Falsifizierung von ECS-Vorhersagen über das Rückkopplungsverhältnis X: Mit dem Wissen, dass die aus Beobachtungen abgeleitete Einheits-Rückkopplungs-Reaktion U1 für 1850-2020 0,127 betrug, ist es möglich, den Wert von XP abzuleiten, der in jeder ECS-Vorhersage ΔE2P impliziert ist: XP = (XP / ΔR2 – 1). Zum Beispiel impliziert der von Meehl et al. (2020) und Sherwood et al. (2020) vorhergesagte ECS von 3,7 [2,0, 5,7] K impliziert XP auf 20 [7, 35]. Selbst die untere Grenze X = 7 würde unhaltbar suggerieren, dass die Rückkopplungsreaktion pro Grad direkter Erwärmung nach 2020 das absurde Siebenfache der Rückkopplungsreaktion pro Grad vor 2020 beträgt. Der in mehreren extremen Arbeiten vorhergesagte High-End-ECS von 10 K ist noch unmöglicher und impliziert X = 67.

Die Unsicherheiten sind gering, da sich die Klimatologie inzwischen auf die Werte der sieben Schlüsselparameter geeinigt hat, die für die Ermittlung des ECS ausreichen. Würde man die 40 Jahre der etwas schnelleren Erwärmung von 1980-2020 als Berechnungsgrundlage nehmen, statt 1850-2020, würde der mittlere ECS auf nur 1,4 K steigen. Selbst falls die gesamte Erwärmung der Industriezeit anthropogen wäre, würde der ECS nur 2 K betragen, aber es wäre nicht mehr der mittlere ECS auf der Basis der aktuellen Mainstream-Daten.

Was sie falsch verstanden haben: Wie haben sich die Klimawissenschaftler dann jemals vorstellen können, dass die globale Erwärmung etwa dreimal so hoch sein würde, wie es die realen Beobachtungen, die sich in ihren neuesten Midrange-Daten widerspiegeln, einen unvoreingenommenen Untersucher erwarten lassen würden?

Klimamodelle verkörpern den Feedback-Formalismus nicht direkt. Ihre ECS-Vorhersagen spiegeln jedoch den Fehler wider, indem sie eine 2,4-mal höhere mittelfristige, anthropogene Erwärmung zeigen als während der letzten 30 Jahre beobachtet, und sie prophezeien das Dreifache der realistischen mittelfristigen ECS.

Im Jahr 2006, in Vorbereitung auf meinen ersten Artikel über die globale Erwärmung, schrieb ich an den verstorbenen Sir John Houghton, damals Vorsitzender der wissenschaftlichen Arbeitsgruppe des IPCC, um zu fragen, warum man dachte, dass die eventuelle globale Erwärmung etwa das Dreifache der direkten Erwärmung betragen würde. Er antwortete, dass der natürliche Treibhauseffekt – die Differenz zwischen der 255 K Emissions-Temperatur ohne Treibhausgase und der 287 K gemessenen Temperatur im Jahr 1850 – 8 K Referenzsensitivität auf Treibhausgase und 24 K Rückkopplungsreaktion darauf umfasste.

Es war diese Erwartung von 3 K Rückkopplung auf jeweils 1 K direkte Erwärmung, also insgesamt 4 K Erwärmung, die die Modellierer dazu brachte, 3 oder 4 K ECS im mittleren Bereich zu erwarten.

Die Klimatologen hatten vergessen, dass die Sonne scheint (Abb. 4). Was sie übersehen hatten, als sie Mitte der 1980er Jahre die Rückkopplungsformel aus der Regelungstheorie entlehnten war, dass die 24 K vorindustrielle Rückkopplungs-Reaktion nicht nur eine Antwort auf die 8 K direkte Erwärmung durch Treibhausgase war. Ein großer Teil dieser 24 K war eine Reaktion auf die 255 K Emissionstemperatur, die sich auf der Erde auch ohne Treibhausgase eingestellt hätte.

Abb. 4. Wie die Klimaforscher vergaßen, dass die Sonne scheint.

In Wirklichkeit war die vorindustrielle Referenztemperatur die Summe der 255-K-Emissionstemperatur und der 8-K-Referenzsensitivität für vorindustrielle Treibhausgase: also irgendwo in der Gegend von 263 K. Da die 255-K-Emissionstemperatur das 32-fache der 8-K-Referenzsensitivität für Treibhausgase ist, war ein erheblicher Teil der gesamten vorindustriellen Rückkopplungsreaktion von 24 K auf die erstere zurückzuführen, was den Anteil der letzteren entsprechend reduzierte.

Rückkopplung ist eine allgemein gültige Eigenschaft dynamischer Systeme (Systeme, die ihren Zustand mit der Zeit ändern), von elektronischen Schaltkreisen bis zum Klima. Falls und nur falls die gesamte vorindustrielle Referenztemperatur 8 K betrug und es überhaupt keine Rückkopplungsreaktion auf die Emissionstemperatur gab, wäre es zulässig, sich vorzustellen, dass die Rückkopplungsreaktion der Einheit so groß wie 3 war. Selbst dann würde nicht automatisch folgen, dass die Rückkopplungsreaktion der Einheit heute auch nur annähernd so groß wie 3 sein könnte.

Das IPCC wiederholte den Fehler in seinem Fünften Sachstandsbericht von 2013 (AR 5) und wird ihn in seinem bevorstehenden Sechsten Sachstandsbericht (AR 6) erneut begehen. Man definiert „Klima-Rückkopplung“ als Reaktion nur auf Störungen (fünfmal in der Definition erwähnt), schweigt aber über die weitaus größere Rückkopplungsreaktion auf die Emissionstemperatur selbst. Sie sollte ihre mehrtausendseitigen Berichte durch die einzige Monstergleichung (Abb. 5) ersetzen, die die schrittweisen Berechnungen in Abb. 3 zusammenfasst:

Abb. 5: Die Monster-ECS-Gleichung: einfacher, billiger, smarter als jedes Giganten-Klimamodell

Wären Sie bereit, Ihren Namen unter einen Bericht an das IPCC zu setzen, unter dessen Fehlerprotokoll, und es darüber zu informieren, dass ECS grob überbewertet wurde und um Korrektur bitten? Falls ja, kontaktieren Sie mich über das erste Wort meines Nachnamens [at] mail [dot] com und lassen Sie es mich wissen. Denn die neuesten Mainstream-Mitteldaten, auf die sich das IPCC zwangsläufig stützen muss, schließen die schnelle, gefährliche Erwärmung aus, die es so lange, so zuversichtlich, so gewinnbringend, aber so fehlgeleitet vorhergesagt hat.

Link: https://wattsupwiththat.com/2021/02/01/how-much-global-warming-should-ipccs-next-report-predict/

Übersetzt von Chris Frey EIKE

Anmerkungen des Übersetzers hierzu: Auch mit diesem Beitrag zeigt sich, dass Lord Monckton von einer Erwärmungswirkung durch CO2 aujsgeht – wenn gleich auch viel geringer als vom IPCC prophezeit. Nun mehren sich die Zweifel an einer solchen Wirkung immer mehr, was heißt, dass auch Lord Monckton irgendwo einem Trugschluss unterliegen muss. Vielleicht kann ein versierter Kommentator dazu etwas sagen?

 




Genaue Berichterstattung fällt wie Blätter im Herbst

Das gilt besonders dann, wenn die Geschichte mit Hilfe einer Pressemitteilung fabuliert wird, die von Journalisten wortwörtlich übernommen wurde. Vielleicht ist das einer der Gründe, warum so viele Kommentatoren über Klimafragen wie in einem Pamphlet schreiben. Sie verzerren, indem sie viel zu viel vereinfachen, und dann verstärken sie das, was übrig bleibt, über seine wahre Bedeutung hinaus und rechtfertigen es, weil sie eine Schlagzeile gesehen haben.

Natürlich habe ich ein aktuelles Beispiel dafür, und natürlich wird es durch den Guardian gut illustriert. Ihre jüngste Schlagzeile lautete „Climate Change: Crisis making autumn leaves fall earlier, study finds.“ Anderswo tauchte das auch auf, denn die Geschichte stammte aus einer Pressemitteilung, darunter „Inside Climate News“ (Pulitzer-Preis-gekrönte, überparteiliche Berichterstattung über die größte Krise unseres Planeten, heißt es darin ohne einen Hauch von Ironie).

Aus dem Guardian: „Die globale Erwärmung scheint die Bäume dazu zu bringen, ihre Blätter früher abzuwerfen, so eine neue Studie.“ Aus Inside Climate News: „Neue Forschungen zeigen, dass mit der Erwärmung des Planeten die Laubbäume in den gemäßigten europäischen Wäldern ihre Blätter früher abwerfen.“

Scheint einfach zu sein … bis man sich die Original-Forschung ansieht.

Hier ist der relevante Satz bezüglich des Herbstbeginns:

…Vorhersagen von einer zuvor erwarteten 2- bis 3-wöchigen Verzögerung für den Rest des Jahrhunderts reduzierten sich auf eine solche von 3 bis 6 Tagen.

Nun sehe man mir nach, wenn ich ein wenig pedantisch bin, wie es Wissenschaftler und Journalisten sein sollten, aber ein Vorrücken des Herbstes um 3-6 Tage in den nächsten 80 Jahren scheint mir etwas zu sein, das in den saisonalen Schwankungen ziemlich untergehen würde. Nehmen wir die untere Grenze von 3 Tagen Herbstvorlauf in 80 Jahren. Das ist etwa ein Tag alle 27 Jahre. Also wirklich! Können wir feststellen, ob der Herbst nach mehr als einem Vierteljahrhundert einen Tag früher beginnt? Könnten wir sagen, falls er zwei oder drei Tage früher beginnt?

Das ist so ziemlich alles, was es zu sagen gibt. Die Pointe passt nicht zu den Details. Die Schlagzeile „Study finds autumn leaves fall earlier“ gibt eine Nachricht wieder, während die Forschungsarbeit eine Zahl von Tagen bis zum Ende dieses Jahrhunderts angibt. Letzteres ist nicht messbar, ersteres ist irreführend.

Link: https://www.thegwpf.com/accurate-reporting-falls-like-leaves-in-autumn/

Übersetzt von Chris Frey EIKE

 




Enorme Luftmassen­gegensätze und Februar-Kälte 2021 in Teilen Deutschlands – wie unge­wöhnlich ist das?

Der Februar – ein Monats-Extremist?

Mit einer Standard-Abweichung seiner Monatswerte von 2,79 (DWD-Flächenmittel Deutschland 1881 bis 2020) weist der Februar die höchste Variabilität aller Monate des Jahres auf. Auch der seit 1881 wärmste (1990 mit +5,7°C) und die kältesten (1929/1956 mit etwa minus 9°C) fallen in den Februar, müssen sich den „Rekord“ aber mit dem Januar 1940 teilen. Grimmige Februar-Kälte kam immer mal wieder vor:

1929 froren die südliche Ostsee, das Wattenmeer und alle größeren Flüsse zu. Fischerei und Hafenwirtschaft kamen zum Erliegen, es gab ein Massensterben in der Tierwelt; und es wurde gebietsweise „Polarschnee“ beobachtet, welcher nur bei extremsten Minusgraden fällt. In den meisten Teilen Deutschlands herrschte an allen Februar-Tagen Dauerfrost – ein in unseren wechselhaften Wintern sehr seltenes Ereignis. Näheres hier. Ein (leider sehr schlechter) Wetterkarten-Abdruck von 1929 zeigt, warum es damals so kalt war – ein Skandinavien-Hoch hatte sich etabliert:

Abbildung 1: Bodenwetterkarte vom 12.02.1929. Zur Orientierung: Links oben Island, links unten Spanien, rechts unten das Schwarze Meer und das Hoch-Zentrum über Mittelskandinavien. In Deutschland verbreitet Frühtemperaturen von minus 20 bis unter minus 35 Grad. Bildquelle: Beilage 20/1998 zur Wetterkarte (Amtsblatt) des Deutschen Wetterdienstes.

In den 1940ern gab es drei sehr kalte Februare, letztmalig im Hungerwinter 1947.

1956 ähnelte – nach milder Vorwitterung, dem 1929er Februar, man versuchte verzweifelt, mit Dynamit die Eisdecke des Rheins zu sprengen.

1963 fror das einzige Mal im 20. Jahrhundert der Bodensee so zu, dass er gefahrlos betreten und teils gar befahren werden konnte („Seegfrörne“). Selbst in der klirrend kalten „Kleinen Eiszeit“ kam das nur gelegentlich vor.

1986 letztmalig extrem kalter Februar; danach waren die von 1991, 1996, 2003 und 2012 noch mäßig kalt.

Wissenswertes über Luftmassengrenzen

Was eine Luftmasse ist, wird hier und hier erläutert. Bewegt sich eine Luftmasse mehr oder weniger aktiv gegen eine andere, so spricht man von einer Front. Der etwas martialische Begriff entstand unter dem Eindruck des gerade beendeten 1. Weltkrieges sozusagen als „Nebenprodukt“ der in den 1920er Jahren veröffentlichten Polarfront-Theorie des genialen Mathematikers, Physikers und Pioniers der modernen Meteorologie, VILHELM BJERKNES. Es gibt Warm-, Kalt- und Mischfronten („Okklusionen“); alle bewegen sich meist mehr oder weniger zügig in eine Richtung; ein ortsfester Beobachter erlebt ihre diversen Wettererscheinungen (Winddrehung, Wolken, oft auch Niederschläge und mehr oder minder deutliche tageszeitunabhängige Temperaturänderung) meist nur für kaum eine bis wenige Stunden. Doch mitunter treffen zwei annähernd gleich starke Strömungen aufeinander; dann kann jede beliebige Wetterfront über einen Zeitraum von etwa einem bis zu Tagen oder gar Wochen, mehr oder weniger ortsfest werden – eine Luftmassengrenze ist entstanden. In den Tropen mit ihrer Passat- und Monsunzirkulation sind solche stabilen „Wettergrenzen“ sogar klimatisch relevant – bestes Beispiel ist die Innertropische Konvergenzzone, welche, je nach Sonnenstand, stets langsam um den Äquator pendelt; sie spielt auch eine wesentliche Rolle bei den dortigen Regenzeiten („Sommermonsun“). In unseren gemäßigten Breiten mit ihrem wechselhaften „Westwetter“ kommen Luftmassengrenzen eher selten, aber in allen Jahreszeiten vor; am Rande der Polargebiete, wo der Westwind der gemäßigten Breiten und der polare Ostwind aufeinander treffen, sind sie wieder häufiger zu beobachten.

Winterliche Luftmassengrenzen – besonders extrem?

Während im Sommer zwischen Tropen und Polarregion nur ein Temperaturgefälle von etwa 25°C herrscht, sind es im Winter etwa 50 Grad und mehr. Außerdem erwärmt die Sommersonne Kaltluftmassen in der bodennahen Schicht rasch, was den Temperaturunterschied zu subtropischer Warmluft oft stark verkleinert. Nur im Winter können, gerade in den gemäßigten Breiten und am extremsten in Nordamerika, enorme Temperaturunterschiede von manchmal weit mehr als 30°C auf weniger als 500 Km Distanz, entstehen („Blizzard-Lagen“). In Mitteleuropa mindern die relativ warmen Randmeere Ost- und Nordsee sowie die „Riegelstellung“ der Alpen und des Skandinavischen Gebirges zwar die Kontraste, doch sind auch hier schon Temperaturkontraste von um die 30°C auf kaum 500 Km Distanz beobachtet worden, was aber nur unter besonderen Umständen, welche gleich noch erklärt werden, möglich ist.

Luftmassengrenzen und Niederschläge

Ob und in welcher Intensität oder Form Niederschläge an Luftmassengrenzen fallen, hängt neben der Schärfe des Temperaturkontrastes vor allem auch von der Aktivität der Warmluft und der Lage der Luftmassengrenze zum nächsten Höhentrog ab. Liegt sie in der Nähe einer Trog-Vorderseite, so herrscht dort positive Vorticity (aufsteigende Luftbewegung) – die wichtigste Voraussetzung für Niederschläge. Diese Konstellation ist auch der Grund, warum bei den in den letzten Jahrzehnten so häufigen Großwetterlagen Tief Britische Inseln und Trog über Westeuropa Ostdeutschland niederschlagsmäßig benachteiligt war – es lag schon zu weit östlich der Trog-Vorderseite, die aufziehenden Wetterfronten liefen sich, ähnlich wie Wellen am Strand, mit zunehmender Entfernung zum Trog regelrecht tot. Luftmassengrenzen rückseitig eines Troges oder gar unter Hochdruckeinfluss erzeugen meist nur etwas Sprühregen oder Schneegriesel; häufig entsteht an diesen jedoch Nebel und Hochnebel. An einer „idealen“ Luftmassengrenze wie der zu Silvester 1978 konnten (von Süd nach Nord) alle Niederschlagsformen Regen, Gefrierender Regen, Eisregen (Eiskörner) und Schnee, beobachtet werden. Der Gefrierende Regen und der Eisregen setzen aber auf der Südseite eine sehr milde Luftmasse (mS oder wenigstens mPs) voraus, welche beim bodennahen Vordringen der Kaltluft noch eine Weile in mittleren Luftschichten verbleibt. Da besonders die Subtropikluft (meist mS) mehr oder weniger schnell durch Okklusion „verbraucht“ und durch mPs oder gar mP ersetzt wird, fallen die Niederschläge meist im Laufe der Zeit überall als Schnee und nehmen gegen Ende, wenn sich die Kaltluft südwärts durchsetzt, meist auch an Intensität stark ab. Erwähnenswert ist aber noch die orographische Verstärkung der Niederschläge an den Nordostseiten der Berge; außerdem sind im Ost-und Nordseeraum extreme Schneemengen nicht durch die Hebungsvorgänge an der Luftmassengrenze selbst, sondern durch Labilisierung der über das relativ warme Wasser wehenden Kaltluft möglich. Im Gebiet der Großen Seen wird dieses dort häufige Phänomen der schauerartig verstärkten Schneefälle als „Lake Effect Snow“ bezeichnet. In den letzten gut 40 Jahren, also seit dem Extremwinter 1978/79, zeigt sich auch keine auffällige Zunahme der Niederschläge bei Grenzwetterlagen. Gerade die sehr trockenen Regionen Ostdeutschlands sind auf diese Grenzlagen mit ihren oft reichen Niederschlägen dringend angewiesen.

Abbildung 2: Boden- und Höhenkarte vom 14.02.1979, Mittag. Man erkennt den zur südwestlichen Nordsee gerichteten Höhentrog, an dessen Vorderseite (Norddeutschland) Hebung und damit starke Niederschläge begünstigt wurden – die zweite Schneekatastrophe des Winters 1878/79. Bildquelle: wetterzentrale.de, ergänzt.

Extreme Luftmassengrenzen – nur mit bestimmten Zutaten und bei genügend Entwicklungszeit?

Eine Luftmassengrenze über Deutschland kann auch entstehen, wenn die Strömungen eines jeweiligen Hochs über West- und Nordosteuropa in Deutschland aufeinander treffen; aber sie wird dann nie extrem sein. Das westliche Hoch lenkt eher gemäßigte Luft (mP, mSp) heran, das östliche zwar mitunter kalte Festlandsluft (cP), aber der extrem eisigen Nordluft (cA oder xA) ist wegen der dort herrschenden Ost- bis Südostströmung der kürzeste Weg nach Deutschland versperrt:

Abbildung 3 : Wetterlage vom 21. Januar 2006. Das über Norddeutschland liegende Tief trennte mäßig milde Luft (meist mP) im Westen von sehr kalter kontinentaler Subpolarluft im Osten und ging mit nur leichten Schnee- und Regenfällen einher. Diese Lage hatte schon am 17./18. Januar begonnen; und erst am 22. Januar setzte sich überall die Kaltluft durch. Bildquelle: wetterzentrale.de

Das folgende Beispiel der Februar-Situation 2021 zeigt die erforderliche Konstellation für eine scharfe Luftmassengrenze:

Abbildung 4: Vorhersagekarte des GFS für den 6. Februar 2021, 12 Uhr (entspricht der dann eingetretenen Realität weitgehend). Am Rande einer kräftigen, von der Arktis und Grönland nach Südskandinavien reichenden Hochs strömt Arktikluft (cA und xA) direkt in den Ostseeraum. Gleichzeitig gelangte Warmluft aus dem Mittelmeerraum nach Südwestdeutschland; dort setzte sich die Kaltluft zuletzt durch. Entlang der Luftmassengrenze schneite es über der Mitte Deutschlands stark. Bildquelle wetterzentrale.de; ergänzt.

Eine Sichtung der seit 1979 verfügbaren Wetterkarten ergab für fast alle markanten Luftmassengrenzen ein ähnliches Schema wie in Abbildung 4, nämlich als Ausgangspunkt eine oft südliche Westlage bei gleichzeitigem Aufbau eines Hochs über dem Nordmeerraum. Die südliche Westlage ermöglicht es, dass sich nicht zu starke Teiltiefs vom Atlantiktief lösen und Richtung Deutschland ziehen. Sie „liefern“ auf ihrer Südseite die Warmluft und saugen gleichzeitig auf ihrer Nordseite die an der Ostflanke des Hochs zur Ostsee gelangte Arktikluft an. Aber nur, wenn sich dieser Prozess mittels mehrerer Tiefs einige Male über Tage oder gar Wochen wiederholt, entsteht der enorme Temperaturkontrast, denn es braucht Zeit zur Entwicklung des nordöstlichen Kältereservoirs und zur wenigsten leichten Abkühlung der Randmeere. Besonders anhand der Grenzwetterlage 1978/79 und der aktuellen vom Januar/Februar 2021 lässt sich diese Tatsache gut belegen – leichte Variationen inbegriffen.

Die Silvester-Lage von 1978/79 und deren „Schwestern“

In Internet und Literatur finden sich haufenweise Berichte über den „Silvester-Blizzard“ des Jahreswechsels 1978/79. Doch weniger bekannt ist: Es gab knappe 14 Tage eher einen schwachen „Vorläufer“, welcher das Hauptereignis quasi ankündigte und vorbereitete, und mit dem Blizzard Mitte Februar 1979 einen folgenschweren Nachfolger (erneutes Schnee-Chaos über Norddeutschland). Im Folgenden einige Wetterkarten dazu:

Abbildungen 5a bis d: Von oben: 5a: Bodenkarte vom 16.12.1978, 13 Uhr, „Vorläufer“ des Silvester-Blizzards im Advent. Luftmassengrenze (langsam südwärts ziehende Kaltokklusion) über Mitteldeutschland, südlich davon in mPs 4 bis 9 Plusgrade, nördlich xP, bei Schneefall um 0°C. Ganz im Nordosten eine weitere Kaltfront, dahinter xA. 5b: Einen Tag vor Silvester hatte sich die Luftmassengrenze des „Großen Blizzards“ schon voll entwickelt – cA im Norden trifft direkt auf mPs im Süden; Temperaturkontraste über Deutschland fast 30°C. Man achte auf die „Zutaten“: Großes Hoch im Nordmeer-Raum und die kleinen Tiefdruckgebiete etwa entlang des 50. Breitengrades. 5c: Bodenkarte des Februar-Blizzards von 1979. Ganz ähnliche Struktur wie Abb. 5a, aber viel schärfere Temperaturkontraste. 5d: Europa-Höhenwetterkarte zum Februar-Blizzard; man achte wieder auf Nordmeer-Hoch und die Kette der Tiefs im Süden. Bildquellen: Berliner Wetterkarten vom 16. und 30.12.1978 sowie vom 14.02.1979, ergänzt.

Chronik einiger Grenzwetterlagen nach 1979

Hier können – da sonst zu umfänglich – nicht alle Ereignisse erwähnt werden. Es wird auf das Wetterkartenarchiv bei wetterzentrale.de verwiesen.

Anfang Februar 1980 schwächere Grenzlage mit intensiven Schneefällen über Norddeutschland; letztendlich setzte sich die Warmluft durch.

Im schneereichen Dezember 1981 mehrere Ereignisse zur Monatsmitte und an Weihnachten.

Zum Jahresauftakt 1987 markante Grenzwetterlage; sie leitete einen sehr kalten Januar ein.

Anfang Dezember 1988 Grenzwetterlage mit ergiebigem Schnee und Eisregen; es folgte Tauwetter und ein sehr milder Winter.

1994 beendete eine Grenzwetterlage mit Schneefällen um den 24.02. eine kurze Kälteperiode.

Anfang Januar 2003 leitet eine Grenzwetterlage eine kürzere Kälteperiode ein.

Kürzere Grenzwetterlage um den 10. März 2006; sie leitete die letzte Phase des „Märzwinters“ in diesem Kälte-März ein.

Zum Jahreswechsel 2009/10 markante Luftmassengrenze mit Schnee und Eisregen; es folgt der kalte, schneereiche Januar 2010.

Im Winter 2012/13 teils schneereiche Grenzwetterlagen im Dezember und März.

Um den 20. Januar 2014 schwächere Grenzwetterlage im ansonsten sehr milden Winter.

Erste Januar-Dekade 2016 schwächeres Ereignis mit gebietsweisem Eisregen.

Ende Januar/Anfang Februar 2021 markantestes Grenzwetter-Ereignis seit 1979, bei „pendelnder“ Luftmassengrenze über eine Woche anhaltend, bauten sich, beginnend mit dem 28. Januar, starke Temperaturkontraste zwischen dem kalten Nordosten und dem teils extrem milden Südwestdeutschland, auf, welche zeitweilig gut 15°C erreichten; teils ergiebige Schnee-, Regen- und vereinzelt Eisregenfälle. Der in Weimar am 6./7. Februar gefallene Schnee hatte einen leicht gelb-grauen Farbton – er enthielt Sahara-Staub, ein eindeutiger Beleg für die Beteiligung einer subtropischen Luftmasse an diesen Niederschlagsprozessen.

Ursachen der Grenzwetterlagen und der strengen Winterkälte 2021

Sie sollen hier nur kurz erwähnt werden. Wie die vorangehende Aufzeichnung belegt, können Grenzwetterlagen auch in sonst milden, Westlagen-dominierten Wintern auftreten, wahrscheinlicher sind sie aber in solchen mit gestörten Zirkulationsverhältnissen. Neben Störungen in der Stratosphäre (Polarwirbel geschwächt, gesplittet oder gar massive, winterliche Stratosphären-Erwärmung) richtet sich der Blick stets auf die NAO, eine „Luftdruckschaukel“ zwischen Azoren-Hoch und Islandtief (positive NAO-Werte bedeuten oft eine Begünstigung, negative oft eine Schwächung oder gar eine Blockierung der Westlagen – ein Hoch nimmt dann den „Platz“ des Island-Tiefs ein) – wie wir sahen, eine der wichtigsten Voraussetzungen für intensive Luftmassengrenzen. Der Polarwirbel, im Dezember 2020 noch intakt und kräftig, war im Januar 2021 deutlich gestört. Und die NAO bewegte sich im Dezember leicht, im Januar deutlich im negativen Bereich:

Abbildung 6: Überwiegend negative NAO-Werte zwischen Dezember 2020 und Anfang Februar 2021. Im Dezember hatte das, wegen der häufigen Südlagen, keine negativen Temperaturauswirkungen; ab Januar stellte sich dann zunehmende Kälte ein.

Als Ursache dieser markanten Zirkulationsstörungen kommt unter anderem die momentan sehr geringe Sonnenaktivität in Betracht. Der im Vorjahr begonnene 25. SCHWABE-Zyklus schien im Spätherbst 2020 mit einer deutlichen Zunahme der Sonnenflecken-Zahlen an Dynamik zu gewinnen; doch im Laufe der folgenden Monate waren kaum noch Sonnenflecken zu beobachten.

Stefan Kämpfe, Diplom-Agraringenieur, unabhängiger Natur- und Klimaforscher

Redaktionsschluss für diesen Beitrag: 7. Februar 2021




Das Scheitern der Klimamodelle

Abbildung 1: Ergebnisse der CMIP5-Klimamodelle im Vergleich mit Messungen von Wetterballonen (grün). Einzelheiten dazu, warum die Modelle statistisch so falsch sind, können in einer Studie von McKitrick und Chroisty (2018) nachgelesen werden.

In der nächsten Graphik werden die Ergebnisse der neueren CMIP6-Modelle sowohl mit den Ballondaten (hellgrün) als auch mit den Daten der Wetter-Reanalyse (dunkelgrün) verglichen:

Abbildung 2: Modellergebnisse der CMIP6-Modelle im Vergleich zu den Mess-/Beobachtungsdaten.

Die Differenz zwischen den Modell-Simulationen und den Beobachtungen ist statistisch signifikant und zeigt, dass die Modelle unsinnig sind. Ebenso signifikant ist, dass diese Differenz bei den CMIP6-Modellen noch größer ist als bei CMIP5. Folglich zeigen die neueren Modelle noch weniger Übereinstimmung mit der Realität als sein Vorgänger. „Houston, wir haben ein Problem!“

Link: https://wattsupwiththat.com/2021/02/02/climate-model-failure/

Übersetzt von Chris Frey EIKE




Neuer Report: Behauptungen bzgl. eines Klima-„Notstandes“ werden durch Daten der realen Welt fundamental ad absurdum geführt

„Fast überall, wo man hinschaut, hat der Klimawandel nur geringe und oft harmlose Auswirkungen. Die Auswirkungen von extremen Wetterereignissen – Hurrikanen, Tornados, Überschwemmungen und Dürren – sind rückläufig. Die wirtschaftlichen Schäden sind im Verhältnis zum globalen BIP zurückgegangen. Die Todesraten durch solche Ereignisse sind seit den 1920er Jahren um 99 % gesunken. Klimabedingte Krankheiten haben abgenommen. Und es sterben mehr Menschen durch Kälte asls durch Wärme.“

Und selbst der Anstieg des Meeresspiegels – der als die schädlichste Auswirkung der globalen Erwärmung vorhergesagt wird – scheint ein weitaus geringeres Problem zu sein als angenommen. Laut Dr. Goklany haben Überprüfungen von historischen Karten und Satellitenbildern gezeigt, dass die Orte, die längst verschwunden sein sollten, tatsächlich noch vorhanden sind.

„Eine aktuelle Studie hat gezeigt, dass die Erde in den letzten 30 Jahren in den Küstengebieten tatsächlich mehr Land gewonnen hat, als sie durch den Anstieg des Meeresspiegels verloren hat. Wir wissen jetzt mit Sicherheit, dass Korallenatolle nicht verschwinden und sogar Bangladesch durch Verschlickung mehr Land gewinnt als es durch den Anstieg des Meeresspiegels verliert.“

Empirische Daten zeigen auch, dass die Nahrungsmittelproduktion pro Kopf seit 1961 um 30% gestiegen ist, obwohl sich die Weltbevölkerung mehr als verdoppelt hat. Hunger und Unterernährung sind zurückgegangen, die durch Waldbrände verbrannte Fläche ist zurückgegangen, und seit 1950 ist die Armut zurückgegangen, die Menschen sind wohlhabender und die globale Lebenserwartung ist von 46 auf 73 Jahre gestiegen.

Dr. Goklanys Arbeit Impacts of Climate Change: Perception and Reality wurde von der Global Warming Policy Foundation veröffentlicht und kann hier heruntergeladen werden (pdf).

Autor: Indur M. Goklany is an independent scholar and author. He was a member of the US delegation that established the IPCC and helped develop its First Assessment Report. He subsequently served as a US delegate to the IPCC, and as an IPCC reviewer.
Link: https://www.thegwpf.com/new-report-climate-emergency-claims-falsified-by-real-world-data/

———————————–

Aus der oben verlinkten und unten Studie werden im Folgenden Auszüge übersetzt, und zwar die Abschnitte The Standard Narrative, Discussion und Conclusion. A. d. Übers.

Auswirkungen des Klimawandels: Gefühl und Realität

Indur M. Goklany

1.The Standard Narrative

Das Standard-Narrativ in Bezug auf den Klimawandel, wie es in den Zitaten [der Studie vorangestellt, A. d. Übers.] von einigen der einflussreichsten Personen und Institutionen der Welt dargestellt wird ist, dass der Klimawandel bereits die Häufigkeit und Intensität von extremen Wetterereignissen (EWEs) und Flächenbränden erhöht, das Trinkwasser und die Ernteerträge knapp werden, Krankheiten, Hunger, Armut und die menschliche Sterblichkeit erhöht und die Produktivität der Biosphäre und den verfügbaren Lebensraum für Arten reduziert. Es wird behauptet, dass diese und andere Auswirkungen des Klimawandels das Wohlergehen von Mensch und Umwelt beeinträchtigen und weiter verringern werden, wenn nicht „drastische Maßnahmen ergriffen werden, um so schnell wie möglich null Netto-Treibhausgasemissionen zu erreichen“.

In diesem Papier wird untersucht, ob die Daten zu Klima-relevanten Indikatoren mit diesem Narrativ übereinstimmen. Insbesondere werden empirische Trends bei Extremereignissen, Flächenbränden, Wasserverfügbarkeit, Infektionskrankheiten und einige Indikatoren für das menschliche und ökologische Wohlergehen, wie wirtschaftliche Entwicklung, Armutsraten, Lebenserwartung, biologische Produktivität und Anbaufläche pro Kopf untersucht. Da der Klimawandel ein globales Phänomen ist, konzentriert sich die Studie in erster Linie auf Indikatoren auf der globalen Ebene. Es werden aber auch Trends für die USA, in geringerem Maße für China und Indien (die zusammen mehr als ein Drittel der Menschheit ausmachen), und, soweit verfügbar, aggregierte Daten aus Entwicklungsländern oder Ländern mit niedrigem Einkommen untersucht. Allerdings sollte man sich darüber im Klaren sein, dass die Existenz eines Trends in einem Land (oder einem Teil des Globus) nicht auf einen globalen Trend hindeutet.

Da der Klimawandel nicht mit Schwankungen des Wetters verwechselt werden darf, liegt der Schwerpunkt zudem auf langfristigen Trends. Idealerweise sollte die untersuchte Zeitreihe lang genug sein, um erstens eine Veränderung des Klimas zu erfassen. Das Klima wird oft in Form von 30-Jahres-Mittelwerten definiert. Er sollte also lang genug sein, um mindestens zwei sich nicht überschneidende 30-Jahres-Perioden zu definieren. Zweitens sollte er auch mindestens eine, wenn nicht mehrere, vollständige Perioden umfassen, die alle bedeutenden atmosphärischen oder ozeanischen Zyklen einschließen, die das Phänomen für die untersuchte Region signifikant beeinflussen könnten. Beispielsweise hat die Atlantische Multidekadische Oszillation, die laut Theorie Niederschläge und Dürren auf beiden Seiten des Atlantiks sowie die Hurrikan-Aktivität im nordatlantischen Becken beeinflussen kann, einen Zeitraum von 60-80 Jahren. Daher sollte die zeitliche Aufzeichnung zur Bestimmung von Trends für diese Region idealerweise lang genug sein, um einige dieser Perioden zu umfassen.

Discussion

Ich habe empirische Trends untersucht in: einer Vielzahl von klima- und wetterbezogenen Phänomenen; allgemein akzeptierte Indikatoren für das Wohlbefinden von Mensch und Umwelt, um zu überprüfen, ob sie sich im Laufe der Zeit aufgrund höherer atmosphärischer Kohlendioxid-Konzentrationen (und des daraus resultierenden Klimawandels) verschlechtern, wie es allgemein angenommen wird. Die Ergebnisse sind in den Tabellen 5 bzw. 6 zusammengefasst. Sie zeigen, dass mit Ausnahme der Tatsache, dass die heißen Tage zugenommen haben, während die kalten Tage abgenommen haben, keiner der Trends mit der verbreiteten Empfindung übereinstimmt. Hinsichtlich der Wetter- und Klimaphänomene (Tabelle 5):

Wirbelstürme, Tornados, Überschwemmungen und Dürreperioden werden nicht schlimmer;

Flächenbrände sind weniger ausgedehnt als früher;

die Getreideerträge und die Nahrungsmittelversorgung sind gestiegen;

Küstenränder und Strände sind nicht geschrumpft.

Klima und Wetter: Standard-Narrativ vs. Realität

Hinsichtlich des menschlichen Wohlergehens (Tabelle 9.2):

Die Sterblichkeit und die wirtschaftlichen Verluste durch extreme Wetterereignisse sind zurückgegangen;

der Zugang zu sauberem Wasser ist gestiegen;

Todesraten durch klima- und wetterabhängige, durch Bakterien/Viren übertragene und parasitäre Krankheiten sind zurückgegangen.

Am wichtigsten ist, dass mit dem Anstieg der Kohlendioxid-Emissionen seit Beginn der industriellen Revolution praktisch jeder messbare und signifikante objektive Indikator für das menschliche Wohlergehen gestiegen ist:

Lebenserwartung und Einkommensniveau haben sich verbessert;

das Armutsniveau ist gesunken;

die Menschen leben länger und gesünder;

der Index der menschlichen Entwicklung hat sich praktisch überall verbessert.

Es gibt auch keine Anzeichen für eine anhaltende Trendwende bei diesen Indikatoren in jüngster Zeit, obwohl es von Jahr zu Jahr geringfügige Schwankungen gibt. Diese Ergebnisse bestätigen die Erkenntnisse mehrerer früherer Studien, die entgegen den vorherrschenden dystopischen Erzählungen festgestellt haben, dass sich der Zustand der Menschheit seit Beginn der industriellen Revolution verbessert hat und sich bis in die Gegenwart hinein weiter verbessert, die Armut nimmt ab und die globale Ungleichheit verringert sich in Bezug auf die Einkommen und kritische Indikatoren für das menschliche Wohlbefinden: Lebenserwartung, Index der menschlichen Entwicklung und Zugang zu sauberem Wasser.

Was den Rest der Natur betrifft, so ist die Erde grüner und produktiver. Die gesteigerte Landproduktivität – eine Folge der Nutzung fossiler Brennstoffe – bedeutet, dass die Fläche, die für die menschliche Nutzung umgewandelt wurde, um das Jahr 2000 herum ihren Höhepunkt erreichte. Ohne fossile Brennstoffe müsste die Anbaufläche deutlich zunehmen, um die aktuelle Nahrungsmittelproduktion aufrechtzuerhalten. Somit haben fossile Brennstoffe den Verlust von Lebensraum um mindestens 14 % der globalen Landfläche reduziert und zahlreiche Arten und Ökosysteme gerettet. Diese Tatsache widerlegt die Behauptung, dass fossile Brennstoffe schädlich für die Artenvielfalt und Ökosysteme sind.

Conclusion

Das Klima mag sich zwar zum Wärmeren verändert haben:

Die meisten extremen Wetterphänomene sind nicht extremer, tödlicher oder zerstörerischer geworden.

Empirische Beweise widersprechen direkt den Behauptungen, dass erhöhtes Kohlendioxid das menschliche Wohlergehen verringert hat. Tatsächlich war das menschliche Wohlergehen noch nie so hoch.

Welche schädlichen Auswirkungen die Erwärmung und der höhere Kohlendioxidgehalt auch immer auf terrestrische Arten und Ökosysteme gehabt haben mögen, sie wurden durch den Beitrag der fossilen Brennstoffe zur Steigerung der biologischen Produktivität überlagert. Dies hat den Lebensraumverlust gestoppt und ins Gegenteil verkehrt.

Übersetzt von Chris Frey EIKE