Der nationale Temperatur-Index der USA – beruht er auf Daten oder auf Korrekturen?

GHCN-Daily enthält die qualitäts-geprüften Rohdaten, die anschließend korrigiert und dann zum Auffüllen von GHCN-Monthly, einer Datenbank mit Monatsdurchschnittswerten, sowohl roh als auch endgültig, verwendet werden. Am 10. Oktober 2020 habe ich Version 4.0.1 der GHCN-Monats-Datenbank heruntergeladen. Zu diesem Zeitpunkt zählte sie weltweit 27.519 Stationen, und 12.514 (45%) davon befanden sich in den Vereinigten Staaten, einschließlich Alaska und Hawaii. Von den 12.514 US-Stationen befanden sich 11.969 in „CONUS“ [= CONtinental USA], den zusammen hängenden 48 Bundesstaaten. Die aktuelle Stationsabdeckung ist in Abbildung 1 dargestellt.

Abbildung 1. Die Abdeckung durch die GHCN-Wetterstation in den Vereinigten Staaten ist sehr gut, mit Ausnahme von Nordalaska. Es gibt zwei Stationen im westlichen Pazifik, die nicht abgebildet sind.

Wir haben mehrere Fragen zur landgestützten Temperaturaufzeichnung, die die langfristige (~170 Jahre) globale Temperaturaufzeichnung dominiert. Die landgestützten Messungen dominieren, weil die Angaben zur Temperatur über den Ozeanen sehr spärlich sind, bis etwa 2004 bis 2007, als das ARGO-Netzwerk von Bojen vollständig genug war, um gute Daten zu liefern. Aber sogar noch 2007 war der Gitterfehler an der Meeresoberfläche größer als die festgestellte Erwärmung des Ozeans.

Erwärmung der Ozeane

Wir haben geschätzt, dass sich die 71% der Erdoberfläche bedeckenden Ozeane mit einer Rate von 0,4°C pro Jahrhundert erwärmen, basierend auf dem in Abbildung 2 gezeigten linearen Trend der kleinsten Quadrate. Dies ist eine sehr grobe Schätzung und beruht nur auf Daten aus den Jahren 2004 bis 2019 und auf Temperaturen aus den oberen 2.000 Metern der Ozeane. Die Daten vor 2004 sind so spärlich, dass wir sie nicht verwenden wollten. Der Fehler in dieser Schätzung beträgt etwa ±0,26°C von der Oberfläche bis 2.000 Meter, und darunter ist er unbekannt.

Die Argo-Messungen der Meerestemperatur der oberen 2.000 Meter ergeben eine ziemlich konstante Temperatur von 2,4°C. Wir nahmen also eine Temperatur von 0,8°C bei einer durchschnittlichen Meerestiefe von 3.688 Metern und darunter an. Im Zusammenhang damit liegt der Gefrierpunkt des Meerwassers bei 2900 PSI (etwa 2.000 Meter oder 2.000 Dezibar) bei -17°C. Der Wert von 0,8°C stammt aus tiefen Argo-Daten, wie sie von Gregory Johnson und Kollegen beschrieben wurden (Johnson, Purkey, Zilberman, & Roemmich, 2019). Es gibt nur sehr wenige Messungen von Tiefsee-Temperaturen, und jede Schätzung weist erhebliche mögliche Fehler auf (Gasparin, Hamon, Remy, & Traon, 2020). Die Anomalien in Abbildung 2 basieren auf diesen Annahmen. Die berechneten Temperaturen wurden aus dem Mittelwert der Ozeantemperaturen von 2004 bis 2019 in Anomalien umgerechnet. Die zur Erstellung von Abbildung 2 verwendeten Daten stammen aus Jamstec. Ein R-Programm zum Lesen und Plotten der Jamstec-Daten kann hier heruntergeladen werden, die Zip-Datei enthält auch eine Tabellenkalkulation mit weiteren Details. Unsere Berechnungen gehen von einer durchschnittlichen Gesamttemperatur des Ozeans im Zeitraum 2004-2019 von 4,6°C aus.

Abbildung 2. Eine Darstellung des globalen Rasters der Ozeantemperaturen von JAMSTEC. Es ist hauptsächlich aus ARGO-Floats und Triton-Bojendaten aufgebaut. Jamstec ist die Quelle des Gitters, das zur Berechnung dieser Anomalien verwendet wird.

Die beobachtete Erwärmung der Ozeane ist keineswegs alarmierend und ziemlich linear und zeigt keine Anzeichen einer Beschleunigung. Die Ozeane enthalten 99,9% der thermischen Energie („Wärme“) auf der Erdoberfläche, die Atmosphäre enthält den größten Teil des Rests. Dies erschwert es der Erdoberfläche, sich sehr stark zu erwärmen, da die Ozeane als Wärmeregulator wirken. Verschiedene Berechnungen und Konstanten bezüglich der in den Ozeanen und der Atmosphäre gespeicherten Wärme finden Sie in einer Tabelle, die ich hier vorbereitet habe. Referenzen sind in der Tabelle enthalten. Die Ozeane steuern die Erwärmung mit ihrer hohen Wärmekapazität, d.h. mit der Menge an thermischer Energie, die erforderlich ist, um die durchschnittliche Temperatur der Ozeane um ein Grad zu erhöhen. Die Wärmeenergie, die benötigt wird, um die Temperatur der Atmosphäre um 1000 Grad C zu erhöhen, würde die durchschnittliche Meerestemperatur nur um ein Grad erhöhen.

Ich erwähne dies nur, weil die landgestützten Wetterstationen uns zwar wertvolle Informationen über das Wetter liefern, aber nur sehr wenig über den Klimawandel. Längerfristige Veränderungen des Klimas erfordern viel mehr Informationen über die Erwärmung der Ozeane, als uns derzeit zur Verfügung stehen. Dennoch wollen wir die in den Vereinigten Staaten gesammelten GHCN-Daten einmal unter die Lupe nehmen.

Die GHCN-Stationsdaten

In den USA und im Rest der Welt machen die landgestützten Wetterstationen den größten Teil der durchschnittlichen Temperaturaufzeichnungen des 19. und 20. Jahrhunderts aus. Es ist wichtig zu wissen, wie genau sie sind und welchen Einfluss die Korrekturen haben, die in Bezug auf die beobachtete Erwärmung angewendet werden. Es ist viel Arbeit geleistet worden, um Probleme mit den landgestützten Daten zu dokumentieren. Anthony Watts und Kollegen dokumentierten 2011 mit ihrem Projekt für Landstationen zahlreiche Probleme mit der Stationsauswahl und -ausrüstung. Wichtige Informationen zu dieser Studie von John Neison-Gammon können hier und hier eingesehen werden. Die Veröffentlichung im Journal of Geophysical Research finden Sie hier. Viele der radikalen Veränderungen im US-Temperaturindex der NOAA und in der zugrunde liegenden Datenbank im Zeitraum zwischen 2009 und 2014 sind auf die Arbeit von Watts und seinen Kollegen zurückzuführen, die von Matthew Menne von der NOAA in seinem Einführungspapier zur Version 2 des U.S. Historical Climatology Network (USHCN) beschrieben wurde:

Darüber hinaus gibt es Hinweise darauf, dass ein großer Teil der HCN-Standorte in Bezug auf die vom U.S. Climate Reference Network verwendeten Standortklassifizierungskriterien schlechte Bewertungen haben (persönliche Mitteilung von A. Watts 2008; siehe auch www.surfacestations.org)“. (Menne, Williams, & Vose, 2009)

Menne, et al. bestätigten Watts und Kollegen in ihrem Einführungspapier zum überarbeiteten USHCN-Stationsnetz, was darauf hindeutet, dass das Projekt der Oberflächenstationen ein wichtiger Grund für die Revision war. USHCN war eine qualitativ hochwertige Teilmenge des gesamten Wetterstationsnetzes des Cooperative Observer Program (COOP) der NOAA). Die USHCN-Stationen wurden laut Matthew Menne auf der Grundlage ihrer räumlichen Abdeckung, Aufzeichnungslänge, Datenvollständigkeit und historischen Stabilität ausgewählt. Zur Bereinigung der ausgewählten Aufzeichnungen wurde eine Reihe von Qualitätskontrollprüfungen und Korrekturen entwickelt, die in den Veröffentlichungen von Matthew Menne und Kollegen beschrieben sind. Aus der Hauptstudie stammt das Zitat oben, aber er schrieb auch einen Beitrag zur Beschreibung ihres paarweisen Homogenisierungs-Algorithmus, abgekürzt „PHA“ (Menne & Williams, 2009a). Stationen mit Problemen, wie sie von Watts u.a. gefunden und dokumentiert worden waren, wurden aus USHCN entfernt. Infolgedessen schrumpften die ursprünglichen 1218 USHCN-Stationen bis 2020 auf ~832. Die abgebauten Stationen wurden nicht ersetzt, die Werte wurden statistisch anhand von Daten benachbarter Stationen „aufgefüllt“.

Anfang 2014 wurde die Teilmenge USHCN als Quelldaten für den Nationalen Temperaturindex aufgegeben und durch eine gerasterte Version von GHCN ersetzt, aber die für USHCN entwickelten Korrekturen wurden beibehalten. Sie wurden nur auf alle 12.514 U.S.-GHCN-Stationen angewandt und nicht auf die kleinere USHCN-Untermenge von 1.218 Stationen (oder weniger).

NOAA scheint dem in einer anderen Webseite über GHCN-Daily-Verfahren zu widersprechen. Auf dieser Seite heißt es, dass GHCN-Daily keine Anpassungen für historische Stationsänderungen oder tageszeitliche Verzerrungen enthält. Aber sie merken an, dass GHCN-Monthly dies tut. Es scheint also, dass die Korrekturen nach der Extraktion der täglichen Daten und während der Erstellung des monatlichen Datensatzes vorgenommen werden. Die NOAA manipuliert die GHCN-Tagesrohdaten nicht, aber wenn sie sie extrahieren, um den GHCN-Monatsdatensatz zu erstellen, wenden sie einige dramatische Korrekturen an, wie wir sehen werden. Einige NOAA-Webseiten weisen darauf hin, dass die Korrekturen der Tageszeitverzerrung für spätere Versionen von GHCN-Monatlich entfallen sind, aber die meisten sagen ausdrücklich, dass sie immer noch verwendet werden, so dass wir annehmen, dass genau das immer noch der Fall ist. Eine der beunruhigendsten Erkenntnisse war, wie oft und wie radikal die NOAA ihre „Korrektur“-Verfahren zu ändern scheint.

Die Entwicklung des US-Temperaturindex‘

Der aktuelle US-amerikanische „National Temperature Index“ bezieht Daten aus den Fünf-Kilometer-Rastern des GHCN-Monatsdatensatzes. Der monatliche gerasterte Datensatz wird nClimGrid genannt und besteht aus einem Satz von Kartengittern und enthält keine tatsächlichen Stationsdaten. Die Gitternetze werden mittels „klimatologisch unterstützter Interpolation“ (Willmott & Robeson, 1995) erstellt. Die Gitter werden verwendet, um einen monatlichen Durchschnittstemperatur-Datensatz, nClimDiv genannt, zu füllen. Dieser wird dann zur Erstellung des Index‘ verwendet.

Gegenwärtig ist die NOAA-Basisperiode für nClimDiv-, USHCN- und USCRN-Anomalien 1981-2010. Wir haben unsere Stationsanomalien, die unten dargestellt sind, unter Verwendung derselben Basisperiode konstruiert. Wir akzeptierten alle Stationen, die während der Basisperiode mindestens 12 Monatswerte hatten, und lehnten Stationen mit weniger Werten ab. Dadurch verringerte sich die Anzahl der CONUS-Stationen von 11.969 auf 9.307. In dieser Studie wurden keine Stationen interpoliert oder „aufgefüllt“.

Einige Quellen haben vorgeschlagen, dass Daten außerhalb des GHCN-Daily-Datensatzes verwendet werden könnten, um die nClimDiv-Monatsraster und den Temperaturindex zu erstellen, insbesondere einige nahegelegene kanadische und mexikanische Monatsdurchschnitte. NOAA/NCEI erwähnen dies jedoch kaum auf ihrer Website. nClimDiv enthält Klimadaten, einschließlich Niederschlag und einen Dürreindex, sowie die monatliche Durchschnittstemperatur. Wie bereits erwähnt, werden an den Daten der GHCN-Station dieselben Korrekturen vorgenommen, die auch im älteren USHCN-Datensatz verwendet wurden. Auf der NOAA-Website liest man:

Die erste (und einfachste) Verbesserung des nClimDiv-Datensatzes besteht in der Aktualisierung des zugrunde liegenden Stationsnetzes, das jetzt zusätzliche Stationsdatensätze und zeitnahe Bias-Korrekturen enthält (d.h. diejenigen, die im U.S. Historical Climatology Network Version 2 verwendet werden)“ Quelle

Neben dem neuen vollständig korrigierten GHCN-Monatsdatensatz und dem kleineren USHCN-Satz korrigierter Stationsdaten gab es früher noch einen dritten Datensatz, den ursprünglichen NOAA-climate divisional-Datensatz. Wie GHCN-Daily und nClimDiv verwendete diese ältere Datenbank das gesamte COOP-Stationsnetz. Die im älteren Klimaabteilungsdatensatz (in Fenimore u.a. „TCDD“ genannt) verwendeten COOP-Daten waren jedoch unkorrigiert. Dies wird in einem Whitepaper von Chris Fenimore und Kollegen erläutert (Fenimore, Arndt, Gleason, & Heim, 2011). Darüber hinaus wurden die Daten in dem älteren Datensatz einfach nach Klimaeinteilung und Bundesstaat gemittelt, sie waren nicht gerastert, wie nClimDiv und USHCN. Es gibt einige neue Stationen in nClimDiv, aber die meisten sind die gleichen wie in TCDD. Der Hauptunterschied zwischen den beiden Datensätzen sind die Korrekturen und die Rasterung. Daten aus dieser früheren Datenbank sind in den Abbildungen 6 und 7 unten als blaue Linie eingezeichnet.

Die einfachen Mittelwerte, die zur Zusammenfassung des TCDD verwendet wurden, ignorierten Veränderungen in der Höhe, Stationsverschiebungen und andere Faktoren, die in vielen Bereichen falsche interne Trends (Diskontinuitäten) einführten. Das neuere nClimDiv-Team für die monatliche Datenbank behauptet, die Stationsdichte und -höhe mit ihrer „klimatologisch gestützten Interpolations“-Rastermethode explizit zu berücksichtigen (Fenimore, Arndt, Gleason, & Heim, 2011). Die Methode liefert den vollständig korrigierten und gerasterten nClimGrid Fünf-Kilometer-Rasterdatensatz.

nClimDiv ist nützlicher, da die Gradienten innerhalb der Vereinigten Staaten in Bezug auf Temperatur, Niederschlag und Dürre genauer sind und weniger Diskontinuitäten enthalten. Aber, wie wir bereits in früheren Beiträgen erklärten, ist nClimDiv, wenn nClimDiv auf einen jährlichen gleichzeitigen Temperaturrekord der Vereinigten Staaten (CONUS) reduziert wird, dem Rekord des älteren, offiziellen Temperaturrekords namens USHCN sehr ähnlich, wenn beide auf die gleiche Weise gerastert werden. Dies mag daran liegen, dass nClimDiv zwar viel mehr Wetterstationen hat, auf diese jedoch dieselben Korrekturen angewandt werden wie auf die USHCN-Stationen. USHCN hat zwar weniger Stationen, aber sie sind von höherer Qualität und haben längere Aufzeichnungen. Die zusätzlichen nClimDiv-Stationen ändern, wenn sie auf die gleiche Weise wie die USHCN-Stationen verarbeitet werden, nichts, zumindest nicht auf nationaler und jährlicher Ebene. Wie in einem früheren Beitrag [in deutscher Übersetzung hier] erwähnt, spielt das schnellere Umrühren des Dungs mit leistungsfähigeren Computern und Milliarden von Dollar für weit verbreitete Durchschnittswerte keine Rolle.

Es gibt gute Gründe für all die Korrekturen, die die NOAA auf die Daten anwendet. Der Gridding-Prozess verbessert zweifellos den Nutzen der Daten intern. Künstliche Kartierungsdiskontinuitäten werden geglättet und Trends werden klarer erkennbar. Aber die Korrekturen und der Gridding-Prozess sind statistischer Natur, sie tragen nicht zur Verbesserung der Genauigkeit des Nationalen Temperaturindex bei. Wenn ein spezifisches Problem mit einem bestimmten Thermometer festgestellt und behoben wird, wird die Genauigkeit verbessert. Wenn die Ursache nicht bekannt ist und die Messwerte mit Hilfe benachbarter Thermometer oder eines statistischen Algorithmus „angepasst“ oder „aufgefüllt“ werden, sehen die resultierenden Tabellen besser aus, sind aber nicht genauer.

Der Übergang von USHCN zu nClimDiv für den National Temperature Index

Wie viel des nationalen Temperaturindex-Trends ist auf die tatsächliche Erwärmung zurückzuführen und wie viel auf die Korrekturen und die Rastermethode? Wie groß ist der Fehler in den endgültigen Schätzungen der Temperaturanomalien? Jahrzehntelange Kritik und die Revisionen der NOAA an der Berechnung haben diese Frage nicht beantwortet oder das Ergebnis verändert. Abbildung 3 zeigt den Nationalen Temperaturindex, extrahiert von der NOAA-Website am 18. November 2020. Sowohl die USHCN- als auch die nClimDiv-Berechnungen sind eingezeichnet. Erinnern Sie sich an die Steigung der Linie der kleinsten Quadrate, 1,5°C pro Jahrhundert, sie wird später im Beitrag wichtig sein.

Abbildung 3. Die nClimDiv- und USHCN-Klimaanomalien gegenüber dem Durchschnitt der Jahre 1981-2010. Die Daten wurden von ihrer Website heruntergeladen. Beide aufgezeichneten Datensätze stammen aus Gitternetzen, nicht aus Stationsdaten.

Es ist seit langem bekannt, dass der Nationale Temperaturindex nicht den zugrunde liegenden veröffentlichten Daten folgt. Anthony Watts hat dies berichtet, ebenso wie Jeff Masters, Christopher Burt und Ken Towe. Die Probleme bestehen sowohl in den GHCN-Daten als auch in den USHCN-Daten, wie von Joseph D’Aleo berichtet. Brendan Godwin argwöhnt, dass die heute verwendeten „Homogenisierungs“-Algorithmen (siehe die Diskussion über PHA oben) daran schuld sind. Wenn die „korrigierten“ Daten einen ganz anderen Trend aufweisen als die Rohdaten, sollte man skeptisch sein.

Anthony Watts glaubt nicht, dass die zugrunde liegenden Probleme mit dem vollständigen COOP-Netzwerk von Wetterstationen behoben sind, wie er hier im vergangenen Jahr erklärte. Er glaubt, dass die NOAA das Problem „unter den Teppich kehrt“. Die in Abbildung 3 dargestellten Daten sind vollständig korrigiert und gerastert, es handelt sich nicht um eine Darstellung von Stationsdaten. In Abbildung 4 sind die vollständig korrigierten Stationsdaten in Blau und die Rohdaten in Orange aus dem CONUS-Teil des GHCM-Monatsheftes eingezeichnet. Dies sind die gleichen Daten, die zur Erstellung der in Abbildung 3 gezeichneten nClimDiv-Kurve verwendet wurden, aber bei Abbildung 4 handelt es sich um die tatsächlichen Stationsdaten.

Abbildung 4. Die orangefarbene Linie ist die unkorrigierte monatliche Durchschnittstemperatur, die in der NOAA-Terminologie als „qcu“ bezeichnet wird. Die blaue Linie ist korrigiert oder die „qcf“ der NOAA.

Abbildung 4 zeigt die tatsächlichen Messungen von den Stationen, es sind keine Anomalien und die Daten sind nicht gerastert. Die Rohdaten zeigen, dass sich CONUS um 0,3°C pro Jahrhundert abkühlt, während die korrigierten Daten zeigen, dass sich CONUS um 0,3°C Grad pro Jahrhundert erwärmt. Diese Linien sind, wie alle eingepassten Linien in diesem Beitrag, Excel-Trendlinien der kleinsten Quadrate. Die Linien dienen lediglich dazu, den wahrscheinlichsten linearen Trend in den Daten zu identifizieren, daher ist das R2 irrelevant, wir versuchen nicht, Linearität zu demonstrieren.

Der Unterschied zwischen den beiden Kurven in Abbildung 4 ist in Abbildung 5 dargestellt. Die Steigung der Differenz ist ein Erwärmungstrend von 0,57°C pro Jahrhundert. Dies ist der Anteil der Erwärmung in Abbildung 3, der direkt auf die Korrekturen der Messungen zurückzuführen ist.

Abbildung 5. Damit wird die Differenz (Final-Raw) zwischen den beiden tatsächlichen Stationstemperaturkurven in Abbildung 4 dargestellt. Man erkennt, dass die Differenz zwischen den Trends der End- und Rohkurve seit 1890 etwa 0,8°C beträgt, was in etwa der behaupteten Erwärmung der Welt in diesem Zeitraum entspricht.

Vielen Lesern wird Abbildung 4 bekannt vorkommen. Steven Goddards Real Science-Blog veröffentlichte im Jahr 2012 eine NASA-GISS-Version der CONUS-Rohdatenanomalien aus dem Jahr 1999. Der von ihm verwendete Datensatz ist inzwischen von der NASA-Website gelöscht worden, aber eine Kopie kann hier heruntergeladen werden und ist in Abbildung 6 zusammen mit den aktuellen (Oktober 2020) GHCN-M-Rohdaten eingezeichnet. Wir wechseln von den tatsächlichen Temperaturmessungen in Abbildung 4 zu den Anomalien der Wetterstation vom Mittelwert 1981-2010 in Abbildung 6.

Abbildung 6. Die NASA GISS-CONUS-Temperaturanomalien von 1999 im Vergleich zu den GHCN-M-Roh-CONUS-Temperaturanomalien von 2020. Die NASA-Anomalien von 1999 sind um 0,32°C nach unten verschoben, so dass die Mittelwerte von 1890 bis 1999 übereinstimmen. Dies dient dazu, die Grundlinienunterschiede auszugleichen. Man beachte, dass die Trends der kleinsten Quadrate sehr genau übereinstimmen. Hansens Daten zeigen einen Erwärmungstrend von 0,25°C pro Jahrhundert und die modernen Daten zeigen eine Erwärmung von 0,26°C pro Jahrhundert. Die Gleichungen für die Linien befinden sich in der Legende. Siehe den Text für die Datenquellen.

Sowohl die aktuellen Daten als auch die Daten von 1999 zeigen eine Erwärmung von etwa 0,25°C pro Jahrhundert. Abbildung 7 zeigt die gleichen GISS 1999 Rohdatenanomalien im Vergleich zu den 2020 GHCN-M Endtemperaturanomalien. Alle drei Darstellungen deuten darauf hin, dass es in den Jahren 1931 und 1933 in den angrenzenden US-Bundesstaaten genauso warm wie oder wärmer war als heute. Die verschiedenen Korrekturen, die auf die Rohdaten angewendet wurden und die tatsächlichen Temperaturen in Anomalien verwandeln, haben den Effekt, den Unterschied zwischen den 1930er Jahren und heute zu verringern, aber sie beseitigen ihn nicht, zumindest nicht in den Stationsdaten selbst. Wenn die Daten gerastert werden, wie es in Abbildung 3 der Fall war, kehrt sich der Trend vollständig um, und die modernen Temperaturen sind plötzlich viel wärmer als in den 1930er Jahren. Die Daten von 1999 zeigen erneut eine Erwärmung von 0,25°C pro Jahrhundert, aber die korrigierten Daten zeigen eine Erwärmung von 0,6°C pro Jahrhundert. Dies ist der in Abbildung 5 dargestellten Erwärmung sehr ähnlich, d.h. der Erwärmung, die allein auf die Korrekturen zurückzuführen ist.

Abbildung 7. Die endgültigen und vollständig korrigierten Stationsdaten von GHCN-M für 2020 werden mit den NASA/GISS CONUS-Anomalien von 1999 verglichen. Die Gleichungen für die Linien befinden sich in der Legende.

Die blauen Linien der GISS-Anomalie von 1999 in den Abbildungen 6 und 7 sind identisch, die orangefarbene Linie in Abbildung 6 sind Rohdaten und die orangefarbene Linie in Abbildung 7 sind endgültige, korrigierte Daten. Die größten Korrekturen liegen in den früheren Zeiten und die kleineren Korrekturen liegen in den jüngeren Temperaturen.

Der in WUWT schreibende Witzbold und rundum gute Kerl Dave Middleton kommentierte dies 2016:

Ich sage nicht, dass ich weiß, dass die Anpassungen falsch sind; aber immer, wenn eine Anomalie ausschließlich auf Datenanpassungen zurückzuführen ist, wird bei mir die rote Flagge gehisst.“ Middleton, 2016

Ich stimme zu, Logik und gesunder Menschenverstand legen nahe, dass Dave zu Recht skeptisch ist.

James Hansen schrieb 1999 über dieses Thema:

Was geschieht mit unserem Klima? War die Hitzewelle und Dürre im Osten der Vereinigten Staaten 1999 ein Zeichen der globalen Erwärmung?

Empirische Beweise unterstützen die Vorstellung kaum, wonach das Klima auf eine extremere Hitze und Dürre zusteuert. Die Dürre von 1999 betraf ein kleineres Gebiet als die Dürre von 1988, als der Mississippi fast ausgetrocknet war. Und 1988 war eine vorübergehende Unannehmlichkeit im Vergleich zu den wiederholten Dürreperioden während der „Dust Bowl“ in den 1930er Jahren, die einen Exodus aus den Prärien verursachte, wie in Steinbecks „Trauben des Zorns“ beschrieben wird. Quelle.

Nun, hier stimme ich mit Hansen vollkommen überein.

Zeke von rankexploits.com, der „Tafel“, versuchte, die Korrekturen im Jahr 2014 zu verteidigen. Er erklärt uns, dass USHCN und GHCN zunächst um den Time-of-Measurement Bias („TOB“) [etwa: Messzeitpunkt] korrigiert werden, dann werden die Stationen mit ihren Nachbarn verglichen, und ein paarweiser Homogenisierungsalgorithmus (PHA) wird verwendet, um vermutete Anomalien zu glätten. Diese sind vermutlich auf Stationsverschiebungen, Änderungen in der Stationsumgebung oder Geräteänderungen zurückzuführen. Schließlich werden fehlende Stationsdaten ergänzt, wobei benachbarte Stationen als Anhaltspunkt dienen. Der letzte Schritt zur Erstellung von nClimDiv ist die Rasterung der Daten.

Zeke stellt fest, dass die Korrekturen der TOB und der PHA nicht wirklich notwendig sind, da der Rasterungsprozess allein wahrscheinlich Gleiches bewirken wird. Da ich nicht alle Details all dieser Glättungsoperationen für statistische Daten verstehe, werde ich keine Stellungnahme zu Zekes Kommentar abgeben. Aber aus einer allgemeinen Mapping-Perspektive hat er einen Punkt. Sie wollen einen Datensatz kartieren, der den Messungen so nahe wie möglich kommt. Wenn man drei Glättungsalgorithmen auf die Messungen anwenden, bevor man sie konturiert und rastert, was haben wir dann? Was bedeutet dieser Algorithmus?

Wir werden hier nicht auf die Einzelheiten der NOAA-Korrekturen eingehen, sie sind statistischer Natur und keine Korrekturen an spezifischen Instrumenten zur Korrektur bekannter Probleme. Es handelt sich also um verschiedene Arten von Glättungsoperationen, die nacheinander auf die Messungen angewendet werden. Die TOB-Korrektur wird von Thomas Karl und Kollegen beschrieben (Karl, Williams, Young, & Wendland, 1986). NOAA mittelt die minimalen und maximalen Tagestemperaturen, um die durchschnittliche Tagestemperatur abzuleiten, daher ist es wichtig, ob die beiden Temperaturmessungen vom Min-Max-Thermometer um Mitternacht oder zu einer anderen Tageszeit aufgezeichnet werden. Wenn Berechnungen mit Monatsdurchschnitten durchgeführt werden, ist dieser Unterschied sehr gering. Einige NOAA-Webseiten legen nahe, dass die TOB-Korrektur für neuere Versionen von GHCN-Monatsblatt entfallen ist, andere sagen, dass sie immer noch verwendet wird. So oder so macht sie wahrscheinlich keinen großen Unterschied in GHCN-Monatlich oder nClimDiv.

Die zweite Korrektur ist der paarweise Homogenisierungsalgorithmus oder PHA. Dieser Algorithmus vergleicht jede Station mit ihren Nachbarn, um festzustellen, ob es ungewöhnliche Anomalien gibt, und versucht dann, diese zu beheben. Dieser Prozess ist ein rein statistischer Glättungsalgorithmus. Er wird von Matthew Menne und Claude Williams beschrieben (Menne & Williams, 2009a). Dieses Verfahren wird definitiv in der neuesten Version von GHCN-Monthly verwendet.

Der letzte Schritt im Glättungsprozess ist das Auffüllen fehlender Werte mit Daten von Nachbarstationen. Dies geschieht vor der Rasterung, so dass mehr Rasterzellen gefüllt werden. Das Auffüllen wird wahrscheinlich noch in der neuesten Version durchgeführt.

Zeke weist darauf hin, dass die grafische Darstellung der tatsächlichen Temperaturen, wie wir es in Abbildung 4 getan haben, irreführend sein kann. Im Laufe der letzten 130 Jahre sind Stationen verschoben, hinzugefügt, entfernt worden, und die räumliche Verteilung der Stationen hat sich verändert. Die mittlere Höhe der Stationen hat sich im Laufe der Zeit verändert. Diese Veränderungen wirken sich auf die Stationsanomalien weniger stark aus als die absoluten Temperaturen. Das ist richtig, und dies erklärt einen Teil der Differenz zwischen Abbildung 4 und den Abbildungen 6 und 7. Ab einem bestimmten Punkt spielt die Anzahl der Stationen keine Rolle mehr, wie in Abbildung 3 zu sehen ist. Wir beginnen unsere Beobachtungen im Jahr 1890 oder 1895, weil wir dann davon ausgehen, dass genügend Stationen in CONUS vorhanden sind, um einen aussagekräftigen Mittelwert zu erhalten. Der USHCN-Datensatz umfasst 143 Stationen im Jahr 1890 und 608 Stationen im Jahr 1895, und dies sind die Stationen mit den längsten Aufzeichnungen und der besten Platzierung.

Schlussfolgerungen und Diskussion

Zekes nächster Punkt ist, dass Goddard seine Daten nicht gerastert hat. Er hat sich also nicht mit der ungleichmäßigen Verteilung der Stationen und der sich im Laufe der Zeit verändernden Verteilung der Stationen befasst. Dies sind echte Probleme, die sich zwar auf interne Trends innerhalb von CONUS auswirken, aber die Rasterung und die anderen Korrekturen glätten die Daten nur. Keine dieser Operationen verbessert die Genauigkeit. Tatsächlich ist es wahrscheinlicher, dass sie die Genauigkeit verringern. Wenn wir Karten von CONUS-Daten zur Ermittlung von Trends innerhalb des Landes verwenden würden, würde ich Zeke zustimmen und die Daten glätten. Aber hier geht es uns nur um den nationalen Temperaturindex, der außerhalb von CONUS liegt. Der Index ist eine Durchschnittstemperatur für das ganze Land, keine statistische Glättung oder Rasterung wird ihn verbessern. Die Verwendung von Anomalien gegenüber den tatsächlichen Temperaturen ist wichtig, ansonsten nicht.

Ein Mittelwert der Anomalien der Stationsdaten ist geeigneter als die Verwendung eines Gitters zur Erstellung eines nationalen durchschnittlichen Temperaturtrends. Der Mittelwert kommt den tatsächlichen Beobachtungen so nahe wie möglich. Die Korrekturen und die Rasterung entfernen uns mit mehreren verwirrenden Schritten von den Messungen.

Wenn die Korrekturen bekannte Probleme in den Instrumenten beheben würden, würde das der Genauigkeit helfen. Aber sie sind statistischer Natur. Sie machen die Stationsmessungen glatter, wenn sie kartiert werden, und sie glätten Diskontinuitäten. Meiner Meinung nach hat die NOAA es übertrieben. TOB, PHA, Ausfüllung und Rasterung sind ein Overkill. Dies ist in Abbildung 7 und beim Vergleich von Abbildung 3 mit Abbildung 6 oder Abbildung 5 leicht zu erkennen. Entspricht der endgültige Trend in Abbildung 3 eher den Messungen (Abbildung 6) oder den Netzkorrekturen in Abbildung 5? Der Jahrhundert-Trend der Daten beträgt 0,25°, die Korrekturen addieren dazu 0,35° und der „klimatologische Rasteralgorithmus“ fügt nochmals 0,9° hinzu! Es lohnt sich, noch einmal zu sagen, dass die Art der statistischen Operationen, die wir diskutieren, nichts zur Verbesserung der Genauigkeit des Nationalen Temperaturindexes beitragen, und sie reduzieren dieselbe wahrscheinlich.

CONUS ist ein gutes Gebiet, um zu überprüfen, ob die „Korrekturen“ an den Stationsdaten und die Wirksamkeit des Temperatur-Gridding-Prozesses gerechtfertigt sind. Die aktuelle Stationsabdeckung ist sehr dicht, wie in Abbildung 1 zu sehen ist, und man würde erwarten, dass die gerasterten Daten recht gut mit den Stationsdaten übereinstimmen. Abbildung 3 sieht wie die orangefarbene „Endkurve“ in Abbildung 7 aus, aber sie ist irgendwie steiler, und das sagt alles, was ma wissen muss.

Dave Middleton und ich sind (in meinem Fall „war“) schon seit langer Zeit im Öl- und Gasgeschäft tätig. Zusammen haben wir mehr kartografierte BS gesehen, als man auf den Lagerplätzen von Kansas City finden konnte. Mein interner BS-Meter zeigt rote Linien, wenn ich eine Wäscheliste mit Glättungsalgorithmen, Korrekturalgorithmen, Bias-Anpassungen usw. höre. Ich möchte schreien: „Halten Sie Ihre &#$@ing Karten und Berechnungen so nah wie möglich an den echten Daten!“

Im ersten Teil dieses Postens habe ich darauf hingewiesen, dass wir zur Untersuchung des Klimawandels mehr über die Erwärmung der Ozeane und die Verteilung und den Transport von Wärmeenergie in den Ozeanen wissen müssen. Landgestützte Wetterstationen helfen bei der Vorhersage des Wetters, aber nicht des Klimas. Wir streiten viel über relativ kleine Unterschiede in den Landoberflächentemperaturen. Diese Argumente sind interessant, aber aus der Sicht des Klimawandels spielen sie keine große Rolle. Die Ozeane kontrollieren das, die Atmosphäre über Land hat wenig damit zu tun. Die Rohdaten von GHCN-Daily zu nehmen und sie durch vier verschiedene Glättungsalgorithmen (TOB, PHA, Infilling und Gridding) laufen zu lassen, ist, bei allem Respekt, lächerlich. Meine Empfehlung? Glauben Sie nichts davon, auch nicht, dass es bzgl. des Klimas eine große Rolle spielt.

Ein besserer Indikator für den Klimawandel oder die globale Erwärmung ist der in Abbildung 2 dargestellte Trend der Erwärmung der Ozeane. Beachten Sie, dass der Trend der letzten 16 Jahre nur 0,4°C pro Jahrhundert beträgt. Vergleicht man dies mit den landgestützten CONUS-Messungen der letzten 130 Jahre, so sagen sie 0,25°C voraus, wie in Abbildung 6 dargestellt, aber der vollständig „korrigierte“ NOAA-Wert beträgt 1,5°C, wie in Abbildung 3 dargestellt. Wem glauben Sie wirklich?

Ich benutzte R für die Berechnungen, die in den Abbildungen dargestellt sind, aber Excel, um die Diagramme zu erstellen. Wenn Sie die Details meiner Berechnungen überprüfen möchten, können Sie meinen GHCN R-Quellcode hier herunterladen.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/11/24/the-u-s-national-temperature-index-is-it-based-on-data-or-corrections/

Übersetzt von Chris Frey EIKE




Und täglich grüßt das EEG

Zum wiederholten Male begab sich am 18. November in einem unserer Parlamente, mit dem Bundestag sogar dem höchsten, eine Anhörung zum Thema EEG (Erneuerbare Energien Gesetz). Neben vielen anderen Gesetzeswerken bildet das  EEG das in Gesetzesform gegossene energiepolitische Elend des Landes in besonderer Weise ab. Weil es nicht mehr funktioniert wie gewünscht, weil es inzwischen überkomplex, kaum mehr überschaubar und in seinen Wirkungen reaktionär ist, versucht man regierungsseitig durch weitere Änderungen die Wirksamkeit zu verbessern. Das Drehen kleiner Stellschrauben, eine noch  kleinteiligere Regelungswirkung soll den Dekarbonisierungs- und Anti-Atom-Kurs zum Erfolg führen. Da es am großen Ziel keinerlei Zweifel mehr gibt, lud man als Sachverständige die passenden sachverständigen Lobbyisten ein. So Vertreter von „Agora Energiewende“, dem „Bundesverband Solarwirtschaft“ und dem inzwischen vollvergrünten BDEW (Bundesverband der Energie- und Wasserwirtschaft e.V.).

An kaum einer anderen Stelle als in solchen Anhörungen wird deutlich, dass es in Deutschland eine Kohle- oder Atomlobby nicht mehr gibt. Dennoch werden ihre Schatten noch gebraucht als Feindbilder, gegen die die infantilen Kräfte von FFF, Extinction Rebellion und andere in den Kampf geschickt werden können, um vom Versagen der „Erneuerbaren“ abzulenken.

Und so entwickelte sich in der Anhörung eine Diskussion um die  „Komplexitätsfalle“ des EEG, ohne etwas zu seiner Vereinfachung vorzuschlagen. Es ging um Bagatellgrenzen, PPA, eine angebliche „Sonnensteuer“, Genehmigungsverfahren, einzelne Paragrafen und natürlich die Erweiterung der Ausbaumengen oder –korridore. Elektrolysestrom soll von der EEG-Umlage befreit werden – dann würde es für alle anderen teurer. Angeblich seien die Marktpreise zu niedrig, um die Förderung nach zwanzig Jahren auslaufen lassen zu können. Natürlich wäre der Branche die unbefristete Dauersubventionierung lieber, am Ende wird dieses Ziel durch die zunehmende staatliche Planwirtschaft wohl erreicht werden.

Immerhin gab es die Erkenntnis, dass die Direktvermarktung regenerativen Stroms auch nach 20 Jahren üppiger Förderung noch in den „Kinderschuhen“ stecke. Nicht thematisiert wurde von den Lobbyisten die Tatsache, dass wir schon in wenigen Jahren einen Mangel an gesicherter Stromeinspeisung haben werden. Der Wagen läuft immer weiter auf den Abgrund mit Namen Energiemangel zu, die Möglichkeiten zum Bremsen werden immer weniger, aber im U-Boot Bundestag diskutiert man die Farbe der Außenspiegel. Äußeres Zeichen der ungebremsten Talfahrt ist die Progression der Kosten, die sich nicht mehr aufhalten lässt. Da man keinesfalls die EE-Lobby verärgern und an den Gewinnen der einschlägigen Branche und der Betreiber kratzen will, steht das Problem, die Umlage zu sichern.

Weltklimarettung auf Pump

Würde man die Stromkunden wie bisher zur Kasse bitten, beliefe sich die EEG-Umlage im Jahr 2021 auf satte 9,651 Cent pro Kilowattstunde. Rechnet man die Mehrwertsteuer hinzu, würde die 10-Cent-Marke geknackt werden. Dieser hohe Betrag kommt zustande, weil die bisherige Liquiditätsreserve im Umlagekonto bereits im Juni ins Minus rutschte. Die Netzbetreiber waren gezwungen, mit mehr als vier Milliarden Euro kreditfinanziert in Vorkasse zu gehen, um die Ansprüche der EE-Anlagenbetreiber zu befriedigen. Die aufzubringende Umlage für 2021 enthält 1,19 Cent für den Abbau des Defizits des Umlagekontos, 0,772 Cent für den Aufbau einer Liquiditätsreserve und 7,688 Cent für die laufende Umlage. Insgesamt steigen die EEG-Kosten um 38,3 Prozent.

Nun ist es für die Energiewende-PR der Regierung, man könnte es auch Propaganda nennen, nur schwer möglich, einen derartigen Anstieg der EEG-Umlage als Erfolg des eingeschlagenen Kurses zu verkaufen. Deshalb deckelt man die Umlage für 2021 auf 6,5 Cent und zapft für den verbleibenden Rest die nie versiegende Quelle des Bundeshaushalts an. Das Absenken verkauft man dann als „Entlastung“ der Stromkunden (für einen Normalhaushalt etwa 10 Euro im Jahr). Für 2021 kündigten indes bereits 47 Versorger1 Preiserhöhungen an, im Durchschnitt sei mit 38 Euro mehr pro Jahr zu rechnen.

Der Bundeszuschuss zur EEG-Umlage wird 3,151 Cent betragen (fast so viel wie die gesamte Umlage im Jahr 2011) und sich auf knapp 11 Milliarden Euro belaufen. Reichte bisher die Umlage auf den Strompreis für die üppige Finanzierung der „Erneuerbaren“ aus, muss man künftig drei Quellen anzapfen: Die Stromkunden, den Staatshaushalt und die Staatsschulden. Unsere nachfolgenden Generationen werden einen Teil der heutigen Verspiegelung und Verspargelung des Landes bezahlen und künftig in Teilen den Rückbau und die Entsorgung sowie die Folgeschäden des exzessiven und beileibe nicht umweltfreundlichen Ausbaus.

Die absoluten Kosten der EEG-Umlage 2020 werden sich auf etwa  33.081 Milliarden Euro belaufen, die Differenzkosten zum Marktstrompreis auf etwa 26,35 Milliarden. Für die gesamte Infrastruktur  des Bundes  wurden 2019 nur 22,24 Milliarden ausgegeben. Pro Kopf der Bevölkerung – vom Säugling bis zum Greis – werden nun 317 Euro pro Jahr für die Ökostrombetreiber fällig – über Umlagen, Steuern oder Schulden.

Auf diese Weise wird es nicht möglich sein, mittels Strom über die so genannte Sektorenkopplung Emissionen zu senken. Das Versprechen, fossile Brennstoffe zu verteuern und dafür den Strompreis zu senken, ist gerade am Scheitern. Die Netzentgelte werden den Preis dynamisieren. Der Netzausbau wird noch nicht  aus dem Staatshaushalt finanziert, er muss auf allen Spannungsebenen bis hin zum Tesla-Supercharger an der letzten Milchkanne erfolgen und kostet enorme Summen. Der verpflichtende Anschluss von EE-Anlagen,  finanziert von allen Stromkunden, macht neben Einspeisevorrang und gesicherten Vergütungen über 20 Jahre überhaupt erst die Installation von Zufallsenergieerzeugern möglich. Ein hypothetischer Entfall dieser Bedingungen des Streichelzoos würde die „Erneuerbaren“-Branche schlagartig kollabieren lassen, ungeachtet der immer wieder gefeierten niedrigen Stromgestehungskosten.

Der Weg zur Planwirtschaft und zu absehbarem Mangel hat Folgen auf der Verbraucherseite. Industrieinvestitionen finden nur noch im Subventionsbereich statt, abgesehen von einem amerikanischen Milliardär, der in Brandenburg gerade die Behörden vor sich her treibt. Rein marktgetriebene Investitionen gibt es kaum noch, selbst am Erhalt der Anlagen wird gespart.

„In unserem Fall ist es so – ich denke, ich spreche für weite Teile der Industrie –, dass selbst Ersatzinvestitionen derzeit verschoben werden“,

 hatte Volker Backs von der Wirtschaftsvereinigung Metalle e.V. bereits im Juli 2019 bei einer Anhörung zum gleichen Thema im NRW-Landtag gesagt. Der Abschied der Industrie wird leise sein, die Folge dramatisch. Nun steht die Schließung des Grobblechwerks von Thyssenkrupp in Duisburg an. Welcher Investor, zumal aus dem Ausland, sollte sich Deutschland noch als Standort aussuchen, wenn unvorhersehbare und damit unkalkulierbare Strompreise und weitere Kostensteigerungen durch das Brennstoffemissionshandelsgesetz (BEHG), hohe Lohnkosten, Behördendickicht und viele Regalmeter voller Regelungswut den „Kapitalisten“ erwarten?

Flach, flacher, Grün

„Energiewende und Klimaschutz sind voller Irrungen und Wirrungen“2, sagte der Chef der Deutschen Energieagentur (dena), was im krassen Gegensatz zum eitel Sonnenschein auf der Homepage des Bundeswirtschaftsministeriums steht. Sie ist ein einziges Feuerwerk an Energiewende-Erfolgsmeldungen. Die Erinnerung an das Zentralorgan „Neues Deutschland“ liegt nahe. Die auf Politikerebene geführten Energiewendediskusionen bewegen sich oft auf sehr flachem Niveau, was nicht ausschließt, dieses Niveau noch nach unten zu durchstoßen. Dafür sind insbesondere Politiker der Grünen in der Lage. Auf eine energiewendekritische Mail antwortete Dr. jur. Thomas Griese, Staatssekretär im Umweltministerium von Rheinland-Pfalz, wie folgt:

„. . . Zu Ihren Ausführungen zum Thema Netzstabilität muss man wissen, dass die Stromproduktion ständig der im Tagesverlauf stark schwankenden Stromnachfrage angepasst werden muss. Dies wird durch die alten, unflexiblen und behäbigen Atom- und Kohlekraftwerke immer schwieriger, weil sie voll weiterlaufen, die Netze verstopfen und kurzfristig nicht abzuregeln sind. Das Ganze ist ein weiteres Argument dafür, auch aus Gründen der Netzstabilität auszusteigen.“

Das muss man erst mal sacken lassen. Unabhängig von der Frage, wer denn bisher die Netze ausregelte, bleibt die offene Frage, wer denn nun auf die stark schwankende Stromnachfrage künftig reagieren soll. Fahren dann die Solarkraftwerke hoch, wenn die Leute das Licht einschalten, weil die Sonne untergeht?

Der jüngste Grünen-Online-Parteitag wurde von den Medien wieder freundlich eskortiert. In einem Beitrag der FAZ3 meinte man eine gewisse Abkehr von der grünen Zwangsbeglückungs-Ideologie früherer Zeiten erkennen zu können. Die Grünen würden sich gegen geschlossene Weltbilder stellen. Nichts ist falscher als das. Die geschlossene Ideologie der Grünen, vom Atomausstieg über die Dekarbonisierung bis hin zum Genderismus ändert sich nicht, selbst wenn sie sich jetzt vom „Gendreck weg“ verabschieden wollen, weil der Druck zur Einführung eines so behandelten Corona-Impfstoffs zu groß ist. Wie andere Parteien auch versprechen die Grünen im Vorfeld von Wahlen allen alles,  um in alle Richtungen anschlussfähig zu sein und Wähler aus der Mitte in Volksparteimanier abgreifen zu können. Sollte sie einen Zipfel der Macht erhaschen,  werden sie ihre alten Instrumente wieder hervorholen: Belehrungen, Verbote, Subventionen und Moralkeulen.

Es blieb in oben genannter Anhörung Professor Lüdecke von der Hochschule für Technik und Wirtschaft des Saarlandes vorbehalten, auf das Wetter hinzuweisen. Er meinte damit nicht Wetterextreme und Klimawandel, sondern schlicht die Wetterabhängigkeit der exzessiv ausgebauten und weiter auszubauenden Wind- und Sonnenstromerzeuger. Heute schon bringen Hellbrise wie Dunkelflaute das System an den Rand der Funktionsfähigkeit. Wie sich das beim weiteren ungebremsten Trend des Zubaus von Zufallsenergieerzeugern gestalten wird, ist offenbar nicht Bestandteil regierungsamtlichen Nachdenkens.

Alle reden vom Klima, wir sollten mehr vom Wetter reden.

————————–

Dieser Beitrag entstand mit freundlicher Unterstützung von Christian Rückert

www.rueckert-enerwa.de

1         –           https://strom-report.de/strompreise/strompreiserhoehung/

2         –           Andreas Kuhlmann, Chef der Deutschen Energieagentur (Dena)

im Tagesspiegel v. 4.11.20

3         –           FAZ v. 20.11., S. 4 „Dekarbonisierter Spagat“

Quellen:

https://www.bundestag.de/ausschuesse/a09/Anhoerungen#url=L2F1c3NjaHVlc3NlL2EwOS9BbmhvZXJ1bmdlbi84MDU1NjAtODA1NTYw&mod=mod543440

https://www.netztransparenz.de/EEG/EEG-Umlagen-Uebersicht

https://www.bundesfinanzministerium.de/Web/DE/Home/home.html

Der Beitrag erschien zuerst bei TE hier




Das Endspiel

In Wirklichkeit sind jedoch nur wenige Wähler bereit für extreme politische Maßnahmen wie den Green New Deal (GND), der, wie sein weithin anerkannter Architekt Saikat Chakrabarti anerkannt hat, wirklich eine offen sozialistischere und antikapitalistische Version der Ära der Weltwirtschaftskrise ist.

Es ist jedoch eine Verschwendung emotionaler Energie, emotional  gegenüber Leuten wie Alexandria Ocasio-Cortez (AOC) zu werden, [die mit Eifer den GND promoted]. Die wahre Kraft der Umweltbewegung beruht auf denen, die „die beherrschenden Höhen“ unserer Gesellschaft einnehmen – im Unternehmens-, Medien- und akademischen Bereich. Obwohl die Ansichten der Wirtschaft wohl nicht so lächerlich sind wie die der AOC, ist es weitaus wahrscheinlicher, dass Mainstream-Grüne uns ihre Version der Umweltgerechtigkeit erfolgreich aufzwingen.

Ein feinerer Grünton

Die moderne Umweltbewegung wurde von der Spitze der wirtschaftlichen Nahrungskette aus ins Leben gerufen. Die Rockefeller Brothers finanzierten zum Beispiel einige der frühesten Umweltagendas, insbesondere zur Bevölkerungskontrolle . Heute sind diese mit fossilen Brennstoffen reich gewordenen Unternehmer, darunter nicht nur die Rockefellers, sondern auch die Fords , zu führenden Befürwortern radikaler Klimapolitik geworden.

1972 wurde das einflussreiche Buch Limits to Growth {Grenzen des Wachstums) mit Unterstützung wichtiger Unternehmensinteressen unter der Leitung von Aurelio Peccei, Fiat veröffentlicht. Die Autoren des Buches suggerierten, dass der Erde die natürlichen Ressourcen bald ausgehen und forderten die Schaffung eines „globalen Gleichgewichts“ durch Wachstumsbeschränkungen und ein „sorgfältig kontrolliertes Gleichgewicht“ von Bevölkerung und Kapital. Diese Schlussfolgerungen, die größtenteils in Top-Medien, akademischen und politischen Kreisen akzeptiert wurden, erweisen sich heutzutage fast als komisch, da die Produktion von Nahrungsmitteln, Energie und Rohstoffen nicht zu der vorhergesagten Massenhungersnot wurde, sondern zu dem wohl größten Anstieg des globalen Lebensstandards in der Geschichte .

Trotz dieses Rekords nimmt eine wachsende und mächtige Fraktion der Unternehmensaristokratie immer noch die Ideale des Club of Rome an, um den menschlichen Konsum zu senken und den wirtschaftlichen Fortschritt zu begrenzen. Die heutigen Umweltschützer agieren wie religiöse Prälaten im Mittelalter –von Alexander Cockburn, The Nation so  treffend „Treibhaus Paniker“ genannt – und sehen keinen Widerspruch zwischen Einführung strenger Einschränkungen für die Massen und der Entschuldigung von Exzessen ihrer ultra-reichen Unterstützer. Wie sündige Aristokraten und Handelsprinzen im Mittelalter, können unsere „grünen Reichen“ sogar eine moderne Version von Ablässen durch Emissionsgutschriften und andere Tugendzeichen kaufen. Dies ermöglicht es ihnen, den Planeten mit Stil zu retten. Im Jahr 2019 flogen schätzungsweise 1.500 THG-speiende Privatjets nach Davos, um die Teilnehmer zu einer Konferenz zu bringen und die Umweltkrise zu erörtern. Nur wenige hochkarätige Klimaaktivisten, darunter Prominente, scheinen bereit zu sein, ihre zahlreichen Häuser, Yachten oder eine Vielzahl von Autos [für die propagierten Klimaziele] aufzugeben [denken Sie beim Anschauen daran, dass diese Prominente oft in guten Filmen zu sehen waren. Ihr dortiges Handeln stand allerdings im Drehbuch und gab der Regiseur vor. Der Übersetzer]

Die Rückbildung von Wachstum

Diese Würdenträger teilen wahrscheinlich nicht die Vorstellung von Barry Commoner, einem Gründungsvater des modernen Umweltschutzes, dass „der Kapitalismus der Feind Nummer eins der Erde ist“. Die heutigen grünen Eliten haben kein Interesse daran, Tech-Oligarchien aufzubrechen, die Finanzkraft der Wall Street einzuschränken oder die Belastungen der grünen Politik für die Armen und die Arbeiterklasse zu verringern. Ebenso wenig dürften sie – zumindest bis jetzt, keines der Dinge favorisieren, wie sie von den extremen grünen Akademikern und Aktivisten gefordert werden: Insektennahrung, beschränkter Fleischkonsum,  Eindämmung der Fortpflanzung  oder sogar insgesamt die Ausrottung der Menschheit zu befürworten [natürlich immer der anderen].

Vielmehr haben sich viele Eliten dem Konzept des „Degrowth“ (Rückbildung) verschrieben, das eine geringere wirtschaftliche Expansion, einen Bevölkerungsrückgang und ein radikales Ende von Mobilität vorsieht. Eine Reihe von Vorschlägen des IPCC stützt diesen Gedanken und lehnt ganz offen eine „kapitalorientierte Kultur“ ab und sieht einen zentraleren Ansatz als entscheidend für die Rettung des Planeten an. Der Gründer des Weltwirtschaftsforums, Klaus Schwab, der Herr von Davos, sieht beispielsweise den Aufstieg einer neuen „Business Class“ vor, die durch „tugendhafte Instinkte“ motiviert ist, zu denen unter anderem die Beseitigung fossiler Brennstoffe gehört. Diese Corporate Geisteshaltung wird als eine Form des „Stakeholder – Kapitalismus“  [~ Aktienbesitzer, Interessen der Anleger] verkauft, während die progressiven Transformationen  von Gesellschaft, Geschlecht und Rasse [als gut] verfolgt werden.

Obwohl diese Agenda in lobenswerten Absichten formuliert ist, ist sie auch bemerkenswert eigennützig. Der britische marxistische Historiker James Heartfield schlägt vor, dass der „grüne Kapitalismus“ eine perfekte Gelegenheit bietet, die Rendite künstlich knapperer Ressourcen wie Land und landwirtschaftlicher Produkte zu maximieren, insbesondere durch Mandate und Steuererleichterungen für erneuerbare Energien. Die grüne Wirtschaft hat bereits ihren ersten Mega-Milliardär hervorgebracht, Elon Musk , dessen Kerngeschäft enorm von der Regulierungs- und Steuerpolitik profitierte, die seine Produkte begünstigt. Erwarten Sie in Zukunft andere, weniger innovative Oligarchen, die gerne die zentral auferlegte Knappheit ausnutzen und unter dem Vorwand des „menschlichen Überlebens“ Geld verdienen.

Wer bezahlt, wenn die Dinge nicht funktionieren?

Die Reichen wie Jeff Bezos, der Anfang dieses Jahres 10 Milliarden US-Dollar an Umweltverbände gespendet hat, können leicht strenge Maßnahmen zur Eindämmung des Klimawandels fordern, weil sie sich die Auswirkungen dieser Maßnahmen leisten können. Es wird ihre Fähigkeit nicht einschränken, Milliarden zu verdienen, Villen im Stil der Habsburger Könige zu unterhalten oder in Privatjets zu fliegen. Im Gegensatz dazu werden Arbeiter in der Ölindustrie, Fabrikangestellte oder Bauarbeiter, die mit alten Autos zur Arbeit fahren, durch Verbote fossiler Brennstoffe ernsthaft geschädigt. Für sie wird der erzwungene Marsch zu einer abgekarteten grünen Utopie nicht so süß sein und Versprechen auf vielleicht mal kommende „grüne Jobs“  sind kein Ersatz für die Realität.

Für diese Arbeiter und ihren Familien ist der Preis für grüne Frömmigkeit eine Reduzierung von Ressourcen für Schulbildung, Arztrechnungen oder sogar Lebensmittel. Kalifornien leidet mit seinem Löwenanteil an Multimillionären unter der höchsten kostenbereinigten Armutsquote aller Staaten und einer massiven Ausweitung der Energiearmut. Diese Politik erhöht bereits die Lebenshaltungs-kosten an der Ostküste. Die Strompreise aus Windenergie werden bereits auf das Fünffache der konventionellen Stromerzeugung geschätzt. In ähnlicher Weise haben bereits jeder vierte Deutsche und drei Viertel der Griechen andere Ausgaben gekürzt, um ihre Stromrechnungen zu bezahlen. Dies ist die wirtschaftliche Definition von „Energiearmut“.

Bis heute haben diese Negative wenig dazu beigetragen, den verrückten Versuch Kaliforniens zu verlangsamen, „ rein elektrisch“ zu fahren. Diese Politik ist zum Scheitern verurteilt, da sie den Stromverbrauch steigert und gleichzeitig die kostengünstigsten und zuverlässigsten Möglichkeiten zur Versorgung beseitigen will. Schlimmer noch, diese Politik wird auch schädliche Auswirkungen auf die Umwelt haben, durch die Schaffung massiver neuer Solaranlagen in den am stärksten gefährdeten landwirtschaftlichen Gebieten und Freiflächen des Staates. Eine Studie der Carnegie Institution for Science und der Stanford University aus dem Jahr 2015 legt nahe, dass für den Bau einer ausreichenden Solarenergie zur Reduzierung der US-Emissionen um 80 Prozent im Jahr 2050, mehr als 27.500 Quadratmeilen [~ 72.000 km²} erforderlich sein könnten, wodurch sowohl Ackerland als auch einzigartige natürliche Lebensräume zerstört werden. [Deutschland hat ~ 357.000 km²]

Kalifornien strebt ähnliche Emissionsreduzierungen an, indem es die Elektrifizierung von Gebäuden und Verkehrsmitteln mit Solar- und Windkraft vorschreibt. Die staatlichen Klimaführer wollten bislang jedoch noch nicht den Standort oder das Ausmaß des zu zerstörenden Landes offenlegen, das ihre Politik erfordert. Laut einem Bericht von The Nature Conservancy aus dem Jahr 2019 und den eigenen Experten des Bundesstaates könnten bis 2050 bis zu 3 Millionen Morgen – fast 12.000 km² dafür geopfert werden, einschließlich eines Großteils des Central Valleys und, wenn die Nachbarstaaten zustimmen, für eine weitläufige grün-industrielle Entwicklung im gesamten Westen der USA. Insgesamt stellen die Produktion von Elektroautos und Solaranlagen ihre eigenen, wenn auch selten angesprochenen Umweltprobleme dar, insbesondere im Zusammenhang mit dem Abbau von Seltenerdmaterialien

Der „Testlauf“

Die tragischen und unerbittlich nervenden Coronavirus-Lockdowns könnten als echte Reaktion auf eine klare, gegenwärtige und manchmal tödliche Gefahr gerechtfertigt werden. Aber einige Grüne sehen den „Lockdown“ als Testlauf für die Arten von Regelungen an, die uns im Rahmen der künftigen grünen Agenda bevorstehen können. Der „visionäre“ Davoser Mogul Schwab sieht die Pandemie beispielsweise als Chance für einen großen „Reset“, der vor einem „De-Wachstums-Regime“ auf der Grundlage der erhellenden Werte der [selbst] auserwählten Wirtschaftselite erfolgt.

Diese neue Weltordnung würde dem Davoser Drehbuch folgen, ganze Teile der Wirtschaft blockieren und die Wahlmöglichkeiten der Verbraucher einschränken, insbesondere für Wohnen und Transport. Um diese etwas unangenehme Agenda zu verkaufen, haben die Grünen und ihre Elite-Verbündeten eine ideologische Strenggläubigkeit verkündet, die Dissens ausschließt. Eine offene rationale Diskussion darüber, wie der Planet am besten geschützt werden kann, ist heute so selten wie eine offene Debatte über die Existenz Gottes in der katholischen Kirche des elften Jahrhunderts. Es gibt sogar eine Bewegung, die bereits in Frankreich und Belgien verabschiedet wurde, um den sogenannten „ Ökozid “ zum Verbrechen zu machen.

Selbst langjährige Klimaforscher wie Roger Pielke, Judith Curry oder der Mitbegründer von Greenpeace, Patrick Moore, werden heute als Ketzer behandelt, welche die Orthodoxie der globalen Erwärmung in Frage stellen. Langjährige Aktivisten wie Michael Shellenberger und sogar der radikalere Propagandist Michael Moore, dessen jüngster Dokumentarfilm „Planet of Humans“ die ökologischen Auswirkungen und das Profitieren von „grüner“ Macht durch Unternehmen enthüllte, haben unter der Zensur auf sozialen Plattformen gelitten, weil sie die Sensibilität grüner Aktivisten und ihrer Milliardärskumpanen verletzt haben. Dies ist ein schlechter Weg, um ein komplexes wissenschaftliches Problem anzugehen, bei dem offene Untersuchungen und Debatten erforderlich sind, bemerkt Steve Koonin , Präsident Obamas Unterstaatssekretär für Energiewissenschaft.

Gibt es bessere und gerechtere Lösungen?

Was das Grüne-End-Spiel wahrscheinlich hervorbringen wird, ist eine zunehmend statische und hierarchische Gesellschaft, die möglicherweise durch einen wütenden Klassenkonflikt zwischen den Oligarchen und ihren Verbündeten einerseits und der bedrängten Mittel- und Arbeiterklasse andererseits auseinandergerissen wird. Wir können bereits Anzeichen dafür in Kalifornien sehen, wo lateinamerikanische und afroamerikanische Aktivisten es ablehnen, für die Fantasien der grünen Granden zu bezahlen. Ein Phänomen, das auch in Graswurzelbewegungen in Frankreich , in Niederlanden  und Norwegen. zu beobachten ist. Insbesondere die Auswirkungen auf die Entwicklungsländer könnten schwerwiegend sein und möglicherweise grausame Folgen haben.

Letztendlich müssen wir uns aber möglicherweise nicht zwischen einer besseren Wirtschaft und einer besseren Umwelt entscheiden. Zum Beispiel könnten wir die Substitution von Brennstoffen mit höheren Emissionen wie Kohle oder Diesel durch billiges und reichlich vorhandenes Erdgas fördern und nicht verbieten. Diese Strategie hat bereits bewiesen, dass sie die US-Emissionen erheblich reduziert und bei Kohlenstoffabscheidung und Speicherung oder Gasherstellung aus Erneuerbaren sogar noch wirksamer werden könnte. Wir könnten auch den aktuellen Trend zum „home office“ fördern, was nicht nur hervorragende Möglichkeiten zur Emissionsreduzierung, sondern auch zur Wiederbelebung des Familienlebens und zum Nutzen der Unternehmer bieten könnte .

Wir dürfen nicht zulassen, dass unser Leben durch die konzentrierte Macht einer nicht gewählten herrschenden Klasse eingeschränkt wird, deren Agenda eine Version der hierarchischen Gesellschaft der Feudalzeit wiederherstellen würde.

Joel Kotkin ist Presidential Fellow für Urban Futures an der Chapman University und Executive Director des Urban Reform Institute. Sein neues Buch The Coming of Neo-Feudalism ist jetzt bei Encounter erhältlich. Sie können ihm auf Twitter @joelkotkin folgen

Weitere Themen: RCE-Originale

https://www.realclearenergy.org/articles/2020/11/18/the_end_game_650132.html

Übersetzt durch Andreas Demmig




Der solare Retrograd-Zyklus

Hier folgt ein Auszug aus meinem Buch Not by Fire but by Ice, in welchem ich das Phänomen des solaren Retrograd-Zyklus‘ beschrieben habe:

Zuvor erwähnte ich die Kleine Eiszeit, die in den frühen 1600er Jahren begann. Was ich nicht erwähnt habe, ist, dass kleine Eiszeiten in Zyklen wiederkehren. Bahnbrechende Studien von Rhodes W. Fairbridge und John E. Sanders von der Columbia University zeigen, dass unser Klima – warm zu kalt, kalt zu warm – in einem verlässlichen, vorhersehbaren Zyklus schwankt und alle 178,73 (±0,27) Jahre viel kühler und feuchter wird.

Der Zyklus wird durch die rückläufige oder im Uhrzeigersinn erfolgende Bewegung der Sonne um das Massenzentrum – das Baryzentrum – des Sonnensystems verursacht. Dieser Zyklus, der als solarer retrograder Zyklus bezeichnet wird, beinhaltet Änderungen sowohl der Sonnenrotationsrate als auch der Sonnenleistung (die Sonnenleistung nimmt abrupt ab). Die rückläufige Bewegung selbst wird durch die Anziehungskraft der Planeten, vor allem von Saturn und Jupiter, erzeugt. Wenn sich Saturn und Jupiter beide im gleichen Quadranten des Sonnensystems befinden, üben sie eine größere Anziehungskraft auf die Sonne aus. Der Zyklus ist unbestreitbar. „Die Sonnenzyklizität muss jetzt als eine Tatsache des Lebens betrachtet werden“, sagten die beiden emeritierten Professoren. (Sowohl Fairbridge als auch Sanders waren emeritierte Professoren für Geologie an der Columbia University. Jeder von ihnen veröffentlichte Vieles in Geologie und Astronomie).

Die wahrscheinlich wichtigste Figur auf dem Gebiet des solaren Retrograd-Zyklus‘ war der verstorbene Dr. Theodor Landscheidt, Gründer des Schroeter-Instituts zur Erforschung von Zyklen der Sonnenaktivität in Waldmünchen, Deutschland. Dr. Landscheit begann 1976 mit der Veröffentlichung seiner Ergebnisse.

Auf der Erde löst der solare Retrograd-Zyklus Schwankungen der Intensität des Erdmagnetfeldes aus und führt zu abrupten – und extremen – Klimaänderungen. Die Veränderungen sind so stark, dass die Erde bei jedem zweiten Takt des Zyklus – etwa alle 360 Jahre – in eine Kleine Eiszeit eintaucht.

Dieser Zyklus wirkt sich auf unserem Planeten seit Hunderten von Millionen Jahren aus.

„Der 360-jährige Zyklus der Kleinen Eiszeit zeigt sich in der Morrison-Formation deutlich zurück im Jura“, sagt der Forschungsgeologe Jack Sauers. „Er korreliert mit dem Untergang des Römischen Reiches. Er korreliert mit dem Untergang des Sumerischen Reiches. Sie korreliert mit dem Untergang des Osmanischen Reiches (als Ghengis Kahn [Dschingis Khan?] aus dem Norden einfiel). Er korreliert mit dem Untergang des Griechischen Reiches. Und er fällt nun mit dem Zusammenbruch mehrerer moderner Reiche zusammen“.

Leider fand der letzte Takt des Zyklus‘ der Kleinen Eiszeit vor fast genau 360 Jahren statt. „Wenn dieses Muster anhält“, so Fairbridge und Sanders, „dann ist zu erwarten, dass eine vergleichbare Kleine Eiszeit … zu Beginn des einundzwanzigsten Jahrhunderts einsetzen wird“.

Aber Moment, es wird noch schlimmer. Multipliziert man den Zyklus der Kleinen Eiszeit mit vier, erhält man einen Zyklus von 1440 Jahren mit noch härteren Klimabedingungen. Über diesen Zyklus, der im grönländischen Eisschild entdeckt worden war, hat 1997 Paul Mayewski et al. berichtet. (Zeitschrift für geophysikalische Forschung, 30. November 1997)

Der 1440-Jahres-Zyklus bringt „dramatische und schnelle“ Klimaveränderungen (in einigen Gebieten trocken, in anderen feucht) und eine weltweite Ausdehnung der Gletscher mit sich. Der Zyklus scheint mit internen Oszillationen im Ozean-Klima-System zusammenzuhängen, sagt Mayewski (die ich dem Unterwasser-Vulkanismus zuschreibe, der durch Veränderungen der geomagnetischen Intensität ausgelöst wird, diese wiederum ausgelöst durch die Veränderungen der Sonne).

Was auch immer die Ursache ist, ein ähnlicher 1440-Jahres-Zyklus wurde in den Tiefseekernen des Nordatlantiks gefunden (Bond et al., Science, 14. November 1997). Unser Klima htte sich vor etwa 4200 Jahren plötzlich abgekühlt, sagte Bond. Ähnliche Rückgänge gab es vor etwa 2800 Jahren und vor 1400 Jahren, was bedeutet, dass der nächste Takt des 1400-Jahres-Zyklus fällig ist.

Als ob das noch nicht genug wäre – multipliziert man den 1440-jährigen Zyklus mit acht, erhält man 11.520, was verdächtig nahe am 11.500-jährigen Eiszeitzyklus liegt.

Hier sitzen wir also. Der nächste Takt des 179-jährigen solaren Retrograd-Zyklus‘ ist fällig. Der nächste Takt des 360-jährigen Zyklus‘ der Kleinen Eiszeit ist fällig. Der nächste Takt des 1440-jährigen Eiszeitzyklus‘ ist fällig. Der nächste Takt des 11.500-jährigen Eiszeitzyklus‘ ist fällig. Der nächste Takt des 100.000-jährigen Eiszeitzyklus‘ ist fällig. . . . und wir sind besorgt über die globale Erwärmung?

Es ist lächerlich, sich über die globale Erwärmung Sorgen zu machen.

Wir müssen uns auf eine Eiszeit vorbereiten. Wie Fairbridge und Sanders es ausdrückten: „Die Würfel der Natur halten wirklich etwas bereit. Wenn wir die historischen Vorgänge in den geologischen Aufzeichnungen so klar erkennen können, können wir diese Würfel vielleicht zu unseren Gunsten auswerten.

Link: https://www.iceagenow.info/the-solar-retrograde-cycle/

Übersetzt von Chris Frey EIKE




Helden-Doku im Ersten: ein Jahr mit FFF-Aktivisten

Am 18. November, spät im Anschluß an den Film „Ökozid“ und die zugehörige ‚Maischberger‘-Rederunde mit nur einem  Alibi-Kritiker sendete das erste eine Fridays-for-future-FFF-Doku über Aktivisten vor allem aus der Hauptstadt. Luisa Neubauer war natürlich häufiger auch zu sehen, der Focus lag aber auf jüngeren Gesichtern wie Clara Meyer. Clara hatte, Sie erinnern sich vielleicht, mit einem Rundzopf auf dem Kopf 2019 eine feurige Rede auf einem Aktionärstreffen gehalten bzw. vorgelesen.

Die Abiturientin ist im Film mit einem Freund zu sehen, wie sie in einer öffentlichen Diskussion in Frankfurt (O) dem FDP-Chef Christian Lindner Vorwürfe – nun ja – vorliest und sich dann schnell aus dem Staub machen will. Der konsternierte Politiker wäscht den beiden Teens sogleich den Kopf und mahnt eine demokratische Diskussion an, woraufhin Clara ihm zugleich hilflos und herablassend bedeutet, er solle bei irgendeinem Demonstriertag von FFF vorbeischauen und sich rechtfertigen. Die Zuschauer im Saal quittieren das kindische Verhalten der beiden mit Buhrufen. Clara und ihr Mitstreiter versuchen indes draußen vor dem Saal ihre Blamage mit triumphalen Gesten zu überspielen. Die Pointe: Zuvor, auf der Hinfahrt nach Frankfurt (im Zug natürlich), machen sich die beiden darüber lustig, daß Politiker wie Lindner FFF-Kindern aufgrund ihres Alters und fehlender Bildung die Kompetenz absprechen, beim Klima mitreden zu können. Nun ja, offenbar nicht ganz zu Unrecht, wie die beiden bewiesen.

Diese Szene war in der ganzen Sendung eine der wenigen, die die wahren Motive der Fridays-for-no-future-Bewegung offenbart. Zumindest ausdrücklich. Unterschwellig bekommt man im Film durchaus noch mehr Wahrheit mit, wenn man genau hinsieht. Trotz daß Deutschland, wie ein aktueller Edeka—Weihnachtsspot gerade betont, eine bunte Gesellschaft besitzt, sieht man im Film mit der Ausnahme eines Asiaten nur deutsche Bürgerkinder bei FFF. Der Kleidungsstil der Frauen (z.B. C.M.) und die Attitüden der Protagonisten lassen fast durchweg auf das obere Viertel der Gesellschaft schließen. Ein junger Mann mit blonden Haaren, der als Fotograf für die FFF-Demos in Berlin fungiert, kündigt beispielsweise an, sich aus der Bewegung zurückzuziehen und nun eine Weltreise anzutreten. Im Hintergrund sieht man eine riesige Weltkarte an der Wand, die teilweise mit Fotos verziert ist. Die Position der Schnappschüsse auf den Kontinenten läßt darauf schließen, daß der junge Fotograf dort schon war und –ähnlich wie Luisa Neubauer auf Instagram – mit seiner Globetrotterei ein wenig angeben will. Typisch für das Milieu der Großbürgerkinder: Reisen kann jeder HartzIV-Empfänger; aber die Elite fliegt laufend und Langstrecke.

Am Ende der Dokumentation kommt wieder etwas expliziter schlechte Stimmung auf, als die Protagonisten von ihrer Corona-Depression (gerne denglisch Depreschen ausgesprochen – man ist schließlich Weltbürger*in) erzählen, die auch daher rührt, daß mit der Viruspanik seitens der Regierung und der Medien die Klimapanik deutlich zurückgefahren wurde und die kameraaffinen Aktivisten wie Luisa N., die sich auch deutlich verärgert zeigt, nicht mehr die gewohnte Aufmerksamkeit erhalten.

Ein Junge, der erst 15 Jahre ist, zeigt in einer Aussage eine erstaunliche Reife, als er meint, durch seinen Aktivismus habe er andere Menschen nur noch als Klimaschädlinge wahrgenommen, und nun, in der Depressionsphase, habe er gemerkt, daß er damit etwas tat, was er eigentlich ablehne.

Ein weiterer Lichtblick am Ende des Films: Aktivistin Clara macht im Krankenhaus ein Praktikum als Hilfsschwester in der Intensivstation. Wenn es lange genug geht, kann ihr das nur guttun, wenn sie die Realität des Lebens außerhalb ihres behüteten wohlhabenden Elternhauses kennenlernt. Wer weiß, vielleicht studiert sie ja Medizin, oder noch besser: Sie macht eine Ausbildung zur Krankenschwester.