Polareis trotzt dem Klimakrisen-Narrativ

Heartland Institute

Fast jede Einschätzung der Klimamodelle und folglich jede düstere Warnung, die von Alarmisten auf der Grundlage der Simulationen der Modelle ausgesprochen wurde, ist im Laufe der Jahre durch Zeit und Beweise widerlegt worden. Selbst die eine Prophezeiung, die für eine kurze Zeit am wahrscheinlichsten zu sein schien – das Verschwinden des Meereises in der Arktis – ist inzwischen kein Thema mehr, vor allem, nachdem zusätzliche Forschungen den starken Rückgang des arktischen Meereises nach 1996 in einen Zusammenhang gebracht haben.

Jüngste Forschungsergebnisse zeigen deutlich, dass sich die von den Klimamodellen prognostizierte Geschwindigkeit des Temperaturanstiegs, der Anstieg des Meeresspiegels, das Aussterben der Eisbären und die Zunahme extremer Wetterereignisse aller Art allesamt als falsch erwiesen haben.

Schauen wir uns zunächst die Meereisdaten an. Eine Studie der Global Warming Policy Foundation (GWPF) aus dem Jahr 2021 untersuchte die Daten im Detail und fand keinen Hinweis darauf, dass das Meereis an einem der beiden Pole unmittelbar vor dem Verschwinden steht.

Der GWPF-Bericht weist darauf hin, dass der ehemalige Vizepräsident Al Gore in seiner Nobelpreisrede im Jahr 2007 auf Forschungsergebnisse verwies, die seiner Meinung nach zeigten, dass das arktische Meereis „von einer Klippe fällt“ und aufgrund der fortgesetzten Nutzung fossiler Brennstoffe bald verschwinden wird. Gores Behauptung stützte sich auf Forschungen von Wissenschaftlern der U.S. Naval Postgraduate School, die ein regionales Modell des Meereis-Ozean-Systems in der Arktis verwendeten, welches auf Beobachtungsdaten für den 12-Jahres-Zeitraum 1996-2007 beruht, um zu dem Schluss zu kommen, dass die Arktis irgendwann zwischen 2013 und 2019 im Sommer praktisch eisfrei sein würde.

Die Vorhersage war falsch; Meereis gibt es immer noch. Und wie sich herausstellte, deuten spätere Untersuchungen darauf hin, dass die derzeitige Ausdehnung des arktischen Meereises im Sommer nicht einmal für die jüngere Geschichte ungewöhnlich ist, geschweige denn für lange Zeiträume. Tatsächlich hat sich das arktische Meereis in der Vergangenheit innerhalb weniger Jahre oder Jahrzehnte dramatisch ausgedehnt und zurückgezogen, wobei das Meereis von Anfang 1900 bis in die 1940er Jahre eine ähnliche Ausdehnung hatte wie das heutige Sommer-Meereis. Danach nahm das sommerliche Meereis in der Arktis stark zu und begleitete den leichten globalen Abkühlungstrend von den 1950er bis zu den frühen 1980er Jahren. Während dieses Zeitraums erreichte das arktische Meereis einen Höchststand in diesem Jahrhundert.

Es scheint, dass die Prophezeiungen über den Rückgang des arktischen Sommer-Meereises, die auf den Daten einiger weniger Jahre beruhen und von Klimamodellprojektionen zu einem langfristigen Trend extrapoliert wurden, der einen steilen Rückgang ab 2006 beinhaltete, keine Grundlage im historischen Eisverhalten der Region hatten. Der Rückgang bezog sich auf einen Spitzenzeitraum in diesem Jahrhundert und nicht auf den langfristigen Durchschnitt der Meereisausdehnung. Der Rückgang des sommerlichen Meereises in der Arktis hat sich seit 2007 deutlich verlangsamt, wobei es in einigen Jahren zugenommen und in anderen Jahren abgenommen hat. Ausgehend von der derzeitigen langsamen Abnahme zeigen die Daten, dass es laut der Analyse von J. Ray Bates, einem außerordentlichen Professor für Meteorologie an der School of Mathematics and Statistics am University College Dublin und Verfasser der GWPF-Studie mehr als 500 Jahre dauern würde, bis die Arktis im September eisfrei wäre, wenn der Trend des jüngsten 15-Jahres-Zeitraums beibehalten würde.

Das Meereis in der Antarktis ist sogar noch verwirrender für die Klimamodellprojektionen. Während die Prognosen der Modelle durchweg darauf hindeuten, dass das Meereis dort einen ähnlichen Rückgang erfahren sollte wie in der Arktis, hat die Meereisausdehnung in der Antarktis im Laufe der Zeit tatsächlich leicht zugenommen. Die Meereisausdehnung der Antarktis nahm von 1980 bis 2015 stetig zu und erreichte 2014 und 2015 neue Rekordwerte, bevor sie einige Jahre lang stark zurückging. Seit 2019 hat sich das antarktische Meereis auf ein Niveau erholt, das in den 1980er und frühen 1990er Jahren üblich war, also zu Beginn einer längeren Wachstumsperiode. Entgegen den Prognosen der Klimamodelle hat das Meereis um die Antarktis seit den 1980er Jahren insgesamt zugenommen, und der Wachstumstrend ist steigend.

Das Meereis ist nicht das Einzige, was dort passiert. Auch akkumulierendes Eis und Schnee auf dem antarktischen Kontinent haben zugenommen. Während sich die Klimaalarmisten auf den Gletscherrückgang auf dem westantarktischen Eisschild und der angrenzenden antarktischen Halbinsel konzentrieren, legt die Antarktis insgesamt beträchtliche Mengen an Eis zu. Man darf nicht vergessen, dass die Westantarktis und die Halbinsel nur einen relativ kleinen Teil des Kontinents ausmachen, der in Teilen von unterirdischen, geologisch aktiven Wärmequellen unterlagert wird. Die Halbinsel ist auf drei Seiten von offenen Meeren umgeben und wird daher direkter von den Temperaturen und Strömungen an der Meeresoberfläche beeinflusst als die inneren Teile des Kontinents.

Schelfeis stabilisiert und verlangsamt oder blockiert den Fluss des auf dem Boden liegenden Eises ins Meer. In einer kürzlich in der Fachzeitschrift Cryosphere veröffentlichten Arbeit wurden die Nettoauswirkungen des antarktischen Eisschilds untersucht, die sich aus den beobachteten und gemessenen Veränderungen der den Kontinent umgebenden Schelfeisflächen ergeben. Die Forscher nutzten Satellitendaten und Bildmaterial, um die Veränderungen von 34 Schelfeisflächen in der gesamten Antarktis von 2009 bis 2019 zu messen. Sie fanden heraus, dass das Wachstum des Schelfeises in der Ostantarktis den Rückgang in der Westantarktis und auf der antarktischen Halbinsel, über den in den Mainstream-Medien so oft berichtet wird, bei weitem übertraf:

In den letzten zehn Jahren wurde die Verringerung der Fläche auf der Antarktischen Halbinsel (6693 km²) und der Westantarktis (5563 km²) durch die Zunahme der Fläche in der Ostantarktis (3532 km²) und der großen Ross- und Ronne-Filchner-Schelfeisgebiete (14 028 km²) überkompensiert. …

Insgesamt ist die Fläche des antarktischen Schelfeises seit 2009 um 5305 km² gewachsen, wobei sich 18 Schelfe zurückzogen und 16 größere Schelfe an Fläche zunahmen. Unsere Beobachtungen zeigen, dass die antarktischen Schelfeisflächen in den letzten zehn Jahren 661 Gt Eismasse hinzugewonnen haben.

Das Netto-Wachstum der Schelfe im letzten Jahrzehnt stimmt mit den Ergebnissen der NASA für den gesamten Eisschild überein. Anhand von Satellitendaten fand die NASA heraus, dass die Antarktis zwischen 1992 und 2001 im Durchschnitt 112 Milliarden Tonnen Eis pro Jahr zugenommen hat, was sich zwischen 2003 und 2008 auf einen Nettozuwachs von 82 Milliarden Tonnen Eis pro Jahr verlangsamte.

Die Zuwächse an Meereis, Schelfeis und festem Landeis in der Antarktis widersprechen den Behauptungen des IPCC, wonach der Klimawandel einen Nettoverlust an Eis und Schnee in der Antarktis verursacht (oder verursachen sollte). Diese Behauptungen beruhen übrigens auf den gleichen Computer-Modellprojektionen, die andere Klimatrends durchweg falsch wiedergegeben haben.

Quellen: Global Warming Policy Foundation; Climate Change Dispatch; The Cryosphere

Link: https://heartlanddailynews.com/2023/06/climate-change-weekly-473-polar-ice-defies-climate-crisis-narrative/

Übersetzt von Christian Freuer für das EIKE

 




Was die Medien verschweigen über … Wald- und Buschbrände

Was das IPCC wirklich sagt, Trends und die Komplexität der Anpassung

Roger Pielke Jr.

[Alle Hervorhebungen im Original! A. d. Übers.]

Waldbrände, die in vielen gesunden Ökosystemen vorkommen, sind wegen ihrer Auswirkungen auf Eigentum und Gesundheit ein besonders schwieriges Problem für die Gesellschaft. Es ist auch deshalb eine Herausforderung, weil sich Menschen gerne an feuergefährdeten Orten aufhalten und Dinge tun, die Brände entfachen. Wir haben aus harter Erfahrung gelernt, dass die vollständige Unterdrückung von Waldbränden nicht die beste Strategie ist, da sie zu noch größeren und schädlicheren Waldbränden führen kann. Diese Dynamik macht Waldbrände zu einem schwierigen Thema für die Politik.

In dieser Woche ist der Rauch von Waldbränden in Kanada entlang der Ostküste der Vereinigten Staaten nach Süden gezogen und hat New York City und Washington, DC, in Mitleidenschaft gezogen. Entsprechend viel Aufmerksamkeit wurde in den Medien erregt. Das Ereignis sollte einen lehrreichen Einblick in die Komplexität des Klimas und die Herausforderungen der Anpassung an eine unbeständige Welt bieten.

In diesem Beitrag gehe ich auf einige Aspekte der Waldbrände ein, die meiner Meinung nach in der öffentlichen Diskussion fehlen. Ich beginne damit, was das IPCC über Waldbrände sagt, diskutiere leicht verfügbare Daten über Waldbrandtrends und schließe mit der Komplexität der Politik angesichts der vernetzten Mensch-Umwelt-Dynamik.

Das IPCC hat weder das Auftreten von Bränden noch die verbrannte Fläche auf den vom Menschen verursachten Klimawandel zurückgeführt.

Das IPCC ist natürlich nicht unfehlbar, aber er ist unverzichtbar und immer ein guter Ausgangspunkt, wenn es darum geht, was über Extremereignisse und ihre Auswirkungen bekannt ist. Viele Menschen sind überrascht, wenn sie erfahren, dass das IPCC keine Trends oder Ursachen von Waldbränden untersucht.

Stattdessen konzentriert man sich dort auf das „Feuerwetter“, das er definiert als:

„Wetterbedingungen, die das Entstehen und die Aufrechterhaltung von Waldbränden begünstigen, in der Regel auf der Grundlage einer Reihe von Indikatoren und Kombinationen von Indikatoren wie Temperatur, Bodenfeuchtigkeit, Feuchtigkeit und Wind. Zum Brandwetter gehört nicht das Vorhandensein oder Fehlen von Brandlasten. Hinweis: Unterscheidet sich vom Auftreten von Waldbränden und der verbrannten Fläche.“

Damit ein Waldbrand entstehen kann, braucht es mehr als nur „Feuerwetter“ – es braucht auch Brennstoff und eine Zündquelle. Dem IPCC zufolge ist das Wetter nicht der wichtigste Faktor bei Bränden: „Menschliche Aktivitäten sind zum wichtigsten Faktor geworden“. In der Tat werden die meisten Waldbrände durch menschliche Aktivitäten ausgelöst.

Der IPCC äußert „mittleres Vertrauen (etwa 50-50), dass es in einigen Regionen positive Trends bei den Bedingungen des „Feuerwetters“ gibt:

„Es besteht ein mittleres Vertrauen darin, dass Wetterbedingungen, die Waldbrände begünstigen (Feuerwetter), in Südeuropa, Nordeurasien, den USA und Australien während des letzten Jahrhunderts wahrscheinlicher geworden sind“.

Bis 2050 erwartet der IPCC mit „hohem Vertrauen“ (etwa 8/10), dass das Feuerwetter nur in einigen wenigen Regionen zunehmen wird, wie die roten Kreise in der IPCC-Abbildung zeigen, die ich unten kommentiert habe:

Das IPCC gibt auch an, wann er erwartet, dass das „Auftreten“ eines Signals des Klimawandels für verschiedene „Klima-Auswirkungsfaktoren“ nachweisbar sein wird. Ich habe diese Tabelle unten wiedergegeben, wobei „Feuerwetter“ blau hervorgehoben ist. Die meisten Menschen werden wahrscheinlich von der Anzahl der weißen Zellen in der Tabelle überrascht sein, die auf das Fehlen eines Signals hinweisen, sogar bis 2100 und unter unserem alten Freund RCP8.5. Für „Feuerwetter“ ist bis 2100 kein Signal zu erkennen.

Wer den IPCC (und meine Beiträge zu seinen jüngsten Berichten) aufmerksam verfolgt, dem wird vielleicht auffallen, dass einige der Einträge in der obigen Tabelle nicht mit den Behauptungen über Entdeckung und Zurechnung überein zu stimmen scheinen, die an anderer Stelle im IPCC AR6 gemacht werden – dem würde ich zustimmen. Aber das ist ein Thema für das IPCC.

Kurz gesagt, das IPCC liefert keine Grundlage für eindeutige Behauptungen über die Entdeckung oder die Zuordnung von „Feuerwetter“ zum Klimawandel. Das IPCC äußert sich nicht zu Trends bei der Anzahl der Brände und der verbrannten Fläche. Diese Schlussfolgerungen stehen im Widerspruch zu fast allen Medienberichten.

Sehen wir uns nun einige Daten an.

Weltweit sind die Emissionen von Waldbränden in den letzten Jahrzehnten zurückgegangen, ebenso wie in vielen Regionen:

Die obige Abbildung zeigt, dass die Emissionen von Waldbränden seit 2003 weltweit zurückgegangen sind, basierend auf Daten der EU. Das bedeutet jedoch nicht, dass Waldbrände überall zurückgegangen sind. Zum Beispiel haben Waldbrände in den letzten Jahrzehnten im Westen der Vereinigten Staaten, in Frankreich und Russland zugenommen. Es bedeutet jedoch, dass die Behauptung, die Waldbrände hätten in den letzten Jahrzehnten weltweit zugenommen, empirisch nicht belegt werden kann, zumindest wenn man diese wichtige und weithin anerkannte Messgröße zugrunde legt.

In Kanada – wo in dieser Woche ausgedehnte Brände die Luft im Osten der USA und anderswo belasteten – hat die Feueraktivität in den letzten Jahrzehnten nicht zugenommen, wie aus der nachstehenden Abbildung mit offiziellen Daten hervorgeht:

Waldbrände in Kanada. Quelle: NFDP

Auch in Quebec gibt es keine Anzeichen für eine langfristige Zunahme der Feueraktivität, wie man unten erkennt. Vielmehr waren die letzten Jahre ungewöhnlich ruhig:

Waldbrände in Quebec. Quelle: NFDP

Ein Blick auf die Daten des NFDP zeigt, dass die meisten Brände in Québec und die Fläche, die sie in den letzten zehn Jahren verbrannt haben, von Menschen ausgelöst wurden, während der Rest durch Blitzschlag verursacht wurde, wie die folgende Abbildung zeigt:

Über einen viel längeren Zeitraum, der bis ins Jahr 1700 zurückreicht, deuten die Forschungsergebnisse darauf hin, dass die „Verbrennungsraten“ in den letzten Jahrzehnten in ganz Kanada viel niedriger waren als in den vergangenen Jahrhunderten, wie aus der nachstehenden Abbildung hervorgeht:

Das sind viele Daten, ich weiß. Was man daraus mitnehmen sollten, ist Folgendes:

● Waldbrände haben in den letzten Jahrzehnten weltweit abgenommen;

● Dennoch haben einige Regionen einen Anstieg zu verzeichnen;

● Weder in Kanada noch in Quebec hat es in diesem Jahrhundert eine Zunahme gegeben;

● Die Häufigkeit von Bränden in ganz Kanada ist heute geringer als in den vergangenen Jahrhunderten.

Waldbrände sind ein natürlicher Bestandteil von Ökosystemen, hängen mit dem Klimawandel zusammen und sind ein Problem für die Gesellschaft.

Wie oben dargelegt, wird erwartet, dass sich der Klimawandel auf das Umfeld auswirkt, in dem Waldbrände entstehen, insbesondere durch verbesserte „Feuerwetter“-Bedingungen an einigen Orten. Auch wenn das IPCC derzeit nur ein mittleres Vertrauen hat und davon ausgeht, dass das eindeutige Auftreten eines Signals Jahrzehnte dauern kann, nehmen wir einfach an, dass der Klimawandel eine Wirkung hat.

OK – na und?

Einem prominenten Klimawissenschaftler zufolge gibt es nur einen Weg, wie wir Waldbrände in den Griff bekommen können, und zwar durch Änderungen in der globalen Energiepolitik:

Die einzige Möglichkeit, zu verhindern, dass diese Ereignisse häufiger und intensiver werden, besteht darin, die weitere Erwärmung des Planeten zu verhindern. Und die einzige Möglichkeit, dies zu tun, ist die schnellstmögliche Dekarbonisierung unserer Wirtschaft.

Das ist natürlich Unsinn. Es gibt sehr gute Gründe, die Weltwirtschaft zu dekarbonisieren, aber dies zu tun, um Waldbrände und ihre Auswirkungen zu kontrollieren, gehört nicht dazu.

Glücklicherweise gibt es viele Dinge, die getan werden können, um das Risiko von Waldbränden und die damit verbundenen Auswirkungen zu bekämpfen. Die OECD hat einen ausgezeichneten Bericht veröffentlicht, der viele dieser Präventionsmaßnahmen erörtert, die in der folgenden Abbildung zusammengefasst sind:

In Anbetracht der komplexen Zusammenhänge zwischen Mensch und Umwelt im Zusammenhang mit Waldbränden ist das IPCC-Rahmenwerk zur Erkennung und Zuordnung von Waldbränden möglicherweise nicht angemessen oder besonders nützlich. Wenn Waldbrände mehr sein sollen als nur ein Argument der Klimawandel-Propheten, müssen wir die vielen komplexen Zusammenhänge in ihrem lokalen Kontext ernst nehmen.

So haben wir gerade heute hier in Colorado erfahren, dass das Marshall-Feuer, welches im Dezember 2001 mehr als 1.000 Häuser in der Nähe von Boulder zerstörte, durch eine Kombination aus offenem Feuer und einer sich überspannenden Stromleitung entfacht wurde.

Aber die Katastrophe wurde durch eine Kombination aus Sturm, bewirtschafteten Freiflächen mit invasiven Arten, einem Niederschlagsdefizit, jahrzehntelangen Flächennutzungs-Entscheidungen, die Nachbarschaften neben brennbarem Land platzierten, Häusern aus brennbarem Material und mehr verursacht. Sicher, man kann sagen, dass der Klimawandel eine Rolle gespielt hat, wenn das passt, aber danach muss eine viel wichtigere Diskussion über Entwicklung, Bauvorschriften, Landnutzung und -verwaltung, Freiflächen, vorgeschriebene Brände und so weiter stattfinden.

Waldbrände sind in vielen Teilen der Welt wichtig. Sie werden in dem Maße an Bedeutung gewinnen, wie sich die Menschen in brandgefährdeten Gebieten weiterentwickeln und sich die „Feuerwetter“-Bedingungen ausweiten. Ein erster Schritt zu einer besseren Bewirtschaftung der brandgefährdeten Regionen besteht darin, ihre Komplexität zu verstehen, und das bedeutet, nicht alles auf das Klima zu reduzieren und die globale Energiepolitik nicht als einzige Lösung zu betrachten.

Link: https://rogerpielkejr.substack.com/p/what-the-media-wont-tell-you-about-783?utm_source=post-email-title&publication_id=119454&post_id=126926234&isFreemail=true&utm_medium=email

Übersetzt von Christian Freuer für das EIKE

 




Klimamodelle haben die Auswirkungen von CO₂ auf die globalen Temperaturen um den Faktor 5 überschätzt

Cap Allon

Eine neue Studie legt nahe, dass Kohlendioxidmoleküle nur geringe Auswirkungen auf die ausgehende Strahlung haben und dass die heutigen Klimamodelle dem CO₂ grundlegend falsche globale Temperatureffekte zuschreiben.

Russische Physiker (Smirnov und Zhilyaev, 2021) haben kürzlich ihre von Experten begutachtete Arbeit in der Sonderausgabe von Advances in Fundamental Physics für die Zeitschrift Foundations veröffentlicht.

Nach einer detaillierten Bewertung der Rolle der CO₂-Moleküle in der Atmosphäre stellen sie fest: „Wir haben einen Widerspruch gefunden zu den Ergebnissen der klimatologischen Modelle bei der Analyse des Treibhauseffekts der Erde.“

Die wichtigsten Punkte der Studie sind:

1. Klimamodell-Simulationen über die Auswirkungen von CO₂ auf die globalen Temperaturen sind um den Faktor 5 fehlerhaft, weil „in klimatologischen Modellen das grundlegende Kirchhoffsche Gesetz ignoriert wird“, das besagt, dass Strahler „gleichzeitig die Absorber sind.“

2. Eine Änderung der Konzentration einer optisch aktiven atmosphärischen Komponente (wie CO₂) „würde nicht zu einer Änderung des ausgehenden Strahlungsflusses führen.“

3. CO₂-Moleküle „sind nicht der Hauptstrahler der Atmosphäre“. Wasserdampfmoleküle sind es, und daher „können sie für die beobachtete Erwärmung der Erde verantwortlich sein.“

Die Diskrepanz zwischen der Treibhausgaswirkung von Wasserdampfmolekülen im Vergleich zu CO₂ wurde bereits an anderer Stelle angesprochen.

Lightfoot und Mamer (2014) und (2017) weisen darauf hin, dass Wassermoleküle a) 29-mal häufiger in der Atmosphäre vorkommen und 1,6-mal wirksamer bei der Erwärmung sind als CO₂-Moleküle, b) Wasserdampf 96 % des gesamten Strahlungsantriebs aller Treibhausgase ausmacht und c) eine Verdopplung der CO₂-Konzentration nur zu einem globalen Temperaturanstieg von 0,33 °C führen würde.

Die Befürworter der anthropogenen globalen Erwärmung können diese Ergebnisse blindlings abtun, so viel sie wollen, aber sie zeigen zumindest unwiderlegbar, dass die Wissenschaft noch lange nicht „settled“ ist.

Der Begriff „Konsens“ wird verwendet, um die falsch Informierten zu mobilisieren und, in diesem Fall, um schwache Politiker einzuschüchtern, damit sie eine verzerrte, menschenfeindliche Politik unterschreiben. In Wirklichkeit aber hat der Begriff Konsens in der Wissenschaft nichts zu suchen. In Bezug auf die globale Erwärmung ist die Wissenschaft noch nicht so weit – und dabei bin ich großzügig. Doch ohne eine offene und ehrliche Überprüfung der Literatur werden die Massen für immer im Dunkeln tappen und sich immer fragen, was die Erwärmung in der Zukunft bringen wird. Das Unbekannte ist ohnehin beängstigend, und die Eliten nutzen diese Angst aus und verstärken sie; diese korrumpierten Seelen nähren sich davon und missbrauchen sie bei der verbissenen Verfolgung ihres neuen totalitären Paradigmas.

Weisen wir das zurück!

Link: https://electroverse.info/cold-b-c-climate-change-everest-deaths-models-overestimate-co2s-impact/, darin der dritte Beitrag

Übersetzt von Christian Freuer für das EIKE

 




Das Sommer-Ritual

von KlimaNachrichten Redakteur

Alle Jahre wieder, man kann fast die Uhr danach stellen, folgen die gleichen Meldungen in den Medien. Eine davon betrifft Waldbrände. Wenn es lange Zeit nicht geregnet hat, dann begünstigt diese Tatsache Waldbrände. Die Temperatur ist dabei fast nicht entscheidend. Waldbrände gibt es auch im Frühjahr, es muss nur lange genug nicht regnen. Es kann sie sogar im Winter geben. Die Monate mit den meisten Bränden in Deutschland sind der April und der Juni.

So ist es auch dieses Jahr ein wiederkehrendes Ritual. Der Wald um das brandenburgischen Jüterbog brennt. Reflexartig wird der Klimawandel aus der Kiste geholt. Das ist aber allenfalls nur bedingt richtig. Waldbrände entstehen fast immer durch Menschen, entweder absichtlich oder fahrlässig. Das Problem bei Jüterbog (und auch anderen Waldflächen) ist die Tatsache, dass sie jahrzehntelang militärische Übungsplätze waren. Der Boden ist verseucht mit Munition, Löscharbeiten sind lebensgefährlich. In Jüterbog kann die Feuerwehr nur aus geräumten Gassen heraus das Feuer bekämpfen, was aber nicht erfolgreich sein kann. Man lässt das Feuer dort walten, solange keine Menschen gefährdet sind. Erschwerend kommt dazu, dass in Brandenburg sehr viele Nadelbäume die Wälder prägen. Ihre Nadeln brennen bei Feuer besonders gut und tragen es weiter.

Die Chance, dass auch um Jüterbog Menschen den Wald angezündet haben, ist groß, ganz gleich ob aus krimineller Energie oder aus Blödheit. Dennoch werden wir in den Medien nur vom Klimawandel lesen, aber nichts, von fehlender Adaption. In andere Teilen Brandenburg ist es ebenfalls trocken, aber dort können Feuer gelöscht werden, weil wir Menschen uns darauf eingestellt haben und Feuerwehren löschen können. Es ist zudem auch einfacher mit Achselzucken auf das Klima zu verweisen, statt die Räumung der Munition zu veranlassen. Das ist teuer und offenbar nicht gewollt. Die Tagesschau dazu:

“Die Feuerwehr stellt sich darauf ein, dass der Einsatz gegen den Waldbrand auf einem ehemaligen Truppenübungsplatz bei Jüterbog (Teltow-Fläming) noch Tage dauern wird. Die Feuerwehrleute kommen nicht nah genug an die Brandherde heran, weil das Gebiet mit alter Munition stark belastet ist. Es sei nur möglich, sich wegen der Explosionsgefahr auf geräumten Wegen rund um das Gebiet zu bewegen. Die Feuerwehr kontrolliere den Brandschutzstreifen und halte ihn nass, um zu verhindern, dass das Feuer auf weitere Areale übergreift. “Es ist frustrierend für den Feuerwehrmann, der hier steht und nichts machen kann”, sagte Feuerwehr-Einsatzleiter Rico Walentin. Insgesamt betrachtet dehne sich der Brand weiter aus und die Rauchentwicklung nehme wieder und ziehe in Richtung Treuenbrietzen, warnt die Feuerwehr.” 

Das Landwirtschaftsministerium hat interessante Daten und Fakten zu dem Thema Waldbrand. Leider fehlen noch die 2022er Daten. Sie erscheinen erfahrungsgemäß im Sommer. Bis 2021 sah der Trend jedenfalls so aus wie auf dem Chart. Das passt nur schwer zur Gleichung, es wird immer schlimmer.

Ein Bild, das Text, Diagramm, Screenshot, Reihe enthält. Automatisch generierte Beschreibung

(Abbildung: Screenshot BMEL)

Wir hatten bereits im Jahr 2019, das ist das Jahr mit einem extremen Peak über das Thema geschrieben und auch über die Reflexe der bekannten Protagonisten. Es hat sich nicht viel daran geändert.

Der Beitrag erschien zuerst auf dem Blog Klimanachrichten

 

 

 




Grünes Schrumpfen – die große Endzeitbeschleunigung

Eine kurze Geschichte

Das „grüne Schrumpfen“ und Rationierung sei nötig, um den Klimakollaps noch zu verhindern – diese Ideologie findet in Deutschland eifrige Fürsprecher. Ihre historischen Wurzeln reichen allerdings weit vor das Klimathema zurück. Die Überschriften der Apokalypse lauteten damals anders. Die Rettungsvorschläge blieben gleich – genauso wie die Figur des „guten Hirten“.

Von Alexander Wendt

Im Juli 2021 erschien in der taz ein Streitgespräch zwischen zwei Kontrahenten, die heute beide deutlich mehr Bekanntheit genießen als damals.Es handelte sich, wie bei den meisten formatierten Diskussionen in Deutschland, nicht um ein Gespräch unter Antipoden, sondern ziemlich Gleichgesinnten, die damals nur über den Weg zu einer, wie sie beide sagten, klimagerechten Gesellschaft konferierten. Auf der einen Seite argumentierte die taz-Wirtschaftsredakteurin Ulrike Herrmann, heute eine der bekanntesten Predigerinnen der autoritären Schrumpfungslehre. Auf der anderen Patrick Graichen, damals noch Chef der „Agora Energiewende“. Die innergrüne Debatte fand damals gewissermaßen hinter einem Vorhang statt, gedacht nur für das eigene Milieu. Ihre öffentliche Resonanz hielt sich damals in Grenzen. Deshalb sollte sie noch einmal aus dem Archiv ins Licht.

In dem Gespräch erledigt Herrmann eine Beruhigungsformel der Transformationsingenieure nach der anderen. Gleich am Anfang widerspricht sie der Behauptung, gerade der Verzicht auf fossile und nukleare Energieerzeugung, die Umstellung von Verkehr und Heizung auf Strom und der Industrie auf Wasserstoff setze neues Wachstum frei. „Grünes Wachstum“, so Herrmanns Befund, „ist nicht möglich“.

Sie rechnet auch vor, dass eine ausschließliche Energieerzeugung aus Wind, Sonne und Pflanzengas nicht zu der Industriegesellschaft passt, die in Deutschland noch existiert: „Wenn wir bis 2045 oder gar 2035 klimaneutral sein wollen, bleibt sehr wenig Zeit. Heute liegt der Anteil der Erneuerbaren am gesamten Energieverbrauch bei etwa 17 Prozent. Es ist völlig unklar, wie das in 30 Jahren auf 100 Prozent steigen soll.“

Graichen hält dagegen, das ginge durch „die Halbierung des Gesamtenergieverbrauchs“ sehr wohl. Was wiederum überhaupt nicht zu den Plänen der Gesamtelektrifizierung passt, an denen er später als Staatssekretär unter Robert Habeck arbeitete. Laut Habeck soll die deutsche Stromerzeugung von derzeit etwa 550 Terawattstunden bis 2030 auf etwa 750 Terawattstunden steigen. Das müsste sie auch, um den Strom für all die Wärmepumpen, Elektroautos und vor allem Wasserstofferzeugungsanlagen herzustellen. In seiner Argumentation widerspricht der Agora-Vertreter anderen Denkfiguren, die aus der gleichen ideologischen Produktion kommen. Und das nicht nur einmal. In einem Fall weist er sogar selbst auf eine erhebliche Lücke zwischen Plan und Wirklichkeit hin. „Die eigentliche Herausforderung“, meint er, „ist der Gebäudesektor, denn da muss der Energiebedarf wirklich halbiert werden. Und bisher ist noch nicht geklärt, wo all die Handwerker dafür herkommen sollen.“

Eine plausible Antwort bietet er nicht. Nach seinem vorübergehenden Wechsel in die Bundesregierung stellte er bekanntlich auch die Frage nicht mehr.
Als nächstes räumt Herrmann in dem Gespräch die Dauerwerbebehauptung beiseite, Wind- und Solarenergie wären im Vergleich zu allen anderen Erzeugungsarten unschlagbar günstig. „Man würde“, meint die taz-Mitarbeiterin zu Graichens Vorstellung von einer fantastischen Effizienzsteigerung, „dann damit nur die jetzige Produktion energieeffizienter angehen, das ist noch kein grünes Wachstum. Erneuerbare Energien sind außerdem teurer als die jetzige fossile Energie. Und der Kapitalismus braucht dringend billige Energie für sein Wirtschaftswachstum.“ Und weiter: „Aus meiner Sicht ist Energie alles. Ohne billige Energie hätte es den Kapitalismus nicht gegeben. Und Wachstum ohne billige Energie ist nicht möglich. […] Das Problem ist die Speicherung der Ökoenergie. Die Industriegesellschaft kann nicht stillstehen, sobald kein Wind weht und die Sonne nicht scheint. Mindestens zweimal im Jahr produzieren Wind- und Solarenergie mindestens zwei Tage lang fast gar nichts.“

Ressourcen sind im Westen und inzwischen fast weltweit nicht wirklich billig. Aber Herrmann trifft mit ihrer Feststellung den wesentlichen Punkt, dass die Höhe des Energiepreises darüber entscheidet, ob ein Land seinen Wohlstand halten kann. Und für andere Regionen, ob sie es schaffen, der Armut zu entkommen.
Herrmanns bemerkenswerter Schluss – und zwar der, der sich von der Argumentationsoberfläche grüner Regierungspolitik am deutlichsten unterscheidet – läuft darauf hinaus, dass eine westliche Bevölkerung unter den Bedingungen von Wahlen und freien Entscheidungen ein schrumpfungs- und Verarmungsprogramm nicht freiwillig mitmachen würde. „Niemand“, so ihre Argumentation, „sitzt in der Uckermark, wenn er nach Mallorca kann. Wenn man aber kein Energiegeld zahlt, können ärmere Leute nicht mehr fliegen – während es sich Reiche mühelos leisten können. Diese Ungerechtigkeit wäre in einer Demokratie nicht durchzuhalten: Wer nicht mehr fliegen darf, ist morgen bei der AfD. Bleibt also nur die Rationierung. Jeder bekommt einen Flug zugeteilt. Auch andere knappe Güter wird man rationieren müssen. So wird sich die Frage stellen, wer noch Auto fahren darf.“ Es wären ganz nebenbei noch ein paar andere Möglichkeiten nötig, etwa eine Art proklimatischer Schutzwall, der verhindert, dass Bürger und damit Steuerzahler massenhaft dorthin auswandern, wo eine Regierung sie nicht unter Totalkontrolle stellt. Graichens Handwerkerproblem würde sich damit erheblich verschärfen.

Natürlich wäre Herrmanns Gesellschaft eine Diktatur, noch nicht einmal eine weiche, sondern eine Ordnung, die sogar noch tiefer in das Privatleben jedes Einzelnen eingreift als die untergegangene Herrschaftsform im Ostblock. Anders als dort stünde auch kein gehaltloses Wohlstandsversprechen am Anfang, sondern gleich die Ankündigung von Enteignung, Überwachung und Strafe. Die in Deutschland und anderswo seit Generationen auftretende Figur des „guten Hirten“ (Karl Heinz Bohrer) mäße in Zukunft also den in Heloten verwandelten Bürgern jedes einzelne Gebrauchsgut zu. In dieser Welt müssten Helfer des Hirten natürlich mit dem CO2-Argument auch jeden Schwarzmarkt verfolgen, jede Schwarzheizung und jedes illegale Huhn auf dem Balkon. Aber bei aller Menschenfeindlichkeit lässt sich nicht abstreiten, dass Herrmann ein wirklich stringentes Modell entwirft, anders als Graichen, der den Staat zwar zum gleichen Endzweck umbauen möchte wie sie, bei Weg und Mitteln dorthin aber vage und widersprüchlich bleibt.

In ihrem Buch „Das Ende des Kapitalismus“ geht Herrmann ins Detail, beispielsweise, indem sie einen Einheitsspeiseplan entwirft, der „500 Gramm Obst und Gemüse, 232 Gramm Vollkorngetreide oder Reis, 13 Gramm Eier und 7 Gramm Schwein“ vorsieht. „Auf den ersten Blick“, schreibt sie, „mag dieser Speisezettel etwas mager wirken, aber die Deutschen wären viel gesünder, wenn sie ihre Essgewohnheiten umstellten. Rationierung klingt unschön. Aber vielleicht wäre das Leben sogar angenehmer als heute, denn Gerechtigkeit macht glücklich.“
Für Selbstgerechtigkeit trifft das auf jeden Fall zu, wie jedes Porträtfoto der taz-Autorin beweist.

In den siebziger und achtziger Jahren begründeten die westdeutschen Linken ihren Kampf gegen die Atomenergie mit dem Argument, die Kernkraftwerke mit Endlagern und dem nötigen Sicherheitsapparat führten zwangsläufig in den ‚Atomstaat‘ und damit zum Ende der Demokratie. Bekanntlich transformierte die Nukleartechnik weder Deutschland, Frankreich, Finnland noch andere Staaten in eine technokratische Diktatur. Die historische Pointe liegt darin, dass gerade ein Staat ohne Kernkraft, fossile Kraftwerke, Kraftstoffe und deshalb ohne ausreichend Energie sehr viel wahrscheinlicher auf genau diese Rutschbahn gerät, die im rationierten Glück durch Armut endet.

Auffälligerweise stehen die Kapitalismusverächter und Ressourcenzuteiler untereinander im harten Wettbewerb um Auflagen und Talkshowpräsenz. Neben Herrmann wirbt die Schrumpfpredigerin Maja Göpel für eine neue Ordnung durch Umverteilung; auf dem evangelischen Kirchentag ruft Heinrich Bedford-Strohm zur „schöpfungsgerechten Fortbewegung“ auf, wobei er vermutlich nicht seinen früheren Dienstwagen meint, einen BMW Plug-in Hybrid 745Le Drive, Listenpreis 106400 Euro. Jedenfalls nicht für alle. Entsprechende Verzichtsermahnungen gibt es bekanntlich auch in einer Art Dauerschleife von den öffentlich-rechtlichen Anstalten, die, ganz nebenbei, ab 2025 einen deutlich höheren Rundfunkbeitrag fordern.

Wenn eine Bewegung zwar bis jetzt noch keine Breite in der Bevölkerung gewinnt, aber sehr deutlich an Macht, dann rückt nach der Zustandsbeschreibung die Frage in den Mittelpunkt, wo die Wurzeln ihrer Ideologie liegen. So viel vorab: Sie reichen weit hinter die Klimadebatte zurück, sogar weit hinter den Club of Rome. In einer Hinsicht arbeiten Herrmann, Göpel und andere wirklich ressourcenschonend. Denn buchstäblich nicht ein Komma von dem, was sie vortragen, ist neu. Sie hantieren ausschließlich mit wiederaufbereiteter, bestenfalls neu abgemischter Importware, die nach 1945 entstand, und zwar fast ausschließlich in den Vereinigten Staaten.
Warum markiert gerade die Zeit nach dem Zweiten Weltkrieg den Beginn einer Denkschule, die Pascal Bruckner viele Jahrzehnte später – in kritischer Absicht wohlgemerkt – mit „sauver la terre, punir l’homme“ zusammenfasste, ‚die Erde retten, den Menschen bestrafen‘?

In der Wirtschaftsgeschichte gelten die Jahre zwischen 1914 und 1945 als Phase der großen globalen Unterbrechung. Nach dem steilen Produktivitätsanstieg ab 1880 flachte sich die Wachstumskurve bei Konsum, Ressourcenverbrauch und vielen anderen Kennzahlen in den Industrieländern in dieser Zeit von zwei Weltkriegen, Spanischer Grippe und Depression deutlich ab. Die Rüstungsindustrien stießen zwar bis dahin unvorstellbare Gütermengen aus, allerdings bestimmt zur möglichst schnellen wechselseitigen Vernichtung. Als nach 1945 die aufgebauten Industriekapazitäten für das zivile Leben produzierten, schoss das globale Sozialprodukt, der Konsum, der Energie- Wasser und Düngerverbrauch und das Bevölkerungswachstum steil in die Höhe. Das vor allem in den Industriestaaten, aber auch, wenn auch in sehr viel bescheidenerem Maß, in früher abhängigen Großregionen wie Indien. In dem Phänomen, das Umwelthistoriker später „The Great Acceleration“ nennen sollten, die ‚Große Beschleunigung‘, sah eine ganze Reihe von Theoretikern eine katastrophale Fehlentwicklung. Die Wohlstandszunahme in ihren westlichen Ländern machte ihnen Sorge, noch mehr aber die Aussicht, dass sich auch für ehemals unterworfene Länder die Chance öffnete, der Armut zu entkommen.

Als einer der ersten aus dieser Intellektuellenriege verfasste der amerikanische Umwelttheoretiker William Vogt 1948 das Manifest „Road to Survival“ („Der Weg des Überlebens“), in dem er den Untergang der Zivilisation vorhersagte, sollte es nicht gelingen, Bevölkerungs- und Wohlstandswachstum durch entschiedene Eingriffe zu bremsen. Und das nicht überall, sondern zunächst erst einmal dort, wo sich erste zarte Spuren des Armutsrückgangs zeigten. Vogt warf dem britischen Kolonialregime vor, die Lebensbedingungen auf dem indischen Subkontinent in unverantwortlicher Weise verbessert zu haben. „Vor der Pax Britannica“, schrieb er, „zählte Indien eine Bevölkerungszahl von weniger als 100 Millionen Menschen. Die Bevölkerungszahl wurde in Balance gehalten durch Krankheit, Hungersnot, Gewaltsame Auseinandersetzungen. In bemerkenswert kurzer Zeit gelang es den Briten, den gewaltsamen Auseinandersetzungen ein Ende zu setzen, Hungersnöte erheblich zu reduzieren, indem Bewässerungssysteme gebaut, Vorratsspeicher angelegt und Nahrungsmittel in schwerer Zeit importiert wurden. Während wirtschaftliche Konditionen und Hygieneverhältnisse verbessert wurden, blieben die Inder bei ihren Gewohnheiten und vermehrten sich mit der Verantwortungslosigkeit des Kabeljaus.“

In seinem enorm einflussreichen und vielfach übersetzten Buch stellte Vogt also nicht die zivilisatorischen Errungenschaften in den USA und anderswo im Westen in Frage. Er fand nur, dass außerhalb dieser Zone radikal schlechtere Bedingungen herrschen sollten. Anders sei es nicht möglich, das natürliche Gleichgewicht zu erhalten. Es ging nicht darum, um Pascal Bruckners Wort zu bemühen, alle Menschen zu bestrafen, sondern nur bestimmte, denen Vogt und kurze Zeit später andere Vordenker einen geringeren Wert zumaßen als ihnen selbst. Bei Willam Vogt handelte es sich um einen Pionier dieser Denkschule. Zum intellektuellen Star stieg etwas später der Biologe Paul Ehrlich mit seinem Buch „The Population Bomb“ („Die Bevölkerungsbombe“) auf, 1968 herausgegeben und mit einem starken Echo versehen durch den einflussreichen Sierra Club unter seinem damaligen Präsidenten David Brower. In dem Doomsday-Stil, der Jahrzehnte später auch die Klimadebatte bestimmen sollte, stellte Ehrlich fest, „die Schlacht, die gesamte Menschheit zu ernähren“, sei schon verloren. Es könnte nur noch um Notprogramme gehen, um das Allerschlimmste zu verhindern. Sein Rettungsvorschlag sah eine strikte Kontrolle des Bevölkerungs- und Wirtschaftswachswachstums durch Aufsicht, Verteilung und Rationierung vor. In seinem Buch und seinen späteren Äußerungen nahm er nicht nur die Entwicklungsländer in den Blick, sondern auch den Westen selbst.

Der Sierra Club, 1892 von John Muir als Naturschutzorganisation gegründet, wandelte sich vor allem unter Brower zu einer Organisation, die sich mehr und mehr der Gesellschaftspolitik widmete. Sie wand sich in seiner Amtszeit grundsätzlich gegen Kernkraft (später auch gegen größere Wasserkraftanlagen, gegen Fracking, gegen Kohleverstromung sowieso). Heute handelt es sich bei dem Sierra Club um ein politisch-wirtschaftliches Konglomerat; er vertreibt Solaranlagen, unterhält eine eigene Geldsammelorganisation zugunsten von Bewerbern der demokratischen Partei und konzentriert sich auf Wachstumskritik. Umweltschutz spielt eher aus Traditionsgründen noch eine kleinere Rolle. In seiner Entwicklung steht er idealtypisch für ein Muster, das sich so ähnlich fast überall in der westlichen Degrowth-Ideologie zeigt: Angehörige der (weißen) Ober- und Mittelschicht machen sich Gedanken darüber, wie sich Ärmere unter Berufung auf die Natur am besten vom Wohlstand fernhalten lassen.

Paul Ehrlich und ein anderer von David Brower unterstützter Theoretiker, der Autor und Physiker Amory Lovins kamen schon in den siebziger Jahren zu dem Schluss, den Ulrike Herrmann Jahrzehnte später nur wiederholte: dass Energie die Schlüsselrolle für eine Politik der Wachstumsbremsung spielt. Lovins entwickelte das Konzept des „soft path“, des „weichen Wegs“, für den er nur Solar- und Windenergie als zulässig erachtete – was faktisch, da er nie darlegte, wie die nötigen Energiemengen bei wetterabhängiger Erzeugung gespeichert werden sollten, auf die Vorstellung eine Niedrigenergiegesellschaft hinauslief. Den engen Zusammenhang zwischen einem knappen und nicht zu günstigen Energieangebot und einer Wohlstandsbegrenzung stellten beide selbst ausdrücklich her. „Es wäre fast schon desaströs“, so Lovins, „wenn wir eine billige, saubere, ausgiebige Energiequelle fänden, wenn man sich nur vorstellt, was wir damit anstellen würden.“ In “An Ecologist‘s Perspective on Nuclear Power“ schrieb Ehrlich 1975: „Die Menschen mit billigem Strom im Überfluss zu versorgen wäre tatsächlich so, als drückte man einem dummen Kind ein Maschinengewehr in die Hand.“ Nirgendwo außerhalb der USA erfuhr Lovins eine größere Anerkennung als in Deutschland, wo er 2016 das Bundesverdienstkreuz 1. Klasse erhielt, und zwar mit der ausdrücklichen Würdigung, er habe das intellektuelle Fundament für die deutsche Energiewende gelegt. Das trifft auch zu. Kein anderes Industrieland der Welt folgte bisher seiner Empfehlung, eine Volkswirtschaft nur auf Solar- und Windenergie umzustellen.

Ganz allmählich verschob sich die Begründung dafür, warum Wohlstand im Interesse höherer Ziele so dringend begrenzt werden mussten. Als Ehrlichs „Bevölkerungsbombe“ 1968 erschien, bremste Chinas Führung schon nach und nach das Bevölkerungswachstum mit ihrer Zweikind-Politik. In den westlichen Ländern ging die Geburtenraten nach Einführung der Pille zurück. Die eben noch als unausweichlich beschriebene Überbevölkerungskatastrophe rückte also allmählich aus dem Zentrum des apokalyptischen Denkens, um Platz für eine mit ganz ähnlicher Rhetorik beschworenen neue Endzeitvorstellung zu schaffen, dem bevorstehenden Ende fast aller natürlicher Ressourcen. Diese Idee hob der „Club of Rome“ ab 1972 auf die internationale Debattenbühne. Nach den damaligen Berechnungen, durchgeführt vom MIT (Massachusetts Institute of Technology), würden die Goldvorräte höchstens bis 1981 reichen, Quecksilber bis 1985, 1992 das letzte Fass Erdöl gefördert, 1994 unweigerlich der letzte Kubikmeter Gas, 1993 das letzte Kilo Kupfererz.

Die Rezepte dagegen glichen grundsätzlich denen gegen die Bevölkerungsbombe, nämlich Kontrolle, Wohlstandsbegrenzung, außerdem, und das noch ausgeprägter als bei Ehrlich, Rationierung und Verteilung durch eine Elite, die am besten wusste, wem weltweit wieviel Rohstoffe zustanden. Als sich sämtliche Voraussagen vom schnellen Ende der Rohstoffe als falsch herausstellten, stieg ab den neunziger Jahren die dritte große Endzeiterzählung im „Zeitalter der Beschleunigung“ auf: die Lehre vom unmittelbar bevorstehenden Klimakollaps durch Kohlendioxidemissionen. Die Maßnahmen lauteten auch hier: möglichst strenge Gesellschaftslenkung, Wachstums- und Wohlstandsrestriktionen. Je weiter sich das Denkgebäude entwickelte, desto lauter erhob sich die generelle Forderung, den Kapitalismus als Kern des Übels abzuschaffen, wenigstens aber den Schwellenländern nicht den gleichen Zugang zum Wohlstand zu erlauben. Hier führt ein sehr direkter Weg vom Brundtland-Report der Vereinten Nationen von 1987, der die Kernkraft für Entwicklungsländer als riskant und problematisch beschrieb, bis zu dem Auftritt von Luisa Neubauer, die am Rand der Klimakonferenz in Ägypten 2022 auf den EU-Kommissar Frans Timmermans einredete, um ihn davon zu überzeugen, Gasförderungsprojekte in Afrika zu verhindern.

Erst mit dem Rückblick auf den Ausgangspunkt der „Großen Beschleunigung“ – also die Zeit um 1945 bis 1950 – zeigt sich ein spätestens seit den Endsechzigern Denkmuster, bei denen die Überschriften wechseln, der Text darunter aber weitgehend konstant bleibt. Immer stellen westliche Technokraten und Intellektuelle aus der Mittel- und Oberschicht die Diagnose, immer steht die globale Katastrophe unmittelbar bevor und die Uhr deshalb fünf Sekunden vor zwölf. Immer lässt die Beweisführung keinen Platz für den geringsten Zweifel, jedes Mal konnte es sich bei denjenigen, die sich dem Ratschluss nicht bedingungslos unterwerfen, nur um Ignoranten und Böswillige handeln. Und spätestens seit den Siebzigern lautet der alternativlose Rat Lenkung, Planung, Rationierung, Zuteilung von Lebenschancen. Die darunterliegende Grundüberzeugung lässt sich am besten als Misstrauen gegen das selbständige Individuum beschreiben. Menschen sind demnach nicht zur Freiheit begabt; bekommen sie zu viel davon – und dieser Punkt ist schnell erreicht – dann richten sie damit nur Schaden an. Zu ihrem eigenen Besten bedürfen sie deshalb der Aufsicht durch die guten Hirten, die über bessere Einsichten verfügen als der Rest.

Zu der Begriffsprägung „Große Beschleunigung“ kam es übrigens ziemlich spät und retrospektiv auf der öffentlich nur wenig wahrgenommenen Dahlem-Konferenz zur „History of Human-Environmental Relationship“ 2005. Der Umwelthistoriker Will Steffen, einer der prägenden Figuren dieser Konferenz, schrieb später, die Wortschöpfung sei ein bewusster Rückgriff auf das Werk „The Great Transformation“ des Ökonomen Karl Polanyi von 1944 gewesen (auch diese Formel erfuhr also durch Klaus Schwab mindestens ihre Drittverwertung). Polanyi stellt darin dem Kapitalismus eine ungünstige Prognose, da er die Ungleichheit verstärke und schließlich in seinen Konflikten untergehen würde. Als Alternative empfahl er Wirtschaftslenkung jenseits des Marktes.

Zu keiner Zeit unternahmen diejenigen, die unter wechselnder Themenherrschaft eine Rettung der Welt vor den Menschen predigten – genauer: vor einer bestimmten Sorte Menschen – den Versuch einer gewissermaßen innerhumanen moralischen Begründung, warum bestimmten Ländern, Regionen und Personen weniger Lebenschancen zustehen sollten als anderen. Hier von einem blinden Fleck zu sprechen wäre untertrieben. Es handelt sich um ein blindes Zentrum im Inneren dieses Überzeugungssystems. Genauso wenig bemühen sich seine derzeitigen Verfechter, den Widerspruch zwischen einer Rationierungsgesellschaft nach dem Muster von Herrmann und den migrationspolitischen Vorstellungen aufzulösen, die in diesem politischen Milieu gleich in der Nachbarschaft siedeln. Denn die Präambel der Herrmannschen Zuteilungsgesellschaft kann nur lauten: Es gibt schon für diejenigen, die jetzt hier leben, nur sehr, sehr wenig Platz und Güter. Das Thema des Bevölkerungszuwachses in Afrika spricht auch keine Luisa Neubauer an, denn erst hier und nicht schon bei der Agitation gegen Gasförderung in Senegal zieht ihr das antirassistische Dogma die rote Linie. Nichts spaltete übrigens schon vor Jahrzehnten die Mitglieder des Sierra Clubs so sehr wie die Frage der Einwanderung in die USA.

Bei der Vorstellung, die Gesellschaft müsste zur Rettung der Natur von wissenden Hirten geleitet werden, handelt es sich um eine radikale Ungleichheitslehre und das seit ihren Ursprüngen nach dem Zweiten Weltkrieg. Die große Rechtfertigung von der Weltrettung durch Wohlstandsverzicht ganzer Weltregionen spiegelt sich im Kleinen der westlichen Gesellschaften maßstabgetreu wider. Ob nun Luisa Neubauer, die in ihrem Leben mehr Flugmeilen zurücklegte als fünf Arbeiterfamilien zusammen, ob die Fernsehfigur Joko Winterscheidt, bisher vor allem mit PS-starken Autos, Hubschraubern und ähnlich CO2-intensivem Gerät auf Sendung, die jetzt gerade eine Klimarettungsserie produziert – selbstredend wieder mit reichlich Flugverkehr – ob Robert Habeck, wöchentlich unterwegs mit Dienstlimousine und Helikopter zur Einweihung eines Windparks und zwischendurch mit dem Kleinflugzeug nach Davos, um dort neue „Freiräume durch Nachdenklichkeit“ (Jürgen Kaube) zu eröffnen – fast jeder gute Hirt zeichnet sich durch einen ums vielfache größeren Kohlendioxidfußabdruck aus als diejenigen, die sie zur strengen Diät auffordern. In die Kategorie gehört auch der FAZ-Feuilletonautor, der am 10. Mai 2023 in einem Text über eben jene „Große Beschleunigung“ schrieb:

„Die universalisierte Figur des Spießers, der sich mit seinem kleinen Glück begnügt, und dem gewiss nichts ferner liegt, als die Welt zu verändern, könnte sich als die gefährlichste Spezies erweisen, welche die Erde in ihrer viereinhalb Milliarden Jahre langen Geschichte beheimaten sollte.“

Interessant daran wirkt vor allem, dass der Autor den von ihm verachteten Spießer, der für sich nur ein kleines Stück Wohlstand und Sicherheit wünscht, als eigene Spezies innerhalb der Menschheit anspricht. Aber das folgt nur konsequent aus der Haltung, anderen per Definition nicht die gleichen Glücks- und Artikulationschancen einzuräumen, die der FAZ-Redakteur selbst beansprucht. Er dürfte auch ahnen, dass sein Lebensstil mit Fernreisen und einem gehaltsangemessenen Konsum vermutlich mehr Ressourcen verbraucht und CO2 emittiert als der Spießer mit seinem Holzkohlegrill auf dem solarkraftwerkslosen Balkon. Wenn es einerseits so etwas wie ein blindes Zentrum in diesem Denken gibt, dann auch ein unausgesprochene, aber immer innerlich mitgesummtes Credo: Ich rechtfertige meinen Wohlstand, indem ich den von Ärmeren bekämpfe. Und das natürlich nicht aus kultureller Verachtung, sondern zur Rettung von Mutter Gaia.

Ulrike Herrmann fällt nicht nur durch ihre brutale Ehrlichkeit beim Entwurf des Rationierungsparadieses etwas aus dem Raster, sondern auch dadurch, dass sie sich tatsächlich nicht viel aus materiellen Dingen zu machen scheint. Ihr Speiseplan deutet auf ein entschieden antihedonistisches Naturell hin, gegen das es nichts einzuwenden gibt, solange sie es jemand anderem nicht aufzudrängen versucht.

Die beiden Doomsday-Varianten Bevölkerungsbombe und Rohstoffversiegen erschöpften sich als Thema, siehe oben, nach einiger Zeit. Sie verflüchtigten sich nicht völlig, bildeten aber nicht mehr die Überschrift für die Weltlenkungsphantasie, nachdem sie ihren Fünf-Sekunden-vor-Zwölf-Ruhm hatten. Auch dem Klimaendzeitglauben steht diese thematische Erschöpfung bevor. Nicht gleich morgen, aber was seine Parolen und Gesten angeht, befindet er sich etwa im letzten Viertel seiner Laufzeit. Ein neues Großproblem drängt schon langsam herauf, das der alternden Gesellschaften. Es betrifft nicht nur alle westlichen Länder ab spätestens 2030, sondern bald auch China. Selbstverständlich handelt es sich um ein schweres und ernsthaftes Problem. Das galt ja auch für die rapide Bevölkerungszunahme nach 1950, für den Umgang mit Rohstoffen. Und auch Klimaveränderungen können Länder und Regionen schwer und negativ treffen. Nur findet sich eben historisch kein einziges Beispiel, dass jemals eine technokratische Priesterkaste mit zentraler Lenkung, mit Rationierung, Technik- und Marktfeindlichkeit und verordneter Armut für andere etwas zum Besseren gewendet hätte.

Trotzdem stehen die Chancen gut, dass auch in der kommenden Demographiekrise der gleiche Typus des Hirten wieder auf die Podien klettern und verkünden wird, dass die Welt sich nur mit ihrem Großlenkungsplan und seinen immergleichen Instrumenten retten lässt.

Ihr Überzeugungssystem funktioniert deshalb so robust, weil es sich von vornherein nicht auf Erkenntnis, sondern auf Macht und Rechtfertigung richtet. Vor allem das Rechtfertigungsbedürfnis sollte niemand unterschätzen. Denn die Retter vor der Endzeitkatastrophe erleiden Zyklus für Zyklus gleich zwei narzisstische Kränkung. Einmal dadurch, dass ihre Prognosen immer wieder an der Wirklichkeit abprallen und ein anderes mal deshalb, weil eine Mehrheit der Bürger es zu allen Zeiten ablehnte, sich den guten Führern freiwillig zu unterwerfen.

Der Beitrag erschien zuerst bei TE hier