Schätzungen der Erwärmung von 1970 bis 2021 aus der Klima-Sensitivität

Dr. Roy Spencer, Ph. D.

Als Reaktion auf die Kommentare der Gutachter zu einer von John Christy und mir eingereichten Studie über die Auswirkungen von El Nino und La Nina auf die Schätzungen der Klimasensitivität habe ich beschlossen, den Schwerpunkt so zu ändern, dass eine völlige Neufassung der Studie erforderlich wurde.

Sie befasst sich nun mit der Frage: Was bedeutet es für die Klimasensitivität, wenn wir alle verschiedenen Temperatur-Datensätze und ihre unterschiedlichen Schätzungen der Erwärmung in den letzten 50 Jahren nehmen?

Das Problem bei der Schätzung der Klimasensitivität anhand von Beobachtungsdaten besteht darin, dass man, selbst wenn die Temperaturbeobachtungen weltweit vollständig und fehlerfrei wären, immer noch ziemlich genau wissen muss, welcher „Antrieb“ die Temperaturänderung verursacht hat.

Zur Erinnerung: Jede Temperaturänderung in einem Objekt oder System ist auf ein Ungleichgewicht zwischen Energiegewinn und Energieverlust zurückzuführen, und die Hypothese der globalen Erwärmung geht von der Annahme aus, dass sich das Klimasystem von Natur aus in einem Zustand der Energiebilanz befindet. Ja, ich weiß (und stimme zu), dass diese Annahme nicht als absolut wahr bewiesen werden kann, wie Ereignisse wie die mittelalterliche Warmzeit und die kleine Eiszeit belegen.

Aber nehmen wir zur Veranschaulichung an, dass sie für das heutige Klimasystem zutrifft und dass der einzige Grund für die jüngste Erwärmung die vom Menschen verursachten Treibhausgasemissionen (hauptsächlich CO) sind. Deutet die derzeitige Erwärmungsrate darauf hin (wie uns gesagt wird), dass uns eine globale Erwärmungskatastrophe bevorsteht? Meiner Meinung nach ist dies eine wichtige Frage, die unabhängig von der Frage zu klären ist, ob ein Teil der jüngsten Erwärmung natürlichen Ursprungs ist (was AGW noch weniger zu einem Problem machen würde).

Lewis und Curry (zuletzt 2018) gingen die ECS-Frage auf ähnliche Weise an, indem sie die Temperaturen und die Schätzungen des Strahlungsantriebs von Ende der 1800er bis Anfang der 2000er Jahren verglichen und Antworten im Bereich von 1,5 bis 1,8 deg. C möglicher Erwärmung bei einer Verdoppelung der vorindustriellen CO-Konzentration (2 X CO). Diese Schätzungen liegen deutlich unter den Angaben des IPCC, die sich auf die Projektionen von Klimamodellen stützen.

Unser Ansatz ist etwas anders als der von Lewis & Curry. Erstens verwenden wir nur Daten aus den letzten 50 Jahren (1970-2021), d. h. aus dem Zeitraum des schnellsten Anstiegs des CO-bedingten Treibhauseffekts, dem Zeitraum des schnellsten Temperaturanstiegs und dem Zeitraum, der am weitesten zurückreicht, um mit Sicherheit Aussagen über den Wärmeinhalt der Ozeane machen zu können (eine sehr wichtige Variable bei Schätzungen der Klimasensitivität).

Zweitens ist unser Modell zeitabhängig, mit monatlicher Zeitauflösung, so dass wir (zum Beispiel) die jüngste Beschleunigung des Temperaturanstiegs in der Tiefsee (Wärmeinhalt des Ozeans) untersuchen können.

Im Gegensatz zu Lewis & Curry und der Differenzierung der Durchschnittswerte zweier Zeiträume, die mehr als 100 Jahre auseinander liegen, verwenden wir ein zeitabhängiges Modell der vertikalen Energieflüsse, über das ich schon einmal geschrieben habe. Es wird mit monatlicher Zeitauflösung betrieben und ermöglicht so die Untersuchung von Themen wie der jüngsten Beschleunigung des Anstiegs des ozeanischen Wärmeinhalts (OHC).

Als Reaktion auf die Kommentare der Rezensenten habe ich den Bereich der nicht von Eis bedeckten Ozeane (60N-60S) auf die globale Abdeckung (einschließlich Land) ausgedehnt und auf Bohrlöchern basierende Schätzungen der Erwärmungstrends in der Tiefe des Landes vorgenommen (ich glaube, das ist eine Premiere für diese Art von Arbeit). Das Modell bleibt ein 1D-Modell der Temperaturabweichungen vom angenommenen Energiegleichgewicht innerhalb von drei Schichten, die in Abb. 1 schematisch dargestellt sind:

Eine Sache, die ich dabei gelernt habe ist, dass, obwohl die Bohrlochtemperaturen auf eine Erwärmung hinweisen, die sich bis in eine Tiefe von fast 200 m erstreckt (deren Ursache mehrere Jahrhunderte zurückzuliegen scheint), moderne Erdsystem-Modelle (ESMs) eingebettete Landmodelle haben, die sich nur bis zu einer Tiefe von etwa 10 m erstrecken.

Eine andere Sache, die ich gelernt habe (im Laufe der Beantwortung der Kommentare der Rezensenten) ist, dass der angenommene Strahlungsantrieb einen ziemlich großen Einfluss auf die diagnostizierte Klimasensitivität hat. Ich habe das RCP6-Szenario für den Strahlungsantrieb aus dem vorherigen IPCC-Bericht (AR5) verwendet, aber als Reaktion auf die Vorschläge der Rezensenten betone ich jetzt das SSP245-Szenario aus dem jüngsten Bericht (AR6):

Ich habe alle Modellsimulationen entweder mit dem einen oder dem anderen Datensatz für den Strahlungsantrieb durchgeführt, initialisiert im Jahr 1765 (ein üblicher Ausgangspunkt für ESMs). Alle nachstehenden Ergebnisse basieren auf dem neuesten (SSP245) Szenario für den effektiven Strahlungsantrieb, das vom IPCC bevorzugt wird (und das, wie sich herausstellt, tatsächlich zu niedrigeren ECS-Schätzungen führt).

Die Modellexperimente

Zusätzlich zu der Annahme, dass die Szenarien für den Strahlungsantrieb eine relativ genaue Darstellung dessen sind, was den Klimawandel seit 1765 verursacht hat, besteht auch die Annahme, dass unsere Temperaturdatensätze genau genug sind, um ECS-Werte zu berechnen.

Wenn wir uns also auf diese Annahmen verlassen, können wir weitermachen…

Ich habe das Modell mit Tausenden von Kombinationen von Wärmeübertragungs-Koeffizienten zwischen den Modellschichten und dem Parameter für die Netto-Rückkopplung (der den ECS-Wert bestimmt) laufen lassen, um Temperaturtrends zwischen 1970 und 2021 innerhalb bestimmter Bereiche zu erhalten.

Für die Trends der Landtemperatur habe ich 5 „verschiedene“ Landdatensätze verwendet: CRUTem5 (+0,277 C/Dekade), GISS 250 km (+0,306 C/Dekade), NCDC v3.2.1 (+0,298 C/Dekade), GHCN/CAMS (+0,348 C/Dekade) und Berkeley 1 deg. (+0,280 C/Dekade).

Für die globale durchschnittliche Meeresoberflächentemperatur habe ich HadCRUT5 (+0,153 C/Dekade), Cowtan & Way (HadCRUT4, +0,148 C/Dekade) und Berkeley 1 deg. (+0,162 C/Dekade) verwendet.

Für den tiefen Ozean habe ich Cheng et al. 0-2000m globale durchschnittliche Ozeantemperatur (+0,0269 C/Dekade) und Chengs Schätzung der Erwärmung in der Tiefe von 2000-3688m verwendet, die eine (sehr unsichere) Gesamterwärmung von +0,01 über die letzten 40 Jahre ergibt. Das Modell muss die Oberflächentrends innerhalb des von diesen Datensätzen repräsentierten Bereichs und die Trends in 0-2000 m Tiefe innerhalb von +/-20 % der Trends der Cheng-Tiefseedaten erzeugen.

Da die Wärmespeicherung in der Tiefsee ein so wichtiger Faktor für die ECS ist, zeige ich in Abb. 3 den 1D-Modelllauf, der den 0-2000m-Temperaturtrend von +0,0269 C/Dekade über den Zeitraum 1970-2021 am besten wiedergibt:

Schließlich wird die Wärmespeicherung seitens der Landoberfläche bei solchen Bemühungen in der Regel ignoriert. Wie bereits erwähnt, sind in die Klimamodelle Modelle der Landoberfläche eingebettet, die nur bis in 10 m Tiefe reichen. Es wurden jedoch Bohrloch-Temperaturprofile analysiert, die auf eine Erwärmung bis zu 200 m Tiefe hindeuten (Abb. 4):

Diese große Tiefe wiederum deutet darauf hin, dass es einen Erwärmungstrend über mehrere Jahrhunderte gegeben hat, sogar im frühen 20. Jahrhundert, welchen der IPCC ignoriert und der auf eine natürliche Quelle für den langfristigen Klimawandel hindeutet. Jede natürliche Quelle der Erwärmung führt, wenn sie ignoriert wird, zu überhöhten Schätzungen des ECS und der Bedeutung des zunehmenden CO in den Projektionen zum Klimawandel.

Anhand der schwarzen Kurve (unteres Feld von Abb. 4) habe ich geschätzt, dass sich die oberflächennahe Schicht 2,5 Mal schneller erwärmt als die 0-100 m Schicht und 25 Mal schneller als die 100-200 m Schicht. In meinen 1D-Modellsimulationen benötigte ich diese Menge an Wärmespeicherung in der Tiefe (analog zu den Berechnungen der Wärmespeicherung in der Tiefe des Ozeans, aber mit schwächeren Wärmeübergangs-Koeffizienten für Land und anderen volumetrischen Wärmekapazitäten).

Die Verteilungen der diagnostizierten ECS-Werte, die ich für Land und Ozean erhalte, sind in Abb. 5 dargestellt:

Der endgültige globale durchschnittliche ECS aus den zentralen Schätzungen in Abb. 5 beträgt 2,09 Grad. C. Dies ist wiederum etwas höher als die 1,5 bis 1,8 deg. C, die Lewis & Curry ermittelt haben, aber das liegt zum Teil an den größeren Schätzungen für die Wärmespeicherung in den Ozeanen und an Land, die hier verwendet wurden, und ich vermute, dass unsere Verwendung von Daten aus den letzten 50 Jahren ebenfalls einen gewissen Einfluss hat.

Schlussfolgerungen

Ich habe ein zeitabhängiges 1D-Modell der Temperaturabweichungen vom angenommenen Energiegleichgewicht verwendet, um diese Frage zu beantworten: Was bedeuten die verschiedenen Schätzungen der Erwärmung an der Oberfläche und unter der Oberfläche in den letzten 50 Jahren für die Empfindlichkeit des Klimasystems gegenüber einer Verdoppelung des atmosphärischen CO?

Unter Verwendung der jüngsten Schätzungen des effektiven Strahlungsantriebs aus Anhang III des jüngsten IPCC-Berichts (AR6) deuten die Beobachtungsdaten auf eine geringere Klimasensitivität (ECS) hin als vom IPCC propagiert, mit einer zentralen Schätzung von +2,09 Grad Celsius für den globalen Durchschnitt. Dies liegt am unteren Ende der wahrscheinlichen Spanne des jüngsten IPCC-Berichts (AR6) von 2,0 bis 4,5 Grad. C.

Ich glaube, dass dies immer noch eine Obergrenze für ECS ist, und zwar aus den folgenden Gründen:

1. Die Bohrlochtemperaturen deuten auf einen langfristigen Erwärmungstrend hin, zumindest bis ins frühe 20. Jahrhundert. Wird dies (unabhängig von der Ursache) ignoriert, führt dies zu überhöhten Schätzungen des ECS.

2. Ich bin nach wie vor der Meinung, dass ein Teil der Landtemperaturdatensätze durch den langfristigen Anstieg der städtischen Wärmeinseleffekte verunreinigt wurde, die in Homogenisierungsschemata nicht von der Klimaerwärmung zu unterscheiden sind.

Link: https://wattsupwiththat.com/2022/12/20/climate-sensitivity-from-1970-2021-warming-estimates/

Übersetzt von Christian Freuer für das EIKE

 




Marcel Crok – Warum es keinen Klimanotstand gibt: Eine Analyse des 6. IPCC-Berichts

Jetzt auf deutsch!

15. Internationale EIKE Klima- und Energiekonferenz, IKEK-15, am 25. und 26. November 2022, Pfännerhall Braunsbedra bei Merseburg.
Marcel Crok von der Climate Intelligence Foundation CLINTEL untersucht mit seinen Kollegen die Sachstandsberichte des Weltllimarates und zeigt viele Fehler, sogar Manipulationen im aktuellen Bericht (AR6) auf.




Der Weihnachtssturm – Extremwetter in den USA

Christian Freuer aka Chris Frey (Einleitung sowie Teil 1) und Stefan Kämpfe (Teil 2)

Zwar mutet der Titel dieses Beitrags an wie eine Erzählung des Schriftstellers Chris Frey, aber hier ist er buchstäblich wörtlich zu nehmen.

Der Autor fragt sich schon lange, woher die Weiße-Weihnacht-Romantik eigentlich kommt. Im Internet werden unterschiedlichste Erklärungen aller Art angeboten. Die Frage stellt sich, weil aufgrund der Weihnachtsgeschichte des Lukas-Evangeliums, welche dieser Tage sicher wieder tausendfach gelesen wird, höchstselbst der Hinweis kommt, dass zu Jesu Geburt kein Winterwetter geherrscht haben kann.

Die Stadt Bethlehem liegt über 1000 m ü. NN hoch, und im dortigen Hochland ist es die absolute Ausnahme, wenn dort mal in einem Winter kein Schnee liegt. Wenn der „Sibirien-Express“ – sprich ein Kaltlufthammer aus Russland – direkt dorthin fährt, kann es regelmäßig -10 bis -20°C kalt werden.

Und warum kann das bei Jesu Geburt nicht der Fall gewesen sein? Nun, wie hätten die Hirten auf dem Felde unter solchen Bedingungen ihre Schafe hüten können?

Wie auch immer, der Traum von einer „Weißen Weihnacht“ ist nicht nur bei uns, sondern auch in den USA allgegenwärtig. Wer kennt nicht das berühmte Lied von Bing Crosby?

Damit kommen wir allmählich zum Kern dieses Beitrags. In weiten Gebieten der mittleren und östlichen USA bis hinunter nach Florida und zur Küste des Golfes von Mexiko gab es in diesem Jahr tatsächlich eine Weiße Weihnacht – aber was für eine!

Im Folgenden werden einige Graphiken gezeigt, welche die Entwicklung dieses Mega-Tiefdruckwirbels zeigen. Es ist eine spannende Frage, ob das in unseren werten MSM erwähnt wird (vermutlich ja) und in welchem Umfang, denn das Wetter dort drüben ist ja politisch absolut unkorrekt.

Teil 1: Entwicklung und Verlauf einer Zyklogenese, wie sie so wohl nur in den USA möglich ist

Tatsächlich fand dieser Sturm breiteren Raum in den MSM – natürlich mit den üblichen Übertreibungen. Nun, als „Extremwetter“ kann man das sicher bezeichnen, aber es ist keineswegs so ungewöhnlich wie man es uns einreden will.

Der nordamerikanische Kontinent ist gekennzeichnet durch von Nord nach Süd verlaufende Landschaftsformen. Zwischen den Appalachen im Osten (vergleichbar mit Mittelgebirgen bei uns) und den Gebirgen im Westen herrscht von Nord nach Süd und umgekehrt freie Bahn für Luftmassen jedweder Couleur. Tropische Meeresluft vom Golf von Mexiko trifft immer wieder auf arktische Festlandskaltluft aus Kanada. Auch kein ausgleichend wirkendes Meeresgebiet dämpft die Temperaturextreme – die Hudson-Bay ist wie üblich vollständig zugefroren.

Verstärkend kommt jedoch in diesem Falle hinzu, dass der kanadische Kältepol, der hier angezapft wird, diesmal außerordentlich kalt ist – aus welchen Gründen auch immer. Tatsächlich zeigen die Simulationen über den Jahreswechsel hinaus, dass sich auch in Kanada derartig extreme Kälte nicht wieder in dieser starken Ausprägung regenerieren soll.

Wie gesagt ist ein solcher Vorgang nicht ungewöhnlich. Er kommt in jedem Winter dort mehrmals vor. Auch der Autor hat in seiner Zeit in den USA (im östlichen Pennsylvania) mehrmals den Durchzug solcher Wetterphänomene erlebt. Einen davon hat er seinerzeit ähnlich analysiert wie im vorliegenden Fall. Höchst interessant waren jedoch die Wetter-Auswirkungen an Ort und Stelle. Diese hat der Autor damals so beschrieben:

Hier nun also der Ablauf der Wetterereignisse in Gestalt verschiedener Aspekte. Sinnvollerweise schaut man immer zunächst auf die Verhältnisse in höheren Schichten der Troposphäre:

[Hinweis: Alle genannten Zeitpunkte der Höhenkarten sind in UTC angegeben. Die Ortszeit im Osten der USA liegt etwa 6 Stunden zurück. 00 UTC entspricht also etwa 18 Uhr Ortszeit, usw. Graphiken der Abbildungen 1 bis 7 von wetterzentrale.de]

Abbildung 1: Wetterlage am 22. Dezember 2022 um 00 UTC: LINKS: 500 hPa Geopotential (bunt) und Bodendruck (weiße Linien), RECHTS: 850 hPa Temperatur (bunt) und Geopotential (weiße Linien).

[Zur Verdeutlichung: Geopotential 552 im 500-hPa-Niveau bedeutet, dass der Luftdruck in 5520 m ü. NN genau 500 hPa beträgt. Es ist von der Temperatur abhängig, wie hoch man steigen muss, um genau diesen Luftdruck zu haben.]

Während man im 500-hPa-Niveau nichts Besonderes erkennt, fällt bei der Temperaturverteilung im 850-hPa-Niveau der extrem starke Gradient über den zentralen USA auf. Ein solcher Vorgang deutet in den USA immer auf eine unmittelbar bevor stehende extreme Entwicklung hin. Die Luftdruckverteilung am Boden (weiße Linien in der linken Graphik der Abb. 1) zeigt aber noch ein relativ schwach ausgeprägtes Tiefdruckgebiet.

Schon 12 Stunden später zeigt sich aber schon deutlich der Beginn einer starken Entwicklung:

Abbildung 2: Wie Abbildung 1, aber am 22. Dezember 2022 um 12 UTC

Der Temperaturgradient im 850-hPa-Niveau ist sogar noch schärfer geworden. Subtropische Warmluft trifft direkt auf kanadische Festlandskaltluft.

Einschub: Wie extrem das sein kann, hat der Autor in einem früheren Fall dokumentiert, ohne dass diese Unterlagen heute noch verfügbar sind. Eines Tages im September 1982 meldete die auf etwa 1000 m Seehöhe liegende Stadt Amarillo in Texas mittags eine Temperatur von 33°C bei einem Taupunkt von 3°C – also trocken-heiße Wüstenluft. 12 Stunden später meldete die gleiche Station bei +1°C und schwerem Nordsturm Schneeregen – ein Temperatursturz von über 30 K innerhalb von 12 Stunden! – Ende Einschub]

Am 23. Dezember 2022 nahm die Entwicklung dann Fahrt auf:

Abbildung 3: Wie Abb. 1, aber am 23. Dezember 2022 um 00 UTC.

Abbildung 4: Wie Abb. 1, aber am 23. Dezember 2022 um 12 UTC

Abbildung 5: Wie Abb. 1, aber am 24. Dezember 2022 um 00UTC

Abbildung 6: Wie Abb. 1, aber am 24. Dezember 2022 um 12 UTC

Abbildung 7: Wie Abb. 1, aber am 25. Dezember 2022 um 00 UTC

Als besonders extrem muss im Verlauf der schwere Sturm an der Südwestflanke des Tiefdruckwirbels eingestuft werden, geht er doch einher mit genauso extrem niedriger Temperatur: Bei Windstärke 6 bis 8 Bft und Temperaturwerten unter -20°C zieht man sich fast augenblicklich Erfrierungen zu. Etwas salopp ausgedrückt: Es gibt dort zwar eine „Weiße Weihnacht“, aber ob das unter diesen Umständen so erbaulich ist, mag man selbst entscheiden. Ein gemütlicher Weihnachts-Spaziergang dürfte jedenfalls ziemlich gefährlich sein!

Schauen wir uns nun den Temperaturverlauf am Boden an [Graphiken von wetteronline.de]:

Abbildung 8: Temperaturverlauf vom 22. bis 24. Dezember, jeweils morgens MEZ (nachts MOZ).

Die Graphik links ist mit „Höchsttemperatur“ betitelt, aber unter diesen Umständen wird der normale Tagesgang weit überkompensiert, so dass in der Mitte und rechts nur die aktuelle Temperatur gezeigt wird. Man beachte vor allem den gewaltigen Temperatursturz vom 22. zum 23 Dezember (links und Mitte in Abb. 8) und wie sich die Kaltluft bis zum 24. Dezember bis nach Florida ausgebreitet und auch die Ostküste erfasst hat.

Werfen wir noch kurz einen Blick auf die mit diesem Vorgang verbundenen Niederschlagsmengen:

Abbildung 9: 72-stündige Regenmenge vom 21. Dezember 2022, 00 UTC [01 Uhr MEZ] bis zum 24. Dezember 2022, 00 UTC.

Man erkennt, dass der Hauptniederschlag noch im Bereich der Warmluft als Regen gefallen ist. Die Niederschlagsmengen im Nordosten der USA und in Kanada bis hinüber zu den Großen Seen sind aber als Schnee gefallen. Dies zeigt abschließend der Blick auf das Wetter-Radar (Quelle: wetteronline.de):

Abbildung 10: Wetterradarbilder, LINKS: 23. Dezember 2022, RECHTS: 24. Dezember 2022, jeweils morgens MEZ (~Mitternacht Ortszeit).

In Abbildung 10 lässt sich ein interessanter Effekt beobachten: Wenn die Frodtluft auf den warmen Westatlantik und den noch wärmeren Golf von Mexiko hinausweht, können zunächst in der extrem Wasserdampf-armen luft keinerlei Wolken entstehen. Erst viel später mit dem weiteren Überströmen setzt Cumulusbildung ein. Man kann also am Golf von Mexiko bei -10°C in das 25°C warme Wasser springen – zum Aufwärmen!

Fazit: Sehr starke Schneefälle bei schwerem Sturm und arktischen Temperaturwerten – ob das wirklich erstrebenswerter ist als die milde Südwestlage bei uns?

Schlussbemerkung dazu: Extremwetter dieser Art kommt in den USA in jedem Winter mehrmals vor, ist also normal. Es wäre sehr extrem, wenn solches Extremwetter einmal NICHT auftritt!

# # #

Es ist klar, dass man solche Vorgänge immer auch in einem größeren Zusammenhang einordnen muss. Der oben beschriebene Vorgang ist natürlich Wetter und seine Wiederholung in anderen Wintern auch. Hat sich also in klimatischer Hinsicht etwas geändert? Dieser Frage geht KÄMPFE im 2. Teil dieses Beitrags nach.

Teil 2: Die langfristige Entwicklung der Wintertemperaturen im Nordosten Amerikas und mögliche Ursachen – wird das Klima dort extremer, weil es wärmer wird?

Stefan Kämpfe

Insgesamt sind auch in Nordamerika die Wintertemperaturen in den letzten Jahrzehnten leicht gestiegen – allerdings ohne Wärmeinselbereinigung und nicht überall. Die wärmeinselarme Station DALE ENTERPRISE in den Ausläufern der Appalachen westlich der Bundeshauptstadt Washington ist nicht repräsentativ, zeigt aber dennoch das Fehlen einer besorgniserregenden winterlichen Erwärmung.

Abbildung 11: An der wärmeinselarmen US-Wetterstation Dale Enterprise gab es weder langfristig noch in den letzten Jahrzehnten eine winterliche Erwärmung.

Ein Temperatur-Flächenmittel für den Nordosten Nordamerikas, welcher klimatisch noch am ehesten mit dem Klima Mitteleuropas vergleichbar ist, liegt in den aerologischen Daten des amerikanischen Wetterdienstes seit dem Winter 1948/49 für die 1.000-hPa-Fläche vor; das entspricht in grober Näherung dem 2-Meter-Lufttemperaturmittel. Man erkennt eine Periode relativ milder Winter am Anfang und am Ende des Betrachtungszeitraumes; dazwischen liegt die typische, markante Abkühlungsphase der späten 1960er bis zu den frühen 1990er Jahren. Anders als in Deutschland, scheint die AMO die Wintertemperaturen im Nordosten Amerikas signifikant positiv zu beeinflussen. Hingegen hat die NAO, welche in Deutschland einen signifikant positiven Einfluss auf die Wintertemperaturen ausübt, dort einen schwach negativen (allerdings nicht signifikanten) Einfluss; Selbiges gilt auch für die PDO. Das bedeutet aber auch: Zumindest tendenziell fallen NAO-Mildwinter in Deutschland mit kälteren in Nordostamerika zusammen – es besteht hier aber noch erheblicher Forschungsbedarf.

Abbildung 12: Die Entwicklung der Wintertemperaturen in Nordost-Amerika seit dem Winter 1948/49 sowie der AMO im Winter. Die AMO beeinflusst die dortigen Wintertemperaturen signifikant positiv; für immerhin 31% der Gesamtvariabilität der Wintertemperaturen ist sie verantwortlich. Da die aktuelle AMO-Warmphase vermutlich bald endet, wird es also bald wieder vermehrt Kaltwinter an der US-Ostküste geben – möglicherweise sind die aktuellen Kältewellen schon erste Anzeichen hierfür.

Offenbar steuern natürliche, periodische Schwankungen der Meeresoberflächentemperaturen die Wintertemperaturen weitaus stärker, als das unsere CO-gläubigen Klimakonsensforscher zugeben wollen. Bliebe noch das Argument „Es wird halt manchmal kälter, weil es wärmer wird – und die Zirkulation schwächt sich wegen der Klimaerwärmung bedrohlich ab, was Extremwetter begünstigt“. Angeblich soll das stark schwindende arktische Meereis für viele Kapriolen verantwortlich sein – aber in den letzten Jahren deutet sich eine merkliche Stabilisierung der Eisflächengröße an.

Abbildung 13: Halbwegs verlässliche Daten der Meereisfläche liegen erst seit dem Jahre 1979 vor (satellitengestützte Erfassung). Der starke Schwund scheint gestoppt; aktuell deutet sich gar eine leichte Flächenzunahme an, welche sich auch im Jahr 2022 fortsetzte.

 

Und was ist mit den angeblich schwächelnden Zirkulationsverhältnissen? Auf die Schnelle lagen für diesen Beitrag umfassende Daten nur aus Europa vor, wo sich aber im Winter die Westwind-Zirkulation, welche auch periodisch schwankt, eher beschleunigt hat – das erklärt auch die enorme Häufung von Mildwintern in Mitteleuropa seit den späten 1980er Jahren.

Abbildung 14: Häufigkeitsentwicklung der Tage mit Westanteil (Mitteleuropa, nach HESS/BREZOWSKY) im meteorologischen Winter seit 1881/82 sowie der winterliche Temperaturverlauf (Flächenmittel Deutschland), dessen Varianz zu fast 48% von der Häufigkeit der Westlagen bestimmt wird. Man achte auf die seit 1882 so bis in die frühen 1980er Jahre nie beobachtete Westlagen-Häufung, beginnend mit dem Winter 1987/88, welche bis heuer (noch) andauert. Zwecks anschaulicherer Darstellung Umrechnung in Indexwerte; einige herausragende Winter sind gekennzeichnet.

Einen groben Hinweis, ob sich die Zirkulation wenigstens über Nordamerika abschwächte, liefert die Entwicklung des winterlichen Luftdruckgefälles zwischen der nördlichen Golfregion und dem nördlichen Kanada; man kann es aus den Aerologischen Daten des NOAA berechnen. Es zeigt sich eine leichte Gefälle-Zunahme (höhere Luftdruckdifferenz zwischen Süd und Nord), was der These, die winterliche Zirkulation schwäche sich wegen der Klimaerwärmung ab, ebenfalls widerspricht.

Abbildung 15: Entwicklung des winterlichen Luftdruckgefälles (Dez. bis Feb.) auf Meeresspiegelhöhe zwischen den Gitterpunkten 25°N, 90°W und 65°N, 90°W seit dem Winter 1948/49. Neben periodischen Schwankungen (blau, neunjähriges, endbetontes Gleitmittel) erkennt man eine langfristige lineare Zunahme (violett), was auf eine Beschleunigung der Zonalzirkulation hindeutet. Zwar ist das nur ein grober Hinweis – aber eine Zirkulationsabschwächung gab es im Winter auch über Nordamerika nicht.

Ein weiteres Indiz liefert das Verhalten des Zonalwindes, welcher sich bei nachlassender Zirkulation ebenfalls abschwächen müsste. Am Gitterpunkt 45°N, 90°W (entspricht etwa der Mitte des US-Bundesstaates Wisconsin am Westrand der Großen Seen) zeigt sich aber eher eine geringe Geschwindigkeitszunahme des winterlichen Zonalwindes:

Abbildung 16: Zumindest im Gebiet der Großen Seen schwächte sich der Zonalwind nicht ab – im Gegenteil!

Fazit: Mit hoher Wahrscheinlichkeit sind es überwiegend natürliche Ursachen, welche das Verhalten der Wintertemperaturen in Nordamerika steuern – auf die so wichtige Sonnenaktivität soll hier im Interesse der Übersichtlichkeit nur kurz hingewiesen werden. Ohnehin neigt das Klima Nordamerikas wegen seiner nord-südwärts verlaufenden Gebirgszüge („Kanalisationseffekt“ für extrem kalte Nord- und extrem heiße Südluft) zu Extremen, welche es auch in der Vergangenheit reichlich gab, was mein Kollege Christian Freuer schon am Schluss des ersten Teils ansprach.

 




Net Zero – die Jagd nach dem Unmöglichen

Robert Lyman, Dr. Jay Lehr

Auf Drängen der Vereinten Nationen und zahlreicher radikaler Umweltorganisationen haben viele Industrieländer erklärt, dass es ihr politisches Ziel ist, die Nutzung fossiler Brennstoffe (Erdöl, Erdgas und Kohle) schrittweise einzustellen und sie durch rein elektrische Energiesysteme zu ersetzen, betrieben mit erneuerbaren Energien. Leider sind sich die meisten Menschen in diesen Ländern nicht über das Ausmaß der physikalischen, wirtschaftlichen und sozialen Veränderungen im Klaren, die ein solcher Übergang mit sich bringen würde. Um das Ausmaß dieser Herausforderung noch zu verdeutlichen, haben viele Regierungen erklärt, dass dieses Ziel in fast allen Ländern bis 2050, also in etwas mehr als 27 Jahren, erreicht werden muss. Dies ist das so genannte „Dekarbonisierungs“– oder „Netto-Null“-Ziel.

Viele namhafte Experten haben versucht, die Kosten für die Erreichung des Netto-Null-Zieles aus einer makroökonomischen oder Top-Down-Perspektive zu analysieren. Bis vor kurzem hat jedoch niemand eine Bottom-up-Analyse durchgeführt, um die Machbarkeit der erforderlichen physischen Veränderungen zu modellieren – die Produktion der Mineralien, den Bau der Stromerzeugungsanlagen, die Stromspeicher und die damit verbundene Übertragungs- und Verteilungsinfrastruktur. Mit anderen Worten: Ist Netto-Null überhaupt möglich?

Ende 2021 erstellte eine Gruppe unter der Leitung von Simon Michaux vom Geologischen Dienst Finnlands eine 1000-seitige Studie mit dem Titel „Assessment of the Extra Capacity Required of Alternative Energy Electrical Power Systems to Completely Replace Fossil Fuels“ [1] (Etwa: Bewertung der zusätzlichen Kapazität, die für elektrische Stromversorgungssysteme mit alternativen Energien erforderlich ist, um fossile Brennstoffe vollständig zu ersetzen). Der Schwerpunkt der Studie liegt fast ausschließlich auf der Bestimmung der Größenordnung des physikalischen Materialbedarfs für die Dekarbonisierung. Da für viele Regionen nur unzureichende oder gar keine Daten zur Verfügung stehen, wurden für das Modell Berechnungen auf der Grundlage von Energieverbrauchsdaten für das Jahr 2018 nur für die Vereinigten Staaten, die Europäische Union und China durchgeführt.

Wichtige Erkenntnisse

Die weltweite Flotte von Straßenfahrzeugen belief sich 2019 auf rund 1,416 Milliarden. Davon waren nur 7,2 Millionen Elektrofahrzeuge (EV). Somit waren nur 0,51 % der Straßenfahrzeugflotte E-Fahrzeuge und 99,49 % der weltweiten Flotte waren „noch zu ersetzen“. Die Zahl der Fahrzeuge ist weit höher als in früheren Studien geschätzt. Sie verdeutlicht, wie groß die Aufgabe ist, die weltweite Fahrzeugflotte zu elektrifizieren. Nach mehr als 15 Jahren umfangreicher Subventionen und zunehmender gesetzlicher Auflagen zur Förderung von Elektrofahrzeugen ist erst ein halbes Prozent der weltweiten Straßenfahrzeuge vollelektrisch.

Im Jahr 2018 wurden 84,7 % des weltweiten Primärenergieverbrauchs durch fossile Brennstoffe gedeckt, während die erneuerbaren Energien (Sonne, Wind, Erdwärme und Biokraftstoffe) nur 4,05 % und die Kernkraft 10,1 % ausmachten.

Die gesamte zusätzliche jährliche Stromerzeugungskapazität aus nicht-fossilen Brennstoffen, die für eine vollständige globale Dekarbonisierung erforderlich wäre, beträgt rund 37.671 Terawattstunden (TWh). Um den Strombedarf einer dekarbonisierten Welt zu decken, müssten zusätzlich 221.594 neue Kraftwerke gebaut und in Betrieb genommen werden. Im Durchschnitt müssten in den nächsten 27 Jahren über 8.200 Anlagen pro Jahr gebaut werden. In Europa und Nordamerika dauert es in der Regel bestenfalls 12 bis 15 Jahre, ein neues Kraftwerk zu planen, zu genehmigen und zu bauen, und 20 bis 30 Jahre für Kernkraftwerke.

Es dürfte für alle unsere Leser ein Schock sein, dass der weltweite Kohleverbrauch mit 2 Milliarden Pfund Kohle für jeden Mann, jede Frau und jedes Kind auf der Erde einen neuen Rekord aufgestellt hat.

Zum Vergleich: Der gesamte weltweite Kraftwerkspark umfasste 2018 nur 46.423 Anlagen. Um den Strombedarf einer vollständigen Dekarbonisierung zu decken, müssten fast fünfmal so viele Kraftwerke wie heute gebaut werden, und das in 27 Jahren. Allein in den Vereinigten Staaten würden fast 16.000 neue Anlagen benötigt.

Die Umstellung aller derzeitigen (d.h. 1,39 Milliarden) Kurzstrecken-Straßenfahrzeuge auf E-Fahrzeuge würde die Produktion von zusätzlichen 65,19 TWh Batterien (282,6 Millionen Tonnen Lithium-Ionen-Batterien) und jährlich zusätzlich 6.158,4 TWh Strom aus dem Stromnetz zum Laden dieser Batterien erfordern.

Die Studie geht davon aus, dass der Straßenfernverkehr, der Schienenverkehr und die Schifffahrt mit Wasserstoff-Brennstoffzellen betrieben werden. Keines der Fahrzeuge wird heute so betrieben.

Bei einem hybriden Szenario, das zur Vereinfachung der Ergebnisse verwendet wurde, wären weitere 958,6 TWh nicht-fossiler elektrischer Energie erforderlich, um die Stromerzeugung aus fossilen Brennstoffen, die Beheizung von Gebäuden und die Stahlherstellung zu ersetzen. Die gesamte zusätzliche jährliche Kapazität an Strom aus nicht-fossilen Brennstoffen, die in das globale Netz eingespeist werden müsste, wurde, wie bereits erwähnt, auf „erstaunliche“ 37.670,6 TWh berechnet. Wir hoffen, Sie lachen jetzt laut auf, denn wir haben viel Zeit damit verbracht, diese unmöglichen Absurditäten zu entschlüsseln.

Die 282,6 Millionen Tonnen Lithium, die allein für den Betrieb von 1,39 Milliarden Straßenfahrzeugen mit kurzer Reichweite benötigt werden, übersteigen die derzeitigen weltweiten Lithiumreserven. Außerdem hätte jede der 1,39 Milliarden Batterien nach Schätzungen der Internationalen Energieagentur eine Lebensdauer von nur 8 bis 10 Jahren. 8-10 Jahre nach der Herstellung wären also neue Ersatzbatterien erforderlich. Das Recycling, wenn es denn möglich ist, wird mit erheblichen technischen Kosten und Umweltproblemen verbunden sein. Theoretisch gibt es weltweit genügend Nickelreserven, um den Bedarf an Fahrzeugbatterien zu decken, aber dafür wären 48 % der Nickelreserven von 2018 erforderlich. Die derzeitigen Kobaltreserven reichen nicht aus, um den Bedarf zu decken. Außerdem wird bei diesen Schätzungen der Bedarf an Lithium, Nickel und Kobalt zur Deckung anderer industrieller Anforderungen an diese Mineralien nicht berücksichtigt.

Dann ist da noch die Frage der Batteriespeicherung. Die Stromerzeugung aus Sonnen- und Windenergie ist sowohl im 24-Stunden-Zyklus als auch saisonal stark schwankend (d. h. die Spitzenzeiten für die Einspeisung von Sonnen- und Windenergie unterscheiden sich von den Spitzenzeiten für die Stromnachfrage). Folglich ist ein Stromspeicher erforderlich, wenn diese Erzeugungssysteme in großem Umfang und mit einem hohen Anteil an der Gesamterzeugungskapazität eingesetzt werden sollen. Im Jahr 2018 machten Pumpspeicher, die an ein Wasserkraftwerk angeschlossen sind, 98 % der weltweiten Stromspeicherkapazität aus, und es gibt geografische Beschränkungen, wie viel Pumpspeicher hinzugefügt werden können. Befürworter der Dekarbonisierung haben die Idee unterstützt, dass Lithium-Ionen-Batteriebänke den Großteil des Bedarfs an zusätzlicher Speicherung abdecken können.

Dabei gibt es jedoch ein großes Problem. Die Batteriespeicherkapazität, die erforderlich wäre, um die intermittierende Versorgung auf einer 24-Stunden-Basis auszugleichen, würde 2,82 Millionen Tonnen betragen. Zum Schutz vor saisonalen Engpässen wäre noch viel mehr erforderlich. Bis vor kurzem war die größte Lithium-Ionen-Batteriespeicheranlage der Welt die 100-MW-Station Hornsdale in Australien, die für 90 Millionen australische Dollar (80 Millionen kanadische Dollar) gebaut wurde. Um die Welt mit einem vierwöchigen Puffer zu versorgen (d. h. mit etwa der Hälfte dessen, was in weiten Teilen der nördlichen Hemisphäre benötigt werden könnte), wäre eine Speicherkapazität von 573,4 TWh erforderlich. Dafür wären 5,7 Millionen Kraftwerke in der Größe von Hornsdale erforderlich, und die Masse der Lithium-Ionen-Batterien würde 2,5 Milliarden Tonnen betragen. Insgesamt wären also 2,78 Milliarden Tonnen Lithium erforderlich, um das Problem der Unterbrechungen zu lösen. Das entspricht dem Fünffachen der weltweiten Nickelreserven, dem 11-fachen der weltweiten Kobaltreserven 2018 und dem Vierfachen der weltweiten Lithiumreserven.

Weitere Einblicke in die Grenzen der derzeit verfügbaren Bodenschätze erhält man, wenn man die Masse der Mineralien, die für die Herstellung aller benötigten Lithium-Ionen-Batterien benötigt werden, mit dem derzeitigen (d. h. 2018) Niveau der jährlichen Produktion dieser Mineralien vergleicht. Ich habe dies in der folgenden Aufstellung zusammengefasst:

Jahre der Produktion von Schlüsselmineralien zur Versorgung einer Generation von Fahrzeugbatterien:

Erforderliche Metallmasse (Millionen Tonnen) – Erforderliche Jahre

Kupfer 48,0 – 2,3

Aluminium 24,0 – 0,4

Nickel 42,9 – 18,7

Kobalt 7,9 – 56,3

Lithium 6,1 – 72,1

Graphit 62,2 – 66,8

Quelle: Geologischer Dienst von Finnland

Die Aufstellung zeigt, dass insbesondere bei Nickel, Kobalt, Lithium und Graphit die Jahre der derzeitigen weltweiten Produktion weit über dem liegen, was für die Herstellung einer Generation von Batterien für eine vollständig elektrifizierte globale Flotte von Landfahrzeugen erforderlich wäre.

Wie lange würde es dauern, die Produktion radikal zu steigern? Der Prozess der Erkundung und Erschließung neuer Bodenschätze folgt keinem festen oder vorhersehbaren Zeitplan. Sobald die Ressourcen gefunden sind, wird mehr Zeit benötigt, um Minen zu bauen und die Kapazität bestehender Minen zu erweitern, sofern dies möglich ist. In Nordamerika dauert es in der Regel mindestens 15 Jahre von der Entdeckung von Mineralien bis zur ersten Minenproduktion, aber es kann noch viel länger dauern, wenn der Widerstand von Umweltschützern, Ureinwohnern und anderen Organisationen durch politische Entscheidungen der Gerichte verzögert wird. Allein diese Überlegungen lassen Zweifel an der Glaubwürdigkeit der derzeitigen „Netto-Null“-Zeitpläne aufkommen.

In einem Szenario wurde die Möglichkeit untersucht, alle derzeit verwendeten Kraftstoffe aus Erdölprodukten durch Biomasse (d. h. Bioethanol und Biodiesel) zu ersetzen. Dies wird gelegentlich als Möglichkeit angepriesen, die Treibhausgas-Emissionen des Luftverkehrs drastisch zu reduzieren, da das Gewicht und die Größe von Batterien eine Elektrifizierung von Verkehrsflugzeugen unmöglich machen. Die geschätzte Anbaufläche, die benötigt wird, um die gesamte im Jahr 2018 benötigte Biomasse zu produzieren, beträgt über 40 Millionen Quadratkilometer. Das ist mehr als das Dreieinhalbfache der weltweit für den Anbau von Pflanzen genutzten Fläche. Die zusätzlich benötigte Fläche würde, wenn es möglich wäre, sie für den Anbau von Pflanzen umzuwandeln, zur nahezu vollständigen Abholzung der verbleibenden Wälder auf der Erde führen. Für den Anbau von Nahrungsmitteln stünde dann natürlich kein Land mehr zur Verfügung. Allein für den Ersatz der weltweiten Benzinversorgung durch Biomasse-Kraftstoffe würden 16 Millionen Quadratkilometer Land benötigt. Das ist zehnmal so viel wie die Ackerfläche der Vereinigten Staaten. Allein für den Ersatz des derzeitigen Flugzeugtreibstoffs durch Biokraftstoffe würden 831.000 Quadratkilometer Land benötigt, das ist etwa doppelt so viel Ackerland wie in Kanada.

Die Befürworter der Dekarbonisierung schenken den Auswirkungen des schrittweisen Ausstiegs aus petrochemischen Düngemitteln, Herbiziden und Pestiziden, wenn überhaupt, nur relativ wenig Aufmerksamkeit. Etwa 9 % des weltweiten Erdgasbedarfs werden für die Produktion von Ammoniak für die industrielle Herstellung von Düngemitteln verwendet, die wiederum für die weltweite Nahrungsmittelproduktion entscheidend sind. Die Autoren des Berichts des Geological Survey of Finland stellen fest, dass sie „keinen brauchbaren Ersatz für die Verwendung von Erdgas bei der Herstellung von petrochemischen Düngemitteln nennen konnten“. Sie empfehlen munter den Einsatz des ökologischen Landbaus. Ohne moderne Düngemittel würde die Dekarbonisierung jedoch die Nahrungsmittelproduktion um mehr als 50 % verringern, und Milliarden von Menschen würden verhungern.

Die abschließende Zusammenfassung des Berichts enthält die folgenden Aussagen:

„Eine grundlegende Schlussfolgerung ist, dass es für die Weltbevölkerung nicht möglich sein wird, das bestehende System, das mit fossilen Brennstoffen (Öl, Gas und Kohle) betrieben wird, innerhalb weniger Jahrzehnte durch erneuerbare Technologien wie Sonnenkollektoren oder Windturbinen zu ersetzen. Dazu fehlen einfach die Zeit und die Ressourcen. Was sehr wohl passieren kann, ist eine erhebliche Verringerung der gesellschaftlichen Nachfrage nach allen Arten von Ressourcen. Dies setzt einen ganz anderen Gesellschaftsvertrag und ein ganz anderes Regierungssystem voraus als das heutige.“

Kommentar

Dieser Bericht enthält eine Fülle von Fakten über die physikalischen Anforderungen an die Energieversorgung und die Auswirkungen einer Änderung des derzeitigen globalen Energiesystems. Die Zahlen sind ein wenig überwältigend und oft so groß, dass sie für den Durchschnittsbürger unverständlich sind. Der Bericht trägt auch zu unserem Verständnis der Machbarkeit einer Dekarbonisierung innerhalb weniger Jahrzehnte bei, auch wenn er sich scheut, das Offensichtliche anzuerkennen – eine Dekarbonisierung bis 2050 ist schlichtweg unmöglich. Tatsächlich sind die Anforderungen an die weltweiten Bodenschätze für eine vollständige Dekarbonisierung möglicherweise so immens, dass sie in jedem Zeitrahmen unmöglich ist.

Der in dem Bericht verwendete Bottom-up-Ansatz bietet zwar wichtige Erkenntnisse, lässt aber auch vieles aus, was aus Top-down-Studien gewonnen werden kann. So ist zum Beispiel das Fehlen jeglicher Kommentare zu den wirtschaftlichen und politischen Beschränkungen, die die Dekarbonisierung beeinträchtigen, ein großer Mangel in dem Bericht. Es stellen sich viele wichtige Fragen. Kann man wirklich ignorieren, dass die Regierungen versuchen, den Verbrauchern zuverlässige und erschwingliche Energiequellen vorzuenthalten? Würde die Öffentlichkeit in demokratisch regierten Ländern einen Übergang zu einem zentral geplanten und außerordentlich aufdringlichen politischen System unterstützen? Wie lässt sich prinzipiell eine Politik rechtfertigen, die enorme Kosten verursacht, keinerlei „Klima“-Vorteile bietet und die Bodenschätze der Erde in unvorstellbarem Tempo ausbeutet? Wer würde die Kosten tragen – die Kosten für die erzwungene Nutzung unwirtschaftlicher Energiequellen, die Einkommensverluste der Länder, die fossile Brennstoffe produzieren, die Auswirkungen der Ressourcenerschöpfung, den Verlust des Zugangs zum Luftverkehr für den Personen- und Güterverkehr und so weiter und so fort? Warum sollten wir akzeptieren, dass Milliarden Menschen verhungern müssen, um „den Planeten zu retten“?

Die schlaffe Schlussfolgerung der Studie, dass wir „einen anderen Gesellschaftsvertrag und ein anderes Regierungssystem als das heutige“ brauchen, ist eine kaum verhüllte Bestätigung des totalitär inspirierten Anti-Wachstums-Manifests, das wir sowohl von nützlichen Idioten wie Greta Thunberg als auch von den erfahreneren und mächtigeren Vertretern des Weltwirtschaftsforums gehört haben. Selbst wenn sie die praktische Unmöglichkeit von „Netto-Null“ dokumentieren, umarmen die Befürworter der Dekarbonisierung den Schrecken der wahrscheinlichen Konsequenzen.

Die Quintessenz dieser ganzen Travestie ist, dass die Abschaffung der fossilen Brennstoffe ein sicherer Weg zum Massensterben des Lebens auf der Erde ist.

[Beide Hervorhebungen vom Übersetzer, der sich fragt, ob es nicht das klammheimliche Ziel gewisser Kreise ist, genau das zu erreichen!]

[1] https://tupa.gtk.fi/raportti/arkisto/42_2021.pdf

Autoren: Robert Lyman is an economist with 37 years of service to the Canadian government.

CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2022/12/20/net-zero-the-pursuit-of-the-impossible/

Übersetzt von Christian Freuer für das EIKE




Das dümmste Buch aller Zeiten? Thomas Malthus` Theorie. Klimawissen – kurz&bündig

No. 28: Der Club of Rome, ein Manager-Verein, behauptet ab Ende der 1960er, die natürlichen Ressourcen wie Erdöl gingen bald zu Ende – und beruft sich dabei auch auf den englischen Pfarrer und Ökonomen Thomas Malthus aus dem 18.Jh. Die Nahrungsmittelproduktion steigt nach dessen Theorie linear an, das Bevölkerungswachstum hingegen exponentiell.

Seine rein mathematisch aufgestellte Idee wurde nie empirisch belegt und ist daher um 1900 von modernen Wissenschaftlern verworfen worden. Kein Wunder: Zwar stieg die britische Bevölkerung seit etwa 1700 ordentlich an – aber die Nutzung von Wärmekraft („We don’t sell machines – we sell POWER“ ist ein Zitat der Zeit) und wissenschaftlichen Erkenntnissen ermöglichte nicht nur ausreichende Ernährung, sondern auch breiten Wohlstand.

Soll dieser Massenwohlstand mit widerlegten Theorien wie der von Malthus gesenkt werden? Und warum?