Kosten der grünen Energiewende: Wem werden Sie glauben, einigen Forschungsassistenten aus Oxford oder Ihren Sie täuschenden Augen?

Francis Menton, Manhattan Contrarian

In Europa und insbesondere in den Ländern, die bei der Umstellung auf grüne Energie eine Vorreiterrolle spielen, werden die enormen Kosten dieses Irrsinns allmählich spürbar. Im Vereinigten Königreich sollen die durchschnittlichen jährlichen Energierechnungen der Verbraucher zum 1. Oktober auf 3549 Pfund/Jahr steigen, während es vor einem Jahr noch 1138 Pfund/Jahr waren. (Diese Zahl wird jetzt vielleicht durch massive staatliche Subventionen etwas reduziert, die die katastrophalen Kostensteigerungen nur verschleiern, aber nicht verhindern). Die regulierten Gasrechnungen für deutsche Verbraucher werden zum 1. Oktober um durchschnittlich 480 Euro, also etwa 13%, von ohnehin schon hohen 3568 Euro pro Jahr angehoben.

Jeder, der die Augen aufmacht, kann sehen, was passiert ist. Sie dachten, sie könnten die fossilen Brennstoffe loswerden, indem sie einfach viele Windturbinen und Sonnenkollektoren bauen, die die meiste Zeit über nicht funktionieren. Dann haben sie die Produktion fossiler Brennstoffe unterdrückt, obwohl diese das einzig Vernünftige sind. Irgendwie haben sie die Tatsache aus den Augen verloren, dass sie die volle Reserve für Wind und Sonne brauchen und keine Alternative zu den unterdrückten fossilen Brennstoffen haben. Da das Angebot an fossilen Brennstoffen absichtlich und künstlich eingeschränkt wurde, schnellten die Preise in die Höhe.

Und sie haben noch nicht einmal 50 % des Stroms oder 15 % des Endenergieverbrauchs aus Wind/Sonne auf Jahresbasis erreicht.

Lernt hier irgendjemand eine Lektion? Das bezweifle ich.

Am 13. September ist eine neue Studie von einer Gruppe genialer Wissenschaftler der Universität Oxford mit dem Titel [übersetzt] „Empirisch fundierte Technologieprognosen und die Energiewende“ erschienen. Der Hauptautor heißt Rupert Way. Für Ihr zusätzliches Lesevergnügen finden Sie hier einen weiteren Link zu etwa 150 Seiten mit „ergänzenden Informationen“, die den Artikel begleiten. Auf die Veröffentlichung des Oxford-Papiers folgten sofort Dutzende (vielleicht Hunderte) von Artikeln der üblichen Verdächtigen in der Presse, in denen die aufregende Nachricht verkündet wurde, dass die Umstellung auf erneuerbare Energien Billionen einsparen wird!!!!!
Kann jemand das wirklich glauben? Ein paar Beispiele:

● Aus der BBC, 14. September: „Switching to renewable energy could save trillions – study“. Der Umstieg von fossilen Brennstoffen auf erneuerbare Energien könnte der Welt bis zum Jahr 2050 bis zu 12 Milliarden Dollar (10,2 Milliarden Pfund) einsparen“, so eine Studie der Universität Oxford. Die BBC interviewte einen der Co-Autoren der Studie: „Die Forscher sagen, dass ein Umstieg auf grüne Energie jetzt wirtschaftlich sinnvoll ist, da die Kosten für erneuerbare Energien sinken. Selbst wenn Sie ein Klimaleugner sind, sollten Sie sich dem anschließen, was wir befürworten“, sagte Prof. Doyne Farmer vom Institute for New Economic Thinking an der Oxford Martin School gegenüber BBC News. „Unsere zentrale Schlussfolgerung ist, dass wir die grüne Energiewende mit voller Kraft vorantreiben sollten, weil sie uns Geld sparen wird§, sagte er.

● Aus MSN, 13. September: „Going green could save world “trillions” – study“. „Der Bericht sagt, dass Vorhersagen, wonach ein schneller Wechsel zu saubereren Energiequellen teuer sei, falsch und zu pessimistisch sind. Selbst ohne die derzeit sehr hohen Gaspreise, sagen die Forscher, dass ein Umstieg auf umweltfreundliche Energien jetzt wirtschaftlich sinnvoll ist, da die Kosten für erneuerbare Energien sinken.“

● Nature World News, 14. September: „Due to the Increase of Oil Prices, Switching To Renewable Energy Could Save Trillions Than Using Fossil Fuels“ [etwa: Aufgrund des Anstiegs der Ölpreise könnte der Umstieg auf erneuerbare Energien Billionen einsparen im Vergleich zur Nutzung fossiler Brennstoffe.] Eine Studie der Universität Oxford behauptet, dass der Umstieg von fossilen Brennstoffen auf erneuerbare Energien der Welt bis zum Jahr 2050 12 Billionen Dollar (10,2 Billionen Pfund) sparen könnte. … Die Forscher erklärten jedoch, dass die sinkenden Kosten für erneuerbare Energien bedeuten, dass der Umstieg auf grüne Energie derzeit finanziell sinnvoll ist.“

Es gibt noch Dutzende weitere davon, wenn Sie im Internet suchen wollen.

Meine wichtigste Antwort ist: Diese und ähnliche Studien sind genau der Grund, warum wir Bürger und Steuerzahler ein funktionierendes und voll kalkuliertes Demonstrationsprojekt fordern müssen, bevor wir uns alle als Versuchskaninchen für die Umsetzung dieser absurden Wind-/Solarfantasien benutzen lassen. Wie ich erst vor wenigen Tagen in einem Beitrag schrieb, sollten Kalifornien und New York dem Rest von uns zeigen, wie es geht, bevor alle anderen gezwungen werden, mitzumachen, wenn es so einfach ist und so viel Geld spart.

Die grundlegende Technik der Autoren besteht darin, jeden, der versucht, ihre Arbeit zu lesen, mit Bergen von anspruchsvoll klingendem Hokuspokus zu überschütten. Beispiel (aus der Zusammenfassung): „Wir verwenden einen Ansatz, der auf probabilistischen Kostenprognose-Verfahren beruht, die durch Backtesting bei mehr als 50 Technologien statistisch validiert wurden. …“ Offensichtlich hofft man, dass niemand in der Lage sein wird, das Dickicht zu durchdringen, und alles, was dabei herauskommt, ist: „Wir werden 12 Billionen Dollar einsparen!“

Nun, der Manhattan Contrarian ist nicht ganz so leicht hinters Licht zu führen. Nachdem ich einige wertvolle Stunden meiner Zeit verschwendet habe, möchte ich hier die Hauptprobleme des Werks aufzeigen:

Die Haupttriebfeder des Ganzen ist die Vorhersage eines raschen und kontinuierlichen Rückgangs der Kosten für Windturbinen, Sonnenkollektoren und Batterien. Es wird davon ausgegangen, dass die Kosten für diese Dinge auch in Zukunft unbegrenzt und exponentiell sinken werden. Aus dem Abschnitt „Ergebnisse“: „Wir kennen keine empirischen Belege für Bodenkosten und setzen sie nicht voraus. „Von den drei in Frage kommenden Technologien (Wind, Solar und Batterien) kenne ich mich mit Batterien am besten aus. Hier ist das Diagramm von Way et al. über die Preisentwicklung von Batterien und die von ihnen verwendeten Prognosen für die Zukunft:

Das ist eine logarithmische Skala auf der linken Seite. Das Diagramm zeigt also, dass die Kosten für Lithium-Ionen-Batterien von etwa 100 $/[k]Wh im Jahr 2020 auf etwa 2 $/[k]Wh bis etwa 80 $/[k]Wh im Jahr 2050 sinken werden, wobei der Mittelpunkt der Prognose bei etwa 20 $/[k]Wh liegt.

Und in der realen Welt? Im Juni 2021 veröffentlichte das National Renewable Energy Laboratory der Regierung ein Dokument mit dem Titel „Cost Projections for Utility-Scale Battery Storage: 2021 Update“. Das NREL beziffert die Kosten für Lithium-Ionen-Batterien im Versorgungsmaßstab für 2020 (Seite iv der Zusammenfassung) auf 350 $/kWh, verglichen mit den 100 $/kWh von Way et al. Der Unterschied scheint hauptsächlich in den Elementen einer realen Batterieanlage zu liegen, die nicht die eigentliche Batterie betreffen, wie z. B. das Gebäude, in dem sie untergebracht ist, die Geräte zur Umwandlung von Wechselstrom in Gleichstrom und zurück, die Netzanschlüsse, die „Anlagenbilanz“ und so weiter. Gehen wir also von einer kleinen Diskrepanz in der Ausgangsbasis aus. NREL prognostiziert ebenfalls sinkende Kosten für die Zukunft, aber nur bis zu einem Mittelwert von etwa 150 $/kWh bis 2050, was 50 % über dem Ausgangspunkt von Way et al. und weit mehr als eine Größenordnung über dem Mittelwert der Prognose von Way et al. für 2050 liegt.

Und wir sind jetzt schon ein paar Jahre über 2020 hinaus, wie geht es also voran? Utility Dive berichtet in einem Artikel vom 12. April 2022 über die Fortschritte New Yorks bei der Anschaffung von netzgekoppelten Batterien, um seine ehrgeizige Net Zero-Agenda voranzutreiben. Auszug: „Die Kosten für die Installation von Einzelhandels- und Nichtwohnungsprojekten, die kürzlich ausgezeichnet wurden, betrugen laut einem Speicherbericht von DPS vom 1. April durchschnittlich 567 US-Dollar pro kWh. Im Jahr 2020-21 liegen die durchschnittlichen Installationskosten für solche Projekte bei 464 $/kWh.“ Mit anderen Worten: Anstatt zu sinken, steigen die Kosten rapide an. Gründe, von Utility Dive: „Verknappte Lieferketten, steigende Nachfrage nach Batterien und höhere Kosten für Lithium, das in den allgegenwärtigen Lithium-Ionen-Batterien verwendet wird, sorgen für einen steilen Anstieg, sagen Experten.“ Utility Dive zitiert dann New Yorker Regulierungsbehörden mit der Aussage, dass sie davon ausgehen, dass die Kosten bis zum Ende des laufenden Jahrzehnts deutlich sinken werden. Sicherlich.

Was den anhaltenden rapiden Preisverfall bei Windturbinen und Solarzellen angeht, so glaube ich erst daran, wenn ich es sehe. Ja, die Preise sind bis heute erheblich gesunken. Aber zum jetzigen Zeitpunkt scheinen mir diese Technologien nicht ausgereift zu sein. Die Hauptprobleme beim Bau und Betrieb dieser Technologien sind der Abbau und die Verarbeitung riesiger Mengen an Metallen und Mineralien, die Formung der Metalle und Mineralien zu den Geräten, der Transport der (sehr großen und schweren) Geräte zu ihren Standorten und die Installation der Geräte. Wie sollen diese Dinge in nennenswertem Umfang billiger werden, geschweige denn um eine weitere Größenordnung?

Die Behandlung des Problems der Energiespeicherung in dieser Studie ist völlig unzureichend und grenzt ans Phantastische. Die Kostenphantasien in Bezug auf die kurzfristige Speicherung wurden bereits oben erörtert. Was die längerfristige Speicherung anbelangt, so geht aus den ergänzenden Informationen auf den Seiten 38-45 hervor, dass die vorgeschlagene Lösung fast ausschließlich aus Wasserstoff besteht, der angeblich durch Elektrolyse aus Wasser hergestellt werden soll. (Hier wird das vorgeschlagene Speichermedium meist „P2X-Kraftstoffe“ genannt, was irgendwie andeutet, dass es sich um etwas anderes als Wasserstoff handeln könnte, ähnlich wie bei New York und seiner „DEFR“-Phantasie). Derzeit gibt es im Grunde genommen nirgendwo auf der Welt einen Prototyp oder ein Demonstrationsprojekt für diesen so genannten „grünen Wasserstoff“, aus dem sich realistische Kostenprognosen ableiten lassen. (Aus dem JP Morgan Asset Management Annual Energy Paper 2022, Seite 39: „Die derzeitige Produktion von grünem Wasserstoff ist vernachlässigbar. . . .“). Way et al. nennen zwar einige Kosten für bestehende Elektrolyseure, aber ich kann in dem Papier keine Diskussion darüber finden, dass die Herstellung von Wasserstoff in einem Umfang, der ausreicht, um das gesamte Weltstromsystem zu versorgen, die Elektrolyse des Ozeans erfordert. Und wohin sollen die Millionen Tonnen giftigen Chlorgases, die dabei entstehen, gehen? Die Probleme beim Umgang mit enormen Wasserstoffmengen – wie Explosivität, Versprödung von Pipelines und dergleichen – sind mit einem Handgriff erledigt. Die Schaffung einer massiven grünen Wasserstoffinfrastruktur als Backup für Wind und Sonne wurde noch nicht einmal von den fanatischsten grünen Energieverrückten wie Deutschland, Kalifornien oder New York in Angriff genommen. Sie werfen einen Blick auf die tatsächlichen Kosten und schrecken davor zurück.

Die Antwort von Way und Co. auf diese Einwände lautet: Man muss nur damit beginnen, die Anlagen in ausreichender Menge zu bauen, und wir können Ihnen versichern, dass die Kosten sofort wie ein Stein fallen werden. Schließlich verfügen wir über „probabilistische Kostenprognosemethoden“, die „durch Backtesting bei mehr als 50 Technologien validiert worden sind. . . .“

Vielleicht sollte ich erwähnen, dass die Autoren von Way et al. aus einem Seniorprofessor und einem Haufen von Forschungsassistenten und Post-Docs bestehen. Der Seniorprofessor (J. Doyne Farmer) ist ein Mathematiker und Wirtschaftswissenschaftler. Way selbst ist ein „Postdoctoral Research Officer“. Matthew Ives ist ein „Senior Reseach Officer“, der zuvor an der Umsetzung der Net Zero-Pläne Südaustraliens gearbeitet hat. Penny Mealy ist Wirtschaftswissenschaftlerin bei der Weltbank mit einem Titel als „Associate“ in Oxford. Alle vier gehören zu einer Einrichtung in Oxford, die sich „Institute for New Economic Thinking“ nennt. Der Hauptautor Way scheint unter 30 zu sein. Alle vier sind auf mathematische Modellierung spezialisiert, und keiner von ihnen scheint über Fachwissen zu verfügen (zumindest über keines, das sie zugeben wollen), wie man ein funktionierendes Stromnetz entwickelt.

Wir alle können in Europa sehen, was passiert, wenn man versucht, fossile Brennstoffe zu verdrängen und sie durch Wind und Sonne zu ersetzen, ohne dass ein alternativer Plan für die Speicherung und Sicherung der Energie vollständig kalkuliert und ausgearbeitet ist und zur Verfügung steht, wenn man ihn braucht. Doch angesichts des anhaltenden Desasters sagen Way und Co.: „Verdoppelt den Aufwand! Wir versichern Ihnen, wenn Sie jetzt nur genug für erneuerbare Energien und ein unerprobtes Wasserstoffsystem ausgeben, werden die Kosten sinken und Sie werden am Ende Billionen sparen“. Und schließlich handelt es sich um einen Haufen wirklich kluger Leute, die für Oxford arbeiten.

Die ganze Studie steht hier.

Link: https://wattsupwiththat.com/2022/09/18/cost-of-the-green-energy-transition-who-you-gonna-believe-some-research-assistants-from-oxford-or-your-lyin-eyes/

Übersetzt von Christian Freuer für das EIKE

 




Die Winterpförtner-Hypothese VII: Eine Zusammenfassung und ein paar Fragen

Javier Vinós & Andy May

Andererseits kann ich wohl mit Sicherheit sagen, dass niemand den Klimawandel versteht“. J. Vinós paraphrasiert Richard Feynmans Worte über die Quantenmechanik.

7.1 Einführung

Diese ungeplante Zusammenfassung in einfacher Sprache wurde auf Wunsch einiger Leser unserer Artikelserie über die Winterpförtner-Hypothese verfasst:

Das Klima ist äußerst komplex, und die Menschen, einschließlich der Wissenschaftler, neigen von Natur aus dazu, nach einfachen Erklärungen zu suchen. Das Prinzip von Occam’s Razor ist ein guter erster Ansatz, aber für den Klimawandel gibt es keine einfache Antwort. In den letzten sieben Jahren hat einer der Autoren dieser Serie (JV) mühsam viele tausend wissenschaftliche Artikel gelesen und Hunderte von Klimadatensätzen analysiert, um zu verstehen, wie sich das Klima der Erde auf natürliche Weise verändert. Dies ist ein erster Schritt zum Verständnis des menschlichen Einflusses auf den Klimawandel. Das Ergebnis dieser Arbeit ist das Buch „Climate of the Past, Present and Future“. Es handelt sich dabei um ein akademisches Buch auf Graduiertenniveau, in dem viele kontroverse Fragen zum natürlichen Klimawandel der letzten 800 000 Jahre erörtert werden. In diesem Buch wird eine neue Hypothese zum natürlichen Klimawandel vorgestellt. Sie setzt Veränderungen in der Stärke des meridionalen (polwärts gerichteten) Energietransports mit klimatischen Veränderungen in der Vergangenheit und in jüngster Zeit in Beziehung.

Da der meridionale Transport im Winter der nördlichen Hemisphäre am stärksten variiert und durch die Sonnenaktivität moduliert wird, nannten wir das Konzept die Winter-Gatekeeper-Hypothese. Der andere Autor der Serie (AM) ist Verfasser mehrerer veröffentlichter Klimabücher, nämlich: „Climate Catastrophe! Science or Science Fiction?“, „Politics and Climate Change: A History“ und „The Great Climate Change Debate: Karoly v Happer“. Wir haben uns zusammengetan, um diese neue Hypothese in dieser Reihe und in einem neuen Buch zu erläutern, das wir gemeinsam schreiben und das auf ein allgemeineres Publikum zugeschnitten sein wird. Ein Publikum, das sich für den Klimawandel interessiert, aber nicht für dessen komplexe wissenschaftliche Details. Die Hypothese entstand aus einer Untersuchung über die Auswirkungen der Sonnenvariabilität auf das Klima. Es stellte sich jedoch heraus, dass die Sonnenvariabilität nur ein Teil des natürlichen Klimawandels ist. Da die wissenschaftlichen Belege für die Hypothese in den ersten sechs Teilen der Serie vorgestellt wurden, werden in dieser Zusammenfassung nur die Schlussfolgerungen und einige zusätzliche Belege präsentiert sowie einige interessante Fragen und Kommentare von Lesern beantwortet.

7.2 Ein Überblick über die Winterpförtner-Hypothese

Die seit 1990 veröffentlichten Lageberichte des IPCC spiegeln einen wissenschaftlichen Konsens darüber wider, dass die natürlichen Kräfte, einschließlich der Sonnenaktivität und der Ozean-Atmosphären-Oszillationen, wie die atlantischen und pazifischen multidekadischen Oszillationen, einen Netto-Null-Effekt auf die beobachteten Veränderungen der globalen durchschnittlichen Temperatur seit 1951 hatten. Der IPCC-Konsens geht davon aus, dass Veränderungen im polwärts gerichteten (meridionalen) Energietransport diese Durchschnittstemperatur in den letzten 75 Jahren nicht wesentlich beeinflusst haben.

Die Winter-Gatekeeper-Hypothese besagt, dass Veränderungen im meridionalen Energie- und Feuchtigkeitstransport die Hauptursache für aktuelle und frühere Klimaveränderungen sind. Die Variabilität des meridionalen Transports hat viele Ursachen und Kräfte, die gleichzeitig und in unterschiedlichen Zeiträumen auf das Klimasystem einwirken. Sie fügen sich zu einem sehr komplexen polwärts gerichteten Energietransportsystem zusammen. Dazu gehören multidekadische Ozean-Atmosphären-Oszillationen, Sonnenvariabilität, Ozon, tropische Vulkanausbrüche, die bis in die Stratosphäre reichen, Orbitalveränderungen und die sich ändernde Mond-Solar-Anziehungskraft. Der meridionale Transport ist also ein Integrator von internen und externen Signalen. Er ist nicht der einzige Weg, auf dem sich das Klima verändert, aber es gibt Hinweise darauf, dass er der wichtigste ist.

Die Winter-Gatekeeper-Hypothese widerlegt nicht den durch Treibhausgase verursachten Klimawandel – sei er nun künstlich oder nicht – sondern wirkt durch ihn. Aber sie erfordert keine Veränderungen des atmosphärischen Gehalts an nicht kondensierenden Treibhausgasen, um einen signifikanten Klimawandel zu verursachen. Daher widerlegt sie die Hypothese, dass CO2 der Hauptkontrollfaktor für den Klimawandel ist.

Durch den meridionalen Transport wird Energie, die sich bereits im Klimasystem befindet, zu ihrem Austrittspunkt an der Obergrenze der Atmosphäre in einer höheren geographischen Breite transportiert. Er erfolgt hauptsächlich durch die Atmosphäre, sowohl in der Stratosphäre als auch in der Troposphäre, wobei die Ozeane einen wichtigen Beitrag leisten. Der Treibhauseffekt ist aufgrund der ungleichmäßigen Verteilung des Wasserdampfs nicht gleichmäßig über den Planeten verteilt und ist in den feuchten Tropen stärker, in den Wüsten schwächer und an den Polen im Winter viel schwächer. Wenn der meridionale Transport stärker ist, erreicht mehr Energie die Pole. Dort kann sie effizienter aus dem Klimasystem austreten, insbesondere im Winter, wenn die Sonne nicht am Himmel steht. Die meiste importierte polare Feuchtigkeit gefriert im Winter und gibt ihre latente Wärme ab. Zusätzliche CO2-Moleküle erhöhen die Strahlung nach außen, da sie wärmer sind als die Oberfläche. Das Endergebnis ist, dass die gesamte im Winter in die Polarregionen importierte Energie das Klimasystem an der Obergrenze der Atmosphäre verlässt (Peixoto & Oort, 1992, S. 363), und eine Erhöhung der zu dieser Zeit dorthin transportierten Energie kann den Verlust nur erhöhen.

Wenn der meridionale Transport stärker ist, verliert der Planet mehr Energie und kühlt sich ab (oder erwärmt sich weniger), und zwar auf inhomogene Weise, weil der Nettoenergieverlust in den Polarregionen größer ist. Da jedoch mehr Energie zu den Polen geleitet wird, erwärmt sich die arktische Region, auch wenn sich der Rest der Welt langsamer abkühlt oder erwärmt. Wenn der meridionale Transport schwächer ist, erreicht weniger Energie die Pole und verlässt das Klimasystem. Dann verliert der Planet weniger Energie und erwärmt sich, während sich die Arktis abkühlt, weil sie weniger Energie aus den unteren Breiten erhält.

Der größte Teil der Energie wird durch die untere Troposphäre und die Meeresströme transportiert. Infolgedessen wirken sich Änderungen der multidekadischen Ozeanschwingungen stärker auf das Klima im multidekadischen Zeitrahmen aus als Änderungen der Sonnenaktivität. Solare Veränderungen haben einen stärkeren Einfluss auf den Energietransport in der Stratosphäre. Dennoch gibt es einen nicht genau definierten Zusammenhang zwischen Änderungen der Sonnenaktivität und Änderungen der multidekadischen Oszillationen, die zu großen multidekadischen Klimaverschiebungen direkt nach 11-jährigen Sonnenzyklusminima führen (siehe Teil IV). Dennoch begann die moderne globale Erwärmung um 1850, als die Atlantische Multidekadische Oszillation ihre Amplitude und Periode erhöhte (Moore et al. 2017). Die gesamte multidekadische Oszillation (auch bekannt als Stadiumwelle) hat derzeit eine Periode von ca. 65 Jahren, und im 20. Jahrhundert gab es zwei ansteigende Phasen der Oszillation, was die beiden Erwärmungsphasen erklärt (1915-1945 und 1976-1997; Abb. 7.1).

Der meridionale Transport wurde im 20. Jahrhundert durch das Zusammentreffen mit dem modernen Sonnenmaximum weiter reduziert (Abb. 7.1): Eine lange Periode mit überdurchschnittlicher Sonnenaktivität zwischen 1935 und 2004. Es handelt sich um die längste derartige Periode seit mindestens 600 Jahren. Die Sonnenaktivität wirkt sich hauptsächlich auf den stratosphärischen Energietransport aus, aber da sie die Stärke des Polarwirbels und die El Niño/Southern Oscillation (siehe Teil II) beeinflusst, wirkt sie auch auf den troposphärischen Transport.

Abb. 7.1. Die Veränderungen der Atlantischen Multidekadischen Oszillation und der Sonnenaktivität stehen im Einklang mit den Temperaturveränderungen.

In Abb. 7.1 zeigt die obere Graphik die Sonnenaktivität. Eine hohe Sonnenaktivität schwächt den polwärts gerichteten Energietransport, was zu einer Erwärmung führt. Das untere Feld zeigt, dass die ansteigende Halbperiode der Atlantischen Multidekadischen Oszillation eine noch stärkere Verringerung des Energietransports bewirkt und einen größeren positiven Temperatureffekt hat. Das mittlere Feld zeigt die Temperaturentwicklung der letzten 120 Jahre. Sie stimmt mit den Auswirkungen dieser beiden Faktoren auf den Transport überein. Die Sonnenfleckendaten stammen von SILSO, die gezeigten Temperaturdaten sind die saisonbereinigten HadCRUT4-Temperaturen, und die ebenfalls saisonbereinigten AMO-Daten stammen von der NOAA. Sie wurden mit einem Gauß-Filter geglättet.

Wie in Abb. 7.1 zu sehen ist, kann der größte Teil der Erwärmung im 20. Jahrhundert durch die kombinierte Wirkung der multidekadischen Ozeanschwankungen und des modernen Sonnenmaximums auf den meridionalen Transport erklärt werden. Kein anderer vorgeschlagener Faktor kann die Erwärmung zu Beginn des 20. Jahrhunderts, die leichte Abkühlung in der Mitte des 20. Jahrhunderts und die starke Erwärmung am Ende des 20. Jahrhunderts zufriedenstellend erklären, ohne auf Ad-hoc-Erklärungen zurückgreifen zu müssen. In einem einzigen Jahrhundert fielen zwei Perioden verringerten Transports (Erwärmung) mit dem Anstieg der Atlantischen Multidekadischen Oszillation AMO und den Auswirkungen des modernen Sonnenmaximums zusammen. Das Ergebnis waren 80 Jahre mit vermindertem Transport, die zur stärksten Erwärmung seit 600 Jahren beitrugen und politischen und wissenschaftlichen Alarm auslösten.

7.3 Solare Veränderungen, Transportänderungen und Klimaverschiebungen

Die Menge an Energie, die polwärts transportiert wird, variiert kontinuierlich und unterliegt starken jahreszeitlichen Schwankungen. Zu bestimmten Zeiten ändert sich jedoch der durchschnittliche jährliche atmosphärische Transport in hohen Breiten über einen Zeitraum von einigen Jahren schneller und pendelt sich auf eine andere durchschnittliche Stärke ein. Diese abrupten Veränderungen des Transports sind hauptsächlich ein Winterphänomen und verursachen im Durchschnitt alle 25 Jahre Klimaverschiebungen. Klimaverschiebungen wurden erstmals 1991 festgestellt (Ebbesmeyer et al. 1991), doch werden sie in den IPCC-Berichten nicht als Ursache für den Klimawandel angesehen, obwohl zahlreiche Studien dies nahelegen. Nach jeder Verschiebung pendelt sich das Klima auf ein neues Regime ein.

Es ist bekannt, dass eine dieser Verschiebungen 1976 stattfand, was zu einer beschleunigten Erwärmung führte, und eine weitere 1997, die zu einer verlangsamten Erwärmung führte (siehe Teil IV). Die vier bekannten Verschiebungen, die im 20. Jahrhundert stattfanden, ereigneten sich kurz nach den Sonnenzyklusminima. Die Klimaregime oder meridionalen Transportphasen wirken sich unverhältnismäßig stark auf das arktische Klima aus, und zwar in entgegengesetzter Richtung zum Klima in den nördlichen mittleren Breiten. Die beschleunigte Erwärmung von 1976-1997 war durch ein recht stabiles arktisches Klima gekennzeichnet, aber die verlangsamte Erwärmung seit 1997 fiel mit einer starken Erwärmung der Arktis zusammen. Abbildung 7.2 zeigt, wie die plötzliche arktische Verschiebung von 1997 durch eine Zunahme des meridionalen Transports verursacht wurde. Die einzige Energie, die die Arktis im Winter erreicht, ist der Transport, und die Verschiebung wurde von einem abrupten Anstieg der in den Weltraum abgestrahlten Energiemenge begleitet.

Nach der IPCC-Theorie kann es ohne eine Veränderung der Sonnenenergie und/oder eine Veränderung der Albedo (von Wolken und Eis reflektierte Sonnenenergie) keine Veränderung der abgehenden langwelligen Energie geben, da die Energieabgabe der Energiezufuhr entsprechen muss. Ohne eine signifikante Änderung der Sonnenenergie oder der Albedo kam es jedoch zu einer signifikanten Änderung der ausgehenden langwelligen Energie, wie in Abb. 7.2 dargestellt:

Abb. 7.2. Die Änderung des meridionalen Transports bei der Klimaverschiebung 1997 führte zu einem abrupten Anstieg der in den Weltraum abgestrahlten Energiemenge, insbesondere im Winter. Dieser Anstieg wurde nicht durch einen entsprechenden Rückgang an anderer Stelle kompensiert.

Die Klimawissenschaftler, die an den IPCC-Berichten mitgewirkt haben, können die Klimaverschiebung von 1976 nicht auf Veränderungen der atmosphärischen Treibhausgase zurückführen und vermuten daher, dass sie durch eine zufällige geringe Verringerung der anthropogenen Sulfataerosole verursacht wurde. Sie setzten die kühlende Wirkung der Sulfate auf einen Punkt, der es ermöglichte, dass steigende CO2-Werte den vorherigen Abkühlungstrend im Jahr 1976 überwinden konnten. Da die Verschiebung von 1997 nicht mit anthropogenen Faktoren erklärt werden kann, werden alle Daten, die zeigen, dass die Verschiebung stattgefunden hat, ignoriert, und der Schwerpunkt wird auf die verstärkte Erwärmung der Arktis verlagert.

Klimaveränderungen sind zweifelsohne auf Veränderungen im meridionalen Energietransport zurückzuführen. Keine Theorie kann den Klimawandel erfolgreich erklären, ohne abrupte oder allmähliche Veränderungen des Transports zu berücksichtigen. Die Winter-Gatekeeper-Hypothese wurde entwickelt, um zu erklären, wie sich das Klima in den letzten 50 Millionen Jahren auf natürliche Weise verändert hat und wie es sich jetzt verändert, indem tektonische, orbitale, solare, ozeanische und atmosphärische Ursachen des Klimawandels in eine einzige Interpretation integriert werden. Sie hat eine enorme Erklärungskraft, und viele scheinbar unzusammenhängende Phänomene können dadurch miteinander verbunden werden. Als Beispiel werden im Folgenden Veränderungen der Windgeschwindigkeit und der Verdunstung diskutiert. Viele Klimawissenschaftler werden ihre Ergebnisse neu interpretieren können, wenn sie sich von dieser neuen Sicht des Energietransports auf den Klimawandel leiten lassen.

Eine besondere Herausforderung bestand darin, eine Erklärung für all die bisher unverbundenen Hinweise auf eine starke Auswirkung kleiner Änderungen der Sonnenaktivität auf das Klima zu finden. Dieses 220 Jahre alte Problem bildete den Ausgangspunkt für die Hypothese. Die Beweise dafür, dass kleine Änderungen der Sonnenaktivität den meridionalen Energietransport beeinflussen, sind sehr solide. Zwei Belege seien hier genannt.

Der erste ist die wiederholte Beobachtung der letzten sechs Jahrzehnte, dass Veränderungen der Sonnenaktivität die Rotationsgeschwindigkeit der Erde beeinflusst haben (siehe Teil II). Dies kann nur durch von der Sonne verursachte Änderungen des atmosphärischen Drehimpulses geschehen, die sich auf die globale atmosphärische Zirkulation auswirken. Dies ist kein kleines Kunststück für so geringe Veränderungen der eintreffenden Energie und ergibt sich aus den dynamischen Veränderungen, die durch die Absorption von UV-Strahlung durch Ozon in der Stratosphäre verursacht werden.

Der zweite Beweis ist, dass die arktischen Temperaturen eine negative Korrelation mit der Sonnenaktivität aufweisen. Dies ist keine neue Entwicklung, wie aus Abb. 5.5 hervorgeht. Diese negative Korrelation wurde für die letzten zwei Jahrtausende von Kobashi et al. in ihrem 2015 erschienenen Artikel „Modern solar maximum forced late twentieth century Greenland cooling“ nachgewiesen. Ein Teil ihrer Abbildung 3 ist in Abb. 7.3 dargestellt:

Abb. 7.3. Anomalie der Grönlandtemperatur und Sonnenaktivität in den letzten 2100 Jahren.

[Die rote Kurve in der unteren Graphik erinnert in ihrem rechten Teil stark an die berüchtigte Hockeyschläger-Graphik! A. d. Übers.]

In Abb. 7.3 ist in Graphik (B) die grönländische Temperaturanomalie mit der durchschnittlichen NH-Temperatur aus vier Aufzeichnungen der nördlichen Hemisphäre kombiniert. Perioden mit warmen Grönlandanomalien in Grönland sind rot, Perioden mit kalten Grönlandanomalien sind blau. Graphik (C) zeigt zwei TSI-Rekonstruktionen von Steinhilber et al. 2012 sowie Roth und Joos, 2013 in z-Score. Die blauen Bereiche sind die Perioden mit stärkerer Sonnenaktivität und die roten Bereiche sind Perioden mit schwächerer Sonnenaktivität. Im Allgemeinen entsprechen die farbigen Bereiche in (C) denen in (B) mit möglichen multidekadischen Verzögerungen. Graphik (E) ist eine Zerlegung der Grönlandtemperaturen in solar-induzierte Veränderungen (blau) und hemisphärische Einflüsse (orange) mit einer Regressionskonstante (-31,2°C; gestrichelte schwarze Linie), die durch die multiplen linearen Regressionen eingeschränkt wird. Die Fehlergrenzen sind 95%-Konfidenzintervalle. Der grün schraffierte Bereich ist der Zeitraum (das späte 20. Jahrhundert), in dem das moderne Sonnenmaximum einen starken negativen Einfluss (roter Kreis) auf die Temperatur in Grönland hatte. Abbildung 7.3 stammt aus Kobashi et al. 2015.

Die plausibelste Erklärung für die negative Korrelation der arktischen Temperatur mit der Sonnenaktivität ist, dass Veränderungen der Sonne den meridionalen Transport regulieren. Eine Zunahme der Sonnenaktivität verringert den Transport und kühlt die Arktis ab, und eine Abnahme der Sonnenaktivität erhöht den Transport und erwärmt die Arktis. Der Effekt auf die Temperatur in den mittleren Breiten ist das Gegenteil.

Weitere Belege liefert die Beziehung zwischen der Sonnenaktivität und der Stärke des Polarwirbels (siehe Abb. 5.4). Während diese Beziehung eine Erklärung für die Korrelation zwischen Temperatur und Sonneneinstrahlung in der Arktis liefert, können die Daten zum Polarwirbel nicht so weit in die Vergangenheit zurückreichen wie die Daten zur Temperatur in Grönland.

7.4 Die Erklärungskraft der Winter-Gatekeeper-Hypothese

Die Klimaforschung hat in den letzten Jahrzehnten enorm zugenommen, und häufig werden Veränderungen bei Klimaphänomenen entdeckt. Wenn diese Veränderungen nicht in die vom IPCC unterstützte CO2-Hypothese passen und von Modellen, die auf der Theorie der Treibhausgase beruhen, nicht richtig reproduziert werden können, werden sie als Klima-Kuriositäten betrachtet und von den Klimawissenschaftlern ignoriert, die sich fast ausschließlich auf anthropogene Veränderungen konzentrieren. Es gibt viele dieser Phänomene. Wir haben bereits die Ausdehnung der Hadley-Zellen erwähnt (siehe Abb. 4.5f). Wir erwähnen hier ein weiteres Beispiel.

Um die Jahrhundertwende wurde festgestellt, dass die Windgeschwindigkeit über Land seit mehr als zwei Jahrzehnten abgenommen hatte. Das Phänomen wurde als „globale terrestrische Flaute“ bezeichnet (McVicar & Roderick 2010). Es war besorgniserregend, weil die Stromerzeugung durch Windturbinen mit der Windgeschwindigkeit in dritter Potenz zusammenhängt. Der in den USA beobachtete Rückgang der Windgeschwindigkeit um 15 % bedeutete also einen Rückgang der verfügbaren Windenergie um fast 40 %. Der Windstillstand an Land ist rätselhaft, da die Modelle ihn nicht zeigen. Außerdem ging er mit einem Anstieg der Windgeschwindigkeit über dem Ozean einher, so dass die vorgeschlagene Erklärung damals lautete, dass die Rauheit der Landoberfläche aufgrund der Zunahme der Biomasse und der veränderten Landnutzung zugenommen hat (Vautard et al. 2010) – ein weiteres Beispiel für eine Ad-hoc-Erklärung.

Dann begann sich der Trend der Windstille zwischen 1997 und 2010 unerwartet umzukehren, und seit 2010 ist in allen Landregionen der nördlichen Hemisphäre ein Anstieg der Windgeschwindigkeit zu verzeichnen (Zeng et al. 2019). Als Erklärung wurden interne dekadische Ozean-Atmosphären-Oszillationen angeführt, die zu korrelieren schienen.

Es ist vielen Menschen unbekannt, aber die Verdunstung über den Ozeanen hängt viel stärker von der Windgeschwindigkeit ab als von der Meeresoberflächentemperatur. Es wurde nachgewiesen, dass die globale Verdunstung an der Meeresoberfläche eng mit den Veränderungen der Windgeschwindigkeit zusammenhängt (Yu 2007; Abb. 7.4).

Abb. 7.4. Änderungen der Windgeschwindigkeit und der Verdunstung während der Klimaregime.

Abb. 7.4 zeigt, dass in der Periode 1976-97 mit geringem Transport und starker Erwärmung die globale Windgeschwindigkeit im Ozean (schwarze durchgezogene Linie) parallel zur Verdunstung im Ozean (blaue gestrichelte Linie) zunahm, während der Landwind (rot gepunktet) in eine Periode der Stagnation eintrat. Mit der Klimaverschiebung von 1997 änderten sich die Trends. Die Daten für Abb. 7.4 stammen von Yu 2007 sowie Zeng et al. 2019. Europa wurde ausgewählt, weil es im Windschatten der Haupttransportroute zur Arktis im Nordatlantik liegt und früher auf deren Veränderungen reagiert. Seit 2010 ist der Trend in allen terrestrischen Regionen der Nordhemisphäre gleich.

Lisan Yu zeigt, dass zwischen den 1970er und den 1990er Jahren:

„… der Anstieg der Evp [Verdunstung] fand hauptsächlich während des hemisphärischen Winters statt“, während „die Westwinde, die mit den [Aleuten- und Island-] Tiefdruckgebieten verbunden sind, sich verstärkten und nach Süden ausdehnten“. Yu 2007)

Die Winter-Gatekeeper-Hypothese kann diesen Nachweis erklären, was wiederum die Hypothese unterstützt. Die Verschiebung von 1976 führte zu einer Verringerung des meridionalen Transports, da die atmosphärische Zirkulation zonaler wurde, was die Windgeschwindigkeit und die Verdunstung über den Ozeanen erhöhte, während die Windgeschwindigkeit über dem Land abnahm, da der meridionale Transport hauptsächlich über den Ozeanbecken stattfindet. Die Veränderungen waren während der Wintersaison intensiver, wenn mehr Energie polwärts transportiert werden muss, und führten zu einem globalen Klimaregime mit geringem Transport und hoher Erwärmung (Abb. 7.1). Bei der Verschiebung 1997 wurde die Zunahme des meridionalen Transports durch eine stärker meridionale atmosphärische Zirkulation verursacht, die die Windgeschwindigkeit und die Verdunstung über den Ozeanen verringerte und die Windgeschwindigkeit über dem Land erhöhte. Das Klimasystem veränderte sich in Richtung eines Klimas mit hohem Transport und geringer Erwärmung.

Es liegt auf der Hand, dass Veränderungen bei nicht kondensierenden Treibhausgasen und anthropogenen Aerosolen nicht die treibende Kraft hinter diesen Veränderungen im meridionalen Transport gewesen sein können. Dies deutet darauf hin, dass ihnen in den Theorien und Modellen zum Klimawandel eine zu hohe Klimasensitivität zugeschrieben wurde. Die Veränderungen des Transports und der atmosphärischen Zirkulation sind jedoch eindeutig mit Veränderungen der Verdunstung und der Luftfeuchtigkeit verbunden, die sich zweifellos auf Veränderungen der Wolkenbildung und des Transports auswirken müssen, nicht zu vergessen die Veränderungen des Salzgehalts des Meerwassers. Hypothesen, die den jüngsten Klimawandel mit Wasserdampf- und Wolkenveränderungen erklären, könnten der Winter-Gatekeeper-Hypothese untergeordnet sein. Die Integration von solaren, astronomischen und atmosphärisch-ozeanischen Oszillationsänderungen macht diese Hypothese zu einer allumfassenden Hypothese. Es ist wahrscheinlicher, dass sie richtig ist als Teilhypothesen.

7.5 Einige Fragen und Antworten zu der Hypothese

Angesichts der Komplexität des Klimasystems haben wir nicht auf jede Frage eine Antwort, und es ist auch nicht erforderlich, dass wir eine Antwort haben, wenn die Hypothese im Wesentlichen richtig sein soll. In den Diskussionen wurden einige interessante Kommentare geäußert, und es lohnt sich, sie für diejenigen Leser, die sie verpasst haben, wieder aufzugreifen. Im Folgenden gehen wir auf einige der interessantesten Fragen und Kommentare ein:

(1) F: Ist es notwendig, dass die Sonnenaktivität seit der Kleinen Eiszeit zugenommen hat?

A: Ein zunehmender Trend in der Sonnenaktivität seit 1700 ist zwar vertretbar, aber nicht erforderlich, damit der solare Teil der Hypothese richtig ist. Wie Abb. 7.1 zeigt, reicht es aus, dass eine überdurchschnittliche Aktivität den meridionalen Transport reduziert hat, der zur Erwärmung beiträgt. Das dargestellte Moderne Sonnenmaximum hatte diesen Effekt. Abb. 7.3 ist ein starker Beleg für den Zusammenhang zwischen Sonne und Transport in den letzten zwei Jahrtausenden.

(2) F: Ist der Treibhauseffekt für die Winter-Gatekeeper-Hypothese erforderlich?

A: Ja. In einem Gedankenexperiment wurde dem Leser vorgeschlagen, sich vorzustellen, dass die Polarregionen ein anderer Planet (B) sind, der mit einem Planeten A verbunden ist, der aus den Tropen und den mittleren Breiten besteht. Die Verbindung ermöglicht die Übertragung von Wärme. Der Treibhauseffekt auf Planet B ist schwächer, da seine Atmosphäre einen geringen Wasserdampfgehalt aufweist. Während 6 Monaten im Jahr liegt Planet B im Dunkeln. Lässt man mehr Energie zu diesem Planeten durch, wird sie effizienter in den Weltraum abgestrahlt und die Durchschnittstemperatur des Binärsystems sinkt, obwohl sich Planet B erwärmt. Das Gegenteil ist der Fall, wenn weniger Energie durchgelassen wird.

(3) F: Warum gibt es keine Korrelation zwischen Oberflächentemperatur und Sonnenaktivität, wenn die Hypothese wahr ist?

A: Weil es keine Korrelation geben sollte. Auf der multidekadischen Skala reagiert der meridionale Transport hauptsächlich auf die multidekadische Ozean-Atmosphären-Oszillation. Auf der zwischenjährlichen Skala haben die Quasi-Biennial-Oszillation und die El Niño/Southern Oscillation einen starken Einfluss. Die Sonne ist auf diesen Zeitskalen nicht dominant. Die Rolle der Sonne nimmt mit zunehmender Länge der Zeitskala aufgrund ihrer längerfristigen säkularen Zyklen und ihrer längerfristigen kumulativen Wirkung zu.

(4) F: Wie wichtig ist die Rolle des Ozeantransports beim Klimawandel in Ihrer Hypothese?

A: Die Ozeane speichern den größten Teil der Energie im Klimasystem, und der größte Teil der Sonnenenergie fließt durch den Ozean, bevor er die Atmosphäre erreicht. Er spielt daher eine entscheidende Rolle für das Klima. Die Rolle des Ozeans beim meridionalen Transport ist jedoch zweitrangig gegenüber der Rolle der Atmosphäre und somit auch seine Rolle beim Klimawandel. Derzeit wird davon ausgegangen, dass der Ozeantransport mechanisch angetrieben wird, wobei Winde und Gezeiten die erforderliche Energie liefern. Die Atmosphäre wandelt Wärme in mechanische Energie um, während der Ozean dies nicht tut. Dies schmälert jedoch nicht die Wirkung der vom Ozean transportierten Wärme, die etwa ein Drittel des gesamten meridionalen Wärmetransports ausmacht. Der Ozean transportiert auch die gesamte Wärme, die von der südlichen auf die nördliche Hemisphäre übertragen wird. Die Bedeutung des ozeanischen Transports nimmt jedoch mit zunehmender Breite ab, so dass die Winter-Gatekeeper-Hypothese sich nur auf den ozeanischen Transport stützen kann, wenn er eine unterstützende Rolle spielt.

(5) F: Haben Veränderungen der Sonnenaktivität Auswirkungen auf die Meeresströmungen?

A: Veränderungen in der Sonnenleistung sollten sich nicht direkt auf die Meeresströmungen auswirken, da dies mechanische Energie erfordert. Änderungen der Sonnenleistung müssen sich zwangsläufig zuerst auf die Atmosphäre auswirken. Dies ist wichtig, weil es im Wesentlichen Hypothesen ausschließt, die einen anfänglichen Sonneneffekt über dem Ozean vorschlagen.

(6) F: Schließt Ihre Hypothese eine Erwärmung durch anthropogene Einflüsse wie Treibhausgas-Emissionen, industrielle Aerosole und veränderte Landnutzung aus?

A: Nein. Sie lässt nur viel weniger Raum für diese Faktoren. Wenn die Hypothese richtig ist, ist es unwahrscheinlich, dass der anthropogene Einfluss auf das Klima für mehr als die Hälfte der beobachteten Erwärmung verantwortlich ist, und wahrscheinlich viel weniger.

(7)F: Was ist mit der Hypothese von Svensmark über kosmische Strahlung und Wolken?

A: Wir haben keine Beweise für diese Hypothese gefunden.

(8) F: Ist die Änderung der Bestrahlungsstärke während des Sonnenzyklus nicht zu gering, um das Klima zu beeinflussen?

A: Die Änderung der Bestrahlungsstärke während des Sonnenzyklus beträgt nur 0,1 % und ist damit zu gering, um den Energiehaushalt des Systems wesentlich zu verändern und den Klimawandel zu fördern. Die ultraviolette Strahlung im Bereich 200-320 nm des Spektrums macht nur 1 % der Gesamtenergie der Sonneneinstrahlung aus, und sie schwankt um 1 % mit dem Sonnenzyklus (das Zehnfache der Schwankung der Gesamtenergie). Die Veränderung der ultravioletten Strahlung, die für die Auswirkungen des Sonnenzyklus auf das Klima verantwortlich ist, macht also nur 0,01 % der von der Sonne gelieferten Gesamtenergie aus. Die anderen 0,09 % der Energieänderung sind für den Klimawandel irrelevant und haben keine nachweisbaren Auswirkungen. Bei der Wirkung der Sonne auf das Klima geht es nicht um die Menge der ultravioletten Sonnenenergie, sondern um ihre dynamischen Auswirkungen in der Erdatmosphäre. 99,99 % der Energie, die für den solaren Effekt verantwortlich ist, befindet sich bereits im Klimasystem. Eine Zunahme des meridionalen Transports verkürzt ihre Durchlaufzeit durch das System, während eine Abnahme des Transports ihre Verweildauer erhöht, was zu den Temperaturänderungen führt.

(9) F: Ihre Hypothese kann nicht richtig sein, denn die Obergrenze der Atmosphäre sollte sich im Strahlungsgleichgewicht befinden und die gleiche Menge an Energie zurückgeben, die sie erhält.
A: Diese Aussage ist falsch. Der Strahlungsfluss an der Obergrenze der Atmosphäre ist nie im Gleichgewicht, und der Planet erwärmt oder kühlt sich ständig, egal in welchem Zeitrahmen. Niemand hat jemals einen Zeitraum ermittelt, in dem die Energiemenge, die in das Klimasystem eintritt, gleich der Energiemenge war, die das Klimasystem verlässt. Die Erde hat keine Möglichkeit, die gleiche Energiemenge zurückzugeben, die sie erhält. Für die thermische Homöostase, zu der der Planet fähig ist, sind viele nicht genau erforschte Rückkopplungsmechanismen verantwortlich.

(10) F: Die Stratosphärentemperatur hat sich 1997 von einem rückläufigen Trend zu einem flachen Trend verändert.

A: Ja, das ist ein Beweis für den Klimawandel von 1997 und die anhaltende Pause trotz des El Niño 2016. Der Trend der Stratosphärentemperatur hat das umgekehrte Profil wie der Trend der bodennahen Temperatur. Modelle gehen davon aus, dass dies auf Veränderungen bei CO2 und Ozon in der Stratosphäre zurückzuführen ist, aber Modelle und Beobachtungen weichen erheblich voneinander ab (Thompson et al. 2012). Der Temperaturtrend in der Stratosphäre stimmt mit den Erwartungen überein, wenn die Winter-Gatekeeper-Hypothese richtig ist.

(11) F: Wissenschaftler sind sich bereits bewusst, dass Veränderungen im meridionalen Transport eine mögliche Ursache für die Erwärmung sind. Siehe Herweijer et al. 2005.

A: Der IPCC glaubt nicht, dass Veränderungen des Transports wesentlich zur beobachteten Erwärmung seit 1951 beigetragen haben. Wenn dies der Fall wäre, wäre dies in der natürlichen (internen) Variabilität enthalten, der sie einen Netto-Null-Effekt zuweisen (siehe Abb. 5.1). Die Modelle geben den Transport nicht korrekt wieder, ein Beispiel dafür ist Herweijer et al. 2005. Die Modelle gehen davon aus, dass die Summe aus ozeanischem und atmosphärischem Transport nahezu konstant ist. Dies wird als Bjerknes-Kompensations-Hypothese bezeichnet (siehe Teil IV). In ihrem Modellexperiment erhöhen sie den ozeanischen Transport um 50 % und beobachten eine Erwärmung aufgrund von Änderungen der Wasserdampfverteilung (Änderungen des Treibhauseffekts) und eine Verringerung der Albedo niedriger Wolken und des Meereises. Das Problem ist, dass sie nicht erwähnen, dass ihr modellbasierter Mechanismus als negative Rückkopplung zur Erwärmung wirken sollte. Bei einem sich erwärmenden Planeten mit polarer Verstärkung und einem sich verringernden Temperaturgradienten zwischen hohen und niedrigen Breiten ist eine Verringerung des ozeanischen Transports sowohl angedeutet als auch beobachtet worden (sie erkennen dies an und verweisen auf McPhaden & Zhang 2002). Ihrem Modellexperiment zufolge sollte dies zu einer Abkühlung durch Transportveränderungen führen, nicht zu einer Erwärmung. Dass sie dies nicht erwähnen, ist, gelinde gesagt, irreführend. Eine ernsthafte Herausforderung für die modellbasierte Bjerknes-Kompensations-Hypothese ist, dass Forscher eine Verstärkung des Nordatlantikstromes seit 1997 festgestellt haben (Oziel et al. 2020), die mit der Verstärkung des atmosphärischen Transports einhergeht, auf die wir in unseren Artikeln hingewiesen haben, und die mit der Winter-Gatekeeper-Hypothese übereinstimmt.

(12) F: Sollten nicht die tropischen Konvektionszonen die Hauptstrahler des Planeten sein, die für die Abkühlung verantwortlich sind? Wenn man die Wärme von den feuchten Tropen wegleitet, sollte sich der Planet erwärmen.

A: Das ist nicht richtig. In den Tropen geht mehr Energie verloren als an den Polen, aber der Energieverlust in den Tropen wird im Wesentlichen durch die hoch reichende Konvektion gedeckt. Es gibt einen Punkt, an dem zusätzliche, nach unten gerichtete Energie die Temperatur nicht mehr erhöht, weil sie zur Verstärkung der Konvektion verwendet wird. Der Vorschlag, dass die Konvektion in den Tropen als Thermostat wirkt, ist über 20 Jahre alt (Sud et al. 1999). Sie gibt überschüssige Energie an die Atmosphäre ab, reduziert aber die ausgehende langwellige Strahlung durch Wolkenbildung. Der größte Teil der Energie verbleibt im Klimasystem. Die negative Korrelation zwischen der Meeresoberflächentemperatur und der ausgehenden langwelligen Strahlung, sobald die Temperatur 27°C überschreitet, ist ein bekanntes Merkmal des tropischen Klimas (Lau et al. 1997). Die Standardmeinung ist, dass der Transport von mehr Energie in Richtung der Pole den Planeten erwärmt. Unsere Hypothese und die Beweise, die wir vorgelegt haben, unterstützen die gegenteilige Ansicht.

(13) F: Der Kern der arktischen Verstärkung im Winter ist nicht das, was Sie sagen, sondern die Auswirkungen der steigenden Meerestemperaturen, des Rückgangs des Meereises und der Zunahme der Winterwolken, die die Arktis in einen wärmeren Zustand versetzen.

A: Das ist der Standpunkt der meisten Klimaforscher. Wir sind anderer Meinung. Das ist nur die Auswirkung. Die Ursache ist eine Veränderung in der Wärmemenge, die von der Atmosphäre in die Arktis transportiert wird, die innerhalb weniger Jahre nach dem Klimaregime von 1997 recht abrupt eintrat, wie in Abb. 7.2 gezeigt. Dieser Anstieg des Wärme- und Feuchtigkeitstransports führte zu dem raschen Rückgang des Meereises und der Zunahme der Bewölkung, die Merkmale des neuen arktischen Regimes sind. Alle Konsensvorhersagen für die Arktis sind gescheitert, weil sich die Situation im neuen Transportregime stabilisiert hat, anstatt eine positive Rückkopplung zu verursachen – die logische Schlussfolgerung, wenn die Konsensposition richtig wäre.

(14) F: Ihre Auffassung von El Niño/Southern Oscillation ist falsch. La Niña und El Niño sind die alternierenden Zustände eines Oszillators.

A: Das wird durch eine Frequenzanalyse der El Niño/Southern Oscillation nicht bestätigt. El Niño und La Niña sind entgegengesetzte Abweichungen vom neutralen Zustand. Unsere Analyse zeigt, dass die Häufigkeit von La-Niña-Jahren stark negativ mit der Häufigkeit von neutralen Jahren korreliert (siehe Abb. 2.4), nicht mit El-Niño-Jahren. Und die Häufigkeit der neutralen Jahre folgt dem Sonnenzyklus. Es gibt nur eine Möglichkeit, diesen Beweis zu interpretieren. La Niña und neutral sind die alternierenden Zustände eines Oszillators, der auf die Sonnenaktivität reagiert. Da die neutralen Bedingungen nicht den La-Niña-Bedingungen entgegengesetzt sind, neigt der Oszillator dazu, zu viel Wärme unter der Oberfläche des Ozeans anzusammeln. El Niño setzt den Oszillator zurück. Die Häufigkeit von El Niño hängt davon ab, wie viel zusätzliche Wärme der Oszillator sammelt, was wiederum davon abhängt, ob sich der Planet insgesamt erwärmt oder abkühlt. Dies ist eine sehr unorthodoxe Sichtweise, aber sie wird durch die Beweise gestützt.

(15) F: Sie zeigen in Abb. 6.9, dass über 85% der in HadCRUT5 für den Zeitraum 1997-2014 gezeigten Oberflächenerwärmung das Produkt von Änderungen ist, die seit HadCRUT3 an den Temperaturdatensätzen vorgenommen wurden. Ist dies korrekt?

A: Ja. Der globale Jahresdurchschnitt der Oberflächenerwärmung ist nicht nur ein schlechtes Maß für den Klimawandel, sondern, da er als Anomalie zu einem Durchschnitt berechnet wird, auch eine sehr kleine Zahl im Verhältnis zur Genauigkeit der Messungen und zu den viel größeren saisonalen Temperaturänderungen, von denen er abgezogen wird. Der Planet erwärmt sich, aber die Zahlen, mit denen dies belegt wird, sind nicht so aussagekräftig, wie man uns glauben machen will. Ein erheblicher Teil der behaupteten Erwärmung ist auf die Art und Weise zurückzuführen, wie sie berechnet wird, wie die Abbildung zeigt.

(16) F: Glauben Sie wirklich, dass Sie richtig liegen und der IPCC falsch liegt?

A: Um Einstein zu paraphrasieren: Wenn der IPCC falsch liegt, sollte es nicht notwendig sein, dass hundert Autoren dies beweisen. Einer ist ausreichend.

(17) F: Was sollten wir Ihrer Theorie zufolge in den nächsten Jahren und für den Rest des Jahrhunderts vom Klimawandel erwarten?

A: Die derzeitige unterdurchschnittliche Sonnenaktivität und eine erwartete Abkühlungsphase in der Atlantischen Multidekadischen Oszillation deuten auf eine wahrscheinliche Fortsetzung oder sogar Verstärkung der geringeren Erwärmung im ersten Drittel des 21. Jahrhunderts. Eine mäßige Abkühlung während dieses Zeitraums ist möglich. Anders als im 20. Jahrhundert dürfte es in diesem Jahrhundert zwei Abkühlungsphasen der Atlantischen Multidekadischen Oszillation geben. Selbst wenn ein weiteres ausgedehntes Sonnenmaximum für den größten Teil des Jahrhunderts eintritt, dürfte das 21. Jahrhundert unabhängig von den CO2-Emissionen eine deutlich geringere Erwärmung als das vorangegangene aufweisen. Ein großes Sonnenminimum ist nach unserer Interpretation der Sonnenzyklen höchst unwahrscheinlich, was eine Erleichterung ist. Nach den bisherigen Erkenntnissen führt ein großes solares Minimum zu einer starken Abkühlung des Planeten.

(18) F: Was wäre ein guter Test für Ihre Hypothese?

A: Der oben beschriebene erwartete Klimawandel in den nächsten 30 Jahren steht im Einklang mit mehreren alternativen Theorien zum IPCC, die auf den Auswirkungen der multidekadischen Schwankungen beruhen. Der Winter-Gatekeeper erklärt besser, warum die Verschiebung 1997 stattfand, und sagt die nächste Verschiebung für ca. 2032 voraus, d. h. drei Sonnenzyklen. Der beste Test wird sein, wenn ein sehr aktiver Sonnenzyklus stattfindet. Wenn die arktische Verstärkung in eine Abkühlung umschlägt und das arktische Meereis wächst, wird dies unsere Hypothese unterstützen. Wenn dies geschieht, werden die vorgeschlagenen Alternativen zu unserer Hypothese unterhaltsam sein.

References

Glossar und Liste aller Abkürzungen

Link: https://andymaypetrophysicist.com/2022/09/22/the-winter-gatekeeper-hypothesis-vii-a-summary-and-some-questions/

Übersetzt von Christian Freuer für das EIKE

 




Kritische Beurteilung von Extremwetter-Trends in Zeiten globaler Erwärmung

Gianluca Alimonti, Luigi Mariani, Franco Prodi & Renato Angelo Ricci

Abstract

In diesem Artikel wird die aktuelle Literatur zu Zeitreihen einiger extremer Wetterereignisse und zugehörigen Reaktionsindikatoren gesichtet, um zu verstehen, ob eine Zunahme der Intensität und/oder Häufigkeit feststellbar ist. Die stärksten globalen Veränderungen bei den Klimaextremen sind bei den Jahreswerten der Hitzewellen (Anzahl der Tage, maximale Dauer und kumulierte Hitze) zu verzeichnen, während die globalen Trends bei der Hitzewellenintensität nicht signifikant sind. Die tägliche Niederschlagsintensität und die Häufigkeit von Extremniederschlägen sind bei den meisten Wetterstationen stationär. Die Trendanalyse der Zeitreihen tropischer Wirbelstürme zeigt eine erhebliche zeitliche Invarianz, und dasselbe gilt für Tornados in den USA. Gleichzeitig bleibt die Auswirkung der Erwärmung auf die Windgeschwindigkeit am Boden unklar. Die Analyse wird dann auf einige globale Reaktionsindikatoren extremer meteorologischer Ereignisse ausgedehnt, nämlich Naturkatastrophen, Überschwemmungen, Dürren, die Produktivität von Ökosystemen und die Erträge der vier wichtigsten Kulturpflanzen (Mais, Reis, Sojabohnen und Weizen). Keiner dieser Reaktionsindikatoren zeigt einen eindeutig positiven Trend bei extremen Ereignissen. Auf der Grundlage der Beobachtungsdaten lässt sich abschließend feststellen, dass die Klimakrise, die wir nach Meinung vieler Quellen heute erleben, noch nicht offensichtlich ist. Dennoch wäre es äußerst wichtig, Abmilderungs- und Anpassungsstrategien zu definieren, die den aktuellen Trends Rechnung tragen.

Einführung

Die durchschnittliche Temperatur unseres Planeten hat sich gegenüber der vorindustriellen Zeit um etwa ein Grad Celsius erhöht, und verschiedene Studien weisen auf Schwankungen bei Bewölkung, Niederschlag, relativer Luftfeuchtigkeit und Windgeschwindigkeit hin. In diesem Artikel wird die aktuelle Literatur zu einigen extremen Wetterereignissen durch einen Vergleich mit Zeitreihen geprüft, um zu verstehen, ob eine Zunahme der Intensität und/oder der Häufigkeit festzustellen ist.

Nach der Definition des IPCC AR5 [1] sind extreme Wetterereignisse Ereignisse, die an einem bestimmten Ort und zu einem bestimmten Zeitpunkt des Jahres selten sind. Die Definitionen für seltene Ereignisse variieren, aber ein extremes Wetterereignis ist normalerweise so selten wie oder seltener als das 10. oder 90. Perzentil einer aus Beobachtungen geschätzten Wahrscheinlichkeitsdichte-Funktion. Wenn ein Muster extremen Wetters über einen längeren Zeitraum, z. B. eine Saison, anhält, kann es als extremes Klimaereignis eingestuft werden, insbesondere wenn es einen Durchschnittswert oder eine Gesamtsumme ergibt, die selbst extrem ist (z. B. Dürre oder starke Regenfälle während einer Saison).

Die extremen Wetterereignisse, um die es hier geht, spielen sich im Klimasystem ab, einem System von großer Komplexität, das fünf Teilsysteme umfasst (Atmosphäre, Kryosphäre, Lithosphäre, Hydrosphäre und Biosphäre) und dessen grundlegende Elemente das Energiegleichgewicht zwischen den von der Sonne eintreffenden Photonen und den in den Weltraum zurückgestrahlten Photonen, der Treibhauseffekt und die atmosphärische und ozeanische Zirkulation sind. Das Klimasystem wird durch das Energieungleichgewicht in Gang gesetzt, das sich aus den Breiten- und Jahreszeitenschwankungen der auf den Boden auftreffenden Sonnenenergie ergibt und die atmosphärischen und ozeanischen Zirkulationen in Gang setzt, die für die Umverteilung der Energie in Breiten- und Zonenrichtung verantwortlich sind. Weitere Einzelheiten stehen im didaktischen Papier und dem Bericht, der auf dem SIF-Kongress 2020 von einem der Autoren vorgestellt wurde [2, 3].

Beobachtungen von Extremwetter-Ereignissen

Im Zusammenhang mit extremen Wetterereignissen ist es wichtig, den Unterschied zwischen dem statistischen Nachweis einer Häufung von Ereignissen mit bestimmten Merkmalen und der probabilistischen Berechnung der anthropogenen Verursachung von Extremereignissen hervorzuheben: beide Aspekte haben einen sehr unterschiedlichen erkenntnistheoretischen Status.

Während die statistischen Nachweise auf historischen Beobachtungen beruhen und versuchen, Unterschiede zwischen diesen und aktuellen Beobachtungen oder möglichen Trends in Abhängigkeit von der Zeit aufzuzeigen, basiert die Zuordnung anthropogener oder natürlicher Ursachen eines Phänomens auf probabilistischen Modellen und stützt sich auf Simulationen, die die beteiligten makro- und mikrophysikalischen Variablen kaum wiedergeben. So zeigt beispielsweise die von Wetterstationen an der Landoberfläche gemessene Windgeschwindigkeit im Zeitraum 1973-2019 für alle Regionen der Welt einen leicht negativen Trend bei der Häufigkeit extremer Winde (Geschwindigkeit > 10 m/s). Zu den möglichen Ursachen gehören Veränderungen in der großräumigen atmosphärischen Zirkulation, die Zunahme der Oberflächenrauhigkeit, Änderungen der Instrumentierung, unterschiedliche Messzeitintervalle, Luftverschmutzung und eine Zunahme der räumlichen Varianz der oberflächennahen Lufttemperatur [4]. Die möglichen Ursachen spielen sich auf verschiedenen Ebenen ab, und die dahinter stehenden Prozesse sind wahrscheinlich räumlich und zeitlich unterschiedlich, so dass die Zuordnung sehr unsicher ist. Darüber hinaus kamen Zeng et al. [5] zu dem Schluss, dass die Beziehung zwischen Ozean-Atmosphären-Oszillationen und der anthropogenen Erwärmung sowie die Auswirkungen auf die Variabilität der Windgeschwindigkeit an der Oberfläche nach wie vor unklar sind und eine große wissenschaftliche Herausforderung darstellen.

Das Vertrauen in die Beobachtungen von Extremereignissen hängt von der Qualität und Quantität der Daten ab, die je nach Weltregion und für verschiedene Arten von Extremereignissen und Wettervariablen unterschiedlich sind. In diesem Zusammenhang muss zunächst auf die Schwierigkeit hingewiesen werden, zuverlässige Zeitreihen globaler Daten zu finden: Oft müssen wir uns auf lokalere Beobachtungen beschränken, die in Gebieten durchgeführt werden, in denen die Phänomene in der Vergangenheit besser beobachtet und aufgezeichnet wurden und deren Daten daher zuverlässiger und repräsentativer sind.

Wie vom IPCC [6] berichtet, sind die robustesten globalen Veränderungen bei den Klimaextremen bei den täglichen Temperaturmessungen zu finden, einschließlich der Hitzewellen. Die von Perkins-Kirkpatrick und Lewis [7] durchgeführte globale Analyse zeigte für den Zeitraum 1951-2017 einen signifikanten Anstieg der jährlichen Werte der Hitzewellentage, der maximalen Hitzewellendauer und der kumulativen Hitze, während die globalen Trends der Hitzewellenintensität nicht signifikant sind. Auch die Niederschlagsextreme scheinen zuzunehmen, doch gibt es große räumliche Schwankungen, und die bei Dürren beobachteten Trends sind außer in einigen Regionen noch ungewiss. Seit den 1970er Jahren ist eine starke Zunahme der Häufigkeit und Aktivität tropischer Wirbelstürme im Nordatlantik zu beobachten. Es gibt nur begrenzte Hinweise auf Veränderungen bei Extremen in Verbindung mit anderen Klimavariablen seit Mitte des zwanzigsten Jahrhunderts.

Während die Zunahme der Häufigkeit und Dauer von Hitzewellen leicht durch den globalen Temperaturanstieg erklärt werden kann, scheint die beobachtete Zunahme der tropischen Wirbelstürme im Nordatlantik ein lokales Phänomen zu sein und im Wesentlichen auf eine bessere Berichterstattung zurückzuführen zu sein, wie sie von der NOAA unterstützt wird und wie wir in dem Abschnitt, der dieser Art von Phänomenen gewidmet ist, genauer sehen werden. In anderen Gebieten des Planeten wird ein Rückgang der gleichen Phänomene beobachtet und in wieder anderen wird kein Trend beobachtet, was die globalen Auswertungen im Wesentlichen auf eine wesentliche zeitliche Invarianz bringt.

Was die offensichtliche Zunahme der durch Extremereignisse verursachten wirtschaftlichen Schäden betrifft, so nimmt der IPCC [8] erneut eine sehr vorsichtige Haltung ein und argumentiert, dass die Zunahme der Exposition von Menschen und wirtschaftlichen Ressourcen die Hauptursache für den langfristigen Anstieg der wirtschaftlichen Verluste durch Wetter- und Klimakatastrophen war. Langfristige Trends bei den Katastrophenverlusten, die unter Berücksichtigung des steigenden Wohlstands und der Bevölkerungszahl normalisiert wurden, wurden bisher nicht auf den Klimawandel zurückgeführt, aber es wurde bisher nicht ausgeschlossen, dass der Klimawandel eine Rolle gespielt haben könnte.

Eine ausführliche Studie über den Zusammenhang zwischen Anfälligkeit und Wohlstand [9] kommt zu folgendem Schluss: „Die Ergebnisse zeigen einen klaren Abwärtstrend sowohl bei der menschlichen als auch bei der wirtschaftlichen Anfälligkeit, wobei die durchschnittlichen Sterblichkeits- und wirtschaftlichen Verlustraten von 1980-1989 bis 2007-2016 um das 6,5- bzw. fast 5-fache gesunken sind. Darüber hinaus zeigen wir eine klare negative Korrelation zwischen Anfälligkeit und Wohlstand, die bei den niedrigsten Einkommensstufen am stärksten ist“.

In den folgenden Abschnitten werden einige der wichtigsten extremen Klimaereignisse betrachtet und ihre Entwicklung im Laufe der Zeit auf globaler Ebene oder in den Gebieten, in denen die Zeitreihen zu solchen Phänomenen als ausreichend zuverlässig gelten, analysiert.

Hurrikane

Ein tropischer Wirbelsturm (im Nordatlantik Hurrikan genannt) ist ein schnell rotierender Sturm, der über tropischen Ozeanen entsteht und von dort die Energie für seine Entwicklung bezieht. Er hat ein Tiefdruckzentrum und Wolken, die sich spiralförmig in Richtung der Augenwand bewegen, die das „Auge“ umgibt, den zentralen Teil des Systems, in dem das Wetter normalerweise ruhig und wolkenfrei ist. Der Durchmesser des Wirbelsturms beträgt in der Regel zwischen 200 und 500 km, kann aber auch 1000 km erreichen. Ein tropischer Wirbelsturm bringt sehr heftige Winde, sintflutartige Regenfälle, hohe Wellen und in einigen Fällen sehr zerstörerische Sturmfluten und Überschwemmungen an den Küsten mit sich. Die Winde wehen in der nördlichen Hemisphäre gegen den Uhrzeigersinn und in der südlichen Hemisphäre im Uhrzeigersinn. Tropische Wirbelstürme ab einer bestimmten Stärke werden im Interesse der öffentlichen Sicherheit mit Namen versehen. In den letzten 50 Jahren wurden fast 2000 Katastrophen auf tropische Wirbelstürme zurückgeführt, bei denen mehrere hunderttausend Menschen ums Leben kamen und wirtschaftliche Schäden in Höhe von mehr als 1400 Milliarden US-Dollar entstanden [10].

Die Auswirkungen von Hurrikanen auf die globale Zirkulation sind von Bedeutung, wie Studien zeigen, die eine erhebliche Verringerung des Golfstromes durch darüber hinwegziehende Hurrikane belegen [11].

Diese Beobachtungen, die sich auf den Nordatlantik im Jahr 2017 beziehen, sind von größter Bedeutung, da jedes Jahr weltweit 80-100 tropische Stürme beobachtet werden, von denen etwa die Hälfte die Stärke eines Hurrikans erreichen und ein kleinerer Prozentsatz, etwa ein Viertel, zu starken Hurrikanen wird.

Der Oberbegriff „tropischer Wirbelsturm“ kann zur Beschreibung von tropischen Stürmen, Hurrikanen und Taifunen verwendet werden. Obwohl die meisten tropischen Wirbelstürme ihren Lebenszyklus beenden, ohne Land zu treffen, verursachen viele von ihnen jedes Jahr katastrophale Schäden und fordern Menschenleben in den Küstenländern, einschließlich der USA.

Historisch gesehen sind rund 60 % aller wirtschaftlichen Schäden, die weltweit durch Katastrophen verursacht werden, auf Hurrikane in den USA zurückzuführen [12], und mehr als 80 % dieser Schäden entstehen durch schwere Hurrikane. Es ist daher nicht verwunderlich, dass Hurrikane Interesse und Aufmerksamkeit erregen. Aufgrund ihres beängstigenden Zerstörungspotenzials ist es auch nicht verwunderlich, dass Hurrikane ein zentrales Element in der Debatte über Maßnahmen zur Eindämmung des Klimawandels und zur Anpassung daran sind.

Bislang zeigen globale Beobachtungen keine signifikanten Trends sowohl bei der Anzahl als auch bei der von Hurrikanen akkumulierten Energie, wie in Abb. 1 dargestellt und in mehreren spezifischen Veröffentlichungen [13] für die USA, die den Trend seit mehr als 160 Jahren zurückverfolgen, oder für andere Regionen der Erde [14, 15] behauptet wird.

Abbildung 1

Besondere Aufmerksamkeit sollte der IPCC-Erklärung gewidmet werden, in der von einer starken Zunahme der Häufigkeit und Aktivität tropischer Wirbelstürme im Nordatlantik berichtet wird. Um mehr Informationen zu diesem Thema zu erhalten, hat die NOAA [17] viel längere Zeitreihen (> 100 Jahre) der atlantischen Hurrikan-Aktivität analysiert.

Die vorhandenen Aufzeichnungen über die Zahl der vergangenen atlantischen Tropenstürme oder Hurrikane (von 1878 bis heute) zeigen in der Tat einen ausgeprägten Aufwärtstrend; allerdings war die Meldedichte der Atlantikschifffahrt in den ersten Jahrzehnten dieses Zeitraums relativ gering: Wären die Stürme der Neuzeit (nach 1965) hypothetisch während dieser Jahrzehnte aufgetreten, wäre eine beträchtliche Zahl von Stürmen wahrscheinlich nicht vom Marinebeobachtungsnetz erfasst worden.

Nach Anpassung der Zeitreihen an die geringeren Beobachtungskapazitäten der Vergangenheit bleibt daher nur ein kleiner nominell positiver Aufwärtstrend der Tropenstürme von 1878 bis 2006. Statistische Tests zeigen, dass dieser Trend nicht signifikant von Null zu unterscheiden ist.

Darüber hinaus stellten Landsea et al. [18] fest, dass der steigende Trend bei der Anzahl der Tropenstürme im Atlantik fast ausschließlich auf die Zunahme der kurzlebigen Stürme (< 2 Tage) zurückzuführen ist, die in den ersten Jahren der Aufzeichnungen wahrscheinlich übersehen wurden, da sie weniger Gelegenheit zu zufälligen Begegnungen mit dem Schiffsverkehr hatten.

Betrachtet man nicht alle Tropenstürme, sondern die Hurrikane im Atlantikbecken, so ergibt sich ein ähnliches Bild: Die gemeldete Zahl der Hurrikane war in den 1860er und 1880er Jahren ähnlich hoch wie heute, und auch hier ist kein signifikanter positiver Trend seit dieser Zeit zu erkennen. Bei den Hurrikanen, die auf die Küste der USA treffen, sind die Anzeichen für einen Aufwärtstrend sogar noch schwächer; hier ist seit den 1900er Jahren bzw. dem Ende des 19. Jahrhunderts ein leicht negativer Trend zu verzeichnen.

Die Situation für die verschiedenen langfristigen Aufzeichnungen über atlantische Hurrikane und die zugehörigen Indizes ist in Abb. 2 [17] zusammengefasst: Während die mittlere Temperatur des tropischen Atlantiks und die SST einen ausgeprägten und statistisch signifikanten Erwärmungstrend zeigen (grüne Kurven), ist bei den Aufzeichnungen über die Hurrikane, die die Küste der USA treffen (orangefarbene Kurve), kein signifikanter Trend zu erkennen. Die unkorrigierte Aufzeichnung der Hurrikan-Zahlen (blaue Kurve) zeigt eine signifikante Zunahme der atlantischen Hurrikane seit den frühen 1900er Jahren. Bereinigt um die geschätzten Stürme, die auf See geblieben sind und in der Vorsatellitenphase wahrscheinlich „übersehen“ wurden, ist jedoch kein signifikanter Anstieg der atlantischen Hurrikane seit dem Ende des neunzehnten Jahrhunderts festzustellen (rote Kurve).

Abbildung 2

Obwohl die Zahl der Hurrikane, die die Küste der USA treffen, und die Zahl der Hurrikane im atlantischen Becken seit Anfang der 70er Jahre zugenommen haben, zeigt Abb. 2, dass dieser jüngste Anstieg nicht repräsentativ für das in jahrhundertelangen Aufzeichnungen beobachtete Verhalten ist. Kurz gesagt, die historischen Aufzeichnungen über die Häufigkeit atlantischer Hurrikane liefern keine überzeugenden Beweise für eine wesentliche langfristige, durch die Erwärmung verursachte Zunahme.

Die NOAA kommt daher zu dem Schluss, dass „es verfrüht ist, mit großer Sicherheit anzunehmen, dass die zunehmenden Treibhausgas-Konzentrationen in der Atmosphäre, die auf menschliche Aktivitäten zurückzuführen sind, eine nachweisbare Auswirkung auf die Aktivität der Hurrikane im Atlantikbecken haben“ [17].

Unabhängig davon, ob die Wissenschaft in der Lage ist, Schlussfolgerungen über die Auswirkungen des Klimawandels auf Hurrikane zu ziehen, können wir sicher sein, dass es weiterhin Hurrikane geben wird, die die Küstenregionen verwüsten. Der einzige bewährte und praktische Weg, um den Verlust von Menschenleben und Sachschäden zu verhindern, ist die Einführung geeigneter Baunormen und die Aufrechterhaltung eines hohen Maßes an Wachsamkeit gegenüber solchen Phänomenen.

Tornados

Ein Tornado [20] ist ein Wirbel, der sich von der Oberfläche mindestens bis zur Wolkenbasis nach oben erstreckt (wobei die Wolkenbasis mit tiefer feuchter Konvektion, typischerweise einer Cumulonimbuswolke, verbunden ist) und an der Oberfläche intensiv genug ist, um Schäden zu verursachen.

Die erweiterte Fujita-Skala (oder abgekürzt EF-Skala) stuft die Intensität von Tornados in sechs Kategorien von null bis fünf ein [21]. Sowohl mehrzellige als auch superzellige Gewitter sind in der Lage, Tornados zu erzeugen, aber Superzellen sind bei weitem am gefährlichsten: Mehr als 20 % der superzelligen Tornados sind potenziell in der Lage, katastrophale EF-4/EF-5-Schäden zu verursachen [22].

In den USA gibt es eine sehr lange Tornado-Zeitreihe, die sich für Trendanalysen eignet. Wie auf der maßgeblichen NOAA-Website [19, 23] berichtet und auch vom IPCC in seinen Berichten [8] bekräftigt wird, besteht eine der Hauptschwierigkeiten im Zusammenhang mit Tornados darin, dass ein Ereignis nur dann in eine Zeitreihe von Tornados eingefügt werden kann, wenn es direkt beobachtet wurde oder wenn Spuren seines Durchzugs beobachtet wurden (sie hinterlassen beeindruckende Torsionsspuren an Wurzeln und Baumkronen oder Straßenschildern). Tornados haben eine sehr kurze Dauer und sind im Wesentlichen unvorhersehbar; wenn ein Tornado an einem unbewohnten Ort auftritt, ist es daher unwahrscheinlich, dass er dokumentiert wird: Es ist daher wahrscheinlich, dass viele bedeutende Tornados in den USA unentdeckt blieben, da das von ihren Zugbahnen betroffene Gebiet in der ersten Hälfte des Jahrhunderts nur dünn besiedelt war.

Mit zunehmender Dopplerradarabdeckung, Bevölkerungswachstum und erhöhter Aufmerksamkeit für Tornadomeldungen hat die Zahl der Tornadomeldungen in den letzten Jahrzehnten zugenommen. Dies kann den irreführenden Anschein einer zunehmenden Häufigkeit von Tornados erwecken.

Betrachtet man jedoch die in Abb. 3 [24] dargestellte Zeitreihe, so stellt man fest, dass die Zunahme der Tornados seit 1950 fast ausschließlich auf schwache Ereignisse (EF0-EF1 in der erweiterten Fujita-Skala) zurückzuführen ist, die in der Vergangenheit in vielen Fällen der Beobachtung entgingen und heute dank einer Vielzahl von Systemen, die von Handykameras bis hin zu Satelliten und Dopplerradaren reichen, leichter zu erkennen sind. Im Gegensatz dazu zeigen starke bis heftige Tornados (Kategorien EF-3 bis EF-5 auf der erweiterten Fujita-Skala), die wahrscheinlich auch vor der Dopplerradar-Ära gemeldet wurden, keine Zunahme im Laufe der Zeit.

Abbildung 3

Auf die Frage, ob der Klimawandel das Auftreten von Tornados beeinflusst, antwortet die NOAA, dass es derzeit nicht möglich ist, eine Antwort zu geben, und dass mehr Forschung erforderlich ist, da diese Ereignisse auf sehr kleinen Skalen auftreten, was Beobachtungen und Modellierung schwierig macht.

Die Vorhersage des künftigen Einflusses des Klimawandels auf diese Ereignisse kann auch dadurch erschwert werden, dass einige der Risikofaktoren mit dem Klimawandel zunehmen, während andere abnehmen können.

Dies liegt daran, dass Tornados meteorologische Phänomene von sehr kurzer Dauer sind, die sich auf Zeitskalen von Sekunden und Minuten und auf kleineren räumlichen Skalen abspielen. Im Gegensatz dazu entfalten Klimatrends ihre Wirkung über viel größere Zeitspannen (Jahre, Jahrzehnte oder Jahrtausende) und betreffen große Gebiete auf dem Globus.

Darüber hinaus sind Klimamodelle nicht in der Lage, Tornados oder einzelne Gewitter aufzulösen. Sie können zwar auf großräumige Veränderungen bei drei der vier Faktoren hinweisen, die schwere Gewitter begünstigen (Feuchtigkeit, Instabilität und Windscherung), aber das Vorhandensein einiger günstiger Faktoren ist noch keine Garantie für Tornados. Unser physikalisches Verständnis deutet auf gemischte Signale hin: Einige Bestandteile können in einer wärmeren Welt zunehmen (Instabilität), während andere abnehmen können (Windscherung). Der andere Hauptbestandteil (Sturmauftrieb) und – in unterschiedlichem Maße – Luftfeuchtigkeit, Ausreißer und Windscherung hängen in erster Linie von den Tagesmustern und oft auch vom lokalen Wetter im Minutentakt ab.

Die Clapeyron-Gleichung besagt, dass die mit Thermometern ermittelte globale Erwärmung (Anstieg der globalen Lufttemperatur in zwei Metern Höhe um 7 Zehntelgrad pro Jahrhundert) zu einem höheren Wasserdampfgehalt der Atmosphäre führt, aber es ist schwierig, diesen Anstieg mit den konvektiven Phänomenen oder allgemeiner mit den globalen Karten der Niederschlagsintensität und mit der Entwicklung der Gletscher in Beziehung zu setzen, deren jahrzehntelange Schwankungen die Folge einer Vielzahl von Faktoren sind.

Globaler Niederschlag und extreme Niederschlagsereignisse

Niederschlag ist ein Schlüsselsegment des Energie- und Stoffkreislaufs unseres Planeten [25]. Wasser, das von der Meeresoberfläche und der Landvegetation verdunstet wird, absorbiert große Mengen an Energie in Form von latenter Wärme und ist ein grundlegender Träger für den zonalen und meridionalen Energietransport [26]. Darüber hinaus ist Wasserdampf das wichtigste Treibhausgas, das für 51 % des gesamten Treibhauseffekts auf unserem Planeten verantwortlich ist [27]. In diesem Zusammenhang setzt der Niederschlag die von der Atmosphäre transportierte Energie frei und moduliert gleichzeitig den Treibhauseffekt, indem er die Verweilzeit des Wasserdampfs in der Atmosphäre beeinflusst [28].

Globale Beobachtungsdaten deuten auf eine Zunahme der jährlichen Gesamtniederschläge hin, die auf den ersten Blick mit dem globalen Temperaturanstieg und der daraus resultierenden Zunahme des in der Atmosphäre gespeicherten Niederschlagswassers im Einklang zu stehen scheint. Um diese Einschätzung zu untermauern, wurden die jährlichen globalen Niederschlagszeitreihen 1901-2018 aus dem gerasterten landgestützten Niederschlagsdatensatz Hadex3 [29] analysiert, der aus täglichen In-situ-Beobachtungen abgeleitet wurde: Das Diagramm in Abb. 4 zeigt, dass die globalen Niederschläge seit etwa 1970 zunehmen:

Abbildung 4

Angesichts dieses Anstiegs der jährlichen Gesamtniederschlagsmenge stellt sich die Frage, ob dies zu einer Zunahme extremer Niederschlagsereignisse geführt hat, die sich ähnlich auswirken wie die Hitzewellen, deren Häufigkeit aufgrund des globalen Temperaturanstiegs zunahm. Zu diesem Zweck ist es wichtig festzustellen, dass es viele mögliche Definitionen für extreme Niederschlagsereignisse gibt, von Wiederkehrperioden und Ansätzen mit Spitzenwerten über dem Schwellenwert bis hin zu Indizes, die die Dauer oder Intensität erfassen. Darüber hinaus können Extreme auch über ein breites Spektrum von räumlichen und zeitlichen Skalen definiert werden [30]. Unsere Analyse wird sich hauptsächlich auf tägliche maximale Niederschlagsmengen für Landstationen auf globaler Ebene und für große Regionen konzentrieren, da (1) stündlichge Daten oft zu kurz oder von unzureichender Qualität sind und (2) Veränderungen in der Größenordnung von stündlichen Extremen langsamer auftreten als bei täglichen Extremen, wie Barbero et al. [31] feststellten, die eine Analyse der Trends von täglichen und stündlichen extremen Niederschlägen in einem großen Stationsnetz in den USA im Zeitraum 1950-2011 durchführten.

Für eine korrekte Interpretation von Extremniederschlagsdaten muss auch berücksichtigt werden, dass ihre genaue Erfassung in hohem Maße von der Genauigkeit der Niederschlagsmessungen abhängt. Eine Analyse der Auswirkungen auf die Genauigkeit der Messungen würde den Rahmen dieser Arbeit sprengen, sollte aber bei der Analyse berücksichtigt werden. Dennoch bleibt die Datenqualität ein Problem, da Niederschlagsmessungen aufgrund ihrer hohen räumlichen und zeitlichen Variabilität schwer zu homogenisieren sind. Die Daten sind dann wahrscheinlich nicht frei von Inhomogenitäten, die von Veränderungen in der Art der zur Niederschlagsmessung verwendeten Instrumente herrühren, da verschiedene Niederschlagsmesser unterschiedliche Windeinflüsse, Befeuchtungs- und Verdunstungsverluste aufweisen [32, 33]. Darüber hinaus besteht der Sensor automatischer (mechanischer oder elektronischer) Regenmesser aus einer Wippe mit zwei Schalen, die abwechselnd mit Wasser gefüllt und ausgegossen werden. Die Wippe kann durch eine Vielzahl von Phänomenen wie die Ansammlung von Schmutz oder das Vorhandensein von Insektennestern gestoppt werden. In diesem Fall wird auch bei Regen ein Wert von 0 angezeigt, was die Instrumente von Natur aus ungenau macht.

Hinsichtlich der Intensität extremer täglicher Niederschlagsereignisse analysierten Papalexiou und Montanari [34] die extremen Niederschlagsereignisse im Zeitraum 1964-2013 an insgesamt 8730 Stationen. Die Analyse zeigt eine Zunahme der Intensität bei 12,9 % (zwischen 11,7 und 13,9 %) der Stationen weltweit und einen Rückgang bei 9,8 % (zwischen 9 und 11,4 %), während 77,3 % der Stationen keine signifikanten Trends aufweisen.

Diese Daten bestätigen im Wesentlichen die von Westra et al. [35] vorgelegten Daten, die die Entwicklung des globalen maximalen jährlichen Ein-Tages-Niederschlags für den Zeitraum von 1900 bis 2009 (insgesamt 110 Jahre) analysierten. Die Arbeit, die sich auf insgesamt 8326 von den Forschern als hochwertig eingestufte Bodenstationen bezog, führte zu der Schlussfolgerung, dass etwa 2 % der Stationen eine Abnahme der extremen Niederschläge aufweisen, 8 % eine Zunahme und 90 % keinen Trend.

Die Ergebnisse dieser Analyse wurden vor kurzem durch die von derselben Forschergruppe [32] vorgelegten Ergebnisse zum maximalen Jahresniederschlag an einem Tag bestätigt, die sich auf den Zeitraum 1950-2018 beziehen und Folgendes hervorheben:

Für den Zeitraum 1950-2018 zeigen 9,1 % der Stationen einen statistisch signifikanten Aufwärtstrend, was viel mehr ist, als allein durch Zufall zu erwarten wäre. Im Gegensatz dazu beträgt der Prozentsatz der Stationen, die einen statistisch signifikanten rückläufigen Trend aufweisen, nur etwa 2,1 %, vergleichbar mit dem, was man durch Zufall erwarten würde.

● Für den Mittelmeerraum zeigen nur 4,7 % der Stationen einen statistisch signifikanten Anstiegstrend, während 3,8 % einen signifikanten Rückgangstrend aufweisen (Abb. 5).

● In Nordeuropa ist der Anteil der Stationen mit positiven Trends (14,4 %) im Vergleich zu denen mit negativen Trends (1,2 %) weltweit am höchsten (Abb. 5).

Abbildung 5

Die Ergebnisse für Nordeuropa und den Mittelmeerraum stimmen mit der aktuellen Klimaphase überein, die durch positive NAO-Werte gekennzeichnet ist, die eine Verstärkung der Westwinde bedingen, die Frontensysteme über Nordeuropa bringen [36], während der Mittelmeerraum weniger von Stürmen betroffen sein sollte.

Die von Sun et al. [32] für den Mittelmeerraum hervorgehobenen stationären Ergebnisse werden auch für das italienische Gebiet durch detailliertere Untersuchungen von Libertino et al. [37] bestätigt, bei denen die maximale Niederschlagsmenge für 1-, 3-, 6-, 12- und 24-stündige Zeiträume, die auf den Zeitraum 1928-2014 beschränkt sind und an denen mindestens 50 Stationen gleichzeitig pro Jahr aktiv sind, berücksichtigt wurden. Es wurden nur Zeitreihen mit mindestens 30 Jahren kontinuierlicher oder nicht kontinuierlicher Daten ausgewählt, was zu 1 346 Stationen führte. Die Schlussfolgerungen aus dieser Arbeit lauten: „Hinsichtlich der Häufigkeit zeigen die Ergebnisse, dass alle beobachteten Trends nicht signifikant sind, d. h. sie sind mit der Hypothese eines stationären Klimas vereinbar […]. Was die Intensität der Ereignisse betrifft, so lässt sich auf Länderebene kein klarer Trend bei den extremen Niederschlagsmengen erkennen“.

Die zitierte Arbeit für Italien, das den Autoren am besten bekannte Gebiet, ist besonders interessant, da sie tägliche oder stündliche Datensätze analysierte, die vom Hydrographic Service of the Ministry of Public Works gesammelt wurden, der die Daten einheitlich für das gesamte Staatsgebiet erfasste. Leider wurde dieser Dienst 1998 abgeschafft und seine Zuständigkeiten auf die Regionen übertragen, wodurch 20 regionale Netze mit jeweils eigenen Standards entstanden. Wir führen dieses Beispiel an, weil es uns emblematisch für die Tendenz zu einer Vervielfachung der operativen Messnetze erscheint, die zu einer immer größeren Inhomogenität führt. Dies ist genau das Gegenteil von dem, was man bräuchte, wenn man sich wirklich Sorgen um die aktuellen Klimatrends machen würde, die zu homogenen Netzen auf dem gesamten Weltgebiet führen würden, analog zu dem, was bei der Überwachung der Ozeane mit dem ARGO-Bojensystem geschehen ist.

Unsere Untersuchung zeigt, dass zwar eine Zunahme der jährlichen Gesamtniederschläge auf globaler Ebene zu beobachten ist, eine Zunahme der extremen Niederschläge jedoch nur für eine begrenzte Anzahl von Stationen und mit starken regionalen Unterschieden. Das Fehlen allgemeiner Wachstumstrends bei extremen Niederschlägen lässt sich dadurch erklären, dass die Entstehung extremer Niederschläge (1) das Vorhandensein einer relevanten Feuchtigkeitsquelle in der Grenzschicht, (2) eine Morphologie des Reliefs, Zirkulationsstrukturen auf verschiedenen Ebenen und ein vertikales thermisches Profil, die das Aufsteigen von Luftmassen mit der Entwicklung von Wolken ausreichender Dicke begünstigen (z. B. Cumulonimbus- und Nimbostratuswolken), und (3) mikrophysikalische Merkmale der Wolkenumgebung, die die Vergrößerung von Tröpfchen oder Eiskristallen zu Niederschlägen begünstigen, erfordert.

Überschwemmungen und Dürreperioden

Überschwemmungen und Dürren sind wichtige Indikatoren für die Reaktion auf Veränderungen im Niederschlagsregime.

Zu Überschwemmungen kann gesagt werden, dass, obwohl auf globaler Ebene eine Zunahme der jährlichen Gesamtniederschläge zu beobachten ist, entsprechende Beweise für eine Zunahme von Überschwemmungen schwer zu finden sind, und eine lange Liste von Studien zeigt wenig oder keine Belege für eine Zunahme von Überschwemmungen, wobei einige Studien eher eine Abnahme als eine Zunahme feststellen [38,39,40,41,42,43,44,45,46].

Sharma et al. [47] führen einige Gründe für die Abnahme der Hochwasserausmaße an und nennen als mögliche Ursachen eine Abnahme der vorherrschenden Bodenfeuchtigkeit, eine abnehmende Sturmausdehnung und eine Abnahme der Schneeschmelze.

Es mag interessant sein, sich die Ergebnisse in Erinnerung zu rufen, die im historischen Kontext für den europäischen Raum erzielt wurden, wo verschiedene paläohydrologische Studien zeigen, dass die Häufigkeit von Schwemmlandereignissen in Europa während der warmen Phasen (z.B. römisches Optimum und mittelalterliches Optimum) deutlich geringer war als während der kalten (z.B. Kleine Eiszeit), wie z.B. von Wirth et al. [48], die mit Daten aus den Zentralalpen arbeiteten, bestätigt wird. Dieser Nachweis wird auch durch den von einer großen Gruppe historischer Klimatologen, darunter die Italiener Bertolin und Camuffo [49], unterzeichneten Artikel gestützt, in dem es heißt: „Die jüngsten Veränderungen in der Variabilität der Hochwasserhäufigkeit sind nicht außergewöhnlich, wenn man sie mit der Hochwasserhäufigkeit der letzten 500 Jahre vergleicht, und sie zeigen keinen Gesamttrend, der dem weithin zitierten „Hockeystick“-Trend für die Temperaturen ähnelt. Zu einer ähnlichen Schlussfolgerung kommt das Projekt SPHERE, das für den Nordosten Spaniens gezeigt hat, dass die Abflüsse der letzten 400 Jahre deutlich höher waren als die größten gemessenen Hochwasserereignisse der Neuzeit. Die Untersuchung historischer Hochwasserereignisse ermöglicht daher eine umfassendere Risikoanalyse und die Planung eines angemessenen Hochwasserschutzes.

Die Belege für mehr Hochwasserereignisse während der Kleinen Eiszeit werden auch von Wilhelm et al. [50] bestätigt, die Hochwasser in den französischen Alpen im Mittelmeerraum während der letzten 1400 Jahre untersuchen und feststellen, dass extreme Niederschläge und Überschwemmungen in Warmzeiten seltener und weniger extrem sind als in Kaltzeiten. Genauer gesagt stellen die Autoren eine geringe Häufigkeit von Überschwemmungen während der mittelalterlichen Warmzeit und häufigere und intensivere Ereignisse während der kleinen Eiszeit fest.

[Hervorhebung vom Übersetzer]

Yiou et al. [51] analysierten die Entwicklung von Hochwasserereignissen an Elbe und Moldau in Böhmen und stellten fest, dass sowohl die Häufigkeit als auch die Intensität von Hochwasserereignissen im zwanzigsten Jahrhundert generell rückläufig sind. Das neunzehnte Jahrhundert war diesen Phänomenen weitaus stärker ausgesetzt als das zwanzigste Jahrhundert, und die aufgezeichneten Ereignisse sind im zweiten Jahrtausend unübertroffen. Zu ähnlichen Schlussfolgerungen gelangten Mudelsee et al.[52, 53] für Elba und die Oder in Deutschland.

Diodato et al. [54] rekonstruierten die hydrologischen Schadensereignisse (Damaging Hydrological Events, DHE) in Italien für den Zeitraum Oktober-April und stellten fest, dass während der mittelalterlichen Warmzeit DHE seltener auftraten, während während der kleinen Eiszeit (LIA) häufigere und intensivere Ereignisse vorherrschten. Ab Mitte des 19. Jahrhunderts, mit dem Ende der LIA, wurde ein Rückgang der DHE beobachtet, insbesondere während der letzten Jahrzehnte.

Ebenfalls für Italien rekonstruieren Taricco et al. [55] die Durchflussmengen des Po in den letzten 2200 Jahren und weisen auf sehr niedrige Durchflussmengen bis 1100, sehr hohe Durchflussmengen während der LIA mit einem Maximum um 1500 und einen anschließenden Rückgang der Durchflussmengen nach 1850 hin.

Zusammenfassend lässt sich sagen, dass zwar eine Zunahme der jährlichen Gesamtniederschläge auf globaler Ebene zu beobachten ist, dies aber nicht zu einer Zunahme der Intensität oder Häufigkeit von Überschwemmungen führt. Zu ähnlichen Schlussfolgerungen scheint auch der heute vorliegende Entwurf des AR6 zu kommen.

Dürre ist ein komplexes Phänomen, das schwer zu überwachen und zu definieren ist. Je nach den zu ihrer Charakterisierung verwendeten Variablen und den betroffenen Systemen oder Sektoren kann Dürre in verschiedene Arten eingeteilt werden, z. B. in meteorologische (Niederschlagsdefizite), landwirtschaftliche (z. B. Verringerung der Ernteerträge oder Ernteausfälle im Zusammenhang mit Feuchtigkeitsdefiziten im Boden), ökologische (im Zusammenhang mit Wasserstress bei Pflanzen, der z. B. zum Absterben von Bäumen führt) oder hydrologische Dürren (z. B. Wasserknappheit in Flüssen oder Speichern wie Stauseen, Seen, Lagunen und Grundwasser).

Der IPPC berichtet in seinem AR5 [6] auf Seite 44, dass „Schlussfolgerungen hinsichtlich einer Zunahme der globalen Trockenheitstrends seit den 1970er Jahren nicht mehr gestützt werden“, und mehrere Studien zeigen in der Tat keine Zunahme der wichtigsten Indizes für globale Trockenheit [56, 57].

Hao et al. [58] analysierten die Zeitreihen für den Zeitraum 1982-2012 des Global Integrated Drought Monitoring and Prediction System (GIDMaPS), das drei Dürreindikatoren zur Überwachung und Vorhersage verwendet: den Standardized Precipitation Index (SPI), den Standardized Soil Moisture Index (SSI) und den Multivariate Standardized Drought Index (MSDI). SPI und SSI sind Indikatoren für meteorologische bzw. landwirtschaftliche Trockenheit. Die Autoren verweisen auf den rückläufigen Trend beim prozentualen Anteil der von Dürre betroffenen Landfläche, wie in Abb. 6 dargestellt:

Abbildung 6

Der heute vorliegende Entwurf des IPCC AR6 scheint zu ähnlichen Schlussfolgerungen in Bezug auf meteorologische und hydrologische Dürre zu kommen, während die Besorgnis über landwirtschaftliche und ökologische Dürre etwas größer ist.

Kogan et al. [59] analysierten die globalen Trends bei der landwirtschaftlichen Trockenheit mit Hilfe des satellitengestützten Verfahrens Vegetation Health (VH) für den Zeitraum 1981-2018. Ihre Ergebnisse zeigen, dass sich die Dürre für den gesamten Globus, die Hemisphären und die wichtigsten getreideproduzierenden Länder (China, USA und Indien) im Laufe von 38 Jahren nicht verschärft und ausgeweitet hat, während die globale Temperaturanomalie gestiegen ist. Die Autoren kommen zu dem Schluss, dass sich die Dürre während der jüngsten globalen Erwärmung nicht verschärft und ausgeweitet hat und die Ernährungssicherheit in den nächsten Jahren wahrscheinlich auf dem Niveau des letzten Jahrzehnts bleiben wird.

Ein für die landwirtschaftliche Trockenheit wichtiger Faktor, der in den Analysen oft vernachlässigt wird, ist die Tatsache, dass der Wasserverbrauch der Kulturen direkt proportional zur Menge des Endprodukts ist: Mais benötigt 370-910 kg Wasser für jedes produzierte Kilogramm Getreide, Weizen 590-1700 und Reis 635-1700, je nach Sorte [60]. Daraus lässt sich leicht ableiten, dass, da die weltweiten Erträge von Mais, Weizen, Reis, Sojabohnen und Gerste von 1960 bis heute im Durchschnitt um 217-297 % gestiegen sind (siehe nächster Absatz) und die Anbaufläche seit etwa 50 Jahren stabil bei 1,5 Milliarden Hektar liegt, auch der Wasserverbrauch der Kulturen in ähnlicher Weise zugenommen hat.

Was die ökologische Trockenheit betrifft, so sind zwei gegensätzliche Phänomene zu berücksichtigen, die sich auf den Wasserverbrauch der natürlichen Vegetation auswirken:

Zunahme in mittleren und hohen Breitengraden aufgrund der Verlängerung der Vegetationsperiode infolge des globalen Temperaturanstiegs [61].

Allgemeiner Rückgang aufgrund höherer CO2-Konzentrationen: Ein Anstieg der atmosphärischen CO2-Konzentration verringert die Anzahl der Spaltöffnungen pro Flächeneinheit der Blätter (Stomata-Index) und führt zur Schließung der Spaltöffnungen, was den Wasserverbrauch der Pflanzen verringert [62].

Zusammenfassend lässt sich sagen, dass es unserer Meinung nach keine Anzeichen dafür gibt, dass die von den verschiedenen Arten von Trockenheit betroffenen Gebiete zunehmen.

Globale Ergrünung und globale landwirtschaftliche Produktivität

Die Produktivität natürlicher Ökosysteme ist ein wichtiger Indikator für die Reaktion auf Veränderungen der meteorologischen Variablen (Temperatur, Niederschlag, globale Sonneneinstrahlung usw.). Unter diesem Gesichtspunkt kann gesagt werden, dass sich die globale Pflanzenbiomasse in den letzten Jahrzehnten erheblich verändert hat, wobei ein Phänomen zu beobachten ist, das als „Global Greening“ bezeichnet wird und auf einen erheblichen Anstieg der Produktivität von (landwirtschaftlichen und natürlichen) Ökosystemen hinweist, der in den letzten Jahrzehnten vor allem durch die Satellitenüberwachung aufgezeigt wurde [63]. In der Übersichtsarbeit von Walker et al. [64] wird festgestellt, dass dieses globale Phänomen auf den Anstieg der atmosphärischen CO2-Konzentration zurückzuführen ist, der die Photosynthese auf Blattebene und die intrinsische Wassernutzungseffizienz erhöht. Die unmittelbare Reaktion auf diese Phänomene ist die Zunahme des Pflanzenwachstums, der Biomasse der Vegetation und der organischen Bodensubstanz. Die letzte Auswirkung ist ein Transfer von Kohlenstoff aus der Atmosphäre in die Kohlenstoffsenke der terrestrischen Ökosysteme, was die Geschwindigkeit des atmosphärischen CO2-Anstiegs verlangsamen kann.

Satellitendaten zeigen „Ergrünungs-Tendenzen“ über weite Teile des Planeten [65, 66], die die Wüsten auf der ganzen Welt zurückdrängen (sowohl heiße Wüsten in tropischen Breiten als auch kalte Wüsten in nördlicheren Breitengraden). Die Relevanz der Begrünung wird von Campbell [67] bestätigt, der unter Verwendung von Carbonylsulfid-Aufzeichnungen als Stellvertreter für die photosynthetische Aktivität einen Anstieg der Bruttoprimärproduktion um 31 % während des zwanzigsten Jahrhunderts feststellte. Darüber hinaus analysierten Wang et al. [68] die globale Ökosystem-Produktivität für den Zeitraum 1982-2016 und zeigten, dass die wichtigsten positiven Anomalien zeitgleich mit reichlichen Niederschlägen auftraten, was die Bedeutung der Wasserbegrenzung für die Ökosystem-Produktivität belegt.

Es sei auch darauf hingewiesen, dass Zeng et al. [69] anhand eines Modells des terrestrischen Kohlenstoffkreislaufs gezeigt haben, dass die Landwirtschaft für etwa 50 % der erhöhten CO2-Absorption verantwortlich ist, was ihre wesentliche Rolle für das Ökosystem zeigt. Tatsächlich emittiert die Landwirtschaft nur einen kleinen Teil dessen, was sie zuvor durch Photosynthese aufgenommen hat. Die Landwirtschaft nimmt jedes Jahr 7,5 GT Kohlenstoff auf, die sich auf 12 GT erhöhen, wenn man auch die Weiden berücksichtigt [70], während sich die Gesamtemissionen des Agrarsektors auf 1,69 ± 0,38 GT belaufen [71]. Folglich emittiert die Landwirtschaft 14,1 ± 0,03 % dessen, was zuvor absorbiert wurde.

Die globale Relevanz der globalen Begrünung wurde durch die von einer australischen Forschergruppe [72] mit dem Modell CABLE (Community Atmosphere Biosphere Land Exchange) durchgeführte Simulation aufgezeigt, die den globalen Trend der Bruttoprimärproduktivität (GPP) von 1900 bis 2020 als Ergebnis (a) der physiologischen Wirkung der direkt durch Kohlendioxid stimulierten Veränderungen des Blattwerks, (b) der mit der allgemeinen Zunahme der Blattmasse verbundenen Wirkung und (c) der Wirkung des Klimawandels veranschaulicht. Insgesamt wird der Anstieg der GPP von 1900 bis 2020 auf 30 % geschätzt, während er bei einer Verdoppelung des CO2 (560 ppmv) schätzungsweise 47 % erreichen wird.

Auch wenn der vorherrschende Gedanke ist, dass wir es mit einem positiven Phänomen zu tun haben, das die große Fähigkeit der Ökosysteme zeigt, sich an die Schwankungen natürlicher und anthropogener Einflüsse anzupassen, dürfen wir nicht übersehen, dass die Reaktionen der Ökosysteme auf CO2 komplex sind oder durch gleichzeitige Veränderungen bei mehreren Faktoren des globalen Wandels beeinträchtigt werden, und die Beweise für eine CO2-bedingte terrestrische Kohlenstoffsenke können manchmal widersprüchlich erscheinen [64]. So wird beispielsweise die sommerliche Bodentrockenheit durch eine frühere Begrünung der Vegetation im Frühjahr verschärft, die die Evapotranspiration erhöht und damit die Bodenfeuchtigkeit im Frühjahr verringert [61].

In jedem Fall ist die globale Begrünung eine kulturelle Herausforderung, die uns dazu veranlasst, über die positiven Auswirkungen des Anstiegs des CO2-Gehalts in der Atmosphäre nachzudenken. Nach den Daten von Campbell et al. [67] und Haverd et al. [72] würden wir ohne die CO2-bedingte Ökologisierung einen erheblichen Rückgang der landwirtschaftlichen Produktion mit erheblichen negativen Auswirkungen auf die weltweite Ernährungssicherheit haben. Mariani [73] schätzt, dass die landwirtschaftliche Produktion von Mais, Reis, Weizen und Sojabohnen um 18 % zurückgehen würde, wenn der CO2-Gehalt wieder auf das vorindustrielle Niveau ansteigen würde. Dieses Ergebnis wurde jedoch mit einem Modell erzielt, das die negativen Auswirkungen von Extremereignissen wie Dürren, übermäßigen Regenfällen, Frost und Hitzewellen auf die Ernteerträge nicht berücksichtigt.

Auf der Grundlage des Wiederauftretens von Extremereignissen, Veränderungen im Niederschlagsregime, steigenden Temperaturen und den Auswirkungen von Schadstoffen wie Ozon kommt die Zusammenfassung des AR5 in Kapitel 7 [6] zu dem Schluss, dass „die Auswirkungen des Klimawandels auf die pflanzliche und terrestrische Nahrungsmittelproduktion in mehreren Regionen der Welt offensichtlich sind (hohes Vertrauen). Negative Auswirkungen von Klimatrends waren häufiger als positive“.

Diese Aussage berücksichtigt jedoch die folgenden 2 Faktoren nicht angemessen:

1. Die Anpassungsfähigkeit des globalen Agrarsystems in Verbindung mit seiner extremen Flexibilität, die sich in der Fähigkeit niederschlägt, Innovationen im Bereich der Genetik (neue, besser an die Umwelt angepasste Sorten) und der Anbautechniken (Bewässerung, Düngung, Unkrautbekämpfung, Umgang mit Schädlingen und Krankheiten usw.) rasch zu übernehmen. Diese technologischen Innovationen sind das Ergebnis der großen Fortschritte in der Pflanzenbauwissenschaft, die seit Beginn des 19. Jahrhunderts gemacht wurden und deren Verbreitung nach dem Ende des Zweiten Weltkriegs stark zugenommen hat [74].

2. Den Kompensationseffekt, der damit zusammenhängt, dass die Landwirtschaft auf einem sehr großen Gebiet (alle Kontinente außer der Antarktis) stattfindet, das zwei Hemisphären umfasst und somit zwei Ernten pro Jahr garantiert. Jahrhundert von Adam Smith [75] und Giovanni Targioni Tozzetti [76] hervorgehoben wurde, dass in einem bestimmten Jahr die in einem Gebiet aufgrund von Extremereignissen (Dürre, übermäßiger Regen, Hitzewellen usw.) verzeichneten Ertragseinbußen durch die in anderen Gebieten auftretenden Ertragssteigerungen ausgeglichen werden.

Der erste Punkt wird heute durch unsere technologischen Möglichkeiten erheblich verstärkt, während der zweite Punkt ständig in Kraft ist, wie die Steigerungen der weltweiten landwirtschaftlichen Produktion seit 1870 (Federico [77]) und der weltweiten Erträge seit 1961 (FAO-Zeitreihe) zeigen. Abb. 7 zeigt den Anstieg der Hektarerträge von 1960 bis heute für vier Kulturen (Mais, Reis, Sojabohnen und Weizen), die für 64 % der Kalorienzufuhr der Menschheit verantwortlich sind [78].

Abbildung 7

Wir haben die Zeitreihen der globalen Durchschnittserträge (t/ha) von Mais, Reis, Sojabohnen und Weizen für den Zeitraum 1961-2019 analysiert [79] und einen sehr robusten positiven linearen Trend von 3,3 %, 2,4 %, 2,6 % bzw. 3,8 % pro Jahr für die vier oben genannten Kulturpflanzen festgestellt. Unserer Ansicht nach sind die Hauptfaktoren für diesen Trend der technologische Fortschritt und die CO2-Düngung. Dieser lineare Trend wurde von den Daten subtrahiert, um die Residuen zu erhalten, die Ausdruck von Phänomenen wie extremen meteorologischen oder meteorologisch bedingten Ereignissen (Hitzewellen, Kälteausbrüche, Dürren, Überschwemmungen usw.) sind. Die Analyse der Residuen (ergänzendes Material – Abb. S1) zeigt, dass die Abweichungen vom linearen Trend in den letzten Jahren nicht zugenommen haben, was eine Zunahme der Auswirkungen von Extremereignissen ausschließen würde.

„Im Allgemeinen begünstigt ein Anstieg des Temperaturniveaus das Wachstum und die Verbreitung von Schädlingsarten, indem es für ein warmes und feuchtes Umfeld sorgt und die für ihr Wachstum notwendige Feuchtigkeit bereitstellt“, sagt Tek Sapkota, Wissenschaftler für Agrarsysteme und Klimawandel am International Maize and Wheat Improvement Center (CIMMYT).

Wenn jedoch die Temperaturen und Niederschlagsmengen zu sehr steigen, kann dies das Wachstum und die Vermehrung einiger Schädlingsarten verlangsamen und sie vernichten, indem ihre Eier und Larven von der Wirtspflanze abgewaschen werden“, erklärt er.

CRED-Daten

Schließlich schlagen wir einen anderen Blickwinkel vor, indem wir die historischen Reihen von Naturkatastrophen berücksichtigen, die im EM-DAT-Datensatz des CRED (Center for Research on the Epidemiology of Disasters) der Katholischen Universität Löwen in Belgien erfasst sind.
Um in diesem Datensatz erfasst zu werden, muss ein Ereignis eines oder mehrere der folgenden Merkmale aufweisen:

100 oder mehr Menschen waren von dem Ereignis betroffen

10 oder mehr Menschen starben infolge des Ereignisses

Ausrufung des Ausnahmezustands

Ersuchen um internationale Hilfe

Natürlich spielen neben der Intensität des Ereignisses auch andere Faktoren eine Rolle, wie z. B. die Fähigkeit, dem Ereignis selbst vorzubeugen oder sich vor ihm zu schützen; dennoch kann ein Blick auf diese Statistik nützliche Informationen über die Entwicklung von Extremereignissen liefern.

Betrachtet man die in Abb. 8 dargestellten Naturkatastrophen seit 1900, so ist seit Mitte des letzten Jahrhunderts eine sehr geringe Zahl zu beobachten, als ein plötzlicher Anstieg einsetzte, der gegen Ende des zwanzigsten Jahrhunderts zum Stillstand kam, um einem Trend zu weichen, der durch einen leichten Rückgang gekennzeichnet ist. Diese Entwicklung ist sehr merkwürdig: Ist es möglich, dass Naturkatastrophen im Wesentlichen in der Mitte des 20. Jahrhunderts auftraten und dass sie bis zum Ende des Jahrhunderts so stark zunahmen? Es sei auch darauf hingewiesen, dass diese Entwicklung auf den ersten Blick mit dem Anstieg der globalen Temperatur des Planeten „konsistent“ ist.

Abbildung 8

In mehreren Berichten warnte CRED jedoch vor einer ausschließlich klimatologischen Interpretation der bis zum Ende des 20. Jahrhunderts beobachteten Zunahme von Ereignissen: 2004 schrieb CRED [80], ihre Zeitreihe (Abb. 8 mit Daten bis 2003) „könnte zu der Annahme verleiten, dass Katastrophen heute häufiger auftreten als zu Beginn des Jahrhunderts. Eine solche Schlussfolgerung allein auf der Grundlage dieser Grafik zu ziehen, wäre jedoch falsch. Die Abbildung zeigt vielmehr die Entwicklung der Registrierung von Naturkatastrophen im Laufe der Zeit“.

Wiederum im Jahr 2007 [81] „Es wäre in der Tat irreführend, den Aufwärtstrend bei der Häufigkeit und den Auswirkungen von hydrometeorologischen Katastrophen im Wesentlichen mit dem Klimawandel zu begründen. … einer der Hauptgründe für die Zunahme von Katastrophen in den letzten Jahrzehnten ist die ständig zunehmende Verbreitung und Genauigkeit von Informationen über Katastrophen.

Und dieser Hinweis hat sich über die Jahre gehalten [82] „Aus Sicht der Katastrophenanalyse sind das Bevölkerungswachstum und die Muster der wirtschaftlichen Entwicklung bei der Erklärung dieses Aufwärtstrends wichtiger als der Klimawandel oder zyklische Schwankungen des Wetters. Heute sind nicht nur mehr Menschen in Gefahr als noch vor 50 Jahren, sondern durch die Bebauung von Überschwemmungsgebieten, Erdbebenzonen und anderen Hochrisikogebieten hat sich die Wahrscheinlichkeit erhöht, dass eine alltägliche Naturgefahr zu einer großen Katastrophe wird“.

Für diese Interpretation spricht auch die in Abb. 9 dargestellte Zunahme der Erdbeben, die nichts mit der globalen Erwärmung zu tun haben dürfte und die einen ähnlichen zeitlichen Verlauf wie alle anderen Naturkatastrophen aufweist.

Abbildung 9

Unserer Meinung nach bestätigt dies, dass der Hauptgrund für den Anstieg in der zweiten Hälfte des 20. Jahrhunderts die wachsende Meldekapazität der einzelnen Staaten ist und dass sich die Zahl der Katastrophen seit der Stabilisierung dieser Kapazität auf einem zuverlässigen Niveau eingependelt hat oder sogar zurückgegangen ist. Das gleiche Phänomen wurde bereits bei Hurrikanen und Tornados beobachtet. Darüber hinaus hat sich die Berichterstattung verbessert, weil die Katastrophenschutzsysteme in vielen Teilen der Welt ein höheres organisatorisches Niveau erreicht haben; gleichzeitig hat sich der Grad der Vernetzung mit internationalen Organisationen verbessert, was als positives Element hervorzuheben ist.

Schlussfolgerungen

Seit dem Zweiten Weltkrieg haben unsere Gesellschaften enorme Fortschritte gemacht und ein Wohlstandsniveau erreicht (Gesundheit, Ernährung, Gesundheit der Lebens- und Arbeitsorte usw.), das sich frühere Generationen nicht einmal im Entferntesten vorstellen konnten. Heute sind wir aufgerufen, den Weg des Fortschritts fortzusetzen und dabei die Zwänge der wirtschaftlichen, sozialen und ökologischen Nachhaltigkeit zu respektieren, und zwar mit der Strenge, die durch die Tatsache diktiert wird, dass der Planet im Jahr 2050 10 Milliarden Einwohner haben wird, die zunehmend verstädtert sind.

Seit ihren Anfängen ist die menschliche Spezies mit den negativen Auswirkungen des Klimas konfrontiert; die historische Klimatologie hat wiederholt den Begriff der Klimaverschlechterung verwendet, um die negativen Auswirkungen von Extremereignissen (vor allem Trockenheit, Diluvialphasen und Kälteperioden) auf die Zivilisation zu erklären. Heute stehen wir vor einer Warmzeit [?], und zum ersten Mal verfügen wir über Überwachungsmöglichkeiten, die es uns ermöglichen, ihre Auswirkungen objektiv zu bewerten.

Die Befürchtung eines Klimanotstands, ohne dass dies durch Daten untermauert wird, bedeutet eine Änderung der Prioritäten mit negativen Auswirkungen, die sich als nachteilig für unsere Fähigkeit erweisen könnten, die Herausforderungen der Zukunft zu bewältigen, und die Verschwendung natürlicher und menschlicher Ressourcen in einem wirtschaftlich schwierigen Kontext, der nach dem COVID-Notstand noch negativer ist. Das bedeutet nicht, dass wir nichts gegen den Klimawandel unternehmen sollten: Wir sollten daran arbeiten, unsere Auswirkungen auf den Planeten zu minimieren und die Luft- und Wasserverschmutzung zu verringern. Unabhängig davon, ob es uns gelingt, unsere Kohlendioxidemissionen in den kommenden Jahrzehnten drastisch zu reduzieren, müssen wir unsere Anfälligkeit für extreme Wetter- und Klimaereignisse verringern.

Wenn wir unseren Kindern den Staffelstab überlassen, ohne sie mit der Angst zu belasten, sich in einem Klimanotstand zu befinden, könnten sie die verschiedenen Probleme (Energie, Landwirtschaft, Ernährung, Gesundheit usw.) mit einem objektiveren und konstruktiveren Geist angehen, um zu einer ausgewogenen Bewertung der zu ergreifenden Maßnahmen zu gelangen, ohne die begrenzten Ressourcen, die uns zur Verfügung stehen, für kostspielige und unwirksame Lösungen zu verschwenden. Wie sich das Klima im einundzwanzigsten Jahrhundert entwickeln wird, ist ein Thema mit großer Unsicherheit. Wir müssen unsere Widerstandsfähigkeit gegenüber dem zukünftigen Klima erhöhen.

Wir müssen uns daran erinnern, dass die Bewältigung des Klimawandels kein Selbstzweck ist und dass der Klimawandel nicht das einzige Problem ist, mit dem die Welt konfrontiert ist. Das Ziel sollte sein, das menschliche Wohlergehen im 21. Jahrhundert zu verbessern und gleichzeitig die Umwelt so weit wie möglich zu schützen, und es wäre unsinnig, dies nicht zu tun: Es wäre, als würden wir uns nicht um das Haus kümmern, in dem wir geboren und aufgewachsen sind.

Übersetzt von Christian Freuer für das EIKE

Es folgen eine lange Liste mit Literaturhinweisen und Anmerkungen zu diesem Beitrag:

Data availability

The data that support the findings of this study are publicly available following the links that have been specified in the article.

References

  1. https://www.ipcc.ch/site/assets/uploads/2018/02/WGIIAR5-AnnexII_FINAL.pdf
  2. M. Brunetti, F. Prodi. (2015). https://doi.org/10.1051/epjconf/20159802001
  3. F. Prodi, Esiste un’emergenza climatica? (2020). https://agenda.infn.it/event/23656/contributions/120556/attachments/75192/96202/Video_SIF_2020.mp4?fbclid=IwAR28LcDwQDdhh-86_quIDgYLxOSGb3HMaRge8m_Y1xRRcQCwIf5Mxe3n7XU
  4. R.J.H. Azorin-Molina, L. Dunn, C. Ricciardulli, A. Mears, T.R. McVicar, J.P. Nicolas, G.P. Compo, C.A. Smith. (2020). https://doi.org/10.1175/2020BAMSStateoftheClimate.1
  5. Z. Zeng et al. (2019). https://doi.org/10.1038/s41558-019-0622-6
  6. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA. https://www.ipcc.ch/report/ar5/wg1/
  7. S.E. Perkins-Kirkpatrick, S.C. Lewis. (2020). https://doi.org/10.1038/s41467-020-16970-7
  8. Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation. A Special Report of Working Groups I and II of the Intergovernmental Panel on Climate Change Cambridge University Press, Cambridge, UK, and New York, NY, USA. https://www.ipcc.ch/report/managing-the-risks-of-extreme-events-and-disasters-to-advance-climate-change-adaptation/
  9. G. Formetta, L. Feyen. (2019). https://doi.org/10.1016/j.gloenvcha.2019.05.004
  10. WMO: Tropical cyclones. https://public.wmo.int/en/our-mandate/focus-areas/natural-hazards-and-disaster-risk-reduction/tropical-cyclones
  11. R.E. Todd, T.G. Asher, J. Heiderich, J.M. Bane, R.A. Luettich. (2018).https://doi.org/10.1029/2018GL079180
  12. S. Mohleji, R. Pielke Jr. (2014). https://doi.org/10.1061/(ASCE)NH.1527-6996.0000141
  13. C. Loehle, E. Staehling. (2020).https://doi.org/10.1007/s11069-020-04219-x
  14. B. Xiang, X. Dong, Yonghua. (2020). https://doi.org/10.1080/16742834.2020.1752110
  15. H. Diamond, J., C.J. Schreck. (2020). https://doi.org/10.1175/BAMS-D-21-0080.1Article Google Scholar
  16. R. Maue. (2011). https://doi.org/10.1029/2011GL047711
  17. NOAA: Global Warming and Hurricanes. https://www.gfdl.noaa.gov/global-warming-and-hurricanes/
  18. C.W.Landsea et al. (2010). https://doi.org/10.1175/2009JCLI3034.1
  19. NOAA: The Tornado FAQ. https://www.spc.noaa.gov/faq/tornado/
  20. E. Jon, Violent storms, TAB books, pp. 227. (1988)
  21. WMO: Tornado intensity. https://cloudatlas.wmo.int/en/tornado-intensity.html
  22. J. Wurman, K. Kosiba, T. White, P. Robinson. (2021). https://doi.org/10.1073/pnas.2021535118
  23. NOAA: Tornado Historical Records and Trends. https://www.ncdc.noaa.gov/climate-information/extreme-events/us-tornado-climatology/trends
  24. H. Masoomi, J.W. van de Lindt. (2018). https://doi.org/10.1061/(ASCE)NH.1527-6996.0000295
  25. C.M. Thomas, B. Dong, K. Haines. (2020). https://doi.org/10.1175/JCLI-D-19-0343.1Article Google Scholar
  26. J.P. Peixoto, A.H. Oort, Physics of climate (American Institute of Physics, New York, 1992), pp. 270–307 Google Scholar 
  27. A.A. Lacis, G.A. Schmidt, R. Ruedy. (2010). https://doi.org/10.1126/science.1190653
  28. Ø. Hodnebrog et al. (2019). https://doi.org/10.5194/acp-19-12887-2019
  29. R.J.H. Dunn, L.V. Alexander, M.G. Donat, X. Zhang, M. Bador, N. Herold, et al. (2020). https://doi.org/10.1029/2019JD032263
  30. L. Agel, M. Barlow, J. Qian, F. Colby, E. Douglas, Eichler T. (2015). https://doi.org/10.1175/JHM-D-14-0147.1Article Google Scholar 
  31. R. Barbero, H.J. Fowler, G. Lenderink, S. Blenkinsop. (2017). https://doi.org/10.1002/2016GL071917Article Google Scholar 
  32. Q. Sun, X. Zhang, F. Zwiers, S. Westra, L.V. Alexander. (2021). https://doi.org/10.1175/JCLI-D-19-0892.1
  33. J.R. Metcalfe, B. Routledge, K. Devine. (1997). https://doi.org/10.1175/1520-0442(1997)010%3C0092:RMICCO%3E2.0.CO;2Article Google Scholar
  34. S.M. Papalexiou, A. Montanari. (2019). https://doi.org/10.1029/2018WR024067Article Google Scholar 
  35. S. Westra et al. (2013). https://doi.org/10.1175/JCLI-D-12-00502.1
  36. J.I. López-Moreno, S.M. Vicente-Serrano. (2008). https://doi.org/10.1175/2007JCLI1739.1
  37. A. Libertino, D. Ganora, P. Claps (2019). https://doi.org/10.1029/2019GL083371Article Google Scholar 
  38. S.A. Archfield, R.M. Hirsch, A. Viglione, G. Blöschl. (2016). https://doi.org/10.1002/2016GL070590Article Google Scholar 
  39. G. Blöschl et al. (2017). https://doi.org/10.1126/science.aan2506
  40. H.X. Do, S. Westra, M. Leonard. (2017). https://doi.org/10.1016/j.jhydrol.2017.06.015Article Google Scholar 
  41. P.Y. Groisman, R.W. Knight, T.R. Karl. (2001). https://doi.org/10.1175/1520-0477(2001)082%3C0219:HPAHSI%3E2.3.CO;2
  42. J. Hall et al. (2014). https://doi.org/10.5194/hess-18-2735-2014
  43. G.A. Hodgkins et al. (2017). https://doi.org/10.1016/j.jhydrol.2017.07.027
  44. H.F. Lins, J.R. Slack. (1999). https://doi.org/10.1029/1998GL900291
  45. G.J. McCabe, D.M. Wolock. (2002). https://doi.org/10.1029/2002GL015999
  46. X.S. Zhang et al. (2016). https://doi.org/10.5194/hess-20-3947-2016
  47. A. Sharma, C. Wasko, D.P. Lettenmaier. (2018). https://doi.org/10.1029/2018WR023749
  48. S.B. Wirth et al. (2013). https://doi.org/10.1016/j.quascirev.2013.09.002
  49. R. Glaser, D. Riemann, J. Schönbein, et al. (2010). https://doi.org/10.1007/s10584-010-9816-7
  50. B. Wilhelm et al. (2012). https://doi.org/10.1016/j.yqres.2012.03.003
  51. P. Yiou et al. (2006). https://doi.org/10.1623/hysj.51.5.930
  52. M. Mudelsee, M. Börngen, G. Tetzlaff et al. (2003). https://doi.org/10.1038/nature01928
  53. M. Mudelsee, M. Börngen, G. Tetzlaff, U. Grünewald. (2004). https://doi.org/10.1029/2004JD005034Article Google Scholar 
  54. N. Diodato, F.C. Ljungqvist, G. Bellocchi. (2019). https://www.nature.com/articles/s41598-019-46207-7
  55. C. Taricco, S. Alessio, S. Rubinetti et al. (2015). https://doi.org/10.1038/srep12111
  56. G. Van Der Schrier, J. Barichivich, K.R. Briffa, P. Jones. (2013). https://doi.org/10.1002/jgrd.50355Article Google Scholar 
  57. J. Sheffield, E. Wood, M. Roderick. (2012). https://doi.org/10.1038/nature11575Article Google Scholar 
  58. Z. Hao, A. AghaKouchak, N. Nakhjiri et al. (2014). https://doi.org/10.1038/sdata.2014.1
  59. F. Kogan, W. Guo, W. Yang. (2020). https://doi.org/10.1080/19475705.2020.1730452Article Google Scholar 
  60. S.J. Zwart, W.G.M. Bastiaanssen. (2004). https://doi.org/10.1016/j.agwat.2004.04.007
  61. X. Lian, S. Piao, L.Z.X. Li. (2020). https://doi.org/10.1126/sciadv.aax0255
  62. E. Driesen, W. van den Ende, M. De Proft, W. Saeys. (2020). https://doi.org/10.3390/agronomy10121975Article Google Scholar
  63. S. Piao, X. Wang, T. Park, et al. (2020). https://doi.org/10.1038/s43017-019-0001-x
  64. A.P. Walker et al. (2020). https://doi.org/10.1111/nph.16866
  65. Z. Zhu, S. Piao, R. Myneni et al. (2016). https://doi.org/10.1038/nclimate3004
  66. J. Mao, A. Ribes, B. Yan et al. (2016). https://doi.org/10.1038/nclimate3056
  67. J. Campbell, J. Berry, U. Seibt et al. https://doi.org/10.1038/nature22030
  68. M. Wang, S. Wang, J. Zhao, W. Ju, Z. Hao. (2021). https://doi.org/10.1016/j.scitotenv.2021.145703Article Google Scholar
  69. N. Zeng, F. Zhao, G. Collatz et al. (2014). https://doi.org/10.1038/nature13893
  70. F. Krausmann. (2013). https://doi.org/10.1073/pnas.1211349110
  71. Climate Change and Land: an IPCC special report on climate change, desertification, land degradation, sustainable land management, food security, and greenhouse gas fluxes in terrestrial ecosystems P.R. Shukla, J. Skea, E. Calvo Buendia, V. Masson-Delmotte, H.-O. Pörtner, D. C. Roberts, P. Zhai, R. Slade, S. Connors, R. van Diemen, M. Ferrat, E. Haughey, S. Luz, S. Neogi, M. Pathak, J. Petzold, J. Portugal Pereira, P. Vyas, E. Huntley, K. Kissick, M. Belkacemi, J. Malley, (eds.) In press. https://www.ipcc.ch/srccl/
  72. Haverd et al. (2020). https://doi.org/10.1111/gcb.14950
  73. L. Mariani. (2017). https://doi.org/10.1140/epjp/i2017-11337-8
  74. L. Mariani, A. Ferrero, G. Cola. (2021). https://doi.org/10.1002/agj2.20710Article Google Scholar 
  75. A. Smith, An Inquiry into the Nature and Causes of the Wealth of Nations, (Glasgow edition of works, Vol. 2, 1776)
  76. G. Targioni Tozzetti, Cronica meteorologica della Toscana per il tratto degli ultimi sei secoli relativa principalmente all’agricoltura (Alimurgia, 1767 ), pt. III
  77. G. Federico, Feeding the World: An Economic History of Agriculture, 1800–2000. (Princeton and Oxford: Princeton University Press. Cloth) pp 416
  78. D. Tilman, C. Balzer, J. Hill, B.L. Befort. (2011). https://doi.org/10.1073/pnas.1116437108
  79. Data from Faostat. http://www.fao.org/faostat/en/
  80. D. Guha-Sapir et al., Thirty years of natural disasters 1974–2003: The numbers (Presses Universitaires de Louvain: Louvain-La-Neuve, 2004) https://www.emdat.be/thirty-years-natural-disasters-1974-2003-numbers
  81. J-M. Scheuren et al., Annual Disaster Statistical Review: Numbers and Trends. (2007). https://www.cred.be/node/316
  82. The human cost of natural disasters: a global perspective. (CRED, 2015) http://www.cred.be/sites/default/files/The_Human_Cost_of_Natural_Disasters_CRED.pdf

Download references

Funding

No funding was received to assist with the preparation of this manuscript.

Author information

Authors and Affiliations

  1. INFN & Università degli Studi, Milano, ItalyGianluca Alimonti
  2. Università degli Studi, Milano – DISAA, Milano, ItalyLuigi Mariani
  3. Accademia Nazionale delle Scienze, Verona, ItalyFranco Prodi
  4. Laboratori Nazionali di Legnaro, INFN, Università di Padova, Padua, ItalyRenato Angelo Ricci

Corresponding author

Correspondence to Gianluca Alimonti.

Ethics declarations

Conflict of interest

The authors have no conflicts of interest to declare that are relevant to the content of this article.

Supplementary Information

Below is the link to the electronic supplementary material.

Supplementary file1 (PDF 158 kb)

Rights and permissions

Open Access This article is licensed under a Creative Commons Attribution 4.0 International License, which permits use, sharing, adaptation, distribution and reproduction in any medium or format, as long as you give appropriate credit to the original author(s) and the source, provide a link to the Creative Commons licence, and indicate if changes were made. The images or other third party material in this article are included in the article’s Creative Commons licence, unless indicated otherwise in a credit line to the material. If material is not included in the article’s Creative Commons licence and your intended use is not permitted by statutory regulation or exceeds the permitted use, you will need to obtain permission directly from the copyright holder. To view a copy of this licence, visit http://creativecommons.org/licenses/by/4.0/.

Reprints and Permissions

About this article

Cite this article

Alimonti, G., Mariani, L., Prodi, F. et al. A critical assessment of extreme events trends in times of global warming. Eur. Phys. J. Plus 137, 112 (2022). https://doi.org/10.1140/epjp/s13360-021-02243-9

Download citation

  • Received28 September 2021
  • Accepted29 November 2021
  • Published13 January 2022
  • DOIhttps://doi.org/10.1140/epjp/s13360-021-02243-9

Share this article

Anyone you share the following link with will be able to read this content: Get shareable link

The European Physical Journal Plus volume 137, Article number: 112 (2022) Cite this article

Link: https://wattsupwiththat.com/2022/09/22/a-critical-assessment-of-extreme-events-trends-in-times-of-global-warming/

 




Zugang zu Energie verweigern: das neue „Normal“?

Vijay Jayaraj

Ob in einem heißen Sommer in Colorado oder in einem kalten Winter im Vereinigten Königreich – das Elend der „grünen“ Politik wird zur alltäglichen Realität, wenn unglücklichen Verbrauchern der Zugang zu Energie verwehrt wird. Wenn sich staatliche Gesetzgeber und Energieversorger dafür entscheiden, den Anteil „erneuerbarer“ Technologien an ihrem Energiemix zu erhöhen, führt dies unweigerlich zu instabilen Netzen, Stromengpässen, höheren Preisen und erheblichem, durch Stromausfälle bedingtem Chaos.

Ist das die neue Normalität, die wir nach dem Willen der herrschenden Eliten in unserer Welt akzeptieren sollen? Dann müssen wir uns damit abfinden, dass uns ein Grundbedürfnis der modernen Gesellschaft vorenthalten wird – bezahlbare und verfügbare Energie.

In Colorado erreichte die Energienachfrage am 30. August aufgrund des Temperaturanstiegs ihren Höhepunkt. Die Epoch Times berichtet, dass „mehr als 22.000 Kunden von Xcel Energy in Colorado mit der Meldung ‚Energienotstand‘ auf ihren intelligenten Thermostaten begrüßt wurden, was sie daran hinderte, die Temperatur unter 25 Grad Celsius zu senken.“

Xcel erklärte, dies betreffe nur Kunden, die sich für ein spezielles Prämienprogramm angemeldet haben, das den Verbrauchern Bargeldprämien bietet, und denen es freisteht, sich dagegen zu entscheiden. Die Freiwilligkeit des Programms macht es zwar weniger autoritär, aber die Denkweise unserer Energiewirte ist dennoch beunruhigend.

Die Wahrheit ist, dass die Rationierung von Energie bei Xcel kein Wetterproblem ist, sondern eher ein Ergebnis der Begeisterung des Energieversorgers für die Dummheit, wirtschaftliche und reichlich vorhandene fossile Brennstoffe durch so genannte erneuerbare Energiequellen zu ersetzen, die für die Stromerzeugung für große Bevölkerungsgruppen ungeeignet sind.

Laut The Colorado Sun ist noch mehr vom Gleichen zu erwarten: „Xcel plant, seine Stromerzeugung aus erneuerbaren Energiequellen bis 2030 zu verdoppeln. Das wird die Verbraucher 8 Milliarden Dollar kosten. Große neue Solar- und Windprojekte sind geplant, um Xcel Energy auf 80 Prozent erneuerbare Energieerzeugung in Colorado zu bringen.“ Dies wird Millionen von Menschen mit einer unzuverlässigen Stromversorgung zurücklassen.

Im grün-versessenen Kalifornien wurde in einer Woche der größte Teil des Strombedarfs in den Abendstunden mit Erdgas gedeckt, weil die erneuerbaren Energien nicht mit der Nachfrage Schritt halten konnten. Für diejenigen, die es nicht wissen: Kalifornien „hatte zwischen 2014 und 2019 den zehntgrößten Zuwachs (48,75 Prozent) bei der Produktion erneuerbarer Energien.“ Von 2004 bis 2021 erhielt der Bundesstaat vom US-Landwirtschaftsministerium die drittmeisten Fördermittel für erneuerbare Energien, nämlich 557,8 Millionen Dollar in Form von Bundesmitteln. In keinem anderen Bundesstaat gibt es mehr Anreize und politische Maßnahmen zur Förderung erneuerbarer Energien als in Kalifornien, wo es 170 gibt.

Wir haben es also mit der Gefahr zu tun, dass Millionen von Kunden im ganzen Land auf Energieengpässe zusteuern, weil ihre Versorger eine Abneigung gegen fossile Brennstoffe haben und vorsätzlich blind gegenüber den Risiken sind, die entstehen, wenn man die Energiesicherheit einem fiktiven Klimanotstand opfert.

Aber das ist nicht nur ein Problem der USA. Im Jahre 2017 waren die Bürger in vielen chinesischen Provinzen nicht in der Lage, Kohle zum Heizen im Winter zu bekommen, weil die Politik eine Verringerung der Verwendung des Brennstoffs vorschrieb. Die South China Morning Post berichtete, dass „fröstelnde Dorfbewohner in Nordchina auf die Verbrennung von Maiskolben und Holzresten zurückgriffen.“ Im Vereinigten Königreich wurde die unzureichende Beheizung von Altenheimen aufgrund der hohen Energiekosten mit einer hohen Zahl von Todesfällen in Verbindung gebracht.

In Afrika hat der größte Geldgeber des Kontinents für Entwicklungsprojekte – die Afrikanische Entwicklungsbank – die Unterstützung von Kohleprojekten eingestellt, die notwendig sind, um das Wirtschaftswachstum anzukurbeln und die erdrückende Armut in vielen Ländern zu lindern.

Am beunruhigendsten ist vielleicht, dass die fehlgeleitete globale Bewegung zur Dekarbonisierung des Energiesektors noch in den Kinderschuhen steckt. Angesichts der Schäden, die den Verbrauchern bereits zugefügt wurden, wird eine voll entwickelte „Energiewende“ eine Energieknappheit unvorstellbaren Ausmaßes zur Folge haben. In Regionen wie vielen in Afrika bedeutet dies, dass das Wirtschaftswachstum gestoppt wird, bevor es beginnt. In den Industrieländern werden die Bürger riesige Rückschritte in ihrem Lebensstil machen, und einige werden in Armut versinken.

[Hervorhebung vom Übersetzer]

Die Menschheit hat in den letzten Jahrhunderten große Fortschritte gemacht und viel Geld investiert, um den heutigen Zustand des Energieüberschusses zu erreichen, den die Zivilisation genießt. Die politischen Eliten sind dabei, diesen Fortschritt wieder rückgängig zu machen, indem sie den Menschen die Energie vorenthalten, die sie zum Wohlstand und sogar zum Überleben brauchen.

Vijay Jayarajis a Research Associate at the CO2 Coalition, Arlington, VA. He holds a master’s degree in environmental sciences from the University of East Anglia, UK and resides in India.

This commentary was first published at Real Clear Energy September 14, 2022.

Link: https://wattsupwiththat.com/2022/09/17/denying-access-to-energy-the-new-normal/

Übersetzt von Christian Freuer für das EIKE

 




Studie: Wenn man wirklich „grün“ sein will, dann halte man an fossilen Treibstoffen fest

Bonner Cohen, Ph. D.

„Im Gegensatz zu den Behauptungen der Befürworter des Green New Deal und Net Zero sind fossile Brennstoffe die grünsten Brennstoffe.

Erstens wird bei der Nutzung fossiler Brennstoffe CO2 freigesetzt, das die eigentliche Quelle des elementaren Bausteins Kohlenstoff ist, der in allem kohlenstoffbasierten Leben, d. h. fast allem Leben auf der Erde, vorkommt.“

Mit diesen beiden Sätzen, die im Gegensatz zu allem stehen, was Sie über die angebliche „Klimakrise“ gehört haben, wird eine provokative neue Studie von Indur Goklany, Ph. D., eingeleitet. Goklany, ein weithin veröffentlichter Autor und vieljähriger Forscher in einer Vielzahl wissenschaftlicher Bereiche, enthebt Kohlendioxid seines Status als Umweltschurke, wie er von der modernen Klimaorthodoxie verordnet wird. Er zeigt auch, dass steigende CO2-Werte in der Atmosphäre, einschließlich der durch fossile Brennstoffe erzeugten, für die biologische Vielfalt von großem Nutzen sind.

Goklanys StudieFossil Fuels are the Greenest Energy Sources“ wurde von der CO2 Coalition veröffentlicht, einer Organisation mit Sitz in Arlington, Virginia, die sich der Aufklärung der Öffentlichkeit über die Rolle von Kohlendioxid für die biologische Vielfalt widmet.

„Die zunehmende Amplitude des saisonalen Zyklus‘ des atmosphärischen CO2 und satellitengestützte Instrumente zur Messung der sonneninduzierten Chlorophyllfluoreszenz von Pflanzen liefern direkte Beweise dafür, dass die globale photosynthetische Aktivität (oder die Bruttoprimärproduktion, GPP, ein Maß für die Veränderung der globalen Biomasse) in den letzten Jahrzehnten zugenommen hat“, schreibt Goklany. „Die beobachteten Schwankungen des atmosphärischen CO2-Gehalts in den letzten zwei Jahrhunderten stehen im Einklang mit einer erhöhten Primärproduktion. Auch andere Satellitenstudien zeigen, dass die Erde in den letzten Jahrzehnten kontinuierlich grüner geworden ist“.

Höhere CO2-Werte, höhere Nahrungsmittelproduktion

„Zweitens haben die von fossilen Brennstoffen abhängigen Technologien die landwirtschaftlichen Erträge direkt oder indirekt um mindestens 167 % erhöht. Dieser Anstieg der landwirtschaftlichen Produktivität ist auf den Einsatz von Technologien zurückzuführen, die von fossilen Brennstoffen abhängig sind, insbesondere Stickstoffdünger, Pestizide und Kohlendioxiddüngung, die aus den Emissionen fossiler Brennstoffe resultieren“, erklärt Goklany. „Dies hat es den Menschen ermöglicht, ihren Nahrungsmittelbedarf mit weniger Anbauflächen zu decken, was wiederum Land für die übrige Natur freisetzt. Ohne fossile Brennstoffe müssten also mindestens 167 % mehr Land kultiviert werden, um die weltweite Nahrungsmittelproduktion auf dem derzeitigen Niveau zu halten. Dies entspräche einer Ausweitung der derzeitigen Anbaufläche von 12,2 % der globalen Landfläche auf 32,7 %. Die Umwidmung von Lebensraum (Land) für die Landwirtschaft gilt jedoch schon jetzt als die größte Bedrohung für die weltweite biologische Vielfalt. Fossile Brennstoffe haben also die Produktivität von bereits umgewandeltem Lebensraum erhöht, sie haben die Umwandlung von mindestens weiteren 20,4 % der globalen Landfläche verhindert.

Folglich leben heute zehnmal mehr Menschen auf der Welt (7,79 Milliarden) als zu Beginn der industriellen Revolution (786 Millionen im Jahr 1750), während gleichzeitig mehr Biomasse zur Verfügung steht“, fügt Goklany hinzu.

Eine Begrenzung, geschweige denn eine Senkung des atmosphärischen CO2-Gehalts durch die politisch modische „Dekarbonisierung“ könnte die weltweite Nahrungsmittelversorgung noch stärker gefährden als von Goklany prognostiziert. Wie Dennis Avery (1936-2020), vieljähriger Direktor der Global Food Studies am Hudson Institute, schon vor vielen Jahren feststellte, ist der größte Teil der besten Anbauflächen der Welt bereits bebaut. Was noch übrig ist, ist bestenfalls marginal. Durch die Verringerung des Anteils fossiler Brennstoffe am atmosphärischen CO2 (Pflanzennahrung) würde die landwirtschaftliche Produktivität auf den besten Anbauflächen zurückgehen, so dass die Landwirte weltweit gezwungen wären, weniger fruchtbare Böden zu bewirtschaften, wobei die daraus resultierenden Ernten ebenfalls unter dem CO2-Mangel leiden würden. Und die zusätzlichen Anbauflächen stünden der Tierwelt nicht mehr zur Verfügung.

Beim Vergleich der Auswirkungen verschiedener Energieoptionen auf den Lebensraum „sollten wir den physischen Fußabdruck berücksichtigen, der erforderlich ist, um mit jeder Option (Sonne, Wind und verschiedene fossile Brennstoffe) eine entsprechende Energiemenge zu erzeugen“, schreibt Goklany. „Zweitens: Damit Wind- und Solarenergie fossile Brennstoffe sinnvoll ersetzen können, müssen sie mit Batterien gekoppelt werden, um das Problem der Unterbrechung zu lösen, was erhebliche Mengen an Metallen und anderen Materialien erfordert, die abgebaut, geschmolzen und raffiniert werden müssen, was zwangsläufig zu Beeinträchtigungen des Bodens führt“.

Die Ergrünung der Erde

Goklany zitiert eine Studie aus dem Jahr 2016, die sich auf Satellitendaten stützt und zu dem Ergebnis kommt, dass zwischen 1982 und 2009 25 bis 50 % der globalen Vegetationsfläche grüner geworden sind, während 4 % brauner geworden sind. „Sie führten 70 % der Ergrünung auf die CO2-Düngung durch Emissionen aus der Verbrennung fossiler Brennstoffe zurück (was die Photosynthese und die Wassernutzungseffizienz (WEU) der meisten Vegetation erhöht), 9 % auf die Stickstoffablagerung (ebenfalls durch die Verwendung von Düngemitteln aus fossilen Brennstoffen), 8 % auf den Klimawandel und 4 % auf die veränderte Landnutzung. Die ersten drei, die zusammen für 87 % der Begrünung verantwortlich sind, hängen mit der Nutzung fossiler Brennstoffe zusammen“, erklärt Goklany.

Im Gegensatz dazu tragen die intermittierende und flächenintensive Wind- und Solarenergie nichts zur landwirtschaftlichen Produktivität bei, hinterlassen aber einen ökologischen Fußabdruck, der den der fossilen Brennstoffe weit in den Schatten stellt. Goklany zitiert einen Bericht der Internationalen Energieagentur aus dem Jahr 2022, in dem festgestellt wird, dass ein typisches Elektrofahrzeug sechsmal mehr Mineralien benötigt als ein herkömmliches Auto und dass ein Onshore-Windkraftwerk neunmal mehr Mineralien benötigt als ein erdgasbefeuertes Kraftwerk, während Offshore-Windkraftwerke fünfzehnmal so viel wie Erdgas benötigen.

Der Krieg gegen das CO2 in der Atmosphäre ist unter anderem ein Krieg gegen die weltweite Nahrungsmittelproduktion.

Autor: Bonner Cohen, Ph. D. is a senior policy analyst with CFACT, where he focuses on natural resources, energy, property rights, and geopolitical developments. Articles by Dr. Cohen have appeared in The Wall Street Journal, Forbes, Investor’s Busines Daily, The New York Post, The Washington Examiner, The Washington Times, The Hill, The Epoch Times, The Philadelphia Inquirer, The Atlanta Journal-Constitution, The Miami Herald, and dozens of other newspapers around the country. He has been interviewed on Fox News, Fox Business Network, CNN, NBC News, NPR, BBC, BBC Worldwide Television, N24 (German-language news network), and scores of radio stations in the U.S. and Canada. He has testified before the U.S. Senate Energy and Natural Resources Committee, the U.S. Senate Environment and Public Works Committee, the U.S. House Judiciary Committee, and the U.S. House Natural Resources Committee. Dr. Cohen has addressed conferences in the United States, United Kingdom, Germany, and Bangladesh. He has a B.A. from the University of Georgia and a Ph. D. – summa cum laude – from the University of Munich.

Link: https://www.cfact.org/2022/09/20/study-if-you-want-to-go-green-stick-with-fossil-fuels/

Übersetzt von Christian Freuer für das EIKE