Können Wind- und Solarenergie um das 50- bis 100-fache erweitert werden?

Edward Ring

Auf der jüngsten Konferenz der Vertragsparteien, auch bekannt als die Sonderveranstaltung der Vereinten Nationen, die alle paar Jahre stattfindet und auf der die Staats- und Regierungschefs der Welt die Klimakrise diskutieren, wurden mehrere Ziele öffentlich verkündet. Besonders hervorzuheben sind die Ziele, die Erzeugung von erneuerbarer Energie bis 2030 zu verdreifachen und die Erzeugung von Kernenergie bis 2050 ebenfalls verdreifachen. Wo stehen die Ziele der COP 28 für die weltweite Energiewirtschaft vor dem Hintergrund der derzeitigen globalen Energieproduktion nach Energieträgern und, wie in Teil 1 quantifiziert, dem Ziel, die Gesamtenergieproduktion von 600 Exajoule im Jahr 2022 auf mindestens 1.000 Exajoule im Jahr 2050 zu steigern? Wie stark muss die Produktion von erneuerbaren Energien steigen?

Bei der Beantwortung dieser Frage muss berücksichtigt werden, dass die meisten erneuerbaren Energien in Form von Strom aus Wind, Sonne oder Erdwärme erzeugt werden. Und wenn es darum geht zu messen, wie viel die bisher installierte Basis an erneuerbaren Energien zum Ziel von 1.000 Exajoule Energieproduktion pro Jahr beitragen wird, um – im besten Fall – 800 Exajoule an Energiedienstleistungen zu realisieren, sind die im Statistical Review of Global Energy angegebenen Daten zutiefst irreführend.

Ohne zu verstehen, wie die aktuellen Daten zu erneuerbaren Energien, wie sie in den zusammenfassenden Diagrammen angegeben werden, einen Analysten dazu verleiten können, ihren derzeitigen Beitrag zur globalen Energieversorgung zu hoch anzusetzen, ist es unmöglich, das wahre Ausmaß des Ausbaus der erneuerbaren Energien genau zu beurteilen, der erforderlich ist, um das Ziel von 1.000 Exajoule globaler Energieerzeugung pro Jahr zu erreichen. Wie die zusammenfassenden Diagramme in die Irre führen, ist im Anhang nachzulesen.

Die Autoren zeigen im Anhang (siehe Seite 56, „Methodik“): „In der Statistischen Übersicht über die Weltenergie wurde die Primärenergie nicht-fossiler Elektrizität (Kernenergie, Wasserkraft, Windkraft, Solarenergie, Erdwärme, Biomasse in der Stromerzeugung und andere erneuerbare Energiequellen) auf einer ‚input-äquivalenten‘ Basis berechnet – d.h. auf der Grundlage der äquivalenten Menge an fossilen Brennstoffen, die erforderlich ist, um diese Menge an Elektrizität in einem Standard-Wärmekraftwerk zu erzeugen.“

Es kann gar nicht hoch genug eingeschätzt werden, wie wichtig es ist, diese scheinbar harmlose Fußnote nicht zu übersehen.

Im Klartext heißt das, dass sie, wenn sie (siehe Seite 9 „Primärenergie: Verbrauch nach Brennstoffen“) den Anteil aller nicht-thermischen Energiequellen – Wasser, Kernkraft, Wind und Sonne – an der weltweiten Energieerzeugung angeben, die niedrigere, tatsächliche Produktionszahl hochrechnen und in der Tabelle einen fiktiven, viel größeren Betrag ausweisen, der so berechnet wird, als ob diese vier Energiequellen mit dem Wirkungsgrad thermischer Kraftwerke arbeiten würden, d. h. mit einem Wirkungsgrad von 40 Prozent.

Warum? Wir können davon ausgehen, dass die diese Diagramme erstellenden Energieanalysten den Beitrag der nicht-thermischen Energie hochrechnen (Lawrence Livermore tut dies übrigens auch in seinem Energieflussdiagramm), um zu zeigen, wie viel der fossilen Brennstoffproduktion durch die Nutzung nicht-thermischer Quellen ausgeglichen wird. Das scheint unverfänglich zu sein. Aber es ist irreführend.

Wenn wir uns ein Ziel von 1.000 Exajoule für die Weltenergieproduktion setzen und davon ausgehen, dass 80 Prozent dieser 1.000 Exajoule als Energiedienstleistungen für den Endverbraucher realisiert werden sollen, dann müssen wir untersuchen, wie viel nutzbare Energie aus Wind, Sonne, Wasser und Kernkraft heute tatsächlich erzeugt wird. Das heißt, wir müssen wissen, wie viel Strom sie tatsächlich erzeugen und in das Netz einspeisen. Eine unterstellte, hochgerechnete Zahl ist nicht hilfreich.

Auf dem Weg zu 1.000 Exajoule pro Jahr ohne Kohle, Öl und Gas

Erfreulicherweise ist die tatsächliche Strommenge, die derzeit durch Wasser-, Kernkraft-, Wind- und Sonnenenergie erzeugt wird, in den inneren Kapiteln des Statistischen Berichts zu finden. Es ist jedoch wichtig zu erkennen, dass bei einer Verlagerung der Energieerzeugung von thermischen Quellen auf Elektrizität immer noch mindestens 1000 Exajoule an Stromerzeugung erforderlich sind, um 800 Exajoule an Energiedienstleistungen zu erzeugen.

Es muss noch einmal betont werden, dass es eine außergewöhnliche Annahme ist, eine 80-prozentige Rückhaltung von Energie von der Einspeisung ins Netz bis zum tatsächlichen Endverbrauch zu prognostizieren. Wir könnten zum Beispiel davon ausgehen, dass von der Erzeugungsanlage 5 Prozent bei der Übertragung verloren gehen, weitere 5 Prozent beim Laden und anschließenden Entladen des Stroms in und aus Energiespeicherbatterien, weitere 5 Prozent beim Lade-/Entladezyklus durch eine Bordbatterie in einem Elektrofahrzeug und weitere 5 Prozent bei der Umwandlung des Stroms in Traktion durch den Elektromotor. Das sind außerordentlich optimistische Zahlen, wenn man ein Best-Case-Beispiel zugrunde legt. Ist eine Wärmepumpe so effizient, oder eine Klimaanlage, ein Kochfeld oder eine beliebige Anzahl von Geräten, Landmaschinen, Industrieanlagen und andere wichtige Infrastrukturen? Definitiv noch nicht, und sehr wahrscheinlich auch nie.

Es geht darum, dass 1000 Exajoule das absolute Minimum darstellen, auf das die weltweite Energieproduktion in den nächsten 25 Jahren steigen muss, wenn jeder Mensch auf der Erde Zugang zu genügend Energie haben soll, um Wohlstand und Sicherheit zu ermöglichen. Wie kommen wir dorthin? Nehmen wir die Experten beim Wort und gehen wir davon aus, dass die Nutzung von Kohle, Öl und Gas bis 2050 vollständig eingestellt wird.

In der nachstehenden Grafik entsprechen die Annahmen für den künftigen weltweiten Brennstoffmix den Beschlüssen, die auf der jüngsten Konferenz der Vertragsparteien gefasst wurden. Das heißt, die Kernenergie wird verdreifacht, und die Nutzung von Erdöl, Erdgas und Kohle wird eingestellt. Um den erforderlichen Ausbau der Solar- und Windenergie etwas zu entlasten, wird für diese Analyse die hochtrabende Annahme getroffen, dass die Wasserkraftkapazität verdoppelt, die geothermische Produktion verdoppelt und die Biokraftstoffproduktion verdoppelt wird. Das wird nicht viel ausmachen. Es geht los:

An diesen Daten gibt es viel zu verarbeiten, aber die Mühe lohnt sich. Denn die Fakten, die sie präsentieren, sind unumstößlich und haben erhebliche Auswirkungen auf die globale Energiepolitik. Die erste Datenspalte zeigt, wie viel Brennstoff im Jahr 2022 weltweit verbrannt oder erzeugt wurde – die rohen Brennstoffinputs, die sich auf 604 Exajoule belaufen.

Die zweite Datenspalte zeigt die Anzahl der Energie-Dienstleistungen, die die Endverbraucher im Jahr 2022 in Form von Heizung, Kühlung, Antrieb, Licht, Kommunikation usw. erreicht haben. Es ist klar, dass die niedrigeren Zahlen für thermische Energiequellen den derzeit weltweit geschätzten Umwandlungs-Wirkungsgrad von etwa 40 Prozent reflektieren. Bei den nichtthermischen Energieträgern (rechts mit „gen“ für erzeugte Energie) basieren diese Zahlen auf Terawattstunden-Berichten, die in den einzelnen Abschnitten des Statistischen Berichts für diese Energieträger aufgeführt sind. Bei der Umrechnung von Terawattstunden in Exajoule handelt es sich um die tatsächliche Strommenge, die weltweit in die Übertragungsleitungen eingespeist wurde, um von den Endverbrauchern verbraucht zu werden.

In der dritten Spalte wird ein hypothetischer globaler Brennstoffmix für 2050 auf der Grundlage der auf der COP 28 vereinbarten Ziele berechnet. Wie in Spalte 4 „Mehrfaches“ zu sehen ist, wird die Kernenergie in Übereinstimmung mit COP 28 verdreifacht. In Übereinstimmung mit der COP 28 wird auch die Nutzung von Kohle, Öl und Gas abgeschafft. Um das Ziel von 1000 Exajoule zu erreichen, wird die Produktion von Erdwärme und Biokraftstoffen verdoppelt, was auf der COP 28 nicht vereinbart wurde. Der verbleibende Rest des Energiebedarfs wird (in diesem Beispiel) zu gleichen Teilen durch Wind- und Sonnenenergie gedeckt. Nach allem, was sie in Dubai und Davos sagen, kann man davon ausgehen, dass dies das Modell ist. Dies ist die logische Umsetzung dessen, was sie fordern.

Diese Berechnungen ergeben einen überwältigenden Realitätscheck. Doch welche Annahme ist falsch? Das Ziel von 1000 Exajoule ist mit Sicherheit zu niedrig angesetzt. Die Kernenergie wird verdreifacht, die Wasserkraft und die Biokraftstoffe werden jeweils verdoppelt. Nichts davon ist einfach; im Falle des Biokraftstoffs könnte es zu einer Umweltkatastrophe kommen. Aber selbst wenn diese anderen nicht-thermischen Energiequellen um das Zwei- bis Dreifache zunehmen würden, wäre ohne Kohle, Öl und Gas ein verblüffender Ausbau von Wind und Sonne erforderlich. Mit einer „Verdreifachung“ dieser erneuerbaren Energieträger kommen wir nicht einmal in die Nähe des Ziels.

Um die Welt bis 2050 mit 1000 Exajoule Strom zu versorgen, müssten für jede Windturbine, die wir heute haben, mehr als 60 davon aufgestellt werden. Für jedes Feld der Photovoltaik, das wir heute haben, müssen wir mit fast 100 weiteren rechnen. Ist das machbar? Denn von Dubai bis Davos wird behauptet, dass wir genau das tun werden.

Angesichts dieser Tatsachen mögen selbst die enthusiastischsten Befürworter von Wind- und Solarenergie zögern, wenn sie die Größe der Aufgabe betrachten. Der völlige Verzicht auf die Produktion fossiler Brennstoffe bis zum Jahr 2050 sollte in der Praxis als unmöglich angesehen werden. Der Anstieg des Bergbaus, der Landverbrauch, der Ausbau der Übertragungsleitungen, die Notwendigkeit einer gewaltigen Menge an Stromspeichern, um diese intermittierenden Quellen auszugleichen, die Anfälligkeit von Wind- und Solarfarmen für Wetterereignisse wie Frost, Tornados und Hagel und die verblüffende Aufgabe, alles alle 20 bis 30 Jahre neu zu machen, wenn die Windturbinen, Photovoltaikmodule und Speicherbatterien das Ende ihrer Nutzungsdauer erreichen – all dies deutet darauf hin, dass die Beschaffung von mehr als 90 Prozent der weltweiten Energie aus Wind- und Sonnenenergie ein aussichtsloses Unterfangen ist.

Wenn Kohle, Öl und Gas auslaufen und es unrealistisch ist zu erwarten, dass fast 1000 Exajoule Strom durch Wind- und Sonnenenergie erzeugt werden, was bleibt dann noch übrig? Im dritten Teil dieser Serie wird das Potenzial der verbleibenden Energiealternativen – Kernenergie, Wasserkraft, Biokraftstoffe, Erdwärme – sowie mögliche Innovationen untersucht, die eines Tages die Regeln ändern könnten.

Edward Ring is a senior fellow of the Center for American Greatness. He is also is a contributing editor and senior fellow with the California Policy Center, which he co-founded in 2013 and served as its first president. Ring is the author of Fixing California: Abundance, Pragmatism, Optimism (2021) and The Abundance Choice: Our Fight for More Water in California (2022).

Originally published by American Greatness. Republished with permission.

Um mehr über die Grenzen von Wind- und Solarenergie zu erfahren, klicken Sie hier.

Link: https://heartlanddailynews.com/2024/02/can-wind-solar-energy-expand-50-100-times/?

Übersetzt von Christian Freuer für das EIKE

 




Die lebensrettende Rolle der Kohle wird von den Klima-besessenen Medien komplett ignoriert

Vijay Jayaraj

An einem kalten Wintertag waren die Münchner überrascht, Menschen auf der Straße Skifahren zu sehen. Ja, so viel Schnee fiel in der deutschen Stadt und anderen Teilen Europas im Frühwinter 2023-24.

Trotz der Unterbrechung des Flug- und Landverkehrs überlebten die Deutschen, und die meisten hatten Zugang zu Heizung und Grundversorgung. Aber nicht alle Menschen in unserer Welt sind so gesegnet wie die Menschen in den westlichen Volkswirtschaften, die auf fossilen Brennstoffen aufgebaut sind.

Milliarden von Menschen auf der Welt haben keinen Zugang zu sicheren Wärme- und Stromquellen. Für diese Menschen kann der Winter tödlich sein, und sie mit zuverlässigen Brennstoffen wie Kohle zu versorgen, scheint aufgrund des Krieges gegen fossile Brennstoffe im Namen des Klimawandels ein Ding der Unmöglichkeit zu sein.

Schnee ist tödlich und wird nicht verschwinden.

Die eisige Kälte des Winters fordert mehr Menschenleben als die sengende Hitze des Sommers, so das Ergebnis einer globalen Analyse der durch verschiedene Naturgefahren verursachten Todesfälle.

Eine in 854 europäischen Städten durchgeführte Gesundheitsstudie aus dem Jahr 2023 zeigt, dass schätzungsweise 203.620 Todesfälle pro Jahr auf Kälte zurückzuführen sind, während nur 20.173 auf Hitze zurückzuführen sind. Im Vergleich dazu war nur einer von zehn Todesfällen aufgrund extremer Temperaturen auf Hitze zurückzuführen, während die Mehrheit auf Kälte zurückzuführen war.

Die Schwere der winterlichen Gefahr wird jedoch von der vorherrschenden Diskussion über den angeblichen vom Menschen verursachten Klimawandel überschattet. Wir werden mit Warnungen vor den Gefahren der Erwärmung überschwemmt. Doch historisch gesehen ist es die Kälte, die katastrophale Folgen hat. Sie hat den Lauf der Geschichte auf der ganzen Welt verändert und die Menschen auf der Suche nach Nahrung in die Enge getrieben, während die Pflanzenwelt schwand.

Abgesehen von der Angstmacherei um die Erwärmung wird die Kälte des Winters nicht nachlassen und die Überlebensstrategien der Menschheit weiterhin auf die Probe stellen. Seit August liegt die Schneedecke in der nördlichen Hemisphäre auf oder über dem 57-jährigen Mittelwert, was auf günstige Bedingungen für Niederschlag in fester Form hindeutet.

Im Laufe der Geschichte waren die Temperaturen sehr unbeständig, wobei sich Erwärmung und Abkühlung regelmäßig abwechselten. Deshalb sollte die Fülle an Schnee in diesem Jahr nicht überraschen. Leider hat der Einfluss der Mainstream-Medien viele Menschen zu der Annahme verleitet, dass eine noch nie dagewesene Erwärmung dazu führen würde, dass Schnee seltener vorkommt.

Zu dieser Unkenntnis der Fakten kommt noch eine Kampagne zur Abschaffung fossiler Brennstoffe, um die Möglichkeit einer durch Überhitzung unbewohnbar gewordenen Welt abzumildern.

Pseudowissenschaft gefährdet die Menschen mit unpraktischer Energiepolitik.

Da die Klimawissenschaft von einem weltweiten politischen Kreuzzug gegen die vom Menschen verursachte globale Erwärmung vereinnahmt wird, sind die Gemeinden möglicherweise schlecht für das kommende Winterwetter gerüstet.

In Regionen mit besonders strengen Wintern und eingeschränktem Zugang zu zuverlässigen Heizquellen ist die Gefahr von Tod und Krankheit aufgrund einer Politik gegen fossile Brennstoffe besonders groß. Zentralasien, wo wirtschaftliche Not und Energiebeschränkungen zusammentreffen, ist ein Beispiel für diese Herausforderung. In Ländern wie der Mongolei ist es im Winter ein ständiges Thema, warm zu bleiben.

Da viele Haushalte von Kohle abhängig sind und häufige Stromausfälle diejenigen betreffen, die an das Stromnetz angeschlossen sind, kann die Situation schnell düster werden. In diesem Jahr wurden die Stromimporte des Landes aus Russland unterbrochen, so dass Millionen von Menschen mitten im Winter ohne Strom dastanden.

Bei minus 35 Grad Celsius waren die Menschen in der Mongolei auf sich allein gestellt. Um diesem rauen Klima zu trotzen, sind sie auf nur zwei wichtige Energiequellen angewiesen: die interne Stromerzeugung aus den reichlich vorhandenen Kohlereserven und die direkte Nutzung von Kohle zum Heizen der Häuser. Bei Minusgraden und einer Schneedecke können weder Wind noch Solarenergie eine kontinuierliche Energieversorgung gewährleisten.

In anderen Ländern der Region ist das Szenario ähnlich. Mittellose Gemeinden in Afghanistan sind auf Kohle angewiesen, um den Winter zu überstehen. In Kirgisistan führt die Unzuverlässigkeit der Wasserkraft zu einem ständigen Bedarf an Kohle. Auch in Usbekistan und Kasachstan sind die Menschen auf Kohle angewiesen, um sich zu wärmen, wenngleich letzteres auch zunehmend auf Gas setzt.

Für wohlhabende Politiker, die in Privatflugzeugen über die westliche Welt fliegen, ist es ein Leichtes, für die Abschaffung fossiler Brennstoffe einzutreten und dabei zu ignorieren, dass der Winter weit entfernte Gemeinden eiskalt im Griff hat.

Ehrliche westliche Medien würden über die kritische Rolle der fossilen Brennstoffe bei der Aufrechterhaltung des menschlichen Lebens unter harten Winterbedingungen berichten. Diese Tatsache widerspricht jedoch dem falschen Narrativ einer Welt, die durch die Erwärmung dem Untergang geweiht ist.

This commentary was first published at Real Clear Energy on January 4, 2023.

Vijay Jayaraj is a Research Associate at the CO2 Coalition, Arlington, Virginia. He holds a master’s degree in environmental sciences from the University of East Anglia, UK.

Link: https://cornwallalliance.org/2024/02/coals-life-saving-role-ignored-by-climate-obsessed-media/

Übersetzt von Christian Freuer für das EIKE

 




Launen der Temperatur-Rückkopplung

Ist es wirklich das wärmste seit 125.000 Jahren, und wenn ja, was bedeutet das?

Chris Hall

Der Anlass für diesen Artikel waren die Behauptungen, dass der vorige Sommer der heißeste seit 125.000 Jahren war, nebst der atemlosen Angst, die damit verbunden war. Schon beim Überfliegen der Nachrichtenmeldungen wurde mir klar, dass diese Behauptung auf zwei wesentlichen Punkten beruht: der Annahme, dass das Klima sehr stabil ist und sich vor der jüngsten anthropogenen Beeinflussung nicht verändert hat, und dass die derzeitige Abweichung von der Mitteltemperatur so viele Standardabweichungen (Sigma) über dem erwarteten Wert liegt, dass sie in den letzten 125.000 Jahren unmöglich erreicht oder überschritten werden konnte.

Die erste Annahme entspricht einer Paläotemperatur-Rekonstruktion im Stil des „Hockeysticks“, bei der die natürliche Temperaturschwankung im letzten Jahrtausend sehr gering ist. Es gibt mehrere Rekonstruktionen dieser Art, z. B. einige der flacheren Temp12k-Aufzeichnungen, sowie den klassischen Hockeystick (Abb. 1 und 2). Die zweite Annahme beruht auf dem Glauben, dass sich die statistischen Eigenschaften der paläoklimatischen Temperaturaufzeichnungen über einen sehr langen Zeitraum hinweg überhaupt nicht verändert haben.

Abbildung 1: Klassische Paläo-Temperatur-Rekonstruktion „Hockeyschläger“ aus dem Wikipedia-Eintrag.

Abbildung 2: Sammlung von Paläotemperatur-Rekonstruktionen aus Abb. 3 von Kaufman et al., 2020.

Obwohl ich mich weder für die eine noch für die andere Paläotemperatur-Rekonstruktion aussprechen möchte, weise ich darauf hin, dass die 125.000 Jahre, die für unsere Rekordtemperaturen genannt werden, auf einem kleinen Taschenspielertrick beruhen. Wenn man sich die Temperaturaufzeichnungen des Wostok-Eiskerns auf der Paläoklima-Seite von wattsupwiththat (Abb. 3) ansieht, fällt die Temperatur, sobald man etwa 12.000 Jahre bis zum Beginn des Holozäns zurückgeht, drastisch in die Tiefen einer schweren Eiszeit ab, und erst wenn man etwa 125.000 Jahre in der Zeit zurückreist, bis man das warme Eem erreicht, kehrt man zur „Normalität“ zurück. In Wirklichkeit ist es also keine große Leistung, wärmer zu sein als der riesige Canyon des Eiszeitalters. Es stellt sich also die Frage, ob 2023 das heißeste Jahr und der August 2023 der heißeste Monat seit 12.000 Jahren war.

Abbildung 3: Leicht veränderte Rekonstruktion der Temperaturanomalie des Wostok-Eiskerns, entlehnt von der Paläoklima-Referenzseite von wattsupwiththat.

Für den Rest dieses Artikels werde ich den unwahrscheinlichen Fall annehmen, dass die Temperatur im Holozän extrem stabil war. Welche statistischen Eigenschaften hat dann die heutige instrumentelle Temperaturaufzeichnung, und was bedeutet das für die Behauptung von Rekordtemperaturen? Dies führt mich zu der Frage, was dies für die Rückkopplungs-Prozesse des Klimas bedeutet.

Globale monatliche Temperaturanomalien nach HadCRUT5: Das ist es, was wir haben

Ich beschloss, mir die offiziellen Temperaturaufzeichnungen aus einem Jahrhundert instrumenteller Daten anzusehen, das dem größten Teil des anthropogenen CO₂-Anstiegs vorausgeht, d. h. von 1850 bis 1950. Hierfür schien die globale monatliche HadCRUT5-Analyse eine vernünftige Wahl zu sein. Es gibt noch andere, aber sie sind hochgradig miteinander korreliert und basieren auf denselben Rohdaten, so wie sie sind. Dieser Datensatz ist in Abb. 4 dargestellt.

Der Mittelwert dieses Teils der Aufzeichnung beträgt -0,3078°C, was als Anomalie gegenüber einem späteren Teil der Aufzeichnung ausgedrückt wird, und die Standardabweichung beträgt 0,2066. Die Höchsttemperatur des gesamten globalen monatlichen Datensatzes stammt aus dem August 2023 mit einem Anomaliewert von 1,3520. Es zeigt sich also, dass der August über 8 Sigma über meinem Mittelwert von 1850 bis 1950 lag. Wahnsinn! Ich vermute, dass eine einfältige Extrapolation in die Vergangenheit nahelegen würde, dass wir diese sengende Temperatur während des Holozäns nicht überschritten hätten.

Abbildung 4: HadCRUT5 monatliche globale Temperaturaufzeichnungen 1850 bis 1950

SARIMA-Bereich

Der nächste Abschnitt ist etwas umfangreich und kann von allen übersprungen werden, die sich nicht mit der Frage beschäftigen wollen, wie ich simulierte Temperaturaufzeichnungen auf der Grundlage der statistischen Eigenschaften der bestehenden Temperaturaufzeichnungen von 1850-1950 erstellt habe. Sie passt sich einem Modell an, das von einer Autokorrelation innerhalb der Aufzeichnung ausgeht. Die verwendeten Verfahren sind bei Aktienhändlern sehr beliebt, und die meisten der verwendeten Programme sind in der R-Bibliothek „forecast“ enthalten. Wenn Sie sich für solche Dinge nicht interessieren, können Sie diesen Abschnitt überspringen.

Und genau dem folgt diese Übersetzung. Es ist ein theoretischer Teil, dessen Ergebnisse unten beschrieben werden. Jeder an Theorie Interessierte dürfte der englischen Sprache mächtig genug sein, diese Passage im Original zu betrachten. A. d. Übers.

Steuerknöpfe: „hoch“ oder „niedrig“, das ist hier die Frage

Die sich aus der Modellierung der Temperaturzeitreihen ergebenden Residuen des weißen Rauschens sind das zufällige, chaotische Hintergrundrauschen des Klimas. Sie sind wahrscheinlich das Ergebnis von Vulkanen, ozeanischen Wirbeln, Sonnenaktivität, dem Ausgasen von Reisfeldern und dem chaotischen Flattern von manischen Schmetterlingen. Was auch immer Sie tun, es scheint, dass die Temperaturaufzeichnungen der Erde jeden Monat chaotisch um etwa 1/8 Grad Celsius auf und ab schwanken, und diese Schwankungen sind nicht autokorreliert und hängen nicht von der Jahreszeit ab. Wichtig ist, wie sich die beiden oben abgeleiteten statistischen Modelle über einen längeren Zeitraum hinweg verhalten.

In Abb. 6 zeige ich die Ergebnisse von zwei Simulationen, die über 1000 Jahre laufen. Bei dem in Abb. 5c gezeigten Modell handelt es sich um eine klassische Version einer „Random Walk“-Zeitreihe. Bei einem „Random Walk“ ist die Reihe nicht an einen bestimmten „Sollwert“ (SP) gebunden und kann munter hin und her wandern, nach oben oder unten oder hin und her oszillieren. Diese Art von Verhalten steht in engem Zusammenhang mit dem physikalischen Prozess der Diffusion, und die durchschnittliche Entfernung vom ursprünglichen Ausgangspunkt, der hier als Temperaturanomalie von Null angenommen wird, nimmt mit der Quadratwurzel der Zeit zu. Im Wesentlichen fehlt bei dieser Art von Zeitreihen jede Art von negativer Rückkopplung, die die Temperatur an einen bestimmten SP bindet. Dieses Verhalten ist unvereinbar mit Proxy-Temperaturaufzeichnungen, die angeblich zeigen, dass es seit Jahrhunderten oder Jahrtausenden keine signifikanten Temperaturveränderungen gibt.

Das in Abb. 5b gezeigte Modell ist jedoch perfekt für diejenigen, die behaupten, dass sich die globale Temperatur über einen längeren Zeitraum hinweg nicht wesentlich verändert hat. In diesem Fall oszilliert die Temperatur zwar um den Nullpunkt, aber ihre durchschnittliche Abweichung von diesem SP nimmt mit der Zeit nicht zu. Dies deutet darauf hin, dass es eine Reihe von negativen Rückkopplungen gibt, die die Reihe in der Nähe des SP halten. Auf diese Art von Zeitreihen werde ich noch näher eingehen.

Abbildung 6: Typische SARIMA* simulierte 1000-Jahre-Temperaturzeitreihen für die beiden angepassten Modelle. Die Punkte stellen einzelne Monatswerte dar, und die dicken Linien sind die geglätteten Versionen der Zeitreihen nach Lowess. Das (2,0,0)x(2,0,0)12-Modell ist fest in der Nähe des Sollwerts 0 verankert, während das (3,1,1)x(2,0,0)12-Modell wie ein Random Walk wirkt, bei dem die Temperatur nicht an einen bestimmten Sollwert gebunden ist. Das letztgenannte Modell geht manchmal nach oben, manchmal nach unten und manchmal oszilliert es.

[*SARIMA = Seasonal Auto Regressive Integrated Moving Average]

Warum sollte man sich die Temperatur-Rückkopplung ansehen?

Ich weiß, was Sie sagen wollen: warum sollte man die Temperatur-Rückkopplung betrachten? Sicherlich wirken alle wichtigen Rückkopplungen auf die unzähligen Stellschrauben, die das Klima steuern, und nicht direkt auf die Temperatur. Und Sie hätten Recht – mit Ausnahme eines sehr wichtigen Reglers: CO₂. Im Falle von Kohlendioxid liegt die unmittelbare Klimaempfindlichkeit gegenüber einer Verdoppelung seiner Konzentration in der Atmosphäre irgendwo in der Nähe von 1,5°C. Die wirklich beängstigenden Folgen des Fahrens Ihres Geländewagens ergeben sich jedoch erst, wenn Sie die angenommene positive Rückkopplung des erhöhten Wasserdampfs in der Atmosphäre hinzurechnen, und diese positive Rückkopplung erfolgt über den Faktor Temperatur selbst. Erhöht man die Temperatur, entsteht mehr Wasserdampf, was zu einer höheren Temperatur führt. Senkt man sie, sinkt der Wasserdampfgehalt, wodurch es noch kühler wird. Da der Rückkopplungs-Prozess die Temperatur selbst ist, sollte jede Störung der Temperatur, sei es durch Rinderblähungen oder Schmetterlingsflügel, diese Rückkopplung aufweisen.

Um die Auswirkungen der Rückkopplung auf eine simulierte Temperaturaufzeichnung zu untersuchen, habe ich einen simulierten Proportional-Integral-Differential-Regler (PID) an das Ende der SARIMA-Simulation angehängt. Ich habe jahrzehntelang mit PID-Reglern gearbeitet, als ich versuchte, die Temperaturen von Laborproben auf einen bestimmten SP einzustellen, und zwar für Temperaturen zwischen 10°K und 1700°K. Obwohl diese Temperaturbereiche oft ein nicht-lineares Verhalten zeigen und man meinen könnte, dass ein inhärent lineares Regelsystem nicht funktionieren würde, zerlegt man in der Praxis die Temperaturbereiche in kleinere, nahezu lineare Bereiche, in denen der Regler recht gut funktioniert. Hier gehe ich davon aus, dass Temperaturabweichungen innerhalb weniger Grad von einer globalen Temperatur von etwa 288°K für einen PID-Regler „linear genug“ sind.

Der „P“-Wert ist ein negativer Rückkopplungsbetrag, der die Reaktion auf der Grundlage der aktuellen Abweichung vom gewünschten SP linear skaliert. Der „I“-Wert wird verwendet, um kleine Fehler auszugleichen, indem die Differenz zwischen der tatsächlichen Temperatur und dem SP über die Zeit integriert wird. Der Parameter „D“ wird verwendet, um große Überschwinger zu dämpfen, indem die Ableitung der Annäherung an den SP betrachtet wird. Da Temperaturableitungen oft verrauscht sind, wird der Parameter D bei vielen gut funktionierenden Systemen häufig nicht benötigt. Positive Werte für P und I deuten auf eine Gegenkopplung hin. Wenn jemand von Ihnen einen hochwertigen Holzpelletgrill besitzt, dann haben auch Sie wahrscheinlich einen PID-Regler.

Für die Zwecke dieses Artikels habe ich nur die P- oder Proportionalsteuerung implementiert und die Parameter I und D auf Null belassen. Genauer gesagt, habe ich implementiert:

Man beachte, dass das SARIMA-Modell, das von diesem Punkt an fortschreitet, auch alle vorherigen Schritte, die aus dem SARIMA-Modell abgeleitet wurden, sowie jegliche Rückkopplung enthält.

Nur mal so wollte ich sehen, wie viel negative Rückkopplung nötig wäre, um das Random-Walk-Modell von Abb. 5c an einen SP von Null zu binden. Es stellte sich heraus, dass ein Wert von nur etwa 1×10-³ Grad pro Monat für P ausreicht, um das zufällig wandernde Biest zu zähmen. Allerdings ist eine gewisse negative Rückkopplung erforderlich, um zu verhindern, dass die Abweichung von einem Anfangswert von Null mit der Zeit monoton zunimmt.

Das Modell in Abb. 5b ist viel stärker mit dem SP einer Temperaturanomalie von null Grad verankert, und deshalb sollten wir erwarten, dass es viel mehr Rückkopplung braucht, um diese Art von Zeitreihe vom Fall ohne PID-Regelung wegzubringen. Das liegt daran, dass in diesem Modell bereits eine Menge negativer Rückkopplung eingebaut ist. Ich zeige die Ergebnisse der Untersuchung der Auswirkungen zusätzlicher proportionaler Rückkopplung in Abb. 7, in der die maximale Abweichung von Null für eine Reihe von 1000-Jahre-Simulationen dargestellt ist. Die Abweichungen sind als Standardabweichungen (sigma) skaliert, wobei die Standardabweichung bei Null-Rückkopplung etwa 0,1748 Grad beträgt. Ist P positiv, liegt eine negative Rückkopplung vor, ist es negativ, liegt eine positive Rückkopplung vor. Für den Fall der Null-Rückkopplung kann man für die 12.000 Monate der Simulation eine maximale Abweichung von etwa 4 Sigma erwarten. Mit zunehmender negativer Rückkopplung sinkt die maximale Abweichung auf etwa 3 Sigma.

Abbildung 7: Maximale Abweichung für simulierte 12.000-Monats- (1.000-Jahres-) SARIMA-Simulationen auf der Grundlage der Anpassung (2,0,0)x(2,0,0)12 an die HadCRUT5-Temperaturaufzeichnung 1850-1950 plus einer Rückkopplungskorrektur auf der Grundlage eines konstanten Sollwerts.

Abb. 7 veranschaulicht jedoch auch etwas, das Ihnen Ihre Mutter wahrscheinlich beigebracht hat: Zu viel von allem kann schlecht sein. Bei extremer negativer Rückkopplung tritt ein Phänomen auf, das oft als „Hunting“ bezeichnet wird, d. h. die extreme Rückkopplung beginnt zu überkorrigieren, was zu immer stärkeren Schwingungen führt. Bei positiver Rückkopplung, bei der jede Störung des Systems vergrößert wird, setzt dieses Verhalten sogar noch früher ein. Tatsächlich explodiert das System bei einem -P-Wert von mehr als 0,19 vollständig.

Schlussfolgerung

Daraus schließe ich, dass es keine sehr starke positive Temperaturrückkopplung innerhalb des Klimasystems geben kann, wenn die „normale“ oder vorindustrielle Temperaturaufzeichnung völlig flach ist. Es ist möglich, dass es eine verzögerte Auswirkung des Wasserdampfanstiegs aufgrund eines Temperaturanstiegs gibt, aber dies könnte mit dem Parameter „I“ eines PID-Reglers berücksichtigt werden. Dieser Parameter kann ebenso leicht zu Instabilitäten führen wie der Parameter P. Wenn die Atmosphäre über den Ozeanen im Durchschnitt um ein paar Zehntel Grad steigt, warum sollte es dann mehr als einen Monat dauern, bis der Wasserdampfanteil in der Atmosphäre steigt? Im Grunde will ich damit sagen, dass, wenn ein Anstieg von 1°K aufgrund eines Anstiegs des CO₂ tatsächlich zu einem Temperaturanstieg von 2°K aufgrund einer positiven Rückkopplung führt, jede Störung der Temperatur aus irgendeinem Grund aufgrund einer positiven Rückkopplung ebenfalls verstärkt werden sollte.

Natürlich kann ein Teil oder vielleicht sogar der größte Teil des „Rauschens“ in unserer bestehenden Temperaturaufzeichnung auf Messungen oder instrumentelles Rauschen zurückzuführen sein. Wenn das der Fall ist, dann ändert sich in dieser Geschichte nur die Größe der Komponente des weißen Rauschens. Die allgemeine Temperaturrückkopplung muss in jedem Klimamodell berücksichtigt werden, wenn man gleichzeitig die Gleichgewichts-Klimasensitivität von Kohlendioxid über den Mechanismus der positiven Temperaturrückkopplung erhöhen will.

Reference

Kaufman, D., McKay, N., Routson, C., Erb, M., Davis, B., Heiri, O., Jaccard, S., Tierney, J., Dätwyler, C., Axford, Y. and Brussel, T., 2020. A global database of Holocene paleotemperature records. Scientific data, 7(1), p.115.

Link: https://wattsupwiththat.com/2024/02/13/temperature-feedback-follies/

Übersetzt von Christian Freuer für das EIKE

 




Niederländischer Klimaexperte und emeritierter Professor Guus Berkhout: „Es gibt keinen Klimanotstand, er ist ein Schwindel“

Arthur Blok
Hat der Klima-Wahnsinn seinen Höhepunkt erreicht? Immer mehr wirkliche Klimaexperten wagen es, sich gegen den von Politikern, Bewegungen und den gefärbten Mainstream-Medien verbreiteten Diskurs der Angst zu stellen. Climate Intelligence (Clintel), eine globale Stiftung für Klimawandel und Klimapolitik, übernimmt die Führung mit ehrlicher Klimawissenschaft und versichert, dass es keinen Klimanotstand gibt. „Wir erzählen eine wahrheitsgetreue Geschichte, nicht nur eine Seite“, sagt der Clintel-Gründer und emeritierte Professor Guus Berkhout.

„Traurigerweise wird das, was von vergangenen Generationen sorgfältig aufgebaut wurde, jetzt durch die unheilvolle Klima- und grüne Energiepolitik schnell zerstört“, fügte Berkhout hinzu. „Die Bürger zahlen den Preis.“

Der niederländische Professor im Ruhestand, fast 84 Jahre alt und immer noch voller Energie erwartet, dass 2024 ein entscheidendes Jahr für das sein wird, was er als ehrliche Klimawissenschaft bezeichnet. Er wird sehr leidenschaftlich, wenn er gefragt wird, wie der sogenannte globale Klimanotstand in den Mainstream-Medien dargestellt wird.

Berkhout: „Am Klimawandel ist viel mehr dran als in den letzten Jahrzehnten berichtet wurde. Ihre Geschichte ist peinlich einseitig.“ Das Hauptziel von Clintel ist es, ein breites Wissen und Verständnis für die Ursachen und Auswirkungen des Klimawandels sowie für die Auswirkungen der Klimapolitik zu schaffen.

Nach seiner Gründung im Jahr 2019 veröffentlichte es die Weltklimaerklärung (WCD), die eine beeindruckende Liste von über 1850 Unterzeichnern weltweit aufweist, darunter Nobelpreisträger sowie führende Wissenschaftler und Klimaexperten.

Die WCD hält der wissenschaftlichen Welt einen Spiegel vor, die kühne Behauptungen aufgestellt und Untergangsszenarien über den vom Menschen verursachten Klimawandel und seine Folgen für die Welt präsentiert hat. In seiner Erklärung fordert Clintel, dass die Klimawissenschaft weniger politisch und die Klimapolitik mehr wissenschaftlich sein sollte.

Berkhout: „Wir versuchen, die ganze Geschichte zu erzählen. Und zwar nicht, weil es einer politischen Agenda entspricht oder weil uns jemand dafür bezahlt, sondern weil wir ehrliche Wissenschaftler sind. Die Wahrheit über den Klimawandel ist in den letzten 30 Jahren völlig aus den Angeln gehoben worden.“

Der niederländische Geophysiker betonte, dass er die Förderung der Nachhaltigkeit, den Erhalt der Artenvielfalt und die Pflege der Natur voll und ganz unterstütze. Aber es sollte auf eine vernünftige Art und Weise geschehen: „Viele Maßnahmen sind ideologisch und erreichen das Gegenteil.“

Berkhout weiß, wie sich die Räder in der Branche drehen. Während seiner beeindruckenden Karriere arbeitete der niederländische Wissenschaftler für die Öl- und Gasindustrie und als Professor an der Universität Delft. Ein großer Teil seiner Forschung wurde von geophysikalischen Unternehmen weltweit finanziert.

Er erklärte wiederholt, dass Klimawarnungen und -vorhersagen nicht auf einem wahrheitsgemäßen wissenschaftlichen Ansatz beruhen. „Auch wenn es so dargestellt wird“, sagte er. Wissenschaftler sollten die Annahmen und Unsicherheiten in ihren Prognosen zur globalen Erwärmung offen ansprechen. Die Politiker sollten nicht nur den vermeintlichen Nutzen, sondern auch die tatsächlichen Kosten ihrer politischen Maßnahmen nennen.

Berkhout: „Das Klimasystem ist sehr komplex, und wir wissen immer noch wenig darüber, wie es funktioniert. Falsche Wissenschaftler behaupten, dass ‚die Wissenschaft feststeht‘, aber ehrliche Wissenschaftler sagen das Gegenteil. Sie räumen ein, dass die derzeitigen theoretischen Modelle noch primitiv sind und nicht für die Klimapolitik verwendet werden dürfen. Mit anderen Worten: Die Klimamodelle sind nicht brauchbar!“

Die leidenschaftliche Art, mit der der emeritierte Professor spricht, ist geradezu ansteckend. Er ist entschlossen, mit seinem Team die Wahrheit aufzudecken, um der zukünftigen Generationen willen.

Er wiederholt: „Da man theoretischen Modellen nicht trauen kann, sollte sich die Klimawissenschaft in erster Linie auf Messungen stützen.“ Sein Leitmotiv lautet ‚Lasst die Daten sprechen‘. „Die meisten Klimawissenschaftler sind jedoch mehr an ihren Modellen als an Daten interessiert. Das sehen wir leider auch bei der UN-Forschungsorganisation IPPC.“

„Wie funktioniert die Wissenschaft des IPCC? Sie begannen vor 30 Jahren mit der Behauptung: Die globale Erwärmung wird durch den Anstieg des Kohlendioxids in der Atmosphäre (CO₂) verursacht.‘ Dann haben sie ein theoretisches Modell entwickelt, das ihre Behauptung bestätigt. Eine Vorgehensweise, die in der Wissenschaft eine Todsünde ist“, erklärte er.

In der echten Wissenschaft ist der Modus Operandi das Gegenteil. Berkhout: „Sie haben eine oder mehrere Hypothesen, die Sie überprüfen wollen? Dann vergleicht man Modellierungsergebnisse, so genannte synthetische Messungen, mit genauen Messungen. Entscheidend bei diesem Prozess ist, dass man nicht nach Messungen sucht, die die eigene Hypothese bestätigen, sondern nach Messungen, die die Hypothese widerlegen können! Das ist Wissenschaft auf den Punkt gebracht“.

Das Problem, erklärt Berkhout, geht noch viel weiter. Viele Klimaexperten trauen sich nicht, offen Kritik zu üben, weil sie fürchten, die Finanzierung des Instituts zu verlieren, für das sie arbeiten. Die Unterstützung für Clintel ist in dieser Hinsicht beispielhaft. Viele Wissenschaftler unterstützen seine Stiftung anonym, weil sie befürchten, dass ihre Arbeitgeber und Kollegen ihnen kündigen könnten.

Berkhout: „Hinter dem Klimawahnsinn steckt eine massive, durch Subventionen getriebene Maschinerie. Man wird als Wissenschaftler exkommuniziert, wenn man da nicht mitmacht. Clintel kämpft als David gegen Goliath“.

„Wir sind auf dem Weg in die Klimahölle, mit dem Fuß auf dem Gaspedal“, sagte (Goliath) Antonio Guterres letztes Jahr. Dies ist ein typisches Beispiel dafür, wie die Medien uns mit Untergangsgeschichten über das Klima Angst einjagen: steigende Meeresspiegel, Hurrikane und Überschwemmungen, Dürren und Waldbrände. Infolgedessen beschloss der Westen, für das Jahr 2050 das Ziel „Netto-Null“ anzustreben. Die Folgen sind verheerend, nicht nur für das Klima, sondern auch für unsere Gesellschaft.

Zum Beispiel steht die deutsche Wirtschaft wegen der hohen Energiepreise kurz vor dem Zusammenbruch. Die Landschaft wird durch industrielle Windkraftanlagen zerstört, die so hoch wie der Eifelturm sind. Wälder werden abgeholzt, das Holz wird verbrannt, und das soll angeblich „klimaneutral“ sein. Gleichzeitig werden unsere Kinder in der Schule und auf ihren Social-Media-Kanälen einer Gehirnwäsche unterzogen und leiden unter Klimaangst.

[Hervorhebung vom Übersetzer]

Berkhout hat jedoch eine sehr positive Botschaft. Die 1850 Wissenschaftler und Experten, welche die WCD unterzeichnet haben, stellen fest, dass es keinen Klimanotstand gibt! Außerdem sehen sie immer mehr Beweise dafür, dass andere Faktoren eine wesentlich wichtigere Rolle bei der globalen Erwärmung spielen als die CO₂-Moleküle. Sie sagen laut und deutlich, dass die Wissenschaft noch lange nicht abgeschlossen ist.

Die Entdeckungen müssen genutzt werden, um die aktuelle Klimapolitik zu aktualisieren. Die politischen Entscheidungsträger folgen jedoch weiterhin dem Angst erzeugenden CO₂-Narrativ des IPCC. Abgesehen von der Angstmacherei schadet dies der Energiewirtschaft. Sogenannte grüne Energiesysteme sind unzuverlässig, und die Preise für grüne Energie werden unerschwinglich. Berkhout: „Die Welt braucht fossile Brennstoffe noch mindestens einige Jahrzehnte. Zumindest die letzte Veranstaltung in Dubai war in dieser Hinsucht realistischer, denn dort wurde deutlich gemacht, dass wir jetzt und in der nächsten Generation einfach fossile Brennstoffe brauchen, um zu überleben. Das war die realistischste Schlussfolgerung aller bisherigen Gipfeltreffen“, fuhr Berkhout fort.

Er erwartet, dass 2024 ein spektakuläres Jahr wird, in dem ehrliche Klimawissenschaftler neue Erkenntnisse gewinnen, die Bürger den alarmistischen Geschichten über Klimakatastrophen keinen Glauben mehr schenken und unsere Jugend hoffnungsvoll in die Zukunft blickt. Gleichzeitig werden sich immer mehr Politiker mit der Einsicht anfreunden, dass die Wirtschaft ohne fossile Brennstoffe nicht überleben kann.

Die globale Erwärmung muss auch aus einer viel umfassenderen Perspektive betrachtet werden. Berkhout hat dafür eine sehr pragmatische Botschaft. Aus dem geologischen Archiv geht hervor, dass das Klima der Erde seit ihrem Bestehen Schwankungen unterworfen war, mit natürlichen Kalt- und Warmzeiten.

Die kleine Eiszeit endete erst um das Jahr 1800. Daher ist es nicht verwunderlich, dass wir jetzt eine Erwärmungsphase erleben. Aber diese Erwärmung wird zu Ende gehen, und wir werden wieder in eine kalte Phase übergehen. So verhält sich das Klimasystem der Erde seit Milliarden von Jahren, ob uns das gefällt oder nicht.

Berkhout: „Wir betrachten unser Klima jetzt durch ein Schlüsselloch. Die Erde ist Milliarden von Jahren alt. Aber was machen wir jetzt? Wir schauen auf, sagen wir, 200 Jahre. Das ist unglaublich kurz.“

Zusammenfassend lässt sich sagen, dass die Pseudo-Klimawissenschaft und ihre Untergangsverkünder von dem Molekül Kohlendioxid (CO₂) besessen sind. Eine zu hohe(?) CO₂-Konzentration in der Atmosphäre wird als Schuldige für alles angesehen. CO₂ wird in der Tat verteufelt.

Berkhout bezweifelt nicht, dass CO₂ eine erwärmende Wirkung hat, aber seine Forschungsergebnisse zeigen, dass diese sehr bescheiden ist. Andere Faktoren scheinen viel wichtiger zu sein.

Berkhout: „Wir pumpen jetzt jährlich Dutzende von Milliarden in dieses so genannte Problem, um es zu reduzieren, während CO₂ das Molekül des Lebens ist. Es wird als Nährstoff für alle Bäume und Pflanzen benötigt. Die gesamte Biologie der Erde wird von CO₂ angetrieben. Wenn der Prozentsatz zu niedrig wird, weniger als 150 ppm, wird fast alles Leben auf der Erde verschwinden. Wir brauchen mehr CO₂, um unseren Planeten grüner zu machen. Das ist die andere Seite der Geschichte: Nach Jahrzehnten der Pseudowissenschaft ist dies für viele eine unbequeme Wahrheit.“

Link: https://theliberum.com/dutch-climate-expert-emeritus-professor-guus-berkhout-there-is-no-climate-emergency-it-is-a-hoax/

Übersetzt von Christian Freuer für das EIKE

 




Der Betrug um einen Zusammenbruch der AMOC ist wieder da!

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Das ist der ganz normale Schwindel:

Die Zirkulation des Atlantischen Ozeans steuert auf einen Kipppunkt zu, der laut einer Studie „eine schlechte Nachricht für das Klimasystem und die Menschheit“ ist.

Die hinter der Studie stehenden Wissenschaftler sagten, sie seien schockiert über die prognostizierte Geschwindigkeit des Zusammenbruchs, wenn der Punkt erreicht ist, obwohl sie sagten, es sei noch nicht möglich vorherzusagen, wie schnell das geschehen wird.

Anhand von Computermodellen und Daten aus der Vergangenheit entwickelten die Forscher einen Frühwarnindikator für den Zusammenbruch der atlantischen meridionalen Umwälzzirkulation (Atlantic Meridional Overturning Circulation AMOC), eines riesigen Systems von Meeresströmungen, das eine Schlüsselkomponente des globalen Klimasystems darstellt.

Sie fanden heraus, dass die AMOC bereits auf dem Weg zu einer abrupten Verschiebung ist, die seit mehr als 10.000 Jahren nicht mehr stattgefunden hat und katastrophale Folgen für weite Teile der Welt haben würde.

Die AMOC, zu dem ein Teil des Golfstroms und andere starke Strömungen gehören, ist ein maritimes Förderband, das Wärme, Kohlenstoff und Nährstoffe aus den Tropen in Richtung Polarkreis transportiert, wo er abkühlt und in die Tiefsee sinkt. Diese Umwälzungen tragen dazu bei, die Energie auf der Erde zu verteilen und die Auswirkungen der vom Menschen verursachten globalen Erwärmung zu dämpfen:

In der Studie heißt es, die Ergebnisse lieferten eine „klare Antwort“ auf die Frage, ob eine solche abrupte Verschiebung möglich sei: „Das ist eine schlechte Nachricht für das Klimasystem und die Menschheit, denn bisher konnte man denken, dass das AMOC-Kippen nur ein theoretisches Konzept ist und es verschwinden würde, sobald das gesamte Klimasystem mit all seinen zusätzlichen Rückkopplungen berücksichtigt wird.“

Soweit der Auszug aus dem Guardian. Homewood weiter:

Wie viele andere Klimaschwindel basiert auch dieser auf Daten aus nur wenigen Jahren, aus denen die „Wissenschaftler“ schließen, dass sie katastrophale Veränderungen festgestellt haben, die es seit Jahrtausenden nicht gegeben hat.

Das Met Office gibt eine ausgewogenere Zusammenfassung:

Übersetzung:

Wie funktioniert die AMOC?

Die AMOC ist ein großes System von Meeresströmungen, das wie ein Förderband durch Unterschiede in der Temperatur und dem Salzgehalt – der Dichte des Wassers – angetrieben wird. Wenn warmes Wasser nach Norden fließt, kühlt es ab und es kommt zu einer gewissen Verdunstung, wodurch sich der Salzgehalt erhöht. Die niedrige Temperatur und der hohe Salzgehalt machen das Wasser dichter, und dieses dichte Wasser sinkt tief in den Ozean. Das kalte, dichte Wasser breitet sich langsam in Richtung Süden aus, mehrere Kilometer unter der Oberfläche. Schließlich wird es wieder an die Oberfläche gezogen und erwärmt sich in einem Prozess, der „Auftrieb“ genannt wird, und die Zirkulation ist abgeschlossen.

Dieser globale Prozess sorgt dafür, dass die Weltmeere ständig durchmischt sind und sich Wärme und Energie auf der Erde verteilen. Dies wiederum trägt zu dem Klima bei, das wir heute erleben.

Übersetzung:

Hat sich die AMOC verändert?

Ozeanographen haben die AMOC seit 2004 kontinuierlich gemessen. Die Messungen haben gezeigt, dass die AMOC von Jahr zu Jahr schwankt, und es ist wahrscheinlich, dass diese Schwankungen einen Einfluss auf das Wetter in UK haben. Es ist jedoch noch zu früh, um mit Sicherheit sagen zu können, ob es irgendwelche langfristigen Trends gibt. Vor 2004 wurde die AMOC nur wenige Male gemessen, und um weiter in die Vergangenheit zurückzugehen, müssen wir indirekte Beweise heranziehen (z. B. aus Sedimenten am Meeresboden). Die indirekten Belege stimmen nicht immer in allen Einzelheiten überein, aber es scheint wahrscheinlich, dass es in der Vergangenheit einige große, schnelle Veränderungen der AMOC gegeben hat (z. B. gegen Ende der letzten Eiszeit).

Übersetzung:

Wie wird sich der Klimawandel auf die AMOC auswirken?

Klimamodelle deuten darauf hin, dass sich die AMOC im Laufe des 21. Jahrhunderts abschwächen wird, da die Treibhausgase zunehmen. Denn wenn sich die Atmosphäre erwärmt, speichert der darunter liegende Ozean mehr von seiner Wärme. Durch die Zunahme der Niederschläge und der Eisschmelze wird das Wasser auch frischer. All diese Veränderungen machen das Ozeanwasser leichter und verringern so das Absinken im „Förderband“, was zu einer schwächeren AMOC führt. Es ist also sehr wahrscheinlich, dass die AMOC schwächer wird, aber es gilt als sehr unwahrscheinlich, dass es schon im 21. Jahrhundert dazu kommt.

Die Auswirkung einer schwächeren AMOC wird bei der Erstellung von Projektionen des zukünftigen Klimawandels für UK berücksichtigt. Eine schwächere AMOC wird weniger warmes Wasser nach Norden bringen, was die erwärmende Wirkung der Treibhausgase über Westeuropa teilweise ausgleichen wird. Bei der allmählichen Abschwächung, die im Laufe des 21. Jahrhunderts zu erwarten ist, ist der Gesamteffekt immer noch eine Erwärmung.

Link: https://www.metoffice.gov.uk/weather/learn-about/weather/oceans/amoc

Nicht dieser spezielle Satz:

Ozeanographen haben die AMOC seit 2004 kontinuierlich gemessen. Die Messungen haben gezeigt, dass die AMOC von Jahr zu Jahr schwankt, und es ist wahrscheinlich, dass diese Schwankungen einen Einfluss auf das Wetter in UK haben. Es ist jedoch noch zu früh, um mit Sicherheit sagen zu können, ob es irgendwelche langfristigen Trends gibt. Vor 2004 wurde die AMOC nur ein paar Mal gemessen.

Wir haben also nur Daten seit 2004, und die Schwankungen von Jahr zu Jahr sind groß. Die Behauptung, dass eine so kurze Reihe in irgendeiner Weise signifikant ist, ist nicht nur unwissenschaftlich, sondern auch betrügerisch.

Die Reihe zeigt Folgendes:

Es hat den Anschein, dass es seit etwa 2008 kaum einen Trend gibt.

Die Vorstellung, dass sich die AMOC vor 2004 nie verändert hat, ist ohnehin absurd. Bob Dickson & Svein Østerhus haben in ihrer Studie „One hundred years in the Norwegian Sea“ die wichtigsten klimatischen Veränderungen in der Norwegischen See und der übrigen Arktis dargelegt:

Alle waren mit Veränderungen in den atlantischen Strömungen und der AMOC verbunden. Die Erwärmung im Norden beispielsweise ist auf den Zustrom warmen atlantischen Meerwassers zurückzuführen, und zwar auf genau dieselbe Weise wie bei der jüngsten Erwärmung der Arktis. Wie das Met Office erklärt, verdunstet warmes Wasser und hinterlässt salzigeres Wasser, das sinkt, weil es dichter ist. Salzigeres Wasser gefriert natürlich bei niedrigeren Temperaturen, so dass das arktische Meereis tendenziell schrumpft. (Beachten Sie, dass beim Gefrieren das Salz aus dem Eis austritt, so dass das Meer in jedem Fall salziger wird).

Die auf die Erwärmung folgende große Salzgehalt-Anomalie (GSA) war das Ergebnis dieses Zustroms von wärmerem Wasser, das sich zum Teil aufgrund der nördlichen Luftströmung zurückzog:

Übersetzung:

Die große Salzgehalt-Anomalie 1968-1982

In den Wintern der 1960er Jahre entwickelte sich die Nordatlantische Oszillation (NAO), der führende Modus der winterlichen Luftdruckschwankungen in dem hier betrachteten Sektor, zu ihrem extrem niedrigen Indexzustand in einer instrumentellen atmosphärischen Aufzeichnung von über einem Jahrhundert Dauer (Hurrell 1995; Hoerling et al. 2001), möglicherweise sogar noch viel länger (z.B. Cook et al. 2002; Luterbacher et al. 2002). Da über Grönland weiterhin anomaler Hochdruck herrschte, stellte sich eine rekordverdächtige nördliche Luftströmung über die Norwegische See und die Grönlandsee hinweg ein und brachte einen zunehmenden Anteil an polarem Wasser nach Süden zu den Meeren nördlich von Island, wo der Ostgrönlandstrom anschwoll. Der Ost-Island-Strom, der von 1948-1963 eine eisfreie arktische Strömung gewesen war, wurde von 1965-1971 zu einer polaren Strömung, die Treibeis transportierte und konservierte (Malmberg 1969). Unterstützt durch die aktive Eisbildung unter diesen polaren Bedingungen breitete sich die ozeanische Polarfront weit nach Südosten aus, und das Meereis reichte bis an die Nord- und Ostküste Islands. – Quelle

Diese Wetterlagen sind ein wesentlicher Bestandteil der Arktischen Oszillation, eines weiteren vollkommen natürlichen Zyklus‘. Der anomal höhere Druck über Grönland markiert die Zeit der negativen AO:

Vom NSIDC:

Übersetzung:

Die Arktische Oszillation beeinflusst das Meereis hauptsächlich durch Wind, welcher Änderungen der Richtung bewirkt, in die das Treibeis strömt. Ist die arktische Oszillation negativ, tendieren Wind und Eis dazu, im Uhrzeigersinn zu rotieren, wobei allgemein das ältere, dickere Eis in der Mitte der Arktis gehalten wird. In der positiven Phase neigt dieses alte Eis dazu, entlang der Küsten von Grönland nach Süden zu treiben. Dies bedeutet, dass das Meereis dazu neigt, jünger und dünner zu sein und daher anfälliger für das Schmelzen ist als nach einem Winter mit einer stark positiven Arktischen Oszillation. – Quelle

Als kühleres polares Wasser das wärmere Atlantikwasser ersetzte, sank der Salzgehalt – daher der Name des Ereignisses. So wie sich das arktische Meereis während der Erwärmung zurückgezogen hatte, breitete es sich in dieser Zeit rasch aus. Die GSA war nicht nur ein Phänomen in der Norwegischen See, da der Polarwirbel dieses Süßwasser durch den gesamten Arktischen Ozean transportierte.

Ein weiterer Faktor, den Dickson und Osterhus für die Zunahme des Süßwassers im Arktischen Ozean verantwortlich machen, ist der zunehmende Abfluss der eurasischen Flüsse in das Meeresbecken. Ein wärmeres Klima bedeutet ein feuchteres Klima in diesen Regionen. Und mehr Flussabfluss führt zu mehr Meereis und einer kälteren Arktis.

Mit anderen Worten, diese Prozesse gleichen sich in der Regel selbst aus. Milderes Wetter führt schließlich zu mehr Meereis und einem kälteren Klima, bis die AO schließlich wieder ins Positive kippt.

Den letzten Kommentar überlasse ich Dickson & Osterhus:

All diese Veränderungen waren das Ergebnis natürlicher Prozesse. Es gibt keine Anzeichen dafür, dass sich diese in Zukunft ändern werden.

Link: https://wattsupwiththat.com/2024/02/12/amoc-to-collapse-scam-is-back/

Übersetzt von Christian Freuer für das EIKE