CLINTEL-Manifest wendet sich gegen Klima-Angstmache

CLINTEL ist eine rapide wachsende internationale Gruppe, geführt von prominenten Wissenschaftlern, welche die auf Lügen basierenden Versuche verurteilen, die Menschen zu überhasteten klimapolitischen Maßnahmen zu treiben. Sie wenden sich auch gegen die Terrorisierung von Kindern als Teil des falschen Klima-Alarms. CLINTEL hat kürzlich eine World Climate Declaration veröffentlicht, in welcher die Angstmache verurteilt wird, und dieses Manifest bietet detailliertes wissenschaftliches Hintergrundwissen für eine breite Öffentlichkeit. Autor des Manifestes ist Prof. Guus Berkhout, der Präsident von CLINTEL.

Der Schwerpunkt im Berkhout-Manifest liegt auf der Klima-bezogenen Modellierung, von der es sagt, dass sie „nicht zielführend“ [unfit for purpose] ist. Das Ziel in diesem Zusammenhang ist die Prognose des zukünftigen Klimawandels. Die Modellierung dominiert die Klimawissenschaft und liefert auch die ängstigenden Szenarien, welche ungemein teure und überaus schädliche politische Klimanotstands-Maßnahmen treibt. Dass die Modelle falsch sind ist ein sehr bedeutsames Ergebnis.

Das Manifest führt mindestens vier triftige Gründe an, warum die heutigen Modelle nichts taugen:

Erstens, die Modellierer haben nicht angemessen die vielen Faktoren eingehen lassen, von denen man weiß, dass sie tragende Rollen spielen, allen voran die natürliche Variabilität. Im Wesentlichen gehen alle Modelle schlicht und ergreifend davon aus, dass (fast) der gesamte Klimawandel menschlichen Aktivitäten geschuldet ist – eine völlig unbewiesene Hypothese.

Zweitens, die Prophezeiungen sind bis heute dramatisch zu warm im Vergleich zu tatsächlichen Satellitenmessungen. Es gab während der letzten 20 Jahre kaum eine Erwärmung, und diese scheint auch noch durchweg natürliche Ursachen zu haben. Die Modelle hingegen haben eine dramatische Erwärmung simuliert, die nie eingetreten ist. Nicht das Klima, sondern die Klima-Modellierer sind Quelle und Ursache der Panik.

Drittens, die Modelle berücksichtigen in keiner Weise historische Klimadaten. Es gibt eine immer umfangreicher werdende Liste von Studien, die zu dem Ergebnis kommen, dass die globale Temperatur nicht einmal ansatzweise so sensitiv auf vom Menschen erzeugtes CO2 reagiert wie die Modelle annehmen. Ironischerweise zeigen die jüngsten Modelle eine noch größere Sensitivität als ihre Vorgänger und entfernen sich damit noch weiter von den Beobachtungen. Die Modelle werden immer schlechter, nicht besser.

Auch können diese Modelle Perioden mit Erwärmung bzw. Abkühlung der Vergangenheit nicht erklären, wie etwa die Mittelalterliche Warmzeit MWP und die gerade erst zu Ende gegangene Kleine Eiszeit LIA. Falls wir Klimaänderungen der Vergangenheit nicht erklären können, die ausschließlich durch natürliche Sachen ausgelöst worden waren, können wir auch die Gegenwart nicht verstehen und schon gar nicht in die Zukunft schauen. Hierzu werden noch sehr viel mehr Daten und Forschungen benötigt. Unser Verständnis hinsichtlich der komplexen Natur von Klimawandel ist einfach viel zu unzureichend. Die Klimawissenschaft ist alles andere als settled.

Alle diese krassen Probleme mit den Modellen werden im Berkhout-Manifest gut und umfassend erklärt. Daraus geht hervor, dass man den gegenwärtigen Modellprojektionen einer gefährlichen zukünftigen Erwärmung und daraus resultierenden Naturkatastrophen nicht trauen kann. Sie sollten definitiv nicht als Grundlage dienen für eine viel Schaden anrichtende Klimapolitik in der Welt. Das Manifest bringt es kurz und knapp auf den Punkt: „Hört auf, irreführende Computermodelle heranzuziehen!“

CLINTEL konzentriert sich auch auf Kinder, welche durch den Klima-Alarmismus demoralisiert sind. Junge Menschen sind leicht durch Aktivisten zu beeinflussen, weil sie einfach nicht genug wissen, um sich dagegen wehren zu können. Außerdem werden Klimawandel und Umweltverschmutzung auf hoffnungslose Weise durcheinander geworfen. Um zu erklären, warum es KEINEN Klimanotstand gibt, schließt das Manifest mit einer „Botschaft an unsere Enkelkinder“. Der Kern dieser Botschaft lautet:

„Benehmt euch nicht wie Papageien! Seid kritisch gegen die vielen falschen Propheten, welche versuchen, euch zu missbrauchen und dass ihr euch gegen eure Eltern wendet! Was jene euch sagen ist einseitig und irreführend. Bitte, vertieft euer Wissen um Klima! Wenn ihr das macht, werdet ihr schnell erkennen, dass es KEINERLEI empirische Beweise gibt, die in irgendeiner Form auf eine Klimakrise hindeuten“.

Die Welt-Klima-Deklaration sagt im Grunde, dass die Klimapolitik, durchgeführt im Namen eines falschen Notstandes, nicht nur das globale Wirtschaftssystem auf gefährliche Weise unterminiert, sondern auch das Leben in Ländern gefährdet wird, denen man den Zugang zu zuverlässigem und bezahlbarem Strom verwehrt. Dieses CLINTEL-Manifest bietet die Wissenschaft, die zeigt, dass es keinen solchen Notstand gibt.

CLINTEL sandte jüngst einen Protestbrief an den Weltwirtschaftsgipfel in Davos. Darin findet sich die glasklare Botschaft: „Trotz hitziger politischer Rhetorik drängen wir alle Führer der Welt, die Realität zu akzeptieren, dass es keinen Klimanotstand gibt. Man hat noch viel Zeit, wissenschaftliche Fortschritte zu erreichen und damit unser Verständnis bzgl. Klimawandel weiter zu verbessern. Inzwischen sollten wir uns auf ANPASSUNG konzentrieren – die funktioniert immer, egal bei welchen Anlässen“.

Mehr: https://clintel.org und hier sowie auf diesem Video:

CLINTEL – Declaration to WEF

Autor: David Wojick , Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2020/01/29/clintel-manifesto-blasts-climate-scaremongering/

Übersetzt von Chris Frey EIKE




Offener Brief an Prof. Rahmstorf

Als hätten Sie nicht schon damit genug zu tun, kommen einfach so ein paar Leute daher stellen 16 „unschuldig anmutende Fragen.“, ob man mit dem Klimawandel nicht auch anders umgehen könne. https://www.klimafragen.org/ Wie kommen die überhaupt dazu, fragen Sie. Schließlich haben die Initiatoren und Unterzeichner keinen persönlichen Vorteil davon, sie müssen nicht ein Institut am Leben halten oder sich wie Politiker als „action heros“ gebären, warum also „verschwenden“ sie ihre Zeit, Kraft und Geld daran, die „Große Transformation“ des Landes zu hinterfragen?

Ob Sie es glauben oder nicht, aber diese Frage stellen wir uns auch manchmal. Warum tun wir uns dies an? Nur, um auch einmal ordentlich diffamiert zu werden? Vielleicht treibt uns die leise Hoffnung an, dass Intelligenz und Vernunft in unserem Land noch nicht völlig ausgestorben sind. Dann aber kommen wieder Zweifel hoch, insbesondere wenn man Beiträge wie den Ihren liest und feststellt, dass die einflussreichen Experten, auf deren Aussage hin wir unser Land umbauen sollen, offenbar nicht einmal sinnentnehmend lesen können. So steht für jedermann erkennbar folgender Satz am Anfang der Fragen:

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden?“

Die Tatsache, dass der Klimawandel als solcher unterstellt wird, erschließt sich zudem daraus, dass wir explizit nach möglichen positiven Effekten des Wandels fragen. Das setzt – na, was? Richtig, das setzt einen Wandel voraus.

Tatsächlich hatten wir erwartet, dass Wissenschaftler und auch Journalisten sowohl sinnentnehmend lesen können wie auch grundlegende logische Zusammenhänge verstehen. Wenn dem nicht so ist, dann …Nein, diesen Gedanken wollen wir gar nicht zu Ende denken.

Das Problem ist: So geht es in ihrem Beitrag weiter.

Sie behaupten, wir hätten den IPCC mit den Worten „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ falsch zitiert hätten.

Das habe er habe nicht gesagt, das wäre falsch übersetzt, außerdem habe er das, was er nicht sagte, so auch nicht gemeint, es handle sich um eine Fehlinterpretation. Im Übrigen habe sich der IPCC um die Probleme der „Restunschärfe“ der Modelle oder auch die „verbleibenden Unsicherheiten“ gekümmert.

Ja was denn nun? Hat er es so nicht gesagt, weil falsch übersetzt oder nicht gemeint? Wenn er es nicht sagte und nicht meinte, welche „Unsicherheiten“ und „Unschärfen“ gibt es dann überhaupt?

Geschrieben hat der IPCC folgendes:

In climate research and modelling we should recognize, that we are dealing with a coupled non linear chaotic system and therefore that the long-term prediction of future climate states is not possible.” (IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S. 774).

Also wurde der IPCC wortwörtlich richtig zitiert.

Im Folgesatz schreibt „Klimafragen.org“:

Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können.“

Im englischen Original heißt der Satz:

„The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions. This reduces climate change to the discernment of significant differences in the statistics of such ensembles.”

Wörtlich ins Deutsche übersetzt:

“Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen. Dies reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles.“

Nochmal: „… die Vorhersage der Wahrscheinlichkeitsverteilung… reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles“

Genau das hat „Klimafragen.org“ sinngemäß ausgedrückt und spricht von „keinerlei Vorhersagekraft“.

Also richtige Übersetzung und richtige Interpretation!

Ihr Einwand, dass der IPCC versucht hat, mit Simulationen, die auf unterschiedlichen Modellen auf der Grundlage unterschiedlicher Anfangsdaten beruhen, „die Unschärfe zu beschreiben“ stimmt. Und was ist das Ergebnis?

Auf S. 62 des „Technical Summary“ – Sie wissen schon, der Teil, den weder Politik noch Presse lesen – steht zum Thema:

Model Response Error

The discrepancy between simulated and observed GMST trends during 1998–2012 could be explained in part by a tendency for some CMIP5 models to simulate stronger warming in response to increases in greenhouse-gas concentration than is consistent with observations. ….

Another possible source of model error is the poor representation of water vapour in the upper atmosphere.

Das heißt, es gibt eine erhebliche Diskrepanz zwischen simulierter und gemessener globaler Durchschnittserwärmung (Global Mean Surface Warming -GMST), welche zum Teil durch die Tendenz einiger CMIP5 Modelle erklärt werden könnte, eine stärkere Erwärmung aufgrund von Treibhausgasen zu simulieren als sie den Beobachtungen entspricht. Also ist das mit der „Beschreibung der Unschärfe“ zwar sehr hübsch gelungen, nur beseitigt wurde sie nicht.

In Ihrem Beitrag findet sich der bemerkenswerter Satz: Und es ist offensichtlicher Unsinn, allein schon weil die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben – übrigens sogar die Firma Exxon im Jahr 1982.“ Damit wird die uneingeschränkte Tauglichkeit von Computermodellen für die Prognose zukünftiger Klimaentwicklungen behauptet – und dies nicht nur für den gegenwärtigen, vergleichsweise fortgeschrittenen Stand der Modellierung, sondern sogar für das vergangene halbe Jahrhundert. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Zur Kennzeichnung der gegenwärtigen Situation soll hier eine Grafik wiedergegeben werden, deren Urheber ein Klimatologe von unbestrittener Weltgeltung ist. Sie wurde dem Protokoll der Anhörung von John R. Christy, vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017 entnommen. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die Grafik 1 zeigt die Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen.

Die dicke rote Kurve ist deren Mittelwert. Im Vergleich dazu wurden in der dicken grünen Kurve die realen, durch Ballonmessungen gewonnen Daten eingetragen. Nicht nur die Unterschiede zwischen den Rechenergebnissen verschiedener Institute sondern vor allem die erhebliche Abweichung zwischen deren Mittelwert und dem realen Verlauf zeigen überdeutlich, dass von „korrekter Vorhersage“ keine Rede sein kann.

Das Anhörungsprotokoll enthält noch ein weiteres hochinteressantes Ergebnis: Temperaturprofile in den Tropen wurden vom IPCC zum einen unter Berücksichtigung des Treibhauseffektes modelliert und zum anderen ohne diesen Effekt. Während die ersteren keine Übereinstimmung mit den gemessenen Werten aufweisen, liegen die Messungen vollständig im Bereich der Modelle ohne Treibhauseffekt (Grafik 2).

Grafik 1 Quelle: J. R. Christy, Alabama Universität

Grafik 2 Quelle: J. R. Christy, Alabama Universität

Wie volatil die Prognosen des IPCC tatsächlich sind, zeigt auch ein Interview SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC , dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: Unser verbleibendes CO-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“

Das ist eine plötzliche Änderung der bis dahin vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent.

Ein anderer Auszug aus dem Interview ist ebenfalls bemerkenswert:

  • SPIEGEL: Warum wurde die Grenze für die Temperaturerhöhung von 2 Grad auf 1,5 Grad abgesenkt?
  • Prof. Marotzke: „Das kam auch für uns Klimaforscher überraschend.“
  • SPIEGEL: Haben wir es also eher mit politischen Grenzwerten zu tun, nicht mit wissenschaftlich begründeten?
  • Prof. Marotzke: „Ja, aber die Größenordnung ist physikalisch durchaus vernünftig.“

Und schließlich konterkariert auch eine weitere lesenswerte Darstellung der Probleme von Klimamodellierung durch einen ausgewiesenen Experten die Behauptung von der „exakten Vorhersage“. Sie findet sich in der SPIEGEL-Ausgabe vom 22. März 2019 und hat den Titel:

Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …. Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. … Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Das könnte nun daran liegen, dass das Weltklima nicht nur ein chaotisches, sondern sogar ein komplexes System ist, das sich mit Differentialgleichungen und anderen mathematischen Modellierungsverfahren gar nicht modellieren lässt. Daher können Klimamodelle bestenfalls die Vergangenheit erklären, aber nichts prädizieren, wie der IPCC zutreffend festgestellt hat.

Nun gibt es zwei Möglichkeiten:

Entweder, man sagt, der IPCC hat Unsinn erzählt und natürlich kann man komplexe Systeme exakt modellieren, alles gar kein Problem. Hier also die Frage an Sie, Herr Rahmstorf: Wollen Sie das behaupten?

Oder man erkennt an, dass der IPCC die Schwierigkeiten bezüglich der Vorhersagbarkeit zutreffend dargestellt hat. Dann allerdings muss unsere Frage 1 mit der Feststellung beantwortet werden, dass man die Einhaltung von Klimazielen nicht sicherstellen kann. Das aber wäre peinlich, oder?

Dann wird es richtig interessant: Der Jahrhundertsommer 2003 habe 70.000 Todesopfer gekostet, alles unmittelbare Folge des Klimawandels. Beweis einer Kausalität? Fehlanzeige. Und der naheliegende Gedanke an den ebenso einfachen wie lebensrettenden Einsatz von Klimaanlagen, der ohne große Transformation möglich wäre, ebenso Fehlanzeige.

Der Krieg in Syrien – klarer Fall, auch Klimawandel. Bei allem Respekt, aber so geht es nicht

Fazit ist: Sie haben viel geschrieben, aber nicht eine einzige Frage beantwortet.




Wird die Menschheit jemals eine CO2-Verdoppelung erreichen? Wahrscheinlich nicht

Introduction

Ich habe immer angenommen, dass wir uns auf dem Weg zu einer Verdoppelung der atmosphärischen CO2-Konzentration („2 X CO2“) befinden, wenn nicht sogar zu 3 X CO2 oder 4 X CO2. Schließlich steigen die CO2-Emissionen der Menschheit immer weiter, und selbst wenn diese Zunahme beendet ist, würde dann der atmosphärische CO2-Gehalt nicht noch weiter steigen?

Es stellt sich heraus, dass die Antwort „nein“ lautet.

Die Rate, mit welcher die Natur CO2 aus der Atmosphäre entfernt und was diese Rate steuert, das ist der ganze Unterschied.

Selbst wenn wir genau wüssten, welche zukünftigen CO2-Emissionen die Menschheit freisetzt, wird selten darüber diskutiert oder hinterfragt, wie viel davon Mutter Natur aus der Atmosphäre entfernt. Dies ist die Domäne von Modellen des globalen Kohlenstoff-Kreislaufes, von denen wir kaum einmal etwas hören. Wir hören von der Unwahrscheinlichkeit des RCP8.5-Szenarios (welches sich entwickelt hat von „Business as Usual“ über Worst Case zu unmöglich), wenig dagegen über die Art und Weise, wie jene CO2-Konzentrationen aus den CO2-Emissionsdaten abgeleitet werden können.

Also wollte ich mich dieser Frage annehmen. Welches ist das Best Estimate atmosphärischer CO2-Konzentrationen bis zum Ende dieses Jahrhunderts auf der Grundlage der jüngsten Schätzungen zukünftiger CO2-Emissionen unter Berücksichtigung der Größe des Anteils, welchen die Natur aus der Atmosphäre entfernt?

Da wir immer mehr CO2 freisetzen, steigt auch die Menge des CO2-Entzugs aus der Atmosphäre durch verschiedene biologische und geophysikalische Prozesse. Die Historie der Best Estimates der jährlichen anthropogenen CO2-Emissionen in Kombination mit dem beobachteten CO2-Anstieg am Mauna Loa sagt uns viel darüber, wie schnell die Natur sich an einen gestiegenen CO2-Gehalt anpasst.

Wie wir sehen werden, ist es sehr wahrscheinlich, dass selbst wenn wir weiterhin in großem Umfang CO2 emittieren sich das CO2-Niveau in der Atmosphäre stabilisieren kann.

Die Projektion der EIA einer Zunahme der Energie-basierten CO2-Emissionen um 0,6% pro Jahr nehme ich als Grundlage der Projektion des zukünftigen atmosphärischen CO2-Gehaltes. Ich werde zeigen, wie sich dieses Emissions-Szenario mittels eines einfachen atmosphärischen CO2-Budget-Modells, kalibriert mit den Mauna Loa-Daten auf den Gehalt in der Atmosphäre übertragen lässt. Und wir werden sehen dass die verbleibende Menge von CO2 in der Atmosphäre überraschend gering ist.

Eine Bewertung des CO2-Budget-Modells

Ich habe kürzlich ein einfaches, zeitabhängiges CO2-Budget-Modell der globalen CO2-Konzentration vorgestellt, in welches 1) jährliche anthropogene CO2-Emissionen und 2) die zentrale Annahme (gestützt durch die Mauna Loa-Daten) eingehen, dass die Natur selbst CO2 aus der Atmosphäre entfernt mit einer Rate im direkten Verhältnis dazu, wie hoch der atmosphärische CO2-Gehalt über einem bestimmten natürlichen Niveau liegt, an das sich das System anzupassen versucht.

Wie in meinem früheren Beitrag beschrieben, führte ich auch einen empirischen El Nino/La Nina-Term ein, da El Nino assoziiert ist mit einer höheren CO2-Konzentration und umgekehrt bei La Nina. Dies berücksichtigt die geringen Fluktuationen von Jahr zu Jahr aufgrund der ENSO-Aktivität, hat aber keinen Einfluss auf das langzeitliche Verhalten des Modells.

Das Modell wird initialisiert im Jahre 1750 aufgrund der Schätzungen von Boden et al. (2017) der jährlichen anthropogenenCO2-Emissionen und passt exzellent zu den Mauna Loa-Daten unter der Annahme eines Hintergrund-CO2-Niveaus von 295 ppm und einer natürlichen Rate der Entfernung von 2,33% pro Jahr des atmosphärischen Überschusses jenseits dieser Grundlinie.

Hier folgt das resultierende Fit des Modells zu den Mauna Loa-Daten mit allgemein ausgezeichneten Ergebnissen. (Man glaubt, dass die Reduktion des atmosphärischen CO2-Gehaltes nach dem Pinatubo-Ausbruch einer gesteigerten Photosynthese geschuldet ist infolge einer zunehmenden Diffusion des in Wälder einfallenden Sonnenlichtes wegen der vulkanischen Aerosole):

Abbildung 1: Kalibriertes CO2-Budget-Modell im Vergleich zu den CO2-Messungen am Mauna Loa. Das Modell läuft mit den Schätzungen von Boden et al. (2017) der jährlichen anthropogenen CO2-Emissionen und entfernt den Überschuss des CO2-Gehaltes über einem Grundwert.

Das Modell berücksichtigt sogar den allmählich zunehmenden Trend der offensichtlich jährlichen fraktionalen Entfernung von CO2.

Abbildung 2: Jährlicher Anteil anthropogener Emissionen, der von der Natur offensichtlich aus der Atmosphäre entfernt wird. Rot: Mauna Loa-Messungen, blau: Modellergebnisse.

Modellprojektionen des zukünftigen atmosphärischen CO2-Gehaltes

Ich ließ das Modell mit den folgenden Beiden Annahmen zukünftiger Szenarien laufen:

1) Die EIA-Projektion einer Zunahme der Emissionen um 0,6% pro Jahr bis zum Jahr 2050 und

2) konstante Emissionen nach dem Jahr 2050.

Die resultierende CO2-Konzentration zeigt Abbildung 3 zusammen mit den CO2-Konzentrations-Szenarien RCP2.6, RCP4.5, RCP6.0 und RCP8.5, welche in die CMIP5-Klimamodelle eingehen:

Abbildung 3: CO2-Modellprojektion des atmosphärischen CO2-Gehaltes aufgrund der EIA-Schätzungen der Zunahme von CO2-Emissionen bis zum Jahr 2050, gefolgt von konstanten Emissionen danach.

Interessanterweise kommt das Modell mit diesen ziemlich sinnvollen Annahmen von CO2-Emissionen nicht einmal in die Nähe einer CO2-Verdoppelung in der Luft. Es simuliert eine Gleichgewichts-CO2-Konzentration von 541 ppm im Jahre 2240.

Diskussion

Meiner Erfahrung nach wird der Haupt-Kritikpunkt dieses Modells sein, dass es „zu einfach“ und daher möglicherweise unrichtig ist. Aber ich möchte die Leserschaft auffordern, selbst darüber zu befinden, wie gut das einfache Modell 60 Jahre von CO2-Messungen abbildet (Abbildungen 1 & 2).

Auch möchte ich die falschen Prophezeiungen von vor vielen Jahren in Erinnerung rufen seitens der Modellierer des globalen Kohlenstoff-Kreislaufes, wonach das System Erde mit so viel CO2 in der Luft nicht fertig werden kann und dass der Anteil, der mit der Zeit wieder entfernt wird, abzunehmen beginnt. Wie Abbildung 2 oben zeigt, war das nicht der Fall. Vielleicht, wenn es um Photosynthese geht, erzeugt mehr Leben immer noch mehr Leben, was zu einer allmählich zunehmenden Fähigkeit der Biosphäre führt, überschüssiges CO2 aus der Atmosphäre zu entfernen.

Angesichts der großen Unsicherheiten, wie der globale Kohlenstoff-Kreislauf auf mehr CO2 in der Atmosphäre reagiert, ist es absolut sinnvoll zu hypothetisieren, dass die Rate, mit welcher Ozean und Festland CO2 aus der Atmosphäre entfernen, einfach proportional zur atmosphärischen Konzentration über einer bestimmten Grundlinie ist. Diese einfache Hypothese impliziert nicht notwendigerweise, dass die Prozesse der Kontrolle von CO2-Quellen und -Senken ebenfalls einfach sind, sondern nur, dass die globale Gesamtrate der Entfernung atmosphärischen CO2 in sehr einfacher Form parametrisiert werden kann.

Die Mauna Loa-Daten stützen diese Hypothese eindeutig (Abbildungen 1 & 2). Und das Ergebnis ist, dass auf der Grundlage der jüngsten zukünftigen CO2-Projektionen die zukünftigen Konzentrationen nicht nur deutlich unter dem RCP8.5-Szenario liegen, sondern auch noch unter dem RCP4.5-Szenario, wobei die atmosphärische CO2-Konzentration nicht einmal eine Verdoppelung (560 ppm) des vorindustriellen Niveaus (280 ppm) erreichen wird. Dieses Ergebnis zeigt sich sogar ohne zukünftige Reduktionen von CO2-Emssionen, was möglich ist, wenn neue Technologien verfügbar werden.

Ich denke, dass dies einer Diskussion genauso würdig ist wie die Unmöglichkeit des RCP8.5-Szenarios. Und es erhebt sich die Frage, wie gut die Kohlenstoff-Kreislauf-Modelle wirklich sind.

Link: https://wattsupwiththat.com/2020/02/02/will-humanity-ever-reach-2xco2-possibly-not/

Übersetzt von Chris Frey EIKE




The Solution To Dissolution

Sie beginnt so:

Der steigende Säuregehalt des Pazifiks führt dazu, dass sich die Schalen des Pazifischen Taschenkrebses [Dungeness crab] auflösen.

Die Versauerung macht die Schalen der Larven dieser Krebse verwundbarer gegenüber Raubtieren und limitiert die Effektivität zum Wachstum der Muskeln.

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Sieht aus, als wäre das Ende der Zeiten gekommen, oder? Also möchte ich gleich zu Beginn ein simples Faktum nennen: Der Ozean ist NICHT sauer! Und das wird er auch nie werden, außer vielleicht an ein paar isolierten Stellen. Er ist alkalisch. Das Niveau von sauer/alkalisch wird mit der pH-Skala ausgedrückt. Auf dieser ist 7.0 neutral, 7 bis 14 alkalisch und 0 bis 7 sauer. [Siehe Abbildung 1 ganz oben! Hier noch einmal, weil sie oben nicht vollständig gezeigt wird:]

Aus der Graphik geht ein pH-Wert um 8 der Ozeane hervor (allerdings, wie wir sehen werden, verdeckt das erhebliche Variationen).

Und dem zufolge, was ich in der High School in Chemie über chemische Analyseverfahren gelernt habe weiß ich, dass wenn man einer basischen Lösung etwas Säure hinzufügt – oder auch umgekehrt – das aus einem einfachen Grund „Neutralisierung“ genannt wird, bewegt sich doch die Lösung in Richtung neutral.

Wenn sich Kohlendioxid im Regen- oder Ozeanwasser löst, entsteht eine schwache Säure. Fügt man diese schwache Säure dem Ozean hinzu, wird dieser leicht etwas neutralisiert. Um wie viel? Nun, falls man den Modellen Glauben schenken will, bewegt sich der pH-Wert der Ozeane bis zum Jahr 2100 von derzeit 8 auf etwa 7,92. Mit anderen Worten, eine schwache Neutralisierung.

Warum aber ist dann andauernd von „Ozean-Versauerung“ die Rede und nicht von „Ozean-Neutralisierung“? Traurige Antwort: weil „Versauerung“ viel beängstigender klingt. Das kann man in obigen Ausführungen erkennen, wo es heißt:

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nun, nein! Das kann falscher nicht sein. Der Ozean ist nicht im Geringsten sauer. Er ist lediglich etwas weniger alkalisch. Die Verwendung des Terminus‘ „Versauerung“ anstatt „Neutralisierung“ soll uns davon überzeugen, dass das Unmögliche passiert. Man stelle sich einmal vor, die Aussage oben würde lauten

Der Pazifische Ozean wird so neutralisiert, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nanu? Der Pazifische Ozean wird so neutral, dass sich Dinge aufzulösen beginnen? Wie bitte?

Der Alarmismus dreht durch.

Und noch etwas ist wichtig hinsichtlich des pH-Wertes. Lebewesen kommen mit sauren Substanzen wesentlich besser zurecht als es bei uns mit alkalischen Substanzen der Fall ist. Man betrachte noch einmal Abbildung 1 oben. Wir konsumieren regelmäßig ziemlich saure Sachen. Weintrauben und Orangensaft hat einen pH-Wert von etwa 3. Zitronensaft hat einen pH-Wert von zwei, sehr sauer, fünf pH-Einheiten unter neutral. Und bei sechs Einheiten unter neutral mit einem pH-Wert von nur eins – ist unsere eigene Magensäure.

Aber wir essen nicht viel, das alkalischer ist als ein pH-Wert von etwa 10, wie Kohl, Brokkoli und Artischocken. Und während unsere Mägen einen pH-Wert von 1 mühelos tolerieren, werden wir übel verätzt durch Bleiche am entgegen gesetzten Ende der pH-Skala.

Und jetzt zum erforderlichen Vorbehalt (Disclaimer). Für dieses Thema habe ich ein persönliches Interesse und eine persönliche Leidenschaft. Ich lebe an der Westküste der USA in genau dem Gebiet, um das es hier geht, und ich habe in diesen Gewässern seit Jahren kommerziell geangelt. Daher weiß ich Einiges über lokale ozeanische Ökosysteme.

Damit als Prolog nun zurück zu der Panikmache im Guardian-Artikel. Dieser basiert auf einer wissenschaftlichen Studie mit dem Titel [von Google übersetzt] „Exoskelett-Auflösung mit Mechanorezeptor-Schäden bei der Larve der Dungeness-Krabbe im Zusammenhang mit dem Schweregrad der heutigen vertikalen Gradienten der Ozeanversauerung“ [Link zum Original hier] … die „Ozean-Versauerung“ (OA) schlägt wieder zu. Auszug aus dem Abstract:

Die Ozean-Versauerung (OA) entlang der US-Ostküste intensiviert sich schneller als im globalen Ozean beobachtet. Dies gilt vor allem in küstennahen Regionen (<200 m), die eine geringere Puffer-Kapazität aufweisen und gleichzeitig wichtige Lebensräume für ökologisch und wirtschaftlich bedeutende Arten bieten.

Nun kann ich nirgendwo in der Studie irgendeine Referenz für den Gedanken entdecken, dass die US-Westküste irgendwie schneller versauert als der globale Ozean. Tatsächlich haben wir kaum pH-Daten aus dem globalen Ozean.

Aber ein paar Daten haben wir doch. Eine höchst informative Graphik zeigt einen Ausschnitt des Ozeans von der Oberfläche bis zum Grund und von Hawaii bis nach Alaska. Im Verlauf von 15 Jahren sind Wissenschaftler immer wieder diese Route entlang gefahren, wobei sie periodisch den pH-Wert von der Oberfläche bis zum Grund maßen. Dazu habe ich in meinem Beitrag mit dem Titel „The Electric Oceanic Acid Test“ schon etwas geschrieben. Hier folgt dieser Ozean-Querschnitt mit dessen Original-Bildinschrift:

Abbildung 2. Der Einschub links unten zeigt das Untersuchungsgebiet. Quelle

Nun gibt es hinsichtlich dieser Graphik mehrere faszinierende Phänomene. Das erste ist die große Bandbreite der pH-Werte im Ozean. Wir neigen zu der Annahme, dass der pH-Wert überall in etwa gleich ist, aber nichts könnte weiter von der Wahrheit entfernt sein. Um Hawaii (in der Graphik oben links) beträgt der pH-Wert 8,5. Aber ein paar hundert Meter unter der Oberfläche vor der Küste Alaskas (oben rechts) beträgt dieser Wert 7,25. Dieser pH ist das, was hysterische Wissenschaftler und der Guardian als „SEHR VIEL SAURER“ bezeichnen, aber die richtige Beschreibung wäre „neutraler“.

Und weiter – wo befinden sich die meisten Lebewesen in dieser Graphik? Nun, genau vor der Küste Alaskas, in meinen alten Fischgründen, die angefüllt sind mit Plankton, Heringen, Lachsen, Flundern, Walen und allen Arten maritimer Lebensformen überhaupt. Sie alle florieren in jenen „SEHR VIEL SAUREREN“, d.h. „neutraleren“ Ozeanwassern.

Und schließlich gedeiht Meeresleben unter allen pH-Werten in der Graphik. Es gibt Fische und andere Meereslebewesen bei jedem pH-Niveau und in jedem von der Graphik abgedeckten Gebiet, von oben bis unten und von Hawaii bis nach Alaska. Sie sind nicht gefesselt an einen schmalen Bereich, wo sie sterben werden, wenn sich der pH-Wert auch nur um eine Zehnteleinheit im Verlauf von einhundert Jahren ändert.

Also bitte – können wir uns jetzt nicht einmal von diesem Gedanken verabschieden, wonach eine geringe, allmähliche Neutralisierung jede arme Kreatur im Ozean töten würde? Alkalinität ist ein Problem für Lebewesen im Meer, nicht Versauerung. Darum sind so viele dieser Lebewesen überzogen von einer Schleimschicht – um sich nämlich vor dem alkalischen Seewasser zu schützen.

Aber weiter. Ich habe schon zuvor etwas über pH-Messungen geschrieben, und zwar am Einsaugloch des Rohres zum Monterey Bay Aquarium in einem Beitrag mit dem Titel „A Neutral View of Oceanic pH“. In jenem Beitrag wurde offensichtlich, dass der langfristige pH-Trend an jener Stelle geringer war als an der Tiefwasserstelle vor Hawaii. Hier die Graphik aus jenem Beitrag, welche die Differenz zeigt:

Abbildung 3: Oberfächen-pH-Messungen im offenen Ozean (HOT) und an der Küste der Monterey Bay. Die Hawaii-Daten zeigen sowohl gemessene pH-Werte (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöst in anorganischem Kohlenstoff (DIC), totaler Alkalinität und Salinität. Man erkennt die höheren pH-Werte um Hawaii, die schon in der vorigen Abbildung hervortraten.

Traurigerweise ist die Website mit dem pH-Datensatz aus der Monterey Bay zu irgendeiner unbekannten japanischen Website geworden. Glücklicherweise habe ich die Daten aber gespeichert. Und ich vermochte sogar weitere pH-Daten aufzufinden in eine Zeitreihe direkt nach dem Ende meiner alten Daten. Allerdings scheint die Kalibrierung der pH-Messfühler in dem neuen Datensatz etwas verändert. Ich habe beide Datensätze in einer Graphik erfasst mit separaten linearen Trendverläufen in beiden Datensätzen:

Abbildung 4: 25 Jahre monatlicher mittlerer pH-Messungen an der Einsaugpumpe, wo 9,5 Millionen Liter Meerwasser pro Tag in das Monterey Bay Aquarium strömen. Zwei separate Datensätze wurden betrachtet. Der Einsaugstutzen befindet sich 15 Meter unter der Wasseroberfläche. Die Größenordnung des projizierten pH-Rückgangs bis zum Jahr 2100 unter dem RCP6.0-Szenario ist dargestellt durch die senkrechten Striche in weiß oben rechts.

Der neutrale pH-Wert von 7,0 findet sich unten, unter den Daten. Man beachte, dass der langzeitliche Trend des mittleren pH-Wertes des Wassers in beiden Datensätzen in etwa gleich ist und dass der Trend ziemlich gering ist im Vergleich zu der projizierten leichten Neutralisierung bis zum Jahr 2100.

Und noch wesentlicher: jene projizierte pH-Abnahme von 0,08 pH-Einheiten bis zum Jahr 2100 wird marginalisiert durch den Tagesgang der pH-Werte. Die Standardabweichung der täglichen pH-Änderung beträgt 0,6 Einheiten, diejenige der monatlichen Änderung 0,1 Einheiten.

Warum ändert sich der pH-Wert an der US-Westküste so rasch? Das hat alles zu tun mit aufwallendem Wasser vor der Küste. Wechselnde Winde entlang der Küste sorgen dafür, dass kaltes, CO2-reiches und neutraleres Tiefenwasser in unterschiedlicher Menge an die Oberfläche gelangt, was den pH-Wert buchstäblich sich über Nacht ändern lässt.

Abbildung 5: Die mechanische Auswirkung der Nordwinde entlang der US-Westküste sorgt für aufwallendes Tiefenwasser, reich an CO2-Gehalt und neutraler. Quelle: NOAA

Und dieser sich fortwährend ändernde pH-Wert ist es, der diese Behauptungen über ozeanische Lebewesen, die so furchtbar unter trivial geringen Änderungen des pH-Wertes leiden, total unglaubwürdig erscheinen lässt. Jedes Lebewesen im Ozean entlang dieser Küste erlebt Tag für Tag viel stärkere pH-Änderungen als sie im Verlauf des Jahrhunderts erleben werden.

Es gibt noch einen weiteren Datensatz, den ich hierzu noch hinzufügen muss, bevor ich auf die Studie selbst eingehe. Die Studie selbst befasst sich mit einem Gebiet nahe Seattle. Wie also verhält sich der ozeanische pH-Wert ebendort?

Es stellt sich heraus, dass es sehr schwierig ist, langzeitliche pH-Messungen aus jenem Gebiet zu finden. Die besten, die ich finden konnte, war eine unterbrochene Reihe von Messungen einer Boje vor der Küste von Washington State nahe einer Meerenge – ein wunderschönes Fleckchen unseres Planeten, das ich vor einiger Zeit besucht hatte. Die La Push buoy befindet sich hier:

Abbildung 6: Das gelbe Quadrat kennzeichnet die Stelle der „La Push-Boje. Die Meerenge ist der blaue, landeinwärts gerichtete Kanal. Die Städte Seattle und Tacoma befinden sich am inneren Ende der Meerenge. Vancouver Island in Kanada liegt nördlich derselben.

Es sieht so aus, dass die Boje geborgen wird, wenn das Wetter sehr rauh ist, weil weil es in jedem Winter eine Datenlücke gibt. Hier sind die Daten dieser Boje dargestellt, und zwar mit der gleichen Skala wie die Monterey-Daten oben:

Abbildung 7: Tägliche Aufzeichnungen von der Wasseroberfläche der La Push-Boje vor der Küste von Washington State. Im Hintergrund sieht man eine Insel nahe der Boje.

Und wieder erkennt man die gleiche Situation. Die pH-Änderungen sind viel größer als die projizierte Änderung von heute bis zum Jahr 2100. Und während ich die Trendlinie wegen der vielen Datenlücken nicht überbewerten möchte, ist es gut möglich, dass der Trend tatsächlich etwas alkalischer wird.

Wie kann das sein? Man erinnere sich, die pH-Schwingungen entlang dieser Küste und der mittlere pH-Wert selbst sind keine direkten Funktionen des CO2-Niveaus. Stattdessen werden sie gesteuert durch die unbeständige und mittlere Windstärke. Ist es windiger, wallt mehr neutraleres Tiefenwasser auf und erniedrigen den Oberflächen-pH – und umgekehrt.

Und falls jemand denkt, dass derartige pH-Schwingungen auf diese Küste beschränkt sind, der betrachte einige Daten aus der ganzen Welt:

Abbildung 8: pH-Werte nebst deren Variationen in verschiedenen ozeanische Ökosystemen. Horizontale Strecken (schwarz) zeigen die Bandbreite der pH-Werte. Das Ausmaß der erwarteten leichten Neutralisierung bis zum Jahr 2100 nach dem RCP6.0-Szenario repräsentieren die roten Strecken oben. Die Ischia South Zone, wo die niedrigsten pH-Werte auftreten, liegt neben einem Vulkan, in dessen Umfeld ständig CO2 aus dem Ozeanboden ausgast. Datenquelle

Schließen möchte ich mit einem Blick auf die Studie selbst, zumindest solange ich es ertragen kann. Ich möchte einige Zitate hervorheben. In der ersten Zeile ihrer „Höhepunkte“ liest man:

Küstennahe Habitate mit den steilsten vertikalen Gradienten der Ozean-Versauerung sind dem Zustand der Krebslarven absolut abträglich.

Nun gibt es so etwas wie einen „vertikalen Gradienten der Ozean-Versauerung“ nicht. Es gibt einen vertikalen pH-Gradienten, wie man es auch erwarten kann mit dem Aufwallen von CO2-reichem Tiefenwasser, welches das alkalischere Oberflächenwasser mit weniger CO2 erreicht. Aber dies ist ein natürlicher Umstand, wie er schon immer vorhanden war und nichts mit Ozean-Versauerung OA zu tun hat. Und es werden auch keinerlei Beweise geliefert, welche zeigen, dass sich der Gradient in Zukunft markant ändern wird.

In ihren Conclusions schreiben sie:

Wie die Auflösung bei Pteropoden ist das bei der Dungeness-Krabbe beobachtete Larvensterben ein klarer Beweis dafür, dass wirbellose Meerestiere in ihrer natürlichen Umgebung durch eine längere Exposition gegenüber starken, heutigen OA-bezogenen vertikalen Gradienten geschädigt werden.

[Ausnahmsweise übersetzt mit Linguee-Translator. Anm. d. Übers.]

Allerdings bringen sie auch hier keine Beweise dafür, dass eine „OA“ oder eine milde ozeanische Neutralisierung in der Vergangenheit irgendwelche Auswirkungen auf die „vertikalen Gradienten in der natürlichen Umgebung“ hatten. Die vertikalen pH-Gradienten vor der Küste sind eine Funktion des Aufwallens, was wiederum eine Funktion des Windes ist, der sich permanent ändert. Sie haben keine langzeitlichen Daten für den vertikalen pH-Gradienten. Stattdessen begaben sie sich auf eine zweimonatige Reise, nahmen einige Wasserproben und extrapolierten bis zum Anschlag. Wir wissen nicht einmal, ob sie die genau gleiche „Auflösung“ [dissolution] vor 100, 50 oder 25 Jahren gefunden haben. Oder vielleicht war die Auflösung besonders schlecht während dieses speziellen Zeitraumes von zwei Monaten in diesem speziellen kleinen Gebiet. Das sollte uns nicht überraschen. Ein Grund, warum so viele maritime Lebewesen Hunderttausende Larven hervorbringen ist, dass viele, vielleicht die meisten davon, in feindliche Umgebungen treiben und aus irgendwelchen Gründen sterben – die Liste dieser Gründe ist lang: Probleme mit dem Salzgehalt, Trübung, pH-Wert, Raubtiere, Wassertemperatur und andere.

Und schließlich belegt diese Studie eines – dass nämlich Neptun, der einen Dreizack schwingende Meergott, definitiv einen Sinn für Humor hat. Die ultimative Ironie ist Folgende:

Sie konnten die Teile der Krebslarve gar nicht sehen, welche sie untersuchen wollten, weil jene Teile der Larven von einer Schale umgeben sind. Also mussten sie zunächst diese Schale auflösen, um Zugang zu ihrem Studienobjekt zu erlangen. Sie beschreiben dieses Problem und dessen Lösung so:

Die Schuppen der Schale, welche normalerweise über der kristallinen Schicht liegen und Beobachtungen der Auflösung unmöglich machen, wurden vor der Analyse von jeder Larve entfernt, und zwar mittels Chlorbleichlauge [sodium hypochlorite], welches die Schalen effektiv beseitige, nicht aber die kristallinen Schichten darunter, auch nicht bei hohen Konzentrationen.

Dreimal darf geraten werden, welche Auswirkung die 6%-Lösung der Chlorbleichlauge auf den pH-Wert hat, die sie angewendet haben.

Es hat einen pH-Wert von 11 oder mehr und liegt damit fast ganz oben der Skala in Abbildung 1, ist also sehr stark alkalisch.

Kein Wunder also, dass Neptun in Gelächter ausbricht – sie sind in höchster Alarmbereitschaft hinsichtlich „Versauerung“ und Auswirkungen derselben auf die Auflösung der Larvenschalen … aber sie gebrauchen eine alkalische Lösung, um die Larvenschalen tatsächlich aufzulösen.

Ist Wissenschaft nicht etwas Wunderbares?

Link: https://wattsupwiththat.com/2020/01/31/the-solution-to-dissolution/

Übersetzt von Chris Frey EIKE




Wissenschaftler geteilter Meinung bzgl. der Auswirkungen des solaren Minimums auf die Temperatur

Die Kältewellen – verursacht durch das Eintreten der Sonne in einen natürlichen „Ruhezustand“ – drohen Nahrungsmittel verknappen zu lassen, wenn die Temperaturen weltweit sinken, sagen Experten.

Die Erde steht vor einem solaren Minimum: also vor einer ruhigen Phase, in welcher die Sonne weniger Energie – oder Wärme – auf unseren Planeten abstrahlt als normal. Der NASA zufolge wird die Sonne im Jahre 2020 ihre geringste Aktivität seit 200 Jahren aufweisen.

Dies könnte zu einem Rückgang der mittleren Temperatur um bis zu 1°C führen während einer 12 Monate anhaltenden Kältewelle. Das sagt die Expertin Valentina Zharkova von der Northumbria University. Das mag nach nicht viel klingen, aber ein ganzes Grad ist sehr signifikant hinsichtlich der mittleren globalen Temperatur.

„Die Sonne nähert sich einer Periode des Ruhezustands“, sagte Prof. Zharkova, die schon viele Studien zu solaren Minima veröffentlicht hat. „Weniger Sonnenflecken bilden sich auf der Sonnenoberfläche, und weniger Energie und Strahlung wird Richtung Planeten und die Erde emittiert“.

Solare Minima sind Teil des natürlichen Lebenszyklus‘ der Sonne und kommen alle 11 Jahre vor. Allerdings verspricht das Minimum 2020 ein besonders tiefes zu werden, markiert es doch den Beginn eines seltenen Ereignisses, das bekannt ist unter der Bezeichnung Grand Solar Minimum. Dabei wird noch weniger Energie zur Erde emittiert als sonst. Dazu kommt es nur etwa alle 400 Jahre oder so. Die meisten Auswirkungen werden harmlos sein.

Allerdings, so warnt Prof. Zharkova, könnten Kältewellen und nasse Sommer andauern, bis die Sonnenaktivität ab dem Jahr 2053 allgemein wieder zunimmt. Sie verwies auf jüngste Kältewellen in Kanada und Island als Beleg, dass das GSM bereits erste Auswirkungen zeigt.

„Der Temperaturrückgang wird zu kaltem Wetter auf der Erde führen – nasse und kühle Sommer, kalte und nasse Winter. Wir werden vermutlich Frostperioden des Ausmaßes wie derzeit schon in Kanada erleben, wo die Temperatur bereits jetzt wiederholt bis -50°C gesunken ist. Aber das ist nur der Beginn eines GSM, und während der nächsten 33 Jahre kommt da noch mehr“.

Das letzte GSM mit Auswirkungen auf die Erde war das Maunder-Minimum von 1645 bis 1715. Während dieser Periode sank die Helligkeit der Sonne, und die Temperaturen sanken auf der ganzen Erde, wie die NASA schreibt.

Die NASA-Beobachtungen der Sonnenaktivität zeigen, dass sich unser Planet bis zum Jahr 2025 in den Fängen ähnlicher Kältewellen befinden könnte. Prof. Zharkova: „Wir können nur hoffen, dass die Mini-Eiszeit nicht so schlimm wird wie während des Maunder-Minimums. Dies würde nämlich die Ernteerträge in den Mittleren Breiten dramatisch verringern, weil Gemüse und Obst nicht genug Zeit bleiben könnte, um richtig zu reifen.

Damit kann es zu einem Nahrungsmittel-Defizit für Menschen und Tiere kommen, so wie es während der vergangenen Jahre schon der Fall war, als Schnee in Spanien und Griechenland im April und Mai die Gemüsefelder heimsuchte und es in UK zu einer Verknappung von Gemüse und Obst gekommen war“. Soweit Prof. Zharkova.

Abbildung: Es wird erwartet, dass immer weniger [oder gar keine] Sonnenflecken auf der Oberfläche unseres Sterns erscheinen. Bild: SDO/HMI www.spaceweather.com

Glücklicherweise ist aber nicht alles doom and gloom. Andere Experten glauben, dass GSMs sich kaum auf unser Klima auswirken. Kältewellen wie während des Maunder-Minimums wurden wahrscheinlich durch verschiedene Faktoren ausgelöst, darunter Aschewolken einer Reihe von gewaltigen Vulkanausbrüchen.

„Wir erwarten außerdem, dass die globale Erwärmung die Temperaturen während der kommenden Jahrzehnte steigen lässt. Es ist daher unwahrscheinlich, dass das bevorstehende GSM irgendwelche Auswirkungen auf die globalen Temperaturen hat“, sagt Prof. Owens von der Reading University. „Folglich wird es möglicherweise keine wahrnehmbare Auswirkung auf das globale Klima geben“.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/scientists-divided-over-impact-of-solar-minimum-on-global-temperatures/

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers: Der letzte Satz ist recht erhellend. Da CO2 nachgewiesenermaßen überhaupt keinen Einfluss auf das Wetter (Klima) hat oder sogar abkühlend wirkt, kann man die Gegenmeinung also getrost in die Tonne treten. Und was bleibt dann übrig?