Die Bedeutungs­losigkeit des Eismassen-Verlustes in Grönland in fünf einfachen Graphiken…

Introduction

Es herrscht ein allgemeiner wissenschaftlicher Konsens, dass der grönländische Eisschild (GrIS) seit der Kleinen Eiszeit (LIA) an Eismasse eingebüßt hat. Dies sollte keine Überraschung sein, war doch die LIA höchstwahrscheinlich die kälteste Klima-Episode im Holozän. Obwohl es inzwischen so aussieht, als hätte der GrIS während der Krise der globalen Abkühlung zur Mitte des vorigen Jahrhunderts an Eismasse zugelegt.

Mouginot et al. (2019) zufolge wuchs der GrIS von 1972 bis 1980 um im Mittel 47 ± 21 Gigatonnen pro Jahr:

  • -51 ± 17 Gt/y von 1980–1990
  • -41 ± 17 Gt/y von 1990–2000
  • -187 ± 17 Gt/y von 2000–2010
  • -286 ± 20 Gt/y von 2010–2018

Der vermeintliche Eisverlust wurde getrieben durch

  • Eine starke Abnahme der Oberflächen-Massenbilanz von 1995 bis 2012
  • Eine Zunahme kalbender Eisberge und anderer Wechselwirkungen mit dem Ozean

Abbildung 1: D = Eisberge und andere Ozean-Wechselwirkungen, SMB = Oberflächen-Massenbilanz (Schnee-Akkumulation minus Abschmelzen), MB = Gesamt-Massenbilanz (Van den Broeke et al. (2017)

Der SMB war so hoch, dass er während der Jahre 2007 und 2012 negativ gewesen sein könnte. Der größte Teil des Eises geht in Gestalt abbrechender Eisberge verloren. Merkwürdig daran ist aber, dass abgesehen von einer Spitze der Eisberg-Aktivität während der 1990er Jahre diese derzeit nicht sehr viel anders aussieht als im Zeitraum 1900 bis 1950.

Internationale Eisberg Zählungen von 1900 bis 2011

Donald L.Murphy

Introduction

In jedem Jahr schätzt die International Ice Patrol (IIP) die Anzahl der Eisberge, die es bis südlich von 48°N schaffen, also bis zu der Breite, in welcher sie eine Bedrohung der Schifffahrt im Nordatlantik darstellen. Der Datensatz (Tabelle 1) beginnt im Jahre 1900, also 12 Jahre vor dem Sinken der Titanic, bis zur Gegenwart.

Aus verschiedenen Gründen sind diese Eisberg-Zählungen kein rigoroser wissenschaftlicher Datensatz und sollten mit großer Vorsicht interpretiert werden. Zum Beispiel konzentrieren sich die Operationen der IIP auf die Eisberge, welche transatlantischen Schifffahrtswegen am nächsten kommen. Nur selten wird aber eine umfassende Übersicht über das Gebiet südlich von 48°N durchgeführt. Außerdem haben sich die Beobachtungsverfahren über die Jahre radikal geändert, nämlich immer dann, wenn neue Technologien zur Erkennung und Verfolgung von Eisbergen verfügbar wurden. Die frühesten Daten zu Beginn des 20. Jahrhunderts stammen von Augenbeobachtungen von Segelschiffen aus, während die jüngsten Informationen durch visuelle und Radarbeobachtungen stammen, durchgeführt von modernen Schiffen, Flugzeugen und Satelliten.

(…)

Diskussion

In den 112 Jahre langen Zählungen der IIP zeigt sich eine erhebliche Variabilität (siehe die Abbildung unten und Tabelle 1 (PDF; öffnet in einem neuen Fenster) und zeigt die mittlere geschätzte Zahl von Eisbergen, die es bis südlich von 48°N geschafft haben. Die höchste Zahl (2202) war im Jahre 1984 aufgetreten, während zwei mal im betrachteten Zeitraum, nämlich 1966 und 2006, kein einziger Eisberg so weit nach Süden vorangekommen war. Fünf mal in der IIP-Historie schaffte es mindestens ein Eisberg so weit nach Süden: 1915, 1919 bis 1921 und 1985. April und Mai sind bei Weitem die Monate mit den meisten Eisbergen, die Schifffahrtsrouten beeinträchtigen.

US Coast Guard Navigation Center

Abbildung 2: Eisberge südlich von 48°N von 1911 bis 2011 (US-Küstenwache)

Es ist mir gelungen, detaillierte Daten zu Eisbergen auf der Website des Snow and Ice Data Center zu finden. Damit habe ich den Plot der Küstenwache bis zum Jahr 2019 verlängert.

Graphik Nummer Eins: Eisberge

Abbildung 3: Anzahl von Eisbergen südlich von 48°N (US-Küstenwache und NSIDC). International Ice Patrol. 1995, updated 2020. International Ice Patrol (IIP) Iceberg Sightings Database, Version 1. [G00807]. Boulder, Colorado USA. NSIDC: National Snow and Ice Data Center. doi: https://doi.org/10.7265/N56Q1V5R. [Accessed 2 Feb 2020].

Während es in den 1990er Jahren eine signifikante Zunahme beim über 5 Jahre gleitenden Mittel gab, ist die Anzahl danach vergleichbar mit dem Zeitraum 1900 bis 1950. Man sollte meinen, dass aus der Anzahl der Eisberge ersichtlich werden sollte, dass Grönland vielleicht wöchentlich Eisberge von der Größe Manhattans verliert und dass angeblich die Schmelzrate seit 1995 um 50% gestiegen ist.

Vielleicht ist es der „beispiellosen“ Erwärmung der Arktis geschuldet, dass die Eisberge schmelzen, bevor sie den 48. Breitengrad erreichen. Nun, in der Arktis gibt es nur wenige langzeitliche „Thermometer“ … Eisbohrkerne aus Grönland. Die Grönland-Temperaturrekonstruktion, oft zitiert von Skeptikern, stammt aus dem GISP2-Bohrkern (Alley 2000).

Abbildung 4: Temperaturrekonstruktion aus Zentral-Grönland (Alley 2000).

Hinsichtlich meines Beitrags zuvor war mir vorgeworfen worden, die Leute mit der darin enthaltenen Graphik in die Irre zu führen:

Zur ersten Graphik: so oft erleben wir, dass die GISP2-Daten falsch etikettiert werden, und das hier ist keine Ausnahme.

Die Datenreihe endet 1855 und NICHT 1950 wie angegeben.

Das wurde auf dieser Site schon so oft klargestellt, seit 2010, dass es kaum zu glauben ist, wenn man sie weiterhin anführt ohne den Hintergrund zu kennen.

Warum führt man die Menschen in die Irre, wenn unser Argument so stark ist?

TheFinalNail

Jedermann, der des Lesens mindestens von Klassenstufe 5 mächtig ist kann erkennen, dass die X-Achse bezeichnet ist mit „Jahre vor heute (1950 AD)“. Jeder mit einem auch nur geringen Wissen um radiometrische Datierung weiß, dass das P in BP das Jahr 1950 ist. Das ist gleichzeitig der Standard für die meisten paläoklimatischen Rekonstruktionen. Solange in einer Studie nicht explizit spezifiziert wird, dass „Gegenwart“ nicht das Jahr 1950 ist, muss man annehmen, dass jenes Jahr gemeint ist. Das früheste Jahr in der Alley-Zeitreihe ist 95 BP oder 1855.

Natürlich lag jenes Jahr im Bereich der LIA, lange bevor Al Gore seine Gorebal Warming erfunden hatte. Glücklicherweise jedoch gibt es ein paar GISP2-Temperatur-Rekonstruktionen, welche bis zum Jahr 1993 reichen (Kobashi et al., 2008, Kobashi et al., 2011 und Kobashi et al., 2017). Anders als Alley, der sich auf den δ18O-Abbau als Paläo-Thermometer stützte, zogen Kobashi et al. „hoch-präzise Analysen von δ15N and δ40Ar in im Eis eingeschlossenen Luftbläschen“ heran …

Die geschätzte mittlere Schnee-Temperatur in Grönland während der letzten 4000 Jahre betrug -30,7°C mit einer Standardabweichung von 1,0°C. Sie weist einen langzeitlichen Rückgang von grob 1,5°C auf, was konsistent ist mit früheren Studien. Die gegenwärtige dekadische Mitteltemperatur (2001 bis 2010) am GISP2-Messpunkt beträgt -29,9°C.

Kobashi et al. (2011)

Der GISP2-Eisbohrkern wurde an der gleichen Stelle gezogen wie die Summit Station in Grönland.

Abbildung 5: Ort von Summit Station und Punkte von Grönland-Eisbohrkernen (Yau et al. 2016)

Kobashi zufolge lag die mittlere Temperatur an der Summit Station während der letzten 4000 Jahre bei -30,7°C. Die mittlere Temperatur seit 2008 lag um -30°C.

Abbildung 6: Stündliche Temperaturen an der Summit Station seit 2008 (NOAA/ESRL).

Graphik Nummer zwei: GISP2-Eisbohrkern

Ich habe die Klima-Rekonstruktion von Kobashi et al. (2017) von der NOAA heruntergeladen und geplottet, um den Zusammenhang mit der jüngsten Klimaänderung im zentralen Grönland zu evaluieren. Technisch könnte dies mit drei Graphiken dargestellt werden … Aber – wer zählt das?

Abbildung 7a: Temperatur-Rekonstruktion nach GISP2 seit dem glazialen Zustand im Younger Dryas

Abbildung 7b: GISP2-Temperatur-Rekonstruktion seit 4000 v. Chr. Klimatische und historische Perioden nach Grosjean et al. (2007)

Abbildung 7c: GISP2-Temperatur-Rekonstruktion seit dem Jahr 1900. Markiert sind die Vorgänge RMS Titanic, Glacier Girl, The Ice Age Cometh? Sowie die Temperaturen an der Summit Station, um die Größenordnung zu erkennen.

Die unausweichliche Schlussfolgerung lautet, dass falls es jemals eine Klima-„Krise“ gegeben hat, diese während der Kleinen Eiszeit aufgetreten war … und es war KNACKIG kalt damals!

Was war das? Das zentrale Grönland ist nicht die Arktis? Na sowas!

Graphik Nummer drei: die Arktis

Also betrachten wir doch einmal die Temperatur-Rekonstruktion der Arktis von McKay & Kaufman (2014).

Abbildung 8a: Klima-Rekonstruktion der Arktis seit dem Jahr 1 (McKay & Kaufman, 2014).

Abbildung 8a: Klima-Rekonstruktion der Arktis seit dem Jahr 1 (McKay & Kaufman, 2014).

Die unausweichliche Schlussfolgerung lautet, dass falls es jemals eine Klima-„Krise“ gegeben hat, diese während der Kleinen Eiszeit aufgetreten war … und es war eisig KALT damals! Und dann noch einmal während der 1970er Jahre!

Aber, aber – was ist mit all den von Satelliten gemessenen Eisverlusten?

Ja – was ist damit?

Drei Jahrzehnte der Änderungen des grönländischen Eisschildes

Gepostet am 14. Juni 2019 von der ESA Greenland Ice Sheet Climate Change Initiative.

In dieser Woche war es zu einem signifikanten Abschmelzen in einem großen Gebiet des grönländischen Eisschildes gekommen. Zum zweiten Mal in diesem Jahr war die Temperatur am höchsten Punkt des Eisschildes auf einer Seehöhe von 3285 Metern über den Gefrierpunkt gestiegen. Dort befindet sich die vom DMI [= der dänische Wetterdienst, Anm. d. Übers.] betriebene Summit Station.

Die hohen Schmelzraten waren wärmeren Luftmassen geschuldet, welche über den Eisschild wehten, und in Kombination mit nur geringen Schneefällen im voran gegangenen Winter kann in diesem Jahr erwartet werden dass ziemlich große Mengen Eises abschmelzen. Ein so großes Schmelz-Ereignis so früh im Jahr ist ungewöhnlich, aber nicht beispiellos, war es doch u. A. im Jahre 2012 zu einem ähnlichen Ereignis gekommen.

Einzel-Schmelzereignisse dieser Art werden gesteuert von lokalen Wetterbedingungen im Nordatlantik, aber wenn man diese über viele Jahre hinweg mittelt, erhält man das lokale Hintergrund-Klima. Wissenschaftler aus ganz Europa haben eine gemeinsame Studie erstellt, in welche Satellitendaten bis zurück zum Jahr 1990 Eingang gefunden hatten. Damit sollte ein vollständiges Bild gegeben werden, wie Klimaänderungen in Grönland sich auf den Eisschild ausgewirkt haben.

Wir zeigen zum Beispiel, dass der Eisschild seit Anfang der 2000er Jahre fast überall dünner geworden ist. Für einen Eisschild im Gleichgewicht mit dem lokalen Klima erwarten wir, in der Mitte eine geringe Zunahme der Höhe der Oberfläche Jahr für Jahr zu sehen sowie eine Abnahme an den Rändern, da in höher gelegenen Regionen mehr Schnee fällt als wieder abschmilzt und es in tieferen Schichten umgekehrt ist. Allerdings zeigen die Wissenschaftler hier, dass der Eisschild inzwischen fast überall dünner wird (blaue Gebiete in der oberen Reihe). „Es ist ziemlich bemerkenswert, derartige Änderungen während der letzten Jahre zu sehen im Vergleich zu Anfang der 1990er Jahre“, sagte Sebastian Simonsen vom DTU.

Polar Portal

Die Leute beim Polar Portal waren so nett, dieses Bild vorzustellen:

Abbildung 9: „Die obere Reihe zeigt Änderungen der Seehöhe des grönländischen Eisschildes, gemessen mit Radar über drei verschiedene Zeitperioden. Danach zogen wir Computermodelle heran, um zu verstehen, was hinter den von uns erkannten Änderungen steckt. Die mittlere Reihe zeigt die Änderungen der Seehöhe, die man einfach aus dem Massen-Budget an der Oberfläche erwarten kann über die gleichen drei Zeiträume (der Unterschied zwischen Schneefall und -schmelze, wie es modelliert vom regionalen Klimamodell HIRHAM5). Die untere Reihe zeigt Änderungen der Seehöhe, berechnet mittels eines Eisschild-Modells (PISM) und daher einschließlich Änderungen der Höhe des Eisschildes durch Eisfluss und Änderungen des Oberflächen-Massenbudgets. Während die Modelle die großmaßstäblichen Änderungen abbilden können, ist dies an einigen Stellen nicht der Fall, darunter auch in den Gebieten mit den größten Änderungen“.

Ich konzentrierte mich auf die obere reihe, also die mit den Änderungen der Seehöhe, weil ich diese Änderungen in einem geologischen Zusammenhang betrachten kann.

Wie verhält sich der jüngste Schmelzvorgang relativ zum übrigen Holozän? Kurze Antwort: „Genauso wie immer!“ Vinther et al. (2009) rekonstruierten die Höhe von vier Stellen über das Holozän, an denen Eisbohrkerne gezogen worden waren. Es gab kaum Höhen-Änderungen an den Stellen im Inneren (NGRIP und GRIP), während an den beiden äußeren Stellen (Camp Century und DYE3) jeweils 546 bzw. 342 m Höhe eingebüßt haben.

Abbildung 10: Das meiste Eis ist seit Beginn des Holozäns an den äußeren Rändern abgeschmolzen sowie an den niedriger gelegenen Teilen des Eisschildes (GrIS) – genauso wie immer. Die X-Achse zeigt die Kalenderjahre. Höhen-Rekonstruktion nach Vinther et al. (2009). Graphik von Weißbach et al. (2015).

Vinthers Höhen-Rekonstruktion überdeckt den Zeitraum von vor 11.700 bis vor 40 Jahren vor dem Jahr 2000. Das letzte Jahr ist also das Jahr 1960.

Auf der Grundlage der Schätzungen der Massenbilanz von Mouginot zeigten sich sehr geringe Gesamtänderungen von 1960 bis 1995, dem Anfangsjahr der Höhenänderungskarten des Polar Portals. Ich habe die Höhenänderungskarten vergrößert und die Stellen der Eisbohrkerne eingetragen.

Abbildung 11a: Höhenänderung von Grönland 1995 bis 1999 sowie 2001 bis 2005 (Polar Portal).

Abbildung 11b: Höhenänderung von Grönland 2007 bis 2011 sowie 2013 bis 2017 (Polar Portal).

Die Skaleneinheiten sind Meter pro Jahr. Man beachte, dass an diesen Stellen kaum Änderungen aufgetreten waren. Nach meinem Augenmaß schätzte ich die jährlichen Höhenänderungen von 1995 bis 2017:

Mittels der 2009 von Vinther gemessenen Höhen berechnete ich die Höhen der vier Stellen von vor 11.700 Jahren bis 2017.

Graphik Nummer vier: „Das Gleiche wie immer…“

Abbildung 12a: Seehöhe von vier Stellen, an denen Eisbohrkerne gezogen worden waren von vor 11.700 Jahren bis zum Jahr 2017

Abbildung 12b: Wie Abb. 12, aber von 1900 bis 2017.

video

„Das Gleiche wie immer…“

Aber, aber, der grönländische Eisschild schrumpft noch immer! Wenn er vollständig schmilzt, wird der Meeresspiegel um 7 Meter steigen!!!

Graphik Nummer fünf: die Isopachen-Graphik*

[*Isopache ist in den Geowissenschaften eine Linie (Isolinie) gleicher Mächtigkeit einer geologischen Schicht in der Kartendarstellung einer Isopachenkarte {Quelle}. Anm. d. Übers.]

Wir Erdöl-Geologen sind besessen von der Berechnung der Volumina von Öl- und Gas-Reservoiren, und wir bringen viel Zeit damit zu, Dinge zu erstellen wie „Isopachenkarten“ und gleitende „Volumetrics“. Zum Glück für mich erstellte Eric Gaba als Wikimedia Commons user: Sting eine Isopachenkarte des grönländischen Eisschildes:

Abbildung 13: Isopachenkarte des grönländischen Eisschildes von Eric Gaba – Wikimedia Commons user: Sting (links) und Höhenänderungskarte des Polar Portals (rechts).

Fast die gesamte derzeitige Verdünnung erfolgt an den äußeren Rändern des Eisschildes („genauso wie es schon immer war“). Ich habe eine hoch aufgelöste Kopie der Isopachenkarte heruntergeladen und die Höhenlinien digitalisiert mittels einer NeuraMap volumetric analysis software. Gebiet und Volumen der Isopachenkarte standen auf einer Linie mit den Schätzungen in der USGS Professional Paper 1386–A, Tabelle 2, Seite A77:

Gebiet: 1.736.095 km²

● Volumen: 2.600.000 km³

Ich definierte die 10-m-Höhenlinie als die Null-Höhenlinie. Das Gebiet der Null-Höhenlinie lag sehr nahe dem USGS-Gebiet.

Das Volumen war etwas größer als die USGS-Schätzung, lag aber immer noch deutlich innerhalb anderer Schätzungen aus jüngerer Zeit. USGS verweist auf eine Referenz aus dem Jahr 1954 für diese Zahl und auch auf Bamber et al. (2011), wo man das Volumen mit 2.900.000 km³ angab. Danach hat Bamber seine Schätzung auf 2.960.000 km³ präzisiert.

Wie man sieht, variieren die Schätzungen des Volumens des grönländischen Eisschildes erheblich, und die Verfahren der volumetrischen Berechnung führt zu einer ziemlich breiten Palette von Ergebnissen … Und trotzdem können moderne Klima-„Wissenschaftler“ jährliche Änderungen der Eismasse von 0,015% ausmachen…

Wer’s glaubt…

Wenn ich die 1000-m-Höhenlinie um 10 m absenke, passiert das hier:

99,93% des grönländischen Eisschildes schmelzen nicht und/oder kalben in den Ozean. Die USGS-Studie stellt fest, dass falls der gesamte Eisschild schmelzen würde, der Meeresspiegel um 6,5 Meter steigen würde. In dem oben beschriebenen und höchst unwahrscheinlichen Szenario würde der Meeresspiegel um atemberaubende 4,8 mm steigen.

6,5 m * 0,07% = 0,00478 m

Was passiert, wenn ich die 1000-m-Höhenlinie um 100 m absenke?

● 6,5 m * 0,18% = 0,0531 m

Das sind etwas über 5 cm Anstieg des Meeresspiegels.

Da haben wir es … Die Bedeutungslosigkeit des Verlustes der grönländischen Eismasse in fünf einfachen Graphiken … und vielen nicht so einfachen Graphiken und Tabellen.

References

Alley, R.B. 2000. “The Younger Dryas cold interval as viewed from central Greenland”. Quaternary Science Reviews 19:213-226.

Alley, R.B.. 2004. “GISP2 Ice Core Temperature and Accumulation Data”.
IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2004-013. NOAA/NGDC Paleoclimatology Program, Boulder CO, USA.

Bamber, J. L., J. A. Griggs, R. T. W. L. Hurkmans, J. A. Dowdeswell, S. P. Gogineni, I. Howat, J. Mouginot, J. Paden, S. Palmer, E. Rignot, and D. Steinhag. “A new bed elevation dataset for Greenland”. The Cryosphere, 7, 499–510, 2013 www.the-cryosphere.net/7/499/2013/ doi:10.5194/tc-7-499-2013.

Grosjean, Martin, Suter, Peter, Trachsel, Mathias & Wanner, Heinz. (2007). “Ice‐borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations”. Journal of Quaternary Science. 22. 203 – 207. 10.1002/jqs.1111.

Kobashi, T., J. P. Severinghaus, and K. Kawamura (2008a). “Argon and nitrogen isotopes of trapped air in the GISP2 ice core during the Holocene epoch (0–11,600 B.P.): Methodology and implications for gas loss processes”. Geochim. Cosmochim. Acta. 72, 4675– 4686, doi:10.1016/j.gca.2008.07.006.

Kobashi, T., Kawamura, K., Severinghaus, J. P., Barnola, J.‐M., Nakaegawa, T., Vinther, B. M., Johnsen, S. J., and Box, J. E. (2011). “High variability of Greenland surface temperature over the past 4000 years estimated from trapped air in an ice core”. Geophysical Research Letters. 38, L21501, doi:10.1029/2011GL049444.

Kobashi, T., Menviel, L., Jeltsch-Thömmes, A. et al. “Volcanic influence on centennial to millennial Holocene Greenland temperature change”. Scientific Reports 7, 1441 (2017). https://doi.org/10.1038/s41598-017-01451-7

McKay, N., Kaufman, D. “An extended Arctic proxy temperature database for the past 2,000 years”. Scientific Data 1. 140026 (2014). https://doi.org/10.1038/sdata.2014.26

Mouginot, Jeremie, E. Rignot, Anders Bjørk, Michiel Van den Broeke, Romain Millan, Mathieu Morlighem, Brice Noël, Bernd Scheuchl & Michael Wood. (2019). “Forty-six years of Greenland Ice Sheet mass balance from 1972 to 2018”. Proceedings of the National Academy of Sciences. 116. 10.1073/pnas.1904242116.

Van den Broeke, M., Box, J., Fettweis, X. et al. “Greenland Ice Sheet Surface Mass Loss: Recent Developments in Observation and Modeling”. Current Climate Change Reports. (2017) 3: 345. https://doi.org/10.1007/s40641-017-0084-8

Vinther, B.M., S.L. Buchardt, H.B. Clausen, D. Dahl-Jensen, S.J. Johnsen, D.A. Fisher, R.M. Koerner, D. Raynaud, V. Lipenkov, K.K. Andersen, T. Blunier, S.O. Rasmussen, J.P. Steffensen, and A.M. Svensson. (2009). “Holocene thinning of the Greenland ice sheet”. Nature. 461. 385-8. 10.1038/nature08355.

Weißbach, S., A. Wegner, T. Opel, H. Oerter, B. M. Vinther and S. Kipfstuhl. “Spatial and temporal oxygen isotope variability in northern Greenland – implications for a new climate record over the past millennium”. Climate of the Past. 12, 171–188, 2016 www.clim-past.net/12/171/2016/ doi:10.5194/cp-12-171-2016.

Williams, R.S., Jr., and Ferrigno, J.G., eds., 2012. “State of the Earth’s cryosphere at the beginning of the 21st century–Glaciers, global snow cover, floating ice, and permafrost and periglacial environments: U.S. Geological Survey Professional Paper 1386–A”. 546 p. (Also available at https://pubs.usgs.gov/pp/p1386a.) Glaciers.

Yau, Audrey M., Michael L. Bender, Alexander Robinson, Edward J. Brook. “Last interglacial in the GISP2 Greenland ice core”. Proceedings of the National Academy of Sciences. Aug 2016, 113 (35) 9710-9715; DOI: 10.1073/pnas.1524766113

Exhuming the Glacier Girl

RMS Titanic

Link: https://wattsupwiththat.com/2020/02/05/the-irrelevance-of-greenlands-ice-mass-loss-in-five-easy-charts/

Übersetzt von Chris Frey EIKE

 




CLINTEL-Manifest wendet sich gegen Klima-Angstmache

CLINTEL ist eine rapide wachsende internationale Gruppe, geführt von prominenten Wissenschaftlern, welche die auf Lügen basierenden Versuche verurteilen, die Menschen zu überhasteten klimapolitischen Maßnahmen zu treiben. Sie wenden sich auch gegen die Terrorisierung von Kindern als Teil des falschen Klima-Alarms. CLINTEL hat kürzlich eine World Climate Declaration veröffentlicht, in welcher die Angstmache verurteilt wird, und dieses Manifest bietet detailliertes wissenschaftliches Hintergrundwissen für eine breite Öffentlichkeit. Autor des Manifestes ist Prof. Guus Berkhout, der Präsident von CLINTEL.

Der Schwerpunkt im Berkhout-Manifest liegt auf der Klima-bezogenen Modellierung, von der es sagt, dass sie „nicht zielführend“ [unfit for purpose] ist. Das Ziel in diesem Zusammenhang ist die Prognose des zukünftigen Klimawandels. Die Modellierung dominiert die Klimawissenschaft und liefert auch die ängstigenden Szenarien, welche ungemein teure und überaus schädliche politische Klimanotstands-Maßnahmen treibt. Dass die Modelle falsch sind ist ein sehr bedeutsames Ergebnis.

Das Manifest führt mindestens vier triftige Gründe an, warum die heutigen Modelle nichts taugen:

Erstens, die Modellierer haben nicht angemessen die vielen Faktoren eingehen lassen, von denen man weiß, dass sie tragende Rollen spielen, allen voran die natürliche Variabilität. Im Wesentlichen gehen alle Modelle schlicht und ergreifend davon aus, dass (fast) der gesamte Klimawandel menschlichen Aktivitäten geschuldet ist – eine völlig unbewiesene Hypothese.

Zweitens, die Prophezeiungen sind bis heute dramatisch zu warm im Vergleich zu tatsächlichen Satellitenmessungen. Es gab während der letzten 20 Jahre kaum eine Erwärmung, und diese scheint auch noch durchweg natürliche Ursachen zu haben. Die Modelle hingegen haben eine dramatische Erwärmung simuliert, die nie eingetreten ist. Nicht das Klima, sondern die Klima-Modellierer sind Quelle und Ursache der Panik.

Drittens, die Modelle berücksichtigen in keiner Weise historische Klimadaten. Es gibt eine immer umfangreicher werdende Liste von Studien, die zu dem Ergebnis kommen, dass die globale Temperatur nicht einmal ansatzweise so sensitiv auf vom Menschen erzeugtes CO2 reagiert wie die Modelle annehmen. Ironischerweise zeigen die jüngsten Modelle eine noch größere Sensitivität als ihre Vorgänger und entfernen sich damit noch weiter von den Beobachtungen. Die Modelle werden immer schlechter, nicht besser.

Auch können diese Modelle Perioden mit Erwärmung bzw. Abkühlung der Vergangenheit nicht erklären, wie etwa die Mittelalterliche Warmzeit MWP und die gerade erst zu Ende gegangene Kleine Eiszeit LIA. Falls wir Klimaänderungen der Vergangenheit nicht erklären können, die ausschließlich durch natürliche Sachen ausgelöst worden waren, können wir auch die Gegenwart nicht verstehen und schon gar nicht in die Zukunft schauen. Hierzu werden noch sehr viel mehr Daten und Forschungen benötigt. Unser Verständnis hinsichtlich der komplexen Natur von Klimawandel ist einfach viel zu unzureichend. Die Klimawissenschaft ist alles andere als settled.

Alle diese krassen Probleme mit den Modellen werden im Berkhout-Manifest gut und umfassend erklärt. Daraus geht hervor, dass man den gegenwärtigen Modellprojektionen einer gefährlichen zukünftigen Erwärmung und daraus resultierenden Naturkatastrophen nicht trauen kann. Sie sollten definitiv nicht als Grundlage dienen für eine viel Schaden anrichtende Klimapolitik in der Welt. Das Manifest bringt es kurz und knapp auf den Punkt: „Hört auf, irreführende Computermodelle heranzuziehen!“

CLINTEL konzentriert sich auch auf Kinder, welche durch den Klima-Alarmismus demoralisiert sind. Junge Menschen sind leicht durch Aktivisten zu beeinflussen, weil sie einfach nicht genug wissen, um sich dagegen wehren zu können. Außerdem werden Klimawandel und Umweltverschmutzung auf hoffnungslose Weise durcheinander geworfen. Um zu erklären, warum es KEINEN Klimanotstand gibt, schließt das Manifest mit einer „Botschaft an unsere Enkelkinder“. Der Kern dieser Botschaft lautet:

„Benehmt euch nicht wie Papageien! Seid kritisch gegen die vielen falschen Propheten, welche versuchen, euch zu missbrauchen und dass ihr euch gegen eure Eltern wendet! Was jene euch sagen ist einseitig und irreführend. Bitte, vertieft euer Wissen um Klima! Wenn ihr das macht, werdet ihr schnell erkennen, dass es KEINERLEI empirische Beweise gibt, die in irgendeiner Form auf eine Klimakrise hindeuten“.

Die Welt-Klima-Deklaration sagt im Grunde, dass die Klimapolitik, durchgeführt im Namen eines falschen Notstandes, nicht nur das globale Wirtschaftssystem auf gefährliche Weise unterminiert, sondern auch das Leben in Ländern gefährdet wird, denen man den Zugang zu zuverlässigem und bezahlbarem Strom verwehrt. Dieses CLINTEL-Manifest bietet die Wissenschaft, die zeigt, dass es keinen solchen Notstand gibt.

CLINTEL sandte jüngst einen Protestbrief an den Weltwirtschaftsgipfel in Davos. Darin findet sich die glasklare Botschaft: „Trotz hitziger politischer Rhetorik drängen wir alle Führer der Welt, die Realität zu akzeptieren, dass es keinen Klimanotstand gibt. Man hat noch viel Zeit, wissenschaftliche Fortschritte zu erreichen und damit unser Verständnis bzgl. Klimawandel weiter zu verbessern. Inzwischen sollten wir uns auf ANPASSUNG konzentrieren – die funktioniert immer, egal bei welchen Anlässen“.

Mehr: https://clintel.org und hier sowie auf diesem Video:

CLINTEL – Declaration to WEF

Autor: David Wojick , Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2020/01/29/clintel-manifesto-blasts-climate-scaremongering/

Übersetzt von Chris Frey EIKE




Offener Brief an Prof. Rahmstorf

Als hätten Sie nicht schon damit genug zu tun, kommen einfach so ein paar Leute daher stellen 16 „unschuldig anmutende Fragen.“, ob man mit dem Klimawandel nicht auch anders umgehen könne. https://www.klimafragen.org/ Wie kommen die überhaupt dazu, fragen Sie. Schließlich haben die Initiatoren und Unterzeichner keinen persönlichen Vorteil davon, sie müssen nicht ein Institut am Leben halten oder sich wie Politiker als „action heros“ gebären, warum also „verschwenden“ sie ihre Zeit, Kraft und Geld daran, die „Große Transformation“ des Landes zu hinterfragen?

Ob Sie es glauben oder nicht, aber diese Frage stellen wir uns auch manchmal. Warum tun wir uns dies an? Nur, um auch einmal ordentlich diffamiert zu werden? Vielleicht treibt uns die leise Hoffnung an, dass Intelligenz und Vernunft in unserem Land noch nicht völlig ausgestorben sind. Dann aber kommen wieder Zweifel hoch, insbesondere wenn man Beiträge wie den Ihren liest und feststellt, dass die einflussreichen Experten, auf deren Aussage hin wir unser Land umbauen sollen, offenbar nicht einmal sinnentnehmend lesen können. So steht für jedermann erkennbar folgender Satz am Anfang der Fragen:

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden?“

Die Tatsache, dass der Klimawandel als solcher unterstellt wird, erschließt sich zudem daraus, dass wir explizit nach möglichen positiven Effekten des Wandels fragen. Das setzt – na, was? Richtig, das setzt einen Wandel voraus.

Tatsächlich hatten wir erwartet, dass Wissenschaftler und auch Journalisten sowohl sinnentnehmend lesen können wie auch grundlegende logische Zusammenhänge verstehen. Wenn dem nicht so ist, dann …Nein, diesen Gedanken wollen wir gar nicht zu Ende denken.

Das Problem ist: So geht es in ihrem Beitrag weiter.

Sie behaupten, wir hätten den IPCC mit den Worten „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ falsch zitiert hätten.

Das habe er habe nicht gesagt, das wäre falsch übersetzt, außerdem habe er das, was er nicht sagte, so auch nicht gemeint, es handle sich um eine Fehlinterpretation. Im Übrigen habe sich der IPCC um die Probleme der „Restunschärfe“ der Modelle oder auch die „verbleibenden Unsicherheiten“ gekümmert.

Ja was denn nun? Hat er es so nicht gesagt, weil falsch übersetzt oder nicht gemeint? Wenn er es nicht sagte und nicht meinte, welche „Unsicherheiten“ und „Unschärfen“ gibt es dann überhaupt?

Geschrieben hat der IPCC folgendes:

In climate research and modelling we should recognize, that we are dealing with a coupled non linear chaotic system and therefore that the long-term prediction of future climate states is not possible.” (IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S. 774).

Also wurde der IPCC wortwörtlich richtig zitiert.

Im Folgesatz schreibt „Klimafragen.org“:

Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können.“

Im englischen Original heißt der Satz:

„The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions. This reduces climate change to the discernment of significant differences in the statistics of such ensembles.”

Wörtlich ins Deutsche übersetzt:

“Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen. Dies reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles.“

Nochmal: „… die Vorhersage der Wahrscheinlichkeitsverteilung… reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles“

Genau das hat „Klimafragen.org“ sinngemäß ausgedrückt und spricht von „keinerlei Vorhersagekraft“.

Also richtige Übersetzung und richtige Interpretation!

Ihr Einwand, dass der IPCC versucht hat, mit Simulationen, die auf unterschiedlichen Modellen auf der Grundlage unterschiedlicher Anfangsdaten beruhen, „die Unschärfe zu beschreiben“ stimmt. Und was ist das Ergebnis?

Auf S. 62 des „Technical Summary“ – Sie wissen schon, der Teil, den weder Politik noch Presse lesen – steht zum Thema:

Model Response Error

The discrepancy between simulated and observed GMST trends during 1998–2012 could be explained in part by a tendency for some CMIP5 models to simulate stronger warming in response to increases in greenhouse-gas concentration than is consistent with observations. ….

Another possible source of model error is the poor representation of water vapour in the upper atmosphere.

Das heißt, es gibt eine erhebliche Diskrepanz zwischen simulierter und gemessener globaler Durchschnittserwärmung (Global Mean Surface Warming -GMST), welche zum Teil durch die Tendenz einiger CMIP5 Modelle erklärt werden könnte, eine stärkere Erwärmung aufgrund von Treibhausgasen zu simulieren als sie den Beobachtungen entspricht. Also ist das mit der „Beschreibung der Unschärfe“ zwar sehr hübsch gelungen, nur beseitigt wurde sie nicht.

In Ihrem Beitrag findet sich der bemerkenswerter Satz: Und es ist offensichtlicher Unsinn, allein schon weil die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben – übrigens sogar die Firma Exxon im Jahr 1982.“ Damit wird die uneingeschränkte Tauglichkeit von Computermodellen für die Prognose zukünftiger Klimaentwicklungen behauptet – und dies nicht nur für den gegenwärtigen, vergleichsweise fortgeschrittenen Stand der Modellierung, sondern sogar für das vergangene halbe Jahrhundert. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Zur Kennzeichnung der gegenwärtigen Situation soll hier eine Grafik wiedergegeben werden, deren Urheber ein Klimatologe von unbestrittener Weltgeltung ist. Sie wurde dem Protokoll der Anhörung von John R. Christy, vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017 entnommen. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die Grafik 1 zeigt die Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen.

Die dicke rote Kurve ist deren Mittelwert. Im Vergleich dazu wurden in der dicken grünen Kurve die realen, durch Ballonmessungen gewonnen Daten eingetragen. Nicht nur die Unterschiede zwischen den Rechenergebnissen verschiedener Institute sondern vor allem die erhebliche Abweichung zwischen deren Mittelwert und dem realen Verlauf zeigen überdeutlich, dass von „korrekter Vorhersage“ keine Rede sein kann.

Das Anhörungsprotokoll enthält noch ein weiteres hochinteressantes Ergebnis: Temperaturprofile in den Tropen wurden vom IPCC zum einen unter Berücksichtigung des Treibhauseffektes modelliert und zum anderen ohne diesen Effekt. Während die ersteren keine Übereinstimmung mit den gemessenen Werten aufweisen, liegen die Messungen vollständig im Bereich der Modelle ohne Treibhauseffekt (Grafik 2).

Grafik 1 Quelle: J. R. Christy, Alabama Universität

Grafik 2 Quelle: J. R. Christy, Alabama Universität

Wie volatil die Prognosen des IPCC tatsächlich sind, zeigt auch ein Interview SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC , dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: Unser verbleibendes CO-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“

Das ist eine plötzliche Änderung der bis dahin vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent.

Ein anderer Auszug aus dem Interview ist ebenfalls bemerkenswert:

  • SPIEGEL: Warum wurde die Grenze für die Temperaturerhöhung von 2 Grad auf 1,5 Grad abgesenkt?
  • Prof. Marotzke: „Das kam auch für uns Klimaforscher überraschend.“
  • SPIEGEL: Haben wir es also eher mit politischen Grenzwerten zu tun, nicht mit wissenschaftlich begründeten?
  • Prof. Marotzke: „Ja, aber die Größenordnung ist physikalisch durchaus vernünftig.“

Und schließlich konterkariert auch eine weitere lesenswerte Darstellung der Probleme von Klimamodellierung durch einen ausgewiesenen Experten die Behauptung von der „exakten Vorhersage“. Sie findet sich in der SPIEGEL-Ausgabe vom 22. März 2019 und hat den Titel:

Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …. Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. … Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Das könnte nun daran liegen, dass das Weltklima nicht nur ein chaotisches, sondern sogar ein komplexes System ist, das sich mit Differentialgleichungen und anderen mathematischen Modellierungsverfahren gar nicht modellieren lässt. Daher können Klimamodelle bestenfalls die Vergangenheit erklären, aber nichts prädizieren, wie der IPCC zutreffend festgestellt hat.

Nun gibt es zwei Möglichkeiten:

Entweder, man sagt, der IPCC hat Unsinn erzählt und natürlich kann man komplexe Systeme exakt modellieren, alles gar kein Problem. Hier also die Frage an Sie, Herr Rahmstorf: Wollen Sie das behaupten?

Oder man erkennt an, dass der IPCC die Schwierigkeiten bezüglich der Vorhersagbarkeit zutreffend dargestellt hat. Dann allerdings muss unsere Frage 1 mit der Feststellung beantwortet werden, dass man die Einhaltung von Klimazielen nicht sicherstellen kann. Das aber wäre peinlich, oder?

Dann wird es richtig interessant: Der Jahrhundertsommer 2003 habe 70.000 Todesopfer gekostet, alles unmittelbare Folge des Klimawandels. Beweis einer Kausalität? Fehlanzeige. Und der naheliegende Gedanke an den ebenso einfachen wie lebensrettenden Einsatz von Klimaanlagen, der ohne große Transformation möglich wäre, ebenso Fehlanzeige.

Der Krieg in Syrien – klarer Fall, auch Klimawandel. Bei allem Respekt, aber so geht es nicht

Fazit ist: Sie haben viel geschrieben, aber nicht eine einzige Frage beantwortet.




Wird die Menschheit jemals eine CO2-Verdoppelung erreichen? Wahrscheinlich nicht

Introduction

Ich habe immer angenommen, dass wir uns auf dem Weg zu einer Verdoppelung der atmosphärischen CO2-Konzentration („2 X CO2“) befinden, wenn nicht sogar zu 3 X CO2 oder 4 X CO2. Schließlich steigen die CO2-Emissionen der Menschheit immer weiter, und selbst wenn diese Zunahme beendet ist, würde dann der atmosphärische CO2-Gehalt nicht noch weiter steigen?

Es stellt sich heraus, dass die Antwort „nein“ lautet.

Die Rate, mit welcher die Natur CO2 aus der Atmosphäre entfernt und was diese Rate steuert, das ist der ganze Unterschied.

Selbst wenn wir genau wüssten, welche zukünftigen CO2-Emissionen die Menschheit freisetzt, wird selten darüber diskutiert oder hinterfragt, wie viel davon Mutter Natur aus der Atmosphäre entfernt. Dies ist die Domäne von Modellen des globalen Kohlenstoff-Kreislaufes, von denen wir kaum einmal etwas hören. Wir hören von der Unwahrscheinlichkeit des RCP8.5-Szenarios (welches sich entwickelt hat von „Business as Usual“ über Worst Case zu unmöglich), wenig dagegen über die Art und Weise, wie jene CO2-Konzentrationen aus den CO2-Emissionsdaten abgeleitet werden können.

Also wollte ich mich dieser Frage annehmen. Welches ist das Best Estimate atmosphärischer CO2-Konzentrationen bis zum Ende dieses Jahrhunderts auf der Grundlage der jüngsten Schätzungen zukünftiger CO2-Emissionen unter Berücksichtigung der Größe des Anteils, welchen die Natur aus der Atmosphäre entfernt?

Da wir immer mehr CO2 freisetzen, steigt auch die Menge des CO2-Entzugs aus der Atmosphäre durch verschiedene biologische und geophysikalische Prozesse. Die Historie der Best Estimates der jährlichen anthropogenen CO2-Emissionen in Kombination mit dem beobachteten CO2-Anstieg am Mauna Loa sagt uns viel darüber, wie schnell die Natur sich an einen gestiegenen CO2-Gehalt anpasst.

Wie wir sehen werden, ist es sehr wahrscheinlich, dass selbst wenn wir weiterhin in großem Umfang CO2 emittieren sich das CO2-Niveau in der Atmosphäre stabilisieren kann.

Die Projektion der EIA einer Zunahme der Energie-basierten CO2-Emissionen um 0,6% pro Jahr nehme ich als Grundlage der Projektion des zukünftigen atmosphärischen CO2-Gehaltes. Ich werde zeigen, wie sich dieses Emissions-Szenario mittels eines einfachen atmosphärischen CO2-Budget-Modells, kalibriert mit den Mauna Loa-Daten auf den Gehalt in der Atmosphäre übertragen lässt. Und wir werden sehen dass die verbleibende Menge von CO2 in der Atmosphäre überraschend gering ist.

Eine Bewertung des CO2-Budget-Modells

Ich habe kürzlich ein einfaches, zeitabhängiges CO2-Budget-Modell der globalen CO2-Konzentration vorgestellt, in welches 1) jährliche anthropogene CO2-Emissionen und 2) die zentrale Annahme (gestützt durch die Mauna Loa-Daten) eingehen, dass die Natur selbst CO2 aus der Atmosphäre entfernt mit einer Rate im direkten Verhältnis dazu, wie hoch der atmosphärische CO2-Gehalt über einem bestimmten natürlichen Niveau liegt, an das sich das System anzupassen versucht.

Wie in meinem früheren Beitrag beschrieben, führte ich auch einen empirischen El Nino/La Nina-Term ein, da El Nino assoziiert ist mit einer höheren CO2-Konzentration und umgekehrt bei La Nina. Dies berücksichtigt die geringen Fluktuationen von Jahr zu Jahr aufgrund der ENSO-Aktivität, hat aber keinen Einfluss auf das langzeitliche Verhalten des Modells.

Das Modell wird initialisiert im Jahre 1750 aufgrund der Schätzungen von Boden et al. (2017) der jährlichen anthropogenenCO2-Emissionen und passt exzellent zu den Mauna Loa-Daten unter der Annahme eines Hintergrund-CO2-Niveaus von 295 ppm und einer natürlichen Rate der Entfernung von 2,33% pro Jahr des atmosphärischen Überschusses jenseits dieser Grundlinie.

Hier folgt das resultierende Fit des Modells zu den Mauna Loa-Daten mit allgemein ausgezeichneten Ergebnissen. (Man glaubt, dass die Reduktion des atmosphärischen CO2-Gehaltes nach dem Pinatubo-Ausbruch einer gesteigerten Photosynthese geschuldet ist infolge einer zunehmenden Diffusion des in Wälder einfallenden Sonnenlichtes wegen der vulkanischen Aerosole):

Abbildung 1: Kalibriertes CO2-Budget-Modell im Vergleich zu den CO2-Messungen am Mauna Loa. Das Modell läuft mit den Schätzungen von Boden et al. (2017) der jährlichen anthropogenen CO2-Emissionen und entfernt den Überschuss des CO2-Gehaltes über einem Grundwert.

Das Modell berücksichtigt sogar den allmählich zunehmenden Trend der offensichtlich jährlichen fraktionalen Entfernung von CO2.

Abbildung 2: Jährlicher Anteil anthropogener Emissionen, der von der Natur offensichtlich aus der Atmosphäre entfernt wird. Rot: Mauna Loa-Messungen, blau: Modellergebnisse.

Modellprojektionen des zukünftigen atmosphärischen CO2-Gehaltes

Ich ließ das Modell mit den folgenden Beiden Annahmen zukünftiger Szenarien laufen:

1) Die EIA-Projektion einer Zunahme der Emissionen um 0,6% pro Jahr bis zum Jahr 2050 und

2) konstante Emissionen nach dem Jahr 2050.

Die resultierende CO2-Konzentration zeigt Abbildung 3 zusammen mit den CO2-Konzentrations-Szenarien RCP2.6, RCP4.5, RCP6.0 und RCP8.5, welche in die CMIP5-Klimamodelle eingehen:

Abbildung 3: CO2-Modellprojektion des atmosphärischen CO2-Gehaltes aufgrund der EIA-Schätzungen der Zunahme von CO2-Emissionen bis zum Jahr 2050, gefolgt von konstanten Emissionen danach.

Interessanterweise kommt das Modell mit diesen ziemlich sinnvollen Annahmen von CO2-Emissionen nicht einmal in die Nähe einer CO2-Verdoppelung in der Luft. Es simuliert eine Gleichgewichts-CO2-Konzentration von 541 ppm im Jahre 2240.

Diskussion

Meiner Erfahrung nach wird der Haupt-Kritikpunkt dieses Modells sein, dass es „zu einfach“ und daher möglicherweise unrichtig ist. Aber ich möchte die Leserschaft auffordern, selbst darüber zu befinden, wie gut das einfache Modell 60 Jahre von CO2-Messungen abbildet (Abbildungen 1 & 2).

Auch möchte ich die falschen Prophezeiungen von vor vielen Jahren in Erinnerung rufen seitens der Modellierer des globalen Kohlenstoff-Kreislaufes, wonach das System Erde mit so viel CO2 in der Luft nicht fertig werden kann und dass der Anteil, der mit der Zeit wieder entfernt wird, abzunehmen beginnt. Wie Abbildung 2 oben zeigt, war das nicht der Fall. Vielleicht, wenn es um Photosynthese geht, erzeugt mehr Leben immer noch mehr Leben, was zu einer allmählich zunehmenden Fähigkeit der Biosphäre führt, überschüssiges CO2 aus der Atmosphäre zu entfernen.

Angesichts der großen Unsicherheiten, wie der globale Kohlenstoff-Kreislauf auf mehr CO2 in der Atmosphäre reagiert, ist es absolut sinnvoll zu hypothetisieren, dass die Rate, mit welcher Ozean und Festland CO2 aus der Atmosphäre entfernen, einfach proportional zur atmosphärischen Konzentration über einer bestimmten Grundlinie ist. Diese einfache Hypothese impliziert nicht notwendigerweise, dass die Prozesse der Kontrolle von CO2-Quellen und -Senken ebenfalls einfach sind, sondern nur, dass die globale Gesamtrate der Entfernung atmosphärischen CO2 in sehr einfacher Form parametrisiert werden kann.

Die Mauna Loa-Daten stützen diese Hypothese eindeutig (Abbildungen 1 & 2). Und das Ergebnis ist, dass auf der Grundlage der jüngsten zukünftigen CO2-Projektionen die zukünftigen Konzentrationen nicht nur deutlich unter dem RCP8.5-Szenario liegen, sondern auch noch unter dem RCP4.5-Szenario, wobei die atmosphärische CO2-Konzentration nicht einmal eine Verdoppelung (560 ppm) des vorindustriellen Niveaus (280 ppm) erreichen wird. Dieses Ergebnis zeigt sich sogar ohne zukünftige Reduktionen von CO2-Emssionen, was möglich ist, wenn neue Technologien verfügbar werden.

Ich denke, dass dies einer Diskussion genauso würdig ist wie die Unmöglichkeit des RCP8.5-Szenarios. Und es erhebt sich die Frage, wie gut die Kohlenstoff-Kreislauf-Modelle wirklich sind.

Link: https://wattsupwiththat.com/2020/02/02/will-humanity-ever-reach-2xco2-possibly-not/

Übersetzt von Chris Frey EIKE




The Solution To Dissolution

Sie beginnt so:

Der steigende Säuregehalt des Pazifiks führt dazu, dass sich die Schalen des Pazifischen Taschenkrebses [Dungeness crab] auflösen.

Die Versauerung macht die Schalen der Larven dieser Krebse verwundbarer gegenüber Raubtieren und limitiert die Effektivität zum Wachstum der Muskeln.

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Sieht aus, als wäre das Ende der Zeiten gekommen, oder? Also möchte ich gleich zu Beginn ein simples Faktum nennen: Der Ozean ist NICHT sauer! Und das wird er auch nie werden, außer vielleicht an ein paar isolierten Stellen. Er ist alkalisch. Das Niveau von sauer/alkalisch wird mit der pH-Skala ausgedrückt. Auf dieser ist 7.0 neutral, 7 bis 14 alkalisch und 0 bis 7 sauer. [Siehe Abbildung 1 ganz oben! Hier noch einmal, weil sie oben nicht vollständig gezeigt wird:]

Aus der Graphik geht ein pH-Wert um 8 der Ozeane hervor (allerdings, wie wir sehen werden, verdeckt das erhebliche Variationen).

Und dem zufolge, was ich in der High School in Chemie über chemische Analyseverfahren gelernt habe weiß ich, dass wenn man einer basischen Lösung etwas Säure hinzufügt – oder auch umgekehrt – das aus einem einfachen Grund „Neutralisierung“ genannt wird, bewegt sich doch die Lösung in Richtung neutral.

Wenn sich Kohlendioxid im Regen- oder Ozeanwasser löst, entsteht eine schwache Säure. Fügt man diese schwache Säure dem Ozean hinzu, wird dieser leicht etwas neutralisiert. Um wie viel? Nun, falls man den Modellen Glauben schenken will, bewegt sich der pH-Wert der Ozeane bis zum Jahr 2100 von derzeit 8 auf etwa 7,92. Mit anderen Worten, eine schwache Neutralisierung.

Warum aber ist dann andauernd von „Ozean-Versauerung“ die Rede und nicht von „Ozean-Neutralisierung“? Traurige Antwort: weil „Versauerung“ viel beängstigender klingt. Das kann man in obigen Ausführungen erkennen, wo es heißt:

Der Pazifische Ozean wird so sauer, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nun, nein! Das kann falscher nicht sein. Der Ozean ist nicht im Geringsten sauer. Er ist lediglich etwas weniger alkalisch. Die Verwendung des Terminus‘ „Versauerung“ anstatt „Neutralisierung“ soll uns davon überzeugen, dass das Unmögliche passiert. Man stelle sich einmal vor, die Aussage oben würde lauten

Der Pazifische Ozean wird so neutralisiert, dass sich die Schalen einer Schlüsselspezies von Krebsen aufzulösen beginnen. Dies geht aus einer neuen US-Studie hervor.

Nanu? Der Pazifische Ozean wird so neutral, dass sich Dinge aufzulösen beginnen? Wie bitte?

Der Alarmismus dreht durch.

Und noch etwas ist wichtig hinsichtlich des pH-Wertes. Lebewesen kommen mit sauren Substanzen wesentlich besser zurecht als es bei uns mit alkalischen Substanzen der Fall ist. Man betrachte noch einmal Abbildung 1 oben. Wir konsumieren regelmäßig ziemlich saure Sachen. Weintrauben und Orangensaft hat einen pH-Wert von etwa 3. Zitronensaft hat einen pH-Wert von zwei, sehr sauer, fünf pH-Einheiten unter neutral. Und bei sechs Einheiten unter neutral mit einem pH-Wert von nur eins – ist unsere eigene Magensäure.

Aber wir essen nicht viel, das alkalischer ist als ein pH-Wert von etwa 10, wie Kohl, Brokkoli und Artischocken. Und während unsere Mägen einen pH-Wert von 1 mühelos tolerieren, werden wir übel verätzt durch Bleiche am entgegen gesetzten Ende der pH-Skala.

Und jetzt zum erforderlichen Vorbehalt (Disclaimer). Für dieses Thema habe ich ein persönliches Interesse und eine persönliche Leidenschaft. Ich lebe an der Westküste der USA in genau dem Gebiet, um das es hier geht, und ich habe in diesen Gewässern seit Jahren kommerziell geangelt. Daher weiß ich Einiges über lokale ozeanische Ökosysteme.

Damit als Prolog nun zurück zu der Panikmache im Guardian-Artikel. Dieser basiert auf einer wissenschaftlichen Studie mit dem Titel [von Google übersetzt] „Exoskelett-Auflösung mit Mechanorezeptor-Schäden bei der Larve der Dungeness-Krabbe im Zusammenhang mit dem Schweregrad der heutigen vertikalen Gradienten der Ozeanversauerung“ [Link zum Original hier] … die „Ozean-Versauerung“ (OA) schlägt wieder zu. Auszug aus dem Abstract:

Die Ozean-Versauerung (OA) entlang der US-Ostküste intensiviert sich schneller als im globalen Ozean beobachtet. Dies gilt vor allem in küstennahen Regionen (<200 m), die eine geringere Puffer-Kapazität aufweisen und gleichzeitig wichtige Lebensräume für ökologisch und wirtschaftlich bedeutende Arten bieten.

Nun kann ich nirgendwo in der Studie irgendeine Referenz für den Gedanken entdecken, dass die US-Westküste irgendwie schneller versauert als der globale Ozean. Tatsächlich haben wir kaum pH-Daten aus dem globalen Ozean.

Aber ein paar Daten haben wir doch. Eine höchst informative Graphik zeigt einen Ausschnitt des Ozeans von der Oberfläche bis zum Grund und von Hawaii bis nach Alaska. Im Verlauf von 15 Jahren sind Wissenschaftler immer wieder diese Route entlang gefahren, wobei sie periodisch den pH-Wert von der Oberfläche bis zum Grund maßen. Dazu habe ich in meinem Beitrag mit dem Titel „The Electric Oceanic Acid Test“ schon etwas geschrieben. Hier folgt dieser Ozean-Querschnitt mit dessen Original-Bildinschrift:

Abbildung 2. Der Einschub links unten zeigt das Untersuchungsgebiet. Quelle

Nun gibt es hinsichtlich dieser Graphik mehrere faszinierende Phänomene. Das erste ist die große Bandbreite der pH-Werte im Ozean. Wir neigen zu der Annahme, dass der pH-Wert überall in etwa gleich ist, aber nichts könnte weiter von der Wahrheit entfernt sein. Um Hawaii (in der Graphik oben links) beträgt der pH-Wert 8,5. Aber ein paar hundert Meter unter der Oberfläche vor der Küste Alaskas (oben rechts) beträgt dieser Wert 7,25. Dieser pH ist das, was hysterische Wissenschaftler und der Guardian als „SEHR VIEL SAURER“ bezeichnen, aber die richtige Beschreibung wäre „neutraler“.

Und weiter – wo befinden sich die meisten Lebewesen in dieser Graphik? Nun, genau vor der Küste Alaskas, in meinen alten Fischgründen, die angefüllt sind mit Plankton, Heringen, Lachsen, Flundern, Walen und allen Arten maritimer Lebensformen überhaupt. Sie alle florieren in jenen „SEHR VIEL SAUREREN“, d.h. „neutraleren“ Ozeanwassern.

Und schließlich gedeiht Meeresleben unter allen pH-Werten in der Graphik. Es gibt Fische und andere Meereslebewesen bei jedem pH-Niveau und in jedem von der Graphik abgedeckten Gebiet, von oben bis unten und von Hawaii bis nach Alaska. Sie sind nicht gefesselt an einen schmalen Bereich, wo sie sterben werden, wenn sich der pH-Wert auch nur um eine Zehnteleinheit im Verlauf von einhundert Jahren ändert.

Also bitte – können wir uns jetzt nicht einmal von diesem Gedanken verabschieden, wonach eine geringe, allmähliche Neutralisierung jede arme Kreatur im Ozean töten würde? Alkalinität ist ein Problem für Lebewesen im Meer, nicht Versauerung. Darum sind so viele dieser Lebewesen überzogen von einer Schleimschicht – um sich nämlich vor dem alkalischen Seewasser zu schützen.

Aber weiter. Ich habe schon zuvor etwas über pH-Messungen geschrieben, und zwar am Einsaugloch des Rohres zum Monterey Bay Aquarium in einem Beitrag mit dem Titel „A Neutral View of Oceanic pH“. In jenem Beitrag wurde offensichtlich, dass der langfristige pH-Trend an jener Stelle geringer war als an der Tiefwasserstelle vor Hawaii. Hier die Graphik aus jenem Beitrag, welche die Differenz zeigt:

Abbildung 3: Oberfächen-pH-Messungen im offenen Ozean (HOT) und an der Küste der Monterey Bay. Die Hawaii-Daten zeigen sowohl gemessene pH-Werte (schwarz) als auch aus anderen Messungen berechnete pH-Werte, z. B. gelöst in anorganischem Kohlenstoff (DIC), totaler Alkalinität und Salinität. Man erkennt die höheren pH-Werte um Hawaii, die schon in der vorigen Abbildung hervortraten.

Traurigerweise ist die Website mit dem pH-Datensatz aus der Monterey Bay zu irgendeiner unbekannten japanischen Website geworden. Glücklicherweise habe ich die Daten aber gespeichert. Und ich vermochte sogar weitere pH-Daten aufzufinden in eine Zeitreihe direkt nach dem Ende meiner alten Daten. Allerdings scheint die Kalibrierung der pH-Messfühler in dem neuen Datensatz etwas verändert. Ich habe beide Datensätze in einer Graphik erfasst mit separaten linearen Trendverläufen in beiden Datensätzen:

Abbildung 4: 25 Jahre monatlicher mittlerer pH-Messungen an der Einsaugpumpe, wo 9,5 Millionen Liter Meerwasser pro Tag in das Monterey Bay Aquarium strömen. Zwei separate Datensätze wurden betrachtet. Der Einsaugstutzen befindet sich 15 Meter unter der Wasseroberfläche. Die Größenordnung des projizierten pH-Rückgangs bis zum Jahr 2100 unter dem RCP6.0-Szenario ist dargestellt durch die senkrechten Striche in weiß oben rechts.

Der neutrale pH-Wert von 7,0 findet sich unten, unter den Daten. Man beachte, dass der langzeitliche Trend des mittleren pH-Wertes des Wassers in beiden Datensätzen in etwa gleich ist und dass der Trend ziemlich gering ist im Vergleich zu der projizierten leichten Neutralisierung bis zum Jahr 2100.

Und noch wesentlicher: jene projizierte pH-Abnahme von 0,08 pH-Einheiten bis zum Jahr 2100 wird marginalisiert durch den Tagesgang der pH-Werte. Die Standardabweichung der täglichen pH-Änderung beträgt 0,6 Einheiten, diejenige der monatlichen Änderung 0,1 Einheiten.

Warum ändert sich der pH-Wert an der US-Westküste so rasch? Das hat alles zu tun mit aufwallendem Wasser vor der Küste. Wechselnde Winde entlang der Küste sorgen dafür, dass kaltes, CO2-reiches und neutraleres Tiefenwasser in unterschiedlicher Menge an die Oberfläche gelangt, was den pH-Wert buchstäblich sich über Nacht ändern lässt.

Abbildung 5: Die mechanische Auswirkung der Nordwinde entlang der US-Westküste sorgt für aufwallendes Tiefenwasser, reich an CO2-Gehalt und neutraler. Quelle: NOAA

Und dieser sich fortwährend ändernde pH-Wert ist es, der diese Behauptungen über ozeanische Lebewesen, die so furchtbar unter trivial geringen Änderungen des pH-Wertes leiden, total unglaubwürdig erscheinen lässt. Jedes Lebewesen im Ozean entlang dieser Küste erlebt Tag für Tag viel stärkere pH-Änderungen als sie im Verlauf des Jahrhunderts erleben werden.

Es gibt noch einen weiteren Datensatz, den ich hierzu noch hinzufügen muss, bevor ich auf die Studie selbst eingehe. Die Studie selbst befasst sich mit einem Gebiet nahe Seattle. Wie also verhält sich der ozeanische pH-Wert ebendort?

Es stellt sich heraus, dass es sehr schwierig ist, langzeitliche pH-Messungen aus jenem Gebiet zu finden. Die besten, die ich finden konnte, war eine unterbrochene Reihe von Messungen einer Boje vor der Küste von Washington State nahe einer Meerenge – ein wunderschönes Fleckchen unseres Planeten, das ich vor einiger Zeit besucht hatte. Die La Push buoy befindet sich hier:

Abbildung 6: Das gelbe Quadrat kennzeichnet die Stelle der „La Push-Boje. Die Meerenge ist der blaue, landeinwärts gerichtete Kanal. Die Städte Seattle und Tacoma befinden sich am inneren Ende der Meerenge. Vancouver Island in Kanada liegt nördlich derselben.

Es sieht so aus, dass die Boje geborgen wird, wenn das Wetter sehr rauh ist, weil weil es in jedem Winter eine Datenlücke gibt. Hier sind die Daten dieser Boje dargestellt, und zwar mit der gleichen Skala wie die Monterey-Daten oben:

Abbildung 7: Tägliche Aufzeichnungen von der Wasseroberfläche der La Push-Boje vor der Küste von Washington State. Im Hintergrund sieht man eine Insel nahe der Boje.

Und wieder erkennt man die gleiche Situation. Die pH-Änderungen sind viel größer als die projizierte Änderung von heute bis zum Jahr 2100. Und während ich die Trendlinie wegen der vielen Datenlücken nicht überbewerten möchte, ist es gut möglich, dass der Trend tatsächlich etwas alkalischer wird.

Wie kann das sein? Man erinnere sich, die pH-Schwingungen entlang dieser Küste und der mittlere pH-Wert selbst sind keine direkten Funktionen des CO2-Niveaus. Stattdessen werden sie gesteuert durch die unbeständige und mittlere Windstärke. Ist es windiger, wallt mehr neutraleres Tiefenwasser auf und erniedrigen den Oberflächen-pH – und umgekehrt.

Und falls jemand denkt, dass derartige pH-Schwingungen auf diese Küste beschränkt sind, der betrachte einige Daten aus der ganzen Welt:

Abbildung 8: pH-Werte nebst deren Variationen in verschiedenen ozeanische Ökosystemen. Horizontale Strecken (schwarz) zeigen die Bandbreite der pH-Werte. Das Ausmaß der erwarteten leichten Neutralisierung bis zum Jahr 2100 nach dem RCP6.0-Szenario repräsentieren die roten Strecken oben. Die Ischia South Zone, wo die niedrigsten pH-Werte auftreten, liegt neben einem Vulkan, in dessen Umfeld ständig CO2 aus dem Ozeanboden ausgast. Datenquelle

Schließen möchte ich mit einem Blick auf die Studie selbst, zumindest solange ich es ertragen kann. Ich möchte einige Zitate hervorheben. In der ersten Zeile ihrer „Höhepunkte“ liest man:

Küstennahe Habitate mit den steilsten vertikalen Gradienten der Ozean-Versauerung sind dem Zustand der Krebslarven absolut abträglich.

Nun gibt es so etwas wie einen „vertikalen Gradienten der Ozean-Versauerung“ nicht. Es gibt einen vertikalen pH-Gradienten, wie man es auch erwarten kann mit dem Aufwallen von CO2-reichem Tiefenwasser, welches das alkalischere Oberflächenwasser mit weniger CO2 erreicht. Aber dies ist ein natürlicher Umstand, wie er schon immer vorhanden war und nichts mit Ozean-Versauerung OA zu tun hat. Und es werden auch keinerlei Beweise geliefert, welche zeigen, dass sich der Gradient in Zukunft markant ändern wird.

In ihren Conclusions schreiben sie:

Wie die Auflösung bei Pteropoden ist das bei der Dungeness-Krabbe beobachtete Larvensterben ein klarer Beweis dafür, dass wirbellose Meerestiere in ihrer natürlichen Umgebung durch eine längere Exposition gegenüber starken, heutigen OA-bezogenen vertikalen Gradienten geschädigt werden.

[Ausnahmsweise übersetzt mit Linguee-Translator. Anm. d. Übers.]

Allerdings bringen sie auch hier keine Beweise dafür, dass eine „OA“ oder eine milde ozeanische Neutralisierung in der Vergangenheit irgendwelche Auswirkungen auf die „vertikalen Gradienten in der natürlichen Umgebung“ hatten. Die vertikalen pH-Gradienten vor der Küste sind eine Funktion des Aufwallens, was wiederum eine Funktion des Windes ist, der sich permanent ändert. Sie haben keine langzeitlichen Daten für den vertikalen pH-Gradienten. Stattdessen begaben sie sich auf eine zweimonatige Reise, nahmen einige Wasserproben und extrapolierten bis zum Anschlag. Wir wissen nicht einmal, ob sie die genau gleiche „Auflösung“ [dissolution] vor 100, 50 oder 25 Jahren gefunden haben. Oder vielleicht war die Auflösung besonders schlecht während dieses speziellen Zeitraumes von zwei Monaten in diesem speziellen kleinen Gebiet. Das sollte uns nicht überraschen. Ein Grund, warum so viele maritime Lebewesen Hunderttausende Larven hervorbringen ist, dass viele, vielleicht die meisten davon, in feindliche Umgebungen treiben und aus irgendwelchen Gründen sterben – die Liste dieser Gründe ist lang: Probleme mit dem Salzgehalt, Trübung, pH-Wert, Raubtiere, Wassertemperatur und andere.

Und schließlich belegt diese Studie eines – dass nämlich Neptun, der einen Dreizack schwingende Meergott, definitiv einen Sinn für Humor hat. Die ultimative Ironie ist Folgende:

Sie konnten die Teile der Krebslarve gar nicht sehen, welche sie untersuchen wollten, weil jene Teile der Larven von einer Schale umgeben sind. Also mussten sie zunächst diese Schale auflösen, um Zugang zu ihrem Studienobjekt zu erlangen. Sie beschreiben dieses Problem und dessen Lösung so:

Die Schuppen der Schale, welche normalerweise über der kristallinen Schicht liegen und Beobachtungen der Auflösung unmöglich machen, wurden vor der Analyse von jeder Larve entfernt, und zwar mittels Chlorbleichlauge [sodium hypochlorite], welches die Schalen effektiv beseitige, nicht aber die kristallinen Schichten darunter, auch nicht bei hohen Konzentrationen.

Dreimal darf geraten werden, welche Auswirkung die 6%-Lösung der Chlorbleichlauge auf den pH-Wert hat, die sie angewendet haben.

Es hat einen pH-Wert von 11 oder mehr und liegt damit fast ganz oben der Skala in Abbildung 1, ist also sehr stark alkalisch.

Kein Wunder also, dass Neptun in Gelächter ausbricht – sie sind in höchster Alarmbereitschaft hinsichtlich „Versauerung“ und Auswirkungen derselben auf die Auflösung der Larvenschalen … aber sie gebrauchen eine alkalische Lösung, um die Larvenschalen tatsächlich aufzulösen.

Ist Wissenschaft nicht etwas Wunderbares?

Link: https://wattsupwiththat.com/2020/01/31/the-solution-to-dissolution/

Übersetzt von Chris Frey EIKE