Presseerklärung vom 13. Dezember 2017
Bei dem Pariser Klima-Abkommen vom Dezember 2015 wurde vereinbart, dass die Zunahme der globalen mittleren Temperatur auf deutlich unter 2°C verglichen mit dem „vorindustriellen Niveau“ begrenzt werden muss und dass man sich bemühen sollte, den Anstieg auf 1,5°C zu begrenzen. Eine genauere Betrachtung des Vertrags-Wortlautes enthüllt jedoch, dass der Terminus „vorindustrielles Niveau“ nirgendwo in diesem epochalen UN-Dokument definiert ist, welches mittlerweile von 170 teilnehmenden Parteien ratifiziert worden ist. Dies ist besonders komisch, weil die „vorindustriellen“ Temperaturen der letzten 10.000 Jahren signifikante Variationen durchlaufen haben, wie akribisch dokumentiert in hunderten paläoklimatischer Studien.
Verwirrt durch diese klaffende Lücke im Abkommen machte sich Fritz Vahrenholt daran, die Historie der Definition zum Temperaturlimit zu ergründen. Der ehemalige Manager erneuerbarer Energie und derzeit Leiter der German Wildlife Foundation fand zu seiner Überraschung heraus, dass die ursprüngliche Beschreibung dieses bedeutenden Klimaziels von Mitte der siebziger Jahre stammt und von einem Ökonom namens William Nordhaus ins Spiel gebracht worden ist. Nordhaus‘ Gedanke war ebenso einfach wie effektiv: Er betrachtete die Höchstwerte der Temperatur der letzten paar hunderttausend Jahre und warnte, dass die dabei zutage getretene natürliche Bandbreite in Zukunft nicht überschritten werden darf. Zwei Jahrzehnte danach, nämlich im Jahre 1995 überarbeitete der Wissenschaftliche Beirat Globale Umweltveränderungen WBGU dieses Konzept, behielt aber den ursprünglichen Gedanken eines tolerierbaren „Temperatur-Fensters“ von Nordhaus bei.
Vahrenholt: „Unglücklicherweise ist diese wichtige paläoklimatische Perspektive in nachfolgenden grundlegenden Studien, welche den Weg nach Paris bereitet hatten, verloren gegangen. In Berichten der Weltbank und des United Nations Framework Convention on Climate Change (UNFCCC) aus den Jahren 2014 und 2015 wurde der historische Zeitraum auf die letzten 200 Jahre eingeengt, welche den enormen natürlichen Temperatur-Fluktuationen im Zeitmaßstab von Jahrtausenden nicht gerecht wird“.
Um die komplexe präindustrielle Temperatur-Historie besser zu verstehen tat er sich mit Sebastian Lüning zusammen, einem professionellen Ressourcen-Geologen, der in seiner Freizeit an paläoklimatischen Studien arbeitet am in der Schweiz ansässigen Institute for Hydrography, Geoecology and Climate Sciences. Lüning durchforstete die Literatur und integrierte die Temperaturgrenzen von 2,0°C bzw. 1,5°C in die Klimaentwicklung der letzten 2000, 10.000 und 200.000 Jahre.
Lüning: „Der Vergleich der derzeitigen Erwärmung mit dem Referenz-Niveau am Ende der Kleinen Eiszeit vor etwa 150 Jahren ist wenig sinnvoll, weil diese Zeit eine der kältesten Epochen der letzten 10.000 Jahre repräsentiert. Die Auswahl eines Parameters als Grundlinie nahe dem untersten Extrem eines variablen Parameters ist in der Wissenschaft unüblich. Das Temperaturniveau des Zeitraumes von 1940 bis 1970 wäre ein viel besser geeignetes Referenz-Niveau, weil es in etwa mit dem mittleren vorindustriellen Temperaturniveau der letzten beiden Jahrtausende korrespondiert“.
In einem sogar noch längeren Zeitmaßstab stellte sich heraus, dass die Temperatur gegenwärtig noch nicht einmal über die höchsten Temperaturen einer natürlichen Warmphase hinausgegangen sind, dem „Thermalen Maximum des Holozäns“ vor etwa 7000 Jahren. Die globalen Temperaturen können während jener Warmphase gut über das Limit von 1,5°C hinaus gegangen sein, wenn man Land- und Wassertemperatur zusammen in Betracht zieht. Die Zunahme dieses natürlichen Temperatur-Fensters und die Verschiebung der Grundlinie vergrößert die Obergrenze des 1,5°C-Limits und muss weiter untersucht werden.
Nichtsdestotrotz geben die beiden Forscher zu bedenken, dass die obere Grenze von 2°C davon nicht betroffen ist, weil dieses durch das sogar noch wärmere Klima des letzten Interglazials repräsentiert wird, also vor etwa 120.000 Jahren. Das 2°C-Limit bleibt also gültig, vor allem, weil der Meeresspiegel während jener Zeit 5 bis 7 Meter höher lag als heute. Falls es dazu heutzutage kommen würde, hätte dies ernste Konsequenzen.
Die am 12. Dezember 2017 in dem Journal Frontiers in Earth Science veröffentlichte Studie erinnert Politiker, Wissenschaftler und die Öffentlichkeit daran, dass die im Paris-Abkommen genannte „vorindustrielle“ Zeit einen dynamischen Wechsel zwischen Warm- und Kaltphasen involviert, der im Zusammenhang betrachtet werden muss. Die Kleine Eiszeit, um das Jahr 1850 zu Ende gegangen, repräsentiert kein geeignetes Referenz-Niveau für die Erwärmung im 20. und 21. Jahrhundert, weil sie grundlegende wissenschaftliche Kriterien vermissen lässt.
Studie:
Lüning, S., F. Vahrenholt (2017): Paleoclimatological context and reference level of the 2°C and 1.5°C Paris Agreement long-term temperature limits. Frontiers in Earth Science, 12 December 2017, doi: 10.3389/feart.2017.00104
Media contact:
Dr. habil. Sebastian Lüning
Institute for Hydrography, Geoecology and Climate Sciences, Ägeri, Switzerland
luening@ifhgk.org
Tel.: 00351-961 470 494
Übersetzt von Chris Frey EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
@Kramm
„Der Grund ist der, dass das gesamte Konzept voellig falsch ist. Keiner der im globalen Energiehaushalt des Systems Erde-Atmosphaere auftretenden Energiefluesse ist von einer globalen Mitteltemperatur abhaengig“
Dass Sie alles was andere Fachleute berechnen, für unsinnig halten, aber selbst keine brauchbaren Rechenergebnisse vorlegen können, ist hinlänglich bekannt. Insbesondere betrifft das den strahlungsbedingten Treibhaus- oder Atmosphäreneffekt, den Sie wegen des nur für Nettofluesse gültigen und daher falsch interpretierten 2.HS grundsätzlich zwar für nicht existent halten, aber anstatt mit 33 Grad sogar schon zu 67 Grad berechnet haben.
Ihre obige Aussage verneint sogar das Strahlungsgleichgewicht der Erde. Wenn die Energieflüsse (im Mittel) nicht von der Bodentemperatur abhängen, hängt auch die Bodentemperatur nicht von den Energiefluessen ab und wird damit beliebig!
Sie setzen Stefan-Boltzmann als Berechnungsgrundlage im Strahlungsmodell – genauso bei mir wie beim IPCC – ausser Kraft. Damit verneinen Sie sogar dass sich die Bodentemperatur bei Zunahme der Einstrahlung erhöht (z.B. durch Gegenstrahlung aus den THG welche sogar von Ihnen gemessen wurde) weil diese ja zusätzlich wieder emittiert werden muss, obwohl sie in den Nettofluss nicht eingeht.
Dietze,
erstens zaehlen Sie nicht zu den Fachleuten und zweitens koennen Sie deswegen auch nicht beurteilen, was physikalisch relevant ist und was nicht.
Sie verwechseln zudem den Effekt der Atmosphaere mit einem sog. atmosphaerischen Treibhauseffekt, fuer den es ueber 15 verschiedene Definitionen und Beschreibungen in der sog. Fachliteratur gibt, die sich z.T. sogar widersprechen. In der Physik ist ein Effekt eindeutig definiert.
Sie schrieben:
„Ihre obige Aussage verneint sogar das Strahlungsgleichgewicht der Erde. Wenn die Energieflüsse (im Mittel) nicht von der Bodentemperatur abhängen, hängt auch die Bodentemperatur nicht von den Energiefluessen ab und wird damit beliebig!“
Wann lernen Sie, korrekt zu zitieren? Was ich schrieb, lautet:
„Keiner der im globalen Energiehaushalt des Systems Erde-Atmosphaere auftretenden Energiefluesse ist von einer globalen Mitteltemperatur abhaengig.“
Es geht also nicht um die Bodentemperatur, sondern um die globale Mitteltemperatur. Wenn Sie dann auch noch behaupten, ich wuerde das Stefan-Boltzmann-Gesetz als Grundlage fuer das Strahlungsmodell ausser Kraft setzen, dann dokumentieren Sie damit nur Ihre XXXXXXX. Sie wollen das Stefan-Boltzmann-Gesetz auf globale Mitteltemperaturen anwenden, obwohl es nur lokal gueltig ist. Im uebrigen ist es falsch, dass Stefan-Boltzmann-Gesetz auf die Atmosphaere anzuwenden. Fuer die Atmosphaere ist nur die Uebertragungsgleichung fuer monochromatische Strahlungsintensitaeten relevant, wobei die Quellfunktion im Falle des lokalen thermodynamischen Gleichgewichts durch die Plancksche Strahlungsfunktion ersetzt wird. Ist Vielfachstreuung noch zu beruecksichtigen, so muss die Quellfunktion entsprechend erweitert werden.
Ihre Behauptungen zum 2. Hauptsatz der Thermodynamik sind absurd. Sie haben diesen Hauptsatz bis heute nicht begriffen. Da Sie Lehrbuecher zur Thermodynamik der irreversiblen Prozesse ignorieren, wird sich das auch nicht aendern.
Zum Schluss zitiere ich nochmals aus dem Lehrbuch „Fundamentals of Atmospheric Radiation“ von Bohren & Clothiaux (2006). Die Autoren schrieben:
“In general, energy (or power) is a more relevant physical quantity than temperature. Energies are additive, temperatures are not; energy is conserved, temperature is not. Energy fluxes drive atmospheric processes. But W m−2 is banned from American newspapers, both because it is an SI quantity and because it is much too scientific for readers of even the most pretentious newspapers in the land. Similarly, instead of energy fluxes we get the wind-chill temperature, which obscures the fact that energy fluxes, not temperatures, kill people by hypothermia.”
Und dieser Sachverhalt ist schon seit ueber hundert Jahren bekannt, denn Energie und Entropie sind extensive Groessen und Temperatur sowie Druck intensive Groessen.
@Dietze,
Sie behaupten:
„Rechnet man korrekt mit 0,6 statt mit 3 Grad, ergibt sich fuer 2 Grad sogar ein zulässiger Anstieg auf 2820 ppm (!!) und jeglicher Klimaschutz – insbesondere eine Dekarbonisierung – wird überflüssig. Mit fossiler Verbrennung können wir höchstens 0,5 Grad seit vorindustriell erreichen – oder ab 400 ppm maximal einen Anstieg auf 500 ppm und somit nur +0,2 Grad.“
Ihre Rechnung ist genauso falsch wie die des IPCC, die Sie als Gutachter des 3. Reports der Working Group I zum IPCC von 2001 noch akzeptierten. Der Grund ist der, dass das gesamte Konzept voellig falsch ist. Keiner der im globalen Energiehaushalt des Systems Erde-Atmosphaere auftretenden Energiefluesse ist von einer globalen Mitteltemperatur abhaengig.
Die Temperaturgrenzen von 1,5 °C bzw. 2 °C des Paris-Abkommens in einen historischen Klima-Zusammenhang zu stellen und einen sauber definierten Vergleichswert zu bemängeln, kann durchaus von wissenschaftlichem Interesse sein, leistet aber m.E. keinen entscheidenden Beitrag zur Kritik an den unsinnigen Beschlüssen der COP 21, die ja – bis hin zur fatalen Dekarbonisierung – politisch umgesetzt werden sollen.
Es fehlt fuer das 2-Grad-Ziel „des Pudels Kern“, nämlich die Milchmädchenrechnung welche für die (mit 3 Grad um den Faktor 5 zu hohe) CO2-Verdoppelungssensitivitaet maximal einen Anstieg von 280 auf 445 ppm und damit gegenüber 400 ppm vermeintlich noch ein restliches Emissionsbudget von nur etwa 700 Gt CO2 und kaum 20 Jahre für ein „weiter so“ ergibt.
Bezüglich „vorindustriell“ liegt in der Studie vielleicht auch eine andere Interpretation vor. Offenbar bezog man sich in Paris nicht auf reale globale historische Temperaturen (die aus der Zeit um 1800 wohl kaum genau bekannt sind), sondern auf einen Rechenwert, also die Differenz von 2 Grad die im Gleichgewicht beim Anstieg von 280 auf 445 ppm auftritt wenn man mit dem „best guess“ des IPCC rechnet.
Und dass bei 1,5 Grad gerade die Grenze von 400 ppm überschritten ist und damit ab sofort fossile Kraftwerke, Heizungen, Verbrennungsmotoren sowie Stahl- und Zementwerke verboten werden müssten, war den Delegierten offenbar nicht bekannt.
Rechnet man korrekt mit 0,6 statt mit 3 Grad, ergibt sich fuer 2 Grad sogar ein zulässiger Anstieg auf 2820 ppm (!!) und jeglicher Klimaschutz – insbesondere eine Dekarbonisierung – wird überflüssig. Mit fossiler Verbrennung können wir höchstens 0,5 Grad seit vorindustriell erreichen – oder ab 400 ppm maximal einen Anstieg auf 500 ppm und somit nur +0,2 Grad.
Genau diesen Wert nannte Präsident Trump in seiner Rede am 1.6.2017 und begründete damit vernünftig und korrekt den Ausstieg der USA. Natürlich hieß es in den Medien, dass hier „unverantwortlicherweise“ wirtschaftliche Interessen über den Klimaschutz (also die Vermeidung von ~15% von 0,2 Grad) gestellt werden.