Zahlen lügen nicht: Deutsch­lands Energie­wende hatte Null Auswir­kungen auf Emissionen – bestenfalls

Man hört regelmäßig Kommentare des Inhalts, dass die USA dasjenige Land sind, welches am meisten von Klima-Kontrarians betroffen ist und dass diese Debatte in anderen Teilen der Welt (vor allem in Europa) gar nicht existiert. Dort herrscht Konsens hinsichtlich der Notwendigkeit zu handeln, usw. Ein deutscher Staatsbürger dazu:

Unter den 97% der Wissenschaftler, die bzgl. der Grundlagen übereinstimmen, sind viele konservative Wissenschaftler. Dass es da ein Problem gibt, ist keine parteiische Angelegenheit. Wie man es löst, ist Sache der Politik. Das Pariser Klima-Abkommen wurde von fast 200 Ländern unterzeichnet und folglich von vielen konservativen Regierungen. Sie akzeptieren, dass Klimawandel ein reales Problem ist. Europäische konservative Parteien mögen weniger aktiv sein, leugnen aber nicht, dass es ein Problem gibt. In Europa leugnen nur ,Trumpische‘ rassistische Parteien dieses Problem. Dass die Klima-„Debatte“ zumeist ein amerikanisches Problem ist zeigt, dass es bei dem Problem nicht um konservativ vs. liberal geht, dass es nicht um das Fehlen wissenschaftlicher Beweise geht und dass es kein Problem der Kommunikation von Wissenschaft ist. Das Problem ist der korrumpierende Einfluss des Geldes in der US-Politik und den US-Medien.

Ich nehme ihn beim Wort.

Deutschland ist das Land mit dem stärksten Konsens um die Notwendigkeit, ,etwas‘ zu tun bzgl. Klimawandel. Keine andere Nation hat einen Plan eingesetzt, der so ambitioniert ist wie die Energiewende [hoch interessant, was Wikipedia Englisch zum deutschen Terminus ,Energiewende‘ schreibt. Anm. d. Übers.] Das Programm begann im Jahre 2000 und setzte eine Objektive bis zum Jahr 2050 – obwohl bizarrerweise, wie es üblich ist bei diesen ,Programmen‘ und ,Roadmaps‘, die Objektive in Gestalt absoluter Treibhausgas-Emissionen angegeben wird anstatt in Emissions-Intensität der Wirtschaft. Das Problem ist einfach zu erfassen:

a) Falls Emissionen im Jahre 2050 höher sind als geplant, werden Befürworter behaupten, dass es dazu kam, weil das ökonomische Wachstum stärker als erwartet war. Mit anderen Worten: Befürworter könnten behaupten, Klimapolitik sei erfolgreich gewesen, weil die Emissionen geringer waren als ohne ein solches Programm. Natürlich haben Befürworter von Emissionskürzungen nie klargestellt, wie viel ökonomisches Wachstum sie überhaupt erwarten, so dass diese Behauptung in keinem Falle falsifizierbar ist.

b) Falls die Emissionen bis 2050 gleich oder geringer sind als im Plan vorgesehen, werden deren Befürworter das Programm als erfolgreich darstellen – obwohl die Abnahme der Emissionen in Wirklichkeit ökonomischen Krisen und/oder einem Rückgang der Bevölkerung geschuldet sein kann.

Ich möchte nicht wiederholend klingen, aber die einzige sinnvolle Maßzahl ist die Emissions-Intensität des BIP und hier im Einzelnen, wie stark diese Intensität pro Jahr abnimmt. In diesem Beitrag werde ich eine positive Zahl zeigen, d. h. wie viel mehr BIP-Dollars pro Tonne CO2-Emissionen wir bekommen durch Verbrennung, sind doch Emissionen von Methan, Ozon, N20 und CO2 durch Landverbrauch höchst unsicher.

Wie auch immer, kommen wir zurück zur Energiewende. Wir sind jetzt zu einem Drittel mit dem Programm durch. Falls er also irgendwelche Auswirkungen haben sollte, müssten wir jetzt sehen, dass…:
a)…die Rate der Dekarbonisierung in Deutschland höher ist als im Zeitraum zuvor.

b)…die Rate höher ist als in anderen Ländern, welche sich vermutlich nicht so sehr um Klima-Maßnahmen kümmern. Im Vergleich zu den USA könnte dieser Unterschied erheblich sein.

Die folgende Graphik zeigt die Dekarbonisierung in den USA seit 1966, liegen doch Emissionsdaten erst seit 1965 vor. Wir können Gleiches für Deutschland seit dem Jahr 1971 sehen mit Beginn von Datenreihen des BIP des Landes – zumindest auf der Website der Weltbank:

Hoppla: Die Rate der Abnahme in Deutschland ist nicht nur die Gleiche wie in den USA, sondern liegt niedriger als vorher!

Genauer: das Mittel der Jahre 2000 bis 2015 beträgt für Deutschland 2,06% und für die USA 2,26%. Von 1971 bis 1999 liegt das Mittel in Deutschland bei 3,13%. Aber diese Zahlen werden aufgebläht durch sehr starke Zunahme während der Jahre 1989 bis 1992, als in der ehemals kommunistische Ökonomie Ostdeutschlands die meisten CO2-intensiven Betriebe außer Betrieb gingen (was kaum Auswirkungen auf das BIP hatte). Lässt man diese vier Jahre außen vor, liegt das Vor-Energiewende-Mittel von Deutschland immer noch bei 2,58% oder ein wenig höher als im Jahre 2000 – obwohl man erwähnen muss, dass den Zahlen der siebziger Jahre durch hohe Ölpreise ,nachgeholfen‘ worden ist.

Ich denke, das Beste, was man sagen kann ist, dass die Dekarbonisierungs-Rate von Deutschland etwa die Gleiche ist wie zuvor.

Um es ganz klar zu sagen: eine höhere Rate der Dekarbonisierung ist das Minimum, was man von einer Klimapolitik erwarten muss. Sie ist notwendig, aber nicht ausreichend, weil es jener Politik immer noch möglich ist, so viel zu kosten, wie es die Reduktion von Emissionen nicht wert ist. Man sollte nicht automatisch eine höhere Dekarbonisierungsrate für besser halten als eine niedrigere. Mit anderen Worten, man muss die Kosteneffektivität berücksichtigen – wie es mit allen Dingen der Fall ist, für die wir Geld ausgeben.

In Deutschland gibt es keinen Grund, über die Kosteneffektivität der Klimapolitik zu debattieren, weil deren Effektivität im besten Falle Null ist.

Befürworter von Emissionskürzungen folgen ihren eigenen Ansichten und nicht ihren eigenen Fakten. Falls jemand geltend machen will, dass Klimapolitik tatsächlich erfolgreich war, ob nun in Deutschland oder weltweit, muss Fehler in den Zahlen finden, welche die Weltbank und BP verbreiten. Falls die Daten bzgl. Verbrennung fossiler Treibstoffe signifikant falsch wären, wäre das eine dicke Schlagzeile. Falls die Daten des deutschen BIP-Wachstums (oder das der Welt) signifikant falsch wären, wäre das eine gewaltige Nachricht.

Folglich ist es sehr einfach zu beweisen, dass die Klimapolitik erfolgreich war: man weise die Zahlen als falsch nach.

Man könnte einen Nobelpreis gewinnen.

Link: https://wattsupwiththat.com/2017/05/02/numbers-dont-lie-germanys-energiewende-has-had-zero-impact-on-emissions-at-best/
Übersetzt von Chris Frey EIKE




Rundbrief der GWPF von Ende April – Energie

Eingeschaltet: der neueste Tokamak Fusions-Reaktor in UK

Die in Oxfordshire ansässige Firma Tokamak Energy hat zum ersten Mal ihren jüngsten Fusionsreaktor angeschaltet und will erreichen, dass er im nächsten Jahr 100 Millionen Grad Celsius erreicht. Bekannt unter der Bezeichnung ST40 repräsentiert der Reaktor den dritten von fünf Schritten auf dem Plan des Unternehmens, bis zum Jahr 2030 die erste Fusionsenergie in das Netz zu speisen.

Kontrollierte Fusion erfordert Temperaturen über 100 Millionen Grad Celsius, aber ein privat finanziertes Unternehmen hat dieses Ziel noch nie erreicht. Um diesmal erfolgreich zu sein konzentriert man sich bei Tokamak Energy auf kompakte, sphärische Tokamak-Reaktoren, glaubt man doch, dass diese schneller zu entwickeln sind und den schnellsten Weg zu kommerzieller Fusionsenergie bieten. The Engineer, 28. April 2017

Der erste kommerzielle Fusionsreaktor nimmt erste Hürden zur Energieerzeugung

Der neueste Fusionsreaktor ist eingeschaltet worden und hat UK einen Schritt weiter gebracht zur Stromerzeugung mit der Energie der Sterne. Man erwartet, dass das Kernstück des Tokamak ST40-Reaktors – eine superheiße Wolke elektrisch geladenen Gases oder Plasma – bis zum Jahr 2018 eine Temperatur von 100 Millionen Grad Celsius erreicht. Der neue Reaktor wurde in Milton Park in Oxfordshire von der Firma Tokamak Energy gebaut, einem privaten Unternehmen, welches Pionierarbeit leistet zur Entwicklung von Fusionsenergie in UK und der Welt. Wir enthüllen die erste Weltklasse-Anlage zur kontrollierten Fusion, gebaut und betrieben von einem privaten Unternehmen. Die ST40 ist eine Maschine, welche zeigen wird, dass Fusionstemperaturen – 100 Millionen Grad – in kompakten, kosteneffektiven Reaktoren erreicht werden können. Dies wird es gestatten, Fusionsenergie in Jahren und nicht Jahrzehnten zu bekommen. Energy Voice, 28. April 2017

Wir alle sind Opfer des Großen Grünen Schwindels

Unsere Besessenheit, Kohlenstoff-Emissionen zu reduzieren, hat schreckliche Konsequenzen gezeitigt. Unsere Versuche, altruistisch zu sein, haben den Verwundbarsten viel eher Schaden zugefügt als ihnen zu helfen. Fast genauso schlimm ist, dass jene 11 Millionen Menschen, die derzeit ein Dieselfahrzeug fahren, bestraft werden, weil sie vor einem Jahrzehnt dem Ratschlag der Regierung gefolgt waren, dass Dieselfahrzeuge helfen würden, die CO2-Emissionen des Landes zu reduzieren. Es sind die Autohersteller, die nach wie vor höchste Profite durch diesen großen grünen Schwindel einstreichen – die Verbraucher sind es mit Sicherheit nicht. Politische Berater in Downing Street weisen darauf hin, dass Theresa May auf der Seite der Verbraucher steht und skeptisch ist hinsichtlich der jüngsten, überaus einträglichen Umweltmarotte. Im vorigen Jahr hat der Stabschef der Premierministerin den Climate Change Act, welcher die Wurzel eines großen Teils dieser fehlgeleiteten Politik war, ein „monströses Gesetz nationaler Selbstbeschädigung“ genannt. Er hatte recht. Sobald die Wahl vorüber ist, braucht UK eine koordinierte Energie-Strategie und einen neuen Clean Air Act, um die Umwelt zu schützen und das Vertrauen in die Politik der Regierung wiederherzustellen. – Alice Thomson, The Times, 26. April 2017

Energiepolitik während der ersten 100 Tage von Präsident Trump

Der 29. April markiert das Ende der ersten 100 Tage von Donald Trump als Präsident. Er viele bedeutende Maßnahmen im Bereich Energie- und Klimapolitik ergriffen und scheint auf diesem Weg weiterzugehen. Was aber natürlich wirklich zählt ist, was er während der nächsten zwei bis vier Jahre erreicht und wie viel seiner Energie-Agenda danach noch in kraft ist. Journalisten und und Kritiker fahren fort, Präsidenten bzgl. ihrer ersten 100 Tage zu vergleichen, teils wegen des Einflusses von Pro-New-Deal-Historikern [?], welche jene Metrik popularisieren, um sicherzustellen, dass frühe legislative Leistungen immer als sehr eindrucksvoll erscheinen. Damit hat sich Präsident Trump selbst als ein großer Erfolgstyp bzgl. Politik erwiesen, welcher seinen wirtschaftlichen Erfolgen in nichts nachsteht. – Marlo Lewis Jr, Competitive Enterprise Institute, 25. April 2017

Der Preis von Europas grüner Narretei: Gazprom weidet sich an seiner Dominanz in Europa

Den neuesten Nachrichten zufolge sicherte die Nord Stream-Pipeline 2 von Gazprom 50% seiner Finanzierung durch Darlehen/Kredite [loans] von fünf europäischen Unternehmen. Der Generaldirektor des in Staatsbesitz befindlichen Unternehmens verhehlte seine Freude nicht. „Heute brechen wir unseren Rekord aus dem Jahr 2016 um 10 Prozent. Daher können wir in diesem Jahr neue Rekorde erwarten, und der Marktanteil von Gazprom in Europa sieht einem weiteren Anstieg entgegen“, sagte Alexej Miller in einem Interview mit Reuters. Miller hat da nicht ganz unrecht. Egal wie stark Europa dafür agitiert hat, von russischem Gas unabhängig zu werden, hat der Kontinent in Wirklichkeit seine Abhängigkeit von Gazprom seit der Annexion der Krim erhöht. Gazprom hält die Trumpfkarte in dieser Beziehung, hat es doch seine Fähigkeit und seinen Willen gezeigt, seine Versorgung im Mittwinter einzustellen, um seinem Ärger über seine Verbraucher Ausdruck zu verleihen. The American Interest, 27. April 2017

Übersetzt von Chris Frey EIKE




Elektroautos und Microsoft, der Beginn einer Erfolgs­geschichte

Beschreibung der SZ zum BMW i3 Vorgängertyp: … diesem Akku gingen nämlich oft schon knapp jenseits der 100-Kilometer-Marke die Reserven aus. Bei winterlicher Kälte sogar deutlich früher
Doch nun ist alles besser geworden. Der Neue kann inzwischen alles (was man laut der SZ braucht), zumindest sei die Reichweitenanzeige (endlich) verlässlich. Zum Laden benötigt er daheim 9:30 Stunden, an einer öffentlichen Leistungstankstelle 2:45 Stunden und an einer der ganz wenigen Super-Schnelladesäulen 40 Minuten – wobei sich das Letzte ein stolzer Besitzer gut überlegen wird, denn darunter leidet die Batterie-Lebensdauer – und ganz voll wird sie dabei vorsichtshalber auch nicht.
Die Gefahr, dass die in Deutschland seitens unserer Regierung geplanten, eine Millionen Elektroautos liegengeblieben die Standstreifen der Autobahnen oder die Parkflächen der Rastanlagen beim Warten auf Stromzugang belegen, braucht man sich nicht zu machen, denn die Empfehlung lautet: … auf Autobahnen ist der i 3 aber deplatziert. Hohe Geschwindigkeiten strapazieren die Batterie einfach viel zu stark ...
Allerdings darf man auf der Autobahn auch langsam fahren, sofern es einen triftigen Grund dafür gibt. Und „Reichweitenangst“ (siehe EIKE: Reichweitenangst, die neue Volkskrankheit) werden alle Psychologen dazu erklären, womit die Gefahr der Fahrspurbelegung durch in „Traktorengeschwindigkeit“ dahin schleichender Elektroautos nicht ganz gebannt ist und die bald bei uns „fehlenden“ Holländer [1] auf den Autobahnen doch noch pünktlich genug „ersetzen“ kann:
Auto Zeitung: Autobahn-Mindestgeschwindigkeit: Wie langsam ist erlaubt?
Es ist ein weit verbreiteter Irrtum, dass auf Autobahnen eine festgelegte Mindestgeschwindigkeit herrscht. Die Straßenverkehrsordnung schreibt lediglich vor, dass Autobahnen nur von Fahrzeugen benutzt werden dürfen, die baulich in der Lage sind, schneller als 60 km/h zu fahren.
Das bedeutet jedoch nicht, dass man auch mit einem schnelleren Fahrzeug beliebig vor sich hinschleichen darf. Wer nämlich ohne triftigen Grund langsam fährt und dadurch andere Verkehrsteilnehmer behindert, verstößt gegen die Straßenverkehrsordnung.

Eine Zukunftsvision (des Autors) vermutet deshalb, dass mobile (Diesel-betriebene?) Ladestationen bald die omnipräsenten DIXI-Klos im Straßenbild ablösen könnten.
Doch zum eigentlichen Thema
Ältere werden sich noch erinnern, wie man zu Beginn der Microsoft-Zeit mit DOS-Betriebssystem immer sehnsüchtig auf ein neues Update wartete, da immer noch (zu) viele Funktionen fehlten. Elektroautos wiederholen gerade diese einzigartige Erfolgsgeschichte:
SZ: „ … Vernünftiger ist es aber, bis 2018 zu warten. Denn dann, so heißt es jedenfalls, soll ein weiteres Batterie-Update eine Norm-Reichweite von bis zu 450 Kilometern ermöglichen.
Und so, wie man sich damals teils mit Fremdprogrammen zwischenzeitlich behelfen musste, ist es auch beim Elektroauto:
SZ: „Wer seine Sorgen dennoch nicht los wird, ergänzt den i 3 mit einem Range Extender, einem Benzinmotor, der die Batterie auflädt. Dann kostet der BMW allerdings ... „
Man versteht auf einmal, warum Vorstände wie der Daimler-Chef den (zwangs-)Umbruch so enthusiastisch begrüßen:
EIKE: Freunde, wollen wir trinken, auf die schöne kurze Zeit … und auch die Autobauer wollen die Transformation in die CO2-freie Zukunft
Diese Gelegenheit, nicht ausreichende Eigenschaften verkaufen zu dürfen und Kunden dazu zu bringen, ihr Produkt, bevor es regulär unbrauchbar wird, laufend zu erneuern, dies aber als Innovation zu preisen, bot sich bisher nur in der Softwarebranche. Nur da (wenn die SW ein eigenes Produkt ist) sind Mängel nicht nachbesserungspflichtig – sonst wäre Bill Gates schon nach den ersten Wochenenden seiner DOS-Garagenbastelei pleite gewesen.
Jedenfalls ist dank Elektroautos endlich das Autobauer-Paradies in Reichweite: Das Auto-Ende lässt sich vom Hersteller über Updates der Batteriesätze steuern.
Als Lösung wird unserer Regierung aber etwas einfallen: Es könnte zum Beispiel sein, dass Elektroautos als Sperrmüll entsorgt werden dürfen.
Und abwarten, der Softwareanteil im Auto wird auch immer höher – das Spiel mit dem Updatezwang und nicht mehr möglicher Hochrüstung kann sich dann nochmals wiederholen.
Quellen
[1] FOCUS: Ab 2025 nur noch Elektroautos Niederlande wollen Verkauf von Diesel- und Benzinautos verbieten
[2] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit




Es darf ruhig noch kälter und schlimmer werden – der April war immer noch zu warm

DWD Pressemitteilung: Deutschlandwetter im April 2017
Anfangs für die Jahreszeit zu warm, dann verbreitet Spätfröste
… Die Durchschnittstemperatur im April 2017 entsprach mit 7,5 Grad Celsius (°C) fast genau dem Soll der international gültigen Referenzperiode 1961 bis 1990 von 7,4 °C. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad …

Die Konsequenz daraus liest sich wie eine mittelalterliche Unwetterbeschreibung zu Beginn eines Hungerjahres:
DWD Pressemitteilung:
Niedersachsen und Bremen: Hagel verwandelte dabei die Stadt Wunstorf und ihre Umgebung vorübergehend in eine weiße Landschaft.
Sachsen: Gebietsweise große Schäden verursachten Spätfröste in der Nacht zum 20. April in der Landwirtschaft, vor allem an Weinreben und Obstbaumblüten.
Hessen: In der Nacht zum 20. entstanden an Weinreben und Obstbaumblüten erhebliche Frostschäden.
Rheinland-Pfalz: Spätfröste bis -6 °C führten in der Nacht zum 20. zu erheblichen Frostschäden an Weinreben und Obstbaumblüten.
Saarland: Spätfröste bis zu -7 °C führten am 20. zu Frostschäden an Weinreben. Ungewöhnlich: Die Station Perl-Nennig verzeichnete insgesamt 21 Frosttage im April.
Baden-Württemberg: Große Schäden richteten Spätfröste in den Nächten zum 20. und 21. an Weinreben und Obstbaumblüten an. Im Südschwarzwald, so in Singen und Buchenbach, gab es örtlich neue Rekorde bei den April-Tiefstwerten.
Bayern: Spätfröste verursachten in den Nächten zum 20. und zum 21. Schäden am Frankenwein und an Obstbaumblüten.

Andere Meldungen:
Topagrar.com, 22.04.2017: Frostschäden: Ausfallrate bei Weinreben zwischen 10 und 95 Prozent
MDR JUMP 21.04.2017: Obstbauern und Winzer bangen um die Ernte
proplanta: Österreich: Enorme Frostschäden im Obstbau
Klagenfurt – Heftiger Schneefall hat einen «Jahrhundertschaden» für Österreichs Landwirte ausgelöst. Auf rund 100 Millionen Euro schätzte allein das Agrarministerium der Steiermark den Schaden in den Obstplantagen durch Schnee und Frost.
Zum Glück sind Bauern in Deutschland ziemlich überflüssig geworden, außer sie produzieren vorwiegend Mais zur EEG-Biogasanlagen-Fütterung, der nicht so sensibel auf das geforderte, kalte Wetter reagiert. Und die Biobauern, denen ein solches Wetter noch weit schlimmer zusetzt, „ernähren“ sich sowieso vorwiegen über Subventionen [3], deshalb stört es diese (dass unsere Regierung ihnen noch mehr Kälte vorschreibt) wohl nicht so sehr.
Und so darf man konsequent und mit viel, viel Geld weiter daran „arbeiten“, auf dass es noch etwas kälter würde, denn wie Bild 1 zeigt, sind zur Erreichung der „glücklichen“-vorindustriellen Temperaturen noch einige Grad Celsius Luft nach unten.

Bild 1 DWD Märztemperaturen seit 1750. Linke Skala Temperaturen, rechte Skala 30-Jahre Mittel. Grafik vom Autor anhand der DWD-Daten erstellt


Allerdings hatte der gerade vergangene April schon einmal die Temperatur wie um 1750, und war zum „Üben“, was Kälte für die Landwirtschaft bedeutet – und warum damals so viele Hungersnöte waren – ein kleiner Fingerzeig. Es führte damals in der Not zu einer tiefen Volks-Frömmigkeit und das wird heute von unseren „Eliten“ gegenüber der alles wissenden Ökokirche schmerzlich vermisst:
Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) fordert: [1] Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.“
Anhand des Aprilverlaufs lässt sich wieder (wie beim Märzrückblick [2]) sehen, dass der Temperaturanstieg entgegen den Verkündigungen unserer „Klimawissenschaftler“ vor der Industrialisierung begann und damit wenig mit dem anthropogenen CO2 zu tun hat. Doch wem erzählt man das immer wieder [4]? So lange es nur für die gegenteilige
„Er-“Kenntnis Fördermittel gibt und dafür sogar das Volk, angeführt von „Intelligenz“, zum Beispiel auch Claudia Kemfert:
Klimaretter.Info: Aufbruchstimmung im Elfenbeinturm,
alternativ EIKE: Betreff: March for Science am 22.4.2017,
auf die Straße geht, wird sich so schnell nichts daran ändern.
Ergänzend, wie bei jedem Monatsrückblich, die dankenswerter Weise beim DWD hinterlegte Vorschau bis zum Jahr 2100. Die Grafik ist zwar noch vom letzten Jahr, hat sich aber nur insoweit verändert, als dass der aktuell April um 0,4 °C kälter wurde. Wenn die Computer richtig rechnen (was sie bisher beim Klimavorhersehen seltenst taten) können zumindest die verbliebenen Bauern etwas aufatmen.

Bild 2 DWD-Klimaatlas Märztemperatur-Verlauf 1881 bis 2016 mit Simulation bis zum Jahr 2100


Etwas längerfristig in die Zukunft geschaut, sieht es dann jedoch kritischer aus, außer der ganz große „Klimahellseher“ und Papstberater, Prof. Schellnhuber behält recht und die zyklisch bereits anstehende, nächste Eiszeit fällt erstmals seit 500.000 Jahren wirklich aus [5] [6].

Bild 3 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt


Quellen
[1] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut
[2] EIKE 07.04.2017: Ist der März in Deutschland endlich wieder so warm wie vor 1000 Jahren?
[3] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
[4] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
[5] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
[6] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein




Neue Studie: ,Stillstand‘ bestätigt – und das Scheitern der Klimamodelle

Macht nichts, diese heute in Nature Climate Change veröffentlichte Studie von Hedemann et al. bestätigt nicht nur den „Stillstand“ der globalen Temperatur, sondern zeigt auch einen Grund dafür auf: „… der Stillstand könnte auch der internen Variabilität des Energie-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) geschuldet sein“.

Das ist eine wichtige Aussage, zeigt sie doch, dass trotz vieler Behauptungen des Gegenteils ein CO2-getriebener Antrieb der planetarischen Temperatur nicht der Kontrollknopf ist und dass die natürliche Variabilität nach wie vor im Spiel ist.

Beachten sollte man auch den Rückgang, markiert durch die beiden farbigen ,X‘ in Abbildung 1:

Modelle und Beobachtungen fangen nicht einmal an, irgendwelche Übereinstimmungen zu zeigen.

Die spitzfindigen Ursprünge von Erwärmungs-Stillständen

Christopher Hedemann, Thorsten Mauritsen, Johann Jungclaus & Jochem Marotzke
AffiliationsContributionsCorresponding author
Nature Climate Change (2017) doi:10.1038/nclimate3274
Received 12 July 2016 Accepted 17 March 2017 Published online 17 April 2017

Während der ersten Dekade des 21. Jahrhunderts erwärmte sich die Erdoberfläche langsamer als von den Klimamodellen simuliert (1). Dieser Stillstand der Erwärmung wird in manchen Studien Modellfehlern bei den externen Antrieben zugeschrieben (2, 3, 4), während Andere auf Wärme-Umverteilungen in den Ozeanen hinweisen (5, 6, 7, 8, 9, 10), für welche die interne Variabilität ursächlich ist. Das Timing derselben kann von den Modellen nicht vorhergesagt werden (1). Allerdings sind sich Analysen von Beobachtungen nicht einig, welche Region der Ozeane dafür in Frage kommt (11, 12, 13, 14, 15, 16). Hier zeigen wir, dass der Stillstand seine Ursache auch im Energie-Ungleichgewicht an der Obergrenze der Atmosphäre haben könnte. Eine Energie-Budgetierung der Oberflächenschicht der Ozeane mittels eines 100 Member zählenden historischen Ensembles zeigt, dass Stillstände verursacht werden durch Abweichungen der Energieflüsse, die so gering wie 0,08 W/m² sein können. Sie können ihren Ursprung an der Obergrenze der Atmosphäre, im Ozean oder in beidem haben. Die Budgetierung mittels bestehender Beobachtungen kann den Ursprung des gegenwärtigen Stillstandes nicht belegen, weil die Unsicherheit in den Beobachtungen die geringen Abweichungen der Flüsse marginalisiert, welche einen Stillstand verursachen können. Die Sensitivität dieser Fluss-Abweichungen in den Beobachtungs-Datensätzen und im Energiehaushalt helfen zu erklären, warum frühere Studien einander widersprechen, und zeigt, dass der Ursprung des gegenwärtigen Stillstandes vielleicht niemals herausgefunden werden kann.

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3274.html
(paywalled)

Aus der Introduction:

Die Temperatur der Erde hat sich von 1998 bis 2012 langsamer erwärmt als man aus Untersuchungen der meisten Modell-Projektionen oder des langzeitlichen Erwärmungstrends erwarten konnte. Selbst obwohl einige Studien jetzt die Abweichung vom langzeitlichen Trend Mess-Verzerrungen zuordnen, bleibt die Lücke zwischen Beobachtungen und Modellen bestehen. Die beobachteten Abweichungen des Trends bis zu -0,17°C pro Dekade von den CMIP5-Projektionen sind zwei bis vier mal größer als der beobachtete Trend. Der Stillstand ist daher nach wie vor eine Herausforderung für die Klimawissenschaft.

Die wichtigsten Auszüge aus der Studie:

Der Input des gekoppelten Klimamodells MPI-ESM1.1 besteht aus dem vom CMIP5 vorgegebenen historischen Antrieb von 1850 bis 2005 und wurde erweitert bis 2015 mit dem RCP4.5-Szenario. Liegt die rote Linie über der grauen Linie zeigt mindestens ein Ensemble-Member einen Stillstand, definiert als eine Abweichung von über 0,17°C pro Dekade unter dem Ensemble-Mittel. Diese Abweichung ist die gleiche wie die Lücke zwischen dem Ensemble-Mittel des CMIP5 (schwarzes Kreuz) und den beobachteten GMST-Trends (gelbes Kreuz) für den Zeitraum 1998 bis 2012. Die Linien repräsentieren die Anzahl der Ensemble-Mitglieder in Bündeln von 0,05°C pro Dekade.

Aus unserer Analyse der Beobachtungen sind wir nicht in der Lage, eine TOA-Anomalie als mögliche Ursache des gegenwärtigen Stillstandes auszuschließen. Bezieht man die Beobachtungen auf ein alternatives Energie-Budget (anstatt auf dasjenige des großen Ensembles), könnte sich die absolute Position des grünen und gelben Kreuzes verschieben. Allerdings würde sich der relative Abstand voneinander und die Größe ihrer Fehlerbalken nicht ändern.

Die Rolle der TOA und des Ozeans in jedem Stillstand kann bestimmt werden mittels Vergleich ihrer Relativ-Beiträge zur Anomalie der Fluss-Divergenz. Für Stillstände im großen historischen Ensemble ist die negative (Abkühlungs-) Anomalie in 12% aller Fälle vollständig durch die TOA verursacht und durch den Ozean in 24% aller Fälle. In den verbleibenden Fällen (64%) wird die negative Anomalie verursacht durch TOA und Ozean zusammen (unterer linker Quadrant in der Abbildung). Die Variabilität der TOA ist folglich in 76% aller Fälle von Stillstand involviert.

Wir kommen zu dem Ergebnis, dass die TOA eine Quelle signifikanter interner Variabilität während des Stillstands sein kann. Unsere Ergebnisse sind nicht ein Artefakt der vom Modell erzeugten TOA-Variabilität, erzeugt doch das große Ensemble eine TOA-Variabilität, die den Mess-Aufzeichnungen ähnlich ist. Vielmehr stehen unsere Ergebnisse auf der Grundlage eines einfachen, aber dennoch robusten Prinzips, nämlich dass die Oberflächenschicht der Erde eine geringe Wärmekapazität aufweist. Die Temperatur an der Oberfläche kann daher durch kleine Variationen der großen, sich teilweise gegenseitig aufhebenden Flüsse beeinflusst werden, welche dieses größere Energie-Budget ausmachen. Vergleicht man die geringe Variabilität des TOA-Ungleichgewichtes mit dem Gesamt-Ungleichgewicht der TOA im Zuge der globalen Erwärmung, wird die Bedeutung dieser geringen Variationen bzgl. des Stillstandes verschleiert.

Dies ist das wahre Dilemma im Zentrum der Debatte um den Stillstand: Die Variabilität des ozeanischen Wärmegehaltes kann den Stillstand nicht erklären, und die Messung, die es könnte – die Fluss-Divergenz in der Oberflächen-Schicht – wird durch die Beobachtungs-Unsicherheit marginalisiert. Zwar gibt es Versuche, die Lücken bei den Beobachtungen mit Ozean-Reanalysen aufzufüllen, doch sind die resultierenden Daten während des Stillstandes von fragwürdiger Integrität und – wie wir zeigen – stimmen nicht mit dem auf CERES21 und WOA22 basierenden Budget überein. Selbst wenn diese Nicht-Übereinstimmungen beigelegt werden können, macht es das Verfahren, Satellitenbeobachtungen mit der Wärmeaufnahme der Ozeane zu verbinden, schwierig, die Beiträge von der TOA und vom Ozean zu entflechten, weil deren absolute Differenz unbekannt ist. Solange die Unsicherheit in den beobachteten Schätzungen nicht deutlich reduziert werden kann, kann daher der wahre Grund des jüngsten Stillstandes vielleicht niemals herausgefunden werden.

(Hervorhebung von mir [Watts])

Striche
Code availability.
The MPI-ESM1.1 model version was used to generate the large ensemble and is available at http://www.mpimet.mpg.de/en/science/models/mpi-esm.html. Computer code used in post-processing of raw data has been deposited with the Max Planck Society: http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695.

Data availability.
Raw data from the large ensemble were generated at the Swiss National Computing Centre (CSCS) and Deutsches Klimarechenzentrum (DKRZ) facilities. Derived data have been deposited with the Max Planck Society (http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695). Supplementary Fig. 7 uses TOA flux reconstructions provided by R Allan40 (http://www.met.reading.ac.uk/~sgs01cll/flux) and satellite observations provided by the NASA CERES project31 (http://ceres.larc.nasa.gov). For observational estimates in Fig. 3c, we make use of data provided by the NOAA World Ocean Atlas22(https://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT) and by the ECMWF Ocean Reanalysis System 4 (ref. 9; http://icdc.zmaw.de/projekte/easy-init/easy-init-ocean.html).

PDF files
Supplementary Information (3,616 KB)

Link: https://wattsupwiththat.com/2017/04/17/new-karl-buster-paper-confirms-the-pause-and-models-failure/#comment-2478621
Übersetzt von Chris Frey EIKE