Japan sieht Chancen mit der Erdwärme

YUJI OHIRA, Nikkei staff writer

TOKYO – Vor 50 Jahren ging Japans erstes Geothermie-Kraftwerk online. Jetzt mit einer Welt, die durstiger als jemals vorher auf erneuerbare Energie ist, stellt die jahrzehntelange Erfahrung des Landes auf diesem Gebiet eine große Exportchance dar.

Dies ist ein Grund, warum japanische Unternehmen sich in der Mitte eines Regenwaldes in der indonesischen Provinz Nord-Sumatra befinden, etwa eine achtstündige Fahrt von der Provinzhauptstadt Medan entfernt.

Grafik auf Nikkei, Asian Review

Sie entwickeln eine Anlage, die, sobald fertiggestellt, das weltweit größte einzelne geothermische Kraftwerk sein wird. Insgesamt können die drei Anlagen des Werks Sarulla 320.000 kW Strom bereitstellen [Meine Annahme: max. Leistung 320MW, der Übersetzer]. Die Nr. 1-Einheit dampft bereits vor ihrem offiziellen Start bis zum Ende des Jahres.

„Dies könnte ein geothermischer Hot Spot werden“, sagte ein Industrievertreter.

Das riesige Projekt wird mehr als $ 1,6 Milliarden kosten. Die Handelshäuser Itochu und Kyushu Electric Power halten jeweils einen Anteil von 25% an der Zweckgesellschaft, die für den Bau, die Instandhaltung und den Betrieb der Anlage verantwortlich ist. Inpex, ein Öl-und Gas-Entwickler, hat 18%, und der Rest ist im Besitz von Medco Power Indonesia, einer großen Ressourcen Unternehmen und anderen Parteien.

[1.600 Mio Dollar für 320MW, ergibt 5 Mio Dollar je MW, das käme in die Größenordnung eines konv. Kraftwerks; der Übersetzer]

Die Kyushu Electric Gruppe ist ein international anerkannter Geothermie-Entwicklungsberater.

Die Turbinen im Herzen der Leistungseinheiten werden von Toshiba, dem japanischen Elektronikhersteller, hergestellt. Neben Mitsubishi Hitachi Power Systems ist Toshiba der weltweit führende Anbieter von geothermischen Turbinen, der 22% des Marktes kontrolliert.

Da der unterirdische Dampf Wasserstoffsulfat und viele andere Chemikalien enthält, müssen die Turbinen noch haltbarer und korrosionsbeständiger sein als herkömmliche thermische Leistungsturbinen „, erklärte Kenichiro Furuya, Geschäftsführer von Toshibas Thermal & Hydro Power Systems & Services.

Es brauchte ein paar Jahre

Japanische Unternehmen begannen ihr technologisches Geothermie-Know-how im Matsukawa-Kraftwerk in Hachimantai, Iwate-Präfektur, zu sammeln.

Japans erste kommerzielle Geothermieanlage befindet sich in einem Gebiet mit schwefelhaltigen, heißen Quellen tief in den Bergen. Etwa 800 Meter bis 1.600 Meter unter dem beeindruckenden 46 Meter hohen Kühlturm der Anlage befindet sich ein Dampfbad, in dem das Grundwasser durch Magma erhitzt wird. Dampf aus diesem Pool treibt die Turbinen an, die Strom erzeugen.

Die Station wurde ursprünglich von Japan Metals & Chemicals gebaut. Das Unternehmen begann das Gebiet im Jahr 1956 zu untersuchen, mit Hilfe der Agentur für Industrial Science and Technology, jetzt das National Institute of Advanced Industrial Science and Technology. Das 2 Milliarden Yen ($ 18,5 Millionen nach heutigem Kurs) Projekt litt an einer Reihe von Problemen, sagte ein Offizieller. Zum Beispiel mussten Arbeiter einen Bohrzyklus von einigen hundert Metern wiederholen und dann stoppen, um zu überprüfen, ob Dampf da war.

Toshiba lieferte die Turbinen, die im Oktober 1966 sich begannen zu drehen – zehn Jahre nach Beginn des Projekts. Die Ausgangsleistung der Station betrug 9.500 kW, etwa 40 Prozent der heutigen 23.500 kW.

Ein weiteres Problem war der Gesteinsstaub, der den Dampf begleitet und manchmal die Turbinen zerstörte. Das ist richtig: Saubere Energie ist nicht immer sauber.

Es dauerte ein paar Jahre, bis der Betrieb stabilisiert wurde.

Die Anlage wird jetzt von Tohoku Natural Energy Development, einer Tochtergesellschaft von Tohoku Electric Power betrieben.

Vorteile der Geothermie

Die Anstrengungen in Hachimantai haben zur Entwicklung anderer geothermischer Kraftwerke beigetragen

Kühlturm des Matsukawa geothermischen Kraftwerks, 46 Meter hoch.

Bild auf Nikkei, Asian Review

Japan. In den 1980er und 1990er Jahren verbreitete sich die Entwicklung im nordöstlichen Japan und auf der südlichen Insel Kyushu – zwei Gebiete mit ausgedehnten geothermischen Ressourcen.

Japan hat jetzt 14 geothermische Kraftwerke.

Geothermie ist jedoch nie zu einer Mainstream-Energiequelle geworden. Im Vergleich zu konventionellen fossilen Kraftwerken erzeugen Geothermieanlagen weniger Energie und nehmen längere Bauzeit in Anspruch.

Als 1966 das Werk Matsukawa endgültig in Betrieb genommen wurde, begann auch Japans erstes kommerzielles Kernkraftwerk – das Kraftwerk Tokai – in der Präfektur Ibaraki. Japans Geothermieentwicklung verlor Mitte der 1990er Jahre an Dynamik, da die Versorger sich für Reaktoren entschieden und staatliche Subventionen abgegriffen haben.

Mit Japans Zustimmung zur Kernenergie, verschob sich die geothermische Industrie nach Übersee. Dies pendelte zurück, nach dem Erdbeben im März 2011, das das nordöstliche Japan verwüstete und der anschließende Tsunami, der das Kernkraftwerk Fukushima Daiichi angeschlagen hat. Nach der Dreifachschmelze des Kerns schaltete Japan alle Kernkraftwerke ab.

Auch die Einführung eines Einspeise-Tarifsystems für erneuerbare Energien im Folgejahr, hat der Geothermie genutzt.

 

Überflügeln der Rivalen in Übersee

Das Klischee, dass Japan arm an Ressourcen ist, nicht ganz richtig; Es hat weltweit die drittgrößten Geothermischen „Reservoirs“. Um dieses Potential optimal auszuschöpfen, hat die Regierung im Jahr 2012 die Regulierungen gelockert, um den Bau von geothermischen Kraftwerken zu erleichtern.

Obwohl die Solarindustrie nach Einführung einer Einspeisevergütung die Geothermie in den Hintergrund drängte, wächst die Geothermie allmählich heran. Ein paar Dutzend Entwicklungsprojekte sind im Gange.

Die Agentur für natürliche Ressourcen und Energie schätzt, dass im Jahr 2030 die inländische geothermische Leistung eine Kapazität von 1,4 GW erreichen wird, fast dreimal die Menge von heute. Auch wenn dies nach wie vor nur 1% der gesamten Energieproduktion des Landes ausmachen wird – von derzeit 0,3% -, ist dies ein aussagekräftiger Schritt.

Japans Geothermische Nennleistung

Grafik auf Nikkei, Asian Review

Japanische Unternehmen hoffen, nicht nur Südostasien sondern auch Lateinamerika zu erschließen. Japanische Unternehmen helfen Afrika dabei, seine geothermischen Ressourcen auszuschöpfen.

Aufgrund der weltweit wachsenden Umweltbelange wird die globale Geothermieleistung von 12 Millionen kW im Jahr 2015 auf 21 Millionen kW im Jahr 2020 ansteigen.

Japan will mehrere Anteile davon bekommen. Und Katsumi Hironaka, stellvertretender Generaldirektor von Mitsubishi Hitachi Power Systems ‚International New Energy Business Management‘ sagt, „… wir sind bereit für die Übernahme. Wir werden, auch in der Instandhaltung, unsere Konkurrenz aus Übersee überflügeln.“

Gefunden auf Nikkei, Asian Review vom 16.November 2016

Übersetzt durch Andreas Demmig

http://asia.nikkei.com/Business/Trends/Japan-sees-opportunity-in-the-Earth-s-percolating-heat




O Weh! Es sollte BEST-Zeit werden, es ist die Schlimmste aller Zeiten geworden!

Der Studie blüht eine wilde Zukunft. BEST-Ko-Autorin Judith Curry zündet eine Bombe:

Ihre Kommentare in einem Exklusivinterview mit The Mail am Sonntag scheinen mit Sicherheit einen wütenden akademischen Aufruhr zu entzünden. Sie sagte, diese Affäre kann nur mit der notorischen Climategate-Affäre vor zwei Jahren verglichen werden.

Hier folgt ein kurzer zeitlicher Abriss.

1. The GWPF plottet eine 10-Jahres-Kurve mit den BEST-Daten:

2. The Mail on Sunday druckt einen beißenden Artikel (hier), in dem die von der GWPF geplotteten Daten mit den in den Studien veröffentlichten Daten verglichen werden:

Man beachte: Die Zeitachsen in den beiden obigen Graphiken passen nicht zueinander, 200 Jahre/10 Jahre. Das ist ein wenig ungezogen von der Sunday Mail, da viele Leser das nicht bemerken dürften.

3. Dr. Judith Curry, Ko-Autorin beim BEST, greift Muller an, und zwar in einem Artikel der Mail on Sunday, der „hide the decline“ zitiert (hier):

Nach Ansicht von Prof. Curry waren zwei Studien noch nicht zur Veröffentlichung vorgesehen, teilweise deswegen, weil sie nicht in adäquater Weise auf die Argumente der Skeptiker eingegangen sind.

Was den an die Medien gesandten Graph betrifft, sagt sie: „Dies ist ‚hide the decline’-Zeug. Unsere Daten zeigen den Stillstand, genauso wie die anderen Datensätze. Muller versteckt den Rückgang [hides the decline].

 „Zu sagen, dies sei das Ende des Skeptizismus ist irreführend, genauso wie die Feststellung, dass die Erwärmung keine Pause macht. Es ist auch irreführend, wie er es getan hat, zu sagen, dass das Problem der Wärmeinseln gelöst ist“.

Prof. Muller erwiderte, er sei ‚von der Rolle’ gewesen [out of the loop]. Er fügt hinzu: „Ich habe es nicht einmal vor der Abnahme der Presse zugesandt“.

Aber obwohl Prof. Currys Name in allen Studien an zweiter Stelle auftaucht, hat Prof. Muller sie nicht konsultiert, bevor er sich entschlossen hatte, alles Anfang Oktober ins Internet zu stellen, zu einer Zeit, als der Begutachtungsprozess noch kaum begonnen hatte, und gleichzeitig eine detaillierte Presseerklärung zu verbreiten.

Außerdem informierte er ausgewählte Journalisten einzeln. „Das ist nicht so, wie ich es gemacht hätte“, sagte Prof. Curry. „Ich wurde lediglich in gestalt einer Sammel-e-mail informiert. Ich denke, dass sie Fehler gemacht haben und distanziere mich von dem, was sie getan haben.

Es wäre klug gewesen, mich zu konsultieren”. Nach ihren Worten war es sehr unglücklich, dass die Begutachter durch die Maximen des Journal of Geophysical Research nicht Gegen­stand öffentlicher Kommentare sein durften, obwohl das Journal Prof. Muller erlaubt hatte, die Studien zu bringen.

4. Ross McKittrick ergänzt:

Prof. McKittrick fügte hinzu: „Tatsache ist, dass viele der Leute, die in der Lage sind, fachliche Kritik an diesem Werk zu üben, gegenwärtig durch Vertraulichkeitsvereinbarungen gebunden sind.

Dass das Berkeley-Team diesen speziellen Augenblick gewählt hat, um eine internationale Öffentlichkeit zu überraschen, ist eine höchst unethische Sabotage des wissenschaftliche Begutachtungsprozesses.

5. Den BEST-Daten selbst zufolge kühlt es sich in Los Angeles ab, und zwar schnell:

Graph der BEST-Daten von Steve McIntyre

Aber man vergleiche das mit der Stationsaufzeichnung von GISS, und man erhält die ganze unterschiedliche Geschichte:

Überlagerung: Skala und Zeitraum angepasst:

Hier folgt der Artikel von der GWPF:

BEST bestätigt den Stillstand

Sonnabend, 29 Oktober 2011, 23:55, von Dr. David Whitehouse

Im Gegensatz zu Behauptungen vom Leiter der Best global temperature initiative bestätigen die Daten auf einer festeren statistischen Basis den Stillstand der globalen Temperatur während der letzten zehn Jahre, wie es auch andere Gruppen festgestellt haben.

Viele Leute hatten inzwischen Zeit, die vorab bekannt gewordenen Studien des BEST-Projektes zu lesen. Mein starker Eindruck ist, dass sie überwiegend schlecht geschrieben und schlecht begründet sind und in diesem Stadium weit entfernt von einer Form zur Veröffentlichung in einem wichtigen Journal. Während ich schon einige Kommentare über die PR von BEST und ihrer Strategie der Veröffentlichung abgegeben habe (hier), möchte ich jetzt einige Aspekte dieser Daten beleuchten.

Als Prof. Richard Muller, Leiter der Initiative, vom BBC’s Today programme gefragt wurde, sagte er, dass der Stillstand der globalen Temperatur während der letzten Dekade in seinen Daten nicht ersichtlich war

„In unseren Daten, die nur vom Festland stammen, sehen wir keinen Beweis für eine Verlangsamung des Temperaturanstiegs. Der Beweis für diese Verlangsamung stammt aus einer Kombination von Festlands- und Ozeandaten. Die Ozeane erwärmen sich nicht so stark wie das Festland, weil sie mehr Wärme absorbieren, und wenn die Daten mit den Landdaten kombiniert werden, scheint er sich tatsächlich zu verlangsamen, wie die anderen Gruppen gezeigt haben. In den Landdaten haben wir das nicht gesehen.“

Mein erster Gedanke war, dass dies bemerkenswert wäre, wenn es denn so wäre. Der globale Stillstand bei der Temperatur des vergangenen Jahrzehnts ist in den Daten von HadCrut3 offensichtlich, die eine Kombination von Land- und Meeresdaten sind. BEST behandelt lediglich Daten von fast 40 000 Wetterstationen auf dem Festland. Professor Muller sagt, dass sie ‚wirklich den Planeten gut abdecken’. Man erwartet, dass das Festland rasch auf die Erwärmung der unteren Atmosphäre infolge des Antriebs durch Treibhausgase reagiert, anders als die Ozeane mit ihrer thermischen Kapazität und ihren dekadischen Rhytmen von Erwärmung und Abkühlung, nicht zu vergessen ENSO und La Nina.

Abbildung 1 zeigt die monatlichen Daten der letzten 10 Jahre aus den Best-Archiven. [wenn man im Original auf die Abbildung klickt, bekommt man eine Vergrößerung. A. d. Übers.]

Es ist eine statistisch perfekte gerade Linie mit einem Null-Gradienten. Tatsächlich können die meisten der größten Variationen auf ENSO und La Nina-Effekte zurückgeführt werden. Es ist unmöglich, dies mit Prof. Mullers Feststellung in Übereinstimmung zu bringen. Könnte es wirklich sein, dass Prof. Muller nicht in adäquater Weise auf diese Daten geschaut hatte, um die letzten zehn Jahre klar zu erkennen?

Tatsächlich scheint man bei BEST hart daran gearbeitet zu haben, das zu verschleiern. Sie zeigen die Daten über fast 200 Jahre mit einer verkürzten x-Achse und einer verlängerten y-Achse, um die Zunahme überzubetonen. Die Daten werden dann mit einem Zehnjahresmittel geglättet, was ideal geeignet ist, die letzten fünf Jahre des letzten Jahrzehnts zu entfernen und die davor liegenden Jahre mit Jahren zu vermischen, als es einen Anstieg gegeben hatte. Dies ist eine ideale Formel, um die Daten der vergangenen Dekade zu unterdrücken.

Wenn man sie objektiver untersucht, bestätigen die BEST-Daten den Stillstand der letzten Dekade. Dass der Stillstand nur in den Landdaten zum Ausdruck kommen soll ist bemerkenswert. Es gab früher schon Stillstände bei den Landdaten, aber die Signifikanz des letzten Jahrzehnts liegt darin, dass sie in der Ära des postulierten anthropogenen Einflusses in Gestalt von Treibhausgasemissionen liegt. Zahlreiche während der letzten Jahre erstellte Vorhersagen besagen, dass die Erwärmung auf dem Festland am schnellsten und stärksten erfolgen soll.

Noch vor ein paar Jahren wollten viele Wissenschaftler und Kommentatoren den Stillstand bei der globalen Temperatur nicht wahrhaben. Inzwischen unbestreitbar geworden, gab es mehr Erklärungen dafür als überhaupt möglich sind.

Um die Lücke bei den kombinierten Land-Meer-Temperaturen zu erklären, haben einige vorgeschlagen, dass die Ozeane die Wärme aufsaugen, wie Prof. Muller in seinem Radiointerview angedeutet hatte. Diese Erklärung wird nach meiner Ansicht sehr in Frage gestellt, wenn die Landtemperaturen konstant bleiben. Könnten wir wirklich die sehr spezielle Situation haben, dass die Ozeane gerade genug Wärme aufnehmen, um die Landtemperaturen flach zu halten? Aerosole, von denen manche behaupten, sie stammten aus China, bieten auch keine Erklärung für die Lücke in den Landdaten. Tatsächlich setzt die konstante Landtemperatur alle Erklärungen unter Spannung, die angeboten worden sind, warum die Land-See-Kombination im letzten Jahrzehnt oder so keine Erwärmung zeigt.

Wir machen eine große Sache um den Temperaturanstieg. Nach meiner Ansicht sollten wir stattdessen lieber eine große Sache um die Tatsache machen, dass die Temperatur seit einem Jahrzehnt oder länger flach verlaufen ist angesichts des weiter steigenden CO2-Gehaltes. Wenn eine weitere genaue Prüfung des BEST-Datensatzes diesen Umstand bestätigt, werden wir neue Fragen über die Natur und die Balance zwischen der Erwärmung von Meer und Land stellen müssen.

Die Tatsache, dass BEST den Stillstand des globalen Temperaturanstiegs bestätigt und dass dies nur bei den Landdaten der Fall ist, ist signifikant und m. E. das wesentlichste wissenschaftliche Ergebnis bisher. Es ist verstörend, dass sie das nicht bemerkt haben.

==========================================================

UPDATE: Am 30. Oktober sagte Judith Curry, dass der Vergleich mit „Climategate“ indirekt auf sie gemünzt war. Sie legt ihre Sicht der Dinge hier dar:  http://judithcurry.com/2011/10/30/mail-on-best/

Sie wiederholt: Ich stimme zu, dass die Art und Weise, wie die Daten in der Graphik gezeigt werden, den „Rückgang versteckt“ und fügt hinzu: „Ich dachte, dass das Projekt eine gute Idee war, das tue ich immer noch, aber momentan ist sie mit einem Makel behaftet. Wir wollen mal sehen, was wir dazu tun können“.

Jeff Id hat eine Kritik zu den Daten bearbeitenden Algorithmen geschrieben:

Overconfidence Error in BEST

Er schreibt in den Kommentaren von WUWT: „um es klar auszudrücken, ich glaube, dass ich einen spezifischen mathematischen Fehler identifiziert habe, der eine Neuschrift des CI-Teils der beschriebenen Methodik erfordert.“

==========================================================

UPDATE2: Am gleichen Tag hat Paul Clark von Woodfortrees seine Analyse der BEST-Daten vervollständigt. Ausreißer scheint eine geeignete Beschreibung zu sein. Er schreibt hier:

Ich habe jetzt die vorherigen Analysedaten des Berkeley Earth-Projektes hinzugefügt – hier folgt ein geglätteter Plot des ganzen Datensatzes mit einem allgemeinen und einem 30-Jahrestrend:

BEST ist ein Datensatz nur von Landstationen. Für einen fairen Vergleich habe ich also ein ganzes Bündel weiterer Datensätze von Landstationen allein hinzugefügt, und zwar von GISS, CRU, RSS und UAH. Um diese sauber zu vergleichen, habe ich eine allgemeine Grundlinie der gleichen Anpassung unterzogen wie ich es mit den globalen Grundlinien gemacht habe, wobei ich die Mittelwerte innerhalb der Zeitraumes von 1981 bis 2011 der UAH-Grundlinie (hier) zu Hilfe genommen habe:

Quelle                                        Mittel

BEST                                            0,6

GISTEMP DTS                               0,44

CRUTEM3                                     0,40

RSS-Land                                     0,14

UAH-Land                                     0,00

Hiermit ergibt sich der folgende Vergleich, wieder zugrunde gelegt ist der 30-Jahrestrend von UAH:

Die Trends der weggefallenen Daten (hier) sind folgende:

Quelle                Trend°C/Jahrhundert

BEST                          2,79

GISTEMP DTS            2,06

CRUTEM3                  2,25

RSS-Land                  2,25

UAH-Land                  2,01

BEST sieht hier immer noch wie ein Ausreißer aus, selbst verglichen mit anderen Datensätzen nur vom Festland, die einen stärkeren Trend zeigen als die Kombination von Land- und Meeresdaten, wobei sich ein mittlerer Wert um 1,5°C pro Jahrhundert in einem 30-jährigen Trend ergibt (hier).

Link: http://wattsupwiththat.com/2011/10/29/uh-oh-it-was-the-best-of-times-it-was-the-worst-of-times/#more-50286

Übersetzt von Chris Frey für EIKE




Trump ignoriert Gores Rat, beruft stattdessen Skeptiker zum Leiter der EPA & Abwicklung der Klima-Agenda

Die Grünen sind über Trumps Personalentscheidung außer sich: sie nennen sie ,gefährlich‘ – und eine ,existenzielle Bedrohung für den Planeten‘ (hier).

Das Statement von Marc Morano, Blogbetreiber von Climate Depot, zur Berufung von Staatsanwalt (Oklahoma) General Scott Pruitt durch den designierten Präsidenten Trump zum Leiter der EPA:

„Die Berufung von Scott Pruitt durch den designierten Präsidenten ist eine frische Brise. Wir müssen nicht noch länger unter den lächerlichen EPA-,Klima‘-Vorschriften von Präsident Obama leiden. Ebenso erfrischend ist, dass ein republikanischer Präsident die EPA nicht grünen Aktivisten und den Medien vor die Füße wirft,, wie es mit der Berufung eines schwachen Administrators der Fall gewesen wäre. Das ist Pruitt nicht! Siehe hier und hier und hier.

Trumps Berufung von Pruitt bedeutet unter dem Strich, dass ein republikanischer Präsident den Grünen Paroli bietet! In der Vergangenheit fanden sich die LeiterInnen der EPA unter den Vorschriften-freundlichsten Mitgliedern unter republikanischen Präsidenten von Nixon über Ford, Reagan und beide Bushes. Trump hat diesen Zyklus durchbrochen!

[Kein Wunder, dass er hierzulande nur verunglimpft und diffamiert wird! Anm. d. Übers.]

Klimavernunft ist bei der EPA in den USA wieder eingekehrt. Nicht länger müssen wir uns das Gerede von ansonsten intelligenten Entscheidungsträgern in Washington DC anhören, wie notwendig die EPA-Vorschriften sind, um die Temperatur der Erde oder die Sturmhäufigkeit zu kontrollieren. Mehr dazu: Huch?! Obama-Berater John Podesta behauptet, EPA-Vorschriften (welche keinerlei Einfluss auf das globale CO2-Niveau haben) sind notwendig, um gegen Extremwetter vorzugehen: ,Das Risiko auf der anderen Seite sieht man jeden Tag beim Wetter‘ (hier).

Wir müssen nicht länger republikanische Präsidenten erdulden, die den Kampf gegen die grüne Agenda vermeiden, indem sie EPA-LeiterInnen wählten, die im besten Falle befangen waren. Wir wissen, welche schlechte Wahl die Republikaner in der Vergangenheit getroffen hatten, weil viele ehemalige, von den Republikanern berufene Chefs der EPA die EPA-Klimavorschriften von Präsident Obama guthießen. Siehe hier eine Liste derartiger Chefs, die unter republikanischen Präsidenten Klimamaßnahmen durchgedrückt haben.

Falls Klimaskeptiker sich Sorgen gemacht haben bzgl. eines Treffens mit dem ehemaligen Vizepräsidenten Al Gore, bringt die Entscheidung pro Pruitt die Erleichterung. Im Grunde hörte Trump Al Gore zu – und praktizierte dann das genaue Gegenteil. Siehe hier den Klimazustandsbericht von Climate Depot.


Ehre für Trump, weil er sich mit der Berufung Pruitts gegen das üppig finanzierte Klima-Establishment stellt!

Das Klimaabkommen von Paris und die EPA-Klimavorschriften nehmen für sich in Anspruch in der Lage zu sein, den Planeten vor der ,globalen Erwärmung‘ zu retten. Aber selbst wenn man die Klimawandel-Behauptungen der UN und von Al Gore akzeptiert, würden das UN-Abkommen oder die vermeintlichen EPA-Klimavorschriften nicht den Planeten ,retten‘.

Der Geologe Dr. Robert Giegengack von der University of Pennsylvania schrieb: „Keine der von der US-Regierung oder der EPA oder sonstwem präsentierte Strategie hat auch nur im entferntesten die Chance, das Klima zu verändern, falls dieses wirklich von CO2 kontrolliert wird“.

Mit den Worten von Laien: Alle der so genannten ,Lösungen‘ des Problems globale Erwärmung sind rein symbolisch, wenn es um Klima geht. Falls wir also tatsächlich vor einer Klimakatastrophe stehen würden und uns auf ein UN-Klimaabkommen verlassen müssten, wären wir alle dem Untergang geweiht! Siehe auch hier eine Rede von Marc Morano pro Klima-Skeptizismus.

Selbst die Befürworter räumen ein, dass diese EPA-Vorschriften rein symbolisch sind.

EPA-Chefin räumt ein, dass Obamas Vorschriften keine messbaren Klimaauswirkungen zeitigen: „Ein einhundertstel Grad? EPA-Chefin McCarthy verteidigt die Vorschriften als ,enorm vorteilhaft‘ – symbolische Auswirkungen (hier).

Der ehemalige Energie-Chef von Obama verurteilt die EPA-Klimavorschriften: ,fälschlich als wirkungsvoll verkauft‘ – ,alle jährlichen Emissionen der USA werden innerhalb von 3 Wochen durch chinesische Emissionen erreicht‘ (hier). Der ehemalige Assistenz-Sekretär in Obamas Energieministerium Charles McConnell: „Der Clean Power Plan ist fälschlich als eine wirksame Umweltvorschrift verkauft worden. Dabei ist er in Wirklichkeit ein Versuch unseres obersten Umweltvorschriften-Gebers, die staatliche Regulierung von Energie zu übernehmen“. – „Außerdem ist wissenschaftlich und technologisch klar, dass der EPA-Plan die globalen Emissionen nicht signifikant beeinflussen wird“. – „Alle US-Emissionen im Jahre 2025 werden von chinesischen Emissionen innerhalb von drei Wochen erreicht. Drei Wochen!“

Und nach all den grünen Stimulans-Gesetzen, Subventionen und Vorschriften hat sich der Gesamt-Energieverbrauch seit über 100 Jahren kaum verändert.

Realitäts-Check: Im Jahre 1908 machten fossile Treibstoffe 85% des US-Energieverbrauchs aus. Im Jahre 2015 ist das mehr oder weniger immer noch so“ (hier).

Auch hier: http://www.eia.gov/todayinenergy/detail.php?id=28592 …

Ende Morano Statement

Weitere Links: 

Der von Trump zum Chef der EPA berufene General Pruitt bezeichnet sich selbst als einen ,führenden Anwalt gegen die EPA-Aktivisten-Agenda‘ (hier). Darüber klagt der Warmist Slate Mag: „Pruitts Berufung sollte jede verbleibende Hoffnung zunichte machen, dass Präsident Trump, der der einzige Führer in der Welt (hier) sein wird, der offen und direkt den Kampf gegen Klimawandel zurückweist, irgendwie von seiner Tochter (oder Al Gore) davon überzeugt werden kann, im Sinne des wissenschaftlichen Konsens‘ zu handeln“.

Der ehemalige Harvard-Physiker lobt die Entscheidung Trumps: „Es gibt keine Unklarheit über CO2 & dass die Umwelt davor ,geschützt‘ werden muss“ (hier).

Auch klimaskeptische Gruppen loben Trump ob dieser Entscheidung: „Pruitt wird gegen die ,enorme Überreichweite der EPA-Vorschriftengebung‘ vorgehen“ (hier).

Trump beruft prominenten Klimaskeptiker zum Chef der EPA (hier)

Feiert! Trump beruft einen ,leidenschaftlichen Gegner‘ von Obamas Klimaagenda zum EPA-Chef (hier):

In einem Interview mit Reuters im September sagte Pruitt, er betrachtet den Clean Power Plan als eine Form regierungsamtlicher „Nötigung und Kommandierung“ der Energiepolitik und das sein Status die „Souveränität haben sollte, Entscheidungen für die heimischen Märkte zu treffen“.

Trumps Wahl hat eine Historie des Kampfes gegen die Agentur (hier).

Professor: EPA-Behauptungen bzgl. Gesundheit ,entbehren jeder Grundlage‘ – Kohlendioxid ist kein Faktor bei Smog oder wenn es um die Lunge geht (hier).

Prof. Ross McKitrick am 2. Juni 2014 in Sun News (hier): Zu Luftverschmutzung: Die Modelle simulieren ,mehr Todesfälle durch Luftverschmutzung als durch alle anderen Ursachen zusammen‘ – Partikel und Ruß sind auf so niedrigem Niveau in den USA – deutlich unter dem während der siebziger Jahre. Die Gesundheits-Behauptungen dieser Regierung entbehren in diesem Punkt jeder Grundlage.

Ich habe diese Zahlen für Ontario bemerkt, wie viele Todesfälle durch Luftverschmutzung verursacht waren. Was mich erstaunte – ich wusste, dass das Niveau der Luftverschmutzung in Ontario sehr niedrig war – aber extrem hoch während der sechziger Jahre. Also zog ich das gleiche Modell heran und gab das Verschmutzungs-Niveau der sechziger Jahre ein: wie viele Todesfälle würde es geben? Ich ließ das Modell laufen und erhielt rasch mehr Todesfälle durch Luftverschmutzung als durch alle anderen Gründe zusammen.

Mit anderen Worten, die Straßen wären übersät mit Leichen durch Luftverschmutzung, falls diese tatsächlich derartig tödlich gewesen wäre. Das Problem mit all diesen Modellen ist, dass sie nicht auf tatsächlichen Untersuchungen der Todes-Bescheinigungen beruhen oder auf den tatsächlichen Todesursachen – es sind nichts als statistische Modelle, wo die Menschen einer Tabellen-Kalkulation folgen, denen man ein bestimmtes Luftverschmutzungs-Niveau eingibt und die dann eine Anzahl von Todesfällen ausspucken. Aber es gibt da keine Leichen, es ist alles nichts als Extrapolation.

Link: http://tinyurl.com/hcgwzy7

Übersetzt von Chris Frey EIKE




Deutschland liegt nur noch auf Rang 29 im Klimaschutz-Index 2017 von Germanwatch! Ihr Volk darf eine Regierung knechten, aber nicht das Klima

Bild rechts: Klimaschutzindex-Logo. Quelle: Germanwatch [1]

Man muss das erst einmal verdauen. Deutschland war laut unseren Medien und der Umweltministerin immer Vorreiter und getreu dem Motto „Wir schaffen das“ angeblich auch voll im Plan:


Bild 1 Screenshot am 17.11.2016 von der BUMB Homepage, Rubrik Klimaschutz COP22

… und nun muss der deutsche Bürger fast so nebenher erfahren, dass die ganzen Anstrengungen und vor allem auch Kosten gerade einmal für einen Platz 29 (von 61) hinter Marokko, Rumänien, Griechenland, Mexiko, Indien, Indonesien und Ägypten reichten.
Gut, Österreich landete auf dem Platz 41, womit wenigstens die schlimmste Blamage ausblieb und die USA des so hoch gelobten Obama liegen gar auf Rang 43 – womit die Frage erlaubt sei, was da unter Trump eigentlich noch schlechter werden kann – aber darf das als Entschuldigung für dieses Versagen gelten?


Bild 2 [1] Weltkarte zum Klimaschutz-Index 2017

Bild 3 [1] Auszug der Germanwatch Rankingliste (Rang 1 – 29, von 61)

Beim Klima-Retten darf es keine Demokratie mit unterschiedlichen Meinungen geben

Getreu der „Großen Transformation“ (siehe EIKE: Große Transformation“ – ein Ökologistisches Manifest) wurde Deutschland gnadenlos herabgestuft, weil sich „Deutsche KlimaexpertInnen“ darüber beklagt haben, dass darüber überhaupt noch diskutiert wurde und ganz schlimm, Rücksicht auf energieintensive Betriebe genommen wird. Solche demokratischen „Sperenzien“ lassen sich selbst mit den exorbitanten EEG-Ausgaben und dem Versprechen im Klimaschutzplan 2050, Deutschland dank fast vollkommener Dekarbonisierung in Richtung Mittelalter zurückzuwerfen, nicht kompensieren.

[1] Deutschland
Deutschland fällt um weitere Plätze ab und landet auf Rang 29. Obwohl das Land bei den Erneuerbaren Energien in der Spitzengruppe bleibt, ist Deutschland nicht auf dem richtigen Weg, um seine Ziele für die Emissionsreduktionen bis 2020 zu erreichen. Deutsche KlimaexpertInnen kritisieren die derzeitige Debatte um eine langfristige Klimastrategie, die die Grundlage für das Erfüllen des Paris-Abkommens von deutscher Seite aus bilden soll. Laut ExpertInnenmeinung wurden die Verhandlungen hierzu von VertreterInnen der Kohleindustrie und anderen energieintensiven Industrien dominiert und in ihrem eigenen Interesse immer wieder vertagt. Um in den nächsten Jahren im Ranking aufzusteigen, muss Deutschland sich ehrgeizigere Ziele zur Reduktion von Emissionen in allen Sektoren setzen und einen angemessenen Plan zum Ausstieg aus der Kohle vorlegen.

Wer viel Atomstromanteil hat – tut sich leichter beim Klimaretten

Sieht man sich den Atomstromanteil wichtiger EU-Länder an, ist man überrascht, wie hoch dieser in vielen – auch „weniger entwickelten“ Ländern ist, wo doch angeblich die ganze Welt nur ans Abschalten denkt.
Was Deutschland deshalb ebenfalls herabstuft, ist seine „Überrettung“ durch Abschalten der Kernkraft. Notgedrungen muss die dadurch fehlende Grundlast durch Kohlekraft substituiert werden – in den Augen eines NGO das reine Verbrechen. Dass es aus physikalischen Gründen keine andere Möglichkeit gibt (außer teuren Gaskraftwerken) – was das EEG jedoch übersehen hat -, interessiert einen NGO der es nicht bezahlen muss im gnadenlosen Ranking-Bewerten nicht.

Wichtigste EU-Länder nach Anteil der Kernenergie an der Stromerzeugung im Jahr 2015

Bild 4 Anteil Atomstrom in EU-Ländern. Quelle: statista

Mit fremder Hilfe kommt man auch „nach oben“

Marokko hat sich im Ranking ganz nach oben „gearbeitet“, ist gar zu einem Vorzeigeland geworden. Bezahlt wird es zu einem nicht unwesentlichen Teil jedoch vom Ausland – und wer wird wohl der Hauptsponsor sein: Deutschland.

Das ist im Kleinen so:
EIKE: Der Islam wird zum westlichen Bündnispartner an der Klimafront – Grüne Energie auf allen Dächern,
und auch im Großen:
NewsKitchen: Bundesumweltministerium, Bundesentwicklungsministerium und die Kreditbank für Wiederaufbau beteiligen sich an den Investitionskosten für die NOORo-Solarkraftwerke. Weitere Investitionen werden unter anderem von der Afrikanischen und der Französischen Entwicklungsbank sowie von Marokko und Privaten Konsortien übernommen.
KfW Entwicklungsbank Projektinformation: Solarkomplex Quarzazate – Marokko Strom aus der Wüste

Die Kosten für NOORo liegen bei etwa 2.2 Mrd. EUR. Der deutsche Beitrag – BMZ, BMUB und KfW – liegt bei 829 Mio. EUR.

Dass Marokko nach einem eventuellen Versiegen dieser sprudelnden Geldquellen (und Termin des Klimagipfels) sofort umschalten könnte, hat sogar Germanwatch erkannt (allerdings nicht negativ bewertet, man kümmert sich ja um die „besonders benachteiligten Menschen im „globalen Süden““):
[1] ExpertInnen loben das große Engagement im Bereich der Erneuerbaren Energien, betonen jedoch auch, dass Marokko gleichzeitig weiterhin das Potenzial des Abbaus heimischer Ölschiefervorkommen und von Atomenergie untersucht.

So vom Ausland subventioniert und zum Vorzeigeland „hergerichtet“, hört man sich dann bestimmt gerne die weihevollen Reden der Geldgeber an.
NewsKitchen: Bundesministerium für Umwelt Naturschutz Bau und Reaktorsicherheit Nr. 286/16 Berlin, 17.11.2016
– Barbara Hendricks besucht das weltweit größte Solarkraftwerk in Marokko
Bundesumweltministerin Barbara Hendricks: “Nachhaltige Sonnenenergie ist eine Energiequelle, die überall und für alle Nationen der Erde verfügbar ist.

Da kann man nur fragen: Frau Hendricks hat doch noch vor „Pisa“ ihren Doktor gemacht. Hat sie selbst da nicht mitbekommen, dass die Erde keine Scheibe ist?

Beim Ranking macht es nichts aus, wenn man den Klimavertrag nicht ratifiziert hat

Wurde von Barbara Hendricks nicht erzählt, sie würde ohne Klimavertrag nicht nach Marokko reisen, weil das unbedingt erforderlich wäre, um den anderen, dort versammelten Ländern „ins Gesicht sehen zu können“.
Zumindest Germanwatch interessiert das jedoch nicht. Länder, welche ihn nicht unterschrieben haben, liegen im Ranking trotzdem vor dem Vorbildland Deutschland:
Länder, welche den Klimavertrag nicht ratifiziert haben, im Ranking aber vor Deutschland liegen: [1] Ägypten, Belgien, Rumänien, Großbritannien, Zypern, Litauen, Schweiz

Mensch und Natur bleiben beim Klimaschutz außen vor

Oft wird behauptet, der Klimaschutz würde sich mit dem Naturschutz verbünden. Germanwatch zeigt, dass das nicht der Fall ist. Auch für diese Organisation ist der einzige Teufel das CO2, welches gnadenlos vernichtet werden muss, unabhängig, ob darunter Natur oder Menschen leiden oder auf Wohlstand zu verzichten haben. Sauberes Wasser, saubere Luft, oder „saubere Regierungen“ oder gar Wohlstand haben deshalb keinen bewertenden Anteil. Eine Diktatur, welche für ihre Bürger vollkommen versagt und diese in Armut hält, aber mit viel (auch ausländischem) Geld CO2 reduziert, scheint geradezu ihr Wunschbild zu werden.

[1] … Die große Frage aber bleibt: Können sich diese Entwicklungen durch die Klimakonferenz in Paris zu einem dauerhaften globalen Trend verstetigen? Gelingt es, die Strategien für die Dekarbonisierung der Energieversorgung und der Wirtschaft weiterzuentwickeln? Können die notwendigen Mittel für die Umsetzung bereitgestellt werden?
Letztendlich wird es aber entscheidend sein, dass Länder wie Indien oder Marokko, die immer noch weit unter den durchschnittlichen globalen Pro-Kopf-Emissionen liegen, nicht dem Entwicklungspfad der Industrienationen folgen
,
Indonesien (im Ranking deutlich vor Deutschland): kann sich im Vergleich zum Vorjahr um zwei Plätze verbessern. Der 24. im diesjährigen Ranking hat zwar ein niedriges Emissionsniveau, dafür jedoch eine sich stetig verschlechternde Emissionsentwicklung. Trotz neuer Gesetzgebung konnte die illegale Abholzung der Wälder bis jetzt nicht wesentlich eingedämmt werden und stieg in den letzten Monaten sogar weiter an. Verbessern konnte sich das Land gegenüber dem Vorjahr in den Kategorien Erneuerbare Energien und Energieeffizienz.
Indien (im Ranking vor Deutschland): verbessert sich um sechs Plätze und klettert auf den 25. Rang. Das Land hat das zweitbeste Emissionsniveau, belegt aber in der Kategorie Emissionsentwicklung nur den 59. Platz. In den Kategorien Erneuerbare Energien und Energieeffizienz verbessert sich das Land leicht. Indische ExpertInnen heben positiv hervor, dass statt in Kohle zunehmend Investitionen in Erneuerbare Energien erfolgen, einhergehend mit einem massiven Ausbau von Solarenergie.

Fazit
Man kann es wirklich niemandem recht machen. Ein NGO wird schließlich überflüssig, wenn er Erfolg oder keine Themen hätte, beziehungsweisen unsere Medien es nicht berichten würden. Schlimm ist nur, dass manche Politiker (und viele andere) meinen, auf solche einseitigen Stimmen hören zu müssen.

Germanwatch, über uns: Wir sehen hin, analysieren und mischen uns ein. Dabei konzentrieren wir uns auf die Politik und Wirtschaft des „globalen Nordens“ mit ihren weltweiten Auswirkungen. Die Lage der besonders benachteiligten Menschen im „globalen Süden“ bildet den Ausgangspunkt unserer Arbeit. Gemeinsam mit unseren Mitgliedern und Förderern und mit anderen Akteuren der Zivilgesellschaft bilden wir eine starke Lobby für eine nachhaltige Entwicklung.

Quellen

[1] Germanwatch: Der Klimaschutz-Index Die wichtigsten Ergebnisse 2017




Das Golfstromsystem. Rahmstorf vs. Krüger. Und er versiegt doch! 

Im Jahr 1999 hat der deutsche Kilma-Forscher am PIK, Stefan Rahmstorf, den mit einer Million Dollar dotierten “Jahrhundertpreis” der amerikanischen James-S-McDonnel-Stiftung für seine Arbeit zur Berechnung des Klimawandels durch die Veränderungen des Golfstroms erhalten. Rahmstorf hatte postuliert, dass schon eine recht kleine Erwärmung der globalen Temperaturen zwangsläufig zu einem geänderten Fluss oder gar zum Umkippen der “Klimamaschine Golfstrom” führt.

Stefan Rahmstorf, Süddeutsche Zeitung, 3./4. Juli 1999
Stefan Rahmstorf, 52. Deutscher Geographentag Hamburg 1999 (Lokal verankert – weltweit vernetzt. Seite 70):

“Wahrscheinlich wird sich die Atlantikströmung in den kommenden Jahrzehnten spürbar abschwächen – darin stimmen die Simulationen der verschiedenen Institute weitestgehend überein.”

In seinem aktuellen Artikel schreibt Herr Rahmstorf:

„In einem weiteren Experiment zeigten Böning et al., dass eine kumulierte Süßwassermenge von ~20.000 Kubikkilometern (an Grönlandeis) in ihrem Modell innerhalb weniger Jahre zu einem Abbruch der Tiefenkonvektion und einer Abschwächung der AMOC um 5 Sv führt.

Ist die Kälteblase vom Menschen verursacht?

Eine wichtige Frage ist natürlich, inwieweit die Veränderungen im subpolaren Atlantik vom Menschen verursacht wurden oder Teil natürlicher Schwankungen sind. Nach meiner Überzeugung ist das eine Frage der betrachteten Zeitskala: die Schwankungen von Jahr zu Jahr sind offensichtlich vom Wettergeschehen dominiert, und auch dekadische Variationen – etwa die Erwärmung (wahrscheinlich: Zunahme der Strömung) von 1990 bis Mitte der 2000er und die dann folgende Abkühlung (Abschwächung der Strömung) – dürften überwiegend natürliche Schwankungen sein. Den von Dima und Lohmann festgestellten Langzeittrend seit 1930 dagegen halte ich für überwiegend anthropogen.

Droht ein komplettes Abreißen der Strömung?

Dieses Risiko wird seit den 1980ern diskutiert, ursprünglich aufgrund von Paläodaten über abrupte Strömungsänderungen in der Erdgeschichte. Gut verstanden ist inzwischen, dass es einen kritischen Kipppunkt im System gibt. Wie weit wir davon entfernt sind, weiß man allerdings nicht. Frühere Modellvergleiche legen nahe, dass ein Süßwasserzustrom in der Größenordnung von ab 0,1 Sv (das entspricht rund 3.000 Kubikkilometern pro Jahr) kritisch werden könnte.

Ich dachte mir, dass kann man nicht so stehen lassen. Daraufhin ist diese interessante Diskussion zwischen Herrn Prof. Rahmstorf und mir entstanden.

Michael Krüger
13. Oktober 2016 @ 12:30

Herr Rahmstorf, wann genau in der Erdgeschichte gab es schon mal ein Abreißen des Nordatlantikstroms und Golfstroms durch einen schnellen CO2-Anstieg und damit verbundenen Temperaturanstieg? Ich kann mich nicht erinnern. Zudem ist der Golfstrom, wie Sie als Ozeanograph wissen sollten, windgetrieben.

golfstrom2

Das warme Oberflächenwasser wird von Golf von Mexiko in den Nordatlantik transportiert. Ein Teil rezirkuliert vor Afrika nach Süden, der andere Teil kühlt sich im Nordatlantik und Nordpolarmeer ab, wird dadurch dichter und schwerer und sinkt ab und rezirkuliert dann in der Tiefe nach Süden. Das Wasser bleibt also nicht stehen.

MfG

Michael Krüger

Antwort
Stefan Rahmstorf
14. Oktober 2016 @ 18:33

Es ist doch immer wieder erfrischend, wenn Laien einen so forsch belehren („wie Sie als Ozeanograph wissen sollten“)! (Dass ich’s schon weiß, hätten Sie aber daran erkennen können, dass ich es selbst oben im Artikel geschrieben habe…)

Aber zu Ihrer Frage: der letzte Zusammenbruch der atlantischen Umwälzzirkulation fand bei der letzten vergleichbar starken Erwärmung wie in diesem Jahrhundert erwartet statt, nämlich beim Übergang von der letzten Eiszeit ins Holozän. (Jetzt sagen Sie bestimmt: diese Erwärmung war aber nicht CO2-getrieben. Stimmt, Antrieb waren die Erdbahnzyklen, der gleichzeitige CO2-Anstieg war nur eine verstärkende Rückkopplung. Aber der Ozeanzirkulation ist die Ursache der Erwärmung egal, es ist der Temperaturanstieg und der damit verbundene Schmelzwassereinstrom der die Strömung in die Knie zwingt.

Antwort
Michael Krüger
15. Oktober 2016 @ 10:46

Herr Rahmstorf, stellen Sie sich vor, ich habe ein Diplom im Ozeanographie. Das Jüngere Dryas-Ereignis, auf das Sie anspielen, fand am Ende der letzten Eiszeit statt.

dryas

Als Grund für das Aufhören der Tiefenkonvektion (Tiefenumwälzung) wird eine plötzliche und gewaltige Schmelzwasserzufuhr vom Laurentischen Eisschild über die Labradorsee in das Absinkgebiet der thermohalinen Zirkulation angenommen. Gigantische Massen an süßen Schmelzwasser ergossen sich dabei in den Nordatlantik. Heute gibt es keinen Eisschild über Nordamerika, der abschmelzen könnte.

Nun, es gab also bisher kein Ereignis in der Erdgeschichte bei dem Infolge eines CO2-Anstieges das Golfstromsystem, oder ein ähnliches System zum Erliegen gebracht wurde.

MfG

Michael Krüger

Antwort
Stefan Rahmstorf
18. Oktober 2016 @ 13:32

Wie gesagt gab es auch noch nie einen so raschen und starken CO2-Anstieg, wie wir ihn durch die Verbrennung fossiler Brennstoffe verursachen – pro Jahr verbrennen wir soviel, wie sich in rund einer Million Jahr gebildet hat. Wir kennen in der Erdgeschichte auch keine so rasche globale Erwärmung wie die, die wir derzeit verursachen. Bei der Erwärmung aus der letzten Eiszeit stieg die globale Temperatur um ca. 5 °C innerhalb von 5.000 Jahren, das sind 0,1 °C pro Jahrhundert. Wir reden jetzt von 2, 3 oder 4 °C im 21. Jahrhundert, je nach Erfolg der Klimapolitik. Der Grönländische Eisschild ist zwar viel kleiner als der Laurentische Eisschild während der letzten Eiszeit gewesen ist – die mindestens zwanzig mal raschere Erwärmung als damals könnte aber dennoch solche Schmelzwasserströme freisetzen, dass dadurch (gemeinsam mit dem Effekt der Erwärmung selbst und den zunehmenden Niederschlägen) die thermohaline Zirkulation abreißen könnte. Dieses Risiko können wir nach heutigem Forschungsstand leider nicht ausschließen.

Antwort
Michael Krüger
18. Oktober 2016 @ 17:34

„Wir kennen in der Erdgeschichte auch keine so rasche globale Erwärmung wie die, die wir derzeit verursachen.“

Herr Rahmstorf, dann nenn ich mal das PETM. Einen schnellen CO2-Anstieg gab es z.B. auch vor ungefähr 50 bis 55 Millionen Jahren im Paläozän/Eozän-Temperaturmaximum (PETM). Bis zu 4500 Gigatonnen Kohlenstoff wurden dort in relativ kurzer Zeit freigesetzt gemäß James Zachos der Bohrkerne vom Bohrschiff “Joides Resolution” nahe Namibia ausgewertet hat. Eine andere Studie kommt auf 3000 Gigatonnen Kohlenstoff in 13 Jahren für diese Zeit (PETM) und 5°C Temperaturanstieg. Schaller et. al Paper.

eozaen-petm

Was war passiert? Das meiste CO2 ist nicht in den fossilen Brennstoffen wie Kohle, Erdöl und Erdgas gebunden, sondern im Karbonatgestein (durch Verwitterung). Durch das auseinanderbrechen des Kontients Laurasiens (Nordamerika und Europa/Asien) vor ca. 55 Millionen Jahren, wodurch sich der Nord-Atlantik gebildet hat (die Landbrücke zwischen Nordamerika und Nord-Europa verschwand), wurden wahrscheinlich gigantische Mengen an CO2 aus der Erdkruste aus Karbonatgesteinen freigesetzt und Methan aus Gashydraten. 3.000 Gigatonnen Kohlenstoff in 13 Jahren. Das führte zu einen globalen Temperaturanstieg um 5°C.

Zum Vergleich: Durch die Verfeuerung fossiler Energieträger seit Beginn der industriellen Revolution sind erst 500 Gigatonnen (Milliarden Tonnen) Kohlenstoff zusätzlich in die Atmosphäre eingebracht worden. Also Peanuts.

Die Kontinente lagen vor 50 Mio. Jahren nicht weit weg von ihrer heutigen Position. Den Golf von Mexiko gab es damals auch schon, der Nordatlantik war gerade entstanden und vermutlich auch ein Proto-Golfstromsystem. Dieses ist während des PETMs nicht versiegt, z.B. durch mehr Niederschläge, denn große Eismassen gab es damals ja nicht. Es schloss sich keine Eiszeit an, sonder das Eozän-Klimaoptimum.

Heute schwankt das Meereisvolumen in der Arktis um bis zu 20.000 km^3 pro Jahr. Im Frühjahr und Sommer schmelzen in der Arktis bis zu 20.000 km^3 Meereis, also Süßwasser. Selbst das bringt das Golfstromsystem nicht zum Erliegen.

cryosat-2-meereisvolumen2

Herr Rahmstorf, für Ihre Theorie zum Versiegen des Golfstromsystems infolge von CO2, Temperaturerhöhung und Schmelzwassereintrag/ mehr Niederschläge, gibt es nicht einen Präzedenzfall in der Erdgeschichte. Reine Erfindung. Das Schlimme ist, wie ich finde, dass diese Erfindung unbedarfte Klimaschützer glauben und auch einige unbedarfte Fachkollegen.

MfG

Michael Krüger

Antwort
Stefan Rahmstorf
19. Oktober 2016 @ 18:39

Lieber Herr Krüger, in der Tat wird das PETM seit etlichen Jahren in der Fachliteratur diskutiert als das praktisch einzige Paradebeispiel einer raschen Kohlenstoffreisetzung in ähnlicher Größe wie die Menschheit sie derzeit betreibt – in unserem Buch Der Klimawandel von 2006 ist das PETM auf den Seiten 18-20 behandelt. Die These von Wright und Schaller (2013), auf die Sie sich beziehen, dass der Kohlenstoff innert 13 Jahren freigesetzt worden sein soll, ist aber (gelinde gesagt) höchst umstritten und wird von kaum einem Experten geteilt. Das Paper hat sofort drei Kommentare in PNAS nach sich gezogen – was sehr ungewöhnlich ist, einer davon mit dem Titel „Onset of carbon isotope excursion at the Paleocene-Eocene thermal maximum took millennia, not 13 years“. Dass die Freisetzung Jahrtausende dauerte ist der tatsächliche weitgehende Konsens in der Paläocommunity, die 13 Jahre sind eine extreme Außenseiterthese. Wenn Sie das Paper von Wright und Schaller lesen werden Sie feststellen, dass die Autoren als „Uhr“ in der von ihnen betrachteten Sedimentschicht eine rythmische Variation benutzen, von der sie lediglich vermuten, dass es sich um Jahresschichten handelt – sie diskutieren u.a. auch die Möglichkeit, es könnte sich um Orbitalzyklen mit einer Periode von 20.000 Jahren statt um einzelne Jahre handeln. Man weiß es nicht. Es ist sicher eine sensationelle und provokante These, die noch weiter diskutiert werden wird – gesichertes Wissen ist das definiv nicht. Und wie soll durch einen extrem langsamen plattentektonischen Prozess (Bildung des Nordatlantiks) innert 13 Jahren soviel Kohlenstoff freigesetzt worden sein? Der von Ihnen genannte Mechanismus passt nicht zu dieser Zeitskala. Meine Kritik an „Klimaskeptiker“-Autoren wie Ihnen ist die selektive Wahrnehmung: was Ihnen ins Konzept passt, wird wie ein definitives Faktum präsentiert, egal wie wenig wissenschaftlich gesichert es ist; anderes lehnen sie einfach rundheraus ab, obwohl es von der breiten Fachcommunity allgemein akzeptiert wird, weil die Belege dafür solide und vielfältig sind.

Und woher wissen Sie denn, dass infolge der Erwärmung im PETM die Atlantikströmung nicht abgerissen ist? In der Fachliteratur wird just ein solches Abreißen der Strömung als Erklärung dafür diskutiert, dass es zu Sauerstoffmangel (Anoxia) in der Tiefsee und zu einem Massenaussterben mariner Arten im PETM gekommen ist. (Das erfahren Sie schon im Wikipedia-Artikel zum PETM.)

Die Gefahr eines Versiegens des Golfstromsystems infolge der globalen Erwärmung ist übrigens nicht meine Erfindung sondern wurde schon in der Fachwelt diskutiert, als ich noch Physikstudent war, siehe etwa Wally Broecker, Unpleasant Surprises in the Greenhouse, Nature 1987. Der IPCC hat das Risiko mit bis zu 10% eingestuft (was ich ähnlich sehe). Dass Sie dieses Risiko als „Erfindung“ abtun und die Mehrzahl der Fachkollegen als „unbedarft“, das disqualifiziert Sie höchstens selbst.

Fazit

Wäre im PETM die Atlantikströmung abgerissen, wie Herr Rahmtorf schreibt, dann hätte sich dem PETM wohl kaum das Eozän-Klimaoptimum angeschlossen, dass ca. 10 Millionen Jahre andauerte. Während des Eozän-Optimuns waren die Pole zum letzten Mal langfristig eisfrei. Arktis und Antarktis waren belebt und blühten auf. Der Großteil des freigesetzten Kohlenstoffes kam durch das Auseinanderbrechen des Kontinentes Laurasien aus Gashydraten und Vulkanismus. Gigantische Mengen an CO2 wurden in den Ozeanen gelöst, was einher ging mit einer „Versauerung“ der Meere. Gut zu sehen in den Sedimentschichten von Bohrkernen. Das PETM setzte, wie man im Übergang in den Sedimentkernen gut sehen kann, abrupt ein.

petm-sedimentkern

Herr Prof. Rahmstorf hat, wie er schreibt, als „Student“ u.a. den Nature-Artikel von Wally Broecker aus dem Jahr 1987 als Anleihe für das mögliche Versiegen des Golfstromsystems genommen. Das finde ich als Grundlage doch sehr selektiv und spekulativ. Gerade ein solches Verhalten wirft er aber den „Skeptikern“ vor.

Der IPCC hat das Risiko für das Versiegen des Golfstromsystems mit bis zu 10% eingestuft, was Herr Rahmstorf ähnlich sieht. Eine höchst spekulative Abschätzung, für die es keinen Präzedenzfall in der Erdgeschichte gibt. Die Abschätzung beruht alleine auf Szenarien von Computermodellen.

Auf meinen Einwand – „Im Frühjahr und Sommer schmelzen in der Arktis bis zu 20.000 km^3 Meereis, also Süßwasser. Selbst das bringt das Golfstromsystem nicht zum Erliegen.“ – geht Herr Rahmstorf erst gar nicht ein. Denn schon das passt so gar nicht zu seinen vorgestellten Abschätzungen von schmelzenden Grönlandeis, die das Golfstromsystem zum Erliegen bringen sollen. Zudem nimmt mit der Abnahme des arktischen Meereises auch der dadurch bedingte Süßwassereintrag ins Nordpolarmeer und den Nordatlantik in jeden Sommer ab.

UPDATE 26-28.10.2016: Weiterer Diskussionsverlauf

@Rahmstorf

Lieber Herr Krüger, das Meereis, das im Frühjahr schmilzt, bildet sich doch im Herbst wieder. Das ergibt übers Jahr betrachtet keinen Netto-Süßwassereintrag.

Herr Rahmstorf, Schelfeis, Festlandeis und Schnee bilden sich auch in Grönland im Herbst und Winter wieder neu. Das ergibt dann auch nur Netto -200 km^3 Eisverlust. Zudem zweifele ich an, dass der Ozean/ der Nordatlantik Netto-Süßwasser-Jahres-Bilanzen kennt. Schmelzwasser vom Laurentischen Eisschild ergoss sich auch zum Ende der letzten Eiszeit spontan in den Nordatlantik und das zeigte sofort Wirkung auf das Golfstromsystem.

Nur der Nettoverlust von Meereis im Zuge der globalen Erwärmung trägt zur nachhaltigen Abnahme des Salzgehaltes im Nordatlantik bei. Dieser Beträgt von 1980-2016 insgesamt rund 10.000 km3. Das ist natürlich auch ein wichtiger Beitrag, der mit zur Abschwächung der Atlantikzirkulation beiträgt.

Herr Rahmstorf, im jeden Frühjahr und Sommer schmelzen aber rund 20.000 km^3 Meereis/ Süßwasser pro Jahr ab, die sich ins Nordpolarmeer und in den Nordatlantik ergießen.

http://www.science-skeptical.de/wp-content/uploads/2016/10/CryoSat-2-Meereisvolumen2-665×1024.jpg

Die sollten dann eigentlich das Wasser im Nordatlantik soweit versüßen (die Dichte verringern), dass es dort nicht mehr absinken kann. Jedenfalls, wenn man an ein solches Versiegen des Golfstromsystems glaubt.

MfG

Michael Krüger

@Rahmstorf

Lieber Herr Krüger, wann schmilzt das Eis? Im Frühjahr/Sommer. Wann bildet sich neues Tiefenwasser? Nur im Winter, wenn die Dichte des Wassers am höchsten ist (und übrigens auch nicht unbedingt jeden Winter).
Im Sommer bildet sich eine flache, warme und relativ salzarme Wasserschicht an der Meeresoberfläche, die aufgrund ihrer geringen Dichte die Tiefenkonvektion verhindert.

Herr Rahmstorf, Tiefenwasser bildet sich, in der Grönland-, Island-, Nowegischen-See und Labrador-See wenn die Temperatur des Oberflächenwassers unter die des darunter befindlichen Wassers absinkt. Also unter ca. 5 bis -1°C. Und das ist im Frühjahr, Herbst und Winter der Fall, also auch während der Meereisschmelze.

tiefenwasserbildung-arktis

fig8a2

Das offene Polarmeer durchmischt sich übrigens unter der Windeinwirkung bis ca. 100-200 Meter Tiefe. Die salzarme Oberflächenschicht, bei 30 Promille anstatt 35, kommt vor allem durch Süßwasserzuflusssysteme der Flüsse Ob, Lena, Yenisey und Mackenzie, etc., aus weiten Teilen von Nordamerika und Asien. Auch das bringt das Golfstromsystem übrigens nicht zum Erliegen.

crump_pnas_release_image_11

MfG

Michael Krüger

(Ergänzung: Grönlandeis welches das Golfstromsystem zum zum Erliegen bringen soll schmilzt übrigens im Sommerhalbjahr, genau wie Meereis, welches angeblich keinen direkten Einfluss auf das Golfstromsystem haben soll).

@Rahmstorf

Die einströmenden Mengen an Süßwasser, die seit jeher da waren, können das Golfstromsystem natürlich nicht in die Knie zwingen, denn damit befindet es sich ja seit jeher im Gleichgewicht.

Herr Rahmstorf, da gibt es einige Probleme mit Ihrer Theorie:

1. Grönlandeis schmilzt wie Meereis und Festlandeis, welches die Flüsse zuführen im Sommerhalbjahr. Hat demgemäß dann auch keine Auswirkung aus die Tiefenwasserbildung, die ja nur im Winter stattfinden soll?

2. Über die sommerliche Meereischmelze werden 20.000 km^3 Süßwasser zugeführt und über die Flüsse ähnlich große Mengen. Der Verlust an Grönlandeis liegt bei nur 200 km^3 pro Jahr, also nicht mal 1% vom Meereis und den Flüssen. Diese nicht mal 1% sollen eine relevante Größe sein und 3.000 km^3 sollen das System möglicherweise zum Kippen bringen? Zumal ändern sich die Süßwasserzuflüsse jährlich.

3. Das salzreiche Oberflächenwasser, welches der Golf- und Nordatlantikstrom antransportieren kühlt sich im Norden ab und sinkt dann, in 100-200 m Tiefe, unter das salzärmere Polare Oberflächenwasser (als Atlantic water layer). Siehe z.B. Matthias Tomczak. Pflichtlektüre bei uns. Oder Aagaard and Carmack. Das geschieht nicht nur im Winter (Dez, Jan, Feb), sondern auch bei kalten Temperaturen im Frühjahr und Herbst. Der Tiefenwasserbildung kommt nicht 9 Monate im Jahr zum Erliegen.

4. Das Ganze funktioniert schon das ganze Holozän (unserer heutigen Warmzeit) über, also seit ca. 10.000. Und vor allem im frühen Holozän, vor ca. 7.000-6.000 Jahren, hatten wir höhere Temperaturen und andere Süßwasserzuflüsse als heute. Auch in der Arktis. Von Gleichgewicht kann im Anbetracht der klimatischen Schwankungen alleine im Holozän auch nicht die Rede sein.

MfG

Michael Krüger

UPDATE 26.10.2016: Vom Treibhaus zum Eishaus. Das PETM & Azolla-Ereignis und die Entstehung des Proto-Golfstromsystems im Überblick

treibhaus-eishaus

Der Beitrag erschien bereits am 20-Oktober bei Science Sceptical hier