Michael Mann und Stefan Rahmstorf behaupten: Golfstrom schwächt sich ab wegen Eisschmelze in Grönland – außer dass die Realität etwas ganz anderes sagt

In einer begutachteten Studie von H. Thomas Rossby, die bei WUWT vorgestellt worden war, sagt der Autor: „Ein URI-Ozeanograph weist Behauptungen zurück, denen zufolge der Klimawandel den Golfstrom verlangsamt“ (hier). Weiter heißt es in der von den Geophysical Research Letters veröffentlichten Studie:

Das ADCP misst Strömungen mit sehr hoher Genauigkeit. Folglich erhalten wir durch wiederholte Messungen, die wir Jahr für Jahr durchführen, ein aussagekräftiges Tool, mit dem wir die Stärke der Strömung überwachen können. Es gibt Variationen der Strömungsgeschwindigkeit mit der Zeit, die natürlichen Ursprungs sind – und ja doch, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die zeigen, dass sich der Golfstrom verlangsamt“.

Natürlich listen Rahmstorf und Mann die Studie in ihren Literaturhinweisen nicht (hier). Auch verwenden sie offensichtlich nicht die „sehr genauen“ ADCP-Daten. Stattdessen verwenden sie ein Modell zusammen mit Proxys, Rekonstruktionen und die stark interpolierten GISS-Daten, um zu der von ihnen gewünschten Schlussfolgerung zu kommen. Es ist daher keine Überraschung, dass sie in ihrer Studie Phantomen nachjagen. Sie behaupten (in der Abbildung 1 ihrer Studie), dass dieser ,Cold Spot‘ südlich von Grönland dem Schmelzwasser von Grönland geschuldet ist und Beweis für eine verlangsamte Zirkulation ist:

Ihre Bildunterschrift lautet: Lineare Trends der Temperatur seit dem Jahre 1901. Auf der Grundlage der Temperaturdaten von NASA GISS zeigen wir oben (a) eine globale Karte (Hammer-Projektion) von 1901 bis 2013; weiße Flächen stehen für unzureichende Daten. (b), die gleiche Analyse für den nordatlantischen Sektor von 1901 bis 2000. Zusätzlich zu den beobachteten Temperaturtrends zeigt (b) auch die Gitterpunkte (schwarze Kreise) der Region des subpolaren Wirbels [?], für den Zeitreihen in den Abbildungen 3 und 5 gezeigt werden, ebenso wie das 2°C-Modellmittel der Abkühlung aus einem Klimamodell-Vergleich 1, in dem die Modelle Gegenstand einer stark reduzierten AMOC sind, induziert durch eine Süßwasser-Anomalie im Nordatlantik. Die geographische Ausdehnung der vom Modell prophezeiten Temperatur-Reaktion auf eine AMOC-Reduktion passt gut zu dem Gebiet mit der beobachteten Abkühlung im 20.Jahrhundert. Die Modelle werden stärker angetrieben, und die Abkühlung erstreckt sich weiter westwärts als Folge der zum Erliegen kommenden Konvektion in der Labrador-See, was in der realen Welt bisher höchstens kurz einmal vorgekommen ist. (Man beachte, dass das zweite Abkühlungsgebiet in Zentralafrika in einer Region mir nur geringer Datenabdeckung liegt und daher auch ein Artefakt von Daten-Inhomogenitäten sein kann).

Ich finde es interessant, dass sie anmerken „… dass das zweite Abkühlungsgebiet in Zentralafrika in einer Region mir nur geringer Datenabdeckung liegt und daher auch ein Artefakt von Daten-Inhomogenitäten sein kann“. Und doch ist jenes Abkühlungsgebiet südlich von Grönland frei von derartigen Problemen im gleichen GISS-Datensatz.

Und dann gibt es da noch ein weiteres Problem: Die Eismasse Grönlands scheint derzeit zuzunehmen über das Mittel der Jahre 1990 bis 2011 hinaus:

Quelle: http://www.dmi.dk/uploads/tx_dmidatastore/webservice/b/m/s/d/e/accumulatedsmb.png

aus: http://www.dmi.dk/en/groenland/maalinger/greenland-ice-sheet-surface-mass-budget/

Vielleicht ist das eine neue Mann’sche Wissenschaft, in der globale Erwärmung Abkühlung verursacht und Schmelzen eine stärkere Eis-Akkumulation.

Unter der Voraussetzung, dass Rahmstorf denkt, „Day After Tomorrow“ war einfach toll war, fragt man sich natürlich, ob seine Studie nicht eine Ausschmückung seiner Film-Begutachtung ist:

(Von Wikipedia): Allerdings war Stefan Rahmstorf vom PIK, Experte für thermohaline Ozean-Zirkulation und deren Auswirkungen auf das Klima beeindruckt, wie gut Drehbuchautor Jeffrey Nachmanoff über die Wissenschaft und die Politik des globalen Klimawandels informiert war nach der Unterhaltung mit ihm bei der Vorstellung des Films in Berlin. Er stellte fest: „Eindeutig ist dies ein Katastrophenfilm und keine wissenschaftliche Dokumentation; die Filmmacher haben tief in die Trickkiste gegriffen. Aber der Film bietet eine Gelegenheit zu erklären, dass Einiges des Hintergrundes zutreffend ist: Die Menschen ändern tatsächlich zunehmend das Klima, und dies ist ein ziemlich gefährliches Experiment einschließlich des Risikos abrupter und unvorhergesehener Änderungen. Schließlich ist unser Wissen über das Klimasystem immer noch ziemlich begrenzt, und wir werden möglicherweise noch einige Überraschungen erleben, wenn sich unser Experiment mit der Atmosphäre entfaltet. Glücklicherweise ist es extrem unwahrscheinlich, dass wir während der nächsten Jahrzehnte eine umfassende Änderung der Ozean-Zirkulation erleben werden (wäre das doch der Fall, wäre ich genauso überrascht wie Jack Hall). Zumindest die meisten Wissenschaftler glauben, dass dieses Risiko erst zum Ende dieses Jahrhunderts deutlich steigt. Und die Konsequenzen wären sicherlich nicht so dramatisch wie der im Film ausgesuchte ,Super-Sturm‘. Nichtsdestotrotz ist eine grundlegende Änderung der Ozean-Zirkulation ein Risiko mit ernsten und teilweise unvorhersagbaren Konsequenzen, welches wir vermeiden sollten. Und selbst ohne Ereignisse wie eine Änderung der Ozean-Zirkulation ist der Klimawandel ernst genug, um Maßnahmen zu fordern. Ich denke, es wäre ein Fehler und dem Film nicht gerecht werden, falls die Wissenschaftler diesen einfach als Unsinn abtun. Für das, was er ist, nämlich ein Kassenschlager, der die Produktionskosten in Höhe von 120 Millionen Dollar wieder einspielen muss, ist er wahrscheinlich so gut wie es nur geht. Ich bin sicher, dass die Leute den Film nicht mit der Realität verwechseln, sie sind ja nicht dumm – sie werden wissen, dass er reine Fiktion ist. Aber ich hoffe, dass deren Interesse am Thema geweckt wird und dass sie aufmerksamer werden, wenn der echte Klimawandel und die Klimapolitik zukünftig diskutiert werden“. Quelle: http://www.pik-potsdam.de/~stefan/tdat_review.html

Aber…

Im Jahre 2008 hat Yahoo!Movies den Film The Day After Tomorrow als einen der Top Ten wissenschaftlich unsinnigen Filme gelistet. Der Film wurde dafür kritisiert, verschiedene meteorologische Phänomene zeitlich auf einige Stunden zusammengefasst zu haben, die in Wirklichkeit im Zeitmaßstab von vielen Jahrzehnten oder Jahrhunderten ablaufen.

Aktualisierung: Ich habe die Abbildungen 5 und 6 aus der Studie von Mann und Rahmstorf hinzugefügt:

Abbildung 5: Eine Zusammenstellung verschiedener Indikatoren der Zirkulation im Atlantik. Die blaue Kurve zeigt unseren temperatur-basierten AMOC-Index, der auch in (b) eingezeichnet ist. Die dunkelrote Kurve zeigt den gleichen Index auf der Grundlage der NASA GISS-Temperaturdaten (Skala links). Die grüne Kurve mit der Fehlerbandbreite zeigt Proxydaten aus Korallen (Skala rechts). Die Daten sind dekadisch geglättet. Orangene Punkte zeigen die Datenanalysen hydrographischer Querschnitte entlang 25°N auf dem Atlantik, wobei eine Änderung um 1 K des AMOC-Index‘ mit einer Änderung um 2,3 Sv [?] des AMOC-Transportes korrespondiert entsprechend der Modellsimulation. Andere Schätzungen ozeanographischer Daten zeigen ebenfalls eine relativ starke AMOC in den fünfziger und sechziger Jahren, die in den siebziger und achtziger Jahren schwächer und in den neunziger Jahren wieder stärker wurde.

Abbildung 6: Massenbalance des Eisschildes von Grönland. Daten von Box und Colgan (2010). Kumulative Anomalie relativ zum Mittel von 1840 bis 1900, einer vorindustriellen Periode, während der sich der grönländische Eisschild etwa im Gleichgewicht befand.

Wenn aktuelle Messdaten des Golfstromes vorliegen (die von Rossby 2014 zitierten ADCP-Daten), warum benutzen Mann und Rahmstorf dann Proxys? Und warum versuchen sie zu erklären, dass die Temperatur ein Indikator ist, wenn man tatsächlich aktuelle Daten der Strömungsgeschwindigkeit hat? Diese Beschränktheit macht einen fassungslos.

Und außerdem – man betrachte noch einmal Abbildung 6. Sie behaupten, dass sich [die Einleitung von Süßwasser] erneut verstärkt, was wie Manns sprichwörtlicher „Hockeyschläger“ aussieht, und dies basiert auf den Daten von Box und Colgan 2010, in ihrer Referenzliste an 33. Stelle gelistet. Sie machen Daten bis zurück zum Jahre 1850 geltend, was ein ziemliches Kunststück ist, gibt es doch – soweit ich weiß – keine umfassenden Daten bzgl. des Grönland-Eises vor dem Internationalen Geophysikalischen Jahr 1958 wie z. B. hier:

Bauer, A., Baussart, M., Carbonnell, M., Kasser, P., Perroud, P. and Renaud, A. 1968. Missions aériennes de reconnaissance au Groenland 1957-1958. Observations aériennes et terrestres, exploitation des photographies aeriennes, determination des vitesses des glaciers vělant dans Disko Bugt et Umanak Fjord. Meddelser om Grønland 173(3), 116 pp.

Und außerdem beginnen Studien von Jason Box nur mit Daten ab 1958:

Rignot, E., J.E. Box, E. Burgess, and E. Hanna (2008), Mass balance of the Greenland ice sheet from 1958 to 2007, Geophys. Res. Lett.,35,L20502, doi:10.1029/2008GL035417

Es zeigt sich, dass Box und Colgan (2010) eine Rekonstruktion ist und keine aktuellen Messdaten verwendet.

Noch merkwürdiger ist allerdings Folgendes: schaut man sich die Abbildung 5 in deren Studie an (PDF hier), zeigen der Massenbilanz-Verlust und die Akkumulation nicht die Form eines „Hockeyschlägers“.

Man fragt sich, ob Mann seine „spezielle Mann’sche Mathematik“ (hier), so wie er es bei seinem „Hockeyschläger“ getan hat, nicht auch auf die von Box und Colgan (2010) rekonstruierten Daten angewendet hat, um die große Divergenz zwischen Akkumulation und Verlust zu bekommen, die man in Abbildung 6 von Mann und Rahmstorf erkennt.

Noch wichtiger allerdings ist jedoch, dass die Daten von Box und Colgan (2010) keine aktuellen Messdaten sind, sondern eine Rekonstruktion, die auf einigen wenigen Daten und einigen Abschätzungen basiert:

Unserer Rekonstruktion zufolge war TMB positiv über 39% des Zeitraumes von 1840 bis 2010 (siehe Gebiete mit einer positiven Massenbilanz in Abbildung 5). Die positiven Phasen der Massenbilanz im Zeitmaßstab von Jahrzehnten korrespondieren mit Phasen geringen Schmelzens und geringer Wasserabflüsse. Zum Beispiel korrespondiert im Zeitraum 1970 bis 1985 eine Phase mit positiver Massenbilanz mit einer Phase verstärkter Abkühlung durch Sulfate (Wild et al. 2009). Besonders ausgeprägt zeigt sich dies entlang der Küste von Westgrönland (Rozanov et al 2002, Box et al. 2009). Massenbilanz-Überschüsse können sich auch in Jahren mit hoher Akkumulation ergeben, gelegentlich selbst bei relativ hohen Abflüssen (z. B. 1996).

Die rekonstruierten TMB-Werte werden verglichen 1.) mit jenen der Oberflächen-Massenbilanz in Teil II minus der LM-Daten von Rignot et al. 2008) für 20 Stichproben aus dem Zeitraum 1958 bis 2009 und 2.) mit den unabhängigen GRACE-Daten des Zeitraumes 2003 bis 2010 nach Wahr et al. 2006 (Abbildung 6). Wir finden RMS-Fehler von 31 Gtyr [?] für Datensatz 1 und 69 Gtyr im Vergleich mit Datensatz 2.

Fazit: Es gibt definitiv keine aktuellen Daten vor dem Jahr 1958. Die Studie von Mann und Rahmstorf führt die Leser in die Irre, indem sie diese Tatsache nicht eindeutig hervorhebt.

Der Physiker Robert G. Brown von der Duke University kommentiert:

Meinen sie das ernst? Sie fanden „starke Beweise“ dafür, dass eine solche Verlangsamung stattfindet, obwohl der direkte Beweis, nämlich die gemessene Geschwindigkeit des Golfstromes selbst nichts dergleichen zeigt?

Die hier involvierte kognitive Dissonanz ist unfasslich.

Tatsächlich! Mann und Rahmstorf scheuen die Realität und greifen auf Modelle und Rekonstruktionen zurück. Sie leben in einer inzestuösen Welt, die sie selbst erschaffen haben.

Link: http://wattsupwiththat.com/2015/03/24/michael-mann-and-stefan-rahmstorf-claim-the-gulf-stream-is-slowing-due-to-greenland-ice-melt-except-reality-says-otherwise/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Im Original fügt Watts hier die ganze Presseerklärung von Rahmstorf & Co. an. Ich habe das nicht mitübersetzt, da war mir die Zeit doch zu schade, so viel Spaß ich bei der Übersetzerei auch habe.




Na so was! Große grundlegende Fehler in CMIP5-Klimamodellen gefunden!

Bild rechts: Sonneneinstrahlung an der Obergrenze der Atmosphäre (TOA Top of Atmosphere)

The HockeySchtick schreibt:

Eine neue Studie findet großen Rechenfehler zur Sonnenstrahlung an der Obergrenze der Atmosphäre in den Klimamodellen.

Eine neue, in den Geophysical Research Letters veröffentlichte Studie findet erstaunlich große Fehler in den am weitesten verbreiteten „state of the art"-Klimamodellen durch falsche Berechnung der Sonneneinstrahlung und der Sonnenzenitwinkel an der Oberfläche der Atmosphäre.

Die Autoren stellen fest,

Die jährliche Sonneneinstrahlung an der Oberseite Atmosphäre (TOA) sollte unabhängig von Längengraden sein. Doch in vielen der CMIP5 Modelle [Modelle der Projektphase 5] finden wir, dass die einfallende Strahlung zonale Schwingungen mit bis zu 30 W / m² von störenden Schwankungen erzeugt. Diese Funktion kann die Interpretation der regionalen Klima und den Tagesgang der CMIP5-Ergebnisse beeinflussen.

Das IPCC behauptet, der angebliche Strahlungsantrieb alles vom Menschen verursachten CO2 seit 1750 wäre 1,68 W / m². Die Autoren haben im Vergleich dazu entdeckt, dass die bis zu 30 W / m² von „unechten Variationen" durch fehlerhaften Berechnung der Sonnenzenitwinkel sind bis zu 18 mal größer sind als die gesamten angeblichen CO2-Strahlungsantriebe seit 1750

Warum ist dieser erstaunliche, große Fehler von grundlegenden astrophysikalischen Berechnungen nicht bereits Milliarden von Dollar vorher gefunden worden, und wie stark hat dieser Fehler die Ergebnisse aller Modellstudien in der Vergangenheit beeinflusst?

Die Studie fügt den Hunderten von Anderen aufgezeigten großen Fehlern weitere Fehler hinzu gegen physikalische Grundlagen, die den so genannten State-of-theArt-Klimamodellen anhaften, einschließlich von Verstößen gegen das zweite Gesetz der Thermodynamik (hier). Darüber hinaus, auch wenn die “Parameterisierungen” (ein schickes Wort für Schummelfaktoren) in den Modellen korrekt waren (sie sind es nicht), müsste die Rastergröße der Modelle eine Auflösung um 1 mm oder weniger haben, um die turbulenten Wechselwirkungen und Klima korrekt zu simulieren (das IPCC verwendet Rastergrößen von 50 bis 100 km, 8 Größenordnungen größer). Wie Dr. Chris Essex zeigt, würde ein Supercomputer für eine einzelne 10 Jahres-Klimasimulation mit dem notwendigen 1 mm Rastermaß länger als das Alter des Universums brauchen, um die Physik des Klimas richtig zu modellieren.

Link zur Studie: On the Incident Solar Radiation in CMIP5 Models
(Über die Sonneneinstrahlung in CMIP5 Modellen]

Linjiong Zhou, Minghua Zhang, Qing Bao, and Yimin Liu1

Die jährliche Sonneneinstrahlung an der Oberseite Atmosphäre (TOA) sollte unabhängig von Längengraden sein. Doch in vielen der CMIP5 Modelle [Modelle der Projektphase 5] finden wir, dass die einfallende Strahlung zonale Schwingungen mit bis zu 30 W / m2 von störenden Schwankungen erzeugt. Diese Funktion kann die Interpretation der regionalen Klima und Tagesgang CMIP5 Ergebnisse beeinflussen.

Diese Schwingung wird auch in der Gemeinschaft der Erdsystemmodelle (CESM) gefunden. Wir zeigen, dass diese Funktion durch zeitliche Intervallfehler bei der Berechnung des Sonnenzenitwinkel verursacht ist. Der Intervallfehler kann zonale Schwingungen der Oberfläche netto kurzwelligen Strahlung von etwa 3 W / m2 bei klarem Himmel verursachen, wenn ein stündliches Intervall für die Strahlung verwendet wird, und 24 W / m2 bei einem 3-stündigen Intervall.

Erschienen auf WUWT am 10 März, 2015

Übersetzt durch Andreas Demmig für Eike

Link zum Original: http://wattsupwiththat.com/2015/03/10/whoops-study-shows-huge-basic-errors-found-in-cmip5-climate-models/

Anmerkung des Übersetzers:

Dieser kurze Beitrag hat mir Spaß gemacht, vor allem die Kommentare.

Einige wenige vom Anfang möchte ich Ihnen hier zur Unterhaltung zweckfrei näherbringen, Namen weggelassen, nur der Text:

• Warum verknüpfst Du den Längengrad und die Sonneneinstrahlung an der Obergrenze? Das ist einfach verrückt.

• Die Sonne scheint nicht in der Nacht (Einfache Antwort auf eine einfache Frage)

• Die Sonne scheint in der Nacht, sie scheint kontinuierlich. Es ist nur so, dass die Erde sich vom Licht wegdreht!

• Unter der Sonne ist es aber immer 12:00 Uhr, nicht wahr?

• Die Modelle warten nicht bis die Sonne über den Jordan ist




Unbequeme Studie: untermeerische Vulkanaktivitäts-Schwankungen könnten das Klima ändern – Modelle vielleicht falsch

Bild rechts: Diese topographische Karte des Ozeanbodens im Atlantischen Ozean zeigt tausende untermeerischer Vulkane entlang des Mittelatlantischen Rückens. Quelle: http://www.sciencemag.org/content/346/6205/32.summary
Das Pulsieren – offenbar gebunden an kurz- und langfristige Änderungen des Erdorbits und an Änderungen des Meeresspiegels – könnte eine Rolle bei der Auslösung natürlicher Klimaschwingungen spielen. Wissenschaftler haben bereits darüber spekuliert, dass vulkanische Zyklen auf dem Festland große Mengen Kohlendioxid freisetzen, die das Klima beeinflussen könnten; aber bislang gab es keine Beweise hinsichtlich untermeerischer Vulkane. Die Ergebnisse zeigen, dass Modelle der natürlichen Klimadynamik der Erde, ausgeweitet auf einen vom Menschen verursachten Klimawandel, überarbeitet werden müssen. Die Studie erschien in der jüngsten Ausgabe der Geophysical Research Letters.
„Man hat untermeerische Vulkane infolge der Ansicht ignoriert, dass ihr Einfluss gering ist – aber das liegt daran, dass man angenommen hatte, sie befänden sich in einem Steady-State-Zustand, aber das ist nicht der Fall“, sagt die Autorin der Studie, die Geophysikerin Maya Tolstoy vom Lamont-Doherty Earth Observatory an der Columbia University. „Sie reagieren sowohl auf sehr große als auch auf sehr kleine Antriebe, und das sagt uns, dass wir sie viel genauer untersuchen müssen“. Eine damit in Beziehung stehende Studie von einem anderen Team, die jüngst im Journal Science vorgestellt worden ist, stützt Tolstoys Studie, zeigt sie doch ähnliche langfristige Verteilungen untermeerischen Vulkanismus‘ in einer Region der Antarktis, die Tolstoy nicht untersucht hat.
Vulkanisch aktive mittelozeanische Rücken laufen über den Grund der Ozeane wie die Nähte auf einem Baseball mit einer Länge von etwa 37.000 Meilen [knapp 60.000 km]. Sie sind die wachsenden Enden gigantischer tektonischer Platten; die austretende Lava bildet neuen Meeresboden, welcher etwa 80% der Planetenkruste ausmacht. Konventionellem Wissen zufolge brechen sie mit ziemlich konstanter Rate aus – aber Tolstoy kommt zu dem Ergebnis, dass sich die Rücken derzeit tatsächlich in einer Schwächephase befinden. Aber selbst dann lassen sie noch etwa acht mal mehr Lava austreten als Vulkane auf dem Festland. Infolge der chemischen Zusammensetzung ihres Magmas ist ihr vermuteter CO2-Ausstoß gleich oder etwas geringer als der von Landvulkanen – etwa 88 Millionen metrische Tonnen pro Jahr. Aber wenn die untermeerischen Ketten auch nur ein wenig aktiver werden, würde ihr CO2-Ausstoß markant steigen, sagt Tolstoy.
Einige Wissenschaftler glauben, dass Vulkane konzertiert agieren mit Milankovitch-Zyklen – wiederholten Änderungen des Erdorbits um die Sonne und die Neigung und Ausrichtung der Erdachse – die plötzliche Warm- und Kaltphasen auslösen. Der Hauptzyklus geht über 100.000 Jahre. Während dieses Zeitraumes ändert sich der Orbit des Planeten um die Sonne von mehr oder weniger kreisförmig zu elliptisch, was es im Jahresverlauf näher an die Sonne bringt oder weiter von ihr entfernt. Jüngste Eiszeiten scheinen sich ausgebildet zu haben während der meisten Zeit des Zyklus‘, aber dann plötzlich erwärmt sich alles um den Punkt der größten Exzentrizität des Orbits. Die Gründe hierfür sind unklar.
Hinsichtlich der Vulkane haben Forscher darauf hingewiesen, dass bei der Bildung von Eiskappen auf dem Festland u. A. der Druck auf darunter liegende Vulkane zunimmt und Eruptionen unterdrückt werden. Aber wenn die Erwärmung irgendwann einsetzt und das Eis zu schmelzen beginnt, nimmt der Druck ab mit der Folge zunehmender Eruptionen. Sie stoßen CO2 aus, das zu mehr Erwärmung führt, welche mehr Eis schmelzen lässt. So entsteht ein sich selbst verstärkender Prozess, der die Erde auf einmal in eine Warmzeit führt. Eine Studie von der Harvard University aus dem Jahr 2009 sagt, dass die Festlandsvulkane weltweit tatsächlich während der jüngsten Deglaziation vor 12.000 bis 7000 Jahren sechs bis acht mal aktiver waren als nach dem Hintergrundniveau. Die Folge wäre, dass untermeerische Vulkane das Gegenteil tun: wenn sich die Erde abkühlt, kann der Meeresspiegel bis zu 100 m fallen, weil so viel Wasser als Eis gebunden wird. Dies verringert den Druck auf untermeerische Vulkane, und sie brechen verstärkt aus. Gibt es dabei einen Punkt, an dem ein zunehmender CO2-Ausstoß von untermeerischen Vulkanen die Erwärmung beginnen lässt, was die die Festlandsvulkane bedeckenden Eiskappen schmelzen lässt?*
[*Man geht hier also von einem stark erwärmend wirkenden CO2 aus. Nun ja. Anm. d. Übers.]
Das war ein Mysterium, teilweise weil untermeerische Eruptionen fast unmöglich zu beobachten sind. Allerdings waren Tolstoy und andere Forscher jüngst in der Lage, 10 untermeerische Eruptionsstellen mittels sensitiver neuer seismischer Instrumente zu überwachen. Sie haben auch neue hoch auflösende Karten erstellt, die die Umrisse vergangener Lavaaustritte kennzeichnen. Tolstoy hat etwa 25 Jahre mit seismischen Daten analysiert von untermeerischen Rücken im Pazifik, dem Atlantik und den Arktischen Ozeanen; außerdem Karten, die die Aktivität in der Vergangenheit im Südpazifik zeigen.
Die langzeitlichen Eruptionsdaten, die sich über mehr als 700.000 Jahre erstrecken, zeigten, dass während der kältesten Phasen, als der Meeresspiegel niedrig war, verstärkt untermeerischer Vulkanismus aufgetreten war, der sichtbare Hügelketten hinterließ. Wenn sich alles erwärmt und der Meeresspiegel auf ähnliche Höhen steigt wie derzeit, fließt Lava langsamer aus und erzeugt niedrigere topographische Ketten. Tolstoy ordnet dies nicht nur dem variierenden Meeresspiegel zu, sondern auch eng Änderungen des Erdorbits. Ist der Orbit elliptischer, wird die Erde gestaucht und gedehnt durch die Gravitationskräfte der Sonne, und zwar mit rapide variierender Rate bei der täglichen Umdrehung – ein Prozess, der ihrer Ansicht nach dazu tendiert, untermeerisches Magma nach oben dringen zu lassen. Dies wiederum hilft, die tektonischen Brüche zu erweitern, durch die sie austritt. Ist der Orbit dagegen mehr kreisförmig (wenn auch niemals ideal kreisförmig), wie es jetzt der Fall ist, wird dieser Dehnungs-/Stauchungseffekt minimiert, und es gibt weniger Eruptionen.
Der Gedanke, dass von außen einwirkende Gravitationskräfte den Vulkanismus beeinflussen, spiegelt sich in den kurzfristigen Daten, sagt Tolstoy. Sie sagt, dass seismische Daten zeigen, dass untermeerische Vulkane hauptsächlich alle zwei Wochen verstärkt aktiv sind. Das passt zu der zeitlichen Abfolge des Zusammenwirkens von Mond und Sonne, bei dem die Gezeiten ihre Tiefpunkte erreichen, was den Druck auf untermeerische Vulkane verringert. Interpretiert man seismische Signale als Eruptionen, folgten diese 14-täglich den Ebben an acht von neun untersuchten Stellen. Außerdem fand Tolstoy, dass alle bekannten Eruptionen in moderner Zeit von Januar bis Juni erfolgten. Im Januar ist die Erde der Sonne am nächsten, im Juli ist sie am weitesten von ihr entfernt – ein Zeitraum ähnlich dem den Druck verstärkenden/abschwächenden Effekt über längerzeitliche Zyklen. „Schaut man auf die heutigen Eruptionen, reagieren Vulkane sogar auf viel geringere Antriebe als diejenigen, die das Klima treiben“, sagte sie.
Daniel Fornari, ein leitender Wissenschaftler an der Woods Hole Oceanographic Institution und nicht in die Forschung involviert, nannte die Studie „einen sehr wichtigen Beitrag“. Er sagte, es sei unklar, ob die zeitweiligen seismischen Messungen aktuelle Lavaflüsse signalisieren oder einfach Bewegungen des Meeresbodens. Aber, sagte er, die Studie „könnte eindeutig bedeutende Implikationen haben für die bessere Quantifizierung und Charakterisierung unserer Abschätzung der Klimavariationen aufgrund von Zyklen über Zeiträume von Jahrzehnten, bis zu hunderttausenden von Jahren“.
Edward Baker, ein leitender Ozeanwissenschaftler bei der NOAA, sagte: „Das Interessanteste an dieser Studie ist, dass sie erneut beweist, dass die feste Erde sowie Luft und Wasser allesamt als ein einziges System operieren“.
———————————————-
Eruptionen aus ozeanischen Rücken als ein Klimaventil
Maya Tolstoy
Abstract:
Eruptionsraten auf dem Meeresboden und Eruptionen fördernde Ströme im Erdmantel können beeinflusst werden durch Meeresspiegel- und Krustenbewegungs-Zyklen im der Größenordnung von zwei Wochen bis zu 100.000 Jahren. Jüngste Eruptionen in mittelozeanischen Rücken ereignen sich primär während Nippfluten und während der ersten 6 Monate eines Jahres, was auf Sensitivität hinsichtlich kleinerer Änderungen des Antriebs durch die Gezeiten und orbitale Exzentrizität hinweist. Eine Periodizität von etwa 100.000 Jahren bei schneller Ausbreitung von Tiefseeboden und relativ geringe Eruptionsraten derzeit in einer Zeit mit hohem Meeresspiegel und abnehmender orbitaler Exzentrizität zeigen eine längerfristige Sensitivität hinsichtlich Variationen des Meeresspiegels und des Orbits im Zusammenhang mit Milankovitch-Zyklen. Das Auseinanderdriften von Meeresboden wird als ein geringer, aber stetiger Beitrag der Freisetzung von CO2 angesehen in Klimazyklen im Zeitmaßstab von 100.000 Jahren. Allerdings lässt dies eine konsistente kurzfristige Eruptionsrate vermuten. Pulsierende vulkanische Aktivität könnte auf Klimazyklen rückwirken, möglicherweise auch zu Eiszeit-/Zwischeneiszeit-Zyklen beitragen sowie zum abrupten Ende von Eiszeiten und zur Dominanz des 100.000-Jahre-Zyklus‘
Die Studie: Tolstoy_inpress_GRL_2015 (PDF)
Daraus die Abbildung 3A:

Link: http://wattsupwiththat.com/2015/02/05/inconvenient-study-seafloor-volcano-pulses-may-alter-climate-models-may-be-wrong/
Übersetzt von Chris Frey EIKE




Studie von Marotzke weist erhebliche Fehler auf und ,sollte zurückgezogen werden‘

Allerdings hat Nic Lewis, ein Experte auf diesem Bereich der Klimawissenschaft, darauf einen Artikel veröffentlicht, in dem nachgewiesen wird, dass die Marotzke-Studie massive Fehler aufweist und dass seine Schlussfolgerungen nicht haltbar sind. Lewis sagte:
Neben der Tatsache, dass seine Studie einige grundlegende statistische Fehler enthält, kann man auch zeigen, dass er Zirkelschlüsse verwendet. Dies bedeutet, dass seine Schlussfolgerungen nicht haltbar sind. Darüber hinaus ist die Grundlage der Schätzung zumindest einer der beiden Schlüsseleigenschaften der Modelle so dünn, dass es sehr wahrscheinlich unmöglich ist, aus seiner Studie selbst ohne die Zirkelschlüsse Schlussfolgerungen zu ziehen. Ich denke, dass die Autoren keine andere wissenschaftlich haltbare Wahl haben als die Studie zurückzuziehen“.
Lewis‘ Erebnisse, veröffentlicht im einflussreichen Climate Audit blog, wurden von zwei Statistikern begutachtet und bestätigt: Prof. Gordon Hughes von der Edinburgh University und Roman Mureika, ehemals an der University of New Brunswick. Prof. Hughes sagte zur Marotzke-Studie:
Die in der Studie verwendeten statistischen Verfahren sind so schlecht, als ob man sie Studenten vorführen wollte, die lernen sollen, wie man Statistik nicht anwendet. Alles, was die Studie zeigt ist, dass Klimawissenschaftler einige Grundkurse in Statistik belegen sollten, und Nature sollte einige kompetente Schiedsleute einstellen“.
Link: http://wattsupwiththat.com/2015/02/06/fatally-flawed-marotzke-climate-science-paper-should-be-withdrawn/
Übersetzt von Chris Frey EIKE




BEST mit praktizierten Sprüngen des Unsicherheits-Niveaus in ihren Klimadaten

Bild rechts: Man beachte die Schritt-Änderung. Etwa im Jahre 1960 ist das Unsicherheitsniveau abgestürzt; oder anders ausgedrückt, BEST behauptet, dass man sich danach doppelt so sicher ist bzgl. ihrer Temperaturschätzungen, und zwar praktisch über Nacht.
Erstens, BEST lässt nur die Mittelwert-Berechnungen noch einmal durchlaufen, um deren Unsicherheit zu bestimmen. Sie berechnen aber nicht noch einmal den „Breakpoint“*. Man erinnere sich, BEST unterteilt die Daten von Temperaturstationen in Segmente, wann immer sie glauben, einen „Breakpoint“ gefunden zu haben. Hauptsächlich wird nach diesen Breakpoints gesucht, indem man die Stationswerte mit nicht weit entfernten benachbarten Stationen vergleicht. Falls an einer Station der Unterschied zu den Nachbarstationen zu groß ist, unterteilt man die Werte dieser Station in Segmente, die nachfolgend neu angepasst [realigned] werden können. Dies ist eine Form von Homogenisierung, ein Prozess, bei dem die Werte benachbarter Stationen so bearbeitet werden, dass sie sich ähnlicher sind.
[*Dieses Wort hat mehrere Bedeutungen, und weil ich nicht weiß, welche am besten passt, lasse ich den Begriff so stehen. Anm. d. Übers.]
Dieser Prozess wird bei den Unsicherheits-Berechnungen von BEST nicht wiederholt. Der ganze Datensatz ist homogenisiert, und Untergruppen dieser homogenisierten Datensätze werden verglichen, um zu bestimmen, wie viel Varianz darin steckt. Das ist unsachgemäß. Die Größe der Varianz, die BEST innerhalb eines homogenisierten Datensatzes findet, sagt nichts darüber, wie groß die Varianz in den BEST-Daten ist. Sie sagt uns nur, wie groß die Varianz ist, wenn BEST erst einmal die Homogenisierung der Daten abgeschlossen hat.
Zweitens, um zu berechnen, wie groß die Varianz in seinen (homogenisierten) Datensätzen ist, lässt BEST die Berechnungen noch einmal laufen, wobei zuvor ein Achtel der Daten entfernt worden ist; acht mal. Dies erzeugt acht verschiedene Reihen. Vergleicht man diese verschiedenen Reihen miteinander, passt BEST die Daten so an, dass sie alle der gleichen Grundlinie folgen. Der Grundlinien-Zeitraum, den BEST für diese Anpassung verwendet, ist 1960 bis 2010.
Das ist ein Problem. Wenn man die acht Reihen nach dem Zeitraum 1960 bis 2010 ausrichtet, wird die Varianz zwischen jenen Reihen im Zeitraum 1960 bis 2010 künstlich gedämpft (und die Varianz anderswo künstlich erhöht). Dies erweckt den Anschein, dass es im letzten Teil der BEST-Aufzeichnung mehr Sicherheit gibt als in Wirklichkeit vorhanden. Das Ergebnis: Es gibt einen künstlichen Stufenschritt im Unsicherheitsniveau bei BEST um das Jahr 1960. Dies ist das gleiche Problem, das schon bei Marcott et al. gezeigt worden ist (hier).
Alles in allem ist das Unsicherheitsniveau bei BEST ein einziges Durcheinander. Es ist unmöglich, diese in irgendeiner bedeutsamen Weise zu interpretieren, und sie können mit Sicherheit nicht dazu verwendet werden zu bestimmen, welche Jahre die wärmsten gewesen waren oder auch nicht.
Link: http://wattsupwiththat.com/2015/01/29/best-practices-increase-uncertainty-levels-in-their-climate-data/
Übersetzt von Chris Frey EIKE