Neue Studie mittels GRACE-Daten: Meeresspiegel steigt um weniger als 17 cm pro Jahrhundert

Die Studie bestätigt das Sea Level Budget von NOAA 2012, dem zufolge der Meeresspiegel nur um 1,1 bis 1,3 mm pro Jahr während der vergangenen 7 Jahre von 2005 bis 2012 gestiegen ist. Sie bestätigt auch die Ergebnisse einer Studie von Chambers et al, dass nämlich „der Meeresspiegel im Mittel während der letzten 110 Jahre um 1,7 mm pro Jahr gestiegen ist“.
Aus dem IPCC FAR Abschnitt 5.5.2: Holgate und Woodworth (2004) schätzten eine Rate von 1,7 ± 0.4 mm pro Jahr, und zwar gemittelt entlang der globalen Küstenlinie während des Zeitraumes 1948 bis 2002 und basierend auf Messungen von 177 Stationen, eingeteilt nach 13 Regionen. Church et al. (2004) berechneten einen globalen Anstieg von 1,8 ± 0.3 mm pro Jahr während der Periode 1950 bis 2000, und Church und White (2006) berechneten eine Änderung von 1,7 ± 0.3 mm pro Jahr im 20. Jahrhundert.
Die Studie:
Impact of Continental Mass Change on Rate-of-Rise of Sea Level
(etwa: Einfluss der Massenänderung von Kontinenten auf die Rate des Meeresspiegel-Anstiegs)
Heutige Variationen der Kontinentalmassen, wie sie durch gravimetrische Messungen mittels Satelliten-Gravimetrie beobachtet werden, zeigen säkulare Massenabnahmen und Akkumulation. Während Erstere zum Anstieg des Meeresspiegels beiträgt, führt Letztere zu einem Absinken desselben. Daher ist die Betrachtung der Massen-Akkumulation (anstatt sich allein auf den Massenverlust zu konzentrieren) wichtig für verlässliche Abschätzungen des Meeresspiegels. Mittels Daten von der Gravity Recovery And Climate Experiment Satellitenmission quantifizieren wir Trends der Massenänderung in 19 kontinentalen Gebieten, die ein dominantes Signal zeigen. Die integrierte Massenänderung innerhalb dieser Gebiete ist repräsentativ für die gesamten Landgebiete. Während der Periode von Mai 2002 bis April 2011 trugen die GIA-adjustierten Massengewinne und –verluste in diesen Gebieten im Mittel bei zu einem Rückgang des Meeresspiegels um -(0.7 ± 0.4) mm pro Jahr und zu einem Anstieg des Meeresspiegels von +(1.8 ± 0.2) mm pro Jahr; der Nettoeffekt betrug +(1.1 ± 0.6) mm pro Jahr. Eisschmelze in Grönland, Island, Spitzbergen, der kanadischen Arktis, der Antarktis, Alaska und Patagonien war verantwortlich für +(1.4±0.2) mm pro Jahr in der Gesamtbilanz. Folglich hat die Land-Wasser-Massenakkumulation etwa 20% des Einflusses vom Schmelzwassereintrag in die Ozeane kompensiert. Um den Einfluss der geozentrischen Bewegung abzuschätzen, haben wir geozentrische Koordinaten, abgeleitet aus Satelliten-Laser-Messungen (SLR), in Ein-Grad-geopotentielle Koeffizienten konvertiert. Wir erkannten, dass die geozentrische Bewegung kleine Verzerrungen in die Massenänderung und die Schätzung der Meeresspiegel-Änderung einbringt; ihr Gesamteffekt beträgt +(0.1 ± 0.1) mm pro Jahr. Dieser Wert sollte jedoch mit Vorsicht betrachtet werden wegen der fragwürdigen Verlässlichkeit säkularer Trends in den aus SLR abgeleiteten geozentrischen Koordinaten.
Eine Diashow der Studie findet sich hier: Baur_GGHS2012
Referenz
Baur, O., Kuhn, M. and Featherstone, W.E. 2013. Continental mass change from GRACE over 2002-2011 and its impact on sea level. Journal of Geodesy 87: 117-125.
Hintergrund
Die Autoren schreiben, dass „heutige Variationen der Kontinentalmassen profane Massenabnahme und Akkumulation zeigen“ und „während Ersteres zum Anstieg des Meeresspiegels beiträgt, führt Letzteres zu einem Absinken desselben“. Folglich stellen sie fest, dass „die Betrachtung der Massen-Akkumulation (anstatt sich allein auf den Massenverlust zu konzentrieren) wichtig für verlässliche Abschätzungen des Meeresspiegels“ ist.
Durchführung
Mittels Daten, abgeleitet aus dem Gravity Recovery And Climate Experiment – the GRACE satellite mission – haben Baur et al. kontinentale Massenvariationen im globalen Maßstab abgeschätzt, einschließlich der Beiträge sowohl aus Land-Eis und Land-Wasser, und zwar in 19 Kontinentalgebieten mit signifikanten Signalen. Dies haben sie für einen neunjährigen Zeitraum (2002 bis 2011) durchgeführt, der auch „zusätzlich 1 bis 3 Jahre zeitlich variabler Schwerefelder aus früheren Studien enthielt“. Und um den Einfluss der glacial isostatic adjustment (GIA) zu kompensieren, haben sie das GIA-Modell auf Paulson et al. (2007) angewendet.
Ergebnisse
Die Forscher berichten, dass sich während der neun Jahre ihrer Studie der mittlere GIA-adjustierte Massengewinn und Massenverlust während der 19 Jahre vor ihrem primären Brennpunkt auf -(0.7 ± 0.4 mm pro Jahr) eines Absinkens des Meeresspiegels und +(1.8 ± 0.6) mm pro Jahr eines Anstiegs aufsummierten, was zu einem Gesamtergebnis von +(1.1 ± 0.6) mm pro Jahr führte. Um eine Abbildung der insgesamten Änderung des Meeresspiegels zu erhalten, haben sie dann die räumliche Komponente von +(0.5 ± 0.5) mm pro Jahr hinzugefügt. Diese war von Leuliette und Willis (2011) abgeleitet worden. So ergab sich ein finales Ergebnis (Geocenter vernachlässigt) von +(1.6 ± 0.8) mm pro Jahr und ein finales Ergebnis (Geocenter korrigiert) von +(1.7 ± 0.8) mm pro Jahr.
Bedeutung dieses Ergebnisses
Das Geocenter-korrigierte Schlussergebnis von Baur et al. ist höchst ermutigend, wenn Chambers et al. (2012) zeigen, dass der Meeresspiegel im Mittel um 1,7 mm pro Jahr während der letzten 110 Jahre gestiegen ist, wie es sich auch aus den Analysen von Church und White (2006) sowie Holgate (2007) ergibt. Gleichzeitig ist die CO2-Konzentration in der Luft um fast ein Drittel gestiegen. Und immer noch hat dieser Anstieg nicht die Rate des globalen Meeresspiegel-Anstiegs beeinflusst!
References
Chambers, D.P, Merrifield, M.A. and Nerem, R.S. 2012. Is there a 60-year oscillation in global mean sea level? Geophysical Research Letters 39: 10.1029/2012GL052885.
Church, J.A. and White, N.J. 2006. A 20th century acceleration in global sea-level rise. Geophysical Research Letters 33: 10.1029/2005GL024826.
Holgate, S.J. 2007. On the decadal rates of sea level change during the twentieth century. Geophysical Research Letters 34: 10.1029/2006GL028492.
Paulson, A., Zhong, S. and Wahr, J. 2007. Inference of mantle viscosity from GRACE and relative sea level data. Geophysical Journal International 171: 497-508.
This essay was derived from several sources: CO2Science.org, The Hockey Schtick, and independent located content.
Link: http://wattsupwiththat.com/2013/07/03/new-study-using-grace-data-shows-global-sea-levels-rising-less-than-7-inches-per-century/
Übersetzt von Chris Frey EIKE
Ergänzung
Im hier behandelten Zusammenhang soll an eine historische Studie zu den Meerespiegelhöhen der Nordsee von Karl-Ernst Behre erinnert werden (mit Dank an meinen Freund Klaus-Eckart Puls, der mich auf Prof. Behre aufmerksam machte). Zum einen ist die von Behre ermittelte historische Meeresspiegelkurve in seinem empfehlenswerten Buch „Landschaftsgeschichte Norddeutschlands“ gezeigt, zum zweiten – detaillierter – in seiner Fachpublikation Behre (2007). Aus dieser Studie ist das folgende Bild entnommen. Die Kurve zeigt überraschend starke säkulare Schwankungen des Meeresspiegels mit Tidenhuben bis über einen Meter Differenzen zwischen Minima und Maxima. Die Ursachen für diese langfristigen Oszillationen sind unbekannt und sollten uns zur Vorsicht über Aussagen zur aktuellen bzw. zukünftigen Situation der Meeresspiegel anhalten. 

Prof. Behre war Leiter des Niedersächsischen Instituts für historische Küstenforschung in Wilhelmhaven und ist inzwischen emeritiert.
Behre, K-E.: A new Holocene sea-level curve for the southern North Sea, Boreas, Vol. 36, p.82-102, doi 10.1080/03009480600923386 (2007)
Prof. Dr. Horst-Joachim Lüdecke




Das „Ensemble” von Modellen ist statistisch vollkommen bedeutungslos

rgbatduke sagt:
Wenn man sagt, dass wir einen bestimmten Zeitraum lang warten müssen, um zu der Schlussfolgerung zu gelangen, dass „die Modelle falsch sind“, ist das aus zwei Gründen gefährlich und falsch. Erstens – und dieser Punkt wird erstaunlich stark ignoriert – gibt es sehr viele verschiedene Modelle, die alle für sich in Anspruch nehmen, auf  der Physik zu basieren. Und doch ergeben keine  zwei von ihnen etwa die gleichen Ergebnisse!
Dies spiegelt sich in den von Monckton veröffentlichten Graphiken, wobei die AR5-Trendlinie das Mittel all dieser Modelle ist. Trotz der Anzahl der hierzu beitragenden [Modelle] ist die Varianz gewaltig. Falls jemand einen „Spaghetti-Graphen“ der einzelnen Modellprojektionen veröffentlicht (wie es Roy Spencer kürzlich in einem anderen Beitrag getan hat), sieht er aus, wie das ausgefranste Ende eines Seiles und nicht wie eine kohärente Verteilung um ein bestimmtes, von der Physik gestütztes Ergebnis.
Man beachte den impliziten Schwindel in dieser Graphik. Wenn man ein Mittel und die Standardabweichung über die Modellprojektionen bildet und dann dieses Mittel als eine „sehr wahrscheinliche“ Projektion und die Varianz als repräsentativ für die Fehlerbandbreite darstellt, behandelt man die Differenzen zwischen den Modellen so, als ob sie nicht-korrelierte Zufallsvarianten wären, die sich in einer Abweichung um das wirkliche Mittel scharten.

Was soll denn das heißen?!

Es ist ein solch horrender Missbrauch von Statistik, dass man gar nicht so recht weiß, wo man am besten anfangen soll. Man möchte am liebsten dem Erzeuger dieser Graphik-Zusammenstellung – wer auch immer das war – eine runterhauen und dafür sorgen, dass diese Person niemals wieder etwas Wissenschaftliches oder Statistisches veröffentlicht. Man darf kein Ensemble unabhängiger und gleich verteilter Modelle erzeugen, die einen unterschiedlichen Code haben. Man kann eventuell ein einzelnes Modell erzeugen, das ein Ensemble von Vorhersagen erzeugt, indem man gleichartige Abweichungen (Zufallszahlen) verwendet, um „Rauschen“ (zur Repräsentation der Unsicherheit) in die Inputs mit eingehen zu lassen.
Was ich sagen möchte: die Varianz und das Mittel des „Ensembles” der Modelle ist vollständig bedeutungslos in statistischer Hinsicht, weil der Input nicht die wirklich grundlegenden Eigenschaften besitzt, die für eine bedeutungsvolle Interpretation erforderlich sind. Sie sind nicht unabhängig, ihre Unterschiede basieren nicht auf einer Zufallsverteilung von Fehlern, es gibt keinen wie auch immer gearteten Grund zu glauben, dass die Fehler oder Differenzen nicht auf Vorurteilen beruhten (unter der Voraussetzung, dass es nur eine einzige Möglichkeit für den Menschen gibt, etwas Vorurteilfreies zu erzeugen: nämlich die Verwendung eines Würfels oder anderer objektiver Zufallsgeneratoren).
Warum sollte man also diesen Unsinn hinnehmen und lineare Fits für eine Funktion – die globale Temperatur – anpassen, die niemals in ihrer gesamten Historie linear verlaufen ist, obwohl sie natürlich immer annähernd so glatt war, dass man jederzeit eine Taylor-Reihe in hinreichend kleinen Intervallen erzeugen und einen linearen Term erhalten kann, der – durch die Natur von Taylor-Reihen-Fits an nichtlinearen Funktionen – garantiert scheitern wird, wenn er extrapoliert wird, weil nichtlineare Terme höherer Ordnung sich draufsetzen und die Herrschaft übernehmen? Warum sollte man ein Lippenbekenntnis abgeben für die Vorstellung, dass R² oder p für eine lineare Anpassung oder für einen Kolmogorov-Smirnov-Vergleich der realen Temperaturaufzeichnung mit der extrapolierten Modellvorhersage irgendeine Bedeutung hätten? Sie haben keine.
Noch einmal: Es ergibt keine Bedeutung! Und ist unhaltbar in Theorie und Praxis der statistischen Analyse. Genauso könnte man ein Hexenbrett nehmen [siehe hier bei wikipedia, Bild oben rechts] als Basis für Behauptungen über die Zukunft des Klimas, und zwar als Ensemble-Mittel unterschiedlicher berechneter physikalischer Modelle, die sich nicht durch wirklich zufällige Variationen unterscheiden und die allen Arten von ausgelassenen Variablen unterworfen sind, dazu ausgewählten Variablen, der Implementierung und vorurteilsbefangener Initialisierung. Das Brett könnte uns die richtige Antwort liefern oder auch nicht, außer, dass es Glück bringen kann bei der Begründung einer Antwort auf irgendeiner vernünftigen Grundlage.
Wir wollen diesen Prozess einmal umkehren und tatsächlich die Verteilung der Modellergebnisse einer statistische Analyse unterwerfen. Zur Erinnerung: es geht um die Behauptung, dass sie alle nach den gültigen Gesetze der Physik korrekt implementiert sind. Zum Beispiel, wenn ich versuche, eine a priori-Berechnung der Feinstruktur – sagen wir – eines Kohlenstoff-Atoms durchzuführen, könnte ich damit so beginnen, dass ich ein Einzel-Elektronenmodell auflöse, wobei ich die Wechselwirkung zwischen den Elektronen unter Verwendung der Wahrscheinlichkeits-Verteilung des Einzel-Elektronenmodells bestimme, um eine sphärisch symmetrische „Dichte“ von Elektronen um den Kern zu erzeugen. Dann stelle ich eine in sich widerspruchsfreie Wiederholungs-Feldtheorie-Iteration auf  (indem ich das Einzel-Elektronenmodell für das neue Potential auflöse) bis es konvergiert. (Das ist als „Hartree-Approximation bekannt“).
Nun könnte jemand sagen „Moment mal, das ignoriert das Pauli-Ausschlußprinzip [Pauli exclusion principle]“ sowie die Forderung auf vollkommene Antisymmetrie der Elektronen-Wellenfunktion. Man könnte dann das (immer noch Einzel-Elektronen-)Modell komplizierter machen und eine Slater-Determinante [?] konstruieren, die man als vollständig antisymmetrische Repräsentation der Elektronen-Wellenfunktionen verwendet; sodann die Dichte erzeugen und die widerspruchsfreie Feldberechnung zur Konvergenz durchführen (das ist Hartree-Fock).
Jemand anders könnte dann darauf hinweisen, dass dies immer noch die „Korrelations-Energie“ des Systems unterschätze, weil das Behandeln der Elektronenwolke als kontinuierliche Verteilung die Tatsache ignoriert, dass einzelne Elektronen sich stark abstoßen und folglich nicht in die Nähe eines anderen kommen wollen. Beide frühere Herangehensweisen unterschätzen die Größe des Elektronen-Loches und machen das Atom folglich „zu klein“ und „zu stark gebunden“. Eine Palette von Schemata wird zur Behandlung dieses Problems vorgeschlagen – wobei die Verwendung einer semi-empirischen lokalen Dichtefunktion das wahrscheinlich erfolgreichste ist.
Und noch jemand könnte dann anmerken, dass das Universum wirklich relativistisch ist, und dass wir beim Ignorieren der Relativitätstheorie und der Durchführung einer klassischen Berechnung einen Fehler einführen in alles oben Gesagte (obwohl es in das halb empirische LDF-Verfahren heuristisch eingebracht werden kann).
Am Ende könnte man sehr gut ein „Ensemble” von Modellergebnissen in der Hand haben, die alle auf der Physik basieren. Tatsächlich basieren auch die Unterschiede auf der Physik. Die  von einem Versuch zum nächsten weggelassene Physik, oder die zur Annäherung und zur Einbringung der Physik verwendeten Methoden, können wir nicht in eine Berechnung der Grund-Prinzipien einschließen (man beachte, wie ich mit der LDF eine semi-empirische Note eingeschmuggelt habe, obwohl man Dichtefunktionen aus den Grund-Prinzipien ableiten kann (z B. Thomas-Fermi-Approximation), die normalerweise nicht besonders gut sind, weil sie nicht im gesamten Bereich der in wirklichen Atomen beobachteten Dichte gültig sind). Was ich hervorheben möchte, die Durchführung der präzisen Berechnung ist keine Option. Wir können das Vielkörperproblem in der Quantentheorie nicht mehr exakt lösen, wie wir auch nicht mehr das Vielkörperproblem in der klassischen Theorie exakt lösen können, auch nicht den Satz von offenen, nicht-linearen, gekoppelten, gedämpften, angetriebenen Navier-Stokes-Gleichungen in einem nicht-inertialen Bezugsrahmen, wie es das Klimasystem darstellt.
Wohlgemerkt: die Lösung der exakten, vollständig korrelierten, nichtlinearen Elektronen-Wellenfunktion des einfachen Kohlenstoffatoms – oder des weitaus komplexeren Uranatoms – ist trivial einfach (hinsichtlich der Berechnung) im Vergleich zum Klimaproblem. Wir können beides nicht berechnen, aber wir können einer konsistenten Annäherung an die Lösung von Ersterem viel näher kommen als bei Letzterem.
Sollten wir also das Ensemble-Mittel von „physikalisch fundierten” Modellen heranziehen, um die Quanten-Elektron-Struktur eines Kohlenstoffatoms zu bestimmen und dieses als die beste Vorhersage der Kohlenstoff-Quantenstruktur ansehen?
Nur wenn wir sehr dumm, oder geisteskrank sind, oder etwas glauben machen wollen. Wenn man das von mir Gesagte sorgfältig liest (was Sie vielleicht nicht getan haben – man überliest vieles, wenn ein Jahr oder mehr an Elektronen-Quantentheorie in einigen Sätzen zusammengefasst wird, dabei habe ich noch die Perturbations-Theorie, die Feynman-Diagramme usw. ausgelassen), merkt man, dass ich geschummelt habe – ich bin in eine semi-empirische Methode geraten.
Wer wird gewinnen? LDF natürlich. Warum? Weil die Parameter so angepasst sind, dass dabei der beste Fit für das wirkliche empirische Spektrum von Kohlenstoff herauskommt. Alle anderen unterschätzen das Korrelations-Loch, die Fehler werden systematisch vom korrekten Spektrum abweichen. Ihr Mittel wird systematisch abweichen. Durch die Gewichtung von Hartree (dümmster vernünftiger „auf der Physik beruhender Ansatz“) in gleichem Maße wie wie LDF beim „Ensemble“-Mittel wird garantiert, dass der Fehler in diesem „Mittel“ signifikant sein wird.
Nehmen wir mal an, wir wüssten nicht (ganz so, wie wir mal nicht wussten), welches Modell die besten Ergebnisse brächte. Nehmen wir weiter an, dass niemand das Spektrum von Kohlenstoff wirklich gemessen hätte, so dass dessen empirische Quantenstruktur unbekannt wäre. Wäre das Ensemble-Mittel dann sinnvoll? Natürlich nicht. Ich habe die Modelle in der Weise präsentiert, wie die Physik selbst eine Verbesserung vorhersagt – und habe später wichtige Details hinzugefügt, die von Hartree ausgelassen wurden. Man kann nicht sicher sein, dass das nachträgliche Hinzufügen dieser Details die Dinge wirklich verbessert, weil es immer möglich ist, dass die Korrekturen nicht monoton sind (und tatsächlich sind sie es in höheren Größenordnungen der Perturbations-Theorie mit Nahezu-Sicherheit nicht). Und doch würde niemand so tun, als sei das Mittel aus einer Theorie und einer verbesserten Theorie  „wahrscheinlich“ besser als die verbesserte Theorie selbst, weil das sinnlos wäre. Auch würde niemand behaupten, dass Ergebnisse der diagrammatischen Perturbations-Theorie notwendigerweise semi-heuristische Methoden wie LDF in den Schatten stellen könnten, weil das oft genug nicht der Fall ist.
Was man in der realen Welt tun würde wäre: das Spektrum von Kohlenstoff messen, dies mit den Vorhersagen des Modells vergleichen und erst dann dem Gewinner den Siegerkranz aushändigen. Niemals umgekehrt. Und da keiner der Gewinner exakt sein wird – tatsächlich war trotz jahrzehntelanger Forschung keiner der Gewinner auch nur in der Nähe beobachteter/gemessener Spektren, trotz des Gebrauchs von Supercomputern für die Berechnungen (zugegeben, die waren damals langsamer als Ihr Mobiltelefon heute) – würde man dann dennoch zurück am Zeichenbrett und der Eingabe-Konsole versuchen, es besser zu machen?
Können wir diese Art sorgfältigen Nachdenkens auf den Spaghetti-Knoten der GCMs und ihrer erheblich divergierenden Lösungen anwenden? Natürlich können wir das! Zuerst sollten wir aufhören so zu tun, als ob das „Ensemble“-Mittel und die Varianz irgendeine Bedeutung hätten und sie einfach nicht mehr berechnen. Warum sollte man eine bedeutungslose Zahl ausberechnen? Zweitens könnten wir wirkliche Klimaaufzeichnungen von einem beliebigen „Epochen-Startpunkt“ nehmen – der Startpunkt spielt langfristig keine Rolle, wir müssen den Vergleich über einen langen Zeitraum durchführen, weil für jeden beliebigen kurzen Zeitraum  von einem beliebigen Startpunkt aus ein vielartiges Rauschen die systematischen Fehler verschleiert – und wir können nur die Realität mit den Modellen vergleichen. Wir können dann die Modelle aussortieren, indem wir (mal angenommen) alle außer den oberen fünf in eine Art von „Fehler-Papierkorb“ legen und sie nicht mehr für irgendeine Art Analyse oder politische Entscheidungsprozesse heranzuziehen, es sei denn, sie fangen an, sich mit der Wirklichkeit zu vertragen.
Danach könnten sich echte Wissenschaftler hinsetzen und die fünf Gewinner betrachten – und darüber nachdenken, was sie zu Gewinnern gemacht hat – was sie dazu gebracht hat, der Realität am nächsten zu kommen – und den Versuch machen, sie noch besser zu machen. Zum Beispiel, wenn sie weit oben rangieren und von den empirischen Daten divergieren, könnte man überlegen, früher nicht beachtete physikalische Phänomene hinzuzufügen, semi-empirische oder heuristische Korrekturen oder Input-Parameter anzupassen, um den Fit zu verbessern.
Dann kommt der schwierige Teil – Abwarten. Das Klima ist nicht so einfach gebaut wie ein Kohlenstoffatom. Das Spektrum von Letzterem ändert sich nie, es ist immer gleich. Ersteres ist niemals gleich. Entweder ein dynamisches Modell ist niemals das Gleiche und spiegelt die Variationen der Realität, oder man muss sich damit abfinden, dass das Problem ungelöst und die unterstellte Physik falsch ist, wie „wohlbekannt“ auch immer diese Physik ist. Also muss man abwarten und sehen, ob ein Modell, das adjustiert und verbessert worden ist und das auf die Vergangenheit bis zur Gegenwart besser passt, tatsächlich einen Vorhersage-Wert hat.
Am schlimmsten ist, dass man nicht einfach mit Statistik entscheiden kann, wann und warum Vorhersagen scheitern, weil das verdammte Klima nicht-linear ist, nicht-Markovianisch, stattdessen chaotisch und offensichtlich auf nichttriviale Weise beeinflusst ist von einem globalen Wettbewerb von gegensätzlichen und manchmal sich aufhebenden, kaum verstandenen Faktoren: Ruß, Aerosole, Treibhausgase, Wolken, Eis. Dekadische Oszillationen, Störungen, entstanden aus dem chaotischen Prozess, die globale, anhaltende Änderungen der atmosphärischen Zirkulation auf lokaler Basis verursachen (z. B. blockierende Hochdruckgebiete über dem Atlantik, die dort ein halbes Jahr lang liegen bleiben). Diese Änderungen haben gewaltige Auswirkungen auf jährliche oder monatliche Temperaturen, Regenmengen und so weiter. Dazu orbitale Faktoren, solare Faktoren. Änderungen der Zusammensetzung der Troposphäre, der Stratosphäre, der Thermosphäre. Vulkane. Änderungen bei der Landnutzung. Algenblüten.
Und dann dieser verdammte Schmetterling. Jemand muss dieses blöde Ding zerquetschen, weil der Versuch, ein Ensemble aus einer kleine Stichprobe aus einem chaotischen System zu mitteln, so dumm ist, dass ich mich gar nicht damit befassen kann. Alles ist gut, solange man über ein Intervall mittelt, das kurz genug ist, um an einen bestimmten Attraktor gebunden zu sein, der schwingt und alles vorhersagbar macht – und dann mit einem Male ändern sich die Attraktoren und alles mit ihnen! All die kostbaren Parameter, empirisch fein eingestellt auf den alten Attraktor müssen nun durch neue Werte ersetzt werden.
Das ist der Grund, warum es tatsächlich unsinnig ist, der Vorstellung zuzustimmen, dass irgendeine Art p-Werte oder R², der aus irgendeinem Mittel im AR 5 abgeleitet ist, irgendeine Bedeutung hätte. Diese Vorstellung verliert ihren hohen Stellenwert (sogar dann noch, wenn man in guter Absicht zu argumentieren versucht, dass dieses „Ensemble“ elementare statistische Tests nicht bestünde). Statistisches Testen ist eine wahrhaft wackelige Theorie, offen für Datenmanipulation und horrende Fehler, vor allem, wenn sie von zugrunde liegenden IID-Prozessen [Independent and identically distributed processes] gesteuert wird („grüne Bohnen verursachen Akne“). Man kann nicht naiv ein Kriterium anwenden, wie z. B. „falsch, wenn P < 0,05“, und all das bedeutet im günstigsten Fall, dass die gegenwärtigen Beobachtungen unwahrscheinlich sind bei einer gegebenen Null-Hypothese von 19 zu 1. Auf solchem Niveau verlieren und gewinnen Spieler immer wieder ihrer Wetten.
Also möchte ich empfehlen – in aller Bescheidenheit – , dass die Skeptiker weiter hart bleiben, sich nicht auf dieses Feld locken lassen und durch Diskussionen über Fragen ablenken lassen, wie z. B. warum die Modelle in so erschreckender Weise untereinander abweichen, selbst wenn man sie auf identische Spiel-Probleme anwendet, die viel einfacher sind als die wirkliche Erde. Und ich möchte empfehlen, dass wir empirische Beweise nutzen (es werden immer mehr), um gescheiterte Modelle zurückzuweisen, und dass wir uns auf diejenigen konzentrieren, die der Realität am nächsten kommen. Dabei darf man keine Modelle benutzen, die offensichtlich überhaupt nicht funktionieren, und vor allem keine mit irgendwelchen Arten von Vorhersagen „durchschnittlicher“ zukünftiger Erwärmung …
Bei meiner verhältnismäßigen Ignoranz würde es mich fünf Minuten kosten, alle GCMs außer den besten 10 Prozent auszusortieren (auch diese divergieren noch hinsichtlich der empirischen Daten, liegen jedoch noch innerhalb der erwarteten Fluktuation des Datensatzes). Dann würde ich den Rest aufteilen in eine obere Hälfte mit den Modellen, die man eventuell behalten und möglicherweise verbessern könnte, und in eine zweite Hälfte, deren weitere Verwendung ich für Zeitverschwendung halte. Das würde sie natürlich nicht zum Verschwinden bringen, aber in die Mottenkiste. Falls sich das zukünftige Klima jemals magischerweise dazu aufraffen sollte, zu den Modellen zu passen, wäre es nur eine Frage weniger Sekunden, sie wieder hervorzuholen und zu benutzen.
Natürlich, wenn man das tut, fällt die von den GCMs vorhergesagte Klimasensitivität von den statistisch betrügerischen 2,5°C pro Jahrhundert auf einen wesentlich plausibleren und möglicherweise immer noch falschen Wert von etwa 1°C pro Jahrhundert. Dieser Wert – Überraschung! – stellt mehr oder weniger eine Fortsetzung des Erwärmungstrends nach der Kleinen Eiszeit dar mit einem möglicherweise kleinen anthropogenen Beitrag. Diese große Änderung würde zu einem großen Aufruhr führen, weil die Leute merken würden, wie sehr sie von einer kleinen Gruppe von Wissenschaftlern und Politikern ausgenutzt worden sind, wie stark sie Opfer von unhaltbarem statistischen Missbrauch geworden sind, indem man ihnen suggeriert hat, dass sie alle stimmen mit gewissen Unterschieden an den Rändern.
Link: http://wattsupwiththat.com/2013/06/18/the-ensemble-of-models-is-completely-meaningless-statistically/
Übersetzt von Chris Frey EIKE unter Mithilfe von Helmut Jäger




Das GRANDIOSE SCHEITERN der Klimamodellierung – Spencer: ‚Der Tag der Abrechnung ist gekommen!’

Dr. Roy Spencer schreibt:
Als Erwiderung auf diejenigen, die sich in meinem jüngsten Beitrag darüber beklagt haben, dass lineare Trends kein guter Weg sind, die Modelle mit Beobachtungen zu vergleichen (obwohl die Modellierer behauptet haben, dass wir uns auf das langzeitliche Verhalten der Modelle konzentrieren sollen und nicht auf individuelle Jahre), folgen hier die gleitenden 5-Jahres-Mittel der Temperatur in der tropischen Troposphäre, Modell gegen Beobachtung:
(siehe Bild oben rechts!)
In diesem Fall wurden die Modellergebnisse und die Beobachtungen geplottet, so dass ihre jeweiligen Trendlinien alle im Jahr 1979 beginnen. Wir glauben, dass dies die beste Darstellung ist, um die Modellergebnisse mit den Beobachtungen zu vergleichen.
Meiner Ansicht nach ist der Tag der Abrechnung gekommen! Die Modellierer und das IPCC haben bewusst viele Jahre lang die Beweise für die geringe Klimasensitivität ignoriert, trotz der Tatsache, dass einige von uns gezeigt haben, dass man einfach Ursache und Wirkung verwechselt, da man, wenn man aufgrund von Wolken- und Temperaturänderungen auf die Rückkopplung durch Wolken schließt, sehr in die Irre geführt werden kann (siehe z. B. Spencer & Braswell, 2010). Die Diskrepanz zwischen den Modellen und den Beobachtungen ist nichts Neues… aber etwas, das mit der Zeit immer deutlicher hervor tritt.
Sein Essay steht hier.
==============================================================
Der lineare Plot aus Dr. Spencers gestrigem Beitrag folgt hier. Er schreibt:
Dank der Arbeit von John Christy folgt hier ein Vergleich zwischen 73 CMIP5-Modellen (archiviert auf der Website Climate Explorer des niederländischen Wetterdienstes KNMI) und Beobachtungen der tropischen troposphärischen Temperatur („MT“) seit 1979:

Anstatt eines Spaghetti-Plots der individuellen Modelljahre haben wir hier den linearen Temperaturtrend von jedem Modell und den Beobachtungen im Zeitraum 1979 bis 2012 geplottet.
Man beachte, dass die Beobachtungen (die zufälligerweise nahezu identische Trends zeigen) aus zwei sehr unterschiedlichen Beobachtungssystemen stammen: 4 Datensätze aus Radiosondendaten und 2 Satelliten-Datensätze (UAH und RSS).
Wenn wir den Vergleich auf lediglich die 19 Modelle begrenzen, die ausschließlich von Forschungszentren in den USA erstellt worden sind, zeigt sich eine geringere Bandbreite:

Also, in welchem Universum repräsentieren die obigen Ergebnisse kein grandioses Scheitern der Modelle?
Link: http://wattsupwiththat.com/2013/06/06/climate-modeling-epic-fail-spencer-the-day-of-reckoning-has-arrived/
Übersetzt von Chris Frey EIKE




Vielzitierte Studie zum 97-Prozent-Konsens zerfällt!

Zunächst gibt es da neue Einwände hinsichtlich des Suchsystems, um die Studien zu bewerten, wie Shub Niggurath bei Bishop Hill erklärt:
Die Literatur zur Klimaänderung umfasst weit über hunderttausend Artikel und Bücher. Die Strategie von Cook et al. war es, sich auf Studien zu konzentrieren, die einen direkten Bezug zur „globalen Erwärmung“ oder zur „globalen Klimaänderung“ im Web of Science haben. Sie beschreiben es so:
Im März 2012 durchsuchten wir das ISI Web of Science nach Studien, die in den Jahren 1991 bis 2011 veröffentlicht worden waren, und zwar mit den Suchbegriffen ‚globale Erwärmung‘ oder ‚globale Klimaänderung‘. Die Art der Artikel war begrenzt auf ‚Artikel‘. Bücher, Diskussionen, Studien zu Vorgehensweisen und andere Typen waren ausgeschlossen.
Eine Suche mit Web of Science auf die von den Autoren beschriebene Art und Weise ergibt tatsächlich 30940 Treffer, nicht 12464. Schließt man den ‚Arts and Humanities Citation Index’ (A&HCI) aus, werden daraus 30876 Treffer. Dies geschieht, wenn man die Suchbegriffe nicht als Doppelbegriff kenntlich macht (z. B. ‚globale Erwärmung‘ anstatt „globale Erwärmung“).
Scopus ist eine akademische Datenbasis, die technische, medizinische und soziale Wissenschafts-Disziplinen abdeckt. Wenn Scopus mit den korrekten Suchbegriffen benutzt wird, ergeben sich überraschenderweise insgesamt 19417 Treffer. Eine Suche beim Web of Knowledge ergibt etwa 21488 Treffer. Diese Zahlen sind um 7473 Treffer (Scopus) und etwa 9544 Treffer (Web of Knowledge) größer als das, was Cook et al. möglicherweise analysiert haben.
Mehr: http://www.bishop-hill.net/blog/2013/5/27/landmark-consensus-study-is-incomplete.html
=================================================================
Zweitens geben immer mehr Autoren an, dass ihre Studien falsch kategorisiert worden sind:
=================================================================
Ist dies eine akkurate Repräsentation Ihrer Studie?
„Mit Sicherheit nicht korrekt und mit Sicherheit irreführend. Die Studie richtet sich stark gegen AGW und dokumentiert dessen Fehlen in den beobachteten Fakten hinsichtlich des Meeresspiegels. Außerdem entkräftet sie erheblich die Art und Weise, mit der das IPCC den Meeresspiegel behandelt“. – Dr. Mörner
„Ich bin sicher, dass diese Einstufung des fehlenden CO2-Einflusses auf AGW keinesfalls akkurat oder korrekt ist. Die Einstufung unserer ernsthaft bewerteten Studie lediglich aufgrund der Durchsicht des Abstracts oder Wörtern im Titel der Studie ist sicherlich ein ernster Fehler“. – Dr. Soon
„Nein; wenn die Studie von Cook et al. meine Studie mit dem Titel ‚eine multi-disziplinäre, wissenschaftlich basierte Annäherung zu den wirtschaftlichen Folgen der Klimaänderung‘ mit der Beschreibung klassifiziert, dass sie „AGW explizit befürwortet, aber nicht quantifiziert oder minimiert“, kann von meinen Absichten oder dem Inhalt der Studie nicht weiter entfernt liegen“. – Dr. Carlin
Mehr: http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html#Update2
Anthony Watts
Link: http://wattsupwiththat.com/2013/05/27/the-97-consensus-paper-is-starting-to-fall-apart/
Weiterführender Link.

Tol statistically deconstructs the 97% Consensus

Übersetzt von Chris Frey EIKE




Hockeystickerfinder Michael Mann – wieder einmal rat- und ahnungslos

Von the Hockey Schtick: Eine neue Studie von Schurer et al. (mit Mann als Mitautor) zeigt, dass „Klimamodelle die warmen Bedingungen vor rund 1000 Jahren (vor heute, während der Mittelalterlichen Warmphase) nicht erklären können, die man in einigen (Temperatur-)Rekonstruktionen erkennt“.
Schurer et al.: „Es zeigte sich, dass Variationen des solaren Outputs und explosiver Vulkanismus von 1400 bis 1900 die Hauptklimatreiber waren“. Sie behaupten auch: „aber zum ersten Mal sind wir auch in der Lage, einen signifikanten Beitrag aus Variationen von Treibhausgasen abzuleiten bis zu den kalten Bedingungen der Jahre von 1600 bis 1800“. Diese Behauptung ist höchst unwahrscheinlich, zeigen doch die Eisbohrkerne lediglich Änderungen des CO2-Gehaltes zwischen 1600 und 1800 von weniger als 10 ppm, und die Auswirkungen einer Änderung des CO2-Gehaltes um 10 ppm sind nicht bestimmbar, selbst mit moderner Instrumentierung.
Separating forced from chaotic climate variability over the past millennium*
auf deutsch etwa: Unterscheidung zwischen verursachter und zufälliger klimavariabilität während des letzten Jahrtausends
Andrew Schurer,1 Gabriele Hegerl,1 Michael E. Mann,2 Simon F. B. Tett,1 and Steven J. Phipps3
Journal of Climate 2013 doi: http://dx.doi.org/10.1175/JCLI-D-12-00826.1
[*Mit Dank an Leser D. Rohrlack.]
Abstract
Rekonstruktionen des vergangenen Klimas zeigen eine bemerkenswerte Temperatur-Variabilität während des vergangenen Jahrtausends, mit relativ warmen Bedingungen während der ‚Mittelelterlichen Klima-Anomalie MCA’ und der relativ kalten ‚Kleinen Eiszeit LIA’. Wir haben Multimodell-Simulationen des letzten Milleniums verwendet, zusammen mit einer Vielzahl von Rekonstruktionen der mittleren Temperatur auf der Nordhemisphäre, um die Klimavariabilität von 850 bis 1950 in Komponenten zu zerlegen, die man entweder externen Treibern oder interner Klimavariabilität zuordnen kann. Es zeigte sich, dass externe Treiber signifikant zu langzeitlichen Temperaturänderungen beigetragen haben, unabhängig von der Rekonstruktion aus Proxies, besonders ab dem Jahr 1400. Während der MCA allein jedoch ist der Effekt des Antriebs nur etwa in der Hälfte der betrachteten Rekonstruktionen auffindbar, und die Folgen des Antriebs in den Modellen können die warmen Bedingungen um das Jahr 1000 nicht erklären, die in einigen Rekonstruktionen zum Ausdruck kommen. Wir haben die Restmenge aus der Ermittlungs-Analyse verwendet, um die interne Variabilität unabhängig von der Klimamodellierung abzuschätzen, und fanden, dass die gegenwärtig beobachteten 50-jährigen und 100-jährigen hemisphärischen Temperaturtrends substantiell größer sind als irgendeiner der intern erzeugten Trends, selbst wenn man die große Restmenge während der MCA verwendet. Es zeigte sich, dass Variationen des solaren Outputs und explosiver Vulkanismus von 1400 bis 1900 die Hauptklimatreiber waren, aber zum ersten Mal sind wir auch in der Lage, einen signifikanten Beitrag aus Variationen von Treibhausgasen abzuleiten bis zu den kalten Bedingungen der Jahre von 1600 bis 1800. Die Proxy-Rekonstruktionen tendieren dazu, eine kleinere Reaktion auf Antriebe zu zeigen als von den Modellen simuliert. Wir zeigen, dass diese Diskrepanz zumindest teilweise zusammenhängt mit dem Unterschied der Reaktion auf große Vulkanausbrüche zwischen Rekonstruktionen und Modellsimulationen.
================================================================
Was soll das; die Klimamodelle können ja nicht einmal die Gegenwart erklären, geschweige denn die Vergangenheit. Also ist das wirklich keine Überraschung:

Anthony Watts
Link: http://wattsupwiththat.com/2013/04/11/michael-mann-says-climate-models-cannot-explain-the-medieval-warming-period-i-say-they-cant-even-explain-the-present/
Übersetzt von Chris Frey EIKE