Extreme Zeiten beim Wetter – wirklich?

Da ich ein kritischer Zeitgenosse bin, fragte ich mich, ob das stimmt. Gleich danach kam mir der Gedanke, ich weiß, dass dies eine wichtige Einsicht ist, falls sie stimmt … ich weiß nur nicht warum…
Danach brach ich in Lachen aus, als mir klar wurde, warum das wichtig wäre, falls es stimmt – aber ich wusste immer noch nicht, ob das der Fall ist. Also habe ich die entsprechende Mathematik betrieben.
Der einfachste Weg zum Austesten eines solchen Statements ist es, etwas zu tun, das unter der Bezeichnung „Monte Carlo“-Analyse bekannt ist. Man erzeugt eine große Anzahl von Datensätzen mit Pseudo-Randwerten, die eine Autokorrelations-Struktur aufweisen ähnlich irgendeinem autokorrelierten Datensatz in der Natur. Diese hoch autokorrelierten Pseudo-Randwerte werden oftmals „rotes Rauschen“ genannt. Weil ich ihn gerade zur Hand hatte, verwendete ich den Datensatz mit der globalen Temperatur von HadCRUT4 als meine Autokorrelations-Schablone. Abbildung 1 zeigt ein paar autokorrelierte Datensätze in Farbe mit „rotem Rauschen“, und zwar zusammen mit den HadCRUT4-Daten zum Vergleich.

Abbildung 1: Monatliche globale Temperaturanomalien von HadCRUT4 (Schwarz) nach der Eliminierung jahreszeitlicher Schwingungen. Blau und rot zeigen zwei Randwert-Datensätze mit „rotem Rauschen“ (autokorreliert).
Der HadCRUT3-Datensatz ist etwa 2000 Monate lang. Also erzeugte ich eine sehr lange Folge (zwei Millionen Datenpunkte) als einen einzelnen kontinuierlichen Datensatz mit „Pseudo-Temperaturen“ mit rotem Rauschen. Natürlich sind diese zwei Millionen Datenpunkte stationär, das heißt sie weisen keinen Trend mit der Zeit auf und die Standardabweichung ist mit der Zeit stabil.
Dann habe ich den Datensatz in Sequenzen mit je 2000 Datenpunkten unterteilt und habe jede Sequenz mit den 2000 Punkten betrachtet um zu sehen, wo die Maxima bzw. Minima in jedem 2000-Punkte-Datensatz selbst liegen. Falls das Minimum der dritte Datenpunkt war, habe ich ihn als „3“ markiert, und entsprechend, falls der vorletzte Datenpunkt das Maximum war, mit „1999“.
Dann erstellte ich ein Histogramm mit der gesamten Anzahl der Sequenzen und schaute, wie viele der Extremwerte sich unter den ersten 100 Datenpunkten befanden, unter den zweiten hundert Datenpunkten, und so weiter. Abbildung 2 zeigt das Ergebnis. Individuelle Läufe für 1000 variieren, aber die allgemeine Form ist immer die Gleiche:

Abbildung 2: Histogramm der Stelle (von 1 bis 2000), an der sich die Extremwerte in den 2000-Datenpunkt-Sequenzen des „roten Rauschens“ befanden.
Und siehe da, der unbekannte Autor hatte völlig recht. Falls man ein Randwert-Fenster in einen hoch autokorrelierten Datensatz mit „rotem Rauschen“ anbringt, befinden sich die Extremwerte (Minima und Maxima) zweimal so häufig am Anfang oder am Ende unseres Zeitfensters wie irgendwo in der Mitte.
Ich bin sicher, dass Sie erkennen, wohin das führt … Sie haben doch bestimmt all diese Behauptungen im Kopf bzgl. der letzten zehn Jahre, die extrem warm gewesen sind. Und über die extreme Anzahl von Stürmen und Extremwetter aller Art.
Darum musste ich so lachen. Falls man sagt „wir leben heute in extremen Zeiten ohne Beispiel“, hat man mathematisch wahrscheinlich recht, selbst wenn es überhaupt keinen Trend gibt, einzig weil die Daten autokorreliert sind und „heute“ am Ende unseres Zeitfensters liegt!
Wie urkomisch ist das denn? Wir leben tatsächlich in extremen Zeiten, und wir haben die Daten, die das beweisen!
Natürlich führt das genau in den AGW-Alarmismus, besonders weil jedwedes Extremereignis als Beweis angeführt wird, dass wir in prekären, außerordentlichen Zeiten leben, egal ob es warm oder kalt, nass oder trocken ist; ob es Dürren oder Überschwemmungen gibt…
Spaß beiseite, mir scheint, dass dies eine sehr wichtige Beobachtung ist. Typischerweise gehen wir davon aus, dass die extremen Zeiten gleichmäßig über das Zeitfenster verteilt sind. Aber wie Abbildung 2 zeigt, ist das nicht der Fall. Folge: Wir betrachten das Auftreten von Extremen in jüngster Zeit fälschlich als Beweis, dass die Grenzen der natürlichen Variabilität jetzt überschritten worden sind (z. B. „acht der zehn wärmsten Jahre“, usw.)
Dieses Ergebnis zeigt, dass wir unsere Ansichten dessen, was wir als „jüngste extreme Wetterereignisse“ betrachten, anheben müssen … weil wir selbst dann in extremen Zeiten leben, wenn es überhaupt keinen Trend gibt und wir dennoch extremes Wetter erwarten können.
Natürlich gilt dies für alle Arten von Datensätzen. Beispiel: gegenwärtig ist die Anzahl der Hurrikane extrem niedrig … aber ist diese kleine Zahl wirklich anomal, wenn die Mathematik uns sagt, dass wir in extremen Zeiten leben, so dass Extreme keine Überraschung sein sollten?
In jedem Falle schlage ich vor, dass wir dies den „Endzeiten-Effekt“ nennen, also die Tendenz der Häufung von Extremen in jüngster Zeit einfach deswegen, weil die Daten autokorreliert sind und „heute“ der Endzeitpunkt unseres Zeitfensters ist … und weil die korrespondierende Tendenz der Menschen, auf diese jüngsten Extreme zu schauen, zu der fälschlichen Annahme führt, dass wir in der Endzeit leben und alle dem Untergang geweiht sind.
Link: http://wattsupwiththat.com/2014/04/24/extreme-times/
Übersetzt von Chris Frey EIKE




Der schwer fassbare, etwa 60-jährige Zyklus des Meeresspiegel-Niveaus

Wie es so meine Gewohnheit ist, diese Behauptung zu überprüfen, habe ich mir die Daten besorgt. Also ging ich zum Permanent Service for the Mean Sea Level (PSMSL) und habe alle monatlichen Tidenmessungen von dort heruntergeladen, eine Gesamtzahl von 1413 individuellen Reihen. Nun sagten die Autoren der Studie zu der 60-jährigen Oszillation, sie hätten auf „langzeitliche Tidenaufzeichnungen“ geschaut. Falls wir wirklich nach einem 60-Jahre-Signal suchen, sagt mir meine Daumenregel, dass man einen dreimal längeren Zeitraum dafür braucht, also 180 Jahre, um die Ergebnisse einigermaßen abzusichern. Schlechte Nachrichten … wie sich herausstellt, gibt es nur an zwei der 1413 Zeitreihen, nämlich Brest und Swinemünde, 180 Jahre mit Daten. Also müssen wir uns kürzere Zeitreihen vornehmen, vielleicht die doppelte Zeitspanne von 60 Jahren, die wir untersuchen. Es ist oberflächlich, eine so kurze Zeitreihe zu verwenden, aber vielleicht reicht das ja schon. Es gibt 22 Tiden-Datensätze mit Daten aus 120 oder mehr Jahren. Abbildung 1a zeigt deren erste acht:

Abbildung 1a: Tidenmessungen über 1440 Monate (120 Jahre) oder mehr. Es handelt sich durchweg um relative Meeresspiegel, das heißt, sie alle beziehen sich auf eine willkürliche Grundlage. Einheiten sind Millimeter. Man beachte, dass die Skalen unterschiedlich und die Trends daher nicht so einheitlich sind wie sie aussehen.
Nun gibt es sicher keinen offensichtlichen 60-Jahres-Zyklus in diesen Tidenaufzeichnungen. Aber vielleicht sind ja die Feinheiten bei dieser Skalierung nicht erkennbar. Daher zeigt die nächste Abbildung die mittleren Gauss-Verteilungen der gleichen Datensätze. Um die darunter liegenden kleinen Änderungen der Mittelwerte zu enthüllen, habe ich zuerst jeden Datensatz trendbereinigt, indem ich jeden linearen Trend entfernt habe. Daher betont Abbildung 1b irgendwelche Zyklen ohne Rücksicht auf deren Größe, und beim Ergebnis muss man die sehr unterschiedlichen Skalierungen zwischen den Abbildungen 1a und 1b beachten.

Abbildung 1b: Gauss-Verteilung (14-jährige full-width half-maximum) der linear trendbereinigten acht Zeitreihen von Tidenmessungen aus Abbildung 1a. Man beachte, dass die individuelle Skalierung unterschiedlich zu Abbildung 1a sind.
Nun, sind die Daten erst einmal linear trendbereinigt, zeigen sich alle möglichen Schwingungen. Die dekadischen Schwingungen sind zumeist von der Größenordnung von 20 bis 30 mm von Spitze zu Spitze, obwohl einige etwa doppelt so stark sind. Das große Problem ist, dass die dekadischen Schwingungen unregelmäßig auftreten und völlig verschieden aussehen. Oder für unsere Frage relevant, in keinem dieser Datensätze zeigt sich ein offensichtlicher 60-Jahres-Trend.
Nun können wir noch genauer hinschauen, welche zugrunde liegenden Zyklen in jedem dieser Datensätze vorhanden sind, mit Hilfe einer Periodizitäts-Analyse. Das zeigt, wie stark die einzelnen Zyklus-Längen vertreten sind, in diesem Falle von zwei Monaten bis zu siebzig Jahren. Abbildung 1c zeigt die Periodizitäts-Analyse der gleichen acht langen Datensätze. In jedem Falle habe ich die jahreszeitlichen (jährlichen) Variationen des Meeresspiegels vor der Periodizitäts-Analyse entfernt.

Abbildung 1c: Periodizitäts-Analyse der ersten acht langzeitlichen Tiden-Zeitreihen.
Aber auch da sieht man nicht viel. Oben links in der Zeitreihe von Brest gibt es Hinweise auf einen 38-jährigen Zyklus. New York zeigt eine schwach ausgeprägte Spitze von etwa 48 Jahren. Anderswo zeigt sich durchweg kein Signal in den längerzeitlichen Zyklen, etwa von 30 bis 70 Jahren.
Schauen wir also auf die übrigen 22 Datensätze. Hier folgen die nächsten acht Zeitreihen mit Tidenmessungen in der gleichen Reihenfolge – erst die Rohdaten, dann das Gauss-Mittel und schließlich die Periodizitäts-Analyse.



Abbildungen 2a, 2b und 2c: Rohdaten, Gauss-Mittel und Periodizitäts-Analyse der nächsten acht, über 120 Jahre langen Zeitreihen
Und siehe da, es ist das gleiche Problem. Es zeigen sich alle möglichen Arten von Zyklen, aber keiner davon regelmäßig. Das größte Problem ist das Gleiche wie in den ersten acht Datensätzen – die Zyklen sind unregelmäßig und passen außerdem auch nicht zueinander. Mit Ausnahme einer kleinen Spitze bei etwa 45 Jahren in Vlissingen zeigen sich in keinem der längeren Zyklen ausgeprägte Wellen. Also weiter. Jetzt folgen die letzten sechs der 22 über 120 Jahre langen Datensätze:



Abbildungen 3a, 3b und 3c: Daten, Gauss-Mittel und Periodizitäts-Analyse wie oben für die letzten sechs der über 120 Jahre langen Tiden-Datensätze.
Da! Fallende relative Meeresspiegel in Abbildung 3a. Offensichtlich haben wir hier einige Tiden-Datensätze vor uns von Stellen mit einer nacheiszeitlichen Landhebung (PGR), das heißt, das Land hebt sich immer noch nach dem Verschwinden von Billionen Tonnen Eis aus der letzten Eiszeit. Folge: das Land hebt sich schneller als der Ozean…
Wie bizarr ist dass denn! Soeben bemerke ich, dass sich die Menschen um den Anstieg des Meeresspiegels als Folge der globalen Erwärmung Sorgen machen – dabei haben wir es hier mit der Hebung der Landmasse als Folge einer globalen Erwärmung zu tun… aber ich schweife ab. Das Gesamtergebnis der PGR in bestimmten Gebieten ist das relative Absinken des Meeresspiegels in vier der sechs Datensätze.
Wie auch in den anderen Datensätzen gibt es in diesen letzten sechs Datensätzen viele Zyklen unterschiedlicher Art, und wie zuvor sind sie nicht regelmäßig und passen auch nicht zueinander. Nur zwei von ihnen zeigen irgend eine Art stärkeres Signal in den längeren Zyklen. In Marseille zeigt sich so etwas mit einer Länge  von etwa 40 Jahren. Und da schau her, in Poti, dem Datensatz links oben, gibt es tatsächlich Hinweise auf einen 60-Jahres-Zyklus… nicht viel, aber von den 22 Datensätzen ist es der einzige, der auch nur einen vagen Hinweis auf ein Signal in der Größenordnung von 60 Jahren zeigt.
Und das ist alles. Das ist das Ergebnis aus allen Datensätzen, die mindestens zweimal so lang sind wie der 60-jährige Zyklus, nach dem wir suchen. Und wir haben grundsätzlich kein Anzeichen eines signifikanten 60-Jahres-Zyklus‘ entdecken können.
Nun nehme ich an, dass man noch weiter graben könnte. Allerdings sind alle verbleibenden Datensätze kürzer – und es tut mir leid, aber in einem Datensatz über 90 Jahre nach einem 60-jährigen Zyklus zu suchen entspricht nicht meiner Ansicht von Wissenschaft auf diesem Planeten. Man kann nicht behaupten, dass es einen Zyklus gibt, wenn man nur Daten der eineinhalbfachen Zykluslänge heranzieht. Das ist einfach Wunschdenken. Ich mag nicht einmal Daten über zwei Zykluslängen, sondern bevorzuge drei davon, aber in dieser Hinsicht gibt es eben nur zwei Datensätze.
Schließlich kann man fragen, ob es möglich ist, alle 22 Datensätze zu mitteln, um so den mysteriösen 66-Jahres-Zyklus zu entdecken? Vielleicht, aber wenn man sich das Durcheinander der oben gezeigten Aufzeichnungen ansieht – würde man es glauben, selbst wenn ich einen solchen Zyklus finden würde? Ich mag nicht einmal daran denken.
Aber als Wissenschaftler fühle ich mich immer durch unbeantwortete Fragen herausgefordert, also mache ich mich an die Arbeit. Ich plane, alle 22 langzeitlichen Datensätze heranzuziehen, diese linear trendbereinigen, sie zu mitteln und die drei Graphen zu zeigen (Rohdaten, Gauss-Mittel und Periodizitäts-Analyse. Das dauert nur einen Moment.

Zuerst kommt das Mittel aller trendbereinigten Aufzeichnungen, überlagert mit dem Gauss-Mittel.

Abbildung 4a: Mittel der trendbereinigten langzeitlichen Tiden-Aufzeichnungen. Die rote Linie zeigt ein full-width half-maximum [?] (FWHM) Gauss-Mittel der Daten, so wie es auch in den Abbildungen 1b, 2b und 3b der Fall war.
Ich sehe nichts, das wie eine Art 60-Jahres-Zyklus aussieht. Hier folgt die Periodizitäts-Analyse der gleichen 22 Stationsdaten:

Abbildung 4b: Periodizitäts-Analyse der Daten aus Abbildung 4a.
Wieder nichts! Eine sehr schwache Spitze zeigt sich bei etwa 45 Jahren, die wir auch in einer Einzel-Aufzeichnung gesehen haben. Das ist der einzige langzeitliche Zyklus, den ich erkennen kann.
Schlussfolgerungen? Nun, ich finde den 60-Jahres-Zyklus nicht, über den sie reden, weder in den individuellen noch in den mittleren Daten. Tatsächlich kann ich, wenn überhaupt, nur sehr geringe Anzeichen irgendwelcher langzeitlichen Zyklen erkennen. (Ich finde auch keine Zyklen um 11 Jahre, die in Einklang stehen könnten mit den Zyklen der Sonnenflecken, wie einige Leute behaupten, aber das ist eine andere Frage). Zur Erinnerung, die Autoren haben gesagt:
„Wir kommen zu dem Ergebnis, dass es eine signifikante Oszillation mit einer Periode von rund 60 Jahren bei der Mehrheit der im 20. Jahrhundert durchgeführten Tidenmessungen gibt…“
Tut mir leid, ich kann nichts dergleichen finden. Es gibt in den Einzel-Datensätzen dekadische Schwingungen von etwa 25 bis 50 mm. Ich glaube, man könnte dies „signifikante Oszillationen in der Mehrheit der Tidenmessungen“ nennen, obwohl das sehr weit hergeholt ist.
Aber die „signifikanten Oszillationen” sind nicht gleichmäßig. Man betrachte noch einmal die Gauss-Mittel in den ersten drei Gruppen von Abbildungen. Die „signifikanten Oszillationen“ zeigen sich überall. Selbst innerhalb jeder Einzelaufzeichnung variieren die Schwingungen erheblich hinsichtlich Zykluslänge und Amplitude. Also stimmen die Zyklen in jeder Einzelaufzeichnung nicht einmal mit sich selbst überein.
Auch untereinander stimmen sie nicht überein. Die Schwingungen in den verschiedenen Einzelaufzeichnungen passen weder zeitlich noch hinsichtlich der Größenordnung zusammen.
Und noch mehr auf den Punkt gebracht: keiner zeigt auch nur annähernd ein 60-Jahre-Signal. Nur einer der 22 Datensätze (Poti, oben links in den Abbildungen 3a, 3b und 3c) zeigt ein halbwegs erkennbares 60-Jahres-Signal bei der Periodizitäts-Analyse.
Also sage ich: Ich kann in den 22 langzeitlichen Tiden-Datensätzen keinerlei Anzeichen irgendeines 60-Jahres-Zyklus‘ erkennen. Man beachte, dies unterscheidet sich von der Aussage, dass ein solcher Zyklus in den Datensätzen nicht existiert. Ich sage, dass ich jeden einzelnen auseinander genommen und individuell nach bestem Wissen untersucht habe, und ich war nicht in der Lage, die behauptete „signifikante Oszillation mit einer Periode um 60 Jahre“ in irgendeiner dieser Aufzeichnungen zu finden.
Also gebe ich die Frage jetzt an Sie weiter. Ich habe alle relevanten Dinge verlinkt [siehe Original!] und gebe auch keine Empfehlung für eine bestimmte Analyse. Schauen Sie selbst, ob Sie die Existenz eines vermeintlichen 60-Jahres-Zyklus‘ in den 22 Aufzeichnungen finden.
Viel Glück bei der Suche!
[Es folgen die Hinweise und Links]
Aktualisierung: Ein aufmerksamer Kommentator schrieb dazu Folgendes:
Beim Googeln des Titels fand ich diesen frei zugänglich im Internet hier:
http://www.nc-20.com/pdf/2012GL052885.pdf.

Ich finde ihn überhaupt nicht überzeugend. Sie verwenden die kürzeren Zeitreihen in den PSMSL-Datensätzen und behaupten, 64-jährige Oszillationen zu erkennen, selbst wenn die Zeitreihen nur 110 Jahre lang sind.
Es gibt keinerlei Fourier- oder Periodizitäts-Analysen in dem Artikel.
Jan Kjetil Andersen
Vielen Dank, Jan, ich habe mir diese Studie mal angesehen. Sie verwenden jährlich gemittelte Daten … eine sehr eigenartige Auswahl. Warum sollte man jährliche Mittelwerte verwenden, wenn man bei PSMSL monatliche Datensätze findet?
In jedem Falle besteht das Problem in ihrer Analyse darin, dass man eine Sinus-Kurve an jede zeitliche Periode in den Tiden-Datensätzen anpassen kann und eine Nicht-Null-Antwort erhält. Als Ergebnis ist ihre Methode (Anpassen einer 55-jährigen Sinuswelle an die Daten) bedeutungslos ohne irgendetwas, mit dem man die Daten vergleichen kann.
Nach ein wenig Untersuchung erhält man beispielsweise das folgende Ergebnis. Ich habe ihre Methode verwendet und einen Sinus-Zyklus an die Daten angepasst. Hier folgen die Ergebnisse für Cascais, Aufzeichnung Nr. 43. In ihrer Studie geben sie die Amplitude (von Spitze zu Spitze, wie sich zeigt) der angepassten Sinuskurve mit 22,3 an. Ich erhalte eine ähnliche Antwort, was vermutlich einem etwas unterschiedlichen Optimierungs-Programm geschuldet ist.
Als Erstes möchte ich die von ihnen verwendeten Daten zeigen:

Falls irgendjemand glaubt, daraus einen „~60-Jahres-Zyklus” ableiten zu können, fürchte ich um seinen Geisteszustand…
Nicht nur das, aber nach all ihrem Geschwafel über einen „etwa 60-jährigen Zyklus“ analysieren sie in Wirklichkeit einen 55-jährigen Zyklus. Ist das nicht unlauterer Wettbewerb?
Als Nächstes folgen hier die Ergebnisse ihrer Analyse nach dem Typ einer Sinuswelle für die Perioden von 20 bis 80 Jahren. Die folgende Graphik zeigt die Amplitude von Spitze zu Spitze der angepassten Sinuskurve für jede Periode.

Und tatsächlich zeigt sich ein sinusartiger Zyklus von etwa der Größenordnung von 55 Jahren… aber das unterscheidet sich nicht von den Perioden auf beiden Seiten. Als solches ist das daher bedeutungslos.
Das wirkliche Problem ist: wenn die Zykluslänge im Vergleich zu den Daten so lang wird, ist die Antwort sehr, sehr vage… sie haben weniger als 100 Jahre mit Daten und suchen nach einem 55-jährigen Zyklus. Beklagenswert, um nicht zu sagen unmöglich.
In jedem Falle zeigt ihre Analyse, dass ihre Methode (Anpassen einer 55-jährigen Sinuskurve an die Daten) absolut unbrauchbar ist, weil uns dies nichts über die relative Stärke der Zyklen sagt.
Was natürlich erklärt, warum sie glauben, einen solchen Zyklus gefunden zu haben… ihre Methode ist einfach Unsinn. Wie sich zeigt, ist das Originaldokument noch schlimmer als ich gedacht habe.
Link: http://wattsupwiththat.com/2014/04/25/the-elusive-60-year-sea-level-cycle/
Übersetzt von Chris Frey EIKE

Update 2.5.14:

Autor Willis Eschenbach hat die Behauptung des Auffindens eines etwa 60 jährigen Zyklus nochmals mit einem schärferen Werkzeug ungtersucht: http://wattsupwiththat.com/2014/05/01/the-sea-level-cycles-get-more-elusive/
Er fand alle möglichen Zyklen, doch fast immer verschieden voneinander, nur nicht den behaupteten gemeinsamen 60 jährigen Zyklus




Vulkanische Eruptionen und ozeanischer Wärmegehalt

Bild rechts: Vulkan auf den Kanaren. Bild: Dieter Schütz  / pixelio.de 12.00

Ihre Abbildung 1 sieht so aus:

Bildinschrift im Original: Anomalien des globalen mittleren Wärmegehaltes aus den individuellen Mittelwerten der Aufzeichnung 1966 bis 1995, integriert über Tiefen von 0 bis 700 m und zeitlich geglättet mit einem laufenden 1-Jahres-Filter. Fette schwarze Kurve: das Ensemble-Mittel der acht nicht modellierten und teilweisen Analysen. Der lineare Trend des Ensemble-Mittels beträgt 0,77 X 10­8 J/m²/10 Jahre) oder 0,24 W/m². Trends der individuellen Analysen reichen von 0,68 bis 0,98 X 10­8 J/m²/10 Jahre) oder 0,21 bis 0,31 W/m². Die jährlichen vulkanischen Aerosol-Konzentrationen sind entlang der unteren Achse geplottet (aus Hansen et al. 2005). Der globale integrierte Wärmegehalt kann aus dem globalen Mittel gewonnen werden, indem man es mit der Oberfläche der Welt-Ozeane multipliziert mit Ausnahme der Festlandschelfe, also mit 3,4 X 10­14 m².

Bildunterschrift bei Eschenbach: Abbildung 1: neun verschiedene Schätzungen der Änderung des ozeanischen Wärmegehaltes, einschließlich eines Modells und acht auf Beobachtungen basierenden Schätzungen. Wenn man dies mit anderen Analysen vergleicht, muss man beachten, dass der ozeanische Wärmegehalt OHC in dieser Analyse mit 10­8 Joule pro Quadratmeter angegeben ist und nicht mit dem gebräuchlicheren globalen ozeanischen Gesamtwärmeinhalt, der normalerweise mit der Einheit 10­22 Joule gemessen wird. Die Konversion wird im letzten Satz der Bildinschrift beschrieben. (Tatsächlich glaube ich, dass ihre Bildunterschrift in ihrer Studie aus einem anderen Zusammenhang stammt und nicht aktualisiert worden ist … aber es ist klar, was gemeint ist).

Mein Interesse wurde nach der Lektüre des Abstract geweckt:

ABSTRACT

Diese Studie untersucht neun Analysen der globalen Wassertemperatur und des Wärmegehaltes, jeweils zwischen 0 und 700 m Tiefe, während der 43-jährigen Erwärmungsperiode von 1960 bis 2002. Unter den Analysen sind zwei, die unabhängig von jedem numerischen Modell sind, sechs, die sich auf teilweise Datenassimilation stützen einschließlich eines Allgemeinen Ozean-Zirkulationsmodells, und eine, die vierdimensionale variable Datenassimilation verwendet (4DVAR), einschließlich eines Allgemeinen Zirkulationsmodells. Die meisten Analysen zeigen eine graduelle Erwärmung des globalen Ozeans mit einem Ensemble-Trend von 0,77 X 10­8 J/m²/10 Jahre (= 0,24 W/m²) als die Folge der rapiden Erwärmung Anfang der siebziger Jahre und dann erneut ab etwa dem Jahr 1990. Eine Erklärung für diese Variationen sind die Auswirkungen von Vulkanausbrüchen in den Jahren 1963 und 1982. Die Untersuchung dieser Hypothese zeigt, dass sie trotz eines ozeanischen Signals nicht ausreicht, um die  beobachteten Variationen des Wärmegehaltes zu erklären.

Was kann man also aus dieser Studie lernen? Zunächst war mir überhaupt nicht bekannt, dass es neun unterschiedliche Schätzungen der Änderungen des ozeanischen Wärmegehaltes gibt; das war also für mich neu. Und noch ziemlich viel anderes … einschließlich der Erinnerung an die Tatsache, dass diese Art „Spaghetti-Graphik“ ohne Fehlerabschätzungen nutzlos ist.

Als Erstes habe ich also die Fehlerschätzungen in den Levitus-Daten eingeholt, die in Abbildung 1 gezeigt sind (gestrichelte violette Linie) und habe sie in die Graphik eingezeichnet um zu sehen, was dann passiert:

Abbildung 2: Genau wie Abbildung 1, aber ich habe die Levitus-Daten hervorgehoben und die roten vertikalen Linien hinzugefügt, die die Fehlerbreite der Levitus-Daten zeigen.

Nun habe ich schon lange den Verdacht gehabt, dass die Fehlerschätzungen in den Levitus-Daten unterschätzt sind … ich würde sagen, dass dieser Graph dies bestätigt.

Im Vorübergehen musste ich auch erkennen, dass ich nicht in der Lage war, ihre Abbildung 1 hinsichtlich der Levitus-Daten zu reproduzieren. Unter der aus obigem Link heruntergeladenen Daten sieht das, was die Levitus-Analyse derzeit zeigt, so aus:

Abbildung 3: Abbildung 1 aus C&S2008, überlagert mit den gegenwärtigen Levitus-Daten in rot.

Wie man sieht, gibt es eine gute allgemeine Übereinstimmung mit ihren Daten mit Ausnahme der Periode von 1969 bis 1984 … dafür habe ich keine Erklärung.

Allerdings war dies nicht das, was mich interessiert hat. Ich wollte wissen, wie das mit den Vulkanen ist. Eine Zeitlang habe ich in verschiedenen Beiträgen erklärt, dass die Folgen von Vulkanausbrüchen auf die Temperatur des Planeten überschätzt werden, manchmal sogar sehr erheblich. Ich war überrascht , ihre Ergebnisse hinsichtlich des Ausbruchs des El Chichón in Mexiko zu sehen. Sie haben einen interessanten Weg in ihrer Analyse beschritten. Für jedes Ozeangebiet haben sie den ozeanischen Wärmegehalt in den vier Jahren vor dem Ausbruch mit den vier Jahren nach dem Ausbruch verglichen. Das schien mir ein vernünftiger Ansatz. Abbildung 4 zeigt ihre Ergebnisse der 9 Analysen hinsichtlich des El Chichón-Ausbruchs im Jahre 1982:

Abbildung 4: Vergleich der Gesamtänderung des ozeanischen Wärmegehaltes (OHC) in den vier Jahren vor bzw. nach dem Ausbruch des El Chichón. Die oberen 8 Teilabbildungen darin zeigen die 8 Beobachtungs-Datensätze, die untere das Modell. Man beachte die unterschiedlichen Größenordnungen… vermutlich deswegen, weil die Änderungen in den Modellergebnissen nur etwa 2/3 so groß waren wie die Beobachtungen.

ORIGINAL-BILDUNTERSCHRIFT: Abb. 3: Änderung des 4-jährigen mittleren Wärmegehaltes jeweils 4 Jahre vor und nach dem Ausbruch des Mount Agung im Jahre 1963. Vor der Berechnung der Änderung des Wärmegehaltes wird eine Regressionsanalyse verwendet, um die Effekte der ENSO und eines linearen Erwärmungstrends zu eliminieren. (siehe Abbildung 2). … Die Änderungen größer als ± 5 X 10­8 J/m² sind schattiert. Die untersten Teilabbildungen zeigen die Änderung des Wärmegehaltes aus einem Fünfer-Ensemble der gekoppelten Simulation mit CM2.1 mit vollständigem Aerosol-Antrieb. Änderungen, die über ± 3 x 10­8 J/M² hinausgehen, sind schattiert.

Auf den ersten Blick sieht es nach einer Bestätigung aus, dass der Vulkan tatsächlich eine Abkühlung verursacht hat und dass meine Hypothese der minimalen vulkanischen Abkühlung falsch war.

Wenn allerdings die Abkühlung auf den Ausbruch zurückzuführen ist, warum gibt es dann Gebiete mit Erwärmung? Warum beschränkt sich die Abkühlung auf die Pazifik-Region unmittelbar um den Äquator, wenn die vulkanischen Aerosole ursprünglich vom Äquator stammen und dann über den ganzen Planeten verteilt werden? Und warum gibt es rund um die Ausbruchsstelle in Mexiko keine verstärkte Abkühlung?

Wie immer liegt die Antwort in mehr Beobachtungen. Abbildung 5 zeigt die korrespondierenden 4-Jahres-Mittel für den Pinatubo …

Abbildung 5: Wie Abbildung 4, nur diesmal bzgl. des Pinatubo-Ausbruchs in den Philippinen.

Wie die Studie selbst sagt …

Für den Pinatubo zeigen die meisten Analysen eine allgemeine Erwärmung, außer im westlichen äquatorialen (Süd-)Pazifik.

Allgemeine Erwärmung des Ozeans nach dem größten Vulkanausbruch unserer Zeit? Das sieht deutlich nach einer Unterstützung für meine Behauptungen aus … m. E ist die einzige Schlussfolgerung, die wir aus den Beobachtungen dieser beiden Vulkanausbrüche ziehen können, dass sie wie normale Variationen des OHC aussehen, und wie auch immer die Auswirkungen geartet sind, sind sie ziemlich klein.

Eine nähere Betrachtung enthüllt einen letzten und sehr starken Hinweis, dass die in den Abbildungen 4 und 5 gezeigten Änderungen NICHT auf die beiden Ausbrüche, sondern auf natürliche Variationen unbekannten Ursprungs zurückzuführen sind.

Das Format der Abkühlung hat nicht die von den Modellierern vorhergesagte Form angenommen. Wie die Modelle zeigen, falls der Antrieb der Ausbrüche wirklich die Temperatur bestimmen würde, würde man den stärksten Effekt unmittelbar stromabwärts der Ausbruchsstelle erwarten. Man beachte in Abbildung 5, dass von allen neun Ergebnissen (8 aus Beobachtungen, 1 aus dem Modell) nur das Modell eine Abkühlung stromabwärts des Pinatubo zeigt. Man kann es in den Modellergebnissen erkennen, und zwar an dem blauen Gebiet, das wie ein Pfeil in Richtung nördliche Philippinen zeigt mit dem Schwanz stromabwärts im nördlichen Pazifik … aber keines der Beobachtungs-Datensätze zeigt diese Verteilung der Abkühlung stromabwärts des Pinatubo.

Nicht nur das, sondern man betrachte noch einmal Abbildung 4. Dreimal darf man raten, welche der neun Analysen behauptet, dass es stromabwärts des Ausbruchs in Mexiko zu einer Abkühlung kommt, und zwar im Gebiet der Karibik und dem nördlichen Südamerika. Jawohl … das Modell war das einzige … und es ist nicht so gekommen. Selbst in den Gebieten direkt stromabwärts der Ausbrüche findet man also nicht die erwarteten Änderungen des Wärmegehaltes aufgrund von Änderungen des solaren Antriebs.

Die Vulkane stellen ein riesiges Problem dar für die allgemein verbreitete Ansicht, dass die Änderungen der globalen mittleren Temperatur eine lineare Funktion der Änderungen des Antriebs sind. Die Klimamodelle sind nichts weiter als eine mechanistische Implementierung der beschriebenen und simplistizischen Hypothese.

Nun kennen wir die Tatsache, dass der solare Antrieb nach dem Pinatubo-Ausbruch einen großen und ziemlich langen Abschwung hinlegte … aber man findet weder die Mange noch die Verteilung der von den Modellen vorhergesagten Abkühlung. Und nicht nur das, sondern das vorherrschende Element nach Pinatubo war Erwärmung, nicht Abkühlung … also noch einmal, die einzige haltbare Schlussfolgerung lautet:

1. Was immer die Vulkane auslösen – es ist nicht das, was das Modell sagt oder was die konventionelle Klimatheorie vorhersagt, und

2. was immer die Vulkane auslösen, es reicht nicht einmal aus, um Effekte über das Rauschen hinaus auszulösen.

Für mich ist das einfach ein weiterer Beweis, dass das zugrunde liegende Klima-Paradigma, also der Gedanke, dass Temperaturänderungen eine lineare Funktion der Änderungen des Antriebs sind, einfach falsch ist. Falls es korrekt wäre, hätten die Ausbrüche das gezeigt … aber das haben sie einfach nicht.

Das ist der Grund, warum ich mich selbst eher als einen Klima-Häretiker bezeichne als einen Skeptiker – ich glaube, dass das fundamentalste Paradigma dessen, wie das Klima funktioniert, falsch ist. Die Temperaturänderungen sind KEINE lineare Funktion der Änderungen des Antriebs, wie es die konventionelle Klimatheorie behauptet.

Daten:  Global Decadal Upper-Ocean Heat Content as Viewed in Nine Analyses, James Carton and Anthony Santorelli 

 Link: http://wattsupwiththat.com/2014/04/06/eruptions-and-ocean-heat-content/

Übersetzt von Chris Frey EIKE




Meeresspiegelanstieg und Frischwasserzufluss?

[*Beim Anklicken des Artikels habe ich ihn ohne Zahlschranke bekommen. A. d. Übers.]

In Cazenave14 heißt es, das parallel zum Stillstand bei der globalen Erwärmung auch die Rate des globalen Meeresspiegel(GMSL)-Anstiegs geringer geworden ist. Obwohl irgendwie andere Zahlen genannt werden, geht dies aus den Ergebnissen aller fünf Gruppen hervor, die die Satellitendaten bzgl. des Meeresspiegels bearbeitet haben, wie der obere Teil „a“ der Abbildung 1 zeigt:

Abbildung 1: Original-Bildunterschrift: GMSL-Rate über fünf Jahre lange übergreifende Ausschnitte [Original: five-year-long moving windows]. a: zeitweilige Evolution der GMSL-Rate berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um 1 Jahr (Anfangsjahr: 1994). b: zeitweilige Evolution der korrigierten GSML-Rate (nomineller Fall), berechnet über übergreifende 5-Jahres-Zeiträume, verschoben um ein Jahr (Anfangsjahr: 1994). Die GMSL-Daten von jeder der fünf Gruppen werden gezeigt.

Nun darf es natürlich keine Verlangsamung der Rate des Meeresspiegel-Anstiegs geben, das würde nicht zur gewünschten Linie passen. Also haben sie sich entschlossen, die zwischenjährlichen Variationen in den beiden Komponenten heraus zu subtrahieren, die den Meeresspiegel ausmachen – die Massenkomponente und die „räumliche“ Komponente. Der untere Teil der Abbildung zeigt, was sie danach herausbekommen haben, nachdem sie die zwischenjährlichen Variationen berechnet und von jedem der fünf Ergebnisse der jeweiligen Gruppen subtrahiert hatten.

Bevor es weitergeht, möchte ich eine Frage in den Raum stellen, die ich später beantworten werde: Was genau in Abbildung 1 hat mich dazu veranlasst, diese Arbeit genauer unter die Lupe zu nehmen?

Bevor ich darauf eingehe, möchte ich noch etwas detaillierter erklären, was sie gemacht haben. Siehe dazu die Sekundärinformationen. Sie haben begonnen mit dem mittleren Meeresspiegel, der von den fünf Gruppen gezeigt wurde. Dann haben sie das trendbereinigt. Als Nächstens verwendeten sie eine Vielfalt von Beobachtungen und Modellen, um die zwei Komponenten abzuschätzen, die die Variationen im Anstieg des Meeresspiegels ausmachen.

Die Massenkomponente ist die Gesamtmenge an Wasser, die den Ozeanen entweder zugeführt oder entnommen wird durch die Launen des hydrologischen Zyklus‘ – Eisschmelze und Gefrieren, Verteilung der Regenmenge zwischen Festland und Ozeanen, und so weiter. Die räumliche Komponente (Dichte-Komponente) des Meeresspiegels andererseits ist die Änderung des Meeresspiegels infolge Änderungen der Dichte des Ozeanwassers durch unterschiedliche Temperatur und Salinität. Die Summe der Änderungen dieser beiden Komponenten ergeben die Gesamtänderungen des Meeresspiegels.

Als Nächstens haben sie die Summe der beiden Komponenten vom Mittel der Ergebnisse der 5 Gruppen subtrahiert. Damit bekamen sie die „Korrektur“, die sie danach jeweils auf die Schätzungen der fünf Gruppen angewendet haben. Sie beschreiben den Prozess in der Bildunterschrift unter ihrer Graphik:

Abbildung2: Dies ist Abbildung S3 aus den Ergänzenden Informationen. Original-Bildunterschrift: Schwarze Kurve: mittlere trendbereinigte GMSL-Zeitreihe (Mittel der fünf altimetrischen Satelliten-Datensätze) von Januar 1994 bis Dezember 2011 sowie Unsicherheitsgrenzen (in grau; basierend auf der Verteilung jeder Zeitreihe um das Mittel). Hellblaue Kurve: zwischenjährliche Massenkomponente basierend auf dem hydrologischen Modell ISBA/TRIP für Wasserspeicherung auf dem Festland plus atmosphärische Wasserdampf-Komponente von Januar 1994 bis Dezember 2002 sowie GRACE CSR RL05 Ozeanmasse von Januar 2003 bis Dezember 2011 (Hybrid-Fall 1). Die rote Kurve ist die Summe der zwischenjährlichen Massen- plus der thermosterischen Komponente. Dies ist das aus den ursprünglichen GMSL-Zeitreihen entfernte Signal. Vertikale Balken repräsentieren die Unsicherheit der monatlichen Massenabschätzung (hellblau) und monatlichen Gesamtverteilung (Massen- plus thermosterische Komponente; rot). Einheiten: mm.

Was also berechnen sie denn nun, wenn sie die rote Linie von der schwarzen Linie subtrahieren? Hier begannen die Dinge falsch zu laufen. Von der blauen Linie wird gesagt, dass sie die trendbereinigte Massen-Fluktuation sei einschließlich der zwischenjährlichen Speicherung auf dem Festland und in Wasserdampf. Von der schwarzen Linie sagen sie, dass sie das trendbereinigte Mittel des GMSL darstellt. Die rote Linie markiert die blaue Linie plus die „räumliche“ Änderung durch thermische Expansion. Hier liegen die Schwierigkeiten, die ich sehe, mit steigender Rangfolge der Wichtigkeit. Allerdings ist jede einzelne der folgenden Schwierigkeiten ausreichend, ihre Ergebnisse zu falsifizieren.

Unsicherheit

Ich habe obige Graphik so digitalisiert, dass ich sehen kann, wie ihre Korrektur wirklich aussieht. Abbildung 3 zeigt das Ergebnis in blau einschließlich des 95%-Vertrauens-Intervalls in der Korrektur.

Abbildung 3: Die in Cazenavel angebrachte Korrektur der GMSL-Daten der fünf bearbeitenden Gruppen (blau)

Die „Korrektur”, die sie an jeden der fünf Datensätze angebracht haben, ist statistisch nur in 10% aller Datenpunkte von Null unterschiedlich. Dies bedeutet, dass 90% ihrer „Korrektur“ nicht vom Rauschen unterscheidbar ist.

Trend

In der Theorie schauen sie lediglich auf zwischenjährliche Variationen. Sie beschreiben den Prozess, um diese zu erhalten. Die schwarze Kurve in Abbildung 2 wird beschrieben als „mittlere trendbereinigte GMSL-Zeitreihe“ (Hervorhebung von mir). Die blaue Kurve in Abbildung 2 beschreiben sie so (Hervorhebung von mir):

Da wir uns auf die zwischenjährliche Variabilität konzentrieren, wurden die Massen-Zeitreihen trendbereinigt.

Und die rote Kurve in Abbildung 2 ist die kombinierte Massen- und räumliche Komponente. Ich kann nirgendwo finden, dass sie die räumliche Komponente trendbereinigt hätten.

Das Problem ist, dass in Abbildung 2 keine der drei Kurven trendbereinigt ist, obwohl alle dicht beieinander liegen. Die schwarze Kurve zeigt einen aufwärts gerichteten und die anderen beiden einen abwärts gerichteten Trend.

Die schwarze GMSL-Kurve weist immer noch einen leichten Trend auf, etwa +0,02 mm pro Jahr. Die blaue räumliche Kurve geht um -0,06 mm pro Jahr in die andere Richtung. Die rote Kurve übertreibt dies noch etwas, so dass sich ein Gesamttrend der beiden von -0,07 mm pro Jahr ergibt. Und das bedeutet, dass die „Korrektur“, also der Unterschied zwischen der roten Kurve (Massen- + räumliche Komponente) und der schwarzen GSML-Kurve, ebenfalls einen Trend aufweist, nämlich die Summe der beiden oder etwa ein Zehntel eines Millimeters pro Jahr.

Wie gesagt, ich kann nicht ergründen, was damit gesagt werden soll. Sie sprechen von trendbereinigten Werten zur Bestimmung der zwischenjährlichen Unterschiede, die aus den Daten entfernt werden sollen … aber falls sie das wirklich getan hätten, hätte die Korrektur keinen Trend haben können. Und ihren Graphen zufolge ist nichts vollständig trendbereinigt, und die Korrektur hat ganz bestimmt einen Trend.

Logik

Die Studie enthält auch die folgende Beschreibung hinsichtlich der Informationsquelle zur Massenbilanz:

Um die Massenkomponente infolge Änderungen der globalen Wasserspeicherung zu schätzen, benutzen wir das Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) globale hydrologische Modell, das von MétéoFrance22 entwickelt worden ist. Das ISBA-Verfahren auf Landoberflächen berechnet die zeitlichen Variationen der Budgets von Oberflächen-Energie und Wasser in drei Bodenschichten. Der Wassergehalt einer Bodenschicht variiert mit dem Wassereintrag von der Oberfläche, der Verdunstung, der Pflanzen-Transpiration und der Drainage. ISBA ist gekoppelt mit dem TRIP-Modul, das den täglichen, vom ISBA simulierten Abfluss konvertiert in ein globales Fluss-System mit der Auflösung 1. In der jüngsten Version verwendet ISBA/TRIP als meteorologischen Antrieb Daten mit einer Auflösung von 0,5 der ERA Interim reanalysis des Europäischen Zentrums für Mittelfristrige Wettervorhersage (hier). Speicherungsergebnisse von Wasser auf dem Festland werden in monatlichen Intervallen angegeben von Januar 1950 bis Dezember 2011. Der Beitrag des atmosphärischen Wasserdampfes wurde aus der ERA Interim reanalysis geschätzt.

So weit, so gut. Sie benutzen also die Ergebnisse der historischen Reanalyse um zu modellieren, wie viel Wasser in jedem Monat an Land gespeichert worden ist und sogar in der Luft.

Jetzt nehmen wir einmal an, dass ihr Modell der Massenbilanz perfekt wäre. Weiter wollen wir annehmen, dass die Daten des Meeresspiegels perfekt sind und dass ihr Modell der räumlichen Komponente ebenfalls perfekt ist. Wäre die „Korrektur“ in diesem Falle nicht Null? Ich meine, die „Korrektur“ ist nichts als der Unterschied zwischen dem modellierten Meeresspiegel und dem gemessenen Meeresspiegel. Falls die Modelle perfekt wären, würde die Korrektur zu allen Zeiten Null sein.

Was zwei Schwierigkeiten aufwirft:

1. Wir haben keine Sicherheit, dass der Unterschied zwischen den Modellen einerseits und den Beobachtungen andererseits nur Modellfehlern geschuldet ist, und

2. falls die Modelle korrekt sind, woher kommt das Wasser und wohin geht es? Die „Korrektur“, die uns von den modellierten zu den beobachteten Werten bringt, muss eine riesige Menge Wasser repräsentieren, die kommt und geht … aber von wo und wohin? Vermutlich sind El Nino-Effekte in ihrem Modell enthalten, welches Wasser bewegt sich da also?

Die Autoren erklären das folgendermaßen:

Studien aus neuerer Zeit haben gezeigt, dass die kurzfristigen Fluktuationen des mit Satelliten gemessenen Meeresspiegels hauptsächlich Variationen der Wasserspeicherung auf dem Festland geschuldet sind (hauptsächlich in den Tropen) mit einer Tendenz zu einem Wasserdefizit an Land (und einem zeitweiligen Steigen des Meeresspiegels) während El Nino-Ereignissen und der entgegen gesetzten La Ninas. Dies resultiert direkt aus Regen-Exzessen über den tropischen Ozeanen (meist dem tropischen Pazifik) und Regendefizit an Land (meist in den Tropen) während eines El Nino. Bei einer La Nina ist die gegenteilige Lage vorherrschend. Die Abfolge von La Nina-Ereignissen während der letzten Jahre hat im vorigen Jahrzehnt zu vorübergehenden negativen Anomalien von mehreren Millimetern beim GMSL geführt. Diese Reduktion war Anlass für diese Studie.

Aber … Aber wenn das so ist, warum wird diese Variation der Regenmenge nicht durch das komische Modell „Interaction Soil Biosphere Atmosphere (ISBA)/Total Runoff Integrating Pathways (TRIP) global hydrological model” gezeigt? Ich meine damit: das Modell läuft mit tatsächlichen Messungen der Regenmenge einschließlich der Daten aktueller El Nino-Ereignisse.

Und wenn man Davon ausgeht, dass ein so großer und ausgedehnter Effekt nicht durch das Modell gezeigt wird, warum sollen wir dann in diesem Fall annehmen, dass das Modell etwas taugt?

Der einzige Weg, auf dem wir ihre Logik anwenden können wäre, FALLS das Modell perfekt genau ist, außer dass es irgendwie vollständig die atmosphärischen Änderungen durch ein El Nino ignoriert … aber das Modell wird mit tatsächlichen Daten gefüttert, und wie kann es da wissen, was es ignorieren soll?

Alles in allem

Was also haben sie schlussendlich getan? Nun, sie haben die Differenz gemessen zwischen den Modellen und dem Mittel der Beobachtungen der fünf Arbeitsgruppen.

Dann haben sie diese Differenz auf die individuellen Ergebnisse der fünf Arbeitsgruppen angewendet.

Mit anderen Worten, sie haben die Daten von den Modellen subtrahiert … und haben dieses Ergebnis dann zu den Daten addiert. Das wollen wir mal mathematisch ausdrücken:

Daten + „Korrektur“ = Daten + (Modelle –Daten) = Modelle

Wie unterscheidet sich das von der einfachen Aussage, dass die Modelle korrekt und die Daten falsch sind und man auf dieser Basis einfach weiter macht?

Schlussfolgerungen

1. Selbst wenn die Modelle genau und die Korrekturen echt sind, erhebt sich die Größenordnung nicht über das Rauschen.

2. Trotz der Behauptung, dass sie trendbereinigte Daten für ihre Berechnungen der Korrekturen verwendet haben, zeigt die graphische Darstellung jener Daten, dass alle drei Datensätze (GMSL, Massenkomponente sowie Massen- + räumliche Komponente) Trends aufweisen.

3. Wir haben keine Sicherheit, dass „Korrektur“, was nichts anderes ist als der Unterschied zwischen Beobachtungen und Modellen, etwas anderes ist als Modellfehler.

4. Alles in allem wollten sie mit ihrer Prozedur Beobachtungsergebnisse in modellierte Ergebnisse umwandeln. Zur Erinnerung, wenn man ihre „Korrektur“ auf den mittleren Meeresspiegel anwendet, bekommt man die die modellierten Ergebnisse zeigende rote Kurve. Also  ist die Anwendung auf die fünf individuellen Datensätze, die den mittleren Meeresspiegel ausmachen … nun … das Wort, das einem sofort in den Sinn kommt, ist ‚bedeutungslos‘. Sie haben einen großen Kreis geschlagen, um dorthin zu kommen, aber am Ende sagen sie lediglich, dass die Modelle richtig und die Daten falsch sind…

P.S. Nach guter Gewohnheit möchte ich jeden, der nicht mit mir übereinstimmt, auffordern, in den Kommentaren genau jene Worte anzuführen, mit denen man nicht übereinstimmt.

P.P.S. Ich habe oben gefragt, was mir an den Graphiken in Abbildung 1 so komisch vorgekommen war, dass ich näher hingeschaut habe. Nun, in ihrer Studie sagen sie, dass die gleiche Korrektur an die Daten jeder einzelnen Arbeitsgruppe angebracht worden war. Wenn ich das richtig verstehe (was durchaus nicht immer der Fall sein muss), sollte dies in einer linearen Transformation der Daten in jedem Monat führen. Mit anderen Worten, die Anpassung in jedem Monat war in allen Datensätzen die Gleiche, egal ob es nun +0,1 oder -1,2 oder was auch immer war. Sie wurde gleichermaßen auf jeden bestimmten Monat in den Datensätzen aller fünf Gruppen angebracht.

Nun, es gibt etwas Seltsames bei dieser Art von Transformation, also bei der Addition oder Subtraktion eines bestimmten Betrages in jedem Monat. Sie kann keine Linien in der Graphik begradigen, wenn sie gekrümmt beginnt, und umgekehrt. Wenn sie ungekreuzt beginnen, kann ihre Art der „Korrektur“ sie nicht kreuzen. Mit dem im Hinterkopf folgt hier noch einmal Abbildung 1:

Ich konnte immer noch keinen Grund finden, warum sie das gemacht haben, also bin ich für Hinweise dankbar.

DATA AND CODE: Done in Excel, it’s here.

Link: http://wattsupwiththat.com/2014/03/28/sea-water-level-fresh-water-tilted/

Übersetzt von Chris Frey EIKE, der inhaltlich nicht immer alles verstanden hat.




US Klimajournalist und Scharfmacher der Climategate Fraktion Andrew Revkin kann nicht rechnen!

Am meisten habe ich mich jedoch darüber amüsiert, wie dieser Mann, der von sich behauptet, über Wissenschaft zu berichten, die bloße Existenz seines Blogs begründet:

Bis zum Jahr 2050 oder so wird erwartet, dass die Weltbevölkerung auf 9 Milliarden gewachsen ist, was gleichbedeutend ist mit der Hinzufügung der doppelten Anzahl von heute lebenden Chinesen. Diese Millarden wollen Nahrung, Wasser und andere Ressourcen von einem Planeten, wo, wie Wissenschaftler sagen, die Menschen schon jetzt am Klima und dem Netz des Lebens kratzen. In der Rubrik Dot Earth, die von der Nachrichtenseite der Times im Jahre 2010 in die Meinungsspalte wanderte, untersucht Andrew C. Revkin Bemühungen, die menschlichen Belange mit den Limits des Planeten in Einklang zu bringen. Teils mit Unterstützung von einer John Simon Guggenheim-Mitgliedschaft [?] geht Dot Earth relevanten Entwicklungen vom Stadtrand bis nach Sibirien nach.

Wirklich? Schauen wir doch mal auf die Zahlen dieses charmanten, des Rechnens unkundigen Kerl.

Die Zahlen setzt er folgendermaßen um. Ich stimme Revkin bzgl. der Bevölkerungszahl zu, weil die meisten Behörden sagen, dass bis zum Jahr 2050 in der Tat etwa 9 Milliarden Menschen auf der Erde leben werden. Ich glaube, dass das stimmt, nicht wegen der Behörden, sondern weil meine eigene Analyse dieser Zahlen zu einem ähnlichen Ergebnis kommt. Man kann mich skeptisch nennen, aber ich glaube keinen Zahlen von irgendjemand anderem mehr.

Wie auch immer, die Zahlen der FAO der heutigen Bevölkerung sehen so aus:

Gegenwärtige globale Bevölkerung: 7,24 Milliarden

Gegenwärtige chinesische Bevölkerung: 1,4 Milliarden

Gegenwärtige Bevölkerung plus Revkins „zwei Chinas“: 10,04 Milliarden

Also irrt sich Revkin lediglich um eine Milliarde Menschen … aber was soll’s, angesichts seiner historischen Verteidigung der wissenschaftswidrigen Verfahren und seiner lächerlichen Behauptungen hinsichtlich „Leugnern“ und „Leugnung“ verblasst dieser kleine Irrtum vergleichsweise.

Abgesehen davon ist Revkins Fehler nicht unwichtig. Das Anwachsen der Bevölkerung auf 9 Milliarden, bei der sich die Bevölkerung wahrscheinlich einpendeln wird, bedeutet eine Zunahme von etwa 1,75 Milliarden. FALLS Revkins Behauptung über die zwei Chinas richtig wären, würde die Zunahme 2,8 Milliarden betragen. Sein Fehler beträgt also 2,8/1,75 – was bedeutet, dass seine Zahlen um 60% zu hoch liegen. Und um ein Problem, dessen Größenordnung er um 60% überschätzt hat, sollen wir uns große Sorgen machen? … Schlechter Journalismus, keine Frage.

Nun ist eine Fehlschätzung eines als das Wichtigste aller Probleme eingeschätzten Problems um 60% für die meisten Wissenschaftsreporter von Bedeutung. Diese Art Fehler würde sie beschäftigen. Sie würden einen Fehler dieser Größenordnung hastig korrigieren. Für Revkin jedoch geht ein Fehler um 60% im Rauschen seiner restlichen lächerlichen Gedanken unter.

Meine Vorhersage? Er sollte die betrügerische alarmistische Behauptung hinsichtlich der Bevölkerung auf seinem Blog fallen lassen, einfach weil ein „Leugner“ ihn auf diesen Fehler nach Art eines Fehlers in einer Mathe-Arbeit in der Schule hinweist, und selbst eine minimale Änderung oder ein Tüpfelchen als Antwort auf einen „Leugner“, wie ich einer bin, wäre ein unakzeptables Zugeständnis der Fehlbarkeit.

Mein Rat?

Beziehen Sie Ihre wissenschaftlichen Informationen niemals von einem Mann, der nicht bis zehn zählen kann … vor allem, wenn er nichts weiter ist als ein pathetischer PR-Lockvogel für betrügerische Wissenschaft und unaufrichtige Wissenschaftler …

Link: http://wattsupwiththat.com/2014/02/22/andrew-revkin-loses-the-plot-episode-xxxviii/

Übersetzt von Chris Frey EIKE