Fuzzy Dreieckszahlen und das IPCC

Oder wie es diese Gelehrten es ausdrücken:

Temperaturänderung (∆T) = Klimasensitivität ( λ ) mal erzwungene Änderung durch Antriebe (∆F).

Oder als Gleichung:

∆T = λ  ∆F.

Das Problem dabei ist Folgendes: Nach dreißig Jahren von Versuchen, die natürliche Welt in diese Zwangsjacke zu stecken, ist es ihnen bis heute nicht gelungen, diese Zahlen festzumachen. Meine Theorie lautet, dass die Ursache hierfür ein theoretisches Missverständnis ist. Der Fehler liegt in der Behauptung, dass Temperaturänderung gleich den Änderungen der Antriebe mal irgendeiner Konstante ist.

Bild rechts: Die unscharfe Dreieckszahl für die Anzahl der Säugetierarten [4166,  4629, 5092]wird repräsentiert durch die durchgezogene Linie. Die Spitze liegt bei der besten Schätzung, 4629. Die oberen und unteren Begrenzungen der vermuteten Anzahl der Arten variieren mit dem Wert der Zugehörigkeit [membership value]. Für einen Wert der Zugehörigkeit von 0,65 (gepunktete Linien) liegt die untere Grenze bei 4467Arten und die obere Grenze bei 4791Arten (IUCN 2000)

Was sind also unscharfe Dreieckszahlen, und wie können sie uns helfen zu verstehen, warum die Behauptungen des IPCC bedeutungslos sind?

Eine unscharfe Dreieckszahl setzt sich aus drei Schätzungen irgendwie unbekannter Variablen zusammen – die niedrigste, die höchste und die beste Schätzung. Um mit diesen ungewissen Angaben Berechnungen anzustellen, ist es nützlich, „unscharfe Mengen“ zu verwenden. Die traditionelle Mengenlehre enthält die Entscheidung, ob etwas exklusiv Teil der Menge ist oder nicht. Zum Beispiel ist ein Tier entweder lebendig oder tot. Allerdings kann für eine Anzahl von Mengen keine klare Mitgliedschaft bestimmt werden. Zum Beispiel, ist eine Person mit 55 Jahren „alt“?

Während man keine klare ja/nein-Antwort geben kann, können wir unscharfe Mengen nutzen, um die Größenordnungen dieser Art von Werten zu bestimmen. Anstelle von 0 oder 1, die die Mitgliedschaft in traditionellen Mengen festlegen, verwenden unscharfe Mengen eine Zahl zwischen 0 und 1, um eine teilweise Mitgliedschaft in der Menge zu kennzeichnen.

Unscharfe Mengen können auch verwendet werden, um Grenzen um ungewisse Werte zu ziehen. Zusätzlich zu höheren und niedrigeren Werten können diese Grenzen auch beste Schätzungen enthalten. Es ist eine Möglichkeit, Sensitivitätsanalysen durchzuführen, wenn man wenig Informationen über die tatsächlichen Fehlerquellen und die Größe der Fehler hat. Am einfachsten wäre Folgendes: Alles, was wir brauchen, sind Werte, von denen wir es für sehr unwahrscheinlich erachten, größer oder kleiner als * zu sein. Diese niedrigeren und höheren Begrenzungen plus die beste Schätzung bilden eine Dreieckszahl. Eine Dreieckszahl wird geschrieben als (niedrigster vermuteter Wert, beste Schätzung, höchster vermuteter Wert).

*Man vergleiche mit dem Original. Das steht dort wirklich so! Wenn da etwas fehlt, weiß ich nicht, was. A. d. Übers.

Zum Beispiel wird die Anzahl der Säugetierarten durch die Rote Liste der IUCN mit 4629 Arten angegeben. Allerdings ist dieser Wert bekannt dafür, ein Gegenstand geschätzter Fehler zu sein, der normalerweise mit ± 10% angegeben wird.

Diese Bandbreite von Schätzungen der Anzahl der Säugetierarten kann durch eine unscharfe Dreieckszahl repräsentiert werden. Für die Anzahl der Arten lautet diese (4166, 4629, 5092), um die unteren und oberen Grenzen ebenso wie die beste Schätzung in der Mitte zu beschreiben. Die Abbildung oben rechts zeigt die unscharfe Zahl, die die Zählung aller Säugetierarten repräsentiert.

Alle normalen mathematischen Operationen können unter Verwendung von Dreieckszahlen durchgeführt werden. Das Endergebnis der Operation zeigt den wahrscheinlichsten Wert zusammen mit den zu erwartenden maximalen und minimalen Werten. Für die Prozedur von Additionen, Subtraktionen und Multiplikationen werden der niedrigste, der beste und der höchste Wert einfach addiert, subtrahiert oder multipliziert. Nehmen wir zwei unscharfe Zahlen, die Dreieckszahl

T1 = [L1,  B1,  H1]

und die Dreieckszahl

T2 = [L2,  B2,  H2],

wobei „L“, „B“ und „H“ der niedrigste [lowest], der beste und der höchste Wert sind. Die Regeln sind Folgende:

T1 + T2  =  [L1 + L2,  B1 + B2,  H1 + H2]

T1 – T2  =  [L1 – L2,  B1 – B2,  H1 – H2]  (Nicht korrekt ausgeführt, siehe unten. Zu schnell).

T1 * T2  =  [L1 * L2,  B1 * B2,  H1 * H2]

Dieser Teil ist also einfach. Für Subtraktion und Division ist es etwas anders. Der niedrigste mögliche Wert wird die niedrige Schätzung im Zähler und die hohe Schätzung im Nenner sein, und umgekehrt für den höchsten möglichen Wert. Also sieht die Division folgendermaßen aus:

T1 / T2 = [L1 / H2,  B1 / B2,  L2 / H1]

Und für die Subtraktion so:

T1 – T2  =  [L1 – H2,  B1 – B2,  H1 – L2]

Wie können wir nun unscharfe Dreieckszahlen anwenden, um zu sehen, was das IPCC macht?

Nun, die Klimasensitivität (in °C pro W/m²) oben in der magischen Formel des IPCC besteht aus zwei Zahlen – die durch eine Verdoppelung des CO2-Gehaltes erwartete Temperaturänderung und der dadurch erwartete zunehmende Antrieb. Für jede haben wir Schätzungen der wahrscheinlichen Bandbreite der Werte.

Von der ersten Zahl, also dem Antrieb durch eine Verdoppelung des CO2-Gehaltes, sagt das IPCC, dass sich ein zusätzlicher Antrieb von 3,7 W/m² ergibt. Die Endpunkte dieses Wertes sind wahrscheinlich 3,5 für den niedrigeren und 4,1 für den höheren Wert (Hansen 2005). Dies ergibt eine Dreieckszahl von (3,5; 3,7; 4,0) W/m² für die Änderung des Antriebs durch den doppelten CO2-Gehalt.

Die zweite Zahl, die Temperaturänderung durch die Verdoppelung des CO2-Gehaltes wird vom IPCC hier als die Dreieckszahl (2,0; 3,0; 4,5) °C angegeben.

Dividiert man die Sensitivität durch Verdoppelung durch die Änderung des Antriebs durch Verdoppelung, ergibt sich ein Wert der Temperaturänderung (∆T, °C) aus einer gegebenen Änderung des Antriebs (∆F, W/m²). Dies wiederum ist ebenfalls eine Dreieckszahl, und nach den Gesetzen der Division ergibt sie sich zu:

T1 / T2 = [L1 / H2, B1 / B2, L2 / H1] = [2.0 / 4.0,   3.0 / 3.7,   4.5 / 3.5]

also eine Klimasensitivität von (0,5; 0,8; 1,28) °C Temperaturänderung für jede Änderung des Antriebs in W/m². Man beachte, dass der zentrale Wert wie erwartet der autorisierte Wert von 3°C durch Verdoppelung des CO2-Gehaltes ist.

Betrachten wir jetzt, was dies in der realen Welt bedeutet. Das IPCC vergleicht die Änderung des Antriebs seit der „vorindustriellen Zeit“, die sie mit [dem Jahr] 1750 festlegen. Die Änderung des Antriebs seit 1750, ∆F, legt das IPCC hier mit einer Zunahme um (0,6; 1,6; 2,4) W/m² fest.

Die Multiplikation der Dreieckszahl für die Änderung des Antriebs (0,6; 1,6; 2,4) W/m² mit der Dreieckszahl der Sensitivität (0,5; 0,8; 1,28) °C pro W/m² ergibt die IPCC-Schätzung der Temperaturänderung, die man seit 1750 erwarten dürfte. Natürlich ist auch das eine Dreieckszahl, die wie folgt berechnet wurde:

T1 * T2 = [L1 * L2, B1 * B2, H1 * H2] = [0.5 * 0.6,  0.8 * 1.6,  2.4 *1.28]

Die endgültige Zahl, die IPCC-Schätzung der Erwärmung seit 1750 vorhergesagt durch ihre magische Formel liegt bei einer Erwärmung von (0,3; 1,3; 3,1) °C.

Lassen Sie mich das anders ausdrücken, es ist wichtig. Ein Vierteljahrhundert lang haben die AGW-Befürworter Millionen Stunden und Millionen Dollar in Studien und Computermodelle gesteckt. Außerdem knirscht und kracht es im Gebälk des gesamten IPCC-Apparates seit nunmehr fünfzehn Jahren, und das ist das Beste, was sie uns sagen können, für all das Geld und all die Studien und all die Modelle?

Der Berg kreißte und schlussfolgerte, dass wir seit 1750 eine Erwärmung irgendwo zwischen einem Drittel Grad und drei Grad gehabt haben… Das ist wirklich ein eindrucksvolles Stück Detektivarbeit, Lou…

Im Ernst? Das ist das Beste, was sie tun können, nach dreißig Jahren Studium? Eine Erwärmung zwischen einem Drittel Grad und drei Grad? Ich kann mir keine weniger falsifizierbare Behauptung vorstellen. Jede Erwärmung lässt sich mühelos in dieses Intervall einpassen. Egal, was passiert, sie werden immer den Erfolg für sich in Anspruch nehmen. Und das ist Nachhersage, nicht einmal Vorhersage. Huch!

Ich sage noch einmal, dass das Gebiet der Klimawissenschaft mit der Übernahme der durch nichts gestützten Behauptung in die falsche Richtung abgebogen ist, nämlich dass bei einem so gewaltig komplexen System wie dem Klima eine lineare Beziehung besteht zwischen der Änderung des Inputs und der Änderung der Operationsbedingungen. Die fundamentale Gleichung des konventionellen Paradigmas, ∆T = λ ∆F; die Grundbehauptung, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, stimmt einfach nicht.

Willis Eschenbach

Link: http://wattsupwiththat.com/2012/02/07/triangular-fuzzy-numbers-and-the-ipcc/

Übersetzt von Chris Frey




Klimaforscher Hansens Hütchenspiel

Abbildung 1 rechts: Der Taschenspieler von Hieronymus Bosch, gemalt 1475 bis 1480. Man nimmt an, dass die Art von Tricks des Taschenspielers unter den Ursprüngen des Hütchenspiels sind.

Ich bringe das hier, weil unser bevorzugter Spieler, James Hansen, wieder seine alten Tricks vorführt. Es gibt eine neue Studie von ihm unter dem Titel Paleoclimate Implications for Human-Made Climate Change (etwa: Paläoklimatische Auswirkungen auf die menschengemachte Klimaänderung). Und wie immer muss man herausfinden, unter welcher Muschel sich die Erbse versteckt.

Hier folgt sein Geldgraph, der in der Blogosphäre sehr viel Aufmerksamkeit bekommt. Die wesentliche Beobachtung der Leute, die ich gesehen habe, ist die, dass Hansen nach den bisher gescheiterten Prognosen sich jetzt der bewährten Nostradamus-Route zuwendet und einen Meeresspiegelanstieg für die Zeit vorhersagt, wenn er 137 Jahre oder so alt ist…

 

Abbildung 2: Hansens Abbildung 7 – ORIGINAL-BILDUNTERSCHRIFT: „Änderung des Meeresspiegels um 5 Meter unter der Annahme linearer und exponentieller Änderung (Hansen 2007), letzteres mit einer Verdoppelungszeit von 10 Jahren“.

Die Leute sagen, dass die schlechte Nachricht lautet, es sieht so aus, als ob wir vor 2040 nicht in der Lage sein werden zu prüfen, ob Hansens Behauptung zutrifft. Aber darum geht es überhaupt nicht. Diese Leute beobachten die Erbse nicht genau genug.

In der Studie von Hansen heißt es:

Das IPCC (2007) projizierte einen Anstieg des Meeresspiegels bis zum Ende dieses Jahrhunderts um 29 cm (im Mittel 20 bis 43 cm, in voller Bandbreite 18 bis 59 cm). In diesen Projektionen sind jedoch nicht die Beiträge der Dynamik der Eisschilde enthalten, weil die Physik dieser Eisschilde nicht gut genug verstanden ist.

Rahmstorf (2007) trug mit einem wichtigen Hinweis zur Diskussion um den Meeresspiegel bei, indem er darauf hinwies, dass selbst eine lineare Beziehung zwischen der globalen Temperatur und der Rate des Meeresspiegelanstiegs, kalibriert mit den Daten aus dem 20. Jahrhundert, einen solchen Anstieg um einen Meter impliziert unter der Voraussetzung der globalen Erwärmung durch BAU Treibhausgasemissionen. …

… Hansen (2005, 2007) argumentiert, dass sich verstärkende Rückkopplungen die Auflösung der Eisschilde notwendigerweise hochgradig nicht linear machen, und dass der BAU-Antrieb [BAU = Business As Usual]  des IPCC so gewaltig ist, dass schwierig zu erkennen ist, wie die Eisschilde das überstehen könnten. Mit der zunehmenden Erwärmung wird die Anzahl der zum Massenverlust beitragenden Eisströme zunehmen und so zu einer nichtlinearen Reaktion beitragen, der man sich besser durch eine exponentielle als eine lineare Approximation annähert. Hansen (2007) schlug vor, dass eine zeitliche Verdoppelung von 10 Jahren plausibel wäre, und wies darauf hin, dass eine solche Verdoppelung bei einem angenommenen Anstieg von 1 mm pro Jahr in der Dekade von 2005 bis 2015 zu einem kumulativen Anstieg um 5 m bis 2095 führen würde.

Die Kurzversion hiervon lautet:

  • Das IPCC prognostiziert einen Meeresspiegelanstieg um 30 cm, aber sie berücksichtigen das Eis nicht.

  • Rahmstorf sagt, dass eine lineare Projektion einen Anstieg des Meeresspiegels um etwa einen Meter ergibt.

  • Hansen 2007 sagt, dass in Rahmstorfs Arbeit ein exponentieller Term fehlt, weil das Eis mit jedem Jahr schneller schmilzt.

OK, Hansen ruht sich also auf den Behauptungen aus, die er 2007 aufgestellt hat, die sich als  Scientific reticence and sea level rise (etwa: Wissenschaftliche Zurückhaltung und Anstieg des Meeresspiegels) herausgestellt haben. Am Ende von Abschnitt 4 sagt Hansen, dass Rahmstorf einen Anstieg um 1 Meter schätzt, aber dass der Term des nichtlinearen Abschmelzen des Eises zu dem von Rahmstorf angenommenen Anstieg addiert werden sollte.

Unter dem BAU-Antrieb im 21, Jahrhundert wird der Meeresspiegelanstieg sicher von einem dritten Term dominiert werden: (3) die Auflösung der Eisschilde. Dieser Term war während der letzten paar Jahre klein, aber er hat sich im vergangenen Jahrzehnt zumindest verdoppelt und liegt momentan bei etwa 1 mm pro Jahr, basierend auf den oben diskutierten Satellitenmessungen. … Nehmen wir als ein quantitatives Beispiel an, dass der Beitrag der [schmelzenden] Eisschilde im Jahrzehnt von 2005 bis 2015 1 cm betrage und dass er sich mit jedem Jahrzehnt verdoppelt, bis der westantarktische Eisschild weitgehend verschwunden ist. Mit dieser Zeitkonstante ergibt sich ein Meeresspiegelanstieg in der Größenordnung von 5 m in diesem Jahrhundert.

Um also zu der letztendlichen Projektion von Hansen zu kommen, müssen wir uns anschauen, was Rahmstorf in seiner Studie A Semi-Empirical Approach to Projecting Future Sea-Level Rise an die Wand malt. Darin finden wir diese Graphik des projizierten Meeresspiegelanstiegs:

 

Abbildung 3: Die Rahmstorf’sche Schätzung des Meeresspiegelanstiegs, von der Hansen sagt, dass man einen exponentiell zunehmenden Eisterm addieren sollte.

ORIGINAL-BILDUNTERSCHRIFT: Der Meeresspiegel in der Vergangenheit und projiziert in die Zukunft von 1990 bis 2100, basierend auf den Projektionen der globalen Mitteltemperatur des dritten IPCC-Zustandsberichtes. Die graue Spannbreite der Unsicherheit umfasst die Bandbreite der Temperaturänderung von 1,4°C bis 5,8°C und wurde mit der statistischen Ausgleichskurve in Abbildung 2 kombiniert. Die gestrichelten grauen Linien zeigen die zusätzliche Unsicherheit aufgrund der statistischen Fehler der Anpassung in Abbildung 2. Bunte gestrichelte Linien repräsentieren die individuellen Szenarien in (1). {Referenz 1 ist die 3. IPCC-Klimabibel, ohne eine Seitenangabe}; die hellblaue Linie folgt dem A1FI-Szenario und die gelbe Linie dem B1-Szenario.

(Nebenbei möchte ich dagegen protestieren, dass lediglich der gesamte Dritte Zustandsbericht des IPCC genannt wird, Tausende von Seiten, ohne Angabe von Kapitel und Seitenzahl. Mein Hochschullehrer hätte mir dafür was auf die Finger gegeben; es ist ein Witz.)

Die obere blaue Linie ist diejenige, die uns etwa einen Meter Anstieg des Meeresspiegels zeigt. Also habe ich sie als Rahmstorfs 1-Meter-Prognose angesehen. Dazu habe ich Hansens Aussage zufolge, dass wir das tun sollten, einen Anstieg addiert, der bei 0,5 cm im Jahr 2000 beginnt und sich alle zehn Jahre verdoppelt. Dies entspricht Hansens Behauptung, dass das nichtlineare Verschwinden des Eises ein Extraterm ist, der klein anfängt, dann aber im Laufe des Jahrhunderts „den Meeresspiegelanstieg dominieren“ wird. Dieses Ergebnis zeigt Abbildung 4.


Abbildung 4: Rahmstorfs vorhergesagter Anstieg (blau), Hansens projizierter zusätzlicher Anstieg aus dem „nichtlinearen Verschwinden des Eises“ (dunkelrot) und der Gesamtanstieg (grün), vorhergesagt von Hansen 2011. Ich habe noch den Anstieg des vorigen Jahrhunderts um 16 cm hinzugefügt, wie er von Rahmstorf in der unteren rechten Ecke zu Vergleichszwecken berechnet worden ist. BILDQUELLE

OK, was Hansen also vorhersagt, repräsentiert die grüne Linie. Allerdings ist seine tatsächliche Vorhersage in Wirklichkeit viel schlimmer. Noch einmal Hansen, Hervorhebung durch mich:

Der mögliche Anstieg des Meeresspiegels aufgrund der erwarteten globalen Erwärmung unter den genannten Treibhausgasszenarien beträgt mehrere zehn Meter, wie zu Beginn dieses Abschnitts dargelegt.

Ich gehe davon aus, dass mit „mehreren zehn“ mehr als zwei gemeint sind, so dass er eine Vorhersage von 30 Metern Meeresspiegelanstieg!!! macht … Ich glaube, dass er davon ausging, dass niemand aufmerksam werden würde, als Al Gore uns mit seiner Bedrohung durch einen Anstieg um 20 Meter gekommen war. Also hat er alle Register gezogen und wirklich Angst eingejagt hat, die uns in unseren Grundfesten erschüttern soll.

Es gibt jedoch ein paar gute Nachrichten. Sowohl Rahmstorfs als auch Hansens Vorhersage liegen schon jetzt weit jenseits der Realität. Seit 1993, als Satelliten damit begonnen haben, den Meeresspiegel zu vermessen, gab es einen Anstieg von 4,6 cm (1993 bis 2011). Rahmstorfs Projektion geht in diesem Zeitraum von einem Anstieg um 6,4 cm aus, schon jetzt 40% zu hoch. Hansens Projektion eines noch stärkeren Anstiegs geht von 7,2 cm in diesem Zeitraum aus, was um 55% zu hoch ist.

Der jährliche Anstieg ist auch unterhaltsam. Den Satelliten zufolge lag der Trend von 1993 bis 2011 bei 3,2 mm pro Jahr und ist in jüngster Zeit zurückgegangen. Die Änderung 2009-2010 lag unter 1 mm bei 0,9 mm pro Jahr. Und 2010-2011 wies er gar keine Steigung mehr auf.

Rahmstorf projizierte für 2010-2011 schon jetzt einen Anstieg um 4,5 mm pro Jahr, etwa 50% größer als die tatsächliche Rate während der letzten 18 Jahre. Und Hansens Projektion des jährlichen Anstiegs ist sogar noch schlechter, beträgt er doch 5,3 mm pro Jahr.

Sowohl hinsichtlich des Anstiegs 1993-2011 als auch des gegenwärtigen jährlichen Anstiegs liegen sowohl Rahmstorf als auch Hansen weit jenseits der Beobachtungen. Aber Moment, da ist noch mehr.

Hansens Rate des Meeresspiegelanstiegs soll sich beschleunigen, ebenso wie die von Rahmstorf. Hansen sagt, dass die Rate bis 2020 auf 6,3 mm pro Jahr steigen und sich danach immer weiter erhöhen wird. Aber tatsächlich liegen wir schon jetzt weit hinter diesen angenommenen Anstiegsraten zurück, und die beobachtete Anstiegsrate nimmt ab…

Wie kommt Hansen zu diesen unsinnigen Zahlen? Nun, er hat in den Beobachtungen etwas bemerkt.

Dieser dritte Term (schmelzendes Eis) war bis zu den letzten paar Jahren klein, aber er hat sich während des letzten Jahrzehnts mindestens verdoppelt…

Meine Hochschullehrerin Mrs. Henniger, Gott segne sie, hat die Verlängerung eines linearen Trends in die Zukunft als ein Verbrechen gegen die Natur angesehen, und ich würde zögern, ihre Meinung kund zu tun, wenn Hansen unbekümmert eine Zunahme um etwa 7% für 100 Jahre in die Zukunft ausweitet. Diese Art Zinseszinsrechnung verwandelt einen Zentimeter in 5 Meter. Falls Dr. Hansen ihr diesen Unsinn eingereicht hätte, würde man das Ganze bei der Rückgabe wegen der zahlreichen, mit dem Rotstift vorgenommenen Verbesserungen gar nicht mehr lesen können.

Das könnt ihr nicht machen, Leute! Ihr könnt nicht aus der Beobachtung, dass sich irgendetwas während der letzten Dekade verdoppelt hat, schließen, dass dieses Wachstum exponentiell ein ganzes Jahrhundert lang weitergeht. Das ist nicht mehr Wunschdenken. Das ist magisches Denken.

Zwei letzte Punkte. Erstens, die Erbse unter den Walnussschalen. Man schaue sorgfältig, was Hansen getan hat. Er hat behauptet, dass der Meeresspiegel „um mehrere zehn Meter” steigen werde. Dies sind mindestens dreißig Meter Anstieg.

Er scheint diese Behauptung zumindest ansatzweise mit seiner Abbildung 7 (meiner Abbildung 2) zu stützen. Aber schaut man auf die Beschriftung, ist das keine Vorhersage, keine Projektion oder Szenario irgendeiner Art. Stattdessen ist es lediglich eine „Approximation“, wie ein linearer Anstieg des Meeresspiegels aussehen könnte und wie ein exponentieller Anstieg aussehen könnte. Falls Sie nicht verstanden haben, was „linear“ und „exponentiell“ ist – seine tatsächliche Vorhersage liegt unter einer Walnussschale irgendwo anders. Wir wissen, dass seine „Approximation“ keine reale Projektion sein kann, weil sich gegenwärtig oder für einige Jahre fast kein Anstieg zeigt.

Zweitens, nicht einmal das beginnt die Fehler, die Täuschungen, den Alarmismus und die Betrügereien in Hansens Arbeit zu entwirren. Erkennen Sie den Herrn mit dunkler Weste und weißen Hosen auf der linken Seite von Hieronymus‘ Gemälde [oben rechts]? Sehen Sie, was er in der Hand hält, während er mit Unschuldsmiene an den Himmel schaut? Sehen Sie, wo es lang geht? Hansen ist nicht der Hütchenspieler, das ist lediglich ein Hampelmann, der verdient nicht viel Geld mit seinem Spielchen.

Hansen ist der Bursche in der dunklen Weste mit seiner Hand an Ihrer Taschenbörse…

Aktualisierung

Joel Shore hat richtig beobachtet, dass Hansens Schätzung eines gewaltigen Anstiegs des Meeresspiegels auf paläoklimatischen Daten basiert. Er hat recht, wenn er sagt, dass Hansen behauptet, paläoklimatische Daten zeigten einen Anstieg von 20 Metern für jeden 1°C-Temperaturanstieg. Deswegen sagt Hansen, dass ein Anstieg von 2°C in Zukunft einen Anstieg des Meeresspiegels um 40 Metern bringen würde.

Schauen wir mal in Ruhe auf das, was wir wissen. Wir wissen, dass sich während einer Eiszeit eine Masse Ozeanwasser schlecht verhält. Es verlagert sich auf das Festland in Gestalt von Schnee und Eis und Gletschern, hauptsächlich auf der Nordhalbkugel. In der Folge fällt der Meeresspiegel um hundert Meter oder so. Die Gletscher bleiben bis zum Ende der Eiszeit. Dann schmelzen sie, und der Meeresspiegel steigt wieder. Da wir uns derzeit in einer Zwischeneiszeit befinden, sind die meisten Gletscher geschmolzen.

Daher würde ich mit Sicherheit nicht erwarten, dass eine weitere Erwärmung großen Einfluss auf weiteres Abschmelzen oder den Meeresspiegel hat. Das einfache Eis ist komplett geschmolzen, die riesigen Kilometer dicken Gletscher der Nordhemisphäre sind fast alle zurück in den Ozean geflossen. Der Rest versteckt sich hauptsächlich an Nordhängen der nördlichen Klimazonen. Also woher soll das Schmelzwasser kommen?

Und komischerweise, was ich durch Joels Frage herausgefunden habe: wenn man weiß, wo man schauen muss, kann man sehen, dass die Graphiken in Hansens eigener Studie mich stützen. Sie sagen, dass der Ozean nicht steigen wird. Ich glaube Hansens Ergebnissen nicht, aber unter der Vermutung, dass sie korrekt sind, um der Diskussion willen, wollen wir uns mal diese Graphiken ansehen.

Betrachten wir zunächst den Meeresspiegel während der vergangenen vier Perioden von Zwischeneiszeiten. Ich habe ein Lineal eingefügt, um klar zu machen, was ich meine.

Wie man an der detaillierten Auflösung seines Graphen sieht, lag der Meeresspiegel nie höher als heute.

Betrachten wir jetzt ihre Temperaturbeobachtungen und die Rekosntruktion:

Hansen zufolge lagen die Temperaturen bis zu 2,5°C über den heutigen Werten … aber der Meeresspiegel war nie höher als heute.

Falls Hansens Behauptung wahr wäre, dass ein Temperaturanstieg um 1°C zu einem Anstieg des Meeresspiegels um 20 Meter führen würde, müssten aus Hansens Graphik hervorgehen, dass der Meeresspiegel 40 Meter oder mehr über dem heutigen Niveau liegt (b). Man schaue auf die Skala links (b); das wäre außerhalb des Kartenausschnitts.

Stattdessen sehen wir nichts dergleichen. Wir erkennen viel wärmere Perioden in der Vergangenheit, aber die Höhe des Meeresspiegels unterscheidet sich nicht vom heutigen Niveau. Hansens eigene Graphiken zeigen, dass er unrecht hat. Es sieht also so aus, als ob Hansen das Gleiche macht, er extrapoliert einen linearen Trend über alle Grenzen hinaus.

Er hatte bemerkt, dass am Ende der Eiszeit die steigenden Temperaturen zu einem Abschmelzen der riesigen Gletscher bei Chicago geführt haben, was in einem raschen Anstieg des Meeresspiegels resultiert hatte. Unglücklicherweise hat er diesen Trend immer weiter ausgedehnt, bis weit jenseits der Zeit, wo es gar keine Gletscher bei Chicago mehr gab, die noch schmelzen könnten.

Willis Eschenbach

Link: http://wattsupwiththat.com/2012/01/29/hansens-sea-shell-game/#more-55615

Übersetzt von Chris Frey




Mr. Spock übernehmen Sie: Über die Bearbeitung der Daten der ARGO-Bojen

Die Behauptungen und Schlussfolgerungen der H2011-Studie beziehen sich hauptsächlich auf den Wärmegehalt der Ozeane (OHC), großenteils von den ARGO-Bojen gemessen, also dachte ich, dass ich mir diese Daten mal ansehen sollte. Die Messungen der Wassertemperatur und des Salzgehaltes mit einer großen Datenmenge geben uns viele wertvolle Informationen über den Ozean. Das H2011-Papier wendet die jüngsten Ergebnisse der Studie von K. von Schuckmann und P.-Y. Le Traon an (SLT2011).
Abbildung 1 rechts:
Schema einer Argo-Boje. Sie ist insgesamt etwa 2 m hoch. Quelle: Wikipedia
Die Argo-Bojen sind Treibbojen, die selbständig arbeiten. Jede Boje misst alle zehn Tage ein komplettes vertikales Temperaturprofil. Das Profil reicht bis in eine Tiefe von 1000 oder 2000 m. Sie sendet alle Messergebnisse via Satellit vor der nächsten Messung.
Unglücklicherweise sind die in H2011 verwendeten Argo-Daten mit einigen Problemen behaftet. Die Zeitspanne des Datensatzes ist sehr kurz. Die Änderungen sind ziemlich klein. Die Genauigkeit wird überschätzt. Schließlich und am Wichtigsten, die Untersucher benutzen die falsche Methode bei der Analyse der Daten.
Erstens ist da die Länge des Datensatzes. Die von Hansen benutzten Daten überdecken nur eine Zeitspanne von 72 Monaten. Dies begrenzt die Schlussfolgerungen, die wir aus diesen Daten ziehen können. H2011 drückt sich davor, wenn er nicht nur für diese Daten, sondern für alle Daten lediglich ein gleitendes Mittel über sechs Jahre zeigt. Ich kann es wirklich nicht leiden, wenn Rohdaten nicht gezeigt werden, sondern nur die mit der Hansen-Methode bearbeiteten Daten.
Zweitens, die Unterschiede sind ziemlich klein. Abbildung 2 zeigt eine Aufzeichnung, wie sie in SLT2011 zu finden ist. Sie zeigt die Daten als jährliche Änderungen des Wärmegehalts im oberen Ozean (OHC) in der Einheit Joule. Ich habe diese OHC-Änderungen (Joules/m²) für das Wasser, das sie vermessen, in Änderungen mit Celsius-Graden übertragen. Das gilt für eine ein Quadratmeter große Wassersäule mit einer Tiefe von 1490 Metern.  Wie man erkennt, behandelt die SLT2011-Studie sehr kleine Temperaturvariationen. Dies gilt auch für die H2011-Studie.

Abbildung 2 : Temperatur des oberen Ozeans nach Schuckmann & Le Traon, 2011 (SLT2011). Graue Balken zeigen einen Sigma Fehler in den Daten. Die rote Linie steht für eine 17-Punkte-Gaussverteilung. Die vertikale rote Linie zeigt den Fehler des Gauss’schen Mittels an den Rändern des Datensatzes (95% CI). Digitalisierte Daten aus SLT2011, Abb. 5b, erhältlich als durch Kommata getrennte Textdatei hier.
Einige Dinge in diesem Datensatz sind bemerkenswert. Zunächst haben wir es hier mit winzigen Temperaturänderungen zu tun. Die Länge der grauen Balken zeigt, dass SLT2011 behauptet, dass man die Temperatur der oberen 1½ Kilometer des Ozeans mit einem Fehler von nur ±acht tausendstel eines Grades…
Nun hasse ich es, aus Unglauben zu argumentieren, und ich werde ausführlich statistische Gründe weiter unten anführen, aber, meiner Treu… ein Fehler von acht Tausendstel Grad bei den Messungen der monatlichen Mitteltemperatur in der obersten Meile Wasser von fast dem gesamten Ozean? Wirklich? Sie glauben, dass sie die Temperatur des Ozeans bis zu diesem Grad an Präzision messen können, geschweige denn Genauigkeit?
Das zu glauben fällt mir sehr schwer. Ich verstehe die Gesetze der Zahlen und das zentrale Begrenzungstheorem und wie es uns zusätzliche Hebelwirkung gibt, aber der Gedanke, dass wir die Temperatur von 400 Millionen Kubikkilometer von Ozeanwasser mit einer Genauigkeit von acht Tausendstel Grad messen können, ist… nun, nennen wir es unbegründet. Andere, die mit Temperaturmessungen in Flüssigkeiten mit weniger als ein Hundertstel an Genauigkeit Erfahrung haben,  mögen sich hierzu äußern, aber für mich sieht es wie eine viel zu weit entfernte Brücke aus. Ja, es gibt etwa 2500 ARGO-Bojen dort draußen, und auf einer Karte des Ozeans sieht die Verteilung ziemlich dicht aus. Abbildung 3 zeigt die Position der Bojen im Jahr 2011.
 
Abbildung 3: Position der ARGO-Bojen. Quelle
Aber das ist nur eine Karte. Die Welt ist unvorstellbar groß. Im echten Ozean, bis zu einer Tiefe von eineinhalb Kilometern, das heißt ein ARGO-Thermometer für jedes der 165.000 Kubikkilometer Wasser… Ich weiß nicht, wie man sich klar machen kann, wie viel das wirklich ist. Versuchen wir es mal so: Der Obere See ist der größte Binnensee Amerikas, der selbst in der obigen Karte noch erscheint. Wie akkurat kann man die mittlere monatliche Temperatur der gesamten Wassermenge im Oberen See mit einer einzigen ARGO-Boje messen? Sicher kann man sie auf und ab tauchen oder sie rund um den See treiben lassen, sie wird drei vertikale Profile pro Monat messen. Aber selbst dann deckt jede Messung nur einen kleinen Teil des gesamten Sees ab.
Aber für ARGO sieht es noch schlimmer aus. Jede einzelne Boje, jeder Punkt in Abbildung 3 repräsentiert ein Volumen, das 13 mal so groß ist wie der Obere See … mit nur einem ARGO-Thermometer…
Oder wir betrachten es auf andere Weise. In der von SLT2011 abgedeckten Zeitspanne waren 2500 ARGO-Bojen in Betrieb. Das Gebiet des Ozeans umfasst etwa 360 Millionen Quadratkilometer. Also repräsentiert jede ARGO-Boje eine Fläche von etwa 140.000 Quadratkilometer, d. h. mit einem Quadrat von etwa 380 km auf jeder Seite. Eine ARGO-Boje für das alles! Zehn Tage für jeden Tauchzyklus, wobei die Boje tausend Meter absinkt und dort neun Tage lang verharrt. Dann steigt sie wieder auf, entweder von diesem Punkt, oder sie sinkt erst in eine Tiefe von 2000 Meter, um danach mit einer Geschwindigkeit von etwa 10 cm pro Sekunde an die Oberfläche zu steigen, wobei sie ununterbrochen Temperatur und Salzgehalt misst. Auf diese Weise erhalten wir drei vertikale Temperaturprofile von 0 bis 1000 oder 0 bis 1500 oder 0 bis 2000 Metern jeden Monat, abhängig von der Drift im Einzelnen, um ein Gebiet von 140.000 Quadratkilometern abzudecken… Tut mir leid, aber drei vertikale Temperaturprofile pro Monat, um ein Gebiet von 60.000 Quadratkilometern und einer Tiefe von 1 Kilometer abzudecken, das klingt in meinen Ohren ganz und gar nicht nach „einer Genauigkeit von acht Tausendstel Grad“.
Hier habe ich noch einen dritten Weg, um sich die Herausforderung dieser Messungen klarzumachen. Wenn man je mal in einem kleinen Boot gesessen und kein Land mehr gesehen hat – weiß man dann, wie groß der Ozean von Deck aussieht? Nehmen wir an, das Deck befinde sich 3 Meter über dem Wasser und man steht an Deck und schaut sich um. Nichts als der blanke Ozean erstreckt sich ringsum bis zum Horizont, eine riesige Menge Wasser auf allen Seiten. Wie viele Thermometermessungen würde man brauchen, um die monatliche Mitteltemperatur nur des in diesem Falle sichtbaren Ozeans bis zu einer Tiefe von eineinhalb Kilometern brauchen? Ich würde sagen… mehr als eine.
Nun führe man sich vor Augen, dass jede ARGO-Boje ein Gebiet zu überdecken hat, das 2000 mal so groß ist wie die Fläche, die man auf dem Deck des Schiffes stehend überblicken kann… und die Boje nimmt drei Tauchdurchgänge pro Monat vor… wie gut passen die Messungen, wie gut repräsentieren sie die Wirklichkeit?
Es gibt noch eine weitere Schwierigkeit. Abbildung 2 zeigt, dass sich der größte Teil der Änderung während der Zeitspanne innerhalb eines Jahres ereignete, etwa von Mitte 2007 bis Mitte 2008. Die Änderung des notwendigen Antriebs, die Temperatur von Wasser bis zu einer Tiefe von eineinhalb Kilometern zu ändern, liegt etwa bei 2 W/m² für diese Periode eines Jahres. Das „Ungleichgewicht“, um Hansens Term zu benutzen, ist sogar noch schlechter, wenn wir die Menge Energie betrachten, die nötig ist, um den oberen Ozean von Mai 2007 bis August 2008 zu erwärmen. Dies erfordert ein globales „Ungleichgewicht“ von etwa 2,7 W/m² während dieser Zeit.
Weiter! Wäre dies mein Datensatz, wäre das Erste, was ich mir ansehe, was sich Mitte 2007 verändert hat. Warum sprang das globale „Ungleichgewicht“ auf einmal auf 2,7 W/m²? Noch mehr auf den Punkt gebracht, warum hat sich der obere Ozean erwärmt, nicht jedoch die Lufttemperatur?
Ich habe keine Antworten auf diese Fragen, mein erster Gedanke waren „Wolken“… aber bevor ich mit diesem Datensatz arbeitete, wollte ich hingehen und nachschauen, warum es 2007 diesen großen Sprung gab. Was hat sich verändert und warum? Wenn das globale „Ungleichgewicht“ in unserem Interesse liegt, gibt es hier ein Ungleichgewicht zu studieren.
 (Lassen Sie mich im Vorübergehen anmerken, dass es eine nicht korrekte vereinfachende Annahme ist, den Wärmegehalt der Ozeane zu eliminieren, um zur kanonischen Klimagleichung zu kommen. Diese kanonische Gleichung lautet:
Temperaturänderung = Sensitivität x Änderung des Antriebs.
Der Fehler liegt darin anzunehmen, dass die Änderung des ozeanischen Wärmegehalts (OHC) eine lineare Funktion der Temperaturänderung ∆T ist. Das ist sie nicht, wie die ARGO-Daten bestätigen… diesen Fehler habe ich in einem früheren Beitrag hier (auf Deutsch bei EIKE hier) beschrieben. Aber ich schweife ab…
Die ARGO-Aufzeichnungen bei SLT2011 haben auch eine Eigenart, wie sie auch bei einigen anderen Temperaturaufzeichnungen vorkommt. Die Schwingung während des gesamten Zeitraumes beträgt etwa ein Hundertstel Grad. Der größte Sprung innerhalb eines Jahres in den Daten liegt auch etwa bei einem Hundertstel Grad. Wenn sich in lang- und kurzfristigen Zeiträumen die gleiche Schwingung zeigt, kann man kaum noch viel über die Daten sagen. Das macht es sehr schwierig, die Daten zu interpretieren. Zum Beispiel beträgt das notwendige Ungleichgewicht zur größten Änderung innerhalb eines Monats etwa 24 W/m². Bevor wir fortfahren – Änderungen des OHC die zu betrachten sich lohnen würde, um zu sehen, a) ob sie real sind und b) falls ja, was hat sich verändert…
In jedem Falle, das war mein zweites Anliegen, die Kleinheit der gemessenen Temperaturunterschiede.
Als nächstes zur Abdeckung. Die ARGO-Analyse bei SLT2011 verwendet lediglich Daten bis zu einer Tiefe von 1500 Metern. Sie sagen, dass der Datenumfang von ARGO in noch größeren Tiefen zu dünn ist, um von Bedeutung zu sein, aber die Lage verbessert sich. Außerdem überdeckt die ARGO-Analyse nur den Bereich zwischen 60° Nord und 60° Süd. Der arktische bzw. antarktische Ozean bleibt also außen vor, ebenfalls wegen der unzureichenden Datenlage. Als nächstes fängt sie erst in einer Tiefe von 10 Metern an, lässt also die entscheidende Oberflächenschicht außen vor, obwohl die, wiewohl klein im Volumen, große Temperaturveränderungen erfährt. Schließlich fehlen in ihrer Analyse die Kontinentalschelfe, weil nur Gebiete betrachtet werden, in denen der Ozean über 1000 m tief ist. Abbildung 4 zeigt den Anteil der von den ARGO-Bojen tatsächlich vermessenen Gebiete in SLT2011, nämlich etwa 30%.
 
Abbildung 4: Anteil der Weltozeane, in denen die ARGO-Bojen messen, wie in SLT2011 verwendet.
Zusätzlich zu den Messungen der ARGO-Bojen zeigt Abbildung 4, dass es noch eine Anzahl anderer Messungen gibt. H2011 enthält Daten für einige davon, einschließlich der Südlichen Ozeane (= der antarktischen Gewässer)  des Arktischen Ozeans sowie Tiefengewässer. Hansen verweist auf seine Quelle (Purkey und Johnson,   hier PJ2010 genannt) und sagt, dass es in einer Tiefe von 2 bis 4 km keine Temperaturänderung gegeben hat. Dies gilt für das meiste des Wasseranteils auf der rechten Seite der Abbildung 4. Es ist unklar, wie sich das Wasser am Grund erwärmt, ohne dass die mittleren Wasserschichten das auch tun. Ich kann mir nicht vorstellen, wie das möglich sein soll, aber PJ2010 zufolge ist es so, dass das blaue Gebiet rechts das die Hälfte des Ozeanvolumens repräsentiert, keinerlei Temperaturänderung aufweist.
Weder H2011 noch SLT2011 bieten eine Analyse des Effekts an, den das Auslassen der Kontinentalschelfe oder der dünnen Oberflächenschicht hat. In dieser Hinsicht ist es bemerkenswert, dass sich in einer zehn Meter dicken Schicht wie in Abbildung 4 gezeigt die Temperatur problemlos um ein ganzes Grad ändern kann… und wenn sie das tut, wäre das etwa die Größenordnung der gleichen Änderung des ozeanischen Wärmegehaltes wie die 0,01°C der Erwärmung des gesamten Volumens, wie es von den ARGO-Bojen gemessen worden ist. Also ist diese Oberflächenschicht ein viel zu großer Faktor, um einfach bei der Analyse nicht berücksichtigt zu werden.
Es gibt noch ein anderes Problem mit den Abbildungen, die in H2010 als Beleg für die Änderung des Wärmegehalts des Tiefenwassers (unter 4 km) herangezogen werden. In der zitierten Studie, PJ2010, heißt es:
Schließt man den arktischen Ozean und die Nördlichen Ozeane aus, ist die Änderung des Wärmegehalts in Tiefengewässern (unter 4000 m) global in den neunziger Jahren und der ersten Dekade dieses Jahrhunderts äquivalent mit einem Wärmefluss von 0,027 (± 0,009) W/m², angewendet auf die gesamte Erdoberfläche. QUELLE: PJ2010.
Das läuft auf eine behauptete Erwärmungsrate der Tiefengewässer von 0,0007°C pro Jahr hinaus, mit einem behaupteten 95%-Intervall einer Standardabweichung von ±0,0002°C pro Jahr… Es tut mir leid, aber das nehme ich ihnen nicht ab. Ich akzeptiere nicht, dass wir den jährlichen Temperaturanstieg der Tiefengewässer auf zwei tausendstel eines Grades pro Jahr kennen, egal was PJ2010 behaupten. Die Tiefengewässer werden einmalig oder zweimal pro Dekade mit einem Profil vermessen. Ich glaube nicht, dass unsere Messungen ausreichend sind.
Wie es in der Klimawissenschaft häufig der Fall ist, ist unser Problem hier, dass als Einziges die strikte mathematische Unsicherheit hinsichtlich der Zahlen selbst berücksichtigt wird, losgelöst von der realen Welt. Es gibt eine damit verbundene Unsicherheit, die manchmal unberücksichtigt bleibt. Diese besteht darin, wie sehr unsere aktuelle Messung das gesamte Gebiet repräsentiert.
Das zugrunde liegende Problem ist, dass die Temperatur von „intensiver“ Qualität ist, während so etwas wie Masse von „extensiver“ Qualität ist. Diese beiden Arten, intensive und extensive Parameter, zu messen ist sehr, sehr unterschiedlich. Eine extensive Qualität ändert sich mit der Menge („extent“) dessen, was gemessen wird, was auch immer das ist. Die Masse von zwei Gläsern Wasser mit einer Temperatur von 40° ist zweimal die Masse eines Glases Wasser mit einer Temperatur von 40°. Zur Bestimmung der Gesamtmasse addieren wir einfach die beiden Massen.
Aber addieren wir zweimal 40°C, um eine Gesamttemperatur von 80° zu erhalten? Nein, so funktioniert das nicht, weil die Temperatur von intensiver Qualität ist. Sie ändert sich nicht auf Basis der Menge, die wir messen.
Extensive Qualitäten sind generell einfach zu messen. Wenn wir eine große Badewanne voll Wasser haben, können wir dessen Masse leicht bestimmen. Man bringe eine Skala an und mache eine einzige Messung – fertig! Eine Messung ist alles, was man braucht.
Aber die mittlere Temperatur des Wassers ist viel schwerer zu ermitteln. Es erfordert simultane Messungen der Wassertemperatur an genauso vielen Stellen wie verlangt. Die Anzahl der erforderlichen Thermometer hängt von der Genauigkeit ab, die man braucht, und von der Größenordnung der Änderung der Wassertemperatur. Wenn es warme und kalte Stellen des Wassers in der Wanne gibt, braucht man sehr viele Thermometer, um einen Mittelwert zu erhalten, der, sagen wir, auf ein zehntel genau ist.
Nun rufen Sie sich ins Gedächtnis zurück, dass wir hier anstelle einer Badewanne mit vielen Thermometern für die ARGO-Daten ein Ozeangebiet haben mit einer Seitenlänge von 380 km mit einer einzigen ARGO-Boje darin, die die Temperatur misst. Wir messen bis zu einer Tiefe von eineinhalb Kilometern, und wir erhalten drei vertikale Temperaturprofile pro Monat… wie gut charakterisieren diese drei Profile die tatsächliche Temperatur von 140.000 km² Ozean?
Man beachte ferner, dass es in den Tiefengewässern viel, viel weniger Messungen gibt… und doch wird behauptet, dass man eine noch größere Genauigkeit erreichen kann als mit den ARGO-Daten.
Bitte seien Sie sich darüber im Klaren, dass meine Argumentation nicht auf den Möglichkeiten einer großen Anzahl von Messungen basiert, um die mathematische Präzision des Ergebnisses zu verbessern. Es gibt etwa 7500 vertikale ARGO-Profile pro Monat. Die Einteilung der Ozeanoberfläche in 864 Gitterpunkte ist ausreichend, um uns mathematische Präzision in der von ihnen behaupteten Größenordnung zu geben, falls die Standardabweichung (SD) des tiefenintegrierten Gitterpunktes  etwa 0,24°C beträgt. Die Frage ist, ob die SD der Gitterpunkte so klein ist, und falls ja, warum sie so klein geworden ist.
Sie diskutieren, wie sie ihre Fehleranalyse durchgeführt haben. Ich habe den Verdacht, dass ihr Problem in zwei Gebieten liegt. Eines ist, dass ich keine Fehlerabschätzung für das Entfernen der „Klimatologie“ aus den Daten, der historischen monatlichen Mittelwerte sehe. Das andere Problem enthält die verwendete geheimnisvolle Methode der Datenanalyse durch die Gittereinteilung der Daten horizontal und vertikal. Ich möchte mich zuerst mit der Klimatologiefrage befassen. Sie beschreiben ihre Methode wie folgt:
2.2 Methode der Datenbearbeitung
Eine ARGO-Klimatologie (hiernach ACLIM, 2004 – 2009 von Schuckmann et al., 2009) wird zunächst an jeder Stelle des Profils interpoliert, um lückenhafte Profile für die Tiefe jeder Temperatur und jeden Salzgehaltes zu vervollständigen. Diese Prozedur ist erforderlich, um die tiefenintegrierten Quantitäten zu berechnen. OHC (ozeanischer Wärmegehalt), OFC (ozeanischer Frischwassergehalt) und SSL (räumlicher {temperaturabhängiger} Meeresspiegel) werden dann für die Position jedes ARGO-Profils berechnet, wie es von Schuckmann et al. (2009) beschrieben worden ist. Schließlich wurden noch Anomalien der physikalischen Gegebenheiten an jedem Ort eines Profils berechnet, relativ zu ACLIM.
Terminologie: Ein „Temperaturprofil“ ist ein Strang von Messungen mit zunehmender Tiefe durch eine ARGO-Boje. Die „Position des Profils“ liegt auf einem vorher festgelegten Druckniveau, bei dem die ARGO-Bojen ausgesetzt werden, um eine Messung durchzuführen.
Dies bedeutet, wenn Daten in einem gegebenen Profil fehlen, wird die Lücke mit Hilfe der „Klimatologie“ gefüllt, d. h. den langzeitlichen Mittelwerten für den Monat und den Ort. Nur führt dies dazu, dass ein Fehler eingebracht wird, kein sehr großer, aber einer, der sich bemerkbar macht.
In Bezug auf den letzten Satz des vorigen Absatzes kann ich jedoch in ihrer Fehlerberechnung keinerlei Fehlerabschätzung finden. Jener Satz beschreibt die Subtraktion der ACLIM-Klimatologie von den Daten. ACLIM ist eine ARGO-Klimatologie, und zwar ein Mittel Monat für Monat aus jedem Tiefenniveau.
SLT2011 weist bzgl. dieser Frage auf eine frühere Arbeit der gleichen Autoren hin, SLT2009, worin die Bildung der ACLIM-Klimatologie beschrieben wird. Ich sehe dort über 150 Niveaus der ACLIM-Klimatologie, wie sie von den Autoren beschrieben werden:
Die Konfiguration wird definiert durch das Gitternetz und den Satz von mutmaßlichen Informationen wie der Klimatologie und deren mutmaßliche Abweichungen und Kovarianzen, die erforderlich sind, um die Kovarianzmatrix zu berechnen. Das analysierte Feld wird definiert auf einem horizontalen isotropischen Gitter im Abstand von ½° einer Mercator-Projektion und ist begrenzt auf den Bereich zwischen 77°S bis 77°N. Es wurden 152 vertikale Schichten zwischen 0 und 2000 m Tiefe definiert… und zwar mit einem Abstand von jeweils 5 m von der Oberfläche bis zu einer Tiefe von 100 m, 10 m von 100 bis 800 m und 20 m von 800 m bis 2000 m.
Sie haben also die oberen Ozeanschichten in Gitterwürfel eingeteilt und jeden Gitterwürfel in Schichten, um Gitterzellen zu erhalten. Wie viele Gitterzellen? Nun, 360 Längengrade x 2 x 180° Grad Breite x 2 x 70% der Erde sind Ozeane x 152 Schichten = 27.578.880 ozeanische Gitterzellen. Dann haben sie das Temperaturmittel Monat für Monat für jede einzelne dieser 25 Millionen Gitterzellen ozeanischen Volumens berechnet… ein netter Trick. Klarer Fall, sie interpolieren wie die Verrückten.
Es gibt etwa 450.000 einzelne Werte der Ozeantemperatur pro Monat, ermittelt durch die ARGO-Bojen. Dies bedeutet, dass jede ihrer 25 Millionen Gitterzellen im Mittel nur alle 5 Jahre einmal mit [gemessenen] Temperaturwerten gestützt werden.
Dies ist die “Klimatologie”, die sie an jeder „Profilstelle“ bei jedem ARGO-Tauchgang abziehen. Angesichts der kurzen Geschichte des ARGO-Datensatzes, die Abdeckung von 140.000 Quadratkilometern Ozeanfläche und die Kleinheit der Gitterzellen sind große Unsicherheiten in der Klimatologie offensichtlich.
Wenn sie also eine Klimatologie von einer aktuellen Messung subtrahieren, enthält das Ergebnis nicht nur einen Fehler in der Messung. Es enthält auch den Fehler in der Klimatologie. Wenn wir etwas subtrahieren, addieren sich die Fehler „quadratisch“. Dies bedeutet, dass der resultierende Fehler die Quadratwurzel der Summe der Fehlerquadrate ist. Es bedeutet auch, dass die großen Fehler bestimmend sind, vor allem, wenn ein Fehler viel größer ist als der andere. Die Temperaturmessung an der Stelle des Profils enthält lediglich den Instrumentenfehler. Für die ARGO-Werte beträgt dieser ± 0,005°C. Der klimatologische Fehler? Wer weiß das schon, wenn die Volumina nur alle 5 Jahre einmal mit Messungen belegt werden? Aber es steckt viel mehr dahinter als der Instrumentenfehler…
Das also ist das wesentliche Problem, das ich ihren Analysen entnehme. Sie machen es auf eine schwer nachvollziehbare, geheimnisvolle und plumpe Art und Weise. Argo-Daten und Temperaturdaten allgemein kommen in einer irgendwie genetzten Welt nicht vor. Wenn man die Dinge macht, die sie mit den Gitterquadraten und den Schichten machen, schleichen sich Fehler ein. An einem Beispiel will ich das verdeutlichen. Abbildung 5 zeigt die Tiefenschichten von 5 m, verwendet in der oberen kleineren Sektion der Klimatologie zusammen mit den Aufzeichnungen eines Temperaturprofils einer ARGO-Boje.
 
Abbildung 5 ACLIM-Klimatologieschichten (5 Meter). Rote Kreise zeigen die aktuellen Messungen eines einzelnen ARGO-Temperaturprofils. Die blauen Karos zeigen die gleiche Information nach der Mittelung in Schichten. Quelle
Vieles kann man hier erkennen. Erstens gibt es keine Daten für drei der klimatologischen Schichten. Ein größeres Problem ist Folgendes: wenn wir eine Einteilung in Schichten vornehmen, verweisen wir den Mittelwert in den Mittelpunkt der Schicht. Das Problem damit ergibt sich, weil die ARGO-Bojen im Flachwasser in Intervallen messen, die etwas weniger als 10 m dick sind. Also sind die oberen Messungen gerade über der unteren Grenze der Schicht. Im Endergebnis ist dies gleichbedeutend, dass man das Temperaturprofil bei der Einteilung in Schichten ein paar Meter nach oben verschiebt. Dies führt zu einer großen Verzerrung bei den Ergebnissen. Zusätzlich ist diese Verzerrung abhängig von der Tiefe, weil die oberen Schichten aufwärts, die tieferen Schichten aber abwärts bewegt werden. Der Fehler ist unter 100 Metern am kleinsten, wird aber danach wegen der Änderung der Schichtdicke zu 10 Metern rasch größer.
SCHLUSSFOLGERUNGEN
Zuletzt kommen wir zur Frage nach der Analysemethode und der Bedeutung der Überschrift zu diesem Beitrag*. Im SLT2011 lesen wir weiterhin:
Um die globalen ozeanischen Indizes (GOI) mit Hilfe der unregelmäßig verteilten Profile abschätzen zu können, wird der globale Ozean in Rechtecke mit 5° Breite, 10° Länge und 3 Monate Zeit eingeteilt. Dies gewährleistet eine ausreichende Anzahl von Beobachtungen pro Rechteck. Um falsche Daten zu entfernen wurden Messungen, die um mehr als das Dreifache von der Standardabweichung entfernt liegen, ausgeschlossen. Die Information bzgl. der Varianz für dieses Kriterium wird aus ACLIM abgeleitet. Dieser Prozess schließt etwa 1% der Daten unserer Analyse aus. Nur Datenpunkte über einer gemessenen Tiefe über 1000 m wurden dann behalten. Rechtecke mit weniger als 10 Messungen wurden als eine Messlücke betrachtet.
Tut mir leid, aber das ist eine dumme Methode, diese Art von Daten zu analysieren. Sie haben die aktuellen Daten verwendet. Dann haben sie Lücken mit „klimatologischen“ Daten gestopft, so dass alles nett und ordentlich aussah. Dann haben sie die „Klimatologie“ von dem Ganzen subtrahiert, mit einem Fehler in unbekannter Größe. Dann wurden die Daten in ein Gitternetz gemittelt mit einem Abstand der Gitterpunkte von 5 mal 10 Grad sowie 150 Schichten unter der Oberfläche mit variierender Schichtdicke, dann haben sie das gemittelt über einen Zeitraum von drei Monaten… das ist alles unnötige Komplexität. Dieses Problem zeigt erneut, wie isoliert die Gemeinschaft der Klimawissenschaftler in der Welt etablierter Methoden ist.
Dieses Problem, über vertikale ARGO-Temperaturprofile zu verfügen und diese zur Abschätzung der Temperatur in den nicht gemessenen Gebieten zu nutzen, ist keineswegs neu. Tatsächlich ist es genau die Situation, der sich jede Bergbaugesellschaft gegenüber sieht hinsichtlich der Ergebnisse ihrer Testbohrungen. Genau wie bei den ARGO-Daten haben die Bergbauer vertikale Profile der Zusammensetzung der unterirdischen Wirklichkeit an verschiedenen Stellen. Auch wie bei ARGO müssen die Gesellschaften aus diesen Informationen die Verhältnisse in den Gebieten abschätzen, die sie nicht sehen können.
Aber dabei handelt es sich dann nicht um AGW stützende Wissenschaftler, für die fehlerhafte Behauptungen nichts bedeuten. Für diese Leute geht es um das große Geld abhängig von den Ergebnissen ihrer Analysen. Ich kann Ihnen versichern, dass sie kein Brimborium veranstalten und das Gebiet in rechteckige Kästen einzuteilen und den Untergrund in 150 Schichten unterschiedlicher Dicke zu zerlegen. Sie würden jeden auslachen, der versucht, mit einer solchen schwerfälligen Methode eine Goldader zu finden.
Stattdessen benutzen sie eine mathematische Methode, “kriging“ genannt. Warum machen sie das? Weil es funktioniert.
Man erinnere sich, die Bergbaugesellschaften können sich keine Fehler leisten. Das Kriging (und daraus abgeleitete Methoden) haben sich jedes Mal dabei bewährt, die besten Abschätzungen des Untergrundes zu ergeben, die man nicht messen kann.
Zweitens ergeben sich aus dem Kriging aktuelle Fehlerabschätzungen und nicht der „acht tausendstel von einem Grad“-Unsinn der ARGO-Analysten. Die Bergbaugesellschaften können sich nicht selbst mehr Sicherheit vortäuschen als die Messungen hergeben. Sie müssen genau über die Risiken Bescheid wissen und nicht irgendwelche optimistischen Berechnungen vornehmen.
Am Ende dieses Tages möchte ich sagen, werfen Sie die Analyse der ARGO-Daten zum Fenster hinaus, zusammen mit all den aufgeblasenen Behauptungen über die Genauigkeit. Hören Sie auf, mit Gitternetzen und Schichten um sich zu werfen, das ist Zeug für die Hochschule. Nehmen Sie sich einen Kriging-Experten und analysieren Sie die Daten ordnungsgemäß. Meine Vermutung ist, dass eine echte Analyse zeigen wird, dass viele Abschätzungen unbrauchbar sind.
In jedem Falle ist dies meine Analyse der Hansen-Studie zum Energieungleichgewicht. Sie behaupten darin eine Genauigkeit, von der ich nicht glaube, dass sie ihrer gewaltig komplexen Methode gerecht wird.
Dies ist ein langer Beitrag, vielleicht haben sich Ungenauigkeiten und Druckfehler eingeschlichen, seien Sie gnädig…
Willis Eschenbach
Link: http://www.columbia.edu/~jeh1/mailings
Übersetzt von Chris Frey für EIKE




US Klimaforscher Hansens hat neue „Studie“ eingereicht!

Normalerweise bevorzuge ich es heutzutage, nur mit wissenschaftlichen Studien zu arbeiten, was natürlich Traktate wie Hansens Zeug ausschließt. Aber in diesem Falle möchte ich eine Ausnahme machen. Mein alleiniger Grund, dies hier zu posten, ist Folgender (Hervorhebung von mir [Eschenbach]):
Die Präzision, die inzwischen durch die fortschrittlichste Generation von Satelliten zur Messung des Strahlungshaushaltes erreicht wird, ist gekennzeichnet durch das planetarische Energie-Ungleichgewicht, gemessen durch die noch laufenden CERES-Messungen (Ceres = Clouds and the Earth’s Radiant Energy System) (Loeb et al. 2009). Dabei stellt sich ein gemessenes Ungleichgewicht im 5-Jahres-Mittel von 6,5 W/m² heraus (Loeb et al. 2009). Weil dieses Ergebnis nicht plausibel ist, wurden Kalibrierungsfaktoren bei den Instrumenten eingeführt, um das Ungleichgewicht auf ein Niveau zu reduzieren, wie es die Klimamodelle berechnen, nämlich 0,85 W/m² (Loeb et al. 2009).
Ich bringe das hier, weil es sich dabei um Klimawissenschaft vom Feinsten handelt. Die Beobachtungen entsprechen nicht der erwarteten Größenordnung, aber anstatt herauszufinden, warum die Ergebnisse falsch sein könnten, verdrehten sie die Stellknöpfe zu „Das [gemessene] Ungleichgewicht zu dem von den Modellen berechneten Ungleichgewicht zu reduzieren“.
Und komischerweise stammt der Wert des „von den Modellen berechneten Ungleichgewichts“ von etwa 0,85 W/m² aus Hansens früherer Studie. Diese seine frühere Studie, zufälligerweise mit dem Titel „Energie-Ungleichgewicht der Erde: Bestätigung und Implikationen“ (hier) zeigte diese 0,85 W/m² als Ergebnis von Hansens eigenem GISS-Klimamodell… aber all dieses inzestuöse Schulterklopfen ist möglicherweise nur ein weiterer Zufall.
Natürlich wissen Sie, was all das bedeutet. Schon bald werden die Modellierer behaupten, dass die Ergebnisse der CERES-Satellitenmessungen verifizieren, dass GISS und andere Klimamodelle akkurat die Beobachtungen duplizieren…
Daran können Sie erkennen, warum Hansens „Wissenschaft“ nicht mehr auf meiner Agenda steht.
Willis Eschenbach
den Originalbeitrag finden Sie hier
P.S. Nach weiteren Nachforschungen fand ich heraus, dass sie Loeb et al. (2009) zufolge nicht einfach die Stellknöpfe der CERES-Messungen verdrehten, um die von ihnen gewünschte Antwort zu erhalten, wie ich dummerweise zu Anfang gesagt habe.
Nein, das haben sie mitnichten getan. Stattdessen verwendeten sie…
…einen objektiven einschränkenden Algorithmus, um SW- und LW TOA-Flüsse [?] innerhalb der Bandbreite von Ungewissheit anzupassen, um die Inkonsistenz zwischen dem mittleren globalen TOA-Fluss und der Wärmespeicherung im System Erde – Atmosphäre zu beseitigen.
Ich werde heute Nacht besser schlafen, wenn ich weiß, dass es nicht einfach ein Verdrehen der Stellknöpfe war, sie haben tatsächlich einen einschränkenden Algorithmus verwendet, um es an ihr Prokrustes-Bett anzupassen…*
[Zu Prokrustes-Bett siehe hier. A. d. Übers.]
Link zu Hansens Artikel, auf den Eschenbach sich bezieht: “Earth’s Energy Imbalance and Implications
Übersetzt von Chris Frey für EIKE




Der Ozean versauert nicht!

 
Abbildung 1 PH-Wert-Bandbreite mit einigen Beispielen.
Das Erste, was man hinsichtlich des PH-Wertes beachten muss, ist, dass sich Alkalinität auf lebende Dinge stärker auswirkt als leichte Versauerung. Beide wirken korrosiv auf Gewebe, aber Alkalinität hat die stärkere Auswirkung. Es erscheint nicht eingängig, aber es stimmt. Zum Beispiel ist nahezu unsere gesamte Nahrung sauer. Wir essen Dinge mit einem PH-Wert von 2, fünf Einheiten unter dem neutralen Wert 7… aber nichts mit dem korrespondierenden Wert 12, fünf Einheiten über dem neutralen Wert. Die am meisten alkalischen Nahrungsmittel sind Eier (PH-Wert bis 8) sowie Datteln und Cracker (PH-Wert bis zu 8,5). Aber was soll’s, unsere Magensäure hat einen PH-Wert von 1,5 bis 3,0, und unseren Körpern macht das überhaupt nichts aus… aber man versuche nicht, Drano zu trinken, die Lauge würde den Bauch zerstören.
Dies ist der Grund, warum man Lauge und nicht Säure auf einen unbequemen Körper schüttet, wenn man ihn loswerden will. Es ist auch der Grund, warum Fische oftmals eine dicke Schleimschicht auf ihrem Körper haben, nämlich um sie vor der Alkalinität zu schützen. Im Gegensatz zu Alkalinität ist Versauerung kein Problem für das Leben.
Als nächstes kommt eine Frage der Terminologie. Wenn eine Base mit Säure kombiniert wird, zum Beispiel wenn man Backnatron auf eine ausgelaufene Autobatterie schüttet, bedeutet das eine „Neutralisierung“ der Säure, und zwar weil sich das Ganze hin zum Neutralen bewegt. Ja, der PH-Wert nimmt zu, aber trotzdem wird es „neutralisieren“ genannt und nicht „alkalisieren“.
Die gleiche Terminologie gilt bei der Messung des PH-Wertes. In einem Prozess mit dem Namen „Titration“ misst man, wie viel Säure man braucht, um eine unbekannte basische Lösung zu neutralisieren. Fügt man zu viel Säure hinzu, fällt der PH-Wert unter 7,0 und die Mixtur versauert. Fügt man zu wenig Säure hinzu, bleibt die Mixtur alkalisch. Das Ziel der Titration ist es, gerade genug Säure hinzuzufügen, um die basische Lösung zu neutralisieren.
Ganz ähnlich sieht es aus, wenn Regenwasser (leicht sauer) in den Ozean fällt (leicht basisch). Dann kommt es zu einem neutralisierenden Effekt des leicht alkalischen Ozeans. Regenwasser lässt den PH-Wert des Ozeans leicht abnehmen. Dennoch sagen wir normalerweise nicht, dass Regenwasser den Ozean „versauert“. Stattdessen sagen wir, weil sich der Ozean in Richtung neutral bewegt, dass es den Ozean neutralisiert.
Das Problem bei Verwendung des Ausdrucks „versauern“ bei dem, was das Regenwasser im Ozean macht, besteht darin, dass die Leute den Vorgang nicht verstehen. Sicher könnte ein aus festem Holz geschnitzter Wissenschaftler beim Hören des Wortes „versauern“ an „abnehmenden PH“ denken. Aber die meisten Leute glauben: „Ooooh, Säure, schlecht, das verbrennt die Haut“. Das führt dazu, dass die Leute Dinge wie das folgende Kleinod sagen, das mir gerade gestern vor Augen gekommen ist:
Rasche Zunahme des CO2 (wie es heute der Fall ist) überfrachten das System und führen dazu, dass Ozeanwasser korrosiv wird.
In Wirklichkeit ist es genau umgekehrt. Das zunehmende CO2 macht den Ozean nicht korrosiver, sondern neutraler. Da sowohl Alkalinität als auch Säure korrosiv wirken, lautet die einfache Wahrheit, dass Regenwasser (oder mehr CO2) den Ozean etwas weniger korrosiv macht, indem die leichte Alkalinität neutralisiert wird. Das ist das Problem mit dem Term „Versauerung“, und es ist der Grund, warum ich darauf bestehe, den genaueren Term „neutralisieren“ zu benutzen. Der Begriff „versauern“ ist sowohl alarmistisch als auch inkorrekt. Der Ozean wird nicht sauer durch zusätzliches CO2. Er wird neutralisiert durch zusätzliches CO2.
Mit diesem Prolog möchte ich mich nun der Studie zum ozeanischen PH-Wert zuwenden.
Die Studie trägt den Titel “High-Frequency Dynamics of Ocean pH: A Multi-Ecosystem Comparison” (hiernach als pH2011 bezeichnet). Wie der Titel schon verrät, betrachteten die Autoren die aktuellen Veränderungen des PH-Wertes an verschiedenen Stellen des Ozeans. Sie zeigen „Schnappschüsse“ über 30 Tage von einer ganzen Palette von Ökosystemen. Die Autoren merken an:
Diese organismusspezifischen PH-Signaturen zeigen die gegenwärtigen Niveaus sowohl hoher als auch geringer Auflösung von CO2 auf. Sie demonstrieren oft, dass heimische Organismen schon jetzt einem PH-Regime ausgesetzt sind, das den Vorhersagen zufolge nicht vor 2100 eintreten sollte.
Zuerst zeigen sie einen 30-Tage-Schnappschuss sowohl vom offenen Ozean als auch von einem Riff im Ozean:
 
Abbildung 2. Ununterbrochene 30 Tage lange Messungen des PH-Wertes im offenen Ozean und an einem Unterwasserriff. Die x-Achse zeigt die Tage, die y-Achse die Größe der möglichen Änderung des PH-Wertes bis 2100, wie sie in der pH2011-Studie abgeschätzt worden ist.
Ich erkenne, dass der PH-Wert nicht einmal im offenen Ozean konstant ist, sondern über die 30 Tage etwas variiert. Diese Änderungen sind ziemlich kurz und stehen wahrscheinlich im Zusammenhang mit Regenereignissen während des Monats. Wie oben erwähnt, neutralisieren diese Regenfälle die Oberfläche des Ozeans leicht (und vorübergehend). Mit der Zeit mischt sich das in tiefere Wasserschichten. Über dem Kingman-Riff gibt es länger andauernde kleine Schwingungen.
Man vergleiche die beiden in Abbildung 1 gezeigten Regionen mit einigen anderen „Schnappschüssen“ von Korallenriffen mit dreißig Tage langen PH-Wert-Messungen.
 
Abbildung 3 Dreißig-Tage-„Schnappschüsse” der Variation des PH-Wertes an zwei tropischen Korallenriffen. Auf der x-Achse sind die Tage aufgetragen.
Ein paar Dinge sind in Abbildung 3 bemerkenswert. Erstens, die Variation des PH-Wertes zwischen Tag und Nacht stammt von dem CO2, dass durch das Riffleben als ganzes gebildet wird. Auch beträgt die Schwingung von Tag zu Nacht im Palmyra-Riff etwa ein Viertel einer PH-Wert-Einheit… was bereits um 60% höher liegt als die projizierte Änderung durch CO2 bis zum Jahr 2100.
Des Weiteren gibt es vor der kalifornischen Küste ein paar Gebiete mit aufsteigendem Wasser:
 
Abbildung 4 Dreißig Tage lange Aufzeichnungen des PH-Wertes in Gebieten mit aufsteigendem Wasser. Dieses Aufwallen findet unter anderem entlang der Ostküsten der Kontinente statt.
Hier sehen wir sogar noch größere Schwingungen des PH-Wertes, viel größer als die vorhergesagte Änderung durch CO2. Man erinnere sich, dass hier nur eine Periode von einem Monat betrachtet worden ist, so dass es sehr gut auch einen Jahresgang geben könnte.
Abbildung 5 zeigt die Vorgänge in den Tangwäldern:
 
Abbildung 5 PH-Wert-Aufzeichnungen in Tangwäldern.
Wieder erkennt man eine ganze Palette von Schwingungen des PH-Wertes, sowohl lang- als auch kurzfristig. An Land finden sich sogar noch größere Schwingungen, wie aus Abbildung 6 ersichtlich wird:
 
Abbildung 6 Zwei PH-Wert-Aufzeichnungen von einer küstennahen Umgebung und in einem Flussmündungssystem.
Wieder erkennt man große Änderungen des PH-Wertes in sehr kurzen Zeiträumen, sowohl in Flussmündungsgebieten als auch in küstennahen Gebieten.
Meine Schlussfolgerungen aus all dem?
Erstens, es gibt eine ganze Reihe von Stellen im Ozean, an denen die PH-Schwankungen sowohl schnell vonstatten gehen und auch ein großes Ausmaß haben. Das Leben in diesen Teilen des Ozeans scheint weder von der Größenordnung noch von der Geschwindigkeit dieser Änderungen beeinflusst zu werden.
Zweitens, die mögliche Änderung des PH-Wertes bis zum Jahr 2100 ist im Vergleich zu diesen natürlichen Schwingungen nicht groß.
Drittens, infolge einer ganzen Reihe von abfedernden Mechanismen im Ozean könnte die Änderung des PH-Wertes bis 2100 kleiner sein, aber höchstwahrscheinlich nicht größer als die Schätzung der oben gezeigten Vorhersage.
Viertens, ich wäre sehr überrascht, wenn wir in neunzig Jahren immer noch fossile Treibstoffe verbrennen würden. Möglich, aber sehr zweifelhaft. Also kann auch aufgrund dieses Effektes die Änderung des ozeanischen PH-Wertes kleiner sein als oben gezeigt.
Fünftens, wie die Autoren schon angemerkt haben, in einigen Gebieten des Ozeans herrschen schon jetzt Bedingungen, die vor dem Jahr 2100 gar nicht auftreten sollten… und dies ohne negative Folgen.
Im Endergebnis mache ich mir also keine allzu großen Sorgen über eine kleine Änderung des PH-Wertes im Ozean aufgrund der Änderung des atmosphärischen CO2-Gehaltes. Der Ozean wird sich anpassen, die Verbreitungsgebiete mancher Spezies werden sich ein wenig ändern, einige andere Spezies werden leichte Vorteile, wieder andere leichte Nachteile haben. Aber der CO2-Gehalt war schon vorher hoch. Alles in allem, wenn man den Ozean ein wenig neutraler macht, wird es wahrscheinlich dem Leben gut tun, welches Alkalinität nicht mag, dem Versauerung aber nichts ausmacht.
Zum Schluss möchte ich sagen, dass ich wissenschaftliche Studien dieser Art mag, die tatsächlich reale Beobachtungen nutzen anstatt von Theorien und Modellen abhängig zu sein. Schon seit einiger Zeit habe ich darauf hingewiesen, dass der ozeanische PH-Wert nicht konstant ist… aber bis zum Erscheinen dieser Studie habe ich nicht gewusst, wie variabel er tatsächlich ist. Es ist ein Maß für die „Elfenbeinturm“-Natur in weiten Bereichen der Klimawissenschaft, dass die Hysterie über die sog. „Versauerung“ schon seit so langer Zeit im Gange ist, ohne dass man die tatsächlichen Verhältnisse im Ozean betrachtet hat. Dann hätte man sehen können, welchen Unterschied eine kleine Änderung hin zu mehr Neutralität wirklich ausmacht.
BEMERKUNG: Für jene aus festem Holz geschnitzte Wissenschaftler, die immer noch das Hinzufügen einer kleinen Menge Säure zu einer basischen Lösung „Versauerung“ nennen und die behaupten, dass dies die korrekte „wissenschaftliche Terminologie“ ist, verlange ich, dass sie auf die wissenschaftliche Terminologie der Titration schauen und sich daran anpassen. Diese Terminologie wird benutzt, wenn PH-Werte im Labor gemessen werden. In dieser Terminologie nennt man es „Neutralisierung“, wenn man sich hin zum neutralen PH-Wert 7 bewegt.
Willis Eschenbach
Link: http://wattsupwiththat.com/2011/12/27/the-ocean-is-not-getting-acidified/
Übersetzt von Chris Frey für EIKE