Das Klimaziel

Wenn man davon ausgeht, dass „Klima“ eine Gesamtheit meteorologischer Vorgänge über einen längeren Zeitraum beschreibt, so lässt einen das fusionierte Substantiv „Klimaziel“ einigermaßen ratlos zurück. Der Begriff ist ein Paradebeispiel neudeutscher Sprachpanscherei.

Nehmen wir es wörtlich und stellen uns vor, wie der Beschluss eines Bundeskabinetts zu einem Klimaziel aussehen müsste. Da Deutschland hinreichend groß ist, um differenzierte Klimata aufzuweisen, würden die Ziele in einer Anlage genannt und nach Regionen aufgeschlüsselt, so wie es zum Beispiel die Wärmeversorger und Heizungsprojektanten tun. Diese setzen vier Klimazonen in Deutschland an, die aber für konkrete Klimaziele zu grob gefasst wären. Folgende Formulierung ist denkbar:

Die Bundesregierung legt die in der Anlage genannten Klimaziele für das Jahr 2030 für die einzelnen Klimazonen fest.“

Anlage: Zone Breisgau, Bodenseeregion, Schwäbische Alb:

Jahresmittel = xx Grad

Relatives Luftfeuchtemittel = xx %

Niederschlagsmittel = xxxx mm

Durchschnittliche Sonnenscheindauer = xxxx Stunden

Windmittel = x,x m/s

Hauptwindrichtung: XX“

Dies wäre ein beschlossenes Klimaziel, das auf dem langfristigen regionalen Wetter beruht, welches zur Erreichung von Zielen irgendwie beeinflusst werden müsste.

Gemeint ist natürlich anderes. Es ist gängige Praxis, allen Vorgängen, die irgendwie mit Treibhausgasemissionen zu tun haben, den Begriff „Klima“ anzupappen. Eigentlich gehört jeder dieser Begriffe in Anführungszeichen gesetzt, aus Gründen der Lesbarkeit verzichte ich darauf.

Unpräzise Sprache verrät unpräzises Denken und öffnet den Weg zum Klimapopulismus. Komplizierte Sachverhalte zu simplifizieren und einfache Lösungen anzubieten („Abschalten“) sind Kennzeichen des Populismus und helfen in der Realität nicht weiter. Die Basis bildet der durch Computersimulationen gestützte Gedanke, dass höhere Treibhausgasemissionen zwangsläufig zu höheren Temperaturen von Erde, Luft und Wasser führen. Damit ist zu den weiteren Klimaparametern nichts gesagt. Auch die Frage, welche Temperatur maßgebend ist, bleibt offen, denn eine messbare Globaltemperatur gibt es nicht. Nehmen wir an, am Nordpol steigt in wenigen Jahren die Temperatur um drei Grad, in der Wüste Gobi sinkt sie um drei Grad, so wäre die Globaltemperatur zwar konstant, aber regional mit gravierenden Auswirkungen verbunden.

Die schlichte Annahme, nach zu viel „Gas geben“ könne man durch „Gas wegnehmen“ die Geschwindigkeit eines Temperaturanstiegs regeln wie die eines Autos, wird dem komplizierten Gesamtsystem Atmosphäre mit ihren vielen Einflussfaktoren nicht gerecht. Der erbittert geführte und emotionalisierte Streit um das nicht mehr erfüllbare Ziel 2020 lässt sich nur damit erklären, dass dieser simplifizierte Wirkungsmechanismus derart naiv angenommen wird. Nehmen wir aber an, es wäre tatsächlich so einfach und betrachten die deutschen Klimaschutzbemühungen. Nun streiten sich Klimaschutzparteien und andere Beteiligte um eine aus etwa 70 Millionen Tonnen CO2 zu erwartende Differenz. Das sind zirka 0,17 Prozent der globalen jährlichen anthropogenen Emissionsmenge. Dass dieser Anteil eine Atmosphärenreaktion hinsichtlich der Temperatur hervorruft, ist sehr, sehr unwahrscheinlich. Eher erscheint vor dem Bundestag ein pinkfarbenes Einhorn auf einem Fahrrad.

Klimazeichensetzung

In Gesprächen geben unsere Klimabewegten durchaus zu, dass derart geringe Anteile keine Wirkung haben werden. Der wichtigste Antrieb für ihren Kampf besteht darin, „Zeichen setzen“ zu wollen, damit sich Deutschland als internationaler Vorreiter präsentieren kann. Sie geben hinter vorgehaltener Hand zu, dass eine fulminante Wirtschaftskrise die wirksamste Klimaschutzmaßnahme wäre. Dies wirft ein ehrliches Licht auf die vorgebliche Harmonie der vom Klimaschutz okkupierten Ökologie und der Ökonomie.

Die Abkehr von pragmatischer ergebnisorientierter Politik hin zur „Zeichensetzung“ erleben wir auch auf anderen politischen Feldern wie den Auslandseinsätzen der Bundeswehr oder der Entwicklungshilfe. Vernunftgeleitete Politik würde auf realistische Ziele ausgerichtet sein, was auf dem Energiesektor eher schlecht für die Raum greifende semistaatliche Subventionswirtschaft wäre.

In ihrer Zielfestlegung hat sich unsere Regierung grandios verschätzt und schlampig gearbeitet und das wird wie bei der Brennelementesteuer und den Reststrommengen teuer. Das neue Milliardenrisiko besteht nun darin, dass EU-Emissionsvorgaben für Verkehr und Gebäude deutlich verfehlt werden. Berechnungen zeigen, dass selbst bei moderaten Klimaschutzerfolgen bis zu 30 Milliarden Euro an Zahlungen an die EU drohen. Dafür sind Emissionsmengen von anderen Mitgliedsländern zu erwerben. Die Annahmen unserer Regierung zu möglichen Emissionsminderungen in den Bereichen, die nicht dem Emissionshandel unterliegen, waren unrealistisch.

Der einfachere Weg, den Energiesektor weiter par ordre du mufti durch Abschaltungen von Kraftwerken zu Emissionssenkungen zu bewegen (obwohl diese bisher fast ausschließlich aus diesem Sektor kamen) birgt wiederum die Gefahr von Schadenersatz an die Konzerne. Zeichensetzen kann teuer werden.

Auch die Klimaziele des Pariser Vertrags 2015 scheinen schon veraltet. Neue energiehungrige Technologien wie die Kryptowährungen sind nicht berücksichtigt. Der Bitcoin klettert derzeit auf einen Kurs von mehr als 7.500 Dollar, der zu seiner Erstellung nötige Strombedarf ist erheblich und wächst anscheinend ungebremst. Für 2018 schätzt man den Aufwand weltweit auf etwa 140 Terawattstunden, was dem Jahresbedarf Argentiniens entspricht oder 0,6 Prozent des weltweiten Stromverbrauchs. Das klingt zunächst nicht viel, aber der Gradient ist erheblich.

42.000 Kilowattstunden sind gegenwärtig nötig, um einen einzigen Bitcoin zu „schürfen“. Zum Vergleich: Ein Dreipersonenhaushalt braucht etwa 3.500 Kilowattstunden – pro Jahr. Auch die steigende Weltbevölkerung, 11 Milliarden im Jahr 2050, scheint im Pariser Vertrag nicht dezidiert abgebildet. Es handelt sich bei ihm um eine Zusammenstellung von Absichtserklärungen der einzelnen Staaten.

Was Deutschlands nicht erreichte Ziele angeht, ist die beschriebene Emissionslücke nicht einsam. Auch eine Million E-Fahrzeuge werden wir 2020 nicht auf unseren Straßen sehen. Die Senkung der Verkehrsemissionen beträgt ziemlich genau Null, auch hier eine erhebliche Zielabweichung. Das Kanzlerinnenziel von 2011, die EEG-Umlage bei 3,5 Cent pro Kilowattstunde zu halten, wurde ebenso nicht erfüllt.

Erfolgserlebnisse sind organisierbar. Wenn politische Ziele in Serie nicht erreicht werden, könnte man sich mit einem Beschluss zu den Uhrzeiten der Sonnenauf- und -untergänge Mut machen. Er würde vermutlich erfolgreich umgesetzt – wenn man sich an den Kalender hält.




Scharlatane der Arktis … Lach­nummer eisfreie-Arktis-Prophe­zeiungen … Fake-Wissen­schaft vom Feinsten

Und die Alarmisten der globalen Erwärmung sind mittlerweile sehr still geworden bzgl. des Themas Klimawandel angesichts der Tatsache, dass die globalen Temperaturen gesunken sind und sich das arktische und grönländische Eis erholt haben.
Darüber sehr verlegen wollen sie nicht an all die absurden Prophezeiungen erinnert werden, die sie so inbrünstig vor zehn Jahren ausgestoßen haben; einige dieser Prophezeiungen sind nicht einmal älter als fünf Jahre.

Die Welt“ 2007: „Eisfrei“ bis 2013

Beispielsweise hat die Online-Ausgabe der Tageszeitung „Die Welt“ im Jahre 2007 gemeldet, dass „ein Team internationaler Klimawissenschaftler und Forscher bei der NASA behauptet hatten, dass die Arktis bereits im Sommer 2013 eisfrei sein werde.

„Der Welt“ zufolge stellte der „Klimaexperte“ Wieslaw Maslowski von der NASA die Behauptung auf bei einem Treffen der American Geophysical Union.

Al Gore warnte in den Jahren 2007, 2008 und 2009

Etwa zur gleichen Zeit predigte der Klima-Kreuzzügler Al Gore einen unmittelbar bevorstehenden arktischen ,Tag des Jüngsten Gerichts‘ [doomsday]. Der New American schrieb dazu:

In den Jahren 2007, 2008 und 2009 warnte Gore öffentlich und sehr hysterisch davor, dass der Nordpol um das Jahr 2013 ,eisfrei‘ sein werde infolge der vermeintlichen, ,vom Menschen verursachten globalen Erwärmung‘. Unter Verweis auf ,Klima-Experten‘ hat die vom Steuerzahler finanzierte BBC die Massenhysterie ungeheuer aufgebauscht, und zwar in Gestalt eines heute blamablen Artikels mit der Schlagzeile Arctic summers ice-free ,by 2013’. Andere etablierte Medien stießen in das gleiche Horn.

Sereeze bei CNN Fake News: „50-50-Chance“ einer eisfreien Arktis

Nicht nur fanatische Aktivisten oder hysterisch durchgedrehte NASA-Wissenschaftler sahen Visionen eines Endes der Arktis, sondern auch ein führender Wissenschaftler am National Snow and Ice Data Center (NSIDC). Mark Sereeze verkündete im Juni 2008 bei CNN, dass es eine Wahrscheinlichkeit 50 zu 50 einer eisfreien Arktis zum Ende des Sommers gebe.

Nun, zumindest sollte man anerkennen, dass Sereeze eine gewisse Unsicherheit einräumt.

Hansen: Arktis spätestens 2018 eisfrei

Vor nicht allzu langer Zeit hat Tony Heller bei Real Science hier berichtet, dass James Hansen am 23. Juni 2008 gesagt hat: „Wir werden geröstet werden, wenn wir nicht einen gänzlich anderen Weg einschlagen“, und dass Hansen und seine Mit-Wissenschaftler einen ,Kipp-Punkt‘ direkt vor ihren Augen entstehen sehen, und dass die Arktis genau so dahin schmolz wie sie es vorhergesehen hatten.

Hansen fügte noch hinzu, dass die Arktis in 5 bis 10 Jahren eisfrei sein werde. Nichts dergleichen ist jemals eingetreten.

,Der Spiegel‘: Segelbotte in einer eisfreien Arktis im Jahre 2008

Am 27. Juni 2008 verwies ,Der Spiegel‘ auf Wissenschaftler, als er berichtete, dass die Arktis „mit brutaler Geschwindigkeit abschmilzt“.

Das Wochenmagazin zitierte auch den Forscher Olav Orheim vom Norwegian Research Council: „Bereits im vorigen Oktober prophezeite ich, dass die Arktis in diesem Sommer eisfrei werden könnte“ und dass „im August oder September Menschen in Segelbooten dort kreuzen werden“.

Seth Borenstein: Planet hat „einen ominösen Kipp-Punkt durchlaufen“

Am 12. Dezember 2007 berichtete Seth Borenstein von AP im National Geographic, dass der Planet Wissenschaftlern zufolge einen „ominösen Kipp-Punkt durchlaufen habe“ und dass die Arktis „schrie“, als ob sie in ihren Todeswehen liegen würde.

Jay Zwally, NASA: Nahezu eisfrei am Ende des Sommers 2012

Der NASA-Klimawissenschaftler Jay Zwally wurde ebenfalls im National Geographic erwähnt, und zwar mit seinen Worten: „Nach der Begutachtung seiner eigenen neuen Daten sage ich, dass die Arktis mit dieser Rate zum Ende des Sommers 2012 nahezu eisfrei sein könnte, also viel schneller als nach Prophezeiungen zuvor“.

John Kerry: Eisfrei bereits 2013, nicht erst 2050

Am 16. Oktober 2009 nannte Senator John Kerry hier bei der Huffington Post den Klimawandel „eine Bedrohung der nationalen Sicherheit“. Weiter schrieb er:

Er ist bereits über uns gekommen, und seine Auswirkungen sind weltweit zu spüren, jetzt und hier. Wissenschaftler projizieren, dass die Arktis bereits im Sommer 2013 eisfrei sein wird. Nicht erst 2050, sondern schon in vier Jahren.

Sierra Club Kanada 2013: „Eisfrei in diesem Jahr“

Der Sierra Club Kanada meldete im Jahre 2013, dass die Arktis noch in jenem Jahr eisfrei sein werde (hier).

Wer den Link anklickt, wird jedoch sehen, dass er nicht mehr funktioniert. Vielleicht wurde das Ganze einfach zu peinlich, weshalb man den Link entfernte.

Das Wadhams-Debakel

Und schließlich war da noch Peter Wadhams, Professor für Ozean-Physik und Leiter der Polar Ocean Physics Group im Fachbereich Applied Mathematics and Theoretical Physics an der University of Cambridge. Er sagte im Jahre 2007, dass das arktische Meereis im Jahre 2013 vollständig verschwunden sein werde. Man vergesse nicht: Wadhams war ein anerkannter Experte.

Sechs Jahre später, also 2013, hatte das Meereis stattdessen um satte 25% zugenommen! Im Jahre 2012 änderte Prof. Wadhams seine Prophezeiung auf das Jahr 2016. Natürlich ist auch das niemals eingetreten.

Die Realität: Heute weist die Arktis das dritthöchste Meereis-Volumen seit 16 Jahren auf.

Heute zeigt das arktische Meereis nicht die geringsten Anzeichen des Abschmelzens, und in Wirklichkeit wurde ein paar Tage lang das dritthöchste Eisvolumen seit 2003 verzeichnet. Der japanische Klimablogger Kirye zeigte auf Twitter diese Graphik:


Link: http://notrickszone.com/2018/07/21/charlatans-of-the-arctic-laughing-stock-ice-free-arctic-predictions-fake-science-at-its-best/
Übersetzt von Chris Frey EIKE




Eimer-Liste: Historische Temperatur­daten der globalen Ozeane – deren Bestim­mung ist ein einziger Witz von Fehlern

Erkunden wir also, wie die globalen Ozean-Temperaturen gemessen worden sind. Zunächst dazu eine Referenz für die weitere Diskussion:

Bei Wikipedia findet sich unter der Quellenangabe NASA Goddard eine illustrative Graphik der globalen Temperatur mit einer darüber gelegten Glättung über fünf Jahre. Konzentrieren wir uns auf die Abkühlungsperiode von Mitte der vierziger bis Mitte der siebziger Jahre. Man kann das rapide Einsetzen der Abkühlung erkennen mit etwa 0,3°C im Jahre 1945 sowie die Umkehrung danach.

Abbildung 1: Temperaturindex Land ↔ Ozean von 1880 bis heute mit der Referenzperiode 1951 bis 1980. Die durchgezogene schwarze Linie stellt das globale jährliche Mittel dar, und die rote Linie ist eine Fünf-Jahre-Glättung, d. h. eine nicht parametrische Regressions-Analyse auf der Grundlage eines k-nearest-neighbor-Modells [?]. Die Funktion ist evaluiert mittels eines Bruchteils der Daten, die mit einem Zehn-Jahre-Fenster der Daten korrespondieren. Das ergibt eine effektive Glättung über etwa fünf Jahre. Die blauen Unsicherheits-Balken (95% Vertrauenslimit) berücksichtigen nur die unvollständige räumliche Datensammlung. Grundlagen sind die Abbildung 1A in Hansen et al. (2006) und Abbildung 9a in Hansen et al. (2010). Quelle

Die Studie von Thompson et al. (2008) in Nature erregte meine Aufmerksamkeit. Gavin Schmidt von RealClimate und auch New Scientist gaben Kommentare dazu ab. Thompson behauptet, den Grund dafür gefunden zu haben, warum die Abkühlung während der vierziger Jahre mit einer so drastischen Umkehrung des Erwärmungstrends zuvor begann. Dieser Umstand machte den Wissenschaftlern schon lange Kopfzerbrechen. Der Grund für diese Umkehr wurde angegeben als ein Wechsel bei den Verfahren der Messung von Ozean-Temperaturen. Das heißt, als man das Verfahren der Messung der Wassertemperatur aus mit Eimern geschöpften Wasser änderte und die Temperaturen einströmenden Kühlwassers maß.

Diese Abkühlungsperiode wollen wir einmal näher unter die Lupe nehmen.

Vor und nach dem 2. Weltkrieg wandte die britische Flotte das ,Eimer-Verfahren‘ an, um Ozeanwasser für dessen Temperaturmessung abzuschöpfen. Das heißt, ein Eimer Wasser wurde mit einem Flüssigkeits-Thermometer gemessen. Das andere oft angewendete Verfahren war die Messung der Temperatur von in Motoren einströmendem Kühlwasser.

Diese beiden Messverfahren werden im Jahre 2008 in einem Brief an Nature erklärt, wobei Thompson et al. sich der folgenden Wortwahl bedienten (SST = Wassertemperatur):

Die bemerkenswerteste Änderung im SST-Archiv nach Dezember 1941 erfolgte im August 1945. Zwischen Januar 1942 und August 1945 stammen etwa 80% der Messungen von US-Schiffen und ~5% von UK-Schiffen. Zwischen Ende 1945 und 1949 stammen dagegen nur ~30% der Messungen von US-Schiffen und ~50% von UK-Schiffen. Diese Änderung im August 1945 ist aus zwei Gründen bedeutsam: Erstens, im August 1945 erfolgten die Messungen auf US-Schiffen in Kühlwasser, während die UK-Messungen mittels des Eimer-Verfahrens durchgeführt wurden. Zweitens, das in Motoren einströmende Kühlwasser war allgemein zum Wärmeren hin verzerrt im Vergleich zu den nicht isolierten Eimermessungen.

Klimabeobachter hatten eine Delle bemerkt im Delta zwischen der Wassertemperatur und der nächtlichen Lufttemperatur (NMAT). Daher glaubte man die Ursache für den unerwarteten Wechsel der Temperatur um 0,3°C um das Jahr 1945 gefunden zu haben. Darauf verzerrte und modifizierte man die Aufzeichnungen. Die angebrachten Bias-Korrekturen könnten Thompson zufolge „die Jahrhunderte langen Trends der Wassertemperaturen aus jüngster Zeit um bis zu ~0,1°C zunehmen lassen“.

Vermutlich wurde diese Bias-Korrektur an prominenter Stelle in der Sumary for Policymakers des IPCC-Berichtes 2007 hervorgehoben. Dabei erhoben sich jedoch folgende Fragen: Wie ist die Korrektur von 0,1°C von Thompson angebracht worden – einheitlich? Über welchen Zeitraum? Ist die Zahl 0,1°C geraten oder willkürlich herausgepickt? Werden dabei irgendwelche Messfehler berücksichtigt, wie sie weiter unten in diesem Beitrag besprochen werden?

Ein fundamentale Frage erhebt sich: wie authentisch ist unsere Temperaturaufzeichnung? Mit wie viel Vertrauen können wir Trendlinien und zukünftige Szenarien abschätzen? Es ist offensichtlich, dass wir die Zahlen kennen müssen innerhalb der 0,1°C-Genauigkeit, um eine vernünftige Interpretation der Aufzeichnungen vornehmen und um glaubwürdig zukünftige globale Temperaturen projizieren zu können.

Wir werden die Messverfahren der Ozean-Wassertemperaturen detailliert untersuchen und dabei erkennen, dass die Datenaufzeichnung sehr grob ist, oftmals um mehr als eine Größenordnung!

Zunächst ist es erforderlich, die Grundlagen zu beschreiben, um allgemeines Verständnis zu erlangen.

2. Die Grundlagen

Ich denke, man kann allgemein zustimmen, dass für die Ableitung definitiver Trends aus globalen Temperaturdaten diese eine Auflösung mindestens innerhalb ± 0,1°C aufweisen müssen. Eine alte Daumenregel für jedwedes Instrument besagt, dass die Messung dreimal so genau sein muss wie die avisierte Auflösung. In unserem Falle sind das 0,03°C.

Thermische Instrumenten-Charakteristika definieren Fehler in Prozent über die gesamte Bandbreite. Read-out resolution is another error, as is read-out error. Beispiel: Nehmen wir an, ein Thermometer hat eine Bandbreite von 200 Grad. 2% Genauigkeit sind dann 4 Grad, Auflösung ist 2 Grad. Die Ablese-Genauigkeit möge 0,5 Grad betragen, das ist die Abstufung, die man noch unterscheiden kann, falls man ,angemessen blinzeln‘ kann.

Wenden wir uns jetzt den Instrumenten selbst zu.

Die Temperatur wird direkt gemessen mittels normaler Thermometer mit Flüssigkeits-Kapillare. Es gibt aber auch Bimetall-Thermometer und mit Hilfe von Elektronik auch Thermistoren sowie noch ein paar andere Verfahren. Via Satellit gemessene Temperaturen auf der Erde werden indirekt aus der Reflektion infraroter Strahlung gemessen.

Wir alle kennen das normale Flüssigkeits-Thermometer, mit dem wir es täglich zu tun haben. Diese sowie die Bimetall-Thermometer haben eine typische Genauigkeit von ± 1 bis 2 Prozent und sind nicht genauer als bis zu 0,5°C. Die Thermistoren können bei präziser Kalibrierung höchst genau messen.

Die Temperaturmessungen in der Natur konzentrieren sich nicht nur auf das Messinstrument selbst. Es handelt sich immer um ein System, welches bis zu verschiedenen Ausmaßen das Datengewinnungs-Verfahren umfasst, die die kurzzeitige Datenspeicherung, Daten-Konversion und Übertragung, Manipulation usw. Man füge noch die zeitlichen Variationen hinzu, das Umfeld des Messpunktes, der Aufzeichnung, des Sensor-Abtriebs und -Verschleiß, Variationen des zu messenden Mediums, verschiedene Beobachter und Interpreten usw. All dies leistet einen Beitrag zum Systemfehler. Die individuellen Fehlerkomponenten werden unterteilt in die festen bekannten Fehler – Fehler und Streuung – und variable Fehler. Außerdem müssen wir auf die ,signifikanten Zahlen‘ achten, da sich eine falsche Genauigkeit einschleichen kann, wenn man den Gesamtfehler berechnet.

Zusammenstellung der Fehler:

Alle als Zufallsfehler erkannten Fehler werden kombiniert mittels der Quadratwurzel der Summe der Quadratzahlen (RSS). Systematischen Fehlern wird durch algebraische Summierung Rechnung getragen. Die Gesamt-Ungenauigkeit ist die algebraische Summe des Gesamt-Zufallsfehlers und des Gesamt-Systemfehlers.

3. Vorherrschende Messverfahren der Ozean-Wassertemperatur

a. Satellitenbeobachtungen

Die Datenerfassung der Wassertemperatur mittels Infrarot-Sensoren an Bord von NOAA-Satelliten erfolgte mit hoch auflösenden Radiometern [high-resolution radiometers].

Die Messungen sind indirekter Natur und müssen die mit anderen Parametern assoziierten Unsicherheiten berücksichtigen, die nur grob geschätzt werden können. Nur die oberste Wasserschicht kann gemessen werden, welche einen starken Tagesgang-Fehler aufweisen kann. Satellitenmessungen begannen in den siebziger Jahren, so dass es keine Korrelation mit früheren Messungen gibt. Da es sich allerdings um indirekte Verfahren der Wassertemperatur-Messung handelt und es viele Schichten von Korrekturen und Interpretationen mit einheitlichen Fehleraspekten gibt, werden diese hier nicht weiter behandelt. Ein derartiges Unterfangen würde eine gesamte neue detaillierte Abschätzung erfordern.

b. Direkte Messungen der Wassertemperatur – historisch

Bevor man verstanden hatte, dass die thermischen Gradienten in tieferen Wasserschichten der Ozeane von Bedeutung waren, war es üblich, die Wassertemperatur in mit Eimern geschöpftem Ozeanwasser zu messen. Ersteres wurde überlebenswichtig für den U-Boot-Krieg vor und während des 2. Weltkrieges. Zuvor brauchte man die Wassertemperatur lediglich für die Wettervorhersage.

Das ,Eimer-Verfahren‘:

Üblicherweise wurde ein Holzeimer von einem fahrenden Schiff über Bord geworfen und danach ein Thermometer in die so gewonnene Wasserprobe gehalten. Nach den Holzeimern kamen Eimer aus Segeltuch in Gebrauch.

Abbildung 2: (a) Holzeimer, (b) Eimer aus Segeltuch, (c) German scoop (moderne Version). Mehr

Mit der steigenden Berücksichtigung der Genauigkeit von Messungen kamen Eimer aus Segeltuch in Gebrauch. Zusätzlich zu der typischen Thermometer-Genauigkeit von 0,5 bis 1,0°C gab es viele Quellen von Zufallsfehlern, als da wären:

Tiefe des Eintauchens des Eimers

Durchmischung der Wasseroberfläche durch variable Wellenhöhen und Wolkenbedeckung

Aufwühlen der Wasseroberfläche durch die Schiffsschrauben

variable Unterschiede zwischen Luft- und Wassertemperatur

Relativbewegung der Schiffsroute zur Windrichtung

Größenordnung von Wind- und Schiffsgeschwindigkeit kombiniert

Zeitspanne zwischen Schöpfen des Wassers und der tatsächlichen Thermometermessung

Zeitspanne, bis sich das Thermometer auf die Wassertemperatur eingestellt hat

Ausmaß der Thermometer-Bewegung (falls vorhanden)

Ablesung am Rand oder in der Mitte des Eimers

Abkühlung des Thermometer-Messfühlers während der Ablesung

Sehschärfe und Verhalten des Ablesenden

Effektivität der Eimer-Isolation und Verdunstungs-Abkühlungseffekte durch leckende Eimer

thermische Wechselwirkungen zwischen Eimer und Schiffsdeck

Hier folgt eine Infrarot-Sequenz, die zeigt, wie sich Wasser in einem Stoffeimer abkühlt:

Abbildung 3 (a) bis (d). Thermische Bilder in 5-Minuten-Intervallen in einem Stoffeimer des Met.Office, der mit warmem Wasser gefüllt ist und vor einem Ventilator rechts in diesen Bildern montiert ist. Der Eimer wird nicht bewegt und der Deckel ist geschlossen.

Diese Bilder stammen aus folgender Studie:

Messungen und Modellierungen der Temperaturänderung von Wasserproben in Eimern zur Messung der Ozean-Wassertemperatur

Grazielle Carella und Alexis R.Morris

Man nimmt an, dass Unsicherheiten bei der Berücksichtigung von Bias-Adjustierungen historischer Messungen der Wassertemperatur mittels Eimern den größten Beitrag zu Unsicherheiten bei globalen Temperaturtrends leisten. Die Ergebnisse zeigen, dass die Modelle nur sehr grob imstande sind, die Abhängigkeit der Temperaturänderung des Wassers mit der Zeit über thermischen Antrieb und Eimer-Charakteristika zu erfassen: Volumen und Form, Struktur und Material. Sowohl die Modelle als auch die Beobachtungen zeigen, dass der bedeutendste Umweltparameter, der Temperatur-Verzerrungen in historischen Eimer-Messungen beeinflusst, der Unterschied ist zwischen dem Wasser und Flüssigkeits-Thermometern. Vermutungen, die inhärent in der Interpretation der Modelle vorhanden sind, beeinträchtigen wahrscheinlich deren Anwendbarkeit. Wir beobachteten, dass die Wasserprobe kräftig umgerührt werden musste, um mit den Modellergebnissen überein zu stimmen. Dies lässt gute Durchmischung annehmen. Es gab Inkonsistenzen zwischen den Modellergebnisse und früheren Messungen in einem Windkanal im Jahre 1951. Das Modell nimmt ein nicht turbulentes Anströmen an und prophezeit konsequent eine in etwa quadratische Abhängigkeit von der Windgeschwindigkeit. Bei Turbulenz wird der Wärmetransport mit der Intensität der Turbulenz zunehmen. Für Schiffsmessungen gilt, dass die Strömung wahrscheinlich turbulent ist und die Intensität der Turbulenz immer unbekannt ist. Fasst man alles zusammen, wird erwartet, dass Unsicherheiten aufgrund der Auswirkungen von Turbulenz und der Annahme gut durchmischter Wasserproben substantiell sind und einen limitierenden Faktor darstellen können für die direkte Anwendung dieser Modelle, um historische Wassertemperatur-Messungen zu adjustieren.

Temperaturmessung in einströmendem Kühlwasser:

Der Dieselmotor eines Schiffes enthält einen separaten Kühl-Kreislauf, um das Metall von der korrosiven Wirkung von Meerwasser zu isolieren. Die Rohmessung der Temperatur des einströmenden Wassers erfolgt fast immer mit Messzylindern (typischerweise mit einer Genauigkeit von 1°C und niemals kalibriert). Dieser ist installiert zwischen der Einströmungs-Pumpe und dem Wärmetauscher. Es gibt keinen Grund, Thermometer direkt am Schiffskörper zu installieren, ohne dass Daten durch die Aufheizung durch die Maschinen verzerrt werden. Anderenfalls wäre diese Aufstellung geeigneter für Forschungszwecke.

Folgende Zufalls-Einflüsse müssen bei der Messung berücksichtigt werden:

Tiefe des einströmenden Wassers

Ausmaß der Durchmischung der Oberflächenschicht durch Wind und Sonne

Aufwühlen des Wassers durch das Schiff, auch abhängig von dessen Geschwindigkeit

Differenz zwischen der Temperatur des Wassers und im Maschinenraum

variable Temperatur im Maschinenraum

Außerdem gibt es langzeitliche, zeitvariable Systemfehler, die berücksichtigt werden müssen:

zusätzliche thermische Energie durch die Ansaugpumpe

Abnahme der Röhren-Isolierung und durch innere Ablagerungen

c. Einsatz von XBT-Sonden (Expendable Bathythermograph)

Die Sonar-Messungen und die Notwendigkeit, U-Boote vor der Entdeckung in thermischen Inversionsschichten zu bewahren, befeuerten die Entwicklung und den Einsatz von XBT-Stichproben. Die Sonden werden von Schiffen an der Wasseroberfläche und von U-Booten ausgesetzt. Temperaturdaten werden an das Schiff übermittelt mittels eines dünnen Kupferdrahtes von der Sonde, während sie langsam in die Tiefe sinkt. Die Temperaturmessung erfolgt mit einem Thermistor, Nachbehandlung und Aufzeichnung der Daten erfolgt auf dem Schiff. Die Tiefe wird errechnet aus der vergangenen Zeit und auf der Grundlage einer speziellen, vom Hersteller entwickelten Formel. Thermistoren-Messungen werden aufgezeichnet via Änderungen der Stromspannung des Signals.

Mögliche Randwert-Fehler:

Thermische Verzögerungs-Effekte gegenüber der initialen Eintauch-Temperatur durch Lagerung der Stichprobe an Bord des Schiffes

Eine von der Lagerzeit induzierte Kalibrierungs-Verschiebung

Dynamischer Stress plus Effekte der sich ändernden Temperatur mit der Tiefe in Gestalt der Änderung der el. Widerstandsfähigkeit des Drahtes mit zunehmender Tiefe

Variable thermische Verzögerungs-Effekte des Thermistors während des Versinkens

Variabilität der Oberflächentemperatur vs. Stabilität tieferer Wasserschichten

Durch Instrumente und Messverfahren induzierte Variabilität

d. Schwimmende ARGO-Bojen

Das Konzept dieser Tauchbojen ist ein cleveres Verfahren, um fast 4000 derartige Instrumente weltweit zu haben, die automatisch Wasserdaten aufzeichnen, während sie in verschiedenen Tiefen des Ozeans treiben. Periodisch tauchen sie auf und übermitteln die gespeicherten Daten, Tiefe, Salzgehalt und Temperatur-Historie via Satelliten an Bodenstationen zur Auswertung. Das oberste Ziel des ARGO-Programms ist es, fast simultane Temperaturmessungen der Flotte vorzunehmen bis zu einer Tiefe von 2500 Metern. Damit will man ein umfassendes Bild des Wärmegehaltes der Ozeane zeichnen.

Überraschenderweise sind die einzigen von den Herstellern der Bojen gelieferten Daten die hohe Präzision von 0,001°C ihres kalibrierten Thermistors. Rückfragen bei den Verantwortlichen des ARGO-Programms enthüllten, dass sie nichts von einem Systemfehler wussten, obwohl man ein Bewusstsein gegenüber einem solchen von einem so weit entwickelten wissenschaftlichen Experiment erwarten sollte. Fragen hinsichtlich verschiedener Fehlerquellen an den vorherrschenden Hersteller der ARGO-Bojen blieben unbeantwortet.

Dabei müssen folgende Randwert-Fehler evaluiert werden:

Valide zeitliche Simultanität hinsichtlich der Tiefe der Temperaturmessungen, treiben doch die Bojen mit unterschiedlicher Geschwindigkeit. Außerdem können sie zwischen unterschiedlichen Zirkulationsmustern wechseln, sowohl vertikal als auch horizontal.

Thermische Verzögerungs-Effekte

Ungültige Messungen nahe der Oberfläche werden eliminiert, unbekanntes Ausmaß der Stärke des Fehlers

Fehler bei der Übertragung von Datenpaketen an den Satelliten infolge der Bewegung der Sendeantenne durch den Wellengang

Wellen- und Gischt-Interferenz mit der hohen Frequenz 20/30 GHz IRIDIUM der Transmission von Satellitendaten

Schwächen bei der Aufzeichnung und Fehlinterpretationen der Daten

Außerdem gibt es unbekannte Fehler bzgl. Auflösung, Bearbeitung und der Aufzeichnungs-Instrumente wie etwa Rauigkeit bei der Konversion analog/digital, Auswirkungen alternder Batterien in den Bojen usw. Außerdem gibt es subtile Charakteristika zwischen verschiedenen Formen der Bojen, die vermutlich ohne detaillierte Forschungen niemals erkannt werden.

e. Fest installierte Bojen

Langfristig fest installierte Bojen weisen Schwächen auf bzgl. ihrer vertikalen Reichweite. Diese ist limitiert durch die Notwendigkeit der Verankerung und der Zeitlosigkeit von Ablesung und Aufzeichnung. Außerdem sind sie Gegenstand von Ablagerungen und Unterbrechungen der Sensor-Funktionsfähigkeit durch treibende maritime Flora. Deren Verteilung hängt von der küstennahen Verankerung ab. Dies verleiht ihnen nur begrenzten Wert für eine allgemeine Überwachung der Ozean-Temperatur.

f. Leitfähigkeit, Temperatur, Tiefen-Sonden (CTD)

Diese Sonden ermöglichen das genaueste Verfahren zur Messung der Wassertemperatur in verschiedenen Tiefen. Sie messen typischerweise Leitfähigkeit, Temperatur (meist auch Salzgehalt) und Tiefe zusammen. Sie werden von stationären Forschungsschiffen ausgesetzt, welche mit einem Bordkran ausgerüstet sind, um die Sonden zu versenken und zu bergen. Präzise thermische Thermistoren-Messungen in bekannten Tiefen werden in Echtzeit via Kabel an die Schiffe übertragen. Diese Sondenmessungen werden oftmals herangezogen, um andere Instrumente zu kalibrieren, wie etwa XBT und ARGO. Aber die hohen operationellen Kosten und die Feinheit [sophistication] als Forschungsinstrument verhindern deren Gebrauch auf breiter Front.

4. Signifikante Auswirkungen von Fehlern bei den verschiedenen Verfahren zu Temperaturmessungen in den Ozeanen

Hier versuchen wir, typische operationelle Fehler instrumenteller Verzerrungen in historischen Aufzeichnungen der Ozean-Wassertemperatur abzuschätzen.

a. Das Eimer-Verfahren

In der Studie Corrections of instrumental biases in historical sea surface temperature data’ Q.J.R. Metereol. Soc. 121 (1995) haben Folland et al. versucht, den Bias bei dem Eimer-Verfahren zu quantifizieren. In der Studie geht es um historische Temperatur-Aufzeichnungen und Variationen der verschiedenen Eimertypen. Außerdem ist es von Bedeutung, dass kein maritimes Unterfangen jemals irgendeiner Art von Protokoll gefolgt ist bei der Ermittlung derartiger Daten. Die Autoren dieses Reports führen eine sehr detaillierte Wärmetransfer-Analyse durch und vergleichen die Ergebnisse mit denen einiger Tests in Windkanälen (nicht isolierte Eimer kühlen sich um 0,41°C bis 0,46°C ab). Bei der Datenverarbeitung waren viele globale Variablen im Spiel ebenso wie einige Messungen in einströmendem Kühlwasser. Die Korrekturen von Folland betragen + 0,58°C bis 0,67°C bei nicht isolierten Eimern sowie + 0,1°C bis 0,15°C bei Holzeimern.

Des Weiteren stellen Folland et al. (1995) fest: „Die resultierenden Temperatur-Korrekturen der global und jahreszeitlich gemittelten Wassertemperatur nehmen zu von 0,11°C im Jahre 1856 auf 0,42°C im Jahre 1940“.

Es ist unklar, warum die Korrekturen im 19.Jahrhundert substantiell geringer sein sollen als im 20. Jahrhundert. Jedoch könnte dies eine Folge davon sein, dass früher vorherrschend Holzeimer zur Messung verwendet wurden (die viel besser isoliert sind). Es ist auch verwirrend, wie diese Zahlen korrelieren mit der allgemeinen Feststellung von Thompson, dass jüngste SSTs korrigiert werden sollten mit „bis zu ~0,1°C“. Was ist mit der Hinzunahme der Zahl 0,42 Grad?

Bei Berücksichtigung eines Systemfehlers – siehe Abschnitt 3b – sind die variablen Faktoren der vorherrschenden Größenordnung täglicher und jahreszeitlicher Natur sowie abhängig von Sonnenschein, Luftkühlung, dem Verhältnis der Temperatur von Sprühwasser und der Luft sowie einem festen Fehler der Thermometer-Genauigkeit von ±0,5°C, im besten Falle. Bedeutsam ist auch, dass die Eimerfüllung aus Wasser besteht, das nicht tiefer als einen halben Meter unter der Wasseroberfläche geschöpft worden ist, so dass folglich diese Wasserschicht erheblich mit dem Tagesgang der Temperatur variiert.

Tabatha (1978) sagt über Messungen auf einem kanadischen Forschungsschiff: „Temperaturen im mit Eimern geschöpften Wasser stellten sich um 0,1°C zum Warmen hin verzerrt heraus. Die Wassertemperatur in einströmendem Kühlwasser war um eine Größenordnung mehr gestreut als bei anderen Verfahren und um 0,3°C zum Warmen hin verzerrt“. Folglich ergibt sich aus beiden Verfahren ein gemessener Warm-Bias, d. h. Korrekturfaktoren müssten negativ sein, sogar beim Eimer-Verfahren, was das Gegenteil der Folland-Zahlen ist.

Wo beginnt man mit der Abschätzung der Randwert-Fehler? Es scheint fast unmöglich, ein valides Mittelungs-Szenario zu simulieren. Zur Illustration wollen wir eine Fehlerberechnung durchführen, und zwar bzgl. einer spezifischen Temperatur der Wasseroberfläche mit einem nicht isolierten Eimer.

Luftkühlung 0,5 Grad (zufällig)

Transfer an Bord 0,05 Grad (zufällig)

Thermometer-Genauigkeit 1,0 Grad (fest)

Ablesen und Parallaxe 0,2 Grad (zufällig)

Fehler e = 1,0 + (0,52 + 0,052 + 0,22)½ = 1,54 Grad oder 51 mal die gewünschte Genauigkeit von 0,03 Grad (siehe auch Abschnitt 2.0)

b. Messungen in einströmendem Kühlwasser

Saur 1963 kommt zu dem Ergebnis: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen im Vergleich zu Meeresoberflächen-Temperaturen wird mit einem Vertrauensintervall von 95% geschätzt mit 0,67°C ±0,3°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung wird geschätzt zu 0,9°C … Der Schiffs-Bias (der mittlere Bias der Injektions-Temperatur eines bestimmten Schiffes) bewegt sich zwischen -0,3°C und 1,7°C unter 12 Schiffen“.

Fehler der SST einströmenden Kühlwassers hängen stark ab von den Betriebsbedingungen im Maschinenraum (Tauber 1969).

James and Fox (1972) weisen nach, dass Einströmen in einer Tiefe von 7 Metern oder weniger einen Bias von 0,2°C zeigte. Einströmen in größeren Tiefen zeitigte einen Bias von 0,6°C.

Walden (1966) fasst Aufzeichnungen von vielen Schiffen als um 0,3°C zu warm zusammen. Allerdings ist zweifelhaft, dass eine akkurate Instrumentierung verwendet wurde, um die Ablesungen zu kalibrieren. Daher ist seine Zahl von 0,3°C möglicherweise grob abgeleitet mit einem shipboard standard ½ oder mit auf 1 Grad genauen Thermometern.

Hier folgt eine Fehlerberechnung einer spezifischen Wassertemperatur am Einströmpunkt des Schiffsrumpfes:

Thermometer-Genauigkeit 1,0 Grad (fest)

Umgebender Maschinenraum Delta 0,5 Grad (zufällig)

Input der Pump-Energie 0,1 Grad (fest)

Gesamtfehler 1,6°C oder 53 mal die gewünschte Genauigkeit von 0,03 Grad.

Es gibt einen wesentlichen Unterschied zwischen der Messung in einströmendem Kühlwasser und Eimermessungen, der auch zu einer großen Differenz führt, nämlich die Messung viel tiefer im Wasser, in der Regel mehrere Meter unter der Oberfläche. Dieses Verfahren sorgt für kühlere und viel stabilere Temperaturverhältnisse als die Eimermessungen mit dem Oberflächenwasser. Allerdings übt auch die Temperatur des Maschinenraums einen starken Einfluss aus. Viele Messungen werden nur in ganzen Grad angegeben, der üblichen Thermometer-Auflösung.

Aber noch einmal: der einzige fest gegebene Fehler ist die Thermometer-Genauigkeit von einem Grad, ebenso wie der Wärmeunterschied um die Pumpe. Die variablen Fehler können auf größeren Schiffen von höherer Größenordnung sein und sind schwierig zu verallgemeinern.

Diese große Bandbreite von Variationen macht die Messung in einströmendem Kühlwasser fast unmöglich zu validieren. Außerdem erfolgte die Messung zu einer Zeit, als die auf Forschungen beruhende Kalibrierung noch kaum praktisch durchgeführt worden war.

c. XBT-Sonden

Lockheed-Martin (Sippican) stellt verschiedene Versionen her, und man wirbt mit einer Temperatur-Genauigkeit von ±0,1°C und einer System-Genauigkeit von ±0,2°C. Aiken (1998) berechnete einen Fehler von +0,5°C, und im Jahre 2007 stellte Gouretski einen mittleren Bias von +0,2°C bis +0,4°C fest. Die Forschungsgemeinschaft impliziert auch Variationen der Genauigkeit mit unterschiedlicher Daten-Herkunft und Aufzeichnungs-Instrumenten, und sie fordert Kalibrierungen mittels paralleler CTD-Sonden. Es gibt eine signifikante Varianz bei der Korrelation Tiefe ↔ Temperatur, über welche die Forscher immer noch Workshops abhalten, um diese Korrelation näher zu erfassen.

Wir können hinsichtlich des Gesamtfehlers nur grobe Abschätzungen vornehmen. Angesichts des vom Hersteller angegebenen Systemfehlers von 0,2 Grad und der oben beschriebenen Bandbreite von Fehlerquellen können wir einen Fehler von, sagen wir mal, 0,4°C ermitteln, was das Dreizehnfache der gewünschten Fehlerquote von 0,03 Grad ist.

d.ARGO-Treibbojen

Der hauptsächliche, in den USA ansässige Hersteller von APEX Teledyne reklamiert eine Genauigkeit von ±0,001°C, welche im Labor kalibriert worden ist (auf 0,002°C herabgestuft mit der Drift). Sie haben diese Zahl bestätigt, nachdem sie einige Stichproben nach vielen Betriebsjahren gezogen haben. Allerdings wird keine System-Genauigkeit angegeben, und der Hersteller gibt auf diesbezügliche Nachfragen keine Antwort. Die Kommunikation des Autors mit dem Büro des ARGO-Programms enthüllte, dass sie die System-Genauigkeit gar nicht kennen. Dies bedeutet, dass sie um die Genauigkeit der Thermistoren wissen, aber sonst nichts weiter. Der Seabird Scientific SBE Temperatur/Salzgehalt-Sensor kam in fast allen Stichproben zur Anwendung, aber das Unternehmen gibt den Fehlerbeitrag auch auf schriftliche Nachfragen via E-Mail nicht an. Nichts ist bekannt hinsichtlich der Fehler bei der Übertragung zu Satelliten oder der Genauigkeit bei der Aufbereitung der Daten an Land.

Hadfield (2007) berichtet von der Querung eines Forschungsschiffes auf dem 36. Breitengrad mit CTD-Messungen. Diese Daten hat man verglichen mit Temperaturdaten der ARGO-Bojen beiderseits der Schiffsroute, und sie sind innerhalb von 30 Tagen und manchmal auch mehr registriert worden. Allgemein stimmen die Daten überein auf 0,6°C RMS und einem Differential von 0,4°C östlich und 2,0°C westlich. Diese Messungen beziehen sich nicht auf die Genauigkeit der Bojen selbst, sondern auf die begrenzte Brauchbarkeit der ARGO-Daten, d. h. der Zeitgleichheit und geographischen Stelle der Temperaturmessungen im gesamten Ozean. Diese Unsicherheit deutet auf signifikante Grenzen bei der Berechnung des ozeanischen Wärmegehaltes, was doch der eigentliche Grund für das ARGO-Programm war.

Das ARGO-Qualitäts-Manual für die CTD-Daten und diejenigen auf der Schiffsroute ebnen den Weg für möglicherweise schlechte Daten. Die Temperatur-Verschiebung zwischen zwei mittleren Werten beträgt maximal 0,3 Grad als Kriterium, das Mittel 0,02 Grad und das Minimum 0,001 Grad.

Nimmt man einen Fehlergehalt der ARGO-Messungen an, bedeutet das mit Sicherheit einen viel höheren Wert als den vom Hersteller reklamierte Wert von 0,002 Grad.

Versuchen wir es also einmal:

Zugeordneter Systemfehler 0,01 Grad (vermutlich fest)

Fehler des Datenloggers und granularity [?] 0,01 (fest)

Datenübertragung 0,05 (zufällig)

Ground based data granularity 0,05 (fest)

Gesamtfehler 0,12 Grad, also das Vierfache der gewünschten Genauigkeit von 0,03 Grad.

Allerdings variiert die Hadfield-Korrelation zu CTD-Messungen entlang einer Schiffsroute bis zu 2 Grad, was der zeitlichen und geographischen Ausdehnung geschuldet ist. Aber auch Meeresströme und jahreszeitliche thermale Änderungen zusätzlich zu den inhärenten Bojen-Fehlern spielen eine Rolle.

Die NASA Willis 2003/05-Abkühlungsperiode

Dieses Thema wird im Abschnitt 5 ,Zusammenfassung‘ näher beleuchtet.

Im Jahre 2006 veröffentlichte Willis eine Studie, welche eine kurze Abkühlungsperiode zeigte, und zwar auf der Grundlage von Profilen der ARGO-Bojen:

Forscher fanden heraus, dass die mittlere Temperatur der oberen Ozeanschichten von 1993 bis 2003 um 0,09°C gestiegen und dann von 2003 bis 2005 wieder um 0,03°C gesunken ist. Der jüngste Rückgang ist in etwa gleich einem Fünftel der Wärmezunahme durch den Ozean im Zeitraum 1955 bis 2003.

Die Korrektur der Studie von 2007 stellt diesen offensichtlichen globalen Abkühlungstrend der Jahre 2003/2004 in Frage, indem die spezifisch falsch programmierten (vom Druck abhängigen) ARGO-Bojen ausgesondert und mit früheren, zum Warmen verzerrten XBT-Daten korreliert wurden. Damit, so hieß es, war die Größenordnung dieses Abkühlungs-Ereignisses substantiell verringert.

Im Mittelpunkt von Willis‘ Arbeit standen die Messung des ozeanischen Wärmegehaltes und die Einflüsse auf den Meeresspiegel. Hier folgen einige Auszüge aus dieser Studie, zunächst ohne und dann mit den angebrachten Korrekturen.

Vor der Korrektur:

Die mittlere Unsicherheit wird angegeben mit etwa 0,01°C in einer gegebenen Tiefe. Das Abkühlungs-Signal verteilt sich über die gesamte Wassersäule, wobei in den meisten Tiefen Abkühlung festgestellt wurde. Eine geringe Abkühlung wurde an der Oberfläche beobachtet, viel weniger als die Abkühlung in größerer Tiefe. Diese Abkühlung der Oberfläche von 2003 bis 2005 ist konsistent mit den globalen SST-Messungen (z. B. hier). Die stärkste Abkühlung ereignete sich in einer Tiefe von 400 m, aber auch in einer Tiefe von 750 m wurde noch substantielle Abkühlung beobachtet. Diese Verteilung reflektiert die komplizierte Überlagerung regionaler Erwärmungs- und Abkühlungs-Verteilungen mit unterschiedlicher Tiefen-Abhängigkeit ebenso wie den Einfluss von Änderungen der ozeanischen Zirkulation und den damit verbundenen Änderungen der Thermokline.

Das Abkühlungssignal ist in 750 m immer noch ausgeprägt und scheint sich in noch größere Tiefen zu erstrecken (Abbildung 4). Tatsächlich ergeben sich aus vorläufigen Schätzungen auf der Grundlage der ARGO-Daten eine zusätzliche Abkühlung in Tiefen zwischen 750 und 1400 m.

Nach der Korrektur:

eine Schwäche, welche dazu führte, dass Temperatur- und Salzgehalts-Werte in Verbindung standen mit unrichtigen Werten des Drucks. Die Größe der Druckabweichung war abhängig vom Bojen-Typ und variierte von Profil zu Profil über eine Bandbreite von 2 bis 5 db nahe der Oberfläche bis zu 10 bis 50 db in Tiefen unterhalb etwa 400 m. Fast alle der WHOI FSI-Bojen (287 Instrumente) waren von Fehlern dieser Art betroffen. Die Hauptmasse dieser Bojen wurde im Atlantik platziert, wo die unechte Abkühlung entdeckt worden war. Der Kalt-Bias ist im Mittel über das betroffene Gebiet größer als -0,5°C in Tiefen zwischen 400 und 700 m.

Der hier präsentierte 2%-Fehler bzgl. der Tiefe steht in guter Übereinstimmung mit ihren Ergebnisse für den Zeitraum. Der Grund für die offensichtliche Abkühlung in der Schätzung, welche XBT- und ARGO-Daten kombiniert (Abbildung 4, dicke gestrichelte Linie) ist das zunehmende Verhältnis zwischen ARGO- und XBT-Messungen zwischen 2003 und 2006. Das sich ändernde Verhältnis verursacht die Abkühlung in der Schätzung, sowie sie sich von den warm-verzerrten XBT-Daten entfernt und sich den neutralere ARGO-Werten nähert.

Systematische Druck-Fehler wurden hinsichtlich der Echtzeit-Temperatur und des Salzgehaltes entdeckt bei einer geringen Anzahl von ARGO-Bojen. Diese Fehler hatten ihre Ursache in Problemen bei der Bearbeitung der ARGO-Daten, und korrigierte Versionen vieler der betroffenen Profile wurden vom Hersteller der Bojen geliefert.

Hier werden Fehler in den fall-rate-Gleichungen als primäre Ursache für den Warm-Bias der XBT-Daten angesehen. Im untersuchten Zeitraum stellte sich heraus, dass die XBT-Stichproben und die Zuordnung der Temperatur zu den jeweiligen Tiefen um etwa 2% zum zu Tiefen verschoben waren.

Man beachte, dass Willis und seine Mitautoren den Wärmegehalt der oberen 750 Meter abschätzten. In dieser Zone befinden sich etwa 20% des globalen Ozeanwassers.

Des Weiteren zeigt die Abbildung 2 in Willis‘ Studie, dass eine der eliminierten ARGO-Bojen das thermische Tiefen-Profil den Vergleich zeigt zwischen korrekt und fehlerhaft.

Abbildung 4: Links: Temperatur-Anomalie im Vergleich zur Tiefe relativ zu den WGHC für WHOI-Bojen mit unrichtigen Druckwerten (blaue Linie) und Nicht-WHOI-Bojen aus dem gleichen Gebiet (rote Linie). Die Daten beschränken sich auf den Atlantik zwischen 50°N und 50°S bzw. den Zeitraum vom 1. Januar 2003 bis zum 30. Juni 2007. Rechts: Auswirkung der Korrektur einer einzelnen WHOI FSI-Boje im Südatlantik. Aus Willis 2007.

Mittelt man den Fehler in spezifischen Tiefen, erhält man ein Differential von 0,15 Grad in einer Tiefe zwischen etwa 350 und 1100 m. Diese Zahl differiert von dem Kalt-Bias um -0,5°C, wie oben festgestellt, obwohl dieser nur zwischen 400 und 700 m Tiefe definiert war.

All diese Erklärungen von Willis sind sehr verworren und lassen kaum Vertrauen aufkommen hinsichtlich der Genauigkeit aller thermischen ARGO-Messungen.

5. Beobachtungen und Zusammenfassung

5.1 Ozean-Temperaturaufzeichnungen vor 1960/70

Versucht man, die Aufzeichnung der Ozean-Erwärmung und die Trendlinien während der Zeiten mit Eimermessungen und früheren Messungen in einströmendem Kühlwasser zu extrahieren, scheint das ein aussichtsloses Unterfangen zu sein wegen der großen systematischen und zufälligen Datenfehler.

Die Eimermessungen wurden für meteorologische Zwecke durchgeführt, und:

a. ohne Qualitäts-Protokolle und mit möglicherweise nur marginaler persönlicher Qualifikation,
b. durch viele Nationen mit vielen Kriegs- und Zivilschiffen,
c. auf separaten Ozeanen und oftmals in geschlossenen Handelsrouten
d. aufgenommenem Wasser nur von einer dünnen Oberflächenschicht
e. mit einer Instrumentierung, die viel gröber war als die gewünschte Qualität
f. Gegenstand erheblicher physikalischer Stichproben-Variationen und umweltlicher Störungen.
Die Temperaturdaten in einströmendem Kühlwasser waren genauso grob, und zwar weil
a. sie aus einer anderen Tiefe stammen,
b. sie stabiler waren als die vom Tagesgang beeinflussten Messungen in der obersten Wasserschicht.

Beobachtung Nr. 1:

Während des Wechsels der primären Verfahren zur Messung der Ozean-Temperaturen scheint es logisch, eine Überraschung in den Temperaturaufzeichnungen während des 2. Weltkrieges zu finden infolge von Änderungen der Temperatur-Datengewinnung. Allerdings sieht das Auffinden eines spezifischen Korrekturfaktors der Daten mehr wie Spekulation aus, weil die beiden historischen Messverfahren zu unterschiedlich sind hinsichtlich ihrer Charakteristika und hinsichtlich dessen, was sie messen. Allerdings muss die Tatsache des Einsetzens einer rapiden Abkühlung 1945/46 nach wie vor eingeräumt werden, weil es während der Folgejahre kühl blieb. Dann begann Mitte der siebziger Jahre wieder eine abrupte Erwärmung, wie die Graphik in Abschnitt 1 so ausgeprägt zeigt.

5.2 Weitere XBT- und ARGO-Messungen in jüngerer Zeit:

Obwohl die XBT-Aufzeichnung nur von begrenzter Genauigkeit ist, wie es die vom Hersteller genannte Systemgenauigkeit von ±0,2 Grad spiegelt, müssen deren Vor- und Nachteile berücksichtigt werden, vor allem hinsichtlich der ARGO-Aufzeichnungen.

XBT-Daten:

a. Sie reichen zurück bis in die sechziger Jahre mit umfangreichen Aufzeichnungen
b. Eine fortgesetzte Kalibrierung mit CBT-Messungen ist erforderlich, weil die Tiefenformeln zur Berechnung nicht konsistent genau sind.
c. XBT-Daten stehen fest hinsichtlich Gleichzeitigkeit und geographischem Ursprung, was statistische Vergleiche ermöglicht
d. Erkannter Bias der Tiefen-Messungen, welcher der Temperaturmessung zugeordnet werden kann
ARGO-Daten:
a. brauchbare Quantität und Verteilung von Bojen gibt es erst seit etwa seit dem Jahr 2003
b. Die Datengenauigkeit wird als extrem hoch angegeben, jedoch ohne bekannte System-Genauigkeit
c. Die Datensammlung kann nur zu Zeitpunkten der Transmission via Satellit erfolgen. Die dazwischen liegende Richtung der Meeresströme und die thermische Durchmischung während der Bojen-Messzyklen vergrößern die Unsicherheiten.
d. Die Kalibrierung mittels CTD-Messungen wird behindert durch die geographische und zeitliche Trennung. Das hat zu Temperatur-Diskrepanzen von drei Größenordnungen geführt, also 2,0 Grad (Hadfield 2007) bzw. 0,002 Grad (Hersteller-Angaben).
e. Programmierfehler haben historisch zu falschen Tiefen-Korrelationen geführt.
f. Unbekannte Datenfehler bei der Transmission zu Satelliten, möglicherweise mit dem 20/30 GHz-Häufigkeitssignal durch Wellengang, Gischt und starkem Regen.

Beobachtung Nr. 2:

Die ARGO-Daten müssen innerhalb ihrer Limitierungen betrachtet werden, trotz der ursprünglichen Absicht, eine präzise Karte des ozeanischen Wärmegehaltes zu erstellen. Die ARGO-Gemeinschaft weiß nichts über den Systemfehler bei der Messung der Temperatur durch die Bojen.

Die Forschungen von Willis (NASA) 2003/04 bzgl. der Ozean-Abkühlung lassen viele Fragen offen:

a. Ist es zulässig, die Validität der von ARGO gemessenen Abkühlung zu erweitern allein durch einen Teil des Atlantiks als Datenbasis der gesamten globalen Ozeane?

b. Ist der Schluss zulässig, dass die Korrektur eines kleinen Anteils irriger Tiefen-Temperaturprofile über eine geringe vertikale Erstreckung einen ausreichenden thermischen Einfluss auf die Masse aller Ozeane ausübt, um etwa eine globale Abkühlung zu propagieren oder nicht?

c. Willis argumentiert, dass das Aufkommen präziser ARGO-Messungen um das Jahr 2003 in Bezug auf die frühere Aufzeichnung der warm-verzerrten XBT-Daten das offensichtliche Einsetzen der Abkühlung ausgelöst hat. Allerdings war dieser XBT-Warm-Bias zu jener Zeit gut bekannt. Hätte er diesen Bias nicht berücksichtigen können, wenn er Vergleiche zwischen der Vor-ARGO-Zeit und der Nach-ARGO-Zeit durchführte?

d. Warum unterscheidet sich der von Willis gegebene Bias von -0,5°C so signifikant von dem 0,15 Grad-Differential, den man in seiner Graphik erkennt?

Beobachtung Nr. 3:

Das Forschungsobjekt von Willis et al. scheint ein Beispiel zu sein für eine unangemessene Verquickung von zwei unterschiedlichen generischen Arten von Daten (XBT und ARGO). Er kommt zu überraschenden Schlussfolgerungen:

a. Die Aufzeichnung vor 2003 sollte bzgl. des offensichtlichen Einsetzens von Abkühlung vorsichtig bewertet werden, und

b. diese Aufzeichnung vor 2003 sollte immer noch eine valide Aufzeichnung sein zur Berechnung von Trendlinien des ozeanischen Wärmegehaltes.

Willis: „… die Abkühlung von 2003 bis 2005 ist konsistent mit den globalen SST-Produkten“. Diese Feststellung widerspricht der späteren Schlussfolgerung, dass die Abkühlung durch die Ergebnisse der Korrekturen 2007 hinfällig war.

Außerdem ist Willis‘ Manipulation der Bojen-Metadaten zusammen mit den XBT-Daten verwirrend genug, um seine Schlussfolgerung in der Korrektur-Studie 2007 als fraglich erscheinen zu lassen.

Zusammenfassung der Beobachtungen:

Es scheint, als ob die historischen Aufzeichnungen der Messungen mit ,Eimern‘ und in ,einströmendem Kühlwasser‘ als anekdotisch betrachtet werden müssen, als historisch und insgesamt grob, anstatt als wissenschaftliche Grundlage zu dienen für Trends der Erwärmung der Ozeane. Mit dem Aufkommen von XBT- und ARGO-Stichproben erscheinen die Trendlinien genauer, aber sie sind oftmals versteckt hinter Systemfehlern der Instrumente.

Ein Versuch, den Ozean-Temperaturtrend zu ermitteln, muss die Größenordnung von Zufallsfehlern berücksichtigen im Verhältnis zu bekannten Systemfehlern. Falls man versucht, eine Trendlinie in einem Umfeld mit vielen Zufallsfehlern zu finden, kann sich der Mittelwert selbst am Rande der Fehlerbandbreite befinden und nicht in der Mitte.

Die Ozeantemperatur sollte bis auf 0,03°C genau ermittelt werden. Allerdings gehen die Systemfehler oft über diese Präzision hinaus, und zwar bis zu drei Größenordnungen!

Falls die Forschung von Willis symptomatisch ist für die Gemeinschaft der Meeresforscher insgesamt, kann der vermeintlichen wissenschaftlichen erforderlichen Sorgfalt nicht vertraut werden

Mit der intensiven Konzentration auf statistische Manipulation der Metadaten und dem, was auch nur auf den Computer-Bildschirmen erscheint, scheinen es viele Wissenschaftler zu vermeiden, gebührende Umsicht walten zu lassen hinsichtlich der Datenquellen bzgl. Genauigkeit und Relevanz. Oftmals gibt es einfach nicht genügend Hintergrundwissen hinsichtlich der Genauigkeit der Rohdaten, um realistische Fehlerabschätzungen vornehmen zu können, und auch nicht, um irgendwelche Schlüsse zu ziehen, ob die Daten für das, was man machen will, überhaupt geeignet sind.

Und außerdem: Die Grundlage statistischer Mittelbildung bedeutet die Mittelung ein und derselben Sache. Die Mittelung von Ozean-Temperaturdaten über die Zeit kann nicht mit Mittelwerten durchgeführt werden, welche aus breit gestreuten Datenquellen, Instrumenten und Verfahren hervorgehen. Deren individuelle Herkunft muss bekannt sein und berücksichtigt werden!

Zum Schluss noch ein Vorschlag:

Als er den Temperatursprung während des 2. Weltkrieges zwischen Eimermessungen und solchen in einströmendem Kühlwasser identifizierte, hat Thompson diese korreliert mit den NMAT-Daten, d. h. mit nächtlichen Temperaturen bei jedem der beiden Messverfahren. NMAT kann eine Möglichkeit sein – vielleicht bis zu einem bestimmten Grad – die verschiedenen Aufzeichnungen seit dem 19. Jahrhundert zu validieren und in einen Zusammenhang zu bringen mit zukünftiger Satelliten-Überwachung.

Dies kann erreicht werden, indem man Forschungsschiffe in kalte, gemäßigte und warme Ozeangebiete entsendet, wo sie gleichzeitig repräsentative Eimermessungen und in einströmendem Kühlwasser durchführen sowie eine Handvoll XBT- und ARGO-Sonden einsetzen, während CBT-Tests gleichzeitig erfolgen. Und alle diese Prozesse müssen korreliert werden unter ähnlichen nächtlichen Bedingungen und mit lokalisierten Satellitenmessungen. Mit dieser Kreuz-Kalibrierung könnte man die historischen Aufzeichnungen zurück verfolgen und die Temperaturdifferenzen berechnen zu ihren nächtlichen Verhältnissen, wo ein solches Zusammenpassen gefunden werden kann. Auf diese Weise können NMATs dazu führen, alte, derzeitige und zukünftige Ozean-Aufzeichnungen zu validieren. Damit können Trends der Vergangenheit und der Zukunft genauer abgeschätzt werden. Die Finanzierung eines solchen Projektes sollte leicht möglich sein, weil es die Validität vieler Ozean-Aufzeichnungen korrelieren und zementieren würde, in Vergangenheit und Zukunft.

Link: https://wattsupwiththat.com/2018/07/11/bucket-list-historic-global-ocean-temperature-data-the-missing-pedigree-is-a-comedy-of-errors/
Übersetzt von Chris Frey EIKE




Wenn die Zukunft die Vergan­genheit küsst

Ein Glück, dass Deutschland schon immer innovativ war

Nicht nur Deutschland, auch die Schweiz kämpft verbissen gegen das Klima an. Und dadurch entsteht der sich gegenseitig befruchtende Konkurrenzkampf um die innovativsten Lösungen, mit dem Ziel, nur das Beste zu schaffen. Aktuell ist eine Schweizer Firma Sieger [3]. Ihr gelang es, das ultimative Elektroauto zu entwickeln [4].
Es ist wirklich alles dran, was ein Auto benötigt. Vor allem hat es mit 12.000 EUR einen unschlagbar niedrigen Basispreis. Trotzdem löst es alle Zukunftsprobleme auch unserer Städte. Es braucht fast keine Parkfläche. Durch den Vorderausstieg kann es innovativst – viel enger als ein Smart – quer parken. Es kommt mit wenig Strom aus – überlastet also keine EEG-Einspeisung und Zuleitungen – und vor allem kann es sich auch leicht zwischen einer linken und rechten Spur Fahrradschnellweg hindurchzwängen. Und den Autor macht es ganz nostalgisch: DIe 90 kmh erinnern ihn an seinen 2CV der Jugendzeit, der damals auch nicht schneller fahren konnte.
Unsere Stadtväter werden begeistert sein und zumindest die Fahrverbote beschleunigt einführen. Schließlich muss irgend jemand im Klimakrieg ja endlich die vielen Ladesäulen besetzen.

Bild 1 [1] Elektroauto Microlino der Schweizer Firma m-cro

Und stolz dürfen wir darauf auch sein. Denn das Entwicklungsprinzip ist von uns innovativen Deutschen abgekupfert. Wir sehen nach hinten zurück und bauen Windmühlen nach, allerdings mit ganz neuen Dimensionen. Die Schweizer Firma scheut ebenfalls zurück, baut aber eine ehemalige Innovation aus Deutschland nach – in der gleichen Dimension, nur ein klein bisschen optisch „aufgepeppt“. Man merkt sofort, wer immer noch wirklich in Führung ist.
Eigentlich unverständlich, warum die damalige Bevölkerung die Innovation nicht verstanden hat. Aber klar: Damals war es ja ein Benziner.

Bild 2 [2] BMW-Isetta von 1956 und aktueller [1] Microlino

Wer die Technikgeschichte des Autos kennt, kommt nun zusätzlich auf ganz andere Gedanken. Gäbe es die DDR vielleicht heute noch als Innovationsstandort, wenn sie früh genug auf die Idee gekommen wäre, ihren bewährten Trabant auf Elektromotor umzurüsten? Braunkohle-Grundlastkraftwerke hatte sie ja schon. Fragen über Fragen.
Doch was macht dann unser Obergrüner in Württemberg. Ihm – als ehemaligem Maoisten – ist sogar sein Dienstmercedes zu klein:
Tichys Einblick: Größenwahn oder nur peinlich?
Der alte Maoist und der Mercedes
Habt Mitleid mit dem Fahrer einer S-Klasse von Mercedes! Auch das größte (räumlich) und teuerste (in diesem Fall für den Steuerzahler) Auto ist zu klein für den größten Ministerpräsidenten aller Schwaben.
FOCUS ONLINE 16.01.2018: Winfried Kretschmann (Grüne) fühlt sich in der S-Klasse von Daimler eingeengt
„Wie eine Sardine in der Büchse“
Gibt es dann „Sardinenbüchsen“ fürs gemeine Volk und Luxus(Platz)fahrzeuge nur noch für die, welche es dem Volk vorschreiben? Solche Länder gab und gibt es bereits. (GRÜNE) Zukunftsinnovation durch den nächsten Blick in die Vergangenheit?

(Export-)Wunder gibt es immer wieder

Aber zurück zur Innovation. Es bewahrheitet sich, was GRÜNE Vordenker schon immer sagen: Der Kampf gegen das Klima führt zu einem Exportwunder neuer Technik. Wer schon einmal etwas mit Rädern gemacht hat, – zum Beispiel Scooter produzieren – ,kann auch ein Elektroauto problemlos bauen [3] . Mehr, als eine Verdopplung der Räderzahl ist es im Kern ja nicht.
Was schon bei Solar gut funktioniert (hat), lässt sich so wiederholen: Wir exportieren die Ideen, die anderen bauen es und verkaufen es an uns. Bald braucht man so endlich auch kein schlechtes Gewissen mehr zu haben, wir würden alle anderen Länder mit unseren Waren nur übervorteilen. Ein ruhiges Gewissen ist schließlich genau so viel Wert wie Exportwerte.

Die Landespolitiker im VW-Aufsichtsrat arbeiten bereits daran, dass es schnell Wirklichkeit wird

Der Traum von Herrn Weil sind kleine Elektroautos. Darin sieht er die Zukunft. Da er im VW Aufsichtsrat sitzt, versucht er, seine Vision auch Wirklichkeit werden zu lassen. Wie die Solarindustrie bereits transformiert wurde, schwebt es ihm mit der Autoindustrie vor:
Achgut.com: Der Sonntagsfahrer: Spurensuche im Solar Valley
… So hat der niedersächsische Ministerpräsident und VW-Aufsichtsrat Stephan Weil (SPD) der FAZ gestern ein Interview gegeben, in dem es um die Zukunft der Autoindustrie geht … „Wir müssen mit der Verkehrswende ambitioniert weiter machen. Dazu gehört vor allem auch eine Transformation der Automobilindustrie“ … Stephan-„Wir“-Weil sagt: „Wir müssen diese Industrie auf dem Weg in eine umweltgerechte Zukunft begleiten“. Begleiten ist wirklich ein sehr schönes Wort. So wie er das sagt, muss man aber davon ausgehen, dass die Autoindustrie demnächst ins Hospiz wechselt, zwecks verständnisvoller Sterbebegleitung durch Stephan Weil. Denn „die Autos sind zwar effizenter geworden, aber es gibt mehr Autos und sie sind größer geworden. Das wird sich ändern müssen“ …
Quellen
[1] m-cro, Werbeprospekt: Microlino
[2] Model Car World, Werbebild: BMW-Isetta
[3] m-cro: Firma
[4] eMobilität 18. Juli 2018: Der Microlino erhält die Zulassung




Wenn alle nur noch lieb zueinander sind, ist die Welt das Paradies. Bisher hat es noch nie funktioniert, beginnen wir deshalb damit beim Klima

… so beginnt das Generationenmanifest

Vertreten wird es von Personen, welche in großer Sorge sind:
Manifest: [1] Wir sind Bürgerinnen und Bürger dieses Landes und stellen besorgt fest: Die älteste Übereinkunft der Menschheit ist in Gefahr – der Generationenvertrag.
… Selten hatten so viele Menschen Sorge um die Zukunft ihrer Kinder und Enkel. Wir auch!
Dabei geht es nicht um unsere Rente, die von der (in hohem Maß verbeamteten und überversorgten) Politik nach Belieben geplündert wird, sondern um die Rettung der Welt vor der düsteren Zukunft.
Während die vergangenen Generationen angeblich immer nur „versucht (haben) … eine bessere und gerechtere Welt zu hinterlassen … „ (worauf sich diese fabulöse Behauptung begründet, steht nirgens) sind ausgerechnet wir die, welche überhaupt nicht mehr an so etwas denken und egoistisch diese Zukunft zerstören. Glücklich ändern soll dies nun ein juristischer Vertrag:
Manifest: [1]weiter der Verantwortung gegenüber zukünftigen Generationen entziehen oder umdenken und mit mutigem Handeln die Chancen künftiger Generationen auf Gesundheit, Erfüllung und Glück wiederherstellen.
… Wir engagieren uns auf gesellschaftlicher Ebene für einen neuen Generationenvertrag, einen Vertrag, der zum ersten Mal die Bedürfnisse kommender Generationen und deren Herausforderungen wirklich ernst nimmt.

Man sollte den „Generationenvertrag“ im Original weiterlesen. Er hat den Inhalt und die Substanz, wie man sich mit 16 Jahren die Welt vorstellt, weil man selbst in einem behüteten – und gut versorgten – Elternhaus wohnt, dies allen Menschen dieser Erde genau so wünscht und noch keine Ahnung davon hat, dass, und warum, im größeren Rest der Welt teils vollkommen andere, gesellschaftliche Ansichten herrschen. Und vor allem nicht, warum aus soziologischen und religiösen Gründen daran oft wenig geändert werden kann, schon gar nicht von außen [8]. Darum klingt er auch wie eine Predigt unserer verbeamteten Priesterschaft, um den Klingelbeutel ordentlich zum Klingeln zu bringen.

Klima: Mit allen Mitteln die Klimakatastrophe abwenden

Und das Generationenmanifest wäre ohne den allgegenwärtigen Klimawandel nicht zeitgemäß. Er kommt sowohl im Manifest vor, aber auch in fast jeder Präsentation in den Videos.
Manifest: [1] Klima: Mit allen Mitteln die Klimakatastrophe abwenden
Auch in Deutschland müssen wir unsere Anstrengungen im Einklang mit dem Pariser Klimaschutzabkommen massiv erhöhen. Wir fordern die Bundesregierung auf, den Einsatz fossiler Brennstoffe bis 2040 zu beenden sowie ein tragfähiges Konzept für CO2-Besteuerung bzw. Emissionshandel vorzulegen. Aus den Erträgen soll ein Zukunftsfonds aufgelegt werden, der Innovationen fördert und für künftige Generationen spart.
Die Idee, dass Politik für zukünftige Generationen spart, dürfte wohl die absurdeste sein, auf die man kommen kann. Es dürfte weltweit keinen „Fonds“ geben, der sich in politischer Hand befindet und nicht konsequent von dieser für ganz andere Zwecke geplündert wird. Auch unsere Bundesregierung macht es mit aktuell ca. 2 Billarden Euro Schulden vor und der Klimafonds ist genau dafür sogar explizit vorgesehen.

Irma und Harvey. Ja glaubt ihr denn, das sei ein Zufall?

Der bayerische „möchtegern-Messias“, welcher seit Längerem als Katastrophenprediger (vorwiegend auf GEZ-Zwangsgebührensalär) durch unsere Medien geistert, unterstützt es. Vor allem auch mit der Verbreitung schlichtweg nicht belegter Behauptungen.

Bild 1 Eingebettetes Video H. Lesch zum Generationenmanifest. Link: YouTube Lesch Generationenmanifest


Video, H. Lesch: … ich war so froh, dass es endlich gekommen ist … wir müssen uns darum kümmern, dass es keinen Krieg mehr gibt, wir müssen uns darum kümmern, dass es mit dem Klimawandel so nicht weitergeht, weil wir mit dem Kohlenstoff, den wir in die Atmosphäre jagen, natürlich alles erwärmen. Wir haben es jetzt doch gesehen … Irma und Harvey.
Ja glaubt ihr denn, das sei ein Zufall? Dies ist kein Zufall. die Meere sind so warm, dass sie ruck-zuck Hurrikans entwickeln. Und was für welche! Auch die Starkregenereignisse in Deutschland. Das ist doch kein Zufall!. Was red ich. Der Klimawandel ist da. Brauchen wir nicht mehr darüber zu sprechen …

Was Herr Lesch sagt und was die Daten sagen

Es ist bekannt, dass Irma und Harvey kein Klimawandel-Menetekel, sondern natürliche Extrem-Ereignisse waren [2]. Und es ist belegbar, dass die Starkregenereignisse in Deutschland Klimawandel-bedingt, bisher nicht zunehmen [3], und Extremwetter ebenfalls nicht [5]. Einfach, weil es solche Ereignisse – teils viel schlimmer – schon immer gab.
Doch was kümmert das einen H. Lesch. Weil ich es sage, ist es so: „ … brauchen wir nicht mehr darüber zu sprechen“. Es fehlt nur noch, dass er sich zum Klimapapst ausruft und für unbezweifelbar erklärt.
kaltesonne.de 5. Februar 2018: [2] Hurrikanaktivität hat während der vergangenen 65 Jahre abgenommen
Die Hurrikansaison ist erstmal vorbei. Das bietet eine gute Gelegenheit, unaufgeregt in die Fachliteratur hineinszuschauen. Was gibt es Neues? Am 8. Dezember 2017 erschien in den Geophysical Research Letters eine Arbeit von Ryan Truchelut und Erica Staehling. Sie untersuchten die Entwicklung der nordamerikanischen Hurrikane auf Basis der sogenannten “angehäuften Zyklonenergie” (accumulated cyclone energy, ACE). Die Forscher fanden eine statistisch signifikante Abnahme der Hurrikanaktivität während der vergangenen 65 Jahre. Die Hurrikanflaute der letzten Jahre (mit Ausnahme des sehr aktiven Jahres 2017) stellte dabei die inaktivste Phase des gesamten Untersuchungszeitraums dar. Abstract:
An Energetic Perspective on United States Tropical Cyclone Landfall Droughts
The extremely active 2017 Atlantic hurricane season concluded an extended period of quiescent continental United States tropical cyclone landfall activity that began in 2006, commonly referred to as the landfall drought. We introduce an extended climatology of U.S. tropical cyclone activity based on accumulated cyclone energy (ACE) and use this data set to investigate variability and trends in landfall activity. The drought years between 2006 and 2016 recorded an average value of total annual ACE over the U.S. that was less than 60% of the 1900–2017 average. Scaling this landfall activity metric by basin-wide activity reveals a statistically significant downward trend since 1950, with the percentage of total Atlantic ACE expended over the continental U.S. at a series minimum during the recent drought period
Brauchen wir nicht mehr darüber zu sprechen“. Sollte man aber

SPON 08.09.2015: Streit über Umwelt-PR: So irreführend sind die Wissenslücken der Klimaforscher
verwüstet hatte, offenbarte eine Studie Dramatisches: Die Klimaerwärmung hätte dafür gesorgt, dass Stürme heftiger würden. Der Mensch also stecke hinter der Katastrophe, lautete die Botschaft.
Andere Forscher
kritisierten die Behauptung. Unsicherheiten in den Ergebnissen seien ignoriert worden. Der Uno-Klimarat IPCC überging die Einwände. In seinem vierten Sachstandsbericht 2007 diagnostizierte der Rat eine Zunahme der Intensität von Hurrikanen.
Die Feststellung war voreilig, wie sich nun zeigt; die These von den stärker werdenden Hurrikanen lässt sich nicht halten, wie
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”
Übersetzung: “Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.
Tropische Zyklone
IPCC 2013, AR5, WGI, Kapitel 2, Seite 216: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”
Übersetzung: “Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“
Zum Schluss dazu noch ein Bild des ACE-Index dieser Region:
NOAA: The ACE index is a wind energy index, defined as the sum of the squares of the maximum sustained surface wind speed (knots) measured every six hours for all eastern Pacific named systems while they are at least tropical storm strength.der Hurricantätigkeit

Bild 2 [6] NOAA ACE-Index 1970 – 2016, East North Pacific

Was der Autor an Daten zu Starkregen zusammengetragen und gesichtet hat, lässt sich ebenfalls nachlesen. Ihm ist es ein Rätsel, wie Herr Lesch seine Aussage dazu begründen könnte.:
EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)
Der Herr Professor befindet sich damit in guter Gesellschaft. Immerhin hat er es damit zum Mitglied im Bayerischen Klimarat gebracht. Wohl, weil sein Vorgehen dem entspricht, was unsere „Intelligenz“ den Bürgern vorspielt: Nur eine ideologisch korrekte Information ist die richtige Information. Wenn überhaupt, kommt dieder Wirklichkeit näherkommende noch ganz klein am Ende:
kaltesonne 19. Juli 2018: SRF nimmt es beim Meeresspiegel in Louisiana nicht so genau mit der Wahrheit
SRF: Louisiana versinkt im Golf von Mexiko
Bereits sind im Süden Louisianas tausende Quadratkilometer verschwunden. Der Landverlust kann bloß verlangsamt werden … Und jetzt steigt wegen des Klimawandels auch noch der Meeresspiegel immer schneller …
In Wirklichkeit sinkt dort das Marschland rapide, zum Beispiel wegen der Eindeichungen:
kaltesonne: … Laut Karte sinkt das Land im betreffenden Bereich um 12-25 mm pro Jahr ab. Das ist das sechs- bis zwölffache des globalen Meeresspiegelbetrags zur Überflutung in Südlouisiana.
Und was ist mit dem dort „immer schneller“ steigenden Meerespegelanstieg? Man ahnt es: Das wird vermutet. Es klingt auch „gut“ und „gehört“ sich einfach in eine (öffentlich rechtliche) Küstenreportage. Nur machen tut es der Meerespegel auch dort nicht:
EIKE 18.05.2017: Die Amis bleiben beim Klimawandel weiter reserviert, nur in Europa „rennt man damit offene Türen ein“ – oder: In den USA gibt es noch Klimavernunft bei Behörden
EIKE 11.12.2016:
Nach Überzeugung der SZ scheinen Milliardäre in Amerika wohl generell etwas „beschränkt“ zu sein: Die Redaktion fand dort schon den zweiten, der nicht fest an den Klimawandel glaubt
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

Ich kann Ihnen versichern, dass die Wissenschaft genügend Belege hat, dass das mit dem Klimawandel zu tun hat, dass die Stürme stärker werden …

So eine der Aussagen von Herrn Schellnhuber bei der Pressekonferenz dazu (Bild 3). Kein wichtiges, gesellschaftliches Ereignis mit Klimarelevanz, ohne den Papst der Klimasimulation und des Klima-Kipppunktes. Da das Manifest wohl nur der Beginn der versuchten Umsetzung der „Großen Transformation“ [4] [9] ist, bei der das PIK eine Vorreiterrolle einnimmt, darf dessen Leiter nie fehlen.
Genau die kritischen Punkte, welche im SPON-Artikel angesprochen wurden: Unsicherheiten und Wissenslücken, löst Herr Schellnhuber problemlos: Er versichert eben, dass bei der Klimawandeltheorie alles stimmt. Ganz einfach, Klimatheologie in Reinform.
Dass die von ihm vertretenen Theorien das Gegenteil aussagen, nämlich: Die Stürme müssten mit zunehmendem Klimawandel schwächer werden, weil die Temperaturgegensätze dadurch abnehmen:
EIKE 21.02.2018: [11] Und plötzlich wird die Zukunft glücklicher
kaltesonne 21. Dezember 2017: [7] Neue Modellierungsergebnisse: Wirbelstürme werden in Zukunft wohl seltener und weniger intensiv
2-Sünder. Zahle und tue Buße!
Nun ja, aber es gibt zum Glück auch noch eine wissenschaftliche Seite, die leider viel zu selten in den Medien zu Wort kommt. Denn die Wahrheit ist sehr viel unspektakulärer als uns eingeflüstert wird. Am 4. Oktober 2017 erschien eine
Studie von Yoshida und Kollegen. Darin enthalten sind die Ergebnisse von Simulationen der tropischen Wirbelstürme und ihre zukünftige Entwicklung. Laut Modellen wird sich die Anzahl der tropischen Wirbelstürme im globalen Maßstab um 33% verringern. Zudem wird es wohl deutlich weniger Stürme der besonders starken Kategorien 4 und 5 geben. Letzteres ist bemerkenswert, denn lange glaubte man, dass zwar die Anzahl der Wirbelstürme abnehmen könnte, dafür aber die Intensität zunimmt. Die neuen Ergebnisse lehnen diese Sichtweise nun deutlich ab.
Muss man in solchen Momenten vom Podium aus ja nicht sagen. Besser ist es da, mit den 100 Millionen Klimaflüchtlingen zu drohen, das ist viel werbewirksamer.

Bild 3 Schellnhuber bei der Vorstellung. Link: YouTube: Zusammenfassung der Vorstellung zum Generationenmanifest


Video: Schellnhuber: …. als Klimaforscher sage ich ihnen, dass (die bisherige Flüchtlingssituation) nur der Beginn ist einer Völkerwanderung und die wird sich dann nicht drehen um eine Millionen, sondern um 100 Millionen Menschen und mehr.
Und ich kann Ihnen versichern, dass die Wissenschaft genügend Belege hat, dass das mit dem Klimawandel zu tun hat, dass die Stürme stärker werden. Dass das aber erst der Beginn einer dramatischen Entwicklung ist. Wenn wir das Pariser Abkommen nicht umsetzen, werden Ereignisse dieser Art die neue Normalität werden ….

Kürzlich hat Herr Frey für EIKE einen informativen Artikel übersetzt:
Jüngste Studie mit der Prophezeiung „könnte noch viel schlimmer sein als prophezeit“ ist massenhaft heiße Luft
Es muss nicht alles in dieser Darlegung die einzige Wahrheit sein. Die Aussagen von Herrn Schellnhuber sind es aber mit Sicherheit ebenfalls nicht.
Was Vorhersagen von „Klimafachpersonen“ wirklich „Wert“ sind, zeigen exemplarisch auch die folgenden Bilder. Den Personen/Institutionen schaden solche exorbitanten Fehler in aller Regel jedoch nicht, wie es Al Gore herausragend belegt.

Bild 4 [10] Vorhersageverlauf des arktischen Sommereis-Minimums und die Wirklichkeit

Bild 5 [10] Vorhersageverlauf der Globaltemperatur und die Wirklichkeit

Und mit der „Versicherung“ ist es auch so eine Sache. Das machen viele und ist auch nicht schwer, löst das Hauptproblem, welches die Klimawandeltheorie hat, aber nicht. Denn nur eines ist beim „Klimawandel“ ganz sicher: Nichts:
WELT Mittwoch, 18. Juli 2018: [12] Was passiert in Europa, wenn der Golfstrom versiegt?
… Bislang gingen die meisten Klimaforscher davon aus, dass eine Schwächung des warmen Golfstroms zu einer Abkühlung in Europa führen würde. Eine neue Studie sieht genau das Gegenteil voraus …

Wenn man nichts zu sagen hat, lass doch einen Sack Reis in Indien umfallen

Ein Herr Nathan Bedford-Strohm – Medizinstudent (den Vater kann man ahnen) -, beklagt vom Podium aus, dass in Indien durch einen Pharmakonzern beim Produzieren von Antibiotika wegen ungereinigter Abwässer multiresistente Keime entstehen.
Wenn das Problem durch diese Fabrik so schlimm ist, fragt man sich, welche Lösung dazu ein Generationenvertrag in Berlin beitragen soll, oder irgendeine CO2-Vermeidung. In Deutschland – und teils in der EU – gelang es durch einfache, aber konkrete Vorgaben, solche Probleme zu lösen. So sehr, dass die Fische im Bodensee über Hunger klagen (die Fischer als deren Vertretung).
Ansonsten sieht der Autor in vielen Statements sein eingangs Gesagtes bestätigt. Was bisher mit viel, viel Geld nicht gelang, wird möglich, wenn wir nur fester daran glauben – und CO2 besteuern. Sind alle gleich arm, fällt es viel weniger auf. Es geschieht uns auch ganz recht, denn schließlich sind wir ja mit Schuld daran. Andere Erkenntnisse sind in Deutschland „not amused“ [8].
Also gilt: Nichts tun geht nicht. Neue Lösungen fallen uns aber auch nicht ein. Also muss wenigstens viel Geld ausgegeben werden. Dieses „Klingeln“ beruhigt seit Jahrhunderten schlechte Gewissen.
Manifest: [1] Armutsbekämpfung: Hunger, Armut und Überbevölkerung beenden.
Wir fordern die Bundesregierung auf, hier entschlossener zu handeln und die bereits gemachten Zusagen einzuhalten. Die Lösung liegt in der Durchsetzung von fairen Löhnen, einer fairen Arbeitsteilung und fairen Regeln für die Produktion des globalen Konsums. Deutschland soll hier Vorreiter werden.
Manifest: [1] Migration: Menschen werden kommen, sie haben ein Recht darauf.
Unser Egoismus und unsere Profitgier sind mitverantwortlich für die Flüchtlingsströme. Wir müssen hier Verantwortung übernehmen und uns der Situation stellen.

Zudem: Es ist alles doch so einfach, wenn man die Tatkräftigen nur agieren lässt – und ihnen dafür Geld gibt:
RHEIN-NECKAR-ZEITUNG 08.07.2018: Entwicklungsminister
Es kostet nur 15 Cent am Tag, ein Menschenleben zu retten
Gerd Müller im RNZ-Interview – Er will Afrika helfen – Dazu bräuchte er mehr Geld vom Finanzminister
Quellen
[1] Generationenmanifest

Hurrikanaktivität hat während der vergangenen 65 Jahre abgenommen


[2] kaltesonne.de 5. Februar 2018: Hurrikanaktivität hat während der vergangenen 65 Jahre abgenommen
[3] EIKE 08. Juni 2018: Die Suche nach dem Klimawandel geht weiter. Denn in Deutschland ist er nicht zu finden
[4] EIKE 07. Juli 2017: Große Transformation – Rückwärtssehnsucht nach einer statischen Welt!

Extremwetter in den letzten tausend Jahren


[5] kaltesonne 6. März 2018: Extremwetter in den letzten tausend Jahren
[7] kaltesonne 21. Dezember 2017: Neue Modellierungsergebnisse: Wirbelstürme werden in Zukunft wohl seltener und weniger intensiv
[8] EIKE 09. Juli 2018: Überbevölkerungsprobleme bekämpfen wir ganz aktiv – durch noch mehr CO2-Reduktion
[9] EIKE 15. Juli 2018: Klimaschutz als Herrschaftsinstrument
[10] NoTricksZone 18. July 2018: Global Temperature Rise Some 75% Lower Than Models Projected!
[11] EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
[12] WELT Mittwoch, 18. Juli 2018: Was passiert in Europa, wenn der Golfstrom versiegt?