Ersetzen der wissen­schaft­lichen Methodik durch Dogma – Teil 2: Unter­drückung von Dissi­denten

Ich beneide die Wissenschaftler nicht, die der Meinung sind, dass deren eigene Forschung zeigt oder der dominanten Anzahl begutachteter Studien glauben, dass Menschen einen gefährlichen Klimawandel verursachen. Aber ich bestreite viele der von AGW-Befürwortern aufgestellten Hypothesen. Bislang zeigen alle Beweise, dass die meisten ihrer Projektionen bzgl. Temperatur, Eis, Hurrikane, Aussterben von Spezies usw. gescheitert sind. Als Folge davon sind ihre Projektionen zukünftiger Klimabedingungen nicht einmal ansatzweise vertrauenswürdig genug, um die Art fundamentaler, erdrückender und kostspieliger Änderungen vorzunehmen, welche AGW-Befürworter bzgl. unserer Wirtschaft und anderer Bereiche zum Kampf gegen den Klimawandel vorgeben. Ich glaube nicht, dass Klimawissenschaftler die Zukunft auch nur einen Deut besser vorhersagen können als eine normale Wahrsagerin.

Was alles noch schlimmer macht: AGW-Befürworter wischen aussagestarke Studien beiseite oder ignorieren diese vollständig, wenn darin viele ihrer Hypothesen unterminiert und die meisten ihrer Schlussfolgerungen widerlegt werden.

Zugegebenermaßen bin ich von Anfang an skeptisch und halte es tatsächlich für verdächtig, wenn bekannte Forscher eine neue Studie veröffentlichen, welche AGW stützen und weitere Beweise bringen, dass AGW zutreffend ist. Nicht, weil ich nicht hören will, was jene, die meiner Einschätzung nicht zustimmen, zu sagen haben. Sondern auf der Grundlage der vielen Jahre, welche die wahren AGW-Gläubigen damit zugebracht haben, Temperaturdaten zu manipulieren und versucht haben, diese und andere Daten so zu frisieren, dass sie zu ihren düsteren Projektionen passen.

Es ist vernünftig und sollte von gebildeten Menschen sogar erwartet werden, dass sie unterschiedlicher Ansicht in dieser Angelegenheit sind. Der Austausch von Standpunkten und Gegen-Standpunkten zeigt, dass die wissenschaftliche Methode so funktioniert, wie es sein sollte.

Viele AGW-Gläubige jedoch haben die wissenschaftliche Methode aber wohl verworfen.

Fortschritte macht die Wissenschaft, wenn eine Hypothese aufgestellt und eine Theorie entwickelt wird, um bestimmte Phänomene zu erklären oder zu verstehen. Danach wird diese Hypothese der Realität gegenüber gestellt. Eine bestimmte Hypothese wird als besser als alle anderen angesehen, wenn mittels Austesten gezeigt werden kann, dass sie mehr erklären kann als andere Hypothesen, oder wenn andere Wissenschaftler die gleichen Tests nachvollziehen und die Ergebnisse des Original-Austestens reproduziert werden können. Jede Theorie oder Hypothese muss im Prinzip falsifizierbar sein dergestalt, dass falls die Theorie prognostiziert, dass unter bestimmten Bedingungen das Ergebnis ,A‘ eintritt, stattdessen aber manchmal Ergebnisse ,B‘ oder ,C‘ eintreten. Dann hat diese Theorie Probleme. Je mehr die Prognosen einer Hypothese zu Ergebnissen von Tests oder Daten aus der realen Welt im Widerspruch stehen, umso weniger wahrscheinlich ist es, dass die Hypothese richtig ist.

Bei der AGW-Theorie läuft es aber so nicht. Egal welches Klima-Phänomen gerade auftritt, falls AGW-Befürworter es in irgendeiner Weise als ungewöhnlich darstellen können, argumentieren sie, dass dieses Phänomen „ein weiterer Beweis der globalen Erwärmung ist“, selbst falls es früheren Phänomenen widerspricht, die von den gleichen Personen als Beweis für globale Erwärmung angeführt worden sind.

Welche Auswirkungen AGW haben wird, scheint davon abhängig zu sein, welchen Wissenschaftler man zu Rate zieht und welches Modell verwendet wird. Im Bereich Klimawandel-Forschung ist es so, dass verschiedene Modelle, die das gleiche Phänomen simulieren und die gleichen physikalischen Gesetze mit den gleichen Eingangsdaten verwenden, zu dramatisch unterschiedlichen Ergebnissen kommen.

Ein weiterer Beleg dafür, dass AGW-Befürworter die wissenschaftliche Methode über Bord geworfen haben ist, wie sie auf verschiedene logische Trugschlüsse zurückgreifen, um die Emotionen der Menschen zu manipulieren. Diese sollen die Argumente und Forschungen der Klimarealisten nicht ernst nehmen. AGW-Befürworter verfallen dem ad hominem-Trugschluss, wenn sie Forscher, die ihrer Einschätzung des Ernstes der Lage nicht zustimmen, als AGW-„Leugner“ bezeichnen – ein offensichtlicher Versuch, diese Forscher in den Köpfen der Menschen als verabscheuungswürdige Holocaust-Leugner dastehen zu lassen. Das ist nicht wissenschaftlich, sondern rhetorisch. Ich weiß von niemandem, der die Tatsache leugnet, dass sich das Klima ändert, aber es gibt bedeutende Unsicherheiten und legitime Meinungsunterschiede hinsichtlich des Ausmaßes der Rolle der Menschheit beim jüngsten Klimawandel und ob dieser Wandel wirklich katastrophal ist. All jene, die hoch angesehene Wissenschaftler so darstellen, nur weil diese AGW nicht zustimmen, sind die wirklichen „Leugner“, und sie sollten der gleichen Schmach anheim fallen, welche völlig zu recht Leugnern anhaftet.

AGW-Befürworter fallen dem Trugschluss großer Zahlen anheim, wenn sie sagen, dass der Fall eines gefährlichen, vom Menschen verursachten Klimawandels settled ist, nur weil ein hoher Prozentsatz an Gelehrten darin übereinstimmt, dass die Menschen einen gefährlichen Klimawandel verursachen. Konsens ist ein politischer und kein wissenschaftlicher Ausdruck. Einst dachten die Menschen, die Erde sei eine Scheibe. Galilei widersprach und sagte, dass die Erde seiner Ansicht nach rund ist – und er wurde deswegen verfolgt. Und was war? Galilei hatte recht, und der Konsens jener Zeit war falsch. Dann gab es eine Zeit, in der die Menschen einschließlich der intellektuellen Eliten davon überzeugt waren, dass die Erde im Mittelpunkt des Weltalls stand und die Sonne sich um sie drehte. Kopernikus sagte genau das Gegenteil. Er hatte recht, und alle anderen hatten unrecht.

Wissen entsteht erfolgreich nicht durch Unterwerfung unter einen vermeintlichen Konsens in Gedanken und Meinung, sondern durch Infragestellung zuvor erworbener Weisheit und kontinuierlichen Tests wissenschaftlicher Theorien mit Daten. „Weil die große Mehrheit von uns es sagte“, ist keine legitime wissenschaftliche Antwort auf Forschungen, welche Fragen aufwerfen bzgl. AGW.

AGW-Forscher begehen einen weiteren Trugschluss, wenn sie sagen, dass eine bestimmte Studie oder die Arbeit bestimmter Wissenschaftler nicht ernst genommen werden sollten, wenn diese aus gewissen Quellen finanziert worden ist. Beide Seiten fallen diesem Trugschluss anheim, argumentieren Klimaskeptiker doch oft, dass die AGW-Forschung verzerrt ist, nur weil diese von der Regierung finanziert wird. Die Historie zeigt, dass die Regierungen auf diese Weise Gründe finden wollen, immer mehr Kontrolle über die Menschen zu erlangen.

Forschung sollte auf der Grundlage der Validität ihrer Hypothesen beurteilt werden, ob die Voraussetzungen stimmen und ob die Schlussfolgerungen daraus den Vorgaben folgen – und nicht auf der Grundlage, wer diese Forschung finanziert hat. Daten, Beweise und Logik sind die Eckpunkte von Wissenschaft, nicht Motive.

Über die routinemäßige Datenmanipulation und logische Trugschlüsse hinaus zeigen die eigenen E-Mails der AGW-Befürworter, dass sie versucht haben, Veröffentlichungen von Forschungen zu unterdrücken, welche skeptisch gegenüber AGW sind. Und sie haben routinemäßig versucht, sich in die Laufbahn angehender Wissenschaftler einzumischen, die es ablehnen, vollständig und sklavisch der AGW-Linie zu folgen. In einigen Fällen haben sie sich sogar dazu verstiegen, Wissenschaftler zu feuern, weil deren Forschungen AGW unterminieren.

AGW-Fanatiker versuchen auch unablässig, die Lehre eines ausgewogenen, genauen Verständnisses des gegenwärtigen Zustandes der Klimawissenschaft mit all ihren Unsicherheiten zu unterdrücken – in den Schulen der Nation. Das ist die Arbeit von Propagandisten, nicht von Wissenschaftlern, die nach Wahrheit trachten.

Alle diese Überlegungen gingen einem während der letzten Jahre durch den Kopf, als wahre AGW-Gläubige gerichtlich dagegen vorgegangen sind, Daten zu veröffentlichen, die ihren eigenen Forschungen widersprechen; als sie versuchten, die freie Rede zu unterdrücken, indem sie die ihnen nicht zustimmende Personen anschwärzten. Es gab sogar Fälle, in denen diese Herrschaften verlangten, Klimaskeptiker zu verfolgen und zu verhaften, weil sie es gewagt haben, die AGW-Orthodoxie in Frage zu stellen. Einige AGW-Befürworter haben ganz offen ihrer Sympathie für verschiedene autoritäre Regimes Ausdruck verliehen wegen deren Fähigkeit, „Dinge zu regeln“ ohne auf demokratische Institutionen Rücksicht nehmen zu müssen. Wirkliche Wissenschaftler wissen, dass Wahrheiten unter Autoritarismus nicht gedeihen.

Wenn eine Theorie nicht zu Fakten, Daten und Beweisen passt, ist es die Theorie, welche in Frage gestellt werden sollte, nicht die Daten oder die Motive derer, die der Welt derartige Beweise vor Augen führen. Man betrachte diesen Beitrag als meinen Appell an die wahren AGW-Gläubigen, sich wieder der wissenschaftlichen Methode zuzuwenden, den Beweisen im Bereich Klimaforschung zu folgen, selbst wenn diese Beweise sich als unbequem oder inkonsistent mit dem erweisen, was sie früher gedacht haben. Sollte ich selbst an diesem Ideal gescheitert sein, werde ich das auch tun.

SOURCES: Human EventsBreitbart; Science and Public Policy Institute
Übersetzt von Chris Frey EIKE

Anmerkung: Wie in früheren Fällen handelt es sich hier um eine Übersicht aus den genannten Quellen ohne einen eigenen Link. Daher wird hier das Original als DOC-Dokument beigefügt.

Die Dokumentation des Science and Public Policy Institute SPPI bzgl. der Klimagate-Analyse (149 Seiten!) wird als PDF beigefügt.

Original                                     PDF

 




Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)

Wiederholung

Das nachträgliche „Richtigstellen“ aufgrund „ganz neuer“ Erkenntnisse bisher doch nicht richtiger Daten ist auch beim Satellitenpegel gängige Praxis. Da niemand wirklich weiß, wie die „wahren“ Daten aussehen, werden Korrekturen über Korrekturen gesetzt und zur gleichen Zeit mit den gleichen Daten auch schon mal gegenteilige Ergebnisse ermittelt.
Es handelt sich dabei um den typischen Fall von „Datenfolter“. Bei diesem Verfahren „gestehen“ Messdaten nach einer Weile alles, was man von ihnen verlangt. Willige Computer nehmen diese „erfolterten Datenergebnisse“ auf und ermitteln daraus die Flugrouten zum „Pegelgipfel-Blocksberg“.

Der BR nutze die Studie für eine Klimapropaganda-Frontaldarstellung

Um zu zeigen, wie „Experten“ in deutschen Medien solche – erkennbar fragwürdigen – „Expertisen“ bewerten und konkret die Volksverdummung zum Klimawandel unterstützen, anbei Beispiele aus dem bayerischen – GEZ-finanzierten, GRÜNEN Propagandasender, BR. Dieser brachte zur Information über die Studie gleich eine ganze Katastrophen-Breiseite in Stellung.
Bayerischer Rundfunk 13.02.2018: [8] Steigende Pegel Wenn der Meeresspiegel steigt und Inseln versinken
Weil der Klimawandel das Eis der Polarregionen schmelzen lässt, steigt der Meeresspiegel. Und das immer schneller. Die Folgen sind verheerend.

Bild 2.1 Screenshot von der BR Homepage [8]

Darf es gleich noch etwas mehr Pegelanstieg sein?

Bayerischer Rundfunk 13.02.2018: [8] Extremmodelle berechnen Anstieg um bis zu 1,70 Meter
Verschiedene Studien der vergangenen Jahre prognostizieren einen Meeresspiegelanstieg zwischen 30 Zentimetern und mehr als anderthalb Metern bis zum Ende dieses Jahrhunderts. Der Weltklimarat IPCC warnt davor, dass bis 2100 die Meerespegel um bis zu 82 Zentimeter steigen könnten. Dass beim deutschen Küstenschutz zum Teil mit einem Anstieg um bis zu 1,70 Meter gerechnet werde, erklärt Ingo Sasgen mit Extremwerten, die dabei angenommen worden seien.

Bild 2.2 Screenshot von der BR Homepage [8]

Zur Klärung gibt es Fachpersonen

Sollte man meinen. Diese dürfte es auch geben, doch werden solche von unseren Medien selten, bis nicht befragt. Welches „Blatt“, oder „Öffentlich-Rechtlicher“ möchte sich schon eine tolle Story wie den doppelten Meeresspiegelanstieg, durch eine banale Antwort wie „die Auswertung ist der übliche, statistische Müll, der zur Fütterung der Mediengier produziert wird … „ kaputtmachen lassen.
Das ist auch nicht erforderlich. Experten, welche des zustimmenden Lobes voll sind, sofern die Richtung stimmt, finden sich genug.
Man beachte die Antworten: Es wurde von den „Experten“ nicht nachgefragt, warum die schon lange bekannten, gleichen Daten schon wieder zu „neuen“ Erkenntnissen führen sollen, welche zudem bisherigen, aktuellen widersprechen. Es wurde nicht gefragt, warum die Satellitenpegel plötzlich noch stärker ansteigen (sollen), obwohl sie bereits meilenweit über dem Tidenpegelanstieg liegen. Es reicht als „Qualitätsbeleg“, dass ein (alarmistischer) IPCC-Wert im Maximalszenario „getroffen“ wurde.
Genau nach diesem „Forschungsprinzip“ wurden die Flugbahnen der Hexen zum Blocksberg über Jahrhunderte immer „genauer“ ermittelt und mit jeder Folter neu „bestätigt“, ohne auf die wahre Erkenntnis darüber zu kommen.

Texte von BR Podcastbeiträgen zur neuen Studie

Beim BR [8] finden sich gleich zwei Interviews von ausgewiesenen Fachpersonen zur neuen Studie. Anbei Texte daraus.

Die Meeresspeigel steigen schneller als noch vor ein paar Jahren. Was bisher nur theoretische Berechnung war, ist jetzt empirisch belegt ….

Zu den willig Auskunft gebenden „Fachexperten“: [5] „Die Studie stellt sehr glaubhaft dar, dass es eine Beschleunigung des Anstiegs gibt“, urteilt Ingo Sasgen vom Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Forscher hätten nicht nur neue Messdaten verwendet, sondern diese auch sehr gründlich ausgewertet …,
benötig man auch mit ausreichend Unkenntnis gewappnete Moderator*innen. Auch solche finden sich im Öffentlich-Rechtlichen Bereich genug. Dem Aufstieg in „ÖRs“ schadet es nicht, da Unwissen beim Klima und EEG – wie früher in Mathematik – sozusagen zum „GRÜNEN Ton“ gehört, wie es Frau Hendricks und Führungspersonen der GRÜNEN exemplarisch vorleben. In unseren „ÖRs“ wäre eine Karriere mit dem Ausweis des Gegenteils auch sicher ganz schnell beendet.

Bild 2.3 Screenshot des BR IQ-Podcastbeitrags mit dem Interview zur jüngsten Satellitenstudie


Bayerischer Rundfunk, IQ-Wissenschaft und Forschung. Magazin vom 14.02.2018. [10] Moderatorin Birgit Magiera interviewt Herrn Prof. Ingo Sasgen vom AWI:
Moderatorin: Der Klimawandel ist das Menschheitsproblem Nummer eins. Und es löst sich nicht von alleine. Im Gegenteil: Die Meeresspiegel steigen durch die Erwärmung schneller, als ursprünglich angenommen. Das belegen aktuelle Messungen.
Ingo Sasgen: … also aus meiner Sicht bestätigt es eigentlich die Klimaprojektionen die für das Jahr 2100 gemacht wurden auf der Basis von Satellitenbeobachtungen. Also für mich ist dort eigentlich nichts revolutionär Neues, sondern es zeigt eigentlich, dass sich die Meeresspiegelhöhen, also der Anstieg des Meeresspeigels entlang dem Pfad des ungebremsten Klimawandels befindet.
Moderatorin: Also Sie sagen: Was vorher schon theoretisch berechnet war, ist jetzt einfach schwarz auf weiß nachgewiesen.
Ingo Sasgen: Genau. Die Forscher haben Satellitendaten der letzten 25 Jahre ausgewertet. Und gemessen wurden also Meeresspiegelhöhen. Und man muss sich das so vorstellen, dass sich die Satelliten über 1000 km über der Erdoberfläche sind und die messen ein Signal von, ja wenigen Millimetern. Da kann man auch verstehen, warum man da eben das sehr sorgfältig machen muss. Da müssen auch Daten von verschiedenen Satelliten gestückelt werden – jedes Instrument hat ne Drift und es ist eben ganz wichtig, diese ganzen Sachen zu berücksichtigen, um später mit dieser doch vom Satelliten aus gesehen sehr geringen Größe des Meeresspiegelanstiegs verlässlich raus zu kommen.
Moderatorin: Warum steigt dann das Wasser immer schneller?
Ingo Sasgen: Wenn zum Beispiel ein warmes Jahr in Grönland ist, dann verliert das Eisschild mehr Masse, als es durch Schneefall gewinnt. Wenn die Temperatur jetzt immer weiter zunimmt, nimmt auch der Massenverlust der Eisschilde immer weiter zu und das führt dazu, dass der Meeresspiegel auch immer weiter steigt.
Moderatorin: Und dann habe ich eine exponentielle Kurve und nichts Lineares?
Ingo Sasgen: Und wenn man quasi einen Weg vor sich sieht. Man sieht die ersten 25 m. Man möchte aber die nächsten 100 m abschätzen. Nach den 25 Metern liegt der Rest im Nebel. Ja, dann kann man vielleicht die Richtung so ganz gut feststellen, aber die Krümmung ist eben sehr schwierig, sozusagen einfach nur auszumessen. … diese Krümmung ist aber wirklich sehr entscheidend, ob wir jetzt bei 40 cm in 2100 rauskommen, oder bei 80 cm. Und die Studie hat jetzt eben gezeigt: Diese prozessorientierte Berechnung landet bei denselben Werten, wie wenn wir die Krümmung eigentlich einfach fortsetzen.
Moderatorin: Das heißt: es hat Hand und Fuß nach diesen Berechnungen. Wo wird das Wasser stehen in 100 Jahren?
Ingo Sasgen: Also nach diesen Berechnungen wird das Wasser bei ungefähr 65 cm in 100 Jahren stehen … und das ist der wahrscheinlichste Fall …. … und wir wissen aus der Vergangenheit, dass die Eisschilde, auch das antarktische Eisschild, extrem dynamisch eigentlich ist.
Moderatorin: Das heißt, es könnte auch noch schlimmer werden. Der Meeresspeigel könnte noch rasanter ansteigen!
Ingo Sasgen: Genau. Da haben wir jetzt quasi eine Basislinie. Und wir können immer weiter kucken: befinden wir uns noch weiter auf der Kurve, auch zum Positiven hin. Greifen Klimamaßnahmen. Also wenn wir es zum Beispiel schaffen sollten, entsprechend dem Paris-Agreement den Klimawandel auf unter 2 Grad zu begrenzen, würde auch der Meeresspeigel eine andere Kurve nehmen. Im Grunde ist das einzige, was wir machen können, die Umstellung auf Erneuerbare Energien und natürlich die Vermeidung des Energieverbrauchs.
Moderatorin: Haben Sie denn das Gefühl, dass Sie und ihre Kollegen ausreichen Gehör finden?
Ingo Sasgen: Ich denke, dass die Menschen in Deutschland sehr sensibilisiert sind für das Meeresspiegelthema. Insofern denke ich, finden wir Gehör. Aber es sind natürlich immer Interessenkonflikte und ich denke, letztlich geht es darum, dass es uns allen gut geht und wenn es irgendwo auf der Welt ganz besonders schlecht geht, kann es hier in Deutschland auch nicht besonders gut weiter gehen.
Moderatorin, Schlussstatement: Die Meeresspiegel steigen schneller als noch vor ein paar Jahren. Was bisher nur theoretische Berechnung war, ist jetzt empirisch belegt ….

Fazit
Wer sich wundert, dass der interviewte Professor des AWI so gut Bescheid weiß: Er forscht zur Antarktis. Anbei die letzten Forschungsthemen am Institut des Dr. I. Sasgen:
Forschungsthema des Monats Juni 2017: Untersuchungen zum Aufbau und Zerfall des Laurentidischen Eisschildes und mögliche Implikationen für den zukünftigen Meeresspiegelanstieg
Forschungsthema des Monats Dezember 2015: Wechselwirkungen zwischen Eisschilden und der festen Erde: Können schnelle Landhebungen eine Katastrophe in der Westantarktis verhindern?

Im Interview erklärt Herr Professor Sasgen zusätzlich:
„ ... wir wissen aus der Vergangenheit, dass die Eisschilde, auch das antarktische Eisschild, extrem dynamisch eigentlich ist.“
Nun beträgt die Mitteltemperatur der Antarktis wohl zwischen -40 … 30 °C. Es ist deshalb vollkommen unwahrscheinlich, dass durch wenige Grad Temperaturänderung größere Mengen Eis schmelzen würden. Natürlich, die riesigen Antarktisgletscher rutschen in Simulationen beliebig „dynamisch“ ins Meer. Jedoch fragt man sich dabei, ob dieser (von Klimaalarm-Forschungsgeldern abhängige) Professor die letzten Expertisen dazu übersehen – oder im Interview vielleicht bewusst – „vergessen“ hat:

kaltesonne:
Modelle zur Eisentwicklung in der Westantarktis unterscheiden sich um den Faktor 10: Bleibt der Eiskollaps vielleicht sogar aus? (26.6.2017)
Die gute Nachricht: Eis der Ostantarktis ist und bleibt stabil (25.6.2017)
Rasante Abkühlung der Antarktischen Halbinsel lässt Gletscher wachsen (22.5.2017)
Eis der Antarktischen Halbinsel ist stabiler als gedacht (21.5.2017)
Ostantarktischer Eisschild stabiler als gedacht: Eis überstand selbst Wärme des Pliozäns vor 4 Millionen Jahren (29.12.2015)
Geesthachter Helmholtz-Zentrum: Antarktische Temperaturen im 20. Jahrhundert ohne Erwärmungstrend. Klimamodelle können Temperaturverlauf nicht reproduzieren (22.10.2015)

Es ist eine gute Studie … weil viel Datenmaterial

Zweite Darstellung im BR 24. Ein weiterer Experte gibt seine Stellungahme zu dieser herausragenden Studie ab.
Auch hier wird wieder die Menge an Datenmaterial als ausreichender Qualitätsbeleg angezogen. Dass der IPCC für den Pegel zum Jahr 2100 auch die Hälfte als untere Grenze „zulässt“ (Bild 10 Teil 1) bleibt unerwähnt.
Der Autor fragt sich, woher die Befragten von dem „vielen Datenmaterial“ wissen. Die Studie selbst [14] besteht aus ganzen drei Seiten, dafür 32 Literaturhinweisen. Das „umfangreiche Datenmaterial“ findet sich in der Studie nicht (oder soll das Bisschen das Datenmaterial sein?) und genauer nachvollziehen kann man die „bahnbrechenden“ Berechnungen aus den mageren Angaben auch nicht. Anhand der Studienangaben alleine ist (dem Autor als Laien) keine Verifizierung der Aussagen möglich. Es würde lediglich zum Abnicken reichen, falls man sowieso der gleichen Überzeugung ist. Dass die Experten die 32 Literaturstellen auf die fehlenden Detaildaten nachgesichtet haben, wagt der Autor anzuzweifeln.
Seine Vermutung wäre: „Experten“ reicht als Qualitätsbeleg aus, dass das herausgekommen ist, was der IPCC vorgibt.

Bild 2.4 BR 24 Screenshot


BR24 Video: Werner Eckert: …. es ist ’ne gute Studie mit viel Datenmaterial uns sie ist absolut in Übereinstimmung mit dem, was der Weltklimarat ohnehin für das Ende des Jahrhunderts prognostiziert hat. Man kann das mit den Pegelmessungen, die man bislang hatte, konnte man schon sehen, dass dieser Anstieg immer schneller wird, und man kommt etwa bei diesem Wert raus. Wenn nichts passiert, wird es eben deutlich über ein halber Meter sein und auf einen Meter in diesem Jahrhundert zulaufen.

Achgut hat einen Verdacht

Der Staatsfunk soll vermitteln: Deutschland muss mal kurz mit seinem Kohleausstieg die Welt retten

Achgut.com 17.02.2018: Höchste Pegelstände in der Volkserziehung
… Und dann kam der krönende Höhepunkt der Sendung. Der Vorgesetzte von Christine Elsner, der „Umweltexperte des ZDF“, so der Untertitel, Volker Andres kam zu Wort. Seine Kernaussage: „Hauptverantwortlich für den Klimawandel ist die Erderwärmung. Die Klimapolitik ist gefordert.“ Aus einer konstruierten Hiobsbotschaft einer nicht benannten Quelle in den USA wird eine handfeste innenpolitische Forderung abgeleitet.
Volker Andres: Der Druck auf die Politik nimmt zu. Die neue Bundesregierung muss handeln und endlich aus der Kohle aussteigen. Das müsse jetzt schnell erfolgen.
Und plötzlich habe ich eine Idee, warum der Beitrag, in dem alle Bilder von den schmelzenden Gletschern, den aufgewühlten Wellen, den bedrohten Südseeinseln, den Baggern voller Kohle, den Landkarten, mit den untergehenden Küstenstreifen, warum das alles in 2:25 Minuten zusammengefasst den Zuschauern übergestülpt wurde:
Es ging, so vermute ich, um einen Beitrag, der die Politik zum Kohleausstieg bewegen soll. Es ging also darum, das Herzensanliegen der Grünen zu propagieren. Das hat mit Nachrichten nichts zu tun: Da geht es um politischen Druck zu erzeugen und um Volksverdummung und – oder – um Volkserziehung.
Deutscher Kohleverzicht soll die Welt retten
Nehmen wir an, der Umweltexperte Volker Andres glaubt wirklich daran, dass die Welt gerettet wird, wenn in Deutschland zehntausende von Arbeitsplätzen wegfallen und die Kohle mit Gaskraftwerken ersetzt wird. Denn viel mehr Windkraft geht ja kaum noch.
Weiß er, dass Deutschland nur für 2 Prozent des Welt-CO2-Anteils verantwortlich ist, wovon 1,2 Prozent nicht von den Menschen abhängt? Nehmen wir an, Andres weiß es, aber ist so von der menschengemachten Klimaerwärmung überzeugt, dass er seine Arbeit voll in den Dienst der Menschheitsrettung stellt. Dann sollte er nicht als Journalist, sondern dann sollte er sich als Hofberichterstatter des Potsdamer Instituts für Klimafolgeforschung oder gleich dem Weltklimarat anbieten. Angenommen, er kennt den deutschen Anteil nicht, dann sollte er recherchieren lernen, bevor er als leitender Redakteur einer gebührenfinanzierten Anstalt Volksverdummung betreiben darf.

Ergänzende Information zur Pegelthematik

Wie verlief die Vergangenheit

Nun könnte es ja sein, dass der Meerespegel wirklich stärker ansteigt, als es die Tidendaten vermuten lassen, schließlich fehlt denen die Zukunft(-Projektion). Dann stellt sich die Frage, ob es dies nur durch anthropogenes CO2, oder auch natürlich erfolgen kann.
Um es zu bewerten, ist ein Blick in die Vergangenheit nötig. Dieser zeigt, dass nichts vom derzeitigen und (IPCC-) projektierten Pegelverhalten zwangsweise unnatürlich wäre. Eher könnte man behaupten, es wäre die Rückkehr zu vergangenen, natürlichen Pegelständen. Was dagegen sicher „helfen“ würde, ist das Kommen der überfälligen, nächsten Eiszeit, welche ja regelrecht herbeigesehnt wird. Bild 2.5 zeigt, wie extrem kurz die Wamzeitphasen gegenüber den sehr langen Kaltzeitphasen sind. Am Ende einer solchen, glücklichen Warmphase der seit ca. 1 Millionen Jahren andauernden Eiszeitzyklen leben wir gerade und kämpfen mit allem Einsatz, dass die Wärme durch unser Einschreiten noch schneller enden möge. Das haben viele wohl nicht im Kopf.
EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Bild 2.5 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt


Bild 2.6 zeigt den Verlauf seit der vorletzten Eiszeit (die letzte hatte ihren Kältetiefpunkt vor ca. 25. … 20.000 Jahren mit dem niedrigsten Meerespege. Erkennbar, dass der Meerespegel aktuell die „übliche“ Warmzeithöhe hat und die Warmzeit sich am Ende ihrer „üblichen“ Länge befindet.

Bild 2.6 [9] Verlauf des Meerespegels seit ca. 140.000 Jahren. Grüner Pfeil, Beginn Holozän-Zeitalter (Bild vom Autor ergänzt)

Die Bilder 2.7 / 2.8 zeigen einen kurzfristigeren Verlauf mit „üblichen“ Pegelschwankungen bis zu 1,5 m. Erkennbar, dass der Pegel aktuell niedrig ist, sowie, dass Pegeländerungen in der Vergangenheit recht sprunghaft erfolgten, die letzten 2000 Jahre in der Spanne aber deutlich abnahmen.
EIKE 07.04.2016:[9] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Bild 2.7 Pegelverlauf der letzten 5000 Jahre bei den Malediven. [9] Fig. 1. Sea level curve for the last 5000 years for the Maldives. Quelle: Mörner

Noch ein vergleichbares Bild in gröberer Auflösung. Es zeigt noch deutlicher, dass sich der Meerespegel derzeit an einem historisch niedrigen Niveau befindet.

Bild 2.8 Pegelverlauf der letzten 6000 Jahre


Quellen
[1] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[2] EIKE 18.02.2018: Meeresspiegel: Steigen und Fallen – Teil 4a – ein sogar noch stärkerer Anstieg aus Nichts
[3] EIKE 19.02.2018: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu
[4] kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All
[5] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller
[6] EIKE 13.04.2015, K. E. Puls: Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht
[7] ScienceScepticalBlog 13. April 2012: Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel
[8] Bayerischer Rundfunk 13.02.2018: Wenn der Meeresspiegel steigt und Inseln versinken
[9] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren
[10] BR IQ-Podcastbeitrag mit dem Interview zur jüngsten Satellitenstudie

[11] PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[12] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[13] Nils-AxelMörner August 2017: Sea Level Manipulation; Intern. J. Engineering Science Invention, ISSN (Online): 2319 – 6734, ISSN (Print): 2319 – 6726
[14] R. S. Nerem at. al.: Climate-change–driven accelerated sea-level rise detected in the altimeter era
Studie: 3 Seiten, 33 Quellenverweise
[15] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[16] EIKE 30.12.2017: Ohne den Klimawandel hätte das gleiche Wetter nicht so schlimme Folgen…
[17] kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All




Alarmisten werfen das Handtuch bzgl. der schlechten Qualität von Temperatur­daten – …

Station am Raleigh Durham Flughafen – auf Asphalt – direkt neben der Rollbahn. Photo: Google Earth


USHCN-Klimastation bei Napa, Kalifornien. Photo: Anthony Watts [9,7 Feet ≈ 2,95 m]

Man sagte uns, dass dies „keine Rolle spielt“ und dass „das Monitoring-Netzwerk gute Daten liefert“. Hinter den Kulissen jedoch erfuhren wir, dass NOAA/NCDC einknickten, als wir davon berichteten, und klammheimlich einige der schlimmsten Stationen still legten, während sie gleichzeitig fieberhaft und verzweifelt PR-Initiativen lostraten, um das Narrativ der „guten Daten“ aufrecht zu erhalten.

Man lese meinen Bericht über den Zustand des US Historical Climate Network:

Jener Report aus dem Jahre 2009 (veröffentlicht mit Hilfe des Heartland Institute) [hier] erregte eine Flut von Kritik sowie eine Untersuchung seitens des US-Büros des General-Inspekteurs, welcher schrieb:

Fehlende Übersicht, fehlende Erfüllung der Kriterien und ein laxer Begutachtungs-Prozess des Programms des globalen Klimawandels vom State Departments haben das Büro des General-Inspekteurs davon überzeugt, dass „die Entscheidungsträger sich nicht auf die Daten verlassen können“ und dass nicht sichergestellt werden kann, „dass öffentliche Gelder auf angemessene Weise ausgegeben worden sind“.

Der Untersuchungsbericht des General-Inspekteurs steht hier. Auf der AGU15 hielt ich einen Vortrag zum Thema „Qualität der Aufstellungsorte von Temperaturstationen, welche bei der Berechnung von Temperaturtrends eine große Rolle spielt“ (hier)

Darin zeigte ich mittels zweier Graphiken, wie schlecht das bisherige Netzwerk ist:

Vergleiche von 30-Jahre-Trends von konformen USHCN-Stationen der Klassen 1 und 2 mit nicht-konformen Stationen der Klassen 3, 4 und 5 sowie mit den von der NOAA letztendlich adjustierten V2.5 USHCN-Daten in den kontinentalen USA. Graphik von Evan Jones.


Vergleiche der Mitteltemperatur von ordnungsgemäß platzierten USHCN-Stationen (konforme Klassen 1 und 2) mit schlecht platzierten USHCN-Stationen (nicht konform, Klassen 3, 4 und 5) von CONUS mit offiziellen, von der NOAA adjustierten USHCN-Daten (V2.5) des gesamten USHCN-Datensatzes (konform und nicht konform). Graphik von Evan Jones.

Nun haben einige der genau gleichen Menschen, welche meine Bemühungen sowie die Bemühungen Anderer, diese Schwächen der wissenschaftlichen Gemeinschaft bekannt zu machen, so vernichtend kritisiert hatten, im Wesentlichen eine Kehrtwende vollzogen. Sie schrieben eine Studie, in der sie ein neues globales Monitoring-Netzwerk forderten wie das des United States Climate Reference Network (USCRN), welches ich als den einzigen möglichen Weg ansehe, um Temperaturen ordentlich zu messen und langfristige Temperaturtrends daraus abzuleiten.

Während meiner jüngsten Reise zum Kennedy Space Center (ermöglicht durch großzügige Spenden der WUWT-Leserschaft) habe ich eine ASOS-Station alten Stils auf dem Flughafen entdeckt, die dicht neben einer der neuen USCRN-Stationen stand, neben der Rollbahn für die Shuttles. Offenbar hatte man beide dort aufgestellt, um Vergleiche zwischen ihnen anzustellen. Oder auch, weil sie vielleicht der ASOS-Station nicht trauen konnten, wenn sie am dringendsten gebraucht wurde – nämlich während der Landung eines Shuttles, wo genaue Temperaturwerte von entscheidender Bedeutung sind, um die Dichte [density altitude] zu berechnen und damit das glide ratio. Ich hoffe, in einem späteren Beitrag etwas zum Vergleich zwischen beiden schreiben zu können.

Klima-Monitoring-Stationen von ASOS und USRCN Seite an Seite nahe der Landebahn der Shuttles auf dem Kennedy Space Center. 28.2.2018, Photo: Anthony Watts.

Und hier eine Luftaufnahme der beiden Standorte:

Stelle der ASOS- und USRCN-Sensoren nahe der Landebahn der Shuttles auf dem Kennedy Space Center. Bild: Google Earth mit Anmerkungen von Anthony Watts.


Mit der Auswahl der Stellen und den dreifach überzähligen [redundant], hypermodernen belüfteten Lufttemperatur-Sensoren ist die USCRN-Station eindeutig der bestmögliche Weg zur Messung langzeitlicher Temperaturtrends in 2 m Höhe. Unglücklicherweise bekommt die Öffentlichkeit die entsprechenden Temperaturaufzeichnungen in den „Klimazustands-Meldungen“ der NOAA nie zu sehen. Stattdessen verlässt man sich auf die antiquierten und kontaminierten COOP und GHCN-Netzwerke samt deren hoch verzerrten und dann adjustierten Daten.

Für diese Leute ist es folglich nicht nur ein Schritt in die richtige Richtung, wenn sie jetzt ein weltweites Temperatur-Monitoring-Netzwerk nach Art des USCRN fordern, sondern auch ein klarer Hinweis darauf, dass sie das bestehende COOP/USHCN-Netzwerk als unzuverlässig und unsicher ansehen, wenngleich sie das auch niemals zugeben würden. Sie räumen damit ein, dass diese bestehenden Netzwerke „ungeeignet für den Zweck“ sind, und begrüßen in Wirklichkeit ein wahrhaft „zweckdienliches“ globales System zur Überwachung der Lufttemperatur; eines, dass nicht aufgrund der Standorte stark verzerrt ist, keine Schwächen bzgl. Ausrüstung und Instrumentierung aufweist und keinerlei Adjustierungen bedarf.

Ich begrüße diese Bemühungen und stelle mich hinter sie. Wenn ich das nämlich mache, bedeutet das das Ende von NASA GISS und HadCRUT, deren Betreiber (Gavin Schmidt und Phil Jones) einige der parteiischsten, herablassendsten und überheblichsten Wissenschaftler sind, welche die Welt jemals gesehen hat. Sie sollten nicht die Verwalter dieser Daten sein, und dies wird ihre Vornehmheit beenden. Zugunsten von Phil Jones muss man sagen, dass sein Name auf dieser neuen Studie zu finden ist, was bei Gavin Schmidt nicht der Fall ist, wie zu erwarten war.

Hier ist etwas im Gange, hinter das sich Alarmisten und Skeptiker gleichermaßen stellen sollten. Mehr dazu später.

Und hier ist diese Studie (man beachte, dass sie meine Arbeit in der Studie von Fall et al. 2011 als Referenz anführen)

Für ein globales treuhänderisches Netzwerk von Referenz-Messungen der globalen Temperatur

P. W. Thorne, H. J. Diamond, B. Goodison, S. Harrigan, Z. Hausfather, N. B. Ingleby, P. D. Jones, J. H. Lawrimore, D. H. Lister, A. Merlone, T. Oakley, M. Palecki, T. C. Peterson, M. de Podesta, C. Tassone, V. Venema, K. M. Willett

Abstract

Es gibt sehr starke Beweise dafür, dass sich das Klimasystem seit der Durchführung instrumenteller meteorologischer Beobachtungen erwärmt hat. Der 5. Zustandsbericht des IPCC kam zu dem Ergebnis, dass die Beweise für eine Erwärmung eindeutig waren. Allerdings verbleiben aufgrund nicht perfekter Messungen und allgegenwärtiger Änderungen der Messungen und der Messverfahren Unsicherheiten hinsichtlich vieler Details dieser historischen Änderungen. Diese Unsicherheiten stellen den Trend oder die Größenordnung insgesamt der Änderungen im globalen Klimasystem in Frage. Aber sie sorgen dafür, dass das Bild unklarer als nötig ist, vor allem im lokalen Maßstab, obwohl dort viele Entscheidungen hinsichtlich von Anpassungs-Maßnahmen getroffen werden müssen, sowohl derzeit als auch in Zukunft. Ein Satz treuhänderischer Referenz-Messungen grundlegender Klima-Variablen hoher Qualität wird es zukünftigen Generationen ermöglichen, rigorose Abschätzungen zukünftigen Klimawandels und -variabilität vorzunehmen. Damit kann man die Gesellschaft mit den bestmöglichen Informationen zur Stützung zukünftiger Entscheidungen versorgen. Hier begründen wir, dass mittels Implementierung und Erhalt eines stabilen und meteorologisch gut abgesicherten Referenz-Netzwerkes die heutige wissenschaftliche Gemeinschaft zukünftigen Generationen einen besseren Satz von Beobachtungen hinterlassen kann. Dies wird bei Entscheidungen über die zukünftige Anpassung helfen und bei der Überwachung und Quantifizierung der Effektivität international abgestimmter Anpassungs-Maßnahmen. Dieser Artikel bietet den Hintergrund, nämlich rationale, meteorologische Prinzipien, und umreißt praktische Überlegungen, was in ein solches Netzwerk eingehen müsste, und auch die wahrscheinlich anfallenden Vorteile. Die Herausforderung besteht natürlich darin, wie man eine solche Vision in eine langfristige nachhaltige Tauglichkeit überführen kann, welche die notwendigen und gut charakterisierten Messreihen ergibt, die der globalen Wissenschaft und zukünftigen Generationen zum Vorteil gereichen.

Einführung: historische Beobachtungen, Daten-Probleme und Homogenisierung

[Anmerkung des Übersetzers: Es folgt eine lange und detaillierte Beschreibung hinsichtlich Instrumente, Aufstellung, Standorte, Messverfahren und so weiter. Aus Zeitgründen und wegen der Länge dieser Ausführungen wird hier auf eine Übersetzung verzichtet. Der letzte Absatz lautet in der Übersetzung so:]

Es gibt viele mögliche Metriken, um den Erfolg eines globalen Referenz-Klimanetzwerkes auf dem Festland zu beurteilen, wie es sich entwickelt, wie etwa Anzahl und Verteilung von Referenz-Klimastationen oder der Prozentanteil der Stationen, welche den strikten Referenz-Klimakriterien genügen, die in diesem Artikel beschrieben wurden. Um jedoch im vollen Umfang die Bedeutung eines solchen globalen Klima-Referenznetzwerkes erfassen zu können, müssen wir uns in die Lage der Wissenschaftler versetzen, welche in der 2. Hälfte des 21. Jahrhunderts oder noch später arbeiten. Und das nicht nur bzgl. der Wissenschaftler, sondern auch bzgl. von Politikern, Beamten und Bürgern, die vor einer potentiell schwierigen Entscheidung stehen angesichts eines variablen und sich ändernden Klimas. In diesem Zusammenhang müssen wir jetzt aktiv werden und eine Vorstellung entwickeln, welche ihren Erfordernissen hinsichtlich eines soliden historischen Zusammenhangs gerecht wird, den sie verwenden können beim Treffen von wissenschaftlich fundierten Entscheidungen hinsichtlich der Maßnahmen zur Anpassung an das Klima. Daher ist es unsere Verpflichtung, all diesen Personen nach bestem Wissen die bestmöglichen Daten zu hinterlassen. Dies ist das Mindeste, was nachfolgende Generationen von uns erwarten können, um präziser anzugeben, wie genau sich das Klima denn nun geändert hat.

Die ganze Studie steht hier: http://onlinelibrary.wiley.com/doi/10.1002/joc.5458/full
Link: https://wattsupwiththat.com/2018/03/02/alarmists-throw-in-the-towel-on-poor-quality-surface-temperature-data-pitch-for-a-new-global-climate-reference-network/
Übersetzt von Chris Frey EIKE




Flashcrash Klimaalarm. Wer Klima­alarm posaunt, bekommt immer recht (Teil 1)

Der Autor nimmt diesen „Klimawandel-FlashCrash“ (wieder) zum Anlass, anhand einer Sichtung zu zeigen, wie viel Wahrheitsgehalt in der Information stecken könnte, alternativ, ob sie einfach unter die Rubrik „Volksverdummung“ gehört.

Wenn sich unsere Medien mit „Information“ geradezu überschlagen

Anbei eine kleine Listung zum Zeigen, wie sich eine (passende) Meldung schlagartig und sprichwörtlich flächendeckend über Deutschland „ergießt“. Es ging um eine Meerespegel-Studie [14], welche „belegt“, das die Satellitendaten bisher falsch ausgewertet wurden und die „richtige“ Auswertung, zusammen mit der Einberechnung bisher unterschätzter, sonstiger Klimaeinflüsse zu einem zusätzlichen, quadratischen Anstiegszuwachs führen würde und damit die höchsten IPCC-Pegelszenarien bestätigt:
Bayerischer Rundfunk 13.02.2018 : Steigende Pegel Wenn der Meeresspiegel steigt und Inseln versinken
Weil der Klimawandel das Eis der Polarregionen schmelzen lässt, steigt der Meeresspiegel. Und das immer schneller. Die Folgen sind verheerend.
tagesschau.de: Satellitenmessungen: Meeresspiegel steigt schneller als gedacht …
welt.de: Klimawandel: Meeresspiegel steigt schneller als gedacht
tagesspiegel.de: Erderwärmung: Wie stark steigt der Meeresspiegel?
zeit.de: Meeresspiegel: Er steigt und steigt und steigt
spiegel.de: Meeresspiegel steigt immer schneller
rtlnext.rtl.de: Der Meeresspiegel steigt drastischer an als angenommen
klimaretter.info/forschung: Meeresspiegel steigt immer schneller

Und nur eine einsame Stimme* kritisch referiert

*natürlich neben EIKE und kaltesonne, welche aber keine politischen Tagesbeiträge anbieten.
Achgut.com 17.02.2018: Höchste Pegelstände in der Volkserziehung
… der Beitrag war 2:25 Minuten lang. Soviel Zeit wird in der 19:00 Uhr Nachrichtensendung nur den wichtigsten Weltereignissen zur Verfügung gestellt. Weder Petra Gerster noch die Autorin des Beitrags, Christine Elsner, geben auch nur den geringsten Hinweis, wer diese „neuen Erkenntnisse“ veröffentlicht hat.
Die Kernaussage des Beitrags: Die Meeresspiegel steigen schneller als angenommen. Diesen neuen Studien zufolge steigt der Meeresspiegel bis zum Ende des Jahrhunderts um 65 cm an, das wäre doppelt soviel, wie bisher berechnet. Doch der 65 cm Anstieg – manchmal sind es sogar 75 cm – ist eine uralte Behauptung aus der Alarmküche von Steven Nerem, der in der University of Colorado die Sea Level Research Group anführt. Mit seinem Vortrag, der genau diese Behauptung zum Inhalt hat, tourt er seit Jahren durch die Welt. Das Problem von Steven Nerem: Die Messungen des Meeresspiegels ergeben nicht die geringsten Hinweise, die seine Behauptungen rechtfertigen. Er stützt sich auf Computermodelle, Hochrechnungen und Berechnungen, nicht auf konkrete Messungen …

Die Studie

Rezensionen darüber – zum Beispiel bei WUWT wurden auf EIKE bereits in Übersetzungen publiziert:
Einmal direkt über die Studie:
[12] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
Sowie ergänzend dazu:

[1] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[2] EIKE 18.02.2018: Meeresspiegel: Steigen und Fallen – Teil 4a – ein sogar noch stärkerer Anstieg aus Nichts
EIKE 19.02.2018: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu

Worum es in der neuen Studie ging, könnte einigen „haften“ geblieben sein, was das Besondere daran ist, vielleicht weniger. Deshalb anbei eine Wiederholung.
Die Kernaussage der neuen Studie lautet: [1] … Nerems Team berechnete, dass die Rate des Meeresspiegel-Anstiegs von 1,8 mm pro Jahr im Jahre 1993 auf etwa 3,9 mm pro Jahr heute gestiegen ist als eine Folge der globalen Erwärmung.
Falls sich der Meeresspiegel-Anstieg mit der gegenwärtigen Rate weiter beschleunigt, sagt Nerem, würden die Ozeane der Welt im Laufe dieses Jahrhunderts um etwa 75 cm steigen. Das liegt auf einer Linie mit den Projektionen des IPCC aus dem Jahr 2013.

Vorspann: Satellitendaten sind nicht „in Stein gemeißelt“, sondern das Ergebnis laufender Anpassungen

Die Satellitendaten des Meerespegels zeigen seit Messbeginn offiziell einen linearen Anstieg (je nach Quelle) zwischen 2,9 … 3,31 mm/Jahr (Bild 1). Das Bild 1 zeigt einmal den Mittelwert mit der Regressionsgeraden und dann die gleiche Kurve, zusätzlich mit den Schwankungen im Jahresverlauf.

Bild 1 Satellitenpegel ohne / mit Saisonsignal. Quelle: AVISO+ Mean Sea Level product and image interactive selection, Quelle

Korrektur(vorschlag) zu einem geringeren Pegelanstieg im Jahr 2015

Vor drei Jahren gab es eine Studie, welche diesen Anstieg für zu hoch hielt und aufgrund von Messfehlern der Satelliten einen reduzierten Anstieg von 2,6 … 2,9 mm/Jahr ermittelte:
Nature 11 May 2015: Unabated global mean sea-level rise over the satellite altimeter era
The rate of global mean sea-level (GMSL) rise has been suggested to be lower for the past decade compared with the preceding decade as a result of natural variability1, with an average rate of rise since 1993 of +3.2 ± 0.4 mm yr−1 (refs 2, 3). However, satellite-based GMSL estimates do not include an allowance for potential instrumental drifts (bias drift4,5). Here, we report improved bias drift estimates for individual altimeter missions from a refined estimation approach that incorporates new Global Positioning System (GPS) estimates of vertical land movement (VLM). In contrast to previous results (for example, refs 6, 7), we identify significant non-zero systematic drifts that are satellite-specific, most notably affecting the first 6 years of the GMSL record. Applying the bias drift corrections has two implications. First, the GMSL rate (1993 to mid-2014) is systematically reduced to between +2.6 ± 0.4 mm yr−1 and +2.9 ± 0.4 mm yr−1, depending on the choice of VLM applied …

Weil man den Pegel vor Ort nicht genau genug messen kann, misst man aus 800 … 1450 km Entfernung „genauer“

Dazu muss man berücksichtigen, dass die Messsatelliten zur Ermittlung der Meerespegel in 800 … 1400 km Höhe kreisen. Behauptet wird, aus dieser Entfernung könne man Meereshöhen-Differenzen von Zehntel Millimetern ermitteln. Wenn vergleichsweise der Stadtrat von Venedig den Pegelstand am Markusdom genau erfahren möchte, würde er dazu in Hamburg anrufen (1290 km), damit von dort aus mittels Radar genauer als vor Ort gemessen werde.
Man kann es nicht. Aber das Signal lässt sich so hoch auflösen.
An Ungenauigkeit bleiben Driften der Messgeräte, Änderungen der Wellengeschwindigkeit des Radarsignals und die Bestimmung der Satellitenhöhe, die sich laufend durch die „Schwerkraftbuckel“ und „Herunterfallen“ der Satellitenbahnen verändert. Diese Fehler versucht man mit „Algorithmen“ und Kalibrierungen so weit möglich richtigzustellen.
Würden diese Adjustierungen mittels gut begründeter und vor allem im Detail veröffentlichter Verfahren erfolgen, hätten sie einen Vorteil gegenüber den Tidenpegelmessungen. Denn (auch) diese sind nicht frei von Messfehlern und Nachjustierungen, bis hin zum Datenbetrug verändern.
Anbei Beispiele dazu:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug
Man würde sich deshalb schon wünschen, eine von solchen „Interpretationsunterschieden“ befreite, neutrale Messstelle zu haben.

Bisher ungelöst: Warum steigt der Satellitenpegel doppelt so schnell wie der Tidenpegel?

Komischer Weise verlaufen Tidenpegel und durch Satelliten gemessene nicht gleich. Die Satelliten zeigen den doppelten Anstiegswert. Die (überzeugende) Erklärung dieses Rätsels hat noch niemand gefunden (oder der Autor hat es übersehen).
Ein bekannter – kritisch eingestellter – Pegelforscher hat dazu eine Meinung:
Nils-AxelMörner August 2017: [7] [13] Sea Level Manipulation
Abstract: … Global tide gauge data sets may vary between +1.7 mm/yr to +0.25 mm/yr depending upon the choice of stations … A general stability has been defined in sites like the Maldives, Goa, Bangladesh and Fiji.
In contrast to all those observations, satellite altimetry claim there is a global mean rise in sea level of about
3.0 mm/yr. In this paper, it is claimed that the satellite altimetry values have been “manipulated”. In this
situation, it is recommended that we return to the observational facts, which provides global sea level records
varying between ±0.0 and +1.0 mm/yr; i.e. values that pose no problems in coastal protection.

Bild 2 Vergleich Satellitenpegel mit Tidenpegel. Vom Autor zusammengestellt. Quellenbild Tidenpegel: IPCC WG1 AR5 Figure 13.3 c) Yearly average global mean sea level (GMSL) reconstructed from tide gauges by three different approaches. Orange from Church and White (2011), blue from Jevrejeva et al. (2008), green from Ray and Douglas (2011) (see Section 3.7)


Zudem versagt die Satellitenmessung am Strand, also genau dort, wo die Küsten betroffen sind. Erst in ca. 100 km Entfernung davon beginnen Satelliten mit genauerem Messen.

Eine Korrektur folgt der anderen

Wie bereits ausgeführt: Auch bei den Satellitendaten sind Adjustierungen und Korrekturen üblich und werden teils ohne Publizierung nachvollziehbarer Datenangaben vorgenommen. Einen Grund sieht man im folgenden Bild 3, welches die „Zusammenstückelung“ des Gesamtverlaufes aus den abweichenden Messkurven verschiedener Satelliten (-Generationen) zeigt.
Dabei sind nicht nur die Satellitenkurven selbst abweichend. Auch die Messgenauigkeit der verschiedenen Satelliten ist unterschiedlich und die angewendeten Adjustierungen (zur Ermittlung des „richtigen“ Messwertes) angeblich teils so fehlerbehaftet, dass sie auch rückwirkend verändert werden. Was dabei nicht so deutlich gesagt wird: Ob die neuen Korrekturen dann die „wirklich richtigen“ sind, weiß niemand.
Als Folge ändern sich auch die Satellitendaten regelmäßig und nachträglich.

Bild 3 Zusammensetzung der Satellitenkurve aus den Einzelmessungen der Satelliten. Quelle: AVISO+ Mean Sea Level product and image interactive selection

Was nicht zusammenpasst, wird angeglichen – und nicht als falsch verworfen

EIKE 13.04.2015, K. E. Puls: [6] Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht
... Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. … Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections” fündig. Dort heißt es: ’sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)‘ Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.“

Bild 4 [7] Satelliten-Pegeldifferenzen vor und nach einer Adjustierung

In aller Regel wird der Anstieg immer höher

Zwar wird seit ca. 20 Jahren „ganz genau“ das Klima der nächsten Jahrhunderte simuliert und die Programme mit „ganz genauen“ Daten kalibriert. Trotzdem finden Forscher immer neue Parameter, die „bislang deutlich unterschätzt wurden“ und teils erhebliche Datenänderungen bewirken. So ist es beispielhaft in den Meldungen zur aktuellen Pegelstudie zu lesen:
Hannoversche Allgemeine 27.01.2016: Klimaschock Meeresspiegel steigt doppelt so schnell an
Deutsche Klimaforscher schlagen Alarm. Der weltweite Anstieg der Meeresspiegel durch die Klimaerwärmung ist bislang deutlich unterschätzt worden. Das könnte auch für Deutschlands Küstenregionen schwere Folgen haben.
… Der Anstieg des Meeresspiegels ist vermutlich doppelt so hoch wie gedacht, heißt es in einer aktuellen Studie des Instituts für Geodäsie und Geoinformation an der Universität Bonn, die jetzt in der US-Fachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht wurde. Ein Irrtum, der für die Küstenregionen in Deutschland schwere Folgen haben könnte. Die Gefahr von Sturmfluten wächst.
Bislang gingen Forscher davon aus, dass die Meeresspiegel aufgrund der Ausdehnung des wärmer werdenden Wassers jährlich zwischen 0,7 und einem Millimeter ansteigen würden. Bei erneuter Prüfung der Satellitendaten aus den Jahren 2002 bis 2014 habe sich aber ergeben, dass sie sogar um 1,4 Millimeter pro Jahr ansteigen werden – doppelt so stark wie bisher vermutet. Dieser Faktor sei bislang deutlich unterschätzt worden, erläuterte Professor Jürgen Kusche, Ko-Autor der Studie.
Zufügung: Im Artikel erzählt der Leitautor dieser Studie als „Beleg“:

… Während das Meer auf den Philippinen mit 15 Millimetern im Jahr fünfmal so stark wie der weltweite Durchschnitt ansteige …
Dazu erlaubt sich der Autor den Hinweis, dass genau dies (bei den Philippinen steige der Pegel überproportional) nicht richtig ist, wie man leicht anhand der Tidenpegel-Auswertungen dieser Gegend zeigen kann[15] und es die zuständige Behörde inzwischen auch teilweise korrigierte [16]. Die Philippinen sind stark vulkanisch geprägt, haben also starke Land-Hebungen und Senkungen. Zudem liegen Küstenstädte auf Sumpfmarschen und versinken durch die extreme Populationszunahme und in Folge massiven Grundwasserentnahmen buchstäglich in den Untergrund. Am schlimmsten betroffen davon ist wohl Manila:

EIKE 13.08.2017: [15] Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
In Indonesien ist es teils noch schlimmer. Der Klimawandel-Pegelanstieg ist dort natürlich auch eine gemeldete Bedrohung „ … könne in 200 bis 2.000 Jahren akut werden … “, es wird (in Österreich) aber wenigstens zugegeben, dass das selbst verursachte Problem des Versinkens viel größer und dazu akut ist:

news@ORF.at: Boden unter der Stadt ausgehölt
Die indonesische Millionenmetropole Jakarta schaut in eine ungewisse Zukunft. Der durch den Klimawandel steigende Meeresspiegel ist eine Bedrohung, eine weitere ist ebenfalls menschengemacht: Die Stadt versinkt…. Meeresspiegel steigt, Stadt sinkt ab.
Das Problem mit dem steigenden Meeresspiegel hat Jakarta mit Millionenmetropolen in Asien wie Mumbai, Schanghai, Hongkong und anderen gemeinsam, wie es vor einiger Zeit in einer Studie des Instituts Climate Central hieß. Das Problem könne in 200 bis 2.000 Jahren akut werden, hieß es zum zeitlichen Horizont…. Es habe sich herausgestellt, dass der Klimawandel nicht der einzige Grund für das Problem ist. „Das Problem, hat sich gezeigt, ist das Sinken der Stadt selbst.“

Verschluckt von der Erde“
Faktisch sinke Jakarta schneller als jede andere Metropole auf der Welt, rascher als der Meeresspiegel steige – „so surreal schnell, dass Flüsse manchmal flussaufwärts fließen“, normale Regenfälle Stadtviertel in Sümpfe verwandelten und Gebäude langsam im Boden verschwänden, .. Die Hauptursache des Problems seien illegale Brunnengrabungen, so die Zeitung. Diese würden grundwasserführende Schichten im Boden, auf denen die Stadt steht, „Tropfen für Tropfen austrocknen“, ähnlich wie wenn man die Luft aus einem großen Polster unter ihr lasse. Etwa 40 Prozent Jakartas lägen mittlerweile unter Meeresspiegelniveau. Einzelne Teile der Stadt nahe der Küste seien über vier Meter abgesunken.
Eigentlich nicht vorstellbar, dass ein dazu forschender Professor dies nicht weiß.

Was steht in der neuen Studie

Wurde gerade erst vor zwei Jahren bereits auf einen „doppelt so schnell“ steigenden Pegel korrigiert (vorheriger Absatz), weil die jüngeren Satellitendaten „ein Irrtum“ waren, sagt die neue Studie, dass die alten Satellitendaten ebenfalls (immer noch) falsch waren und nun (wieder) korrigiert werden müssen.

R. Steven Nerem, der leitende Verfasser der neuen Studie

Eine gute Übersicht zum Verfasser und seiner „wissenschaftlichen Neutralität“ gab es auf WUWT (Übersetzung): [12] Also, Erstes zuerst – wer ist R. Steven Nerem?
Steve Nerem ist ein Alarm-Evangelist* des Meeresspiegel-Anstiegs – es gibt keine andere angemessene Beschreibung. Ich zweifle nicht daran, dass er wirklich an seine Causa glaubt, ist er doch im vorigen Jahr durch die Welt gereist mit immer dem gleichen Vortrag – immer mit identischem Abstract – in San Francisco (Dec 2016), Bologna (Feb 2017), New York  (July 2017), Miami (Oct 2017) und New Orleans (Dec 2017). Nerem ist einer der Ko-Autoren des infamen Kommentars im Journal Global and Planetary Change, worin er versucht die Studie aus dem Jahr 2004 von Nils-Axel Mörner im gleichen Journal zu widerlegen. Im 3. Teil von SEA LEVEL: Rise and Fall schrieb ich über den Austausch Mörner/Nerem/Mörner.
Steve Nerem war auch Ko-Autor des schreiend alarmistischen Artikels in der Washington Post im Mai 2016 mit dem Titel „10 things you should know about sea level rise and how bad it could be”, in welchem gesagt wird dass „Wissenschaftler schätzen, dass wenn sich die Welt um 4 bis 5°C erwärmt, was für das Ende des Jahrhunderts projiziert wird, wenn wir keine Maßnahmen gegen den Klimawandel ergreifen, alles Eis wahrscheinlich schmelzen wird. Das würde einen Meeresspiegel-Anstieg um 70 Meter bewirken“.

So wurden die neuen, alarmistischen Werte in der Studie [14] ermittelt

Wie die vorhergehenden Beispiele zeigten, sind regelmäßige „neu-Findungen“ der „wahren“ Satelliten-Pegeldaten nichts Neues, sondern gehören zum AGW-Klimawandel-Alltag.
Die Autoren der neuen Studie sagen nun:
-A: Dass man seit 1993 die Satellitendaten falsch korrigiert hat,
-B: zusätzlich der Meerespegel durch Naturereignisse wie den Pinatubo-Ausbruch, die ENSO-Zirkulation und El Ninos „gedrückt“ wurde (was bisher nicht richtig berücksichtigt wurde) und in Wirklichkeit deshalb ein stärkerer Pegelanstieg „gewesen“ wäre.
SPON 12.02.2018: [5] ... Ergebnis: Die ersten Jahre der Satellitenmessungen hatten zu hohe Werte ergeben, das Messgerät war anscheinend falsch eingestellt; die Werte haben die Forscher nun nach unten korrigiert. Entsprechend größer fiel der Meeresspiegelanstieg in den folgenden Jahren aus … So seien zahlreiche Effekte, die nichts mit dem Klimawandel zu tun haben, herausgerechnet worden.
Wenn man alle diese Fehler nun (endlich) richtig korrigiert – wovon die Studienautoren ausgehen:

Bild 5 [2] Verschiedene Korrekturen der Studie

– ergibt sich für den Pegelanstieg das folgende, wahre Bild (Bild 6).
Beachten: Dieser Pegelverlauf ist nicht der gemessene Pegel nach neuen Korrekturen, sondern der Pegel, welcher sich eingestellt hätte (also gemessen worden wäre), falls die Satelliten-Messwerte richtig korrigiert worden wären und zusätzliche Umweltereignisse nicht den zusätzlichen, Klimawandel-bedingten Anstieg, unterdrückt hätten.

Bild 6 „Wirklicher“ Pegelverlauf laut der neuen Studie. Quelle: Homepage R. Steven Nerem


Die wichtige Kernaussage dazu ist:
[8] Der Anstieg beschleunigt sich jedes Jahr um 0,08 Millimeter im Quadrat. Ihren Satellitenmessungen und Berechnungen nach könnte der Anstieg im Jahr 2100 bereits zehn Millimeter pro Jahr betragen. Der Durchschnittspegel an den Küsten könnte dann um 65 Zentimeter höher liegen als im Jahr 2005.
Wie umfassend die bisher angeblich nicht quantifizierbaren Fehler und notwendigen Korrekturen ausgeführt wurden, zeigt das folgende Bild 7.

Bild 7 Pegelverlauf der Satellitenmessungen (grün, von Bild 1) und „berechneter“ Pegelverlauf der Studie (blau, von Bild 6) auf den Anfangswert normiert. Bilder vom Autor übereinander kopiert.


Das folgende Bild 8 zeigt noch etwas deutlicher, aus welchen Ungenauigkeiten dank „verbessertet, statistischer Methoden“ „ganz genaue“ Verläufe berechnet werden.
Vor allem lässt sich daran erkennen, wie stark die Absenkungen der frühen Satellitendaten sind:
SPON [5]: … Ergebnis: Die ersten Jahre der Satellitenmessungen hatten zu hohe Werte ergeben, das Messgerät war anscheinend falsch eingestellt; die Werte haben die Forscher nun nach unten korrigiert. Entsprechend größer fiel der Meeresspiegelanstieg in den folgenden Jahren aus.

Bild 8 Darstellung von Bild 6 mit den original-Pegelkurven der Satelliten (Bild 3) auf den Endwert normiert

Das ist so, als wenn man die Temperaturentwicklung von März bis August misst und dann für die kommenden 10 Jahre extrapoliert. Hilfe, wir werden verbrennen!

Auf WUWT wurde genau dies wie folgt rezensiert und zeigt den Unterschied einer Pseudoinformation bei SPON und der Seite „Klimaretter.Info“, unserer Beraterin der Berliner Politikkaste, zu der einer informativen Seite (Übersetzung EIKE): [12] WUWT:Wie haben sie das gemacht?
Offenbar ganz einfach. Im jüngsten Zeitraum der Meeresspiegel-Aufzeichnungen via Satelliten gibt es einfach keinen Spielraum mehr für größere Änderungen – es ist schwierig, die Daten zu ändern oder zu adjustieren – das Adjustierungs-Budget ist bereits ausgeschöpft. Bringt man trotzdem welche an, geht das einfach schief – also (nicht lachen!) haben sie erneut
die Vergangenheit adjustiert.
Wir sehen hier
(Anmerkung: Bild Im Originalartikel), dass er mittels einer Reihe von Adjustierungen das linke Ende der Graphik, die TOPEX Altimeter A-Daten, um etwa 3 bis 5 mm angehoben und die Altimeter-B-Daten geringfügig verändert hat. Das Anheben des linken Endes der Graphik – also im Zeitraum 1993 bis 1999 – gestattet es ihm, die Trendlinie mit einer Steigung von 3,0 mm pro Jahr auf eine solche mit 3,8 mm pro Jahr zu ändern.
Nachdem Nerem diese Art der Adjustierung durchgeführt hatte, benutzte er die gleichen adjustierten Daten, um einen gekrümmten
Beschleunigungstrend zu zeichnen, welcher seiner Behauptung nach 3,9 mm pro Jahr zeigt.
Fünf Millimeter der maximalen Änderung jedweden Datenpunktes in der Aktualisierung! Die schreckliche, zu befürchtende Beschleunigung des Meeresspiegel-Anstiegs (SLR) ergibt sich ausschließlich aus zweifelhaften Korrekturen allein der
TOPEX Altimeter A-Daten – ganze 5 mm bei sechs Jahren „schlechter Daten“ von 1993 bis 1999. Falls diese Daten wirklich schlecht sind, hätte man sie aussondern müssen, anstatt sie so zu frisieren, dass sie zu einem vorbestimmten Narrativ passen.

Anmerkung: In diesem (Teil-)Artikel fehlt die Information, dass zusätzlich zu den Satellitendaten-Adjustierungen auch „Umweltkorrekturen“ durchgeführt wurden.
kaltesonne 23.02.2018: Vor kurzem rauschte es kräftig im medialen Blätterwald. Ein Forscherteam behauptete, der Meeresspiegelanstieg würde sich immer weiter beschleunigen. Potsdam stand Kopf. Die fünfte Jahreszeit war angebrochen. Im Internet bestellten einige Zeitgenossen bereits Tickets für die Arche Noah vor, um auf Nummer sicher zu gehen.
Au weia. Offensichtlich hat die Welt die Kunst des Lesens verloren, und damit ist das Lesen der Originalfachpublikation gemeint. Dabei hätte schon der Abstract gereicht:

Climate-change–driven accelerated sea-level rise detected in the altimeter era
Using a 25-y time series of precision satellite altimeter data from TOPEX/Poseidon, Jason-1, Jason-2, and Jason-3, we estimate the climate-change–driven acceleration of global mean sea level over the last 25 y to be 0.084 ± 0.025 mm/y2. Coupled with the average climate-change–driven rate of sea level rise over these same 25 y of 2.9 mm/y, simple extrapolation of the quadratic implies global mean sea level could rise 65 ± 12 cm by 2100 compared with 2005, roughly in agreement with the Intergovernmental Panel on Climate Change (IPCC) 5th Assessment Report (AR5) model projections.
Eine simple Trendextrapolation eines quadratischen Trends. Science at it’s best!? Dabei wissen wir, dass Ozeanzyklen mit einer Periodenlänge von 60 Jahren hier eine maßgebliche Rolle spielen. Dafür sind die Satellitendatenreihen aber viel zu kurz. Das ist so ein bisschen, als wenn man die Temperaturentwicklung von März bis August misst und dann für die kommenden 10 Jahre extrapoliert. Hilfe, wir werden verbrennen!

Das lässt sich (angeblich) bis zum Jahr 2100 mit einer nicht zyklischen Funktion hochrechnen

Studie: [8] … Ihren Satellitenmessungen und Berechnungen nach könnte der Anstieg im Jahr 2100 bereits zehn Millimeter pro Jahr betragen. Der Durchschnittspegel an den Küsten könnte dann um 65 Zentimeter höher liegen als im Jahr 2005 …
… Das Team um Nerem errechnete eine Beschleunigung des globalen Meeresspiegelanstiegs um 0,08 Millimeter pro Jahr zum Quadrat. Der jährliche Anstieg, der derzeit bei etwa 3 Millimetern liegt, erhöht sich demnach jedes Jahr um einen immer größeren Wert.

Bild 9 Verlauf des „bereinigten“ Satellitenpegels (schwarze, dicke Linie) bis zum Jahr 2100 laut Studie [14]. Grafik vom Autor mit den Daten der Studie berechnet

Unverdrossen fabulieren die Studienautoren, dass ein Verlauf, welcher teils kurzfristige Messfehler, Vulkanausbrüche und teils zyklische (ENSO und El Ninjo) Einflüsse (angeblich auf einmal genau richtig) korrigiert, mit einer nicht zyklischen, quadratischen Funktion bis zum Jahr 2100 hochgerechnet werden könnte. Nur, um Vorhersagen zu erfüllen (es erinnert an die „notwendigen“ theologischen Ableitungen zur „Erfüllung“ von Vorhersagen aus dem Alten Testament).
Die Redakteurin beim Bayerischen Rundfunk hat überhaupt keine Ahnung von Funktionen (und wohl auch nicht vom Thema – rein persönliche Meinung des Autors) und fabuliert gleich von einem exponentiellen Anstieg, mit dem der Pegel geradezu explodieren würde.
BR Interview: [10] Moderatorin: Und dann habe ich eine exponentielle Kurve und nichts Lineares?
Bayerischer Rundfunk, IQ-Wissenschaft und Forschung. Magazin vom 14.02.2018. [10]

Projektionsvarianten zum Jahr 2100

Nach so vielen Zahlenwerten muss man immer die Projektionen zum Jahr 2100 im Schaubild betrachten. Man beachte dabei: Es handelt sich immer um den gleichen Ozean unserer Erde. Man braucht gar nicht zu rechnen, um ein Gefühl für den wahrscheinlichsten Pegelbereich zu bekommen.
Wer meint, die +2 m des mit Wissenschafts- und Ehrenpreisen überhäuften Herrn Schellnhuber wären eventuell doch leicht übertrieben: Auf phoenix kam am 09.02.2018 der Film „Bengalisches Fieber, eine Reise durch Bangladesch“. Im Film erzählte der Sprecher, dass der Meerespegel dort im Jahr 2.100 +4 m betragen werde.

Bild 10 [11] Pegel-Zukunfts-Projektionen verschiedenster Quellen. Eingetragen sind die Satellitendaten aus der Studie [14]. Skalierungen ungefähr maßstabsgetreu vom Autor zusammengestellt

Damit endet der erste Teil. Im zweiten Teil werden die Aussagen von Klima- und Pegelexperten zu dieser “bahnbrechenden” Studie “beleuchtet”.

Quellen
[1] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[2] EIKE 18.02.2018: Meeresspiegel: Steigen und Fallen – Teil 4a – ein sogar noch stärkerer Anstieg aus Nichts
[3] EIKE 19.02.2018: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu
[4] kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All
[5] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller
[6] EIKE 13.04.2015, K. E. Puls: Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht
[7] ScienceScepticalBlog 13. April 2012: Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel
[8] Bayerischer Rundfunk 13.02.2018: Wenn der Meeresspiegel steigt und Inseln versinken
[9] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren
[10] BR IQ-Podcastbeitrag mit dem Interview zur jüngsten Satellitenstudie

[11] PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[12] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[13] Nils-AxelMörner August 2017: Sea Level Manipulation; Intern. J. Engineering Science Invention, ISSN (Online): 2319 – 6734, ISSN (Print): 2319 – 6726
[14] R. S. Nerem at. al.: Climate-change–driven accelerated sea-level rise detected in the altimeter era
Studie: 3 Seiten, 33 Quellenverweise
[15] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[16] EIKE 30.12.2017: Ohne den Klimawandel hätte das gleiche Wetter nicht so schlimme Folgen…
[17] kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All




Winter 2017/18 – wie brauchbar waren die Prognosen?

Bevor wir uns die Prognose- Ergebnisse im Einzelnen ansehen, wollen wir einmal den aktuellen Trend der Wintertemperaturen beleuchten. Langfristig (über mehrere Jahrhunderte gesehen) wurden unsere Winter erheblich milder, was hauptsächlich einer Erholungsphase der Temperaturen seit der „Kleinen Eiszeit“ geschuldet ist. Doch während der letzten 31 Jahre gab es keine Winter- Erwärmung mehr, sondern gar eine geringe Abkühlung trotz enorm gestiegener CO2- Konzentrationen:

Abb. 1: Seit 31 Jahren wird in Deutschland eine leichte Winter- Abkühlung statt der stets vorhergesagten Erwärmung beobachtet.


Aus aktuellem Anlass bietet sich auch einmal ein Blick nach Südkorea an (die olympischen Winterspiele 2018 wurden erfolgreich durchgeführt, aber manche Disziplinen mussten wegen Kälte, starkem Schneefall und eisiger Winde verschoben werden). Man kann von einem eher zu kalten Olympiawinter ausgehen; weil die Daten noch nicht vorliegen, endet folgende Grafik mit dem Winter 2016/17:

Abb. 2: In Gangneung, wo einige Wettkämpfe ausgetragen wurden, sinken die Wintertemperaturen ebenfalls seit 30 Jahren leicht. Keine Winter- Erwärmung ist seit mindestens 30 Jahren übrigens in den meisten Teilen West-, Mittel- und Nordeuropas, Nordasiens sowie in Teilen Nordamerikas zu beobachten.


Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen
Es werden nur Temperaturprognosen bewertet, welche spätestens am 1. Dezember 2017 vorlagen und sich auf den „meteorologischen“ Winter (Monate Dezember bis Februar) bezogen hatten. Langfristprognosen bleiben schwierig und können aufgrund der Komplexität des Wetters und des Klimas bei weitem nicht den Gütegrad der Kurzfristprognosen erreichen. So lassen sich auch konkrete Ereignisse, wie etwa das Wetter an Weihnachten oder die Kälte Ende Februar 2018, nicht über viele Wochen oder gar Monate im Voraus prognostizieren. Eine grobe Abschätzung des Charakters der Jahreszeit Winter und einzelner Monate ist jedoch mit Hilfe der Analyse der Vorwitterung, des Zustands der Zirkulationsverhältnisse zum Winterbeginn, statistischer Zusammenhänge und weiterer Faktoren bedingt möglich. Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; direkt unter jeder Prognose erfolgt die Bewertung; meist auf die CLINO- Periode 1981 bis 2010 bezogen. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um nicht mehr als +/- 0,5 Kelvin, so ergab das Note 3, darüber bei bis zu +/- 1K Abweichung Note 4; bei noch mehr Abweichung Note 5, über +/- 2 K Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. In die Bewertung wurde auch einbezogen, ob genauere Vorhersagen über den Gesamtwinter hinaus erfolgten. Fehlten diese, so wurde um eine Note abgewertet Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, so wurde um eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.
UKMO (Großbritannien): Stand 11.11.2017 Winter (D, J, F) mit leicht erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist ebenfalls eine leicht erhöhte Wahrscheinlichkeiten auf; während ein zu kalter Winter höchstens zu 20% wahrscheinlich ist. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob
Bewertung: Fast zutreffend, besonders im Dez/Jan. entsprach die erhöhte Wahrscheinlichkeit für „zu mild“ der Wirklichkeit, aber sehr unkonkret, Note 4
Meteo Schweiz Stand Nov. 2017: Leicht erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter nur zu etwas mehr als 20% wahrscheinlich); normaler zu knapp 30%. Die „doppelten T“ sind die Fehlerbalken:

Bewertung: Fast zutreffend, besonders im Dez/Jan. entsprach die erhöhte Wahrscheinlichkeit für „zu mild“ der Wirklichkeit, aber sehr unkonkret, Note 4
LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2017: Alle drei Wintermonate und Winter insgesamt zu mild.
Bewertung: Für Dez. und Jan. zutreffend, Feb. deutlich verfehlt, Winter gesamt zutreffend, Note 3
IRI (folgende Abbildung), Vorhersage vom Nov. 2017: Keine Aussagen für Deutschland und weite Teile West- und Mitteleuropas; zu mild in Nord- und Osteuropa.

Bewertung: Nicht möglich, da für Deutschland keine Aussagen getroffen wurden.
DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1981 bis 2014 (Stand Nov. 2017):

Bewertung: Der Mittelwert der (unüblichen) Bezugsperiode 1981 bis 2014 beträgt im DWD- Mittel ebenfalls 0,9°C; laut der Karte wurden 1,4 bis 1,9°C erwartet. Intervall getroffen, aber genauere Vorhersageversuche zu einzelnen Monaten fehlten, Note 3
NASA (US- Weltraumbehörde) Karte vom November 2017: Winter in Mitteleuropa etwa 2 bis 3 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

Winter deutlich milder eingeschätzt, als er war, das vorhergesagte Intervall hätte 2,9 bis 3,9°C bedeutet; Note 5
CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 16. bis 25.11. 2017): Alle 3 Wintermonate um 1 bis 2 K zu mild. Dezember (links) Januar (rechts) Februar (unten); damit Winter insgesamt sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Dezember (DWD- Mittel 2,7°C) Treffer, Januar (DWD 3,7°C) um mind. 1,3 K unterschätzt, Februar totale Fehlprognose. Der Winter insgesamt (hier nicht gezeigt) wurde den ganzen November über auf 1 bis 2 K zu mild und damit knapp überschätzt; Note 4
Stefan Kämpfe (verfasst am 26.11. und veröffentlicht bei EIKE am 30.11.2017):
Fazit: Eindeutige, verlässliche Anzeichen für einen durchgehend kalten Winter fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis extrem zu milden Winters. Momentan kündigen sich keine markanten Kälteeinbrüche im Frühwinter an; aber nasskaltes Wetter; im Bergland oberhalb von etwa 500 Metern könnte im Dezember häufiger, im Tiefland gelegentlich Schnee liegen. Insgesamt fällt der Winter 2017/18 nach momentanem Stand also normal bis extrem zu mild aus und wird im Deutschland- Mittel auf +0,5 bis +3,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise gute Wintersportmöglichkeiten. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis deutlich zu mild). Für Jan/Feb. 2018 lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein zu milder Hochwinter deutlich wahrscheinlicher, als ein zu kalter. Wegen eines möglichen Wechsels zur Ostwindphase in der unteren Stratosphäre (QBO) sind aber winterliche Phasen oder wenigstens ein einzelner, kalter bis sehr kalter Wintermonat noch nicht völlig ausgeschlossen. Sollte allerdings der Dezember tatsächlich zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2018 noch weiter.
Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 20% Analogfälle und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.
Bewertung: Winter insgesamt getroffen, die Dezembertemperatur für Erfurt betrug 2,7°C (knapp verfehlt), die erhöhte Wahrscheinlichkeit für einen insgesamt zu milden Hochwinter (Jan. und Feb. DWD im LJM 0,7°C, 2018 0,9°C) traf zu; Note 3. Der Charakter der Winterwitterung (nicht mit bewertet) wurde insgesamt ganz passabel vorausgesagt.
Modellchaos im Februar 2018 – der Lernprozess des CFSv2- Modells
Lange Zeit ging das CFSv2- Modell des US- Wetterdienstes NOAA davon aus, dass der Februar 2018 erheblich zu mild ausfallen sollte; auch noch im letzten Januardrittel:

Erst als dann aber in den ersten Februartagen die Westströmung zusammenbrach, änderte sich die Vorhersage in zu kalt, was der Realität entsprach:

Wieder einmal zeigt sich: Die Realität ist oft eine andere, als uns die Modellrechnerei vorgaukelt; und so kann auch niemand wissen, wie unser Klima im Jahr 2100 aussehen wird.
Zusammengestellt von Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher, am 02.03.2018