Flashcrash Klimaalarm. Wer Klima­alarm posaunt, bekommt immer recht (Teil 1)

Der Autor nimmt diesen „Klimawandel-FlashCrash“ (wieder) zum Anlass, anhand einer Sichtung zu zeigen, wie viel Wahrheitsgehalt in der Information stecken könnte, alternativ, ob sie einfach unter die Rubrik „Volksverdummung“ gehört.

Wenn sich unsere Medien mit „Information“ geradezu überschlagen

Anbei eine kleine Listung zum Zeigen, wie sich eine (passende) Meldung schlagartig und sprichwörtlich flächendeckend über Deutschland „ergießt“. Es ging um eine Meerespegel-Studie [14], welche „belegt“, das die Satellitendaten bisher falsch ausgewertet wurden und die „richtige“ Auswertung, zusammen mit der Einberechnung bisher unterschätzter, sonstiger Klimaeinflüsse zu einem zusätzlichen, quadratischen Anstiegszuwachs führen würde und damit die höchsten IPCC-Pegelszenarien bestätigt:
Bayerischer Rundfunk 13.02.2018 : Steigende Pegel Wenn der Meeresspiegel steigt und Inseln versinken
Weil der Klimawandel das Eis der Polarregionen schmelzen lässt, steigt der Meeresspiegel. Und das immer schneller. Die Folgen sind verheerend.
tagesschau.de: Satellitenmessungen: Meeresspiegel steigt schneller als gedacht …
welt.de: Klimawandel: Meeresspiegel steigt schneller als gedacht
tagesspiegel.de: Erderwärmung: Wie stark steigt der Meeresspiegel?
zeit.de: Meeresspiegel: Er steigt und steigt und steigt
spiegel.de: Meeresspiegel steigt immer schneller
rtlnext.rtl.de: Der Meeresspiegel steigt drastischer an als angenommen
klimaretter.info/forschung: Meeresspiegel steigt immer schneller

Und nur eine einsame Stimme* kritisch referiert

*natürlich neben EIKE und kaltesonne, welche aber keine politischen Tagesbeiträge anbieten.
Achgut.com 17.02.2018: Höchste Pegelstände in der Volkserziehung
… der Beitrag war 2:25 Minuten lang. Soviel Zeit wird in der 19:00 Uhr Nachrichtensendung nur den wichtigsten Weltereignissen zur Verfügung gestellt. Weder Petra Gerster noch die Autorin des Beitrags, Christine Elsner, geben auch nur den geringsten Hinweis, wer diese „neuen Erkenntnisse“ veröffentlicht hat.
Die Kernaussage des Beitrags: Die Meeresspiegel steigen schneller als angenommen. Diesen neuen Studien zufolge steigt der Meeresspiegel bis zum Ende des Jahrhunderts um 65 cm an, das wäre doppelt soviel, wie bisher berechnet. Doch der 65 cm Anstieg – manchmal sind es sogar 75 cm – ist eine uralte Behauptung aus der Alarmküche von Steven Nerem, der in der University of Colorado die Sea Level Research Group anführt. Mit seinem Vortrag, der genau diese Behauptung zum Inhalt hat, tourt er seit Jahren durch die Welt. Das Problem von Steven Nerem: Die Messungen des Meeresspiegels ergeben nicht die geringsten Hinweise, die seine Behauptungen rechtfertigen. Er stützt sich auf Computermodelle, Hochrechnungen und Berechnungen, nicht auf konkrete Messungen …

Die Studie

Rezensionen darüber – zum Beispiel bei WUWT wurden auf EIKE bereits in Übersetzungen publiziert:
Einmal direkt über die Studie:
[12] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
Sowie ergänzend dazu:

[1] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[2] EIKE 18.02.2018: Meeresspiegel: Steigen und Fallen – Teil 4a – ein sogar noch stärkerer Anstieg aus Nichts
EIKE 19.02.2018: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu

Worum es in der neuen Studie ging, könnte einigen „haften“ geblieben sein, was das Besondere daran ist, vielleicht weniger. Deshalb anbei eine Wiederholung.
Die Kernaussage der neuen Studie lautet: [1] … Nerems Team berechnete, dass die Rate des Meeresspiegel-Anstiegs von 1,8 mm pro Jahr im Jahre 1993 auf etwa 3,9 mm pro Jahr heute gestiegen ist als eine Folge der globalen Erwärmung.
Falls sich der Meeresspiegel-Anstieg mit der gegenwärtigen Rate weiter beschleunigt, sagt Nerem, würden die Ozeane der Welt im Laufe dieses Jahrhunderts um etwa 75 cm steigen. Das liegt auf einer Linie mit den Projektionen des IPCC aus dem Jahr 2013.

Vorspann: Satellitendaten sind nicht „in Stein gemeißelt“, sondern das Ergebnis laufender Anpassungen

Die Satellitendaten des Meerespegels zeigen seit Messbeginn offiziell einen linearen Anstieg (je nach Quelle) zwischen 2,9 … 3,31 mm/Jahr (Bild 1). Das Bild 1 zeigt einmal den Mittelwert mit der Regressionsgeraden und dann die gleiche Kurve, zusätzlich mit den Schwankungen im Jahresverlauf.

Bild 1 Satellitenpegel ohne / mit Saisonsignal. Quelle: AVISO+ Mean Sea Level product and image interactive selection, Quelle

Korrektur(vorschlag) zu einem geringeren Pegelanstieg im Jahr 2015

Vor drei Jahren gab es eine Studie, welche diesen Anstieg für zu hoch hielt und aufgrund von Messfehlern der Satelliten einen reduzierten Anstieg von 2,6 … 2,9 mm/Jahr ermittelte:
Nature 11 May 2015: Unabated global mean sea-level rise over the satellite altimeter era
The rate of global mean sea-level (GMSL) rise has been suggested to be lower for the past decade compared with the preceding decade as a result of natural variability1, with an average rate of rise since 1993 of +3.2 ± 0.4 mm yr−1 (refs 2, 3). However, satellite-based GMSL estimates do not include an allowance for potential instrumental drifts (bias drift4,5). Here, we report improved bias drift estimates for individual altimeter missions from a refined estimation approach that incorporates new Global Positioning System (GPS) estimates of vertical land movement (VLM). In contrast to previous results (for example, refs 6, 7), we identify significant non-zero systematic drifts that are satellite-specific, most notably affecting the first 6 years of the GMSL record. Applying the bias drift corrections has two implications. First, the GMSL rate (1993 to mid-2014) is systematically reduced to between +2.6 ± 0.4 mm yr−1 and +2.9 ± 0.4 mm yr−1, depending on the choice of VLM applied …

Weil man den Pegel vor Ort nicht genau genug messen kann, misst man aus 800 … 1450 km Entfernung „genauer“

Dazu muss man berücksichtigen, dass die Messsatelliten zur Ermittlung der Meerespegel in 800 … 1400 km Höhe kreisen. Behauptet wird, aus dieser Entfernung könne man Meereshöhen-Differenzen von Zehntel Millimetern ermitteln. Wenn vergleichsweise der Stadtrat von Venedig den Pegelstand am Markusdom genau erfahren möchte, würde er dazu in Hamburg anrufen (1290 km), damit von dort aus mittels Radar genauer als vor Ort gemessen werde.
Man kann es nicht. Aber das Signal lässt sich so hoch auflösen.
An Ungenauigkeit bleiben Driften der Messgeräte, Änderungen der Wellengeschwindigkeit des Radarsignals und die Bestimmung der Satellitenhöhe, die sich laufend durch die „Schwerkraftbuckel“ und „Herunterfallen“ der Satellitenbahnen verändert. Diese Fehler versucht man mit „Algorithmen“ und Kalibrierungen so weit möglich richtigzustellen.
Würden diese Adjustierungen mittels gut begründeter und vor allem im Detail veröffentlichter Verfahren erfolgen, hätten sie einen Vorteil gegenüber den Tidenpegelmessungen. Denn (auch) diese sind nicht frei von Messfehlern und Nachjustierungen, bis hin zum Datenbetrug verändern.
Anbei Beispiele dazu:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug
Man würde sich deshalb schon wünschen, eine von solchen „Interpretationsunterschieden“ befreite, neutrale Messstelle zu haben.

Bisher ungelöst: Warum steigt der Satellitenpegel doppelt so schnell wie der Tidenpegel?

Komischer Weise verlaufen Tidenpegel und durch Satelliten gemessene nicht gleich. Die Satelliten zeigen den doppelten Anstiegswert. Die (überzeugende) Erklärung dieses Rätsels hat noch niemand gefunden (oder der Autor hat es übersehen).
Ein bekannter – kritisch eingestellter – Pegelforscher hat dazu eine Meinung:
Nils-AxelMörner August 2017: [7] [13] Sea Level Manipulation
Abstract: … Global tide gauge data sets may vary between +1.7 mm/yr to +0.25 mm/yr depending upon the choice of stations … A general stability has been defined in sites like the Maldives, Goa, Bangladesh and Fiji.
In contrast to all those observations, satellite altimetry claim there is a global mean rise in sea level of about
3.0 mm/yr. In this paper, it is claimed that the satellite altimetry values have been “manipulated”. In this
situation, it is recommended that we return to the observational facts, which provides global sea level records
varying between ±0.0 and +1.0 mm/yr; i.e. values that pose no problems in coastal protection.

Bild 2 Vergleich Satellitenpegel mit Tidenpegel. Vom Autor zusammengestellt. Quellenbild Tidenpegel: IPCC WG1 AR5 Figure 13.3 c) Yearly average global mean sea level (GMSL) reconstructed from tide gauges by three different approaches. Orange from Church and White (2011), blue from Jevrejeva et al. (2008), green from Ray and Douglas (2011) (see Section 3.7)


Zudem versagt die Satellitenmessung am Strand, also genau dort, wo die Küsten betroffen sind. Erst in ca. 100 km Entfernung davon beginnen Satelliten mit genauerem Messen.

Eine Korrektur folgt der anderen

Wie bereits ausgeführt: Auch bei den Satellitendaten sind Adjustierungen und Korrekturen üblich und werden teils ohne Publizierung nachvollziehbarer Datenangaben vorgenommen. Einen Grund sieht man im folgenden Bild 3, welches die „Zusammenstückelung“ des Gesamtverlaufes aus den abweichenden Messkurven verschiedener Satelliten (-Generationen) zeigt.
Dabei sind nicht nur die Satellitenkurven selbst abweichend. Auch die Messgenauigkeit der verschiedenen Satelliten ist unterschiedlich und die angewendeten Adjustierungen (zur Ermittlung des „richtigen“ Messwertes) angeblich teils so fehlerbehaftet, dass sie auch rückwirkend verändert werden. Was dabei nicht so deutlich gesagt wird: Ob die neuen Korrekturen dann die „wirklich richtigen“ sind, weiß niemand.
Als Folge ändern sich auch die Satellitendaten regelmäßig und nachträglich.

Bild 3 Zusammensetzung der Satellitenkurve aus den Einzelmessungen der Satelliten. Quelle: AVISO+ Mean Sea Level product and image interactive selection

Was nicht zusammenpasst, wird angeglichen – und nicht als falsch verworfen

EIKE 13.04.2015, K. E. Puls: [6] Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht
... Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. … Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections” fündig. Dort heißt es: ’sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)‘ Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.“

Bild 4 [7] Satelliten-Pegeldifferenzen vor und nach einer Adjustierung

In aller Regel wird der Anstieg immer höher

Zwar wird seit ca. 20 Jahren „ganz genau“ das Klima der nächsten Jahrhunderte simuliert und die Programme mit „ganz genauen“ Daten kalibriert. Trotzdem finden Forscher immer neue Parameter, die „bislang deutlich unterschätzt wurden“ und teils erhebliche Datenänderungen bewirken. So ist es beispielhaft in den Meldungen zur aktuellen Pegelstudie zu lesen:
Hannoversche Allgemeine 27.01.2016: Klimaschock Meeresspiegel steigt doppelt so schnell an
Deutsche Klimaforscher schlagen Alarm. Der weltweite Anstieg der Meeresspiegel durch die Klimaerwärmung ist bislang deutlich unterschätzt worden. Das könnte auch für Deutschlands Küstenregionen schwere Folgen haben.
… Der Anstieg des Meeresspiegels ist vermutlich doppelt so hoch wie gedacht, heißt es in einer aktuellen Studie des Instituts für Geodäsie und Geoinformation an der Universität Bonn, die jetzt in der US-Fachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht wurde. Ein Irrtum, der für die Küstenregionen in Deutschland schwere Folgen haben könnte. Die Gefahr von Sturmfluten wächst.
Bislang gingen Forscher davon aus, dass die Meeresspiegel aufgrund der Ausdehnung des wärmer werdenden Wassers jährlich zwischen 0,7 und einem Millimeter ansteigen würden. Bei erneuter Prüfung der Satellitendaten aus den Jahren 2002 bis 2014 habe sich aber ergeben, dass sie sogar um 1,4 Millimeter pro Jahr ansteigen werden – doppelt so stark wie bisher vermutet. Dieser Faktor sei bislang deutlich unterschätzt worden, erläuterte Professor Jürgen Kusche, Ko-Autor der Studie.
Zufügung: Im Artikel erzählt der Leitautor dieser Studie als „Beleg“:

… Während das Meer auf den Philippinen mit 15 Millimetern im Jahr fünfmal so stark wie der weltweite Durchschnitt ansteige …
Dazu erlaubt sich der Autor den Hinweis, dass genau dies (bei den Philippinen steige der Pegel überproportional) nicht richtig ist, wie man leicht anhand der Tidenpegel-Auswertungen dieser Gegend zeigen kann[15] und es die zuständige Behörde inzwischen auch teilweise korrigierte [16]. Die Philippinen sind stark vulkanisch geprägt, haben also starke Land-Hebungen und Senkungen. Zudem liegen Küstenstädte auf Sumpfmarschen und versinken durch die extreme Populationszunahme und in Folge massiven Grundwasserentnahmen buchstäglich in den Untergrund. Am schlimmsten betroffen davon ist wohl Manila:

EIKE 13.08.2017: [15] Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
In Indonesien ist es teils noch schlimmer. Der Klimawandel-Pegelanstieg ist dort natürlich auch eine gemeldete Bedrohung „ … könne in 200 bis 2.000 Jahren akut werden … “, es wird (in Österreich) aber wenigstens zugegeben, dass das selbst verursachte Problem des Versinkens viel größer und dazu akut ist:

news@ORF.at: Boden unter der Stadt ausgehölt
Die indonesische Millionenmetropole Jakarta schaut in eine ungewisse Zukunft. Der durch den Klimawandel steigende Meeresspiegel ist eine Bedrohung, eine weitere ist ebenfalls menschengemacht: Die Stadt versinkt…. Meeresspiegel steigt, Stadt sinkt ab.
Das Problem mit dem steigenden Meeresspiegel hat Jakarta mit Millionenmetropolen in Asien wie Mumbai, Schanghai, Hongkong und anderen gemeinsam, wie es vor einiger Zeit in einer Studie des Instituts Climate Central hieß. Das Problem könne in 200 bis 2.000 Jahren akut werden, hieß es zum zeitlichen Horizont…. Es habe sich herausgestellt, dass der Klimawandel nicht der einzige Grund für das Problem ist. „Das Problem, hat sich gezeigt, ist das Sinken der Stadt selbst.“

Verschluckt von der Erde“
Faktisch sinke Jakarta schneller als jede andere Metropole auf der Welt, rascher als der Meeresspiegel steige – „so surreal schnell, dass Flüsse manchmal flussaufwärts fließen“, normale Regenfälle Stadtviertel in Sümpfe verwandelten und Gebäude langsam im Boden verschwänden, .. Die Hauptursache des Problems seien illegale Brunnengrabungen, so die Zeitung. Diese würden grundwasserführende Schichten im Boden, auf denen die Stadt steht, „Tropfen für Tropfen austrocknen“, ähnlich wie wenn man die Luft aus einem großen Polster unter ihr lasse. Etwa 40 Prozent Jakartas lägen mittlerweile unter Meeresspiegelniveau. Einzelne Teile der Stadt nahe der Küste seien über vier Meter abgesunken.
Eigentlich nicht vorstellbar, dass ein dazu forschender Professor dies nicht weiß.

Was steht in der neuen Studie

Wurde gerade erst vor zwei Jahren bereits auf einen „doppelt so schnell“ steigenden Pegel korrigiert (vorheriger Absatz), weil die jüngeren Satellitendaten „ein Irrtum“ waren, sagt die neue Studie, dass die alten Satellitendaten ebenfalls (immer noch) falsch waren und nun (wieder) korrigiert werden müssen.

R. Steven Nerem, der leitende Verfasser der neuen Studie

Eine gute Übersicht zum Verfasser und seiner „wissenschaftlichen Neutralität“ gab es auf WUWT (Übersetzung): [12] Also, Erstes zuerst – wer ist R. Steven Nerem?
Steve Nerem ist ein Alarm-Evangelist* des Meeresspiegel-Anstiegs – es gibt keine andere angemessene Beschreibung. Ich zweifle nicht daran, dass er wirklich an seine Causa glaubt, ist er doch im vorigen Jahr durch die Welt gereist mit immer dem gleichen Vortrag – immer mit identischem Abstract – in San Francisco (Dec 2016), Bologna (Feb 2017), New York  (July 2017), Miami (Oct 2017) und New Orleans (Dec 2017). Nerem ist einer der Ko-Autoren des infamen Kommentars im Journal Global and Planetary Change, worin er versucht die Studie aus dem Jahr 2004 von Nils-Axel Mörner im gleichen Journal zu widerlegen. Im 3. Teil von SEA LEVEL: Rise and Fall schrieb ich über den Austausch Mörner/Nerem/Mörner.
Steve Nerem war auch Ko-Autor des schreiend alarmistischen Artikels in der Washington Post im Mai 2016 mit dem Titel „10 things you should know about sea level rise and how bad it could be”, in welchem gesagt wird dass „Wissenschaftler schätzen, dass wenn sich die Welt um 4 bis 5°C erwärmt, was für das Ende des Jahrhunderts projiziert wird, wenn wir keine Maßnahmen gegen den Klimawandel ergreifen, alles Eis wahrscheinlich schmelzen wird. Das würde einen Meeresspiegel-Anstieg um 70 Meter bewirken“.

So wurden die neuen, alarmistischen Werte in der Studie [14] ermittelt

Wie die vorhergehenden Beispiele zeigten, sind regelmäßige „neu-Findungen“ der „wahren“ Satelliten-Pegeldaten nichts Neues, sondern gehören zum AGW-Klimawandel-Alltag.
Die Autoren der neuen Studie sagen nun:
-A: Dass man seit 1993 die Satellitendaten falsch korrigiert hat,
-B: zusätzlich der Meerespegel durch Naturereignisse wie den Pinatubo-Ausbruch, die ENSO-Zirkulation und El Ninos „gedrückt“ wurde (was bisher nicht richtig berücksichtigt wurde) und in Wirklichkeit deshalb ein stärkerer Pegelanstieg „gewesen“ wäre.
SPON 12.02.2018: [5] ... Ergebnis: Die ersten Jahre der Satellitenmessungen hatten zu hohe Werte ergeben, das Messgerät war anscheinend falsch eingestellt; die Werte haben die Forscher nun nach unten korrigiert. Entsprechend größer fiel der Meeresspiegelanstieg in den folgenden Jahren aus … So seien zahlreiche Effekte, die nichts mit dem Klimawandel zu tun haben, herausgerechnet worden.
Wenn man alle diese Fehler nun (endlich) richtig korrigiert – wovon die Studienautoren ausgehen:

Bild 5 [2] Verschiedene Korrekturen der Studie

– ergibt sich für den Pegelanstieg das folgende, wahre Bild (Bild 6).
Beachten: Dieser Pegelverlauf ist nicht der gemessene Pegel nach neuen Korrekturen, sondern der Pegel, welcher sich eingestellt hätte (also gemessen worden wäre), falls die Satelliten-Messwerte richtig korrigiert worden wären und zusätzliche Umweltereignisse nicht den zusätzlichen, Klimawandel-bedingten Anstieg, unterdrückt hätten.

Bild 6 „Wirklicher“ Pegelverlauf laut der neuen Studie. Quelle: Homepage R. Steven Nerem


Die wichtige Kernaussage dazu ist:
[8] Der Anstieg beschleunigt sich jedes Jahr um 0,08 Millimeter im Quadrat. Ihren Satellitenmessungen und Berechnungen nach könnte der Anstieg im Jahr 2100 bereits zehn Millimeter pro Jahr betragen. Der Durchschnittspegel an den Küsten könnte dann um 65 Zentimeter höher liegen als im Jahr 2005.
Wie umfassend die bisher angeblich nicht quantifizierbaren Fehler und notwendigen Korrekturen ausgeführt wurden, zeigt das folgende Bild 7.

Bild 7 Pegelverlauf der Satellitenmessungen (grün, von Bild 1) und „berechneter“ Pegelverlauf der Studie (blau, von Bild 6) auf den Anfangswert normiert. Bilder vom Autor übereinander kopiert.


Das folgende Bild 8 zeigt noch etwas deutlicher, aus welchen Ungenauigkeiten dank „verbessertet, statistischer Methoden“ „ganz genaue“ Verläufe berechnet werden.
Vor allem lässt sich daran erkennen, wie stark die Absenkungen der frühen Satellitendaten sind:
SPON [5]: … Ergebnis: Die ersten Jahre der Satellitenmessungen hatten zu hohe Werte ergeben, das Messgerät war anscheinend falsch eingestellt; die Werte haben die Forscher nun nach unten korrigiert. Entsprechend größer fiel der Meeresspiegelanstieg in den folgenden Jahren aus.

Bild 8 Darstellung von Bild 6 mit den original-Pegelkurven der Satelliten (Bild 3) auf den Endwert normiert

Das ist so, als wenn man die Temperaturentwicklung von März bis August misst und dann für die kommenden 10 Jahre extrapoliert. Hilfe, wir werden verbrennen!

Auf WUWT wurde genau dies wie folgt rezensiert und zeigt den Unterschied einer Pseudoinformation bei SPON und der Seite „Klimaretter.Info“, unserer Beraterin der Berliner Politikkaste, zu der einer informativen Seite (Übersetzung EIKE): [12] WUWT:Wie haben sie das gemacht?
Offenbar ganz einfach. Im jüngsten Zeitraum der Meeresspiegel-Aufzeichnungen via Satelliten gibt es einfach keinen Spielraum mehr für größere Änderungen – es ist schwierig, die Daten zu ändern oder zu adjustieren – das Adjustierungs-Budget ist bereits ausgeschöpft. Bringt man trotzdem welche an, geht das einfach schief – also (nicht lachen!) haben sie erneut
die Vergangenheit adjustiert.
Wir sehen hier
(Anmerkung: Bild Im Originalartikel), dass er mittels einer Reihe von Adjustierungen das linke Ende der Graphik, die TOPEX Altimeter A-Daten, um etwa 3 bis 5 mm angehoben und die Altimeter-B-Daten geringfügig verändert hat. Das Anheben des linken Endes der Graphik – also im Zeitraum 1993 bis 1999 – gestattet es ihm, die Trendlinie mit einer Steigung von 3,0 mm pro Jahr auf eine solche mit 3,8 mm pro Jahr zu ändern.
Nachdem Nerem diese Art der Adjustierung durchgeführt hatte, benutzte er die gleichen adjustierten Daten, um einen gekrümmten
Beschleunigungstrend zu zeichnen, welcher seiner Behauptung nach 3,9 mm pro Jahr zeigt.
Fünf Millimeter der maximalen Änderung jedweden Datenpunktes in der Aktualisierung! Die schreckliche, zu befürchtende Beschleunigung des Meeresspiegel-Anstiegs (SLR) ergibt sich ausschließlich aus zweifelhaften Korrekturen allein der
TOPEX Altimeter A-Daten – ganze 5 mm bei sechs Jahren „schlechter Daten“ von 1993 bis 1999. Falls diese Daten wirklich schlecht sind, hätte man sie aussondern müssen, anstatt sie so zu frisieren, dass sie zu einem vorbestimmten Narrativ passen.

Anmerkung: In diesem (Teil-)Artikel fehlt die Information, dass zusätzlich zu den Satellitendaten-Adjustierungen auch „Umweltkorrekturen“ durchgeführt wurden.
kaltesonne 23.02.2018: Vor kurzem rauschte es kräftig im medialen Blätterwald. Ein Forscherteam behauptete, der Meeresspiegelanstieg würde sich immer weiter beschleunigen. Potsdam stand Kopf. Die fünfte Jahreszeit war angebrochen. Im Internet bestellten einige Zeitgenossen bereits Tickets für die Arche Noah vor, um auf Nummer sicher zu gehen.
Au weia. Offensichtlich hat die Welt die Kunst des Lesens verloren, und damit ist das Lesen der Originalfachpublikation gemeint. Dabei hätte schon der Abstract gereicht:

Climate-change–driven accelerated sea-level rise detected in the altimeter era
Using a 25-y time series of precision satellite altimeter data from TOPEX/Poseidon, Jason-1, Jason-2, and Jason-3, we estimate the climate-change–driven acceleration of global mean sea level over the last 25 y to be 0.084 ± 0.025 mm/y2. Coupled with the average climate-change–driven rate of sea level rise over these same 25 y of 2.9 mm/y, simple extrapolation of the quadratic implies global mean sea level could rise 65 ± 12 cm by 2100 compared with 2005, roughly in agreement with the Intergovernmental Panel on Climate Change (IPCC) 5th Assessment Report (AR5) model projections.
Eine simple Trendextrapolation eines quadratischen Trends. Science at it’s best!? Dabei wissen wir, dass Ozeanzyklen mit einer Periodenlänge von 60 Jahren hier eine maßgebliche Rolle spielen. Dafür sind die Satellitendatenreihen aber viel zu kurz. Das ist so ein bisschen, als wenn man die Temperaturentwicklung von März bis August misst und dann für die kommenden 10 Jahre extrapoliert. Hilfe, wir werden verbrennen!

Das lässt sich (angeblich) bis zum Jahr 2100 mit einer nicht zyklischen Funktion hochrechnen

Studie: [8] … Ihren Satellitenmessungen und Berechnungen nach könnte der Anstieg im Jahr 2100 bereits zehn Millimeter pro Jahr betragen. Der Durchschnittspegel an den Küsten könnte dann um 65 Zentimeter höher liegen als im Jahr 2005 …
… Das Team um Nerem errechnete eine Beschleunigung des globalen Meeresspiegelanstiegs um 0,08 Millimeter pro Jahr zum Quadrat. Der jährliche Anstieg, der derzeit bei etwa 3 Millimetern liegt, erhöht sich demnach jedes Jahr um einen immer größeren Wert.

Bild 9 Verlauf des „bereinigten“ Satellitenpegels (schwarze, dicke Linie) bis zum Jahr 2100 laut Studie [14]. Grafik vom Autor mit den Daten der Studie berechnet

Unverdrossen fabulieren die Studienautoren, dass ein Verlauf, welcher teils kurzfristige Messfehler, Vulkanausbrüche und teils zyklische (ENSO und El Ninjo) Einflüsse (angeblich auf einmal genau richtig) korrigiert, mit einer nicht zyklischen, quadratischen Funktion bis zum Jahr 2100 hochgerechnet werden könnte. Nur, um Vorhersagen zu erfüllen (es erinnert an die „notwendigen“ theologischen Ableitungen zur „Erfüllung“ von Vorhersagen aus dem Alten Testament).
Die Redakteurin beim Bayerischen Rundfunk hat überhaupt keine Ahnung von Funktionen (und wohl auch nicht vom Thema – rein persönliche Meinung des Autors) und fabuliert gleich von einem exponentiellen Anstieg, mit dem der Pegel geradezu explodieren würde.
BR Interview: [10] Moderatorin: Und dann habe ich eine exponentielle Kurve und nichts Lineares?
Bayerischer Rundfunk, IQ-Wissenschaft und Forschung. Magazin vom 14.02.2018. [10]

Projektionsvarianten zum Jahr 2100

Nach so vielen Zahlenwerten muss man immer die Projektionen zum Jahr 2100 im Schaubild betrachten. Man beachte dabei: Es handelt sich immer um den gleichen Ozean unserer Erde. Man braucht gar nicht zu rechnen, um ein Gefühl für den wahrscheinlichsten Pegelbereich zu bekommen.
Wer meint, die +2 m des mit Wissenschafts- und Ehrenpreisen überhäuften Herrn Schellnhuber wären eventuell doch leicht übertrieben: Auf phoenix kam am 09.02.2018 der Film „Bengalisches Fieber, eine Reise durch Bangladesch“. Im Film erzählte der Sprecher, dass der Meerespegel dort im Jahr 2.100 +4 m betragen werde.

Bild 10 [11] Pegel-Zukunfts-Projektionen verschiedenster Quellen. Eingetragen sind die Satellitendaten aus der Studie [14]. Skalierungen ungefähr maßstabsgetreu vom Autor zusammengestellt

Damit endet der erste Teil. Im zweiten Teil werden die Aussagen von Klima- und Pegelexperten zu dieser “bahnbrechenden” Studie “beleuchtet”.

Quellen
[1] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[2] EIKE 18.02.2018: Meeresspiegel: Steigen und Fallen – Teil 4a – ein sogar noch stärkerer Anstieg aus Nichts
[3] EIKE 19.02.2018: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu
[4] kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All
[5] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller
[6] EIKE 13.04.2015, K. E. Puls: Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht
[7] ScienceScepticalBlog 13. April 2012: Was nicht passt wird passend gemacht – ESA korrigiert Daten zum Meeresspiegel
[8] Bayerischer Rundfunk 13.02.2018: Wenn der Meeresspiegel steigt und Inseln versinken
[9] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren
[10] BR IQ-Podcastbeitrag mit dem Interview zur jüngsten Satellitenstudie

[11] PIC 2007, Wilfried Endlicher, Friedlich-Wilhelm Gerstengrabe: Der Klimawandel

[12] EIKE 13.01.2018: Meeresspiegel – steigen und fallen: Wie man einen Anstieg aus Nichts erzeugt
[13] Nils-AxelMörner August 2017: Sea Level Manipulation; Intern. J. Engineering Science Invention, ISSN (Online): 2319 – 6734, ISSN (Print): 2319 – 6726
[14] R. S. Nerem at. al.: Climate-change–driven accelerated sea-level rise detected in the altimeter era
Studie: 3 Seiten, 33 Quellenverweise
[15] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[16] EIKE 30.12.2017: Ohne den Klimawandel hätte das gleiche Wetter nicht so schlimme Folgen…
[17] kaltesonne 14. Juli 2014: Wie verlässlich sind Satellitenmessungen des Meeresspiegels? Küstenpegel zeigen viel geringeren Anstieg als Messungen aus dem All




Winter 2017/18 – wie brauchbar waren die Prognosen?

Bevor wir uns die Prognose- Ergebnisse im Einzelnen ansehen, wollen wir einmal den aktuellen Trend der Wintertemperaturen beleuchten. Langfristig (über mehrere Jahrhunderte gesehen) wurden unsere Winter erheblich milder, was hauptsächlich einer Erholungsphase der Temperaturen seit der „Kleinen Eiszeit“ geschuldet ist. Doch während der letzten 31 Jahre gab es keine Winter- Erwärmung mehr, sondern gar eine geringe Abkühlung trotz enorm gestiegener CO2- Konzentrationen:

Abb. 1: Seit 31 Jahren wird in Deutschland eine leichte Winter- Abkühlung statt der stets vorhergesagten Erwärmung beobachtet.


Aus aktuellem Anlass bietet sich auch einmal ein Blick nach Südkorea an (die olympischen Winterspiele 2018 wurden erfolgreich durchgeführt, aber manche Disziplinen mussten wegen Kälte, starkem Schneefall und eisiger Winde verschoben werden). Man kann von einem eher zu kalten Olympiawinter ausgehen; weil die Daten noch nicht vorliegen, endet folgende Grafik mit dem Winter 2016/17:

Abb. 2: In Gangneung, wo einige Wettkämpfe ausgetragen wurden, sinken die Wintertemperaturen ebenfalls seit 30 Jahren leicht. Keine Winter- Erwärmung ist seit mindestens 30 Jahren übrigens in den meisten Teilen West-, Mittel- und Nordeuropas, Nordasiens sowie in Teilen Nordamerikas zu beobachten.


Die Bewertung der Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen
Es werden nur Temperaturprognosen bewertet, welche spätestens am 1. Dezember 2017 vorlagen und sich auf den „meteorologischen“ Winter (Monate Dezember bis Februar) bezogen hatten. Langfristprognosen bleiben schwierig und können aufgrund der Komplexität des Wetters und des Klimas bei weitem nicht den Gütegrad der Kurzfristprognosen erreichen. So lassen sich auch konkrete Ereignisse, wie etwa das Wetter an Weihnachten oder die Kälte Ende Februar 2018, nicht über viele Wochen oder gar Monate im Voraus prognostizieren. Eine grobe Abschätzung des Charakters der Jahreszeit Winter und einzelner Monate ist jedoch mit Hilfe der Analyse der Vorwitterung, des Zustands der Zirkulationsverhältnisse zum Winterbeginn, statistischer Zusammenhänge und weiterer Faktoren bedingt möglich. Zuerst wird im Folgenden nochmals die ursprüngliche Prognose gezeigt; direkt unter jeder Prognose erfolgt die Bewertung; meist auf die CLINO- Periode 1981 bis 2010 bezogen. Eine Bewertung mit objektiven Maßzahlen wie etwa dem Root Mean Square Error (rmse) oder der Reduktion der Varianz (RV) war leider bei keiner Prognose möglich; da man hierfür eine genaue Prognosezahl benötigt. Bei Intervallangaben wurde ein „Treffer“ daher mit Note 2 bewertet, wenn er dieses vorhergesagte Intervall traf; verfehlte er dieses um nicht mehr als +/- 0,5 Kelvin, so ergab das Note 3, darüber bei bis zu +/- 1K Abweichung Note 4; bei noch mehr Abweichung Note 5, über +/- 2 K Note 6. Bei Prognosen mit mehreren Teilprognosen (etwa für den gesamten Winter und die 3 Einzelmonate) wurden diese einzeln gewertet und dann die Gesamtnote gemittelt. In die Bewertung wurde auch einbezogen, ob genauere Vorhersagen über den Gesamtwinter hinaus erfolgten. Fehlten diese, so wurde um eine Note abgewertet Wo Bezugswerte und/oder konkrete Zahlenprognosen fehlten, so wurde um eine Note abgewertet. Reine Wahrscheinlichkeitsaussagen konnten, sofern sie in etwa zutrafen, bestenfalls die Note 4 erhalten, weil ihr Aussagewert einfach zu gering ist.
UKMO (Großbritannien): Stand 11.11.2017 Winter (D, J, F) mit leicht erhöhter Wahrscheinlichkeit in Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; erstere weist ebenfalls eine leicht erhöhte Wahrscheinlichkeiten auf; während ein zu kalter Winter höchstens zu 20% wahrscheinlich ist. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob
Bewertung: Fast zutreffend, besonders im Dez/Jan. entsprach die erhöhte Wahrscheinlichkeit für „zu mild“ der Wirklichkeit, aber sehr unkonkret, Note 4
Meteo Schweiz Stand Nov. 2017: Leicht erhöhte Wahrscheinlichkeit für einen zu milden Winter. Zu kalter Winter nur zu etwas mehr als 20% wahrscheinlich); normaler zu knapp 30%. Die „doppelten T“ sind die Fehlerbalken:

Bewertung: Fast zutreffend, besonders im Dez/Jan. entsprach die erhöhte Wahrscheinlichkeit für „zu mild“ der Wirklichkeit, aber sehr unkonkret, Note 4
LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2017: Alle drei Wintermonate und Winter insgesamt zu mild.
Bewertung: Für Dez. und Jan. zutreffend, Feb. deutlich verfehlt, Winter gesamt zutreffend, Note 3
IRI (folgende Abbildung), Vorhersage vom Nov. 2017: Keine Aussagen für Deutschland und weite Teile West- und Mitteleuropas; zu mild in Nord- und Osteuropa.

Bewertung: Nicht möglich, da für Deutschland keine Aussagen getroffen wurden.
DWD (Offenbach): In Deutschland 0,5 bis 1°C zu mild, bezogen auf den Mittelwert der Jahre 1981 bis 2014 (Stand Nov. 2017):

Bewertung: Der Mittelwert der (unüblichen) Bezugsperiode 1981 bis 2014 beträgt im DWD- Mittel ebenfalls 0,9°C; laut der Karte wurden 1,4 bis 1,9°C erwartet. Intervall getroffen, aber genauere Vorhersageversuche zu einzelnen Monaten fehlten, Note 3
NASA (US- Weltraumbehörde) Karte vom November 2017: Winter in Mitteleuropa etwa 2 bis 3 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

Winter deutlich milder eingeschätzt, als er war, das vorhergesagte Intervall hätte 2,9 bis 3,9°C bedeutet; Note 5
CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 16. bis 25.11. 2017): Alle 3 Wintermonate um 1 bis 2 K zu mild. Dezember (links) Januar (rechts) Februar (unten); damit Winter insgesamt sehr mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Bewertung: Dezember (DWD- Mittel 2,7°C) Treffer, Januar (DWD 3,7°C) um mind. 1,3 K unterschätzt, Februar totale Fehlprognose. Der Winter insgesamt (hier nicht gezeigt) wurde den ganzen November über auf 1 bis 2 K zu mild und damit knapp überschätzt; Note 4
Stefan Kämpfe (verfasst am 26.11. und veröffentlicht bei EIKE am 30.11.2017):
Fazit: Eindeutige, verlässliche Anzeichen für einen durchgehend kalten Winter fehlen. Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute tendieren bei großer Unsicherheit in Richtung eines normalen bis extrem zu milden Winters. Momentan kündigen sich keine markanten Kälteeinbrüche im Frühwinter an; aber nasskaltes Wetter; im Bergland oberhalb von etwa 500 Metern könnte im Dezember häufiger, im Tiefland gelegentlich Schnee liegen. Insgesamt fällt der Winter 2017/18 nach momentanem Stand also normal bis extrem zu mild aus und wird im Deutschland- Mittel auf +0,5 bis +3,5°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise gute Wintersportmöglichkeiten. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) 0,0 bis +2,5°C (normal bis deutlich zu mild). Für Jan/Feb. 2018 lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein zu milder Hochwinter deutlich wahrscheinlicher, als ein zu kalter. Wegen eines möglichen Wechsels zur Ostwindphase in der unteren Stratosphäre (QBO) sind aber winterliche Phasen oder wenigstens ein einzelner, kalter bis sehr kalter Wintermonat noch nicht völlig ausgeschlossen. Sollte allerdings der Dezember tatsächlich zu mild ausfallen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2018 noch weiter.
Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 20% Analogfälle und 20% der vorwiegenden Tendenz der Langfristprognosen gewichtet.
Bewertung: Winter insgesamt getroffen, die Dezembertemperatur für Erfurt betrug 2,7°C (knapp verfehlt), die erhöhte Wahrscheinlichkeit für einen insgesamt zu milden Hochwinter (Jan. und Feb. DWD im LJM 0,7°C, 2018 0,9°C) traf zu; Note 3. Der Charakter der Winterwitterung (nicht mit bewertet) wurde insgesamt ganz passabel vorausgesagt.
Modellchaos im Februar 2018 – der Lernprozess des CFSv2- Modells
Lange Zeit ging das CFSv2- Modell des US- Wetterdienstes NOAA davon aus, dass der Februar 2018 erheblich zu mild ausfallen sollte; auch noch im letzten Januardrittel:

Erst als dann aber in den ersten Februartagen die Westströmung zusammenbrach, änderte sich die Vorhersage in zu kalt, was der Realität entsprach:

Wieder einmal zeigt sich: Die Realität ist oft eine andere, als uns die Modellrechnerei vorgaukelt; und so kann auch niemand wissen, wie unser Klima im Jahr 2100 aussehen wird.
Zusammengestellt von Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher, am 02.03.2018




Klimawissen­schaft: ,ES IST DIE SONNE‘ überfährt in das Jahr 2018 hinein alles andere

Während der Jahre 2016 und 2017 beispielsweise wurden in wissenschaftlichen Journalen über 250 Studien veröffentlicht (siehe hier und hier), in welchen eine starke Verbindung zwischen der Sonne und Klimawandel nachgewiesen wurde.

Vor weniger als 2 Monaten bis in das Jahr 2018 hinein wimmelt es immer noch von immer neuen Beweisen dafür, dass wenn es um Klimawandel bis zu einem substantiellen Ausmaß geht, die Sonne der maßgebliche Faktor ist. Die Liste des gerade begonnenen Jahres 2018 sah bisher bereits 20 derartige Studien, was in etwa gleich liegt mit den Jahren 2016 und 2017.

2 neue Studien (2018) zeigen das derzeitige Klima immer noch in einem ,kälteren Stadium‘, moduliert durch die Sonnenaktivität und die ENSO (hier)
3 neue Studien (2018) weisen eine Verbindung nach zwischen der derzeitigen Erwärmung sowie Abkühlungsphasen der Vergangenheit mit hoher bzw. niedriger Sonnenaktivität (hier).
Hier werden drei neue Studien vorgestellt, die allein während der vorigen Woche erschienen waren. Jede einzelne dokumentiert eine fundamentale Rolle der Sonnenaktivität beim derzeitigen Klimawandel:

Hemisphärische Temperaturtrends ,zeigen starke Relation mit der TSI‘ und ,eine kaum wahrnehmbare Relation mit dem globalen CO2-Gehalt

1. Rajesh and Tiwari, 2018

Die großen harmonischen Schwingungen um ~63 ± 5, 22 ± 2 und 10 ± 1 Jahre gleichen den solaren Periodizitäten und dürften folglich einen solaren Antrieb repräsentieren, während die Komponenten mit Spitzenwerten von 7,6; 6,3; 5,2; 4,7 und 4,2 Jahren offensichtlich in den Frequenzbändern der ENSO liegen in Verbindung mit den internen ozeanischen Prozessen. Unsere Analysen zeigen auch Beweise für die Amplituden-Modulation der solaren Zyklen von 9 bis 11 sowie 21 bis 22 Jahre bei den Wassertemperaturen der nördlichen und südlichen Hemisphäre jeweils über 104 und 163 Jahre (von 1850 bis 2014).

Das Fehlen der oben erwähnten periodischen Oszillationen des CO2-Gehaltes zeigt, dass dieses Spurengas keine Rolle bei den Wassertemperatur-Differenzen spielt. Die Cross-Plot-Analyse zeigte den starken Einfluss der Sonnenaktivität auf die linearen Trends der Wassertemperaturen (auf beiden Hemisphären) zusätzlich zu dem geringen Beitrag durch CO2. Unsere Studie kommt zu dem Ergebnis, dass 1) die langfristigen Trends der Variabilität der nord- und südhemisphärischen Wassertemperaturen eine deutliche Synchronizität zeigen mit zyklischen Erwärmungs- und Abkühlungsphasen und 2) die Differenz zwischen dem zyklischen Antrieb und nicht linearen Modulationen der solaren Variabilität geschuldet ist als mögliche Quelle hemisphärischer Wassertemperatur-Differenzen. … Die Trend-Komponenten der Wassertemperatur zeigen eine starke Relation mit Variationen der Gesamt-Sonneneinstrahlung TSI und kaum eine Relation mit dem globalen CO2-Trend.

—————————–

Änderungen der Temperatur der Welt-Ozeane von 1854 bis 2015 ,reflektieren solare und geomagnetische Aktivität‘

2. Zherebtsov et al., 2018

Auf der Grundlage einer komplexen Analyse hydrometeorologischer Daten wurde nachgewiesen, dass Temperaturänderungen in der Troposphäre und den Ozeanen eine Reaktion darstellen sowohl auf individuelle helio-geophysikalische Störungen als auch auf langfristige Änderungen (1854 bis 2015) solarer und geomagnetischer Aktivität. Es wird klar, dass die klimatische Reaktion auf solare und geomagnetische Aktivitäten charakterisiert wird durch eine nachweisbare räumlich-zeitliche Heterogenität, von regionaler Natur ist und von der allgemeinen Zirkulation der Atmosphäre abhängt. Der größte Beitrag der Sonnenaktivität zu globalen Klimawandeln wurde im Zeitraum 1910 bis 1943 beobachtet. … Während der letzten 1000 Jahre durchlief das Weltklima-Änderungen, die ziemlich eng korrelierten mit Variationen der Sonnenaktivität: vom 11. bis zum 13 Jahrhundert gab es bei hoher Sonnenaktivität eine Warmzeit (das „Mittelalterliche Klimaoptimum“) und zwei Kaltphasen der Kleinen Eiszeit im 16. und 17.Jahrhundert, welche mit dem Maunder- bzw. mit dem Spörer-Minimum korrelieren.

Zu einem allgemeinen Anstieg des Niveaus der Sonnenaktivität war es nach Ende des Maunder-Minimums gekommen (im 18. Jahrhundert), und das Weltklima ist über den größten Teil dieser Periode wärmer geworden. … Es wird gezeigt, dass die Sonnenaktivität signifikant zum globalen Klimawandel beigetragen hat, hauptsächlich während der ersten Erwärmung im 20 Jahrhundert (von 1910 bis 1943). Diese Periode ist charakterisiert durch einen signifikanten positiven Trend des Niveaus der geomagnetischen Aktivität, die während des gesamten betrachteten Zeitintervalls (1868 bis 2015) maximal war und mit einem verstärkten meridionalen Wärmetransfer im Nordatlantik einher ging.



—————————–
Die Sonne kann in diesem Jahrhundert zu einem Niveau des ,Maunder-Minimums‘ absinken, was das Klima ,erheblich beeinflussen‘ würde
Lubin et al., 2018

Während des vorigen Jahrzehnts gab es immer mehr die Bedenken weckende Erkenntnis, dass die stetige und hohe solare Leuchtkraft des vorigen 2. Jahrhunderts in eine noch größere Variabilität im weiteren Verlauf dieses Jahrhunderts übergehen kann (Abreu et al. 2008; Feulner & Rahmstorf 2010; Lockwood 2010). Vor allem könnte die Sonne in eine Phase geringer magnetischer Aktivität gleiten analog dem historischen Maunder-Minimum von etwa 1640 bis 1715 (Eddy 1976). Eine daraus folgende Abnahme der Gesamt-Sonneneinstrahlung TSI, welche den terrestrischen Energiehaushalt der unteren Atmosphäre beeinflussen würde, ist verbunden mit Änderungen der Zirkulation in höheren Breiten, welche erheblich das Klima in Europa und dem atlantischen Sektor der Arktis und Subarktis beeinflussen (Song et al. 2010; Meehl et al. 2013) und auch das Klima der Antarktis beeinflussen können. Andere Studien haben außerdem die Bedeutung der stratosphärischen Reaktionen auf ein Grand Minimum gezeigt (z. B. Gray et al. 2010; Bolduc et al. 2015; Maycock et al. 2015).

Über einen Sonnenzyklus hinweg und mit Sicherheit als Reaktion auf ein zukünftiges Grand Minimum ist die Strahlungs-Variabilität im mittleren UV-Bereich, welche die Sauerstoff-Photolyse und die Ozon-Chemie treibt, viel größer als die TSI. Daraus resultierende Änderungen des stratosphärischen Ozon-Gehaltes verändert den Temperaturgradienten zwischen Troposphäre und Stratosphäre und rückwirken auf die troposphärische Refraktion planetarischer Wellen. Dies ändert klimatisch relevante Zirkulations-Verteilungen noch mehr (Maycock et al. 2015). Mit der Erkenntnis, dass sowohl direkte Strahlungseinflüsse als auch indirekte stratosphärische Einflüsse das terrestrische Klima während eines solaren Grand Minimums beeinflussen, ist es wichtig zu verstehen, wie die UV-Strahlung auf eine so große und lang andauernde Änderung der solaren magnetischen Aktivität reagiert.

Anmerkung: Die Bildinschrift links ist bis auf ein paar Ergänzungen und Zusätzen identisch mit dem oben übersetzten Text.

Link: http://notrickszone.com/2018/02/22/its-the-sun-climate-science-steamrolls-into-2018/#sthash.GafRTb3X.dpbs
Übersetzt von Chris Frey EIKE




Negative Strompreise sind Werbekosten für die Energiewende

Negative Strompreise sind auch ein Grund zur Freude

Deutschland hat inzwischen den Spitzenplatz des Strompreises in der EU erklommen [2]. Natürlich nur für private Verbraucher, denn an der Strombörse können bestimmte Kunden den Strom zeitweise viel billiger, wenn nicht sogar gegen eine nicht unerhebliche Zuzahlung abholen [3]. Warum sich der dadurch gebeutelt fühlende Bürger freuen soll, erklärte ein Fachmann für Energiefragen jüngst in DER WELT.
WELT: Agora Energiewende 19.01.2018, Patrick Graichen: [1] Negative Strompreise sind auch ein Grund zur Freude
Ökostrom muss immer öfter gegen Gebühr im Ausland entsorgt werden. Die Meldung der WELT schlug Wellen. Jetzt reagiert die Denkfabrik Agora Energiewende: Ihr Chef Patrick Graichen hat kein Problem mit verschenktem Strom. Ein Gastbeitrag.

Ab und zu etwas verschenken, ist ein ganz normaler Vorgang in der Wirtschaft

Der Markt für Werbegeschenke ist bereits vor vielen Jahren ins bodenlose eingebrochen, als diese praktisch nicht mehr abgeschrieben werden konnten und bei größeren Werten als Complianceverstoß galten. Da freut man sich umso mehr, wenn Firmen anders handeln.
Patrick Graichen:
[1] … Ab und zu etwas zu verschenken, ist ein ganz normaler Vorgang in der Wirtschaft. Vielleicht haben Sie sich schon einmal darüber gewundert, dass Ihr Telefonanbieter Ihnen eine Prämie zahlt, wenn Sie Ihren Vertrag bei ihm verlängern? … Dann haben Sie sich vermutlich über das Geschenk gefreut. Genau wie der Telefonanbieter, für den es nämlich günstiger ist, Ihre Treue zu belohnen, als für deutlich mehr Geld einen ganz neuen Kunden zu gewinnen.
Nach einem ähnlichen Prinzip verfahren Fluggesellschaften: Sie bieten Sitzplätze für bestimmte Flüge bisweilen zu Spottpreisen an, … Oder umgekehrt, wenn der Flug überbucht ist: Dann bieten Fluggesellschaften Passagieren sogar Geld dafür, dass sie nicht fliegen.
Man sieht an diesen Beispielen: Leistungen werden manchmal verschenkt, weil es unterm Strich effizienter für den Anbieter ist. Sie nicht zu erbringen, wäre teurer. Das ist ein grundlegendes Prinzip der Betriebswirtschaft und nennt sich „Vermeidung von Opportunitätskosten“.

Negative Stromkosten sind nichts anderes als ein solches Geschenk

Die folgenden Kapitel muss man mehrmals lesen, um den Gedankengang des Herrn Graichen zu verstehen. Der Autor hat es so verstanden: Negative Strompreise muss der private Stromkunde als Werbegeschenke begreifen. Leider nicht an ihn, sondern an Großkunden und solche im Ausland.
Patrick Graichen:
[1] In diese Kategorie fallen auch die negativen Strompreise an der Strombörse. Zu ihnen kommt es in Zeiten mit einem sehr großen Angebot an Strom, das auf eine vergleichsweise geringe Nachfrage trifft. Der Grund: Für manche Kraftwerksbetreiber ist es günstiger, ihren Strom zu produzieren und mit Verlust zu verkaufen, als in der gleichen Zeit ein Kraftwerk abzuschalten, um es dann ein paar Stunden später wieder anzuschalten.
Je öfter solche Zeiten entstehen, desto stärker wird der daraus resultierende Anreiz … Also investieren Kraftwerksbetreiber in die Flexibilität ihrer Anlagen, damit das Runter- und Hochfahren einfacher und günstiger geschehen kann.
Das lässt sich schön
am Beispiel vom Neujahrstag zeigen. … Die Steinkohlekraftwerke sind fast vollständig vom Netz gegangen – was sie noch vor fünf Jahren, als die ersten negativen Strompreise auftraten, noch nicht getan haben. Ebenso ein Teil der Braunkohlekraftwerke …

Negative Strompreise dienen auch der „Erziehung“ konventioneller Kraftwerke

Nicht erwähnt wird, woher dieser, üblicherweise plötzliche, Stromüberfluss kommt – nämlich von der EEG-Zwangseinspeisung von beliebig viel EEG-Flatterstrom. Neben den privaten Stromkunden – die es bezahlen dürfen – freuen sich die Betreiber konventioneller Kraftwerke anscheinend ebenfalls darüber, weil es ein Anreiz ist, ihre Kraftwerke immer schneller rauf- und runterzufahren, notfalls sogar dazu umzurüsten (was wohl nur in engen Grenzen technisch möglich und sinnvoll ist). Für diese scheint es sogar ein Gewinn zu sein: Sie brauchen dann nicht mehr zu produzieren, sondern können den Strom billiger an der Börse kaufen und verkaufen, sozusagen ein verkäuferisches Perpetuum-mobile.
Patrick Graichen:
[1] Wären die Kraftwerke auch ohne negative Preise flexibler geworden? Eher nicht, sie sind vermutlich der stärkste Treiber für die Flexibilisierung des Stromsystems in der Energiewende.
Und sie können für die Betreiber der ehemaligen Grundlastkraftwerke sogar noch ein schönes Geschäft sein: In der Weihnachtswoche haben sie zum Beispiel einige Kraftwerke komplett abgeschaltet, obwohl sie betriebsbereit waren.
Den Strom, den sie ihren Kunden im Rahmen von Langfrist-Lieferverträgen schon vor langer Zeit verkauft hatten, haben sie sich stattdessen ersatzweise an der Börse besorgt, denn da war er wegen des vielen Winds sehr günstig. Unterm Strich stehen dadurch ein paar Millionen Euro mehr in den Büchern der Kraftwerksbetreiber.

Es ist eine Win-win-Situation

Über die Flatterstromeinspeisung darf nicht diskutiert werden. Also muss sie Vorteile bringen. Als Ökonom ist Herr Graichen geübt, das Schröpfen des privaten Stromkunden und Verteilen an Begüterte als großen Vorteil darzustellen. Auf die Idee, dass Minusstrompeise zur Förderung der fehlenden Speicher sinnvoll sind, muss man kommen. Dafür ist schließlich ein riesiger Bedarf vorhanden. Es wird dann wohl bald keine negativen Strompreise mehr geben, weil diese Position umbenannt als Speicherförderumlage ausgewiesen wird.
Patrick Graichen:
[1] Dieses Geld ist auch für andere attraktiv. Der Betrieb von Stromspeichern wird durch Minus-Strompreise interessant, genauso wie die Flexibilisierung von Industrieanlagen. So hat etwa die Aluminiumhütte Trimet ihre Anlage durch eine Neuinvestition so angepasst, dass sie flexibel auf den Strompreis reagieren kann – und macht dadurch ihre Aluminiumproduktion in Deutschland günstiger. Der Effekt: Flexible Kraftwerke, Stromspeicher und Lastmanagement führen dazu, dass die negativen Strompreise sich weitgehend erledigen. Am Schluss stellt sich, wie so oft in der Wirtschaft, ein Optimum ein.

Warum wird darüber überhaupt diskutiert?

Warum sich aufregen, wo es sich doch nur um „Peanuts“ handelt. Das wirkliche Geld wird doch an den anderen Stellen des EEG hinausgeschmissen. Dass die Zusatzausgaben für die Netzstabilität von ca. einer Milliarde EUR im letzten Jahr zu diesem Themenkomplex gehören und ebenfalls rasant steigen, braucht ja nicht jeder zu erfahren.
Patrick Graichen:
[1] … Deswegen taugt das Thema negative Strompreise nicht als Aufreger. Ihre Dimension ist zudem … eher klein: Im Jahr 2017 wurde … Strom für insgesamt 180 Millionen Euro verschenkt. Der Börsenwert des insgesamt umgesetzten Stroms ist … einhundertmal größer …

Dass der Strom teuer ist, liegt nur an den Stromanbietern. Die geben die negativen Kosten nicht als Gewinn weiter

Frau Professor C. Kemfert muss neidisch werden. So exzellent Ursache und Wirkung ins Gegenteil verkehren und die EEG-Abzockerei als Gewinn darstellen, schafft sogar sie nur selten. Nach dieser Erklärung glaubt man fast selbst, dass der Strompreis sinkt und der zu bezahlende eine Fata Morgana sein muss.
Patrick Graichen:
[1] Wenn Sie also das nächste Mal hören, dass die Strompreise negativ waren, dann freuen sie sich. Ihr Stromanbieter kann Ihnen mit der nächsten Tarifanpassung ein wenig von dem weitergeben, was er an der Börse für den Strombezug eingenommen hat. Ärgern Sie sich auch nicht darüber, dass Sie über die Ökostrom-Umlage angeblich noch Windmüller dafür bezahlen müssen, dass die ihren überflüssigen Strom nur mit Bonus loswerden. Das Geld dafür nimmt ihr Stromanbieter schließlich auch schon an der Börse ein.

Zudem: Negative Strompreise tragen zum Gelingen der Energiewende bei

Patrick Graichen: [1] Sollten Sie allerdings zufällig Unternehmer sein und als Großverbraucher Ihren Strom direkt an der Börse kaufen, dann können Sie ja mal überlegen, wie Sie Ihre Anlagen so einsetzen, dass sie in Zeiten mit negativen oder auch niedrigen Strompreisen besonders häufig laufen. Sie würden nicht nur Ihr Konto füllen, sondern auch zum Gelingen der Energiewende beitragen.
Man hat den Eindruck, dass sich solche Artikel (zur abschließenden Bewertung unbedingt bei „WELT“ in voller Länge lesen, in denen von EEG-Kritikern als problematisch bis katastrophal empfundene Themen von viel besser wissenden Fachpersonen in ein positives Licht – teils wie in diesem, sogar als Vorteile – dargestellt werden, häufen [4].
Anmerkung: Der Autor bedankt sich bei „Vernunftkraft“ für den Hinweis:
…wie sie mir gefällt – Herr Graichen in der WELT
Quellen
[1] WELT: Agora Energiewende 19.01.2018, Patrick Graichen: Negative Strompreise sind auch ein Grund zur Freude
[2] EIKE 30.01.2018: Deutschland hat in Europa einen neuen Spitzenplatz erklommen – beim Strompreis
[3] EIKE 31.12.2016: Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
[4] EIKE 18.02.2018: Stromüberfluss ist eines der Kernprobleme der Energiewende




Atmosphäri­sche Wissen­schaft nach 50 Jahren

Vor fünfzig Jahren, als das Klima noch nicht so kontrovers war, machte ich meine erste Wetterbeobachtung. Am 18. Februar 1968 maß ich mit meinem selbstgebauten, in einem Baum vor meinem Schlafzimmer platzierten Instrument den Wind. Ich zeichnete Wetterbedingungen viele Male jeden Tag fast ohne Lücken auf, seit ich in der achten Klasse war und bis zu meinem Weg zum College, wo ich mein Vordiplom in Meteorologie bei Penn State 1968 erlangte.

Seit meiner ersten Tätigkeit als Wetterbeobachter auf einer abgelegenen Station in Alaska, 160 Meilen jenseits des Polarkreises, wo ich als meteorologischer Berater bzgl. Luftverschmutzung fungierte, hat sich seit 1968 sehr viel geändert.

Immer weiter zunehmende Computerleistungen und Schnelligkeit der Computer, innovative Satelliten- und Radar-Technologie, Verbesserung und Verteilung automatischer Wetter-Sensoren und so weiter erweiterten die meteorologischen Möglichkeiten gewaltig. Verständnis und damit einhergehend die Vorhersage atmosphärischer Bedingungen erreichten immer neue Höhepunkte, wodurch unsere Fähigkeit, die Zukunft präzise vorherzusagen, rasch gestiegen ist, vielleicht zu rasch.

Über die Jahrzehnte habe ich aus den Erfahrungen mit den Tief- und Höhepunkten der globalen Temperaturen und den enthusiastischen Medien viele wichtige Lektionen gelernt:

Gute Wissenschaftler arbeiten in Demut. Arroganz führt zu Fehlern.

Ein Wissenschaftler muss völlige Freiheit haben, jedwede Hypothese, Theorie oder Zweifel zu erforschen. Wahrheit ist nicht der Gewinner eines populären Wettbewerbs eines „Konsens’“.

Wissenschaftliche Bildung bedeutet, dass man den Unterschied zwischen Wissen einerseits sowie Hypothesen, Vermutungen und Glauben andererseits genau kennt.

Politischer Druck auf Wissenschaft beeinflusst die Ergebnisse naturwissenschaftlicher Forschungen erheblich negativ. Die wissenschaftliche Praxis dient dazu, Fakten zu entdecken, und nicht dazu, diese zu erfinden.

Krisen-Sensationslust ist besonders schädlich für die Klimawissenschaft. Krisen-Sensationslust neigt dazu, die Mittelklasse zu durchtränken, indem sie versucht, Probleme zu zu lösen, die es gar nicht gibt, mit Lösungen, die nicht funktionieren, während man die Armen dieser Welt daran hindert, in ein besseres Morgen zu kommen.

Meine Vermutung ist, dass ein substantieller Klimawandel aufgrund menschlicher Aktivitäten auf kleinräumige Maßstäbe beschränkt bleiben wird. Ob diese Änderungen drastisch ausfallen oder nicht ist abhängig von der jeweiligen Perspektive. In Städten lebende Menschen, wo es zuvor nur Wälder gab, werden mit der kleinräumigen Klimaänderung dankbar für die Änderung sein. Andere können all diese Stadtbewohner als das Problem ansehen. Potentielle mesoskalige Änderungen der Zugbahnen von Stürmen werden einigen zum Vorteil gereichen, während andere geschädigt werden. Gemessene langfristige Auswirkungen im globalen Maßstab können sowohl gering und vorteilhaft, aber auch groß und katastrophal sein.

Ich weiß nicht, wie die Atmosphäre in fünfzig Jahren beschaffen sein wird. Aber eines scheint gewiss: dass das Klima im Bereich atmosphärischer Wissenschaft und Anwendung enorm profitieren wird von konstruktivem unabhängigen Denken und nicht von rigider Gleichmacherei durch Gruppendenken und Ergebnisse, welche von politischen Vorgaben induziert werden.

Anthony J. Sadar is a certified consulting meteorologist and the author of In Global Warming We Trust: Too Big to Fail (Stairway Press, 2016).
Link: https://www.americanthinker.com/blog/2018/02/atmospheric_science_50_years_later.html
Übersetzt von Chris Frey EIKE