Deutschland – ein Wintermärchen

Ab 2021 gilt eine neue Klima-Normalperiode, die von 1991 bis 2020

Auch wenn es Klima-Erwärmungsgläubigen schwerfällt – ab sofort wird auf Beschluss der Weltorganisation für Meteorologie (WMO) die alte, kalte und schon reichlich angestaubte Normalperiode von 1991 bis 1990 durch die aktuelle, wärmere von 1991 bis 2020 ersetzt. Das hat Konsequenzen – künftig liegt die Messlatte für warme Jahre und Jahreszeiten viel höher. Für den Winter im Deutschland-Mittel bedeutet es Folgendes: Von 1961 bis 1990 (Abkühlungsphase) betrug das Vergleichs-Wintermittel +0,3°C, von 1981 bis 2010 +0,9°C, 1991 bis 2020 aber +1,4°C. Betrachtet man nun aber die Entwicklung der Winter-Temperaturen im Deutschland-Mittel seit dem „Klimasprung“ von 1987/88, als es letztmalig plötzlich im Winter merklich wärmer wurde, so zeigt sich fast Stagnation; die weitere Erwärmung war gering und nicht signifikant. Der aktuelle Winter wurde dabei vom Verfasser dieses Beitrages eher optimistisch auf +2,0°C geschätzt, diese muss er erst einmal erreichen:

Abbildung 1: Seit Anfang 1987/88 erwärmte sich der Winter in Deutschland kaum noch; auch der aktuelle, recht milde wird wohl etwas kühler ausfallen, als die Winter von 1988 bis 1990. Der extrem milde Rekordwinter von 2006/07 mit fast +4,4°C liegt nun auch schon fast anderthalb Jahrzehnte zurück.

Immer weniger Arktisches Meereis im Winter?

Auch den flächen- und volumenmäßigen Rückgang des arktischen Meereises bestreitet niemand, doch sieht dieser weitaus dramatischer aus, als er tatsächlich ist, denn eine quantitative, kontinuierliche, relativ zuverlässige Erfassung war erst mit der Weiterentwicklung der Satelliten-Technik ab dem Jahre 1979 möglich – aber damals war gerade der Höhepunkt einer Abkühlungsphase erreicht; es wurden schon Wetten abgeschlossen, ob man bald über das Eis von Grönland nach Island laufen könne – und es kam dann ganz anders: Wegen der um 1990 einsetzenden AMO-Warmphase wurde viel Wärme in die Arktis eingetragen; das Eis zog sich zurück. Allerdings gab es derartige Rückzugsperioden auch schon während der AMO-Warmphase um 1930, und wie hätten die Wikinger im frühen Mittelalter Island, Grönland und Neufundland erreichen können, wenn es damals viel Eis gegeben hätte? So zeigt sich auch die aktuelle, winterliche Entwicklung der Meereisbedeckung nur leicht unterdurchschnittlich und keineswegs dramatisch:

Abbildung 2: Flächenentwicklung des Arktischen Meereises bis zum 4. Januar 2021 (hellblaue Linie). Noch im Oktober gab es, gemessen am Mittelwert von 1981 bis 2010, viel zu wenig Eis, doch in den vergangenen 10 Wochen verringerte sich dieses Defizit merklich. Bildquelle

Mehr Schneebedeckung in Eurasien?

In den vergangenen zwei Wintern hatten Schneefans in Mitteleuropa wenig Freude; die „weiße Pracht“ war, wenn überhaupt, nur im höheren Bergland zu bewundern. Doch Europa ist nur das bedeutungslose Anhängsel des Riesen-Kontinents Eurasien. Betrachtet man dessen Ausdehnung der Schneebedeckung zu verschiedenen Jahreszeiten, so zeigt sich folgendes Bild:

Abbildung 3: Seit 1978, dem Beginn der regelmäßigen Erfassung, hat sich die von Schnee bedeckte Fläche in Eurasien im Herbst deutlich und im Winter leicht vergrößert; im Frühling nahm sie, vermutlich durch längere und intensivere Besonnung, ab.

Beeinflusst die AMO die Wintertemperaturen in Deutschland?

Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Gegenwärtig befinden wir uns in einer AMO-Warmphase, die um 1990 begann und möglicherweise bald enden wird. Doch während für die Jahreszeiten Sommer und Herbst sowie für den April eindeutige, positive Einflüsse bestehen (in AMO-Warmphasen sind diese in Deutschland tendenziell wärmer), konnten für den Winter keine eindeutigen Zusammenhänge gefunden werden:

Abbildung 4: Fast Gleichlauf zwischen der schwarzen Kurve (NAO) und der violetten (Westlagen-Häufigkeit) im meteorologischen Winter. Deren langfristige Entwicklung erklärt recht gut die Entwicklung der Deutschen Wintertemperaturen (hellblau). Zur grünen Kurve (AMO) besteht mit r= 0,146 nur ein geringer, nicht signifikanter positiver Zusammenhang. Weil die vier Größen sehr unterschiedliche Werte haben, wurden sie zur besseren Veranschaulichung in einer Grafik in Indexwerte umgerechnet.

Tendenziell treten in AMO-Phasen mehr Süd- und Südwestlagen auf; doch bringen gerade Südlagen im Winter nicht immer deutlich übernormale Temperaturen. Trotzdem könnte es bei sehr hohen AMO-Werten, wie gegenwärtig, im Einzelfall zu verstärkten, gebietsweisen Warmluft-Einbrüchen im Winter kommen. Der sehr milde Dezember 2020, in dem Westlagen aber eher selten waren, deutet in diese Richtung. Er wies am Monatsanfang und am Monatsende zwei markante Troglagen über West- und Mitteleuropa auf. Dabei standen sich zeitweise ein Tief über dem südlichen Mitteleuropa und ein Russland-Hoch gegenüber; zwischen beiden strömte über Westpolen extrem milde Mittelmeer-Luft nordwärts, während in West-und Mitteleuropa sonst nasskaltes Wetter mit gebietsweisen Schneefällen in den Mittelgebirgen und extrem starken Schneefällen in den Alpen herrschte:

Abbildung 5: Winterlicher, räumlich eng begrenzter Warmlufteinbruch über den Balkan, Böhmen und Westpolen am 6. Dezember 2020. Dort wurden noch abends zweistellige Plusgrade gemessen, während es über Südrussland schon frostig kalt und in Mittel- und Westeuropa nasskalt war. Bildquelle

Winter und Energiewende – das passt nicht gut zusammen

Der Dezember 2020 zeichnete sich, ganz anders als seine beiden Vorgänger, durch viele Flauten aus; auch die Sonnenscheindauer blieb gering:

Abbildung 6: Während die Solarenergie im Dezember 2020 praktisch keinen nennenswerten Strom lieferte, war auch Windstrom bis zur Monatsmitte und am Monatsende Mangelware. Braun- und Steinkohle, Kernkraft und zunehmend Erdgas verhinderten, dass in Deutschland die Lichter ausgingen.

Und in den ersten Januartagen sah es für die „Erneuerbaren“ Energien auch alles andere als rosig aus:

Abbildung 7: Fehlstart der „Erneuerbaren“ bis zum 5. Januar 2021: An den ersten zwei Januartagen kaum Wind, auch danach unterdurchschnittliche Windausbeute. Und die Sonne lieferte praktisch Nichts – zum Glück gibt es (noch) Kohle- und Kernkraftwerke; bei deren Abschaltung werden wir wohl künftige Winter in Kälte und Dunkelheit verbringen müssen.

Im Winter steigt der Stromverbrauch tendenziell an, weil mehr Licht benötigt und die meisten Heizungsanlagen zwar mit Erdgas oder Öl befeuert, aber mit Strom gesteuert werden. Anders als in den übrigen Jahreszeiten, nahm im Winter die Anzahl der unbestimmten, schwachwindigen XX-Lagen nur geringfügig zu; dennoch sind die Produktionsergebnisse des Windstroms trotz weiteren Ausbaus gerade der Offshore-Anlagen unbefriedigend. Sollte sich der Trend zu mehr schwachwindigen Wetterlagen künftig auch im Winter beschleunigen, was durchaus zu erwarten ist, so dürfte das endgültige Scheitern der Energiewende nicht mehr zu verhindern sein.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 05. 01. 2021




RKI zu PCR-Tests: Corona-Inzidenz unter 100 nicht erreichbar

Am 5. Januar haben die Ministerpräsidenten über eine Verlängerung und Verschärfung der Ausgangsbeschränkungen beraten. Als Grenzwert soll künftig eine Inzidenz von 100 Coronafällen pro 100.000 Einwohnern dienen.

Nicht nur betreffen derartige Einschränkungen damit „faktisch fast ganz Deutschland„, wie es aus den Ländern heißt. Die Maßnahmen könnten noch dazu nie wieder aufgehoben werden. Denn dieser Wert könne selbst von einer nachweislich gesunden, vollständig durchgetesteten Bevölkerung nicht unterschritten werden.

So schreibt das RKI: „Ein negatives PCR-Ergebnis schließt die Möglichkeit einer Infektion mit SARS-CoV-2 nicht aus“ und spricht von einer Spezifität von „nahezu 100 Prozent“. Beides lässt vermuten, dass PCR-Tests nicht fehlerfrei sind. An anderer Stelle schreibt das RKI:

Wie bei allen Testverfahren mit einer Spezifität < 100 % ist – insbesondere bei einer geringen [Verbreitung] in der Bevölkerung – ein gewisser Anteil falsch positiver Testergebnisse unvermeidbar.“

Letzteres lässt darauf schließen, dass insbesondere bei einer kleinen Anzahl tatsächlich Erkrankter die Aussagekraft der Tests nachlässt. Das bedeutet im Umkehrschluss: Je mehr Menschen tatsächlich infiziert sind, desto zuverlässiger sind die Ergebnisse.

Bereits eine Fehlerquote von 0,1 Prozent – bei einer angenommen Test-Genauigkeit von 99,9 Prozent – führt jedoch dazu, dass unter 100.000 nachweislich gesunden Menschen 100 falsch-positive Testergebnisse zu erwarten sind. Eine Lockerung der beschlossenen Maßnahmen wie Ausgangssperren, Beschränkung des Mobilitätsradius und der Zeit im Freien, wäre daher unmöglich.

Auch der kleinste Fehler ist ein Fehler

Entscheidend für die (statistische) Qualität eines Tests sind zwei Größen: Die Sensitivität und die Spezifität. Sucht man mit einem Test in einer Bevölkerung nach einer Erkrankung oder einem Erreger, gibt es zwei Ziele:

    • Der Test sollte zuverlässig alle finden, die wirklich krank sind, also niemanden übersehen – daraus ergibt sich die Sensitivität.
    • Der Test sollte zuverlässig nur die finden, die wirklich krank sind, also bei niemandem positiv ausfallen, der nicht krank/infiziert ist – das ergibt die Spezifität.

Die Sensitivität gibt an, bei wie viel Prozent der Tests das untersuchte Merkmal (COVID-19) korrekt erkannt wird, also ein „richtig-positives“ Testresultat auftritt. Die Spezifität hingegen gibt die Wahrscheinlichkeit an, mit der tatsächlich Gesunde richtigerweise als gesund beziehungsweise „richtig-negativ“ erkannt werden. Je größer diese Werte liegen, desto besser ist der Test. Dennoch übersieht jeder Test mit einer noch so kleinen Fehlerrate einen Teil der tatsächlich Kranken oder Infizierten.

Das heißt, der Test zeigt negative Testergebnisse bei Menschen, die eigentlich hätten positiv ausfallen müssen, sogenannte „falsch-negative Ergebnisse“. Außerdem kann der Test positive Testergebnisse bei Menschen anzeigen, die eigentlich hätten negativ ausfallen müssen, weil diese Menschen nicht krank/infiziert sind, sogenannte „falsch-positive Ergebnisse“.

Antigen- und PCR-Tests: Fehlerquote 0,1 bis 30 Prozent

Das Robert Koch-Institut (RKI) gibt für PCR-Tests weder für Spezifität noch Sensitivität exakte Werte an. In den Antworten auf Häufig gestellte Fragen hießt es:

Aufgrund des Funktionsprinzips von PCR-Tests und hohen Qualitätsanforderungen liegt die analytische Spezifität bei korrekter Durchführung und Bewertung bei nahezu 100 %.“

Nahezu 100 Prozent kann 99,9 Prozent oder 95 Prozent bedeuten – beides ergibt mathematisch korrekt gerundet 100 Prozent. Eine im April 2020 erfolgte Qualitätskontrolle unter der Leitung von Prof. Zeichhardt vom Institut für Qualitätssicherung in der Virusdiagnostik gab die durchschnittliche Spezifität der PCR-Tests (Untersuchung des Rachenabstrichs auf Coronaviren) mit 99,3 Prozent an. Unabhängig davon bezifferte eine Studie der Johns Hopkins School of Medicine die Sensitivität dieses Testverfahrens unter realen Bedingungen und den Testkriterien in Deutschland auf etwa 70 Prozent.

Für Antigen- oder Schnelltests nennt das RKI in einem Eckdaten-Papier des lokalen Corona-Monitorings für Straubing exakte Zahlen. Hierbei liegt die Sensitivität bei 88,3 Prozent. Die Spezifität gibt das RKI mit 99,4 Prozent an.

Sowohl für PCR- als auch Schnelltests gilt jedoch, dass die unsachgemäße Anwendung zu Fehlern führen kann. Das hat auch die WHO erkannt und warnt ausdrücklich: PCR-Anwender „sollten [die] Gebrauchsanweisungen sorgfältig lesen“. Je nach Hersteller steht dort, dass der Test für Patienten bestimmt ist, „die Symptome der COVID-­19 aufweisen“. Im Umkehrschluss bedeutet das, PCR-Tests sind nicht für die Untersuchung asymptomatischer Personen vorgesehen. Die angegebenen Fehlerquoten können daher nur für symptomatische Patienten gelten.

Sofern nicht anders angegeben, werden für die nachfolgende Betrachtung sowohl Spezifität als auch Sensitivität für PCR-Tests von 99,9 Prozent angenommen.

19 von 20 „positiv Getesteten“ sind gesund

Aus Sensitivität und Spezifität ergeben sich zwei weitere statistische Größen, die die Genauigkeit der Testergebnisse veranschaulichen. Der positive Vorhersagewert (positive predictive value, PPV) gibt die Wahrscheinlichkeit an, mit der ein positiv erhobenes Testergebnis tatsächlich auf eine COVID-19-Erkrankung hinweist. Der negative Vorhersagewert (NPV) gibt analog die Wahrscheinlichkeit an, mit der ein negatives Testergebnis richtig ist.

Die mathematischer Herleitung erfolgt anhand einer Vierfeldertafel mit den Merkmalen „infiziert/nicht infiziert“ und „positiv/negativ getestet“. Darüber hinaus bietet das Internet Werkzeuge zur Ermittlung der beiden statistischen Kenngrößen. [Hinweis der Redaktion zur richtigen Rechenweise: Beim Online-Tool besteht die virtuelle Testgruppe aus zehntausend statt einhunderttausend Personen, sodass die täglich veröffentlichten Inzidenz-Werte durch zehn geteilt werden müssen, um ein realistisches Bild zu erhalten.]

Für die angenommenen Werte für Sensitivität und Spezifität von je 99,9 Prozent sowie der aktuellen (9. Januar 2021) bundesweiten Corona-Inzidenz von 154 Fällen pro 100.000 Einwohnern – vorausgesetzt alle gemeldeten Fälle (0,15 Prozent der Bevölkerung) sind tatsächlich infiziert – ergibt sich ein PPV von 60,98 Prozent. Das heißt, 60 Prozent der positiven Tests liegt tatsächlich eine Corona-Infektion zugrunde. Gleichzeitig bedeutet dieser Wert jedoch auch, dass 40 Prozent oder etwa jedes zweite positive Testergebnis falsch ist.

Mit den Werten von Prof. Zeichhardt und der Johns Hopkins School of Medicine sinkt der PPV für PCR-Tests auf 13,7 Prozent oder „nur jeder Achte Positive ist infiziert“. Ein Antigen-(Schnell-)Test zeigt unter Annahme praxisnaher Werte von 80 Prozent Sensitivität und 98 Prozent Spezifität nur in 5,7 Prozent der Fälle ein richtig-positives Ergebnis an. Das heißt, 19 von 20 positiv Getesteten sind gesund.

Corona-Inzidenz unter 100 mit PCR-Tests nicht erreichbar

Für den niedersächsischen Landkreis Friesland registrierte das RKI am 10. Januar 42 Corona-Positive pro 100.000 Einwohner (7-Tage-Inzidenz). Wiederum unter der Voraussetzung, dass alle Positiven tatsächlich infiziert sind, ergibt sich dort ein PPV (für 99,9 Prozent genaue PCR-Tests) von 29,0 Prozent. Das heißt: Nur einer von vier positiv Getesteten ist tatsächlich infiziert. Der Schnelltest-PPV liegt bei etwa 1,5 Prozent.

Im sächsischen Landkreis Bautzen betrug die 7-Tage-Inzidenz 545,4 (RKI-Dashboard, 10.1., 12:50 Uhr). Der dazugehörige PPV liegt bei 85,1 Prozent: Fünf von sechs PCR-Positiven sind tatsächlich infiziert. Der PPV für Schnelltests liegt unter diesen Umständen bei 18,2 Prozent.

Steigt die Prävalenz – die Zahl der tatsächlich Infizierten –, steigt auch die Genauigkeit der Tests. Andererseits zeigt auch ein zu 99,9 Prozent zuverlässiger Test 0,1 Prozent Fehler an. In einer vollständig Corona-verseuchten Bevölkerungsgruppe von 100.000 Personen sind daher immer noch 100 falsch-negative Testergebnisse zu erwarten – und in einer nachweislich gesunden Bevölkerung 100 falsch-positive Ergebnisse und damit eine Corona-Inzidenz von 100.

Mit den von Prof. Zeichhardt und der Johns Hopkins School of Medicine ermittelten Werten, könnte die Inzidenz – in einer vollständig durchgetesteten, gesunden Bevölkerungsgruppe – nicht unter 700 sinken.

Die aktuellen Werte zwischen 42 und 545 ergeben sich, wenn beispielsweise nur ein Teil der Bevölkerung getestet wird und aus dieser Stichprobe auf die Gesamtheit geschlossen wird. So registrierte das RKI binnen der letzten sieben Tage in Bautzen 1.635 Corona-Positive (RKI-Dashboard, 10.1., 12:50 Uhr) – von denen rechnerisch jeder sechste falsch positiv ist. Bezogen auf die Gesamtbevölkerung des Landkreises von etwa 300.000 Einwohnern, errechnet sich die aktuelle Inzidenz von 545,4 pro 100.000.

Update 11. Januar

Eine frühere Version dieses Artikels verwies auf eine ungeprüfte Quelle, die Aussage des Artikels war davon nicht betroffen. Seit Veröffentlichung des Artikels wurden die eingangs erwähnten Maßnahmen beschlossen, außerdem erfolgte eine Aktualisierung der Zahlen anhand des COVID-19-Dashboards (zuletzt aufgerufen 10.1., 12:50 Uhr) des RKIs.

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.



Steigt der Meeresspiegel immer schneller? (T1/2)

Leider allerdings nur wieder ein Beispiel, wie angebliche „Wissenschaftler“ gemeinsam mit unseren Medien den Bürger bewusst belügen bzw. ihm nicht die ganze Wahrheit sagen. Auf kaltesonne wurde es thematisiert [2]. Da die Info dort etwas kurz geraten ist und den Sachverhalt nur anreißt, anbei eine etwas längere Ausführung.

Der Meeresspiegel steigt. Und nicht nur das: Er steigt immer schneller…

…verkündete Prof. Rahmstorf (PIK) im Spiegel [1]. Und er wusste dazu zu erzählen, dass man auch wisse, warum das so ist: „[1] Wie stark der Klimawandel diesen Effekt treibt, ist inzwischen weitgehend entschlüsselt … “. Dazu erzählt er auch, dass die Satelliten den Meerespegel aus einer Bahnhöhe von ca. 1.320 km auf einen Millimeter genau ausmessen könnten: „Die Laufzeit der Wellen erlaubt es, den mittleren globalen Meerespegel auf einen Millimeter genau zu bestimmen“.

Um dann mit der Hiobsbotschaft zu ergänzen: „Seit 1992 ist der globale Meeresspiegel um neun Zentimeter gestiegen. Die Anstiegsgeschwindigkeit hat sich in dieser Zeit mehr als verdoppelt, von 2,1 auf 4,8 Millimeter pro Jahr ... „

Bild 1 [1] Meerespegelverlauf. Darstellung von Prof. Rahmstorf

Dazu passt auch die Wiederholung der Information, wonach der Meerespegel die letzten 2.000 Jahre fast unverändert blieb, nun aber ebenfalls so etwas wie einen „Hockeyschläger-Verlauf“ ausbildet:
[1] Doch schon dieser Anstieg ist einzigartig mindestens seit der Geburt Christi: Sedimentdaten zeigen, dass es seither in keinem Jahrhundert mehr als fünf Zentimeter Anstieg gegeben hat, und Jahrhunderte mit steigendem und fallendem Pegel hielten sich in etwa die Waage

Bild 2 [4] historischer und aktueller Meerespegelverlauf

Wenn irgend jemand vom PIK „spricht“, ist eine Erwähnung der Kipppunkte „unvermeidbar“, schließlich hat diese im Wesentlichen ihr ehemaliger Chef, Herr Schellnhuber, simuliert und propagiert:
[1] Die Eismassen haben seit Jahrzehnten bekannte Kipppunkte durch die Eis-Höhen-Rückkopplung in Grönland und die marine Eisschildinstabilität in der Antarktis. Der Kipppunkt für Grönland (genug für sieben Meter Meeresspiegel) liegt wahrscheinlich irgendwo zwischen einem und drei Grad globaler Erwärmung – nach der besten Abschätzung bei 1,6 Grad. Der Kipppunkt für die Westantarktis (genug für drei Meter Meeresspiegel) ist wahrscheinlich sogar schon überschritten …

Eine aktuelle Studie liest aus den gleichen Daten etwas anderes heraus

Beim Klimawandel bleibt und ist nichts im „Konsens“ oder gar wie oft behauptet „settled“. Wie immer gibt es Wissenschaftler, die zum genau gleichen Datensatz ganz anderes berichten. So auch wieder in diesem Fall:
[5] H. Bâkiİz and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era
Abstract: Recent studies reported a uniform global sea level acceleration during the satellite altimetry era (1993– 2017) by analyzing globally averaged satellite altimetry measurements. Here, we discuss potential omission errors that were not thoroughly addressed in detecting and estimating the reported global sea level acceleration in these studies. Our analyses results demonstrate that the declared acceleration in recent studies can also be explained equally well by alternative kinematic models based on previously well-established multi-decadal global mean sea level variations of various origins, which suggests prudence before declaring the presence of an accelerating global mean sea level with conidence during the satellite altimetry era.
(Leicht angepasste) deepl-Übersetzung: Zusammenfassung: Jüngste Studien berichteten über eine einheitliche globale Meeresspiegel-Beschleunigung während der Satellitenaltimetrie-Ära (1993- 2017) durch die Analyse von global gemittelten Satellitenaltimetrie-Messungen.
Hier diskutieren wir mögliche Auslassungsfehler die bei der Erkennung und Schätzung der berichteten globalen Meeresspiegelbeschleunigung in diesen Studien nicht gründlich behandelt wurden.
Unsere Analyseergebnisse zeigen, dass die angegebene Beschleunigung in den jüngsten Studien ebenso gut auch durch alternative kinematische Modelle erklärt werden kann, die auf gut etablierten multidekadischen globalen mittleren Meeresspiegelschwankungen unterschiedlicher Herkunft basieren. Was zur Vorsicht mahnt, bevor man Erklärungen vertraut, welchen das Vorhandensein eines sich beschleunigenden globalen mittleren Meeresspiegels während der Satelliten Altimetrie-Ära postulieren.
Dem Abstrakt setzten die zwei Studienautoren noch ein Zitat nach: “Nothing is always absolutely so” Sturgeon, The Claustrophile, 1956

In der Studie werden zuerst Daten verschiedener Studien, welche Beschleunigungen im Anstieg der Meerespegel- berichten gelistet und dazu, dass darin (fast immer) keine stichhaltigen Belege enthalten sind. Dann kommt eine eigene Analyse der Satellitendaten:
[5]We analyzed monthly and globally averaged satellite altimetry, SA, global sea level time series to demonstrate that one of the most important approaches to earliest possible detection of a signicant GMSL acceleration lies in recognizing and separating the eect of natural internal forcing of the oceans compounded with the variability of astronomical origin that are not limited to the SA era. We also quanti- ed unusually highly autocorrelated noise in the SA time series, which were not rigorously addressed in recent studies …
(Leicht angepasste) deepl-Übersetzung: ... Wir analysierten monatliche und global gemittelte Zeitreihen der Satellitenaltimetrie SA, (und) des globalen Meeresspiegels, um zu zeigen, dass einer der wichtigsten Ansätze zur frühestmöglichen Erkennung einer signifikanten GMSL-Beschleunigung in der Erkennung und Trennung des Effekts natürlicher interner Antriebe der Ozeane zusammen mit der Variabilität astronomischen Ursprungs (Einfügung. Bsp. Sonnenvariabilität) liegt, die nicht auf die Satelliten-Ära beschränkt sind.
Wir quantifizierten auch ungewöhnlich stark autokorreliertes Rauschen in den SA-Zeitreihen, das in den aktuellen Studien nicht konsequent behandelt wurde …

Dann kommt eine Übersichtsgrafik der Satelliten-Pegelreihe (Bild 3). Eigentlich zeigt dieses Bild schon (fast) alles über die alarmistische Aussage von Herrn Rahmstorf und was dieser bewusst dazu nicht gesagt hat: Dass die Pegel-Änderungsrate vom Messbeginn an zyklisch um +- diesen Wert pendelt und aktuell wieder bei Null angekommen ist.

Bildtext: Fig. 1. Globally and monthly averaged sea level anomalies as observed by Satellite Altimetry (Blue), superimposed with the residuals of the OLS. – Bild 3 [5] Satelliten-Pegelreihe (Anomalie) mit der Pegel-Änderungsrate (Residuals). Grafik vom Autor ergänzt

Beim Vergleich der erkennbaren Zyklen zeigt sich (was „Kaltesonne“ auch erwähnt), ein mehr als signifikanter Einfluss von Klimazyklen:

Fig. 3. MEI and Solution I monthly OLS residuals (mm) during the SA period. – Bild 4 [5] Korrelation der Pegel-Residuen (Bild 3) mit den ENSO-Zyklen

Schlussfolgerung

Was Herr Rahmstorf wie üblich als eine „gesicherte Kenntnis“ publiziert, zeigt sich beim näheren Betrachten (wieder) als höchst spekulativ:
[5] ... Conclusion
Recent analyses of SA time series by Nerem at al., (2018) and Ablain et al., (2019) and others declaring a GMSL acceleration are far from exhaustive for such an important topic. Uncertainty is one of the essential components in assessing variability in global sea level in the context of GMSL budget to ascertain anthropogenic contributions. The omission of the eect of potential confounders including a potential jerk or multidecadal sea level variations (Ablain at al., 2019), or using a conjecture that they will average out because of the superior global coverage of SA by Nerem at al. (2018) is a leap of faith without evidence in quantifying a GMSL acceleration and its uncertainty using globally averaged SA time series. Moreover, conducting projections as in Nerem at al. (2018) without ascribing proper uncertainties to the model estimates have no meaning. Until the uncertainty of a recent GMSL acceleration is established in the context of “total evidence”, i.e. in the light of systematic global sea level variations during the 20th century revealed by TG measurements together with the available SA time series, any prediction of a GMSL rise ought to be made with extreme prudence.

(Leicht angepasste) deepl-Übersetzung: Schlussfolgerung
Die jüngsten Analysen der SA-Zeitreihen von Nerem at al. (2018) und Ablain et al. (2019) und anderen, die eine GMSL-Beschleunigung erklären, sind bei weitem nicht erschöpfend für ein so wichtiges Thema.
Die Unsicherheit ist eine der wesentlichen Komponenten bei der Bewertung der Variabilität des globalen Meeresspiegels im Rahmen des GMSL-Budgets, um die anthropogenen Beiträge zu ermitteln. Die Auslassung des Einflusses potenzieller Störfaktoren, einschließlich eines potenziellen Rucks oder multidekadischer Meeresspiegelschwankungen (Ablain at al., 2019), oder die Verwendung einer Vermutung, dass sie sich aufgrund der überlegenen globalen Abdeckung von SA durch Nerem at al. (2018) ausmitteln werden, ist ein Vertrauensvorschuss ohne Beweise bei der Quantifizierung einer GMSL-Beschleunigung und ihrer Unsicherheit unter Verwendung global gemittelter SA-Zeitreihen. Darüber hinaus ist die Durchführung von Projektionen wie in Nerem at al. (2018), ohne den Modellschätzungen angemessene Unsicherheiten zuzuschreiben, sinnlos.
Solange die Unsicherheit einer rezenten GMSL-Beschleunigung nicht im Kontext der „Gesamtevidenz“, d. h. im Lichte systematischer globaler Meeresspiegelschwankungen während des 20. Jahrhunderts, die durch TG-Messungen zusammen mit den verfügbaren SA-Zeitreihen aufgedeckt wurden, ermittelt ist,
sollte jede Vorhersage eines GMSL-Anstiegs mit äußerster Vorsicht erfolgen.

Satellitepegel

Anbei anhand der Originaldaten eine Plausibilitätssichtung.
Die Satellitendaten werden gängig wie in Bild 5 dargestellt. Der quadratische, stetig schlimmer steigende Regressions-Fit erscheint in dieser Darstellung plausibel und „zwingend“:

Bild 5 Pegeldaten der verschiedenen Messsatelliten mit der quadratischen Pegel-Anstiegskurve

Im WEB sind die Satellitendaten hinterlegt und lassen sich laden. Daraus ergibt sich Bild 6, welches dem Bild 5 in höherer Auflösung entspricht.
Trägt man darin Verlaufsbegrenzungslinien ein, zeigt sich, dass der quadratisch – stetig schlimmer ansteigende – Fit überhaupt nicht zwingend ist. Ein bisheriger – und weiterhin – linearer Anstieg hat genau so gut seine „Berechtigung“ (wie es die Studie [5] auch feststellt).
Der quadratisch steigende Fit zeigt sich demnach lediglich als eine Hypothese und ist durch nichts (außer, dass der Verlauf mathematisch hineinpasst) begründet.

Man muss sich klar machen, dass die Satelliten aus ca. 1.320 km Entfernung den Meeres-Pegel auf den Millimeter genau messen können sollen (was auf Meereshöhe und direkt daneben angeblich nur ungenau erfolgt). Das mag theoretisch stimmen, wenn man alleine die Laufzeit-Messgenauigkeit betrachtet. In Wirklichkeit wird die Laufzeit das Messsignal jedoch durch externe Einflüsse verfälscht, teils driften die Messapparaturen und die Satelliten selbst „taumeln“ mit den Änderungen des Erd-Schwerefeldes. Den Pegelwert bekommt man erst nach vielen, vielen Korrekturen und Anpassungen. Teils werden diese sogar noch nach Jahren nachträglich korrigiert. Es ist also gar nicht sicher, dass die Satelliten-Pegelmesskurve wirklich mit der angegebenen Genauigkeit stimmt.

Herr Rahmstorf ist allerdings überzeugt – zumindest sagt er es -, dass die Satelliten es auf den Millimeter genau könnten. Allerdings ist immer noch ungeklärt, warum die ja weiterhin durchgeführten Tidenpegelmessungen und die Satellitenpegel eine große Abweichung im Pegeltrend aufweisen (Tidenpegel: 1,5 … 2 mm/pa, Satellitenpegel 3,3 mm/pa).
Anmerkung: Diese Abweichung ist der Grund, warum im Pegel-Verlaufsbild (Bild 1) mit den angefügten Satellitendaten so ein großer Beschleunigungsanstieg erfolgt. Es ist der gleiche „Datenbetrug“ wie beim Hockeystick, wo ebenfalls zwei unterschiedliche Messarten mit systembedingt unterschiedlichen Messergebnissen gekoppelt wurden.

Bild 6 Original-Satellitendaten (3,4 mm/pa). Grafik vom Autor erstellt

Aus diesen Originaldaten lässt sich auch der Verlauf der Pegel-Änderungsrate ermittelt (zum Vergleich mit Bild 3). Die von Rahmstorf genannten, 4,8 mm/pa mit steigender Tendenz erscheinen nun unplausibel und nur eine kurzfristige Momentaufnahme.

Bild 7 Satelliten-Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regressionsgeraden. Grafik vom Autor erstellt

Fazit

Der von Prof. Rahmstorf dem Spiegel erzählte, hohe und beschleunigte Meerespegelanstieg ist eher falsch als richtig. Und dies ist anhand der Daten so deutlich erkennbar, dass von einer bewussten Alarmisierung ausgegangen werden muss.
Der „Spiegel“ macht sich dabei eindeutig einer „Mittäterschaft“ schuldig, da zumindest „er“ als unabhängige Institution auch auf die vorliegenden, der Aussage von Herrn Rahmstorf entgegenstehenden Studien und Daten hätte hinweisen müssen.

Damit endet Teil 1. Im zweiten Teil wird der aktuelle Meerespegel-Änderungszustand anhand von Pegeldaten in der (angeblich) am meisten davon betroffenen Region – der Südsee – gezeigt.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel

 




Das Web und das Klima

Schadet das Internet dem Klima?

Ich frage Sie jetzt nicht, ob Sie manchmal im Internet surfen. Und so lange Sie bei THINK-AGAIN oder EIKE unterwegs sind ist das völlig in Ordnung. Aber ich habe den Verdacht, dass Sie noch in ganz andere Regionen streunen; dass bei der Hausarbeit ein Musik-Stream im Hintergrund läuft und Sie sich abendfüllende Filme in HD genehmigen.

Haben Sie sich jemals überlegt, wie viel Elektrizität dabei verbraucht, wie viel CO2 produziert wird? Vielleicht sind Sie ja sonst energiebewusst; vielleicht protestieren Sie gegen elektrische Zahnbürsten und stellen die Waschmaschine auf 30° ein, machen sich aber andererseits über all die Kilowattstunden, die Sie im Web verbraten keine Gedanken.

Dazu möchte ich Ihnen jetzt die Fakten präsentieren, vorher aber ein paar Begriffe klären.

Ein IQ-Test

Der Verbrauch eines elektrischen Gerätes wird in Watt angegeben. Die gute alte Glühbirne brauchte 60 Watt, eine neue 10 Watt, ist aber genauso hell. Ein vernünftiger Staubsauger zieht sich neben dem Staub vom Teppich auch noch 1500 Watt = 1,5 Kilowatt (kW) aus der Steckdose rein, etwa so viel wie ein Wasserkocher. Diese Zahlen beschreiben die „Leistung“ und sind eine Kenngröße jeden elektrischen Gerätes.

Wenn Sie also jemandem erklären, dass Ihr Computer 100 Watt verbraucht, und der fragt dann: „pro Stunde oder pro Tag?“ dann stellen Sie dem eine Gegenfrage: „Wieviel PS hat dein Auto?“ Der antwortet dann ganz stolz: „180 PS, ich hab den Turbo“. Dann fragen Sie dagegen: „180 PS? Ist das pro Stunde oder pro Tag?“.

Wenn Sie eine Stunde lang die Leistung von ein kW aus der Steckdose ziehen, dann haben Sie eine Kilowattstunde (kWh) an „Energie“ verbraucht und müssen 0,30 € dafür bezahlen. Leistung mal Zeit ergibt Energie. Wenn Sie diese Unterscheidung beherrschen, dann sind Sie klüger als die meisten Politiker, die bei dem Thema oft unfreiwillig ihren zweistelligen IQ offenbaren.

Zur Sache

Ich unterstelle Ihnen jetzt, dass Sie beim Surfen moderne Hardware wie Smartphone oder Tablett einsetzen. Der Schnelllade-Adapter für die Geräte holt sich etwa 15 Watt aus der Steckdose. Wie viel ist das pro Tag? Das ist die falsche Frage, denn Sie laden ihre elektronischen Lieblinge ja während der Nacht. Da ist der Akku dann nach einer Stunde wieder voll.

Eine Stunde lang haben wir also 15 Watt aus der Leitung geholt, macht 0,015 kWh. Wenn Sie das 30 mal im Monat machen, dann gibt das rund eine halbe Kilowattstunde. Im Vergleich zu Ihrem typischen monatlichen Gesamtverbrauch von, sagen wir, 350 kWh können wir das getrost vergessen. Und auch wenn zusätzlich noch diverses Gerät der im Hause ansässigen Minderjährigen geladen wird bleibt der Verbrauch dennoch sehr niedrig.

You Ain’t Seen Nothin‘ Yet

Was soll dieser Artikel also?“, werden Sie jetzt protestieren „So viel Text, nur um mir zu erklären, ich bräuchte mir um den Stromverbrauch beim Surfen keine Sorgen zu machen? Die hab ich mir eh nie gemacht!“

Warten Sie, Sie haben noch nicht alles gesehen. Während Sie, mit dem Tablett auf den Knien und einer Tasse Cappuccino in der Hand auf dem Sofa sitzen, und einen Artikel auf der Website „Think-Again“ lesen wollen, spielt sich hinter den Kulissen eine digitale Großveranstaltung ab.

Beim Anklicken des entsprechenden Links erzeugt Ihr Tablett eine kurze Botschaft, die über den Wi-Fi Router in der Zimmerecke und das Modem – das ist das Kästchen gleich daneben – in eine Glasfaser eingespeist wird. Von hier geht es zum professionellen Computer Ihres Internet Service Providers.

Dieser Computer schaut sich die Botschaft an. Er erkennt, wohin die Reise gehen soll, schickt die Sache weiter an einen regionalen Datenverteiler und von dort geht es zu einem der großen deutschen Datenzentren, vielleicht in der Nähe von Frankfurt. Letzteres ist durch Kabel mehr oder weniger direkt mit dem Rest der Welt verbunden.

Ihr Auftrag wird jetzt in die Stadt Orem geschickt, rund 8.400 km westlich von Frankfurt im US Staat Utah. Dort lagert das blog „think-again“ im datenzentrum von Bluehost, einem der großen amerikanischen web-anbieter. Das Zentrum ist eine größere Anlage, deren Ausdehnung etwa vergleichbar ist mit dem Volkswagenwerk in Wolfsburg.

Hier wird Ihre Botschaft dann gelesen und Ihr Wunsch wird erfüllt. Der angeforderte Artikel von Think-Again wird gesucht, gefunden und auf gleichem Weg, aber in der anderen Richtung, auf die Reise geschickt, sodass er schließlich vor Ihren Augen auf dem Tablett erscheint.

Tatsächlich werden Ihre Botschaft bzw. der gewünschte Artikel nicht in einem einzigen Paket transportiert, sondern sie werden in viele kleine Päckchen zerteilt, die selbstständig und auf unterschiedlichen Wegen zu ihrem Bestimmungsort gelangen, um sich dort dann spontan wieder zusammenzusetzen – und das auch noch in der richtigen Reihenfolge. Damit das funktioniert hängt an jedem Päckchen ein „Zettel“ mit seiner Destination, ähnlich wie an unseren Koffern beim Fliegen. Allerdings ist im Web dieser Zettel oft größer als das Stück „Gepäck“ an dem er hängt.

Sie werden verstehen, dass der ganze Vorgang dann schon mal ein oder zwei Sekunden dauern kann. Seien Sie also nicht ungeduldig, wenn Sie warten müssen; vielleicht ist ja gerade eines Ihrer Päckchen im Unterseekabel südlich von Grönland in einen Stau geraten.

Die Gretchenfrage

Das Bearbeiten und Versenden der Daten über größere Entfernungen benötigt Energie und zwar außerhalb Ihres Wohnzimmers. Da werden irgendwo Kilowattstunden verbraten, die niemals auf ihrer Stromrechnung stehen. Ein Maß dafür sind die verbrauchten kWh pro Gigabyte Datenmenge.

Eine Londoner Firma fand heraus, dass 2017 durchschnittlich 1,8 kWh pro Gigabyte Datenmenge verbraucht wurden. Wenn Sie sich also ein zweistündiges HD Video reinziehen, dann laden Sie bei der Gelegenheit 4GB herunter und verbrauchen 4 x 1,8 kWh = 7,2 kWh. Eine typische Website hat dagegen nur um die 2 MB, kostet also ganze 0,0036 Kilowattstunden. Surfen Sie also lieber auf Think-Again oder EIKE, statt sich zum x-ten Mal einen alten „James Bond“ anzuschauen.

Die oben erwähnten Experten haben auch ausgerechnet, dass pro Jahr durch das Internet weltweit 416,2 Terawattstunden (TWh) verbraucht würden. Das entspricht drei Vierteln des jährlichen deutschen oder 5% des weltweiten Stromverbrauchs.

Kann man die Zahlen glauben?

Seit sich jegliche Industrie (außer in China) vor den sehr mächtigen und wenig kompetenten Klima- Aposteln rechtfertigen muss, werden Verbrauchszahlen von den Betreibern nicht an die große Glocke gehängt. Die Forderung nach dem „Sustainable Web“ hängt wie ein Damoklesschwert über Netflix, Google, Facebook und Co. Die versuchen also den Ball flach zu halten, betonen die Nachhaltigkeit ihrer Energiequellen und pflanzen symbolische Solarpanels neben ihre gigantischen „Hyperscale Data Centers“.

Derzeit gibt es weltweit rund 500 dieser Zentren, die jeweils Zehntausende von Servern, also individuelle Computer beherbergen. Falls so ein Server, wild geschätzt, 500 Watt verbraucht, dann kommen wir auf „Zig“ Megawatt für solch ein Zentrum. Das lässt die oben erwähnten „416,2 TWh“ plausibel erscheinen, wobei ich die Zahl hinter dem Komma nicht ganz ernst nehmen würde.

Das Paradoxe ist nun, dass auf den Serverfarmen 50% der Leistung dazu gebraucht wird, die Hitze zu beseitigen, welche die anderen 50% erzeugen. Diese Situation kann man entschärfen, wenn man sich in kalten Gegenden ansiedelt. Und so ist aus Island ein beliebter Standort für Server Farmen geworden, so wie auch Norwegen – dort nördlich des Polarkreises. Zudem haben beide Länder jede Menge Strom aus Wasserkraft bzw. auch aus Geothermie, aus erneuerbaren Quellen also.

Wie geht’s weiter?

Der Verkehr im Web, gemessen in Gigabyte, wird in den kommenden Jahren weiterhin „exponentiell“ wachsen. Der Löwenanteil kommt von dem Trend, dass Daten nicht mehr vom Benutzer auf dem eigenen Gerät gespeichert werden, sondern in der „Cloud“ eines der riesigen Datenzentren.

Zwar wird der spezifische Energieverbrauch kWh/GB durch Fortentwicklung und weitere Miniaturisierung der Hardware abnehmen, aber diese Einsparung wird durch das enorme Wachstum des Datenverkehrs locker überrollt.

Derzeit werden neue Hyperscales mit einer Rate von weltweit 50 bis 100 pro Jahr gebaut. Eines der größten Europas ist gerade in Frankfurt entstanden, mit einem Bedarf von geschätzten 70 MW elektrischer Leistung. Zum Vergleich: der durchschnittliche Verbrauch eines deutschen Haushalts beträgt 3500 kWh. Nach Adam Riese verbraucht besagtes Datenzentrum so viel Strom  wie 200.000 Haushalte bzw. 400.000 Einwohner.

Vorreiter Deutschland?

Diese Computerfarm alleine hat also den CO2-Fußabdruck einer richtigen Großstadt! Darf man das hinnehmen? Hier könnte Deutschland ein weiteres Mal Vorbild für den Rest der Welt sein. So wie man heute den Kraftwerken in Philippsburg und Moorburg den Garaus macht, so könnte man es vielleicht morgen mit dem Datenzentrum in Frankfurt tun.

Als ersten Schritt könnte man sich allerdings auch einen „sanften“ Eingriff vorstellen. Neben dem „Netzwerkdurchsetzungsgesetz“ könnte ein „Netzwerkklimaschutzgesetz“ verabschiedet werden, welches die Nutzung des Webs nur durch„systemrelevante“ Anwender zulässt. Und was systemrelevant ist, das wird, wie gehabt, durch spezielle NGOs entschieden.

Vielleicht fragen Sie sich jetzt, wieso dieses riesige Zentrum genau in Frankfurt gebaut wurde, wo doch der Strom in Deutschland so teuer und flatterhaft ist, und die Bevölkerung so grün und unerbittlich. Die Antwort: der deutsche Cloud-Kunde hat ein besseres Gefühl, wenn seine wichtigen und sensitiven Daten in Computern  gespeichert werden, die auf deutschem Boden stehen.

Das soll mir mal jemand erklären.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Klimaschau 5 – die Tagesschau von Sebastian Lüning

Vorschau nicht zu sehen? HIER KLICKEN?