Nicht mehr grün: Deutschland verschiebt Kohle-Ausstieg auf unbestimmte Zeit

„Kein anderes Land auf der Welt, welches den Kohle-Ausstieg plant, plant gleichzeitig den Ausstieg aus der Kernkraft“, sagte der Minister auf einer Energiekonferenz in Berlin und fügte hinzu: „Der gleichzeitige Ausstieg aus Kernkraft und Kohle sollte nicht überspannt werden. Darum müssen wir über einen längeren Zeitplan für Schließungen reden“.

Die von der Regierung eingesetzte Kohlekommission soll diese Woche Empfehlungen bzgl. der Schließung von Kohlekraftwerken abgeben. Diese haben derzeit einen Anteil von 35% am Energiemix in Deutschland. Der Report der Kommission ist am 1. Februar fällig.

Altmaier sagte, dass die Hälfte der derzeitigen Braun- und Steinkohle-Kapazität von etwa über 40 GW im Jahre 2030 immer noch in Betrieb sein werde, wobei jeder beschlossene Zeitplan zum Ausstieg periodisch überdacht werden muss auf der Grundlage von Versorgungssicherheit und Bezahlbarkeit.

Analysten der Börsenmakler-Firma Bernstein sagten am Dienstag, dass die Energiepreise in Deutschland zwischen 2022 und 2030 um 8% bis 13% höher sein werden bei einem beschleunigten Kohle-Ausstieg im Vergleich zum bisherigen Szenario

Bernstein schätzt, dass bis zum Jahr 2022 5 GW an Kohleenergie entfernt wird, davon 3,6 GW Braunkohle. Etwa 2,7 GW der ältesten Einheiten sind bereits für die Braunkohle-Reserve geplant, wobei die letzten beiden Einheiten in diesem Jahr aus dem Markt ausscheiden.

Der Minister hat weitere Kohle-Schließungen während der Jahre 2021 und 2022 praktisch ausgeschlossen, werden doch über 4 GW Kernkraft-Kapazität vom Netz genommen.

Altmaier warnte vor dem Risiko von Stromausfällen unter verschiedenen Szenarien, und lobte die Netzbetreiber dafür, dass sie die Stabilität des Netzes bis heute wahren konnten.

Die ganze Story steht hier.

Link: https://www.thegwpf.com/green-no-more-germany-delays-coal-exit-indefinitely/

Übersetzt von Chris Frey EIKE




Die Nieder­schläge, welche uns im Sommer gefehlt haben, werden jetzt im Winter ausge­glichen

Wieviel „weiß“ das Wetter von der Vergangenheit?

Wer sich nur etwas mit Niederschlag beschäftigt, merkt schnell: Niederschlag hat wenig „Gedächtnis“, aber eine unglaubliche Varianz. Vor allem „entsetzt“ immer neu, wie oft Extremwerte ohne jegliche „Vorwarnung“ – also ohne den geringsten Trend oder Vorankündigung auftreten. Manchmal meint oder ahnt man, Zyklen zu erkennen, doch auch das ist selbst in über 100 Jahre langen Verläufen schwierig. Anbei zum Niederschlag Beispielverläufe deutscher Messstationen:

Bild 1 [2] Zwei-Tagesniederschlag Magdeburg (DWD-Station 3126). Grafik vom Autor anhand der Daten erstellt

Bild 2 [3] Annaburg, Sachsen-Anhalt, 2-Tagesniederschlag 1901 – 8.2017. Quelle: DWD Daten, Station 170. Grafik vom Autor anhand der Daten erstellt

Der Gesamtniederschlag Deutschland zeigt, dass nach einem leichten Anstieg der 30jahre Mittelwert wieder den Wert von 1881 erreicht hat und die Projektionen zeigen an, dass bis zum Jahr 2100 nichts Spektakuläres zu erwarten ist, allerdings auch keine Projektion den aktuellen Mittelwert „vorhersagen“ konnte. All das wundert, denn mit der zunehmenden Wärme soll es doch viel mehr regnen und dieser auch noch zunehmen.

Bild 2.1 Gesamtniederschlag Deutschland seit 1881 mit Projektionen bis 2100. Quelle: DWD Klimaatlas Viewer

Nun hat es in den Alpen stark geschneit. Und Schnee ist nichts anderes als gefrorener Niederschlag. Und alle „Welt“ wundert sich, wie das passiert, wo sich doch niemand der Alpenbewohner an „so viel Schnee“ erinnern kann:
Hannoversche Allgemeine: [1]Schulfrei wegen Schneefalls ist in der Region nicht normal. „Das habe ich in meinen 38 Jahren noch nicht erlebt. Auch meine Mutter kann sich nicht an eine solche Situation erinnern“, sagt die 38-Jährige

Da mag diese 38jährige mit viel Klimaerfahrung Recht haben: Früher wurde nicht so schnell der Katastrophenfall ausgerufen. Und es gab auch nicht so viele (zu flache) Dächer im Alpenraum, die bei Schneefall erst einmal mühselig geräumt werden müssen, weil die Schneelastfähigkeit schon vorsorglich für die simulierte Klimawandel-Minderbelastung ausgelegt wurde.

Neutrale Fachpersonen befragt man vorsichtshalber nicht, um nicht versehentlich eine andere Auskunft zu bekommen, die nicht in den notwendigen Mainstream passt:
AIGNER, Günther; GATTERMAYR, Wolfgang; ZENKL, Christian (201 8): Die Winter in Tirol seit 1895. Eine Analyse amtlicher Temperatur- und Schneemessreihen. www.zukunft-skisport.at.
Darin wurde festgestellt (Zitierung aus dem Abstrakt):
Bei Betrachtung der amtlichen Messdaten sind die klimatologischen Rahmenbedingungen für den alpinen Wintersport in Tirol nach wie vor sehr günstig. Über die letzten 50 Jahre sind die Wintertemperaturen auf Tirols Bergen statistisch unverändert. Betrachtet man lediglich die letzten 30 Jahre, so sind die Winter in diesem Zeitraum sogar deutlich kälter geworden – um 1,3 Grad Celsius.
Die längsten Schneemessreihen aus den Tiroler Wintersportorten zeigen über die vergangenen 100 Jahre insgesamt keine signifikanten Trends. Weder die jährlich größten Schneehöhen noch die jährliche Anzahl der Tage mit Schneebedeckung zeigen markante Veränderungen. Bei isolierter Betrachtung der letzten 30 Jahre bleiben die jährlich größten Schneehöhen und die Neuschneesummen relativ stabil, während die Anzahl der Tage mit Schneebedeckung leicht abgenommen hat.
Auffallend ist die hohe Variabilität der einzelnen Winter. Die Spannweiten in den Messreihen sind beachtlich – vor allem bei den jährlich größten Schneehöhen. Insgesamt zeigt sich, dass die winterlichen Schneeverhältnisse primär vom Auftreten der entscheidenden Großwetterlagen abhängen und nur mäßig mit dem Temperaturniveau korrelieren. Auch relativ milde Winter können sehr schneereich sein. Diese unvorhersehbare Dynamik der Großwetterlagen dominiert das Wetter und Klima im Alpenraum.
… Ein klimabedingtes Ende des alpinen Wintersports ist nach der Auswertung der amtlichen Messdaten nicht in Sicht …

.

Klimareporter“, die berühmte Alarmistenseite der Regierungsberaterin wusste aber sofort:
Klimareporter, 11. Januar 2019:
Klimawandel könnte Schneechaos begünstigen
Klimaexperten schließen einen Zusammenhang zwischen dem Schneechaos in Bayern und den globalen Klimaveränderungen nicht aus.
Eine Fachperson vom PIK (und Mojib Latif) wusste auch, warum das so ist:
Hannoversche Allgemeine: [1]Doch wieso kommt plötzlich so viel Schnee auf einmal? Peter Hoffmann, Meteorologe am Potsdam-Institut für Klimafolgenforschung (PIK), spricht von „ungewöhnlich massiven Niederschlagsmengen“. „Die Niederschläge, die uns im Sommer gefehlt haben, werden jetzt im Winter ausgeglichen.“ Weil die Meere aufgrund des langen heißen Sommers noch verhältnismäßig milde Temperaturen aufwiesen, käme es darüber zu einer starken Verdunstung, so Hoffmann. Die derzeitige Wind- und Strömungslage transportiere die Feuchtigkeit in Richtung Süden.

Doch „die (wetterrelevanten) Meere“ haben derzeit gar keine verhältnismäßig milden Temperaturen

Sagt Herr Hoffmann vom PIK. Auch hierzu eine ergänzende Nachschau, ob der Winter „weiß“, wenn es im Sommer zu wenig Niederschlag gab und diesen Niederschlagsmangel dann, wie es das PIK „weiß“ pflichtgemäß ausgleicht.

Zuerst einmal der Niederschlag Sommer betrachtet. Es wird einige überraschen, dass der Sommerniederschlag deutlich höher ist als der Winterniederschlag und keinen signifikanten Trend, aber Zyklen ausweist:
-Die lineare Regression von 1882 bis 2018 zeigt eine kaum erkennbare – innerhalb der Messungenauigkeit liegende – Verringerung des Sommerniederschlags von 250 auf 240 mm (ohne das Trockenjahr 2018 ist es noch weniger)
-Der 30-Jahre Mittelwert traf 2018 genau den Normalwert (Mittelwert des kalten Zeitraums 1961-1990)
-Die lineare Regression von 1976 bis 2018 zeigt eine deutlichere Erhöhung des Sommerniederschlags von 230 auf 247 mm (trotz dem letzten Trockenjahr)
Keine Spur davon, dass die Sommerniederschläge weniger würden, sondern über den letzten, meteorologisch wichtigen 30jahre-Zeitraum hinaus sogar ein Anstieg.
Macht nichts, simulieren lässt sich das Gegenteil:
Bildungsserver wiki: Klimaprojektionen Deutschland
… Bei den Jahreszeiten zeigen jedoch besonders die Sommer- und Wintermonate deutliche Veränderungen. Die Sommer werden in Zukunft deutlich trockener, die Winter feuchter.

Bild 3 Deutschland, Sommerniederschlag von 1881 – 2018. Rote Linie: Regressionsgerade. Daten: DWD Zeitreihen und Trends. Grafik vom Autor erstellt

Beim Winter sieht man im Langfristverlauf einen Anstieg des Niederschlags. Allerdings nimmt der Winterniederschlag ausgerechnet seit dem „ganz schlimmen“ Klimawandeleinfluss nach 1950 ab!
-Die lineare Regression von 1882 bis 2017 zeigt eine Erhöhung des Winterniederschlags von 150 mm auf 190 mm
-Die lineare Regression von 1976 bis 2017 zeigt eine Verringerung des Winterniederschlags von 198 mm auf 185 mm
Und damit zeigt die Natur wieder das Gegenteil der berichteten Simulationsergebnisse!

Bild 4 Deutschland, Winterniederschlag von 1881 – 2017. Rote Linie: Regressionsgerade. Daten: DWD Zeitreihen und Trends. Grafik vom Autor erstellt Nimmt man anstelle der Regressionsgeraden eine Mittelwert-Verlaufskurve, erkennt man ohne Klimawissenschaft den Grund: Da steckt ein Zyklus (nicht zufällig mit ca. 60 Jahren) dahinter.

Bild 5 Deutschland, Winterniederschlag von 1881 – 2017. Rote Linie: 6jähriger, gleitender Mittelwert. Daten: DWD Zeitreihen und Trends. Grafik vom Autor erstellt

Nun melden die Klimawandelfachpersonen, dass es im Sommer trocken wird, wie es der letzte Sommer (angeblich) bewiesen hat. Deshalb der direkte Vergleich vom Niederschlag Sommer zum Niederschlag Winter.
– Die lineare Regression von 1882 bis 2017 zeigt eine Verringerung des anteiligen Sommerniederschlags von 61 auf 57 %
– Die lineare Regression von 1976 bis 2017 zeigt eine Erhöhung des anteiligen Sommerniederschlags von 52 auf 62 %
Keine Spur davon, dass die Sommerniederschläge weniger werden oder sich überhaupt signifikant verändern würden.

Bild 6 Deutschland, Anteil des Sommerniederschlags am Gesamtniederschlag Sommer + Winter. Rote Linie: Regressionsgerade. Daten: DWD Zeitreihen und Trends. Grafik vom Autor erstellt

Bild 7 Deutschland, Anteil des Sommerniederschlags am Gesamtniederschlag Sommer + Winter. Rote Linie: 5-Jahre gleitender MW. Daten: DWD Zeitreihen und Trends. Grafik vom Autor erstellt

Zur Fragestellung, ob der Winter „weiß“, dass der Sommer regenarm war

Bisher wissen wir, dass es im Sommer mehr Niederschlag hat als im Winter. Daraus könnte man folgern, dass der Winter „weiß“, wenn es im Sommer viel geregnet hat und seinen Niederschlag „zurückdreht“. Es wäre eine logische Kausalität, die allerdings nicht stimmen muss, denn es könnte ja sein, dass es im Winter einfach generell weniger regnet.
Nun erfuhr man vom Klima(Alarm)allwissenden PIK, dass es im Winter zusätzlich regnet, wenn es im Sommer besonders wenig geregnet hat.

Wie erfährt man nun vom Winter, ob er das wirklich macht?
Die Ermittlung über den Gesamtniederschlag bringt nichts, denn der ist immer 100 %. Rein mathematisch bedingt muss auf wenig Sommerniederschlag der Rest zu 100 % folgen. Deshalb der Versuch mit den folgenden Kriterien:
Ein niederschlagsarmer Sommer ist einer mit deutlich weniger als seinem 30jährigen, gleitenden Mittelwert. Der Winter „reagiert“ darauf, wenn er danach überproportionalen Niederschlag im Verhältnis zum 30jahre, gleitenden Mittelwert vom Sommer+Winterniederschlag generiert.

Anbei eine darauf aufgebaute Test-Versuchsreihe:
Zuerst die Datenbilder für den Sommer- und den Winterniederschlag:

Bild 8 Niederschlagsverlauf Sommer mit 30jahre gleitendem Mittelwert und Werten für „niedrigen Niederschlag“: 68; 76; 84 % vom MW. Datenquelle: DWD, Grafik vom Autor erstellt

Bild 9 Niederschlagsverlauf Sommer+Winter mit 30jahre gleitendem Mittelwert. Datenquelle: DWD, Grafik vom Autor erstellt

Test A
Nach sehr regenarmen Sommern wie etwa 2018 soll der Winterniederschlag besonders aktiv sein.Dazu die Testannahmen:
– Der Sommerniederschlag erreicht maximal 68 % von seinem Mittelwert (Bild 8).
– Ein „Wintergedächtnis“ wird angenommen, wenn der folgende Winterniederschlag mindestens den 30jahre gleitenden Mittelwert vom Niederschlag Sommer+Winter erreicht.
Testergebnis A:

Bild 10 Ergebnis Test A. Blau: Der Winterniederschlag „weiß“ vom niedrigen Sommerniederschlag und ist relativ hoch (1 x), Braun: Der Sommerniederschlag war unter 68 %, der folgende Winterniederschlag erreicht aber nicht mindestens den Mittelwert Sommer+Winter (5 x)

Die Auswertung von Test A zeigt ein stark negatives Ergebnis. Nach sehr geringem Sommerniederschlag folgt nur in einem von 6 Ereignissen ein Winterniederschlag, der wenigstens den Mittelwert Sommer+Winter erreicht.

Nun eine Wiederholung mit erleichterten Bedingungen (ohne Bild):
– Der folgende Winterniederschlag muss nur noch wenigstens 90 % vom Mittelwert erreichen.
– Das Testergebnis zeigt mit zwei positiven von insgesamt 6 Ereignissen immer noch ein stark negatives Ergebnis

Test B
Das gleiche mit nochmals erleichterten Bedingungen:
– Der Sommerniederschlag erreicht maximal 76 % von seinem Mittelwert. Ein „Wintergedächtnis“ wird angenommen, wenn der folgende Winterniederschlag wieder mindestens den Mittelwert Sommer+Winter erreicht.

Bild 11 Ergebnis Test B. Blau: Der Winterniederschlag „weiß“ vom niedrigen Sommerniederschlag und ist relativ hoch (2 x), Braun: Der Sommerniederschlag war maximal 76 % von seinem Mittelwert, der folgende Winterniederschlag erreicht aber nicht mindestens den Mittelwert Sommer+Winter (8 x)

Die Auswertung von Test B zeigt wieder ein stark negatives Ergebnis. Nach geringem Sommerniederschlag folgt nur in zwei von 10 Ereignissen ein Winterniederschlag, der wenigstens den Mittelwert erreicht.
Nun mit nochmals erleichterten Bedingungen:

Test C
– Der Sommerniederschlag erreicht maximal 84 % von seinem Mittelwert. Ein „Wintergedächtnis“ wird wieder angenommen, wenn der folgende Winterniederschlag mindestens den Mittelwert Sommer+Winter erreicht.

Bild 12 Ergebnis Test C. Blau: Der Winterniederschlag „weiß“ vom Sommerniederschlag (2 x), Braun: Der Sommerniederschlag erreichte maximal 84 %, der folgende Winterniederschlag erreicht aber nicht mindestens den Mittelwert Sommer+Winter (15 x)

Wieder ist das Ergebnis negativ und zwar sehr drastisch.

Fazit:
In der wahren Natur „weiß“ der Winter in Deutschland nicht, wenn der Sommer wenig Niederschlag hatte.

Letzter Versuch, ob das PIK doch noch (irgendwo) Recht haben könnte

Vielleicht war die bisherige Sichtung zu engstirnig und die Angabe der PIK-Mitarbeiter bezogen auf die Jahreszeiten Sommer und Winter nur unpräzise. Als Laie denkt man ja nicht immer so wissend, wie Fachpersonen. Deshalb noch eine Sichtung unter der Einbeziehung von Frühling und Herbst.

Zuerst wieder die Gesamtsicht auf das Niederschlagsverhältnis. Und wieder stellt man fest, dass die Sommerhälfte keinesfalls austrocknet und auch kein Trend dazu erkennbar ist. Wieder widersprechen die Messwerte den Simulationen!

Bild 13 Anteil des Niederschlags Frühling+Sommer zum Niederschlag aller 4 Jahreszeiten. Datenquelle: DWD, Grafik vom Autor erstellt

Test D:

Die Testannahmen:
– Die Niederschlagssumme von Frühling und Sommer erreichen maximal 68 % vom ihrem 30jahre Mittelwert.
– Ein „Herbst+Wintergedächtnis“ wird angenommen, wenn deren folgender Niederschlag mindestens den 30jahre-Mittelwert aller 4 Jahreszeiten erreicht.
Testergebnis D:
– 44 mal positiv,
– 43 mal negativ
Ein positives Ergebnis ist zwar wesentlich häufiger geworden, bleibt statistisch aber ein reiner Zufall, da die Genauigkeit eines Würfelwurfs von 50 % nicht überschritten wird..

Bild 14 Ergebnis Test D. Blau: Der Summenniederschlag Herbst+Winter „weiß“ von der geringen Niederschlagssumme Frühling+Sommer (44 mal). Braun: Der Summenniederschlag Frühling+Sommer erreichte maximal 68 % vom 30jahre Mittelwert, der folgende Niederschlag Herbst+Winter reicht aber nicht über den 30jahre Mittelwert aller 4 Jahreszeiten (43 mal)

Viel schlechter wird das Ergebnis, wenn man den Anspruch geringfügig erhöht und beispielsweise für Herbst+Winter das 1,1fache fordert. Dann ist das Ergebnis nur noch 12 mal positiv, aber 75 mal negativ.

Bild 15 Ergebnis Test D. Blau: Der Summenniederschlag Herbst+Winter „weiß“ von der geringen Niederschlagssumme Frühling+Sommer (12 mal). Braun: Der Summenniederschlag Frühling+Herbst erreicht maximal68 % von seinem 30jahre Mittelwert, der folgende Niederschlag Herbst+Winter reicht aber nicht über das 1,1fache des 30jahre Mittelwertes aller 4 Jahreszeiten (43 mal)

Fazit
Nach diesen orientierenden Analysen muss man nicht nur anhand der vorhergehenden Meeres-Temperatur-Sichtungen, sondern ergänzend auch anhand der Ereignisauswertungen ganz stark bezweifeln, dass die Angabe von Herrn Hofmann und von Herrn Rahmstorf (beide PIK) über das „Niederschlags-Wintergedächtnis“ zutreffen.
So viel zu den schnellen Erklärungen von oft abgefragten „Standardexperten“, die zwar plausibel klingen, nur leider nicht den in der Natur gemessenen Vorgängen entsprechen.
Nun kann man zur Belegung des „Wintergedächtnisses“ noch viele andere und „wissenschaftlich fundiertere“ Kriterien ansetzen. Vielleicht macht es das PIK noch und belegt seine These wirklich anhand von Messergebnissen. Der Autor ist gespannt.

Man würde sich wünschen, dass die aktuell in Deutschland medial in allen Medien hochgehypten, klimademonstrierenden Schüler*innen – welche teils sogar von ihren Schulen dazu animiert werden – statt stolz darauf zu sein, auf Wissen zu verzichten, angeleitet würden, sich erst einmal das fehlende anzueignen, um nicht jeder Agitation blind hinterherzulaufen.
In dem Fall hätten die Schüler*innen – und deren agitativen Vorbilder – aus der Geschichte wirklich etwas gelernt.

Quellen

[1] Hannoversche Allgemeine 08.01.2019: Schneechaos: „Das habe ich in 38 Jahren nicht erlebt“

[2] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 2)

[3] EIKE 18.04.2018: Beeinflussungen durch Starkregen nehmen in Deutschland nicht zu. Mit schlecht angewandter Statistik lässt sich aber das Gegenteil „zeigen“ (Teil 1)

[4] ScienceScepticalBlog, 16. Januar 2019: Stefan Rahmstorf: Die Nordsee war um 1-2°C wegen des Klimawandels zu warm, deshalb brachten Nordwinde Schneerekorde!

[5] EIKE 30.12.2017: Ohne den Klimawandel hätte das gleiche Wetter nicht so schlimme Folgen…

[6] EIKE 07.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2)




ARGO – für den Zweck geeignet?

Wir wussten bereits, dass der jährliche SLR lediglich niedrige einstellige Millimeter-Bereiche ausmachte. Die Gründe, warum Satelliten-Altimetrie ein solches Maß an Genauigkeit nie erreichen kann, sind sehr grundlegend und waren der NASA auch bekannt: Das erforderliche Referenz-Ellipsoid der Erde ist unregelmäßig [lumpy], die Ozeane haben variierende Wellen, die Atmosphäre variierende Feuchtigkeit – so dass die NASA niemals ihr selbst gestecktes Ziel erreichen konnte, nämlich den Meeresspiegel auf diese Weise bis auf Bruchteile von Millimetern pro Jahr genau zu messen, äquivalent zu Tidenmessungen. Die NASA behauptet, das sehr wohl zu können, aber deren Spezifikationen sagen, sie kann nicht. Dies wurde in jenem Beitrag belegt.

In diesem Beitrag stellen wir die gleichen Fragen bzgl. des ARGO-Programms.

Anders als bei Jason 3 gibt es keine gute Äquivalent-Mission von Tidenmessungen, mit denen man Vergleiche anstellen kann. Die neuen ozeanographischen Ziele (unten) enthielten die Messung mehrerer Dinge, und zwar zum allerersten Mal ,rigoros‘. ;Rigoros‘ bedeutete NICHT präzise. Ein Parameter, nämlich der ozeanische Wärmegehalt OHC war zuvor nur sehr ungenau geschätzt worden. OHC ist viel mehr als einfach nur die Wassertemperatur SST. Diese wurden vormals von Schiffen gemessen, die auf den gängigen Handelsrouten unterwegs waren, mit Eimern oder durch Messungen des in die Schiffsmotoren einströmenden Kühlwassers. Im tieferen Ozean ist überhaupt nicht gemessen worden, bis XBT-Sensoren für die Navy entwickelt worden waren. Diese maßen die Tiefe, in der sie sich gerade befanden, jedoch sehr ungenau.

Ob ARGO zweckdienlich ist oder nicht, involviert ein komplexes Entwirren der Ziele, für welche die Bojen ausgelegt waren, plus viele darauf bezogene Fakten. Die kurze ARGO-Antwort lautet möglicherweise ja, obwohl OHC-Fehlerbalken nachweislich in der wissenschaftlichen Literatur bzgl. ARGO untertrieben dargestellt sind.

Wer eine weitergehende Untersuchung der Schlussfolgerungen dieses Beitrags vornehmen will, der wende sich an die Website www.ARGO.uscd.edu. Die meisten Inhalte dieses Beitrags sind direkt daraus abgeleitet oder führen direkt zu den ARGO-Beiträgen bei WUWT von Willis Eschenbach. Die vier grundlegendsten seiner Beiträge sind unten verlinkt.

[Es folgen eine Reihe technischer Einzelheiten bzgl. des Aufbaus der Bojen und technische Details, die hier nicht mit übersetzt werden. Weiter unten werden diese graphisch und zusammenfassend dargestellt. Anm. d. Übers.]

Das grundsätzliche Design der ARGO-Bojen sieht so aus:

Und das Messprogramm von ARGO so:

Die Frage, ob das ARGO-Programm zweckdienlich bzgl. OHC ist (mittels des Temperaturprofils bis hinab auf 2000 m) gliedert sich in zwei relevante Teilfragen. 1) Sind 2000 m ausreichend tief? 2) Sind die Sensoren genau genug, um die 10 W/m² pro 1000 km pro Kante zu ,pixeln‘?

Hinsichtlich der Tiefe gibt es zwei Antworten von unterschiedlichen Seiten, die aber beide ,ja‘ lauten für alle Zwecke der Mission.

Bzgl. des Salzgehaltes reichen die ARGO-Profile aus. Frühere ozeanographische Studien zeigen, dass der Salzgehalt unterhalb von 750 m Tiefe in allen Ozeanen bemerkenswert invariabel ist. Dies bietet glücklicherweise eine natürliche ,Kalibrierung‘ des Salzgehaltes für jene empirisch problematischen Sensoren.

Bzgl. der Temperatur zeigen die typischen thermoklinen Profile, dass die Temperatur unterhalb 2000 m kaum noch abhängig von der geographischen Breite variiert, was eine weitere natürliche ARGO-,Kalibrierung‘ darstellt. Dies zeigt Abbildung 3 (in Grad Fahrenheit). Die Bojen bis zu einer Tiefe von 2000m auszulegen war eine kluge Wahl.

[rote Kurve: Tropen, grüne Kurve: gemäßigte Zone, blaue Kurve: Polargebiete]

[rote Kurve: Tropen, grüne Kurve: gemäßigte Zone, blaue Kurve: Polargebiete]

Ist das ARGO-Programm zweckdienlich?

Als Hintergrund für die Ziele des ARGO-Programms werden noch ein paar weitere Grundlagen benötigt.

Taucht eine ARGO-Boje an die Oberfläche, um seine Daten zu übermitteln, wird dessen Position mittels GPS auf 100 m genau bestimmt. Angesichts der Größe der Ozeane ist das eine überaus präzise Messung der Position für ,umfassende räumliche Größenordnungen‘ der Strömungen und 1.000.000 km² OHC/Salzgehalt-Pixel.

Dank der Stabilität des Salzgehaltes unterhalb von 750 Metern sind die ,Salzgehalt-korrigierten‘ ARGO-Instrumente genau (nach Bojen-spezifischen Korrekturen) bis auf ±0,01 psu [= Primary Sampling Unit?], was vernünftige Schätzungen des ,Süßwasser-Gehaltes‘ zulässt. …

Die verbleibende große Frage nach ,hinreichender Genauigkeit‘ ist die nach dem OHC. Dinge wie Trenberths infame „fehlende Wärme“ sind nichts als heiße Luft. Der OHC ist eine sehr knifflige Sensor-Frage, da die große Wärmekapazität des Ozeanwassers bedeutet, dass eine sehr große Änderung der in den Ozeanen gespeicherten Wärme eine sehr geringe Änderung der absoluten Temperatur des Meerwassers bewirkt.

Wie gut sind die ARGO-Sensoren? Oberflächlich betrachtet könnte man meinen, kommt darauf an, denn die ARGO-Bojen weisen nicht nur ein, sondern gegenwärtig fünf verschiedene Sensor-Typen auf, geschuldet der Internationalität des Programms.

Unter diesen fünf Typen sind jedoch nur zwei Temperatursensoren, von denen einer sich rasch als fehlerhaft herausstellte. Alle fünf Typen der ARGO-Bojen messen daher die Temperatur mit einem Sensor mit der Bezeichnung SBE38, entwickelt im Jahre 2015.

Dieser Sensor wird von SeaBirdScientific konstruiert, näheres dazu bei www.seabird.com. Der SeaBirdE38-Sensor weist folgende Spezifikationen auf:

Messbereich:

-5 to +35 °C

Initiale Genauigkeit:

± 0.001 °C (1 mK)

Typische Stabilität

0.001 °C (1 mK) innerhalb sechs Monaten, zertifiziert

Auflösung:

Reaktionszeit 500 msec

Selbsterwärmungs-Fehler:

< 200 μK

Das ist ein bemerkenswert guter Sensor der Wassertemperatur. … Aber es gibt immer noch ein großes ,Für-Den-Zweck-Geeignet‘-Problem trotz aller Positiva von ARGO. Klimastudien auf der Grundlage von ARGO untertreiben gewöhnlich die tatsächliche resultierende OHC-Unsicherheit – um etwa 10 W/m². (Judith Curry nannte dies eine Form ihres ,Ungenauigkeits-Monsters‘. Willis Eschenbach hat dazu Einiges bei WUWT gepostet, und seine vier relevantesten Beiträge bzgl. der Frage nach der Zweckdienlichkeit datieren aus den Jahren 2012 bis 2015. Die vier Beiträge sind hier verfügbar:

Decimals of Precision

An Ocean of Overconfidence

More Ocean-Sized Errors In Levitus Et Al.

Can We Tell If The Oceans Are Warming

Und damit können wir hinsichtlich der Zweckdienlichkeit von ARGO folgern: ja, sie sind vermutlich geeignet – aber nur, wenn auf ARGO basierende Studien auch korrekt die Fehlerbalken der ,rigorosen, wenngleich umfassenden räumlichen Verteilung‘ darstellen.

Link: https://wattsupwiththat.com/2019/01/16/argo-fit-for-purpose/

Übersetzt von Chris Frey EIKE




Tempera­turen in der Antarktis sanken kürzlich auf die tiefsten Werte, die auf der Erde theo­retisch möglich sind!

Ultra-tiefe Temperaturen in der Ostantarktis, gemessen mittels thermischer Infrarot-Kartierung von Satelliten: der kälteste Ort der Erde

T. A. Scambos, G. G. Campbell, A. Pope, T. Haran, A. Muto, M. Lazzara, C. H. Reijmer, M. R. van den Broeke

Erstveröffentlichung: 25. Juni 2018

Summary in allgemeinverständlicher Sprache

Die niedrigste jemals mit Thermometern gemessene Temperatur der Erde beträgt -89,2°C, gemessen am 23. Juli 1983 an der Station Wostok in der Antarktis (Turner et al., 2009, https://doi.org/10.1029/2009JD012104). Allerdings zeigen Satellitendaten, gesammelt in der antarktischen Polarnacht der Jahre 2004 bis 2016 auf der großen Fläche eines Hochplateaus in der Ostantarktis über Wostok, dass regelmäßig Temperaturwerte von -90°C oder noch tiefer erreicht werden. Diese treten in flachen Bodensenken nahe dem höchsten Teil des Eisschildes über der Schneedecke auf, und zwar in Seehöhen von 3800 bis 4050 Metern. Vergleiche mit automatischen Wetterstationen in der Nähe zeigen, dass die Lufttemperatur während dieser Ereignisse nahe -94 ±4°C liegt. Ultrakalte Bedingungen (-90°C oder kälter) treten häufiger auf, wenn der antarktische Polarwirbel stark ausgeprägt ist. Diese Temperatur scheint sehr nahe dem theoretisch möglichen tiefsten Wert zu liegen, selbst bei klarem Himmel und sehr trockener Luft, weil die von der kalten, klaren Luft abgestrahlte Wärme fast gleich ist der Wärmeabstrahlung der bitterkalten Schneeoberfläche.

(…)

Quelle: Geophysical Research Letters

Die gesamte Studie ist immer noch verfügbar.

Wie viel kälter hätte es werden können, wenn der CO2-Gehalt lediglich 280 ppmv betragen hätte? Wahrscheinlich kein bisschen.

In sogar noch einfacherer Sprache:

,Es ist fast wie auf einem anderen Planeten‘ – Kälteste Temperatur jemals auf der Erde in der Antarktis gemessen

Trevor Nace, Contributor, Science, 28. Juni 2018

Während bei uns der Sommer in Fahrt kommt, haben Wissenschaftler soeben die kälteste Temperatur bekannt gegeben, die jemals auf der Erde gemessen worden ist. Während des langen, dunklen antarktischen Winters sanken die Temperatur tief genug, um es mit anderen Planeten aufnehmen zu können.

 

Und welche Temperatur hat man gemessen? Nun, atemberaubende -97,8°C. Bei dieser Temperatur würde das Einatmen der Luft in der Lunge sofort Erfrierungen auslösen und rasch zum Tode führen.

Die Temperatur wurde mit Satellitenmessungen in der zentralen Antarktis gemessen, und zwar während des Winters, in welchem die Sonne niemals scheint. Diese jüngst in den Geophysical Research Letters veröffentlichten Ergebnisse zeigen, dass diese Temperaturwerte nahe den theoretisch tiefstmöglichen auf der Erde liegen.

Forbes

Berichtet wurde hierüber in Forbes, Fortune, NatGeo und an einigen anderen Stellen … und es war schlimmer als zuvor gedacht…

Live Science Planet Earth

Am kältesten Ort der Erde ist es sogar noch kälter als Wissenschaftler gedacht hatten

Mindy Weisberger, 26. Juni 2018

Wissenschaftler wussten bereits, dass die niedrigsten, auf der Erde gemessenen Temperaturen auf einem gefrorenen Eis-Höhenzug in der Ostantarktis nahe dem Südpol aufgetreten waren. Aber jüngst haben sie entdeckt, dass es sogar noch kälter werden kann als zuvor gemessen.

Im Jahre 2013 hat man mittels Analysen von Satellitendaten verstreute, mit extremst kalter Luft angefüllte Mulden entdeckt, und zwar auf dem Ostantarktischen Plateau zwischen Dome Argus und Dome Fuji – mit Temperaturen bei atemberaubenden minus 93°C.

Allerdings zeigt eine Analyse der gleichen Daten, dass unter den richtigen Bedingungen theoretisch Temperaturwerte bis minus 100°C möglich sind, was vermutlich der kälteste Ort ist, der auf der Erde auftreten kann, heißt es in der neuen Studie.

Live Science

Trotz Gore’scher Runaway-Tipping Points, welche die Erde zurückführen sollen in Zeiten des Pliozäns, des Miozäns, des thermalen Maximums im Paläozän-Eozän, der Kreidezeit, Venus … alles innerhalb des Holozän-Rauschens. Es wird aber immer noch so kalt wie theoretisch überhaupt möglich in der Antarktis.

Und das ist für Herrschaften wie den im Bild oben Zitierten natürlich wirklich eine unbequeme Wahrheit! [Zusatz des Übersetzers]

Link: https://wattsupwiththat.com/2018/11/13/antarctic-temperatures-recently-plunged-close-to-the-theoretically-coldest-achievable-on-earth/

Übersetzt von Chris Frey EIKE




Energie­wende: Auf zum Endsieg über die Kohle?

Wenn man sich die aktuelle Energiepolitik in Deutschland ansieht, bekommt man nur noch das Grausen. Getrieben durch das mediale Trommelfeuer über die „näher kommende Klimakatastrophe“ scheint die Bundesregierung wild entschlossen zu sein, in Sachen „Energiewende“ jetzt mit der Brechstange zur Sache zu gehen. Es gibt keinerlei Anzeichen mehr für eine auch halbwegs durchdachte Strategie, welche die langfristige Versorgung des Landes mit sicherer und bezahlbarer Energie sicherstellen könnte. Ohne einen Gedanken daran zu verschwenden, dass die Stilllegung der restlichen Kernkraftwerke bis 2022 ja auch noch ansteht, will man inzwischen auch die Kohlekraftwerke so schnell wie möglich herunterfahren. Ungeachtet der Versorgungslage scheint die einzige Richtschnur von Fr. Merkel zu sein, die CO2-Emissionen in Deutschland bis 2030 auf einen Zielwert von 563 Mio. Tonnen herunterzuknüppeln, siehe Bild 2.

Die Konsequenzen für das eigene Volk scheinen dabei lediglich mit Blick auf die Aussichten für die nächsten Wahlen zu interessieren. Deshalb schnürt Berlin gerade ein ganzes Bündel von Maßnahmen zusammen, um den Strukturwandel in den betroffenen Regionen finanziell so abzufedern, dass sich nicht zu viele Wähler von den Regierungsparteien abwenden. Dabei schont man vor allem den Osten der Republik: Laut der erwähnten SPON-Meldung werde erwogen, die dortigen Kohlekraftwerke bis zum Jahr 2022 ganz oder weitgehend unangetastet zu lassen. Getrieben durch die Angstszenarien der Klimabewegung werfen die Regierungsparteien jegliche volkswirtschaftliche Vernunft über Bord. Stattdessen missbraucht die Politik die Gelder des Steuerzahlers als Trostpflästerchen für die selbst verursachten Arbeitsplatzverluste.

Unruhe bei der Industrie…

Inzwischen entsteht für die Klimaretter im Bundeskanzleramt jedoch eine anscheinend so nicht erwartete neue Baustelle, denn bei der deutschen Industrie beginnt sich Unruhe breitzumachen. Einem kürzlichen Beitrag bei der FAZ zufolge beginnen immer mehr Unternehmen sich wegen der rapiden Zunahme von Ausfällen bei der Stromversorgung zu beschweren. Um diese Probleme vor der Bevölkerung zu verstecken, sorgt die Politik dafür, dass diese Schwierigkeiten vor allem industrielle Großverbraucher betreffen, während der Fernseher bei Otto Normalverbraucher weiterhin ungestört seine bunten Erheiterungsbildchen liefert. Den im Dezember 2018 bei etlichen Industriefirmen steigenden Stresspegel beschreibt ein FAZ-Artikel des Journalisten A. Mihm sehr anschaulich wie folgt:

In einer Handvoll großer Industriebetriebe ist dagegen von vorweihnachtlicher Fröhlichkeit keine Spur. Der Stresspegel ist beachtlich gestiegen, seitdem die Netzbetreiber kurzfristig angekündigt haben, den Strom abzuschalten. Denn in Deutschland gibt es an diesem Mittag zu wenig Elektrizität. Später wird bei Netzbetreibern von einem „Prognosefehler bei den erneuerbaren Energien aufgrund einer seinerzeit komplexen Wetterlage“ die Rede sein. Die Sonne scheint nicht so intensiv, wie noch am Vortag geplant und erwartet war. Kurz nach 12.00 Uhr jedenfalls ist die „Minutenreserve“ der Pumpspeicherkraftwerke verbraucht, aus dem Ausland lässt sich auch nicht mehr Strom ziehen. Jetzt werden Großverbraucher wie Aluminiumhütten, Walzwerke (Bild 3) und Gießereien abgeschaltet. Und zwar deutschlandweit – alle, die verfügbar sind.“

Inzwischen sind solche Abschaltungen so häufig geworden, dass den Firmenchefs trotz entsprechender Vereinbarungen der Geduldsfaden zu reißen beginnt. Allein der Neusser Alu-Hersteller Hydro Aluminium musste im vergangenen Jahr 78 Abschaltungen hinnehmen.

wegen immer häufigerer Stromausfälle…

Zwar haben die betroffenen Großverbraucher mit den Versorgern Vereinbarungen, welche Kompensationen vorsehen, jedoch ist hierfür eine Vorwarnzeit von 15 Minuten einzuhalten. Doch selbst diese wird immer häufiger nicht eingehalten. So z.B. am 14, Dezember, als im deutschen Netz aufgrund einer „deutlichen“ Fehlprognose bei der Solarstromerzeugung rund 2.500 MW fehlten. Das entspricht der Kapazität von zwei großen Kernkraftwerken oder drei Steinkohlekraftwerken. Das Problem rührt daher, dass Stromlieferungen in aller Regel lange vorab bestellt werden. Die Kraftwerksbetreiber haben „Fahrpläne“, die sie unter anderem auch nutzen, um in den Lücken ihre Anlagen für Wartungsarbeiten abzuschalten. Bei größeren Prognoseabweichungen kann es dann im Netz eng werden. Allein bei Hochnebellagen kann die Abweichung bei der Solarstromprognose vom Vortag 8.000 MW erreichen. Das entspricht fast schon der Leistung der in Deutschland noch vorhandenen Kernkraftwerke. Reichen in solchen Fällen auch die Notreserven nicht mehr aus, so kommt es auch zu ungeplanten Stromabschaltungen. Wenn diese die Unternehmen unvorbereitet treffen, kann es zu erheblichen Ausfällen und Schäden an Anlagen kommen. Schon bei kleineren Stromunterbrechungen können die verketteten Abläufe moderner Fabriken so komplett zum Stillstand bringen, dass die Wiederaufnahme des Betriebs etliche Stunden dauert. Und gerade für solche ungeplanten Ausfälle zahlen die Versorger maximal lediglich 5.000 € Schadenersatz. Oft weniger als ein Prozent oder gar ein Promille der eingetretenen Verluste.

sowie starken Preiserhöhungen

Als weitere Sorge der produzierenden Unternehmen kommen noch die ständig steigenden Energiekosten hinzu. Wenn günstige Kern- und Kohlekraftwerke abgeschaltet werden, muss bei den unvermeidlichen Ausfällen der „erneuerbaren“ auf deutlich teurere Alternativen wie Gas oder Öl zurückgegriffen werden. Das schlägt unweigerlich auf den Strompreis durch. Einem Artikel der „Welt“ zufolge ist zu erwarten, dass der geplante Kohleausstieg den Großhandelspreis für Strom um mindestens 30 Prozent oder sogar 50 Prozent erhöhen wird. Dies würde die internationale Wettbewerbsfähigkeit zahlreicher Branchen akut bedrohen. Immer mehr Betriebe sehen sich inzwischen existenziell gefährdet. Betroffen sind nicht nur Hütten- und Schmelzwerke für Alu, Stahl oder Kupfer, sondern immer mehr Branchen wie Gießereien, Schmieden, Hersteller von Glas und Papier, Zementwerke, die chemische Industrie sowie erhebliche Teile der Zulieferer für Kfz-Hersteller und den Maschinenbau mit zusammen Hunderttausenden von Beschäftigten. Entsprechende Rufe aus Branchen wie der Metallindustrie oder der chemischen Industrie werden deshalb immer drängender.

Das Problem liegt an der Unzuverlässigkeit von Wind und Sonne

Die entscheidende Erbkrankheit bei den wichtigsten „erneuerbaren“ Stromlieferenten Wind und Sonne ist ihre völlige Abhängigkeit von den Launen des Wettergotts. Während die Sonne schon vom Grundsatz her nur am Tage scheint, erfolgt die Stromlieferung auch beim Wind nur in Form erratischer Spitzen, Bild 5. Zwar behauptet die Branche mit dem Argument „Irgendwo weht immer Wind“, dass sich dies über große Flächen hinweg ausgleiche, doch beweisen die Tatsachen, dass man diese Zweckbehauptung getrost ins Reich der Märchen und Sagen verweisen kann, siehe Bild 6. Unsere moderne Zivilisation braucht jedoch Strom genau dann, wenn er benötigt wird, und genau das können Wind und Sonne weder einzeln noch gemeinsam, wie der Vergleich von Wind und Sonne zum Bedarf im Juli 2018 anschaulich beweist, Bild 7. Schon beim jetzigen Ausbaustand gibt es täglich riesige Schwankungen zwischen „erneuerbarer“ Produktion und dem aktuellen Bedarf des Landes, weshalb ständig ein quasi vollständiger Park an zuverlässig lieferfähigen Kraftwerken vorgehalten werden muss. Da diese wegen des Vorrangs der „erneuerbaren“ Erzeuger immer weniger genutzt werden können, verteuert sich ihre Produktion, was den Strompreis zusätzlich in die Höhe treibt. Lösungen für dieses Problem sind nicht in Sicht, da bis heute keine auch nur annähernd leistungsfähigen und kostenmäßig vertretbaren Möglichkeiten zur Speicherung von größeren Stromüberschüssen zur Verfügung stehen.

Schwankungen gefährden das Netz zusätzlich

Zusätzliche Gefahren drohen unseren Netzen durch weitere Einflüsse, die sich aus der heutigen europäischen Strommarktregulierung ergeben. Früher lag die regionale Stromversorgung – Kraftwerke und Leitungen – weitgehend in den Händen von Versorgern wie z.B. RWE, EnBW oder kleineren Regionalgesellschaften. Diese waren für die Versorgungssicherheit verantwortlich und verfügten über alle hierfür nötigen Ressourcen in einer Hand. Deshalb konnten sie ihre Kraftwerke „analog“ sowie im Verbund fahren. Die Produktion der einzelnen Kraftwerke wurde kontinuierlich an den sich ändernden Bedarf angepasst. Erst bei Bedarf wurden zusätzliche Kraftwerke zu- oder abgeschaltet. Heute müssen Kraftwerksbetreiber dagegen ihre Produktion in Zeit-Leistungs-Paketen an zentralen europäischen Strombörsen vermarkten. Für den Kraftwerker bedeutet dies z.B., dass er am Tag X von 09:00 bis 10:00 Uhr eine kontinuierliche Leistung von 850 MW zu liefern hat, während für die darauffolgende Stunde lediglich ein Vertrag über 600 MW abgeschlossen werden konnte.

Solche Leistungssprünge kann ein Kraftwerk mit seinen riesigen Einrichtungen nicht im Millisekundenbereich vollziehen. Das wäre so, als ob man einen Ozeandampfer um die Wendebojen in einen Speedboat-Parcours hetzen wollte. Zu- und Abschalten können zudem nicht immer exakt zeitsynchron erfolgen, weshalb es heute zur vollen Stunde typischerweise zu kurzen, aber heftigen Störimpulsen kommen kann. Diese lassen sich mit heutiger Technik zwar beherrschen, dies belastet jedoch die Sicherheitseinrichtungen. Auf diese Zusammenhänge machte der Blackout-Experte H. Saurugg in einem Interview mit dem österreichischen „Standard“ aufmerksam. Kommt es darüber hinaus zu Fehlfunktionen wie am Donnerstag, dem 10. Januar 2019, als ein Datenfehler an einem Netzregler im Gebiet der deutschen TenneT auftrat, dann kann es kritisch werden. An diesem Tag sank die Netzfrequenz bis auf den kritischen Wert von 49,8 Hz, ab dem dann die Schutzmechanismen im Netz einsetzen, was zumindest regional zu Lastabwürfen führen kann.

Dieser vornehm-harmlos klingende Begriff bedeutet im Prinzip nichts anders als Stromausfall bzw. Blackout. Eine besondere Störquelle sind in diesem Zusammenhang auch die heute immer größeren Windparks mit teils etlichen Dutzend Turbinen, die beispielsweise aus Gründen des Natur- oder Anwohnerschutzes synchron ein- oder abgeschaltet werden. Da die entsprechenden Leistungen immer weiter steigen, wächst die Beanspruchung der Sicherheitseinrichtungen. Je mehr Wind- und Solaranlagen heute im Rahmen der „Energiewende“ hinzugebaut werden, desto kritischer wird die Situation. Irgendwann kommt der Zusammenbruch, und je später, desto schlimmer. Eine 80- oder gar 95prozentige Versorgung mit Wind- und Solarkraftwerken wird sich deshalb nicht realisieren lassen.

Quellen:

[SPON] http://www.spiegel.de/wirtschaft/soziales/kohlegipfel-im-kanzleramt-insider-berichten-die-wichtigsten-ergebnisse-a-1248308.html#js-article-comments-box-pager

[FAZ] https://edition.faz.net/faz-edition/wirtschaft/2019-01-12/0ef138ca4a91f74600c9c37e8a8d9a2d/

[WELT] https://www.welt.de/wirtschaft/article187124628/Energiewende-Industrie-fordert-Super-Cap-gegen-Kosten-des-Kohleausstiegs.html

[VCI] https://www.vci.de/presse/pressemitteilungen/wettbewerbsfaehigkeit-industrie-beim-kohleausstieg-sichern-kanzleramtstreffen-sollte-kompensation-fuer-hoehere-strompreise-diskutieren.jsp

[STAN] https://mobil.derstandard.at/2000096185439/Europas-Stromnetz-stand-am-Rande-des-Totalausfalls?ref=rec

[QUAS] http://www.volker-quaschning.de/datserv/windinst/index.php