Eine geringe Fehler­bandbreite

Ich werde darauf aufmerksam, dass Zeke Hausfather neben vielen Anderen behauptet, dass das Jahr 2018 das wärmste Jahr jemals hinsichtlich der Ozeane gewesen sei, und zwar bis zu einer Tiefe von 2000 m. Er drückte es so aus:

Abbildung 1: Änderung des ozeanischen Wärmegehaltes von 1955 bis 2018. Daten vom Institute for Applied Physics (IAP).

Als ich die Graphik in Zekes Tweet sah, leuchtete mein innerer Detektor für schlechte Zahlen sofort grell rot auf. Was mir verdächtig erschien war, dass die Vertrauens-Intervalle viel zu klein aussahen. Nicht nur das, sondern auch, dass die Graphik Einheiten verwendet, die für die Meisten bedeutungslos sind. Nun ja …

Die Einheiten in dieser Graphik sind „Zettajoules“, abgekürzt ZJ. Ein Zettajoule sind 110 Joule. Das wollte ich in eine allgemein bekanntere Einheit umrechnen, nämlich Grad Celsius (°C). Dazu musste ich berechnen, wie viele Zettajoules man braucht, um die Temperatur in den obersten 2000 Meter der Ozeane um 1°C zu erhöhen.

Man betrachte die zugehörige Mathematik im Anhang [wird hier nicht übernommen. Wer nachrechnen möchte, klicke auf den Link zum Original. Anm. d. Übers.] Es genügt an dieser Stelle zu sagen, dass man etwa 2600 Zettajoule braucht, um die Temperatur in dieser Ozeanschicht um 1°C zu erhöhen. Noch einmal: 2600 ZJ pro Grad.

Jetzt betrachte man noch einmal Abbildung 1. Sie behaupten, dass ihre Fehlerbandbreite der Werte von 1955 plus/minus 95 Zettajoules ausmacht … und das rechnet sich um zu ± 0.04°C. Vier Hundertstel eines Grades Celsius … tatsächlich …

Man mag mich für dumm halten, aber ich glaube einfach NICHT, dass wir die Wassertemperatur der oberen 2000 Meter der Ozeane bis auf plus/minus vier Hundertstel Grad genau kennen.

Es kommt aber noch schlimmer. Im Jahre 2018 behaupten sie, dass die Fehlerbandbreite eine Größenordnung von plus/minus neun Zettajoules aufweist … was umgerechnet drei Tausendstel Grad Celsius sind – 0,003°C. Also wirklich! Man frage irgendeinen Verfahrenstechniker – die Bestimmung der mittleren Wassertemperatur in einem normalen Swimmingpool auf drei Tausendstel Grad genau würde mindestens ein Dutzend Thermometer erfordern …

Sie begründen ihre Behauptung, diesen Grad an Genauigkeit zu erreichen, mit den ARGO-Bojen. Diese Bojen treiben in verschiedenen Tiefen im Ozean. Alle zehn Tage steigen sie langsam an die Oberfläche und messen auf dem Weg dorthin die Temperatur. Gegenwärtig, das heißt vor drei Tagen, waren 3835 Bojen in Betrieb.

Abbildung 2: Verteilung aller aktiven ARGO-Bojen am 8. Januar 2019

Das sieht nach einer ziemlich großen Abdeckung aus in dieser Graphik, nicht wahr? Vielleicht nicht ein paar Dutzend Thermometer pro Swimmingpool, aber dicht … Tatsächlich ist es aber so, dass auf jeweils 93.500 km² Ozean nur eine ARGO-Boje kommt. Das ist ein Kasten mit jeweils 300 km Seitenlänge und einer Tiefe von 2 km … die genau ein Thermometer enthält.

Das ihrer Schätzung der Fehlerbandbreite zugrunde liegende Problem ist Folgendes: Wenn die Anzahl der Messungen steigt, nimmt die Fehlerbandbreite um 1 geteilt durch die Quadratwurzel der Anzahl der Beobachtungen ab. Und das heißt, falls wir mehr Dezimalstellen in unserer Fehlerbandbreite haben wollen, müssen wir einhundert mal die Anzahl der Messpunkte haben.

Beispiel, falls wir einen Fehler von – sagen wir – einem Zehntelgrad Celsius aus zehn Messungen haben wollen, dann brauchen wir eintausend Messungen, um den Fehler um ein Hundertstel Grad zu reduzieren …

Umgekehrt ist es genauso. Nehmen wir also einmal an, dass ihre Schätzung der Fehlerbandbreite von ± 0.003°C der Daten aus dem Jahr 2018 korrekt ist und das dies der ausgezeichneten Abdeckung mit 3835 ARGO-Bojen geschuldet ist.

Das würde bedeuten, dass wir eine zehn mal so große Fehlerbandbreite bekommen, also ± 0.03°C, falls es nur 38 ARGO-Bojen gäbe …

Tut mir leid, das glaube ich nicht. 38 Thermometer, von denen jedes drei Vertikalprofile der Temperatur pro Monat aufzeichnet, um die Temperatur der oberen 2000 Meter der gesamten globalen Ozeane zu messen – auf plus/minus drei Hundertstel Grad genau?

Mein Detektor für schlechte Zahlen leuchtete immer noch rot. Also führte ich eine Art „Monte Carlo“-Analyse durch. Benannt nach dem berühmten Casino impliziert eine Monte Carlo-Analyse, dass man Zufallsdaten einer Analyse unterzieht, um zu sehen, ob die Antwort vernünftig ist.

In diesem Falle nahm ich mir ein Gitternetz von 1° Breite mal 1° Länge vor und betrachtete die Ozeantemperaturen in verschiedenen Tiefen bis zu 2000 m aus dem Levitus World Ocean Atlas. Dieser enthält die monatlichen langzeitlichen Mittelwerte in jeder Tiefe für jedes Gitterquadrat für jeden Monat. Dann berechnete ich das globale Mittel für jeden Monat von der Oberfläche bis zu einer Tiefe von 2000 m.

Nun gibt es 33.713 Gitterquadrate von 1° x 1° mit Ozeandaten. (Die Gebiete jenseits der beiden Polarkreise habe ich mal außen vor gelassen, weil es dort fast keine Bojen gibt). Und es gibt 3825 ARGO-Bojen. Im Mittel befinden sich etwa 5% davon in einem normalen Gitterquadrat. Die ARGO-Bojen vermessen also größenordnungsmäßig zehn Prozent der Gitterquadrate … was bedeutet, dass trotz der vielen ARGO-Bojen zu jeder gegebenen Zeit 90% der 1°x1°-Gitterquadrate in den Ozeanen nicht vermessen werden! Ich meine ja nur …

Um zu sehen, welchen Unterschied das ausmacht, unterzog ich 3825 zufällig ausgewählte Ozean-Gitterquadrate wiederholten Analysen. Dabei machte ich genau das Gleiche wie zuvor – errechnete die Mittelwerte in jeder Tiefe und berechnete dann die globale mittlere Temperatur Monat für Monat für jene Gitterquadrate. Hier folgt eine Graphik typischer Zufallsorte für simulierte ARGO-Punkte für einen Lauf:

Abbildung 3: Typische simulierte Verteilung von ARGO-Bojen für einen Lauf einer Monte Carlo-Analyse.

Und dabei fand ich das, was zu finden ich mir gedacht hatte. Ihre behauptete Genauigkeit stammt nicht aus Experimenten. Abbildung 4 zeigt die Ergebnisse eines typischen Laufs. Das 95%-Vertrauensintervall der Ergebnisse variierte zwischen 0,05°C und 0,1°C:

Abbildung 4: Typischer Lauf, mittlere globale Ozean-Temperatur von der Oberfläche bis 2000 m tief, aus dem Levitus World Ocean Atlas (rote Punkte) und den 3825 simulierten ARGO-Punkten. Weiße Federstriche zeigen das 95%-Vertrauensintervall (95% CI). Für diesen Lauf betrug das 95% CI 0,07°C. Der kleine Federstrich unten Mitte zeigt das behauptete 95% CI aus dem Jahr 2018 von 0,03°C.

Wie man sieht, erhält man mittels der simulierten ARGO-Messpunkte eine Antwort, die dem tatsächlichen Temperaturmittel ziemlich nahe kommt. Monatliche Mittelwerte liegen innerhalb eines Zehntelgrades des tatsächlichen Mittelwertes … aber weil die ARGO-Bojen nur etwa 10% der 1° x 1°-Ozean-Gitterquadrate vermessen, ist das immer noch eine Größenordnung mehr als das für das Jahr 2018 behauptete 95% CI der Daten in Abbildung 1.

Also denke ich, dass mein Detektor für schlechte Zahlen weiter angeschaltet bleiben sollte …

Und schließlich sagt Zeke, dass die Ozeantemperatur im Jahre 2018 die Temperatur des Jahres 2017 um eine „komfortable Spanne“ übertrifft. Aber in Wirklichkeit ist es nur 8 Zettajoule wärmer … was geringer ist als die für 2018 behauptete Fehlerbandbreite. Oh nein, das ist keine „komfortable Spanne“. Es liegt noch deutlich innerhalb ihres behaupteten unglaublich geringen Fehlers, den sie mit ± 9 ZJ für das Jahr 2018 angeben.

Letzte Bemerkung: Man mache bitte nicht Zeke hierüber Vorwürfe. Er ist einer der Guten, und wir alle liegen mitunter falsch. Wie ich immer wieder nachgewiesen habe, hatte der amerikanische Wissenschaftler Lewis Thomas völlig recht mit seiner Bemerkung „Wir sind erschaffen, um Fehler zu machen, programmiert auf Irrtümer…“

Link: https://wattsupwiththat.com/2019/01/11/a-small-margin-of-error/

Übersetzt von Chris Frey EIKE




Die Glaubwür­digkeits-Lücke zwischen prophe­zeiter und tatsäch­licher globaler Erwärmung

Fangen wir mit den Prophezeiungen bzgl. der globalen Erwärmung seitens des IPCC an. Im Jahre 2013 wurden vier Szenarien definiert, von denen eines, nämlich RCP 8.5, von dessen Autoren (Riahi et al, 2007; Rao & Riahi, 2006) selbst als absichtlich extrem gehaltenes Szenario eingestuft worden ist. Es basiert auf so absurden Kriterien der Bevölkerungsentwicklung und des Energieverbrauchs, dass es getrost ignoriert werden kann.

Für das weniger unvernünftige, am oberen Ende der plausiblen Szenarien liegende RCP 6.0 soll der gesamt-anthropogene Antrieb im 21. Jahrhundert 3,8 Watt pro Quadratmeter betragen (2000 bis 2100):

Die CO2-Konzentration von 370 ppmv im Jahre 2000 sollte den Prophezeiungen zufolge beim RCP 6.0-Szenario bis zum Jahr 2100 auf 700 ppmv steigen (AR 5, Abb. 8.5). Folglich wäre der hundertjährige prophezeite CO2-Antrieb 4,83 ln(700/370) oder 3,1 W/m², also fast fünf Sechstel des Gesamtantriebs. Die prophezeite hundertjährige Referenz-Sensitivität (d. h. Erwärmung vor Rückkopplungen) ist das Produkt von 3,8 W/m² und des Planck-Parameters von 0,3 K/Wm², also 1,15 K.

Die CMIP5-Modelle prophezeien eine mittelfristige Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung von 3,37 K (Andrews+ 2012) im Vergleich zu einer Referenz-Sensitivität von 1 K vor Berücksichtigung von Rückkopplungen, was eine mittelbreite Transfer-Funktion [a midrange transfer function] von 3,37/1 = 3,37 impliziert. Die Transfer-Funktion, also das Verhältnis von Gleichgewichts- und Referenz-Temperatur, umfasst definitionsgemäß die gesamte Auswirkung von Rückkopplungen auf das Klima.

Daher beträgt die Erwärmung im 21. Jahrhundert, welche das IPCC prophezeien sollte, beim RCP 6.0-Szenario und auf der Grundlage der eigenen Schätzung der CO2-Konzentration sowie der Modell-Schätzungen des CO2-Antriebs und der Charney-Sensitivität 3,37 x 1,15 oder 3,9 K.

Tatsächlich aber prophezeit das IPCC nur eine Erwärmung von 1,4 bis 3,1 K im 21.Jahrhundert unter dem RCP 6.0-Szenario. Das ergibt eine mittelfristige Schätzung von gerade mal 2,2 K und impliziert eine Transfer-Funktion von 2,2/1,15 = 1,9. Das ist etwas höher als die Hälfte der mittelbreiten Transfer-Funktion von 3,37, welche implizit in den Projektionen der Gleichgewichts-Sensitivität im CMIP5-Ensemble enthalten ist.

Man beachte, dass in Abb. 2 jeder Hinweis darauf fehlt, dass die globale Erwärmung „settled science“ ist. Das IPCC prophezeit mit allen Szenarien und der Absicherung seiner Angaben eine Temperaturänderung zwischen -0,2 K und +4,5 K bis zum Jahr 2100. Dessen Best Estimate ist die mittelbreite Schätzung von 2,2 K.

Im Endeffekt impliziert also bei einer gegebenen Referenz-Sensitivität von 1 K bei einer CO2-Verdoppelung die dem IPCC zufolge zu erwartende Erwärmung im 21. Jahrhundert eine Charney-Sensitivität von 1,9 K. Das ist das Standardmaß für Studien zur Klimasensitivität, welche die Gleichgewichts-Sensitivität bei CO2-Verdoppelung ist, nach Einwirkung aller kurzfristig agierenden Rückkopplungen. Es sind nicht die 3,4 (2,1; 4,7) K der CMIP5-Modelle.

Da die offiziellen Prognosen also folglich untereinander erheblich inkonsistent sind, ist es schwierig, aus ihnen einen Eckwert abzuleiten für die offiziell prophezeite Erwärmung für das 21. Jahrhundert. Er liegt irgendwo zwischen den 2,2 K, die das IPCC aufgrund seiner RCP 6.0-Schätzung gibt, und den 3,9 K, abgeleitet aus dem anthropogenen Antrieb im 21. Jahrhundert mittels der mittelbreiten CMIP5-Transfer-Funktion.

So viel zu den Prophezeiungen. Aber was geht in Wirklichkeit vor sich, und passt die beobachtete Erwärmung zur Prophezeiung? Hier folgen die gemessenen Erwärmungsraten während der 40 Jahre von 1979 bis 2018. Fangen wir mit GISS an. Dort zeigt sich, dass sich die Welt während der 40 Jahre mit einer Rate erwärmt hat äquivalent nicht zu 3,9°C/Jahrhundert, nicht einmal zu 2,2°C/Jahrhundert, sondern lediglich zu 1,7°C/Jahrhundert:

Als nächstes zum NCEI: Dieser Datensatz – vielleicht aus politischen Gründen – ist plötzlich nicht mehr verfügbar:

Als nächstes der vom IPCC bevorzugte Datensatz vom HadCRUT4. Die University of East Anglia ist ziemlich betulich hinsichtlich der Aktualisierung seiner Informationen, läuft doch der 40-Jahre-Zeitraum dort von Dezember 1978 bis November 2018. Die Erwärmung ist aber mit derjenigen vom GISS identisch mit 1,7°C/Jahrhundert:

Als nächstes die von Satelliten gemessenen Trends, zuerst RSS. Es ist bemerkenswert, dass seit der Überarbeitung des RSS-Datensatzes zur Eliminierung des Stillstands dieser Datensatz dazu tendiert, die höchste Rate der globalen Erwärmung zu zeigen, nämlich 2°C/Jahrhundert. Der Chef-Wissenschaftler dort nennt alle, die nicht mit ihm bzgl. Klima übereinstimmen, „Leugner“:

Und schließlich noch UAH. Diesen sieht Prof. Ole Humlum (climate4you.com) als den Goldenen Standard für globale Temperaturaufzeichnungen an. Bevor UAH seinen Datensatz änderte, zeigte dieser gewöhnlich mehr Erwärmung als die anderen. Jetzt zeigt er die geringste Erwärmungsrate, nämlich 1,3°C/Jahrhundert:

Wie viel globale Erwärmung hätte es geben müssen während der 40 Jahre seit Beginn der Satellitenmessungen? Die CO2-Konzentration ist um 72 ppmv gestiegen. Der CO2-Antrieb während dieses Zeitraumes beträgt folglich 0,94 W/m². Dies impliziert einen Gesamt-Antrieb von 0,94 x 6/5 = 1,13 W/m² von allen Quellen. Entsprechend liegt die Referenz-Sensitivität dieses Zeitraumes bei 1,13 x 0,3 oder 0,34 K, und die Gleichgewichts-Sensitivität laut der CMIP5-Transfer-Funktion 3,37 sollte 1,14 K ergeben. Und doch betrug die Erwärmung über diesen Zeitraum 0,8 K (RSS), 0,7 K (GISS & HadCRUT4) oder 0,5 K (UAH) – gibt im Mittel eine Erwärmung von etwa 0,7 K.

Ein realistischeres Bild könnte man zeichnen, wenn man den Beginn der Berechnungen in das Jahr 1950 verlegt, als unser Einfluss erstmals bemerkbar war. Die HadCRUT4-Aufzeichnung sieht so aus:

Der CO2-Antrieb seit 1950 beträgt 4,83 ln(410/310) oder 1,5 W/m². Dies wird zu 1,8 W/m², nachdem man nicht-anthropogene CO2-Antriebe zugelassen hat. Dieser Wert ist konsistent mit dem IPCC (2013, Abb. SPM.5.). Daher beträgt die Referenz-Sensitivität über den Zeitraum 1950 bis 2018 1,8 x 0,3 oder 0,54 K, ist 0,54 x 3,37 = 1,8 K, von denen lediglich 0,8 K eingetreten sind. Zieht man die überarbeitete Transfer-Funktion 1,9, abgeleitet aus der prophezeiten Erwärmung nach dem RCP 6.0 heran, sollte die Erwärmung nach 1950 0,54 x 1,9 = 1,0 K betragen haben.

Man sollte hier auch die Temperaturaufzeichnung aus Mittelengland im Zeitraum der 40 Jahre von 1694 bis 1733 betrachten. Während dieses Zeitraumes war die Temperatur in den meisten Gebieten von England mit einer Rate äquivalent zu 4,33°C/Jahrhundert gestiegen im Vergleich zu den lediglich 1,7°C/Jahrhundert während der 40 Jahre von 1979 bis 2018. Daher ist die gegenwärtige Erwärmungsrate keineswegs beispiellos.

Aus dieser Aufzeichnung geht klar hervor, dass selbst die große Temperaturänderung aufgrund natürlicher Ursachen nicht nur in England, sondern weltweit gering ist im Vergleich zu den großen jährlichen Temperaturschwankungen der globalen Temperatur.

Der einfachste Weg, die sehr große Diskrepanz zwischen prophezeiter und gemessener Erwärmung während der letzten 40 Jahre darzustellen ist es, die Ergebnisse auf einer Scheibe zu zeigen:

Sich überlappende Projektionen des IPCC (gelbe & gelbbraune Zonen) und der CMIP5-Modelle (gelbbraune & orange Bereiche) der globalen Erwärmung von 1850 bis 2011 (dunkelblaue Skala), 1850 bis 2 x CO2 (dunkelrote Skala) und 1850 bis 2100 (schwarze Skala) gehen über die gemessene Erwärmung von 0,75 K im Zeitraum 1850 bis 2011 (HadCRUT4) hinaus. Sie liegt zwischen der Referenz-Sensitivität von 0,7 K bis zum anthropogenen Antrieb in IPCC (2013, Abb. SPM.5) (blaugrüner Zeiger) und der zu erwartenden Gleichgewichts-Sensitivität in diesem Zeitraum von 0,9 K nach Adjustierung des Strahlungs-Ungleichgewichtes (Smith et al. 2015) (blauer Zeiger). Die Projektion der CMIP5-Modelle einer Charney-Sensitivität von 3,4 K (roter Zeiger) liegt etwa drei mal so hoch wie der Wert aus den Beobachtungen. Das überarbeitete Intervall der Prophezeiungen globaler Erwärmung (grüner Bereich) korrigiert um einen physikalischen Fehler in den Modellen, deren Rückkopplungen nicht auf die Emissions-Temperatur reagieren, liegt nahe der beobachteten Erwärmung.

Anmerkungen: Ich verpflichtete mich, über den Fortschritt der Studie meines Teams zu berichten, in welcher der physikalische Fehler der offiziellen Klimatologie betrachtet wird, der darin bestand, die schlichte Tatsache, dass die Sonne scheint, in den Berechnungen der Rückkopplungen nicht zu berücksichtigen. Ursprünglich ist die Studie Anfang vorigen Jahres abgelehnt worden mit der Begründung, dass der Herausgeber des führenden Journals, bei dem sie eingereicht worden war, offenbar niemanden finden konnte, der kompetent genug war, die Studie zu begutachten. Wir vereinfachten die Studie und reichten sie erneut ein, und nach einer Verzögerung von vielen Monaten kamen nur zwei Begutachtungen zurück. Bei der ersten handelte es sich um die Begutachtung eines Begleit-Dokuments, in welchem die Ergebnisse der Experimente beschrieben worden waren, die in einem Labor der Regierung durchgeführt wurden. Es war jedoch klar, dass der Begutachter den Laborbericht nie gelesen hat, worin sich auch die Antwort auf die Frage befand, die der Begutachter gestellt hatte. Die zweite war angeblich eine Begutachtung der Studie, aber der Begutachter gab an, dass er sich nicht die Mühe gemacht habe, die Gleichungen zu lesen, welche jene Schlussfolgerungen gerechtfertigt haben, weil er diese Schlussfolgerungen unlogisch fand.

Wir protestierten. Der Herausgeber holte dann eine dritte Begutachtung ein. Aber das war wie die beiden ersten keine Begutachtung der vorliegenden Studie. Es handelte sich um die Begutachtung einer anderen Studie, welche im Jahr zuvor bei einem anderen Journal eingereicht worden war. Alle in dieser Begutachtung aufgeworfenen Fragen sind schon seit Langem umfassend beantwortet. Keiner dieser drei Begutachter kann also die Studie gelesen haben, die sie angeblich begutachtet hatten.

Nichtsdestotrotz meinte der Herausgeber die Studie ablehnen zu müssen. Als Nächstes kontaktierte uns das Management des Journals des Inhalts, dass man hoffe, wir wären einverstanden mit der Ablehnung, und man lud uns ein, künftig weitere Studien einzureichen. Ich erwiderte, dass wir keineswegs mit der Ablehnung einverstanden waren wegen der offensichtlichen Tatsache, dass keiner der Begutachter die Studie überhaupt gelesen hatte, welche der Herausgeber ablehnte. Wir bestanden daher auf das Recht, die Studie zu veröffentlichen.

Der Herausgeber stimmte zu, die Studie noch einmal zur Begutachtung zu stellen, und wählte diesmal die Begutachter mit größerer Sorgfalt aus. Wir schlugen vor – und der Herausgeber stimmte dem zu – dass wir angesichts der Schwierigkeiten, welche die Begutachter mit dem Verständnis des Punktes hatten, um den es geht und welcher sie eindeutig überraschte, der Studie eine umfassende mathematische Beweisführung hinzufügen, dass die Transfer-Funktion, welche die gesamte Wirkung der Rückkopplungen auf das Klima umfasst, sich nicht nur als das Verhältnis der Gleichgewichts-Sensitivität nach Rückkopplungen und der Referenz-Sensitivität ausdrücken lässt, sondern auch als das Verhältnis der gesamten absoluten Gleichgewichts-Temperatur zur gesamten absoluten Referenz-Temperatur.

Wir sagten, dass wir detaillierter erklären sollten, dass die Gleichung der Klimatologie nicht brauchbar ist – obwohl beide Gleichungen der Transfer-Funktion der offiziellen Klimatologie und unsere eigenen valide sind – weil selbst geringe Unsicherheiten in den Sensitivitäten, die um zwei Größenordnungen geringer sind als die absoluten Temperaturen, zu einer großen Unsicherheit der Werte der Transfer-Funktion führen, während sogar große Unsicherheiten bei den absoluten Temperaturen zu geringer Unsicherheit in der Transfer-Funktion führen. Diese kann folglich sehr einfach und sehr zuverlässig abgeleitet werden ohne den Gebrauch der allgemeinen Zirkulationsmodelle.

Ich habe den Eindruck, dass der Herausgeber erkannt hat, dass wir recht haben. Wir warten jetzt auf einen neuen Abschnitt unseres Professors der Kontroll-Theorie zur Ableitung der Transfer-Funktion aus der Energiebilanz-Gleichung mittels einer Ausdehnung einer Taylor-Reihe von führender Größenordnung. Das wird uns Ende des Monats vorliegen, und der Herausgeber wird die Studie dann noch einmal einer Begutachtung zuführen. Falls wir recht haben und die Charney-Sensitivität (Gleichgewichts-Sensitivität im Verhältnis zu verdoppeltem CO2) 1,2 (1,1; 1,3)°C beträgt, was viel zu gering ist, um von Bedeutung zu sein und nicht wie die Modelle zeigen 3,4 (2,1; 4,7)°C, dann wird dies, wissenschaftlich gesprochen, das Ende des Klima-Betrugs sein.

Link: https://wattsupwiththat.com/2019/01/10/the-credibility-gap-between-predicted-and-observed-global-warming/

Übersetzt von Chris Frey EIKE




GRÜNE Energie­weisheit würde die Strom­kosten um ca. 2,5 EUR/kWh erhöhen

Künftige Stromkosten bei Akkuspeicherung

Es gibt viele, welche in Akkus die einfache Lösung des latenten EEG-Speicherproblems sehen. Allen gemeinsam ist, dass dies nur einfach erscheint, so lange die Kosten dafür nicht angegeben werden.

In einer Information des Autors zum berühmten und hochgelobten Tesla-Akkuspeicher in Australien:
[2] EIKE 01. Oktober 2018: 90 Millionen US-Dollar für eine Tesla-Batterie in Süd-Australien, 28.224 Milliarden EUR dafür in Deutschland …
wurden überschlägig die Kosten für eine Umsetzung in Deutschland mit grob 28.000 Milliarden EUR abgeschätzt. Ein anderer Fachmann ermittelte dafür etwas weniger, nämlich nur 19.000 Milliarden EUR:
P. Dietz: … Zur Pufferung von Solar- und Windstrom bei Öko-Vollversorgung übers Jahr würde D (gemäß von mir hierzu extrapolierten Daten aus einer Untersuchung von Prof. Sinn für 2014 … einen Speicherbedarf für etwa 20 Tage Dunkelflaute benötigen, was bei 1,7 TWh/d 4000 mal Goldisthal oder etwa das 35.000-fache (!!) des südaustralischen weltweit größten Tesla-Akkus mit 100 MWh entspricht … der 55 Mio USD kostete und bei dortiger Netzlast von 5 GW i.w. nur als dringend benötigte Sekundenreserve genutzt wird …
Für D würde der 35.000 mal so große Ganzjahres-Pufferakku (ohne Elektromobilität) gut 19.000 Mrd € kosten und 220 Mio t wiegen. Bei einer Nutzungsdauer von 12 Jahren müsste jeder Einwohner von D pro Jahr dafür gut 19.000 € zahlen. Da der Li-Preis bereits heute auf das 3-fache gestiegen ist und die Vorräte begrenzt sind (und nicht mal für die E-Mobilität reichen) ist so etwas überhaupt nicht realisierbar. Allein um D nur *einen* Tag lang aus Autobatterien mit je 30 kWh zu versorgen, wären 56 Mio. Fahrzeuge nötig …

Nun halten Akkus nicht ewig. Stark abhängig von der elektrischen Belastung gehen sie turnusgemäß kaputt. Wirklich lange halten sie nur, wenn sie mit maximal +-10 % Lade-/ Entladungsdifferenz beansprucht werden, eine Begrenzung, welche im Betrieb als Volumenspeicher sicher nicht eingehalten werden kann.
Deshalb ist es wohl nicht völlig daneben – eher noch etwas hoch gegriffen -, mit einer mittleren Gebrauchsdauer solcher Akkuspeicheranlagen von ca. 12 Jahren zu rechnen. Und dann ergeben sich ganz, ganz grob die folgenden Kosten:

Nun muss nicht alle 12 Jahre alles vollständig erneuert werden. Nehme man also nur die Hälfte davon an. Dann sind trotzdem noch alleine für die Akkuspeicherung, also zusätzlich zum aktuellen Strompreis, für die „Frau Baerbock-Speicherlösung“ zu bezahlen:
Zusatzkosten der kWh: 1,67 … 2,5 EUR oder
Jahres-Zusatzkosten pro Einwohner: 9.655 … 14.341 EUR

Da anzunehmen ist, dass die Industrie ihre anteiligen Kosten nicht voll übernehmen wird, dürfte der Betrag für die Privathaushalte eher deutlich höher ausfallen.
Manche mögen einwenden, dass die enormen Kosten für die zusätzlich erforderliche Infrastruktur noch fehlen. Aber beim EEG fehlt so viel (auch an Verstand), dass es darauf wirklich nicht mehr ankommt.

Werden die Speicherkosten heimlich zu den Elektroautos „verlagert“?

Solche Kosten werden sich nicht einfach vermitteln lassen. Während beherzte (hier ein sich besonder klimahysterisch gebender [4]) Verfechter der Energiewende sagen: Weil es nicht lösbar ist, am Besten einfach ignorieren, sonst wird noch nachgedacht und das ganze Konstrukt käme vielleicht ins Wanken:
[4] Klimaretter.Info[2] Quaschning sieht solche Großprojekte aber nicht als Bedingung für den weiteren Ausbau der Erneuerbaren: „Es wird gern vorgeschoben, dass große Projekte wie der Netz- oder Speicherausbau erstmal fertig sein müssen, bevor die Energiewende losgehen kann“,kritisiert er…. Fragt man Quaschning, sind Netze und Speicher sogar der letzte Schritt. Der erste heiße Kohleausstieg…
Sehen andere die vielen Dollars in ihren Augen, wie lokale (kommunale) Versorger, die ihre „gut Betucht“-Akkulösungen verkaufen wollen [5].

Es könnte aber auch sein, dass die kleine Episode nur der Auftakt zu einem neuen EEG-Speichermodell wird: Erzwingen und subventionieren der 100 % Elektromobilität, um „auf Teufel komm raus“ Speicher zu generieren, ohne die Kosten direkt benennen zu müssen.
Nach bewährter EEG Umlage-Subventionssitte würden die E-Auto-Besitzer davon profitieren und die daran gewöhnten, sonstigen privaten Strombezieher dafür wieder abgezockt. Diese sind das schon lange gewohnt, weshalb es in Deutschland dagegen kaum Proteste geben dürfte.
Und es lässt sich auch wie gewohnt als besonders bürgernah verkaufen, denn ein Teil der Bürger profitiert ja davon. Ach ja: Die Welt rettet es bestimmt auch ein ganz, ganz kleines bisschen vor dem Klimatod, weshalb die Gute Tat dieser Bürger noch draufgeschlagen werden kann.

Es wäre also nicht verwunderlich, wenn Frau Baerbock spontan gar nicht – wie man es bei der rein technisch/monetären Betrachtung meinen würde -, eine besondere Dummheit von sich gegeben hat, sondern nur ein bereits vorbereitetes (hochsubventioniertes) EEG-Lösungsmodell ausplauderte. Die Politik – weil sie bald eine Lösung braucht – und die Profiteure warten schon lange darauf, dass es endlich gestartet wird.
In diesem Sinn wäre Frau Baerbock wieder genial, nämlich mit dem richtigen Versprecher zur richtigen Zeit am richtigen Ort.

Quellen

[1] EIKE 18. Dezember 2018: Annalena Baerbock: In Deutschland emittiert jeder Bürger 9 Gigatonnen CO2

[2] EIKE 01. Oktober 2018: 90 Millionen US-Dollar für eine Tesla-Batterie in Süd-Australien, 28.224 Milliarden EUR dafür in Deutschland

[3] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[4] EIKE 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout

[5] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten




Hansens Prophe­zeiungen aus dem Jahr 1988 wieder­belebt

Das folgende Bild zeigt Seine Höchste Rechtschaffenheit Dr. James „Death Train“ Hansen bei seiner Verhaftung wegen zivilen Ungehorsams als Unterstützung für Klima-Alarmismus…

Ich muss zugeben, dass ich selbst schuldig bin, und zwar ob der Schadenfreude, die ich empfunden habe, weil er von einem Polizeibeamten namens Green abgeführt worden ist…

Wie auch immer, ich möchte den Sermon aus der eben erwähnten Epistel von St. James an die Senatoren (hier) als Aufhänger für diesen Beitrag benutzen. Ich nenne nur die relevanten Abschnitte und möchte mit seiner Temperaturvorhersage anfangen:

Abbildung 1: Original-Bildunterschrift: Abbildung 3. Jährliche mittlere globale Lufttemperatur, berechnet für die Spurengas-Szenarien A, B und C. (Szenario A nimmt weiter wie seit 20 Jahren steigende Emissionen, Szenario B friert die Emissionen auf dem jetzigen Stand ein, Szenario C zeigt drastisch reduzierte Emissionen von 1990 bis 2000). Der schattierte Bereich repräsentiert eine Schätzung der globalen Temperatur während des Höhepunktes der gegenwärtigen und von früheren Interglazial-Perioden, jeweils etwa vor 6000 und 120.000 Jahren vor heute. Der Nullpunkt der Messungen ist das Mittel des Zeitraumes 1951 bis 1980, der Nullpunkt für das Modell ist das Mittel des Kontroll-Laufes.

Mich interessierte „Szenario A“, also Hansens Definition zufolge das, was passieren würde bei „fortgesetzten Zunahme-Raten von Spurengas-Emissionen von der Größenordnung der letzten 20 Jahre, also etwa 1,5% pro Jahr“.

Um zu sehen, wie sich Szenario A im Zeitraum nach 1987 darstellt, nach dem Zeitpunkt also, zu dem Hansens Messwerte endeten, betrachtete ich die Rate der Zunahme von CO2-Emissionen seit 1987. Diese Graphik zeigt Abbildung 2:

Abbildung 2: Jährliche Zunahme der CO2-Emissionen in Prozent

Dies zeigt, dass Hansens Schätzungen zukünftiger CO2-Emissionen ziemlich genau waren, obwohl in Wirklichkeit die Zunahme noch um ~25% HÖHER war als Hansen geschätzt hatte. Als Folge davon sollte seine Computer-Schätzung für Szenario A noch ein wenig mehr Erwärmung gezeigt haben als oben in Abbildung 1 gezeigt.

Als Nächstes digitalisierte ich Hansens Graphik, um sie mit der Realität vergleichen zu können. Zunächst zeigte ich, was in Hansens Graphik gelistet ist als „Beobachtungen“. Ich habe seine Beobachtungen verglichen mit dem Festland-Ozean-Temperaturindex des GISS (GISS LOTI) und den Datensätzen der globalen Temperatur vom HadCRUT.

Abbildung 3: Die als „Beobachtungen“ markierte Linie in Hansens Abbildung 1 oben zusammen mit aktuellen Temperatur-Schätzungen. Alle Daten dargestellt als Anomalien im Vergleich zum Mittel von 1951 bis 1980.

Nun gut. Wir haben also festgestellt:

Hansens Schätzung von „Szenario A“ hinsichtlich der Zunahme von CO2-Emissionen war gut, wenn auch etwas zu niedrig, und

Hansens historische Temperatur-Beobachtungen stimmen ziemlich gut mit aktuellen Schätzungen überein.

Angesichts des Umstandes, dass er in dieser Hinsicht ziemlich akkurat gelegen hatte, wenngleich auch etwas zu niedrig bzgl. CO2-Emissionen … wie hat sich die Prophezeiung bei Szenario A entwickelt?

Nun … nicht so gut:

Abbildung 4: Die in Hansens Graphik oben als „Beobachtungen“ bezeichnete Linie zusammen mit seiner Szenario A-Schätzung im Vergleich zu aktuellen Temperatur-Schätzungen. Alle gemessenen Daten sind als Anomalie vom Mittel der Jahre 1951 bis 1980 dargestellt.

Ich habe also dem Twitterer gegenüber, der gesagt hatte, dass Hansens Prophezeiung „sich als zutreffend erwiesen haben“, diese ziemlich substantielle Abweichung zur Sprache gebracht, also die prophezeite Erwärmung, die doppelt so stark ausfallen sollte wie in Wirklichkeit eingetreten.

Seine Antwort?

Er erwiderte, dass sich Hansens Prophezeiung in der Tat als genau erwiesen hat – er hätte lediglich den falschen Wert für die Klimasensitivität angesetzt: „Die einzige Diskrepanz in Hansens Arbeit 1988 war seine Schätzung der Klimasensitivität. Wendet man die besten gegenwärtigen Schätzungen an, erweist sich seine Arbeit als perfekt eingetroffen“.

Ich mag diesen Passus über die „besten gegenwärtigen Schätzungen“ der Klimasensitivität – hier sind gegenwärtige Schätzungen aus meinem Beitrag The Picasso Problem [auf Deutsch beim EIKE hier] …

Abbildung 5: Änderungen über die Zeit der Schätzung des Klima-Sensitivitäts-Parameters „lambda“. „∆T2x(°C)” ist die erwartete Temperaturänderung in Grad Celsius bei einer Verdoppelung des atmosphärischen CO2-Gehaltes, von welcher man annimmt, dass sie das Forcing um 3,7 W/m² verstärken wird. Mit den Abkürzungen FAR, SAR, TAR, AR4, AR5 sind die fünf Zustandsberichte des IPCC gemeint, welche eine Zustandsbeschreibung des Status‘ der Klimawissenschaft zum jeweiligen Zeitpunkt der Berichte sind. Rote Punkte zeigen die aktuellsten individuellen Schätzungen der Klimasensitivität.

Während ich dem Twitterer Null Punkte hinsichtlich Genauigkeit gebe, muss ich ihm applaudieren für seine schiere Dreistigkeit und Vorstellungskraft. Er ist ein perfektes Beispiel, warum es so schwer ist, Klima-Alarmisten von irgendetwas zu überzeugen – weil für sie alles eine Bestätigung ihrer Gedanken ist. Egal ob es zu warm oder zu kalt ist, ob es zu viel oder zu wenig Schnee gibt oder milde Winter bzw. eisige Winter – für die Alarmisten sind all dies klare und offensichtliche Anzeichen des drohenden Thermageddons, wie es in den Offenbarungen von St. James of Hansen verkündet sind.

Link: https://wattsupwiththat.com/2019/01/06/hansens-1988-predictions-redux/

Übersetzt von Chris Frey EIKE




Früher wurde im Alpen­vorland zur Winter­mitte Schnee erwartet und war dann ein normales Ereignis.

Und da fällt vollkommen unerwartet mitten im Winter Schnee in Oberbayern. Und weil es aufgrund einer 95 %ig sicheren Vorhersagen im Winter keinen Schnee mehr geben kann [2], brach aus, was die Deutsche Bahn bei jedem größeren Unwetter vormacht: Ein Chaos. Weil es Chaos in Deutschland aber nicht gibt: Einstellen des öffentlichen Betriebes.

Schnee mitten im Winter – ist inzwischen ein Katastrophenfall

Eine der vielen, nicht eingetroffenen Klimawandel-Vorhersagen ist die eines (immer noch) berühmten Klimawissenschaftlers:
Spiegel Online 01.04.2000: [2] Wissenschaft Winter ade Nie wieder Schnee?
In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie.

Trotz des Datums, an dem es vom Spiegel damals verkündet wurde, hat sich die Vorhersage in vielen Köpfen geradezu „festgefressen“. Leider sitzen viele solche Köpfe auf wichtigen Positionen (und Interessenverbänden).
Entsprechend sieht deshalb wohl die Planung aus, welche in Süddeutschland gegen Beeinträchtigungen durch winterbedingtes Wetter betrieben wird:

Bild 1 [2]

Leider hält sich das Wetter nicht daran. Doch auch Oberbayern hat wohl von der Bahn gelernt und verfährt ebenfalls nach der Devise: Wenn das Wetter anders ist als geplant – und das ist immer, wenn es „ungemütlich“ wird -, stellen wir vorsorglich das öffentliche Leben flächendeckend ein. Die Bahn macht es, wenn von den vielen, dank Landschaftspflegemaßnahmen entlang der Bahnstrecken wachsenden Bäumen welche vollkommen unvorbereitet auf Gleise kippen. In Oberbayern macht man es inzwischen, wenn die Gehwege nicht mehr flächendeckend geräumt werden können. Schließlich beeinträchtigt dies massiv das „öffentliche Leben“, welches nicht mehr gewährleistet werden kann. So etwas ist eine Katastrophe und deshalb auch berechtigter Anlass zur Ausrufung des Katastrophenfalls.
Dass der Landrat von Miesbach ein GRÜNER ist, sei nur nebenbei erwähnt. Es trifft sich allerdings etwas mit der Recherche-„Erfahrung“ des Autors, dass oft dort, wo GRÜNE (Politiker) zuständig sind, das Klima besonders erbärmlich zuschlägt und besondere (öffentlichkeitswirksame) Maßnahmen erfordert.

Bild 2 BR Info vom 07.01.2019 [3]

So ganz unvorbereitet hätte man am nördlichen Alpenrand nicht zu sein brauchen. Erst vor einem Jahr hatte es in den Alpen ein Schneechaos gegeben:
WELT 10.01.2018: Schneefälle in den Alpen Züge fahren wieder nach Zermatt

Und erst im vergangenen Dezember wurde ein Studie zu den Schneebedingungen in den Alpen seit 1895 veröffentlicht:
AIGNER, Günther; GATTERMAYR, Wolfgang; ZENKL, Christian (201 8): Die Winter in Tirol seit 1895. Eine Analyse amtlicher Temperatur- und Schneemessreihen. www.zukunft-skisport.at.
Darin wurde festgestellt (Zitierung aus dem Abstrakt):
Bei Betrachtung der amtlichen Messdaten sind die klimatologischen Rahmenbedingungen für den alpinen Wintersport in Tirol nach wie vor sehr günstig. Über die letzten 50 Jahre sind die Wintertemperaturen auf Tirols Bergen statistisch unverändert. Betrachtet man lediglich die letzten 30 Jahre, so sind die Winter in diesem Zeitraum sogar deutlich kälter geworden – um 1,3 Grad Celsius.
Die längsten Schneemessreihen aus den Tiroler Wintersportorten zeigen über die vergangenen 100 Jahre insgesamt keine signifikanten Trends. Weder die jährlich größten Schneehöhen noch die jährliche Anzahl der Tage mit Schneebedeckung zeigen markante Veränderungen. Bei isolierter Betrachtung der letzten 30 Jahre bleiben die jährlich größten Schneehöhen und die Neuschneesummen relativ stabil, während die Anzahl der Tage mit Schneebedeckung leicht abgenommen hat.
Auffallend ist die hohe Variabilität der einzelnen Winter. Die Spannweiten in den Messreihen sind beachtlich – vor allem bei den jährlich größten Schneehöhen. Insgesamt zeigt sich, dass die winterlichen Schneeverhältnisse primär vom Auftreten der entscheidenden Großwetterlagen abhängen und nur mäßig mit dem Temperaturniveau korrelieren. Auch relativ milde Winter können sehr schneereich sein. Diese unvorhersehbare Dynamik der Großwetterlagen dominiert das Wetter und Klima im Alpenraum.
… Ein klimabedingtes Ende des alpinen Wintersports ist nach der Auswertung der amtlichen Messdaten nicht in Sicht …

Bei uns ist aber Order, dass dies für den deutschen Anteil an den Alpen nicht gilt und sich die Winter hierzulande streng nach den Wissenschaftlern und natürlich auch den PIK-Simulationen richten.
Gut, eine andere Studie (teils von den gleichen Universitäten) kam ein Jahr davor zur gegenteiligen Ansicht [5]. Doch so ist das fast immer beim Belegen von Klima. Selbst das gewesene und das aktuelle Klima oder Wetter scheinen sich stark nach den jeweiligen Wünschen der Auftraggeber gerichtet zu haben.

Katastrophe, weil (etwas) Schnee liegt, oder weil die Kommunen damit (mangels Geld?) nicht mehr umgehen können?

Beim Staatssender BR hat sich jemand die unsägliche Mühe gemacht und vor Ort, mitten im vom Schneechaos betroffenen Katastrophengebiet mit herzzerreißenden Fotos dokumentiert, wie grausam und heftig der Klimawandel zuschlagen kann.
Früher wären solche teils als idyllisches Postkartenmotiv gewählt worden, aber die Zeiten ändern sich eben. Auszüge anbei:

Bild 3 Bei so viel Schnee am Alpenrand können Züge selbstverständlich nur noch ganz vereinzelt fahren. BR Info vom 07.01.2019 [3]

Bild 4 Dieser Hauseingang ist beispielhaft „kaum erreichbar“. Nur gut, dass die Straße daneben wenigstens schön geräumt ist. BR Info vom 07.01.2019 [3]

Bild 5 Weil Personal zum Räumen fehlt, Katastrophenfall? BR Info vom 07.01.2019 [3]

Aber die Schulkinder werden sich freuen. Eine Woche unverhofft schulfrei. Und das, ohne dass man einen Lernstreik gegen das Klima initiieren muss [4].

Quellen

[1] BR, 31.12.2018: Söder ruft zum Kampf gegen Klimawandel auf

[2] Spiegel Online 01.04.2000: Wissenschaft Winter ade Nie wieder Schnee?
In Deutschland gehören klirrend kalte Winter der Vergangenheit an: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie.

[3] BR24 07.01.2019: Schneemassen sorgen in Südbayern weiter für große Probleme

[4] EIKE 01.01.2019: Ein „Superstar“ und Jeanne d’Arc der Klimakonferenz sprach – doch der Saal war fast leer

[5] ZAMG: 20.11.2017: Winter in Österreich: Vergangenheit und Zukunft