Wolkenrückkopplung – falls es sie überhaupt gibt – ist negativ

Ich habe bei einem begutachteten Journal eine Studie eingereicht, und bemerkenswerterweise hat sich das Journal dankbar geäußert und sie ins Netz gestellt, während die Begutachtung läuft. Hier folgt diese Studie. Aber es war nicht einfach, bis zum folgenden Punkt zu kommen: Ich denke, dass das in der Studie von mir Beschriebene von großer Bedeutung für die Klimawissenschaft ist, wie vielleicht aus einigen Formulierungen darin hervorgeht. Darum war ich erpicht darauf, sie in einem begutachteten Journal veröffentlicht zu sehen – dem IPCC zufolge sollten nur begutachtete Studien herangezogen werden. Das erste Journal, bei dem ich die Arbeit eingereicht hatte (November 2019) brauchte zwei Monate, um mir mitzuteilen, dass die Studie außerhalb der von dem Journal umfassten Thematik liege – eine seltsame Behauptung. Das zweite Journal brauchte vier Monate, um mich zu benachrichtigen, das man bisher keinen Begutachter gefunden hätte und dass die Studie eines anderen Formats für Quellenangaben sowie einiger kleiner anderer Formatänderungen bedarf. Also zog ich die Studie zurück. Ich habe ein paar Verbesserungen an der Studie vorgenommen während dieses Zeitraumes, aber ich bezweifle, ob das hinsichtlich der Begutachtungen ins Gewicht fällt.

Die Studie: Wolkenrückkopplung – so es sie überhaupt gibt – ist negativ
Autor: M. Jonas
ABSTRACT

Nahezu alle vom IPCC herangezogenen Klimamodelle zeigen eine starke positive Wolken-Rückkopplung. Hierbei handelt es sich um den Prozess, bei dem eine sich ändernde Temperatur an der Erdoberfläche die Wolkenbedeckung beeinflusst, was wiederum die Temperatur beeinflusst. In dieser Studie werden alle monatlichen Satellitendaten im Zeitraum Juli 1986 bis Juni 2017 analysiert, um die Klimamodelle auf diesen Punkt hin abzuklopfen. Wie erwartet zeigten sich über diesen Zeitraum steigende Trends der Wassertemperatur und zurückgehender Wolkenbedeckung. Aber die Analyse zeigte auch eine unerwartete Relation zwischen Wassertemperatur und Wolkenbedeckung: steigende Wassertemperaturen sind verbunden mit zunehmender – und nicht abnehmender – Wolkenbedeckung während der folgenden paar Monate. Außerdem neigt die Zunahme der Bewölkung dazu, einen größeren Anteil der Sonneneinstrahlung abzuhalten als sie die Ausstrahlung von den Ozeanen behindern. Die unvermeidliche Schlussfolgerung daraus lautet, dass die Wolken-Rückkopplung negativ ist. In jedem Falle kann die beobachtete Abnahme der Bewölkung über den Ozeanen im Zeitraum 1986 bis 2017 nicht einer Rückkopplung durch steigende Temperaturen geschuldet sein. Die Implikationen für Klimamodelle sind verheerend.

1. INTRODUCTION

Die Ozeane bedecken etwa 70% der Erdoberfläche und speichern in den obersten 3 Metern mehr Wärme als die gesamte Atmosphäre. Folglich liegt der Schlüssel zum Verständnis eines globalen Klimawandels untrennbar in den Ozeanen.

Spencer und Braswell (13), welche Satellitendaten und Modelle ausgewertet hatten, berichteten, dass die Diagnose der atmosphärischen Rückkopplung im Klimasystem ein nach wie vor ungelöstes Problem darstellt. Sie schreiben: „Die Größenordnung der Reaktion der Temperatur im Klimasystem auf ein aufgedrücktes Energie-Ungleichgewicht ist heute noch genauso unbekannt wie vor Jahrzehnten schon“. Zieht man jedoch ausschließlich Satellitendaten über einen längeren Zeitraum heran, löst diese Studie eines der großen Aspekte bzgl. Rückkopplungen, nämlich das Signal der Wolken-Rückkopplung. In die Studie gehen ausschließlich empirische Daten ein. Genauer, sie verwendet Daten aus dem gesamten Zeitraum, von der gesamten Ozeanfläche – und es gehen keinerlei Modellwerte ein.

Das IPCC (5) definiert Klima-Rückkopplung als eine Wechselwirkung zwischen Prozessen, wenn „ein initaler Prozess Änderungen bei einem zweiten Prozess bewirkt, welche wiederum den ersten Prozess beeinflussen“. Und es stellt fest, dass eine Möglichkeit, dies zu quantifizieren, darin besteht, „es als Reaktion des Klimasystems auf eine globale Temperaturänderung“ zu betrachten. Wolken-Rückkopplung ist also der Prozess, durch welchen die Bewölkungsmenge durch eine sich ändernde Temperatur beeinflusst wird, was wiederum die Temperatur beeinflusst. Man beachte, dass die Wolken-Rückkopplung nicht abhängig ist von der ursprünglichen Ursache der Temperaturänderung.

Rückkopplungen aufgrund der Temperatur waren schwierig von anderen Auswirkungen auf die Temperatur zu trennen, läuft doch der initiale Prozess „fast simultan mit der Temperaturänderung“, aber für den zweiten Prozess gilt, dass es „eine substantielle zeitliche Verzögerung zwischen Antrieb und der Reaktion der Temperatur gibt infolge der Wärmekapazität der Ozeane“ (13).

Ziel dieser Studie ist es zu erkennen, ob die Auswirkungen der Wassertemperatur (SST) auf die Bewölkung erkannt werden können. Hierzu werden SST-Änderungen verglichen mit späteren Änderungen der Bewölkungsmenge.

2. Verfahren

Monatliche Gitterpunkts-SST-Daten [gridded monthly SST data] wurden heruntergeladen vom NOAA/OAR/ESRL PSD in Boulder. Jedes Gitterquadrat ist 1 Längengrad mal 1 Breitengrad groß.

In gleichem Umfang wurden monatliche Wolken-Daten (Wolkenbedeckung in % und optische IR-Daten) vom International Satellite Cloud Climatology Project (ISCCP) im NASA Goddard Institute for Space Studies (GISS) heruntergeladen. Nur Ozean-Daten wurden verwendet ohne Daten vom Festland und an den Küsten.

Daten der beiden Datensätze wurden nur für die Monate und die Gebiete verwendet, in denen sowohl die Wolken- als auch die SST-Daten vollständig waren. SST-Daten in Gebieten und Monaten fehlten aufgrund der Bedeckung mit Meereis.

Für jeden Monat wurden die SST und die Wolkenbedeckung über die gesamte Ozeanfläche gemittelt. Für die SST wurden die einzelnen Temperaturwerte in Kelvin umgerechnet, vor der Mittelwertbildung auf die 4. Potenz angehoben und dann wieder in Grad C umgerechnet. Dadurch wurde sichergestellt, dass sich die berechneten durchschnittlichen SSTs korrekt auf die von der Meeresoberfläche ausgehende Strahlung bezogen.

Für jeden Monat nach dem ersten Jahr wurde die globale Veränderung der SST gegenüber dem Vorjahr berechnet (hier als „dSST“ bezeichnet). Diese wurden dann über eine unterschiedliche Anzahl von Monaten gemittelt, und jeder Durchschnitt wurde im Vergleich zum Endmonat des gemittelten Zeitraums aufgezeichnet. Die globale jährliche Veränderung der Wolkenbedeckung („dCloud“) wurde für die gleiche Anzahl von Monaten gemittelt, aber für spätere Perioden, die sich nicht mit dem für den dSST verwendeten Zeitraum überschneiden. Zu Vergleichszwecken wurde dCloud für den gleichen Monat wie die zugehörige dSST aufgezeichnet, und zwar für jede Kombination aus der Anzahl der gemittelten Monate und der Anzahl der Monate später. Der lineare Trend von dCloud gegen dSST wurde dann für jede Kombination unter Verwendung der Standardtabellenfunktion Trend berechnet (NB der Trend war von dCloud gegen dSST, nicht gegen die Zeit).

3. Grundgedanken

Wie Spencer und Braswell feststellten (13), ist die Rückkopplungs-Reaktion auf die Temperatur „fast simultan mit der Temperaturänderung“. Eine Änderung der SST sollte daher sehr bald danach zu einer Änderung der Wolkenbedeckung (d.h. Wolkenrückkopplung) führen. Es besteht daher die Möglichkeit, dass eine Wolken-Rückkopplung in den monatlichen Daten festgestellt werden kann. Der relevante Vergleich, der vorgenommen werden muss, ist der zwischen einer Änderung der SST und einer Änderung der Wolkenbedeckung im folgenden Monat oder in den folgenden Monaten.

Diese Studie verwendet Veränderungen von Jahr zu Jahr und behandelt alle Kalendermonate gleich, um jegliche Möglichkeit saisonaler Effekte zu vermeiden. Sie vermeidet sich überschneidende Zeiträume für dSST und dCloud, um die Möglichkeit zu minimieren, dass der Einfluss von Wolken auf die SST die Ergebnisse beeinflusst. Und weil nach einem schnellen Effekt gesucht wird, begrenzt sie jeden betrachteten Gesamtzeitraum (vom ersten dSST-Monat bis zum letzten dCloud-Monat) auf nicht mehr als 12 Monate.

Es ist unwahrscheinlich, dass sich der Effekt einer Änderung der Wolkendecke innerhalb eines Monats oder innerhalb weniger Monate in den SST-Daten niederschlägt [13], so dass ein Vergleich der Daten in umgekehrter Richtung – Änderung der Wolkendecke im Vergleich zur SST-Änderung im folgenden Monat oder in den folgenden Monaten – wahrscheinlich nicht zielführend ist. Es ist jedoch bekannt, dass Wolken einen kühlenden Effekt auf das Klima haben, siehe zum Beispiel Pokrovsky (8), der einen (globalen) Erwärmungseffekt von 0,07°C pro Abnahme der Bewölkung um 1% berechnet.

4. Ergebnisse
4.1 Wolkendecke

In allen Fällen mit dCloud bis zu 9 Monate später als dSST, war der lineare Trend von dCloud gegen dSST positiv, und dies war ein starkes und konsistentes Muster. Mit anderen Worten, den Monaten mit höherem dSST folgten tendenziell Monate mit höherer dCloud, und niedrigerem dSST folgten tendenziell niedrigere dCloud.

Die linearen Trends von dCloud gegenüber dSST sind in Abbildung 1 und grafisch in Abbildung 2 dargestellt.

Lineare Trends der globalen mittleren dCloud vs. dSST – ungewichtet (d. h. in gleich großen Gebieten) +/- 2*Sigma

Abbildung 1. Lineare Trends der globalen durchschnittlichen dCloud im Vergleich zu dSST, mit 95% Vertrauensniveau. Jeder Monat wird über die unter „Monate gemittelt“ angegebene Anzahl von Monaten gemittelt. Die dCloud-Werte gelten für die angegebene Anzahl von Monaten später.


Abbildung 2: Wie Abbildung 1, nur graphisch. Die Grenzen des 95% Vertrauensniveaus sind eingezeichnet.
Man beachte, dass von den Trends erwartet werden kann abzufallen mit zunehmenden „Monate später“ infolge des Einflusses der dazwischen liegenden Monate.
Die Trends sind eindeutig erkennbar in Graphiken mit dem Vergleich von dCloud und dSST und reflektieren die Daten als Ganzes und nicht nur einige Ausreißer. Einige Beispiele zeigen die Abbildungen 3, 4 und 5.

Abbilung 3: dSST für 1 Monat im Vergleich zu dSST im folgenden Monat

Abbildung 4: dSST gemittelt über 3 Monate im Vergleich zu dSST während der folgenden drei Monate

Abbildung 5: dSST gemittelt über 6 Monate im Vergleich zu dCloud über die folgenden 6 Monate.
Die Graphiken der Abbildungen 3, 4 und 5 sind alle im gleichen Maßstab.
4.2 Licht-Undurchlässigkeit von Wolken

Wolken größerer optischer Dichte unterbinden mehr Strahlung – sowohl was die Sonneneinstrahlung als auch die Ausstrahlung der Ozeane betrifft. Obige Analyse wurde neu berechnet, wobei Wolken gewichtet nach Lichtundurchlässigkeit einbezogen wurden. Die Lichtundurchlässigkeit, so wie sie in dieser Studie betrachtet wird, leitet sich folgendermaßen aus der optischen Dichte [optical depth] ab:

Die optische Dichte d wird gegeben durch

d = ln(Fr/Ft)
wobei
d = die optische Dichte,
Fr = flux received,
Ft = flux transmitted.
Das Verhältnis q der von den Wolken beeinflussten Strahlung –
q = (FrFt)/Fr
wird hier als „Licht-Undurchlässigkeit“ [opacity] genommen. q kann aus der Formel von d abgeleitet werden als
q = 1 – e(-d)
Die Lichtundurchlässigkeit q kann legitimerweise arithmetisch gemittelt werden über Wolkenanteile.
Wenn die Wolkendaten nach Lichtundurchlässigkeit gewichtet werde, ergibt sich die Tabelle dCloud vs. dSST so:
Lineare Trends des globalen Mittels von dCloud vs. dSST – gewichtet nach Lichtundurchlässigkeit +/- 2*Sigma

Abbildung 6. Lineare Trends der globalen durchschnittlichen dCloud gegen dSST mit 95% Vertrauensniveau, wie in Abbildung 1, aber mit nach Lichtundurchlässigkeit gewichteter Wolkendecke.
Wie aus den Abbildungen 1 und 6 ersichtlich, tendiert die erhöhte Bewölkung in Verbindung mit erhöhter SST auch dazu, für mehrere Monate eine größere Lichtundurchlässigkeit zu haben. Es gibt also nicht nur eine erhöhte Wolkenfläche, sondern auch eine erhöhte Wolkenmenge (gemessen an ihrer Fähigkeit, Strahlung abzufangen).

4.3 Auswirkung auf einfallende und ausgehende Strahlung

Um den relativen Einfluss der Wolkenveränderungen auf die ein- und ausgehende Strahlung zu bestimmen, wurde die Analyse neu berechnet, wobei die Wolken gewichtet wurden (a) mit der Opazität multipliziert mit der einfallenden Sonnenstrahlung (monatliche Sonnenstrahlungsdaten aus [2]) und (b) mit der Opazität multipliziert mit der ausgehenden Meeresstrahlung (aus SST). Es ist zu beachten, dass ein Unterschied zwischen (a) und (b) in erster Linie aus den unterschiedlichen Verteilungen der einfallenden Sonnenstrahlung und der ausgehenden Meeresstrahlung nach Breitengraden resultieren würde, nicht aus Variationen der Sonnenleistung.

Die Tabelle von dCloud vs. dSST würde dann das Aussehen wie in den Abbildungen 7 und 8 bekommen.

Lineare Trends der globalen durchschnittlichen dCloud vs. dSST – gewichtet nach Opazität der Wolken und Sonneneinstrahlung +/- 2*Sigma

Abbildung 7. Lineare Trends der globalen durchschnittlichen dCloud vs. dSST mit 95% Vertrauensniveau, wie in Abbildung 1, aber mit Wolkendecke gewichtet mit der Opazität multipliziert mit der einfallenden Sonnenstrahlung.
Lineare Trends der globalen durchschnittlichen dCloud im Vergleich zum dSST – gewichtet nach Wolkendecke und Meeresstrahlung +/- 2*Sigma

Abbildung 8. Lineare Trends der globalen durchschnittlichen dCloud vs. dSST mit 95% Vertrauensniveau, wie in Abbildung 1, aber mit Wolkendecke gewichtet mit Opazität multipliziert mit ausgehender Meeresstrahlung.

In den ersten Monaten sind alle mit der einfallenden Sonnenstrahlung gewichteten Trends höher als die mit der ausgehenden Meeresstrahlung gewichteten Trends. Dies zeigt, dass die Zunahme der Wolkendecke in Verbindung mit der Zunahme der SST eine größere Auswirkung auf die einfallende Strahlung hat als auf die ausgehende Strahlung. Mit anderen Worten, sie sind eine Nettoabkühlung.

5. CONCLUSION

Die Daten zeigen, dass es eine positive Korrelation zwischen Veränderungen des SST und späteren Veränderungen der Wolkendecke gibt. Wie oben erwähnt, ist bekannt, dass Wolken einen globalen Kühleffekt haben, und die Analyse hat gezeigt, dass Änderungen der Wolkendecke in Verbindung mit Änderungen des SST-Anstiegs die Wolken tatsächlich einen stärkeren Kühleffekt haben. Die unausweichliche Schlussfolgerung ist, dass jede Rückkopplung von Wolken negativ ist.

Diese Schlussfolgerung hat tiefgreifende Auswirkungen auf die Klimamodelle. Alle Modelle, auf die sich der IPCC bezieht, sind mit positiver Wolkenrückkopplung parametrisiert – „die GCMs sagen alle eine positive Wolkenrückkopplung voraus“ – und sie schreiben fast die Hälfte der gesamten anthropogenen globalen Erwärmung der Wolkenrückkopplung zu [9]. Dies ist ein möglicher Grund dafür, dass die meisten Klimamodelle die globale Erwärmung überschätzen [4] [12], obwohl Anagnostopoulos [1] sagt, dass es viel bedeutendere Probleme gibt.

Eine weitere Schlussfolgerung mit tiefgreifenden Auswirkungen auf die Klimamodelle ist, dass die beobachtete Abnahme der Bewölkung zwischen 1986 und 2017 keine Rückkopplung durch steigende Temperaturen war und dass sie stark genug war, um schließlich jede negative Wolkenrückkopplung aufzuheben. Der IPCC-Bericht [9] legt nahe, dass die Modelle nicht die Möglichkeit erkennen, dass Wolken ein anderes Verhalten als eine Rückkopplung haben können: in den Key Uncertainties sagen sie von Wolken nur: „Es bestehen weiterhin große Unsicherheiten darüber, wie Wolken auf den globalen Klimawandel reagieren könnten“. Diese Studie zeigt, dass Wolken ein bedeutendes Verhalten zeigen, welches in den Modellen nicht berücksichtigt wird.

Die Auswirkungen auf die Klimamodelle sind verheerend. Es muss hinterfragt werden, ob sie für ihren Zweck geeignet sind.

6. DISKUSSION
6.1 Interpretation

1. Die Änderungen der Wolkendecke wie in Abbildung 1 werden verursacht durch Änderungen der Wassertemperatur (SST). Falls das wirklich so ist, dann ist die Wolken-Rückkopplung negativ.

2. Die Änderungen der Bewölkung und die SST-Änderungen werden beide durch einen unbekannten Faktor ausgelöst (d. h. Korrelation ist nicht Kausalität). Falls das der Fall ist, dann ist die Wolken-Rückkopplung Null, oder

3. Es kommt eine Kombination der Punkte 1 und 2 in Betracht. Falls das der Fall ist, dann ist die Wolken-Rückkopplung nicht so negativ wie nach Punkt 1, aber immer noch negativ.

6.2 Andere Interpretationen

Jede andere Interpretation als die oben genannten erscheinen außerordentlich unwahrscheinlich und würden in jedem Fall die vom IPCC herangezogenen Klimamodelle völlig außer Kraft setzen. Zum Beispiel:

(a) Wenn eine Zunahme der SST tatsächlich zu weniger Wolken führt, dann müssten ein oder mehrere unbekannte Faktoren mit größerer Wirkung in die entgegengesetzte Richtung wirken, d.h. ein oder mehrere unbekannte Faktoren müssten nach einer Zunahme der SST mehr Wolken erzeugen, obwohl eine Zunahme des SST dazu führt, dass es weniger Wolken gibt.

(b) Falls eine Zunahme der SST zwar mehr Wolken verursacht, Wolken aber tatsächlich eine erwärmende und nicht eine abkühlende Wirkung haben, dann müssten ein oder mehrere unbekannte Faktoren längerfristig wirken, um sowohl die Wolkendecke zu verringern als auch die SST zu erhöhen.
Wie bereits erwähnt, sind diese beiden Möglichkeiten äußerst unwahrscheinlich und können mit Sicherheit ausgeschlossen werden. Insbesondere die Alternative (b) scheint durch die obige Analyse unter Verwendung von Gewichtungen der ein- und ausgehenden Strahlung ohnehin ausgeschlossen zu sein.
6.3 Quantifizierung

Es wäre verlockend, die negative Wolken-Rückkopplung zu quantifizieren, indem man die linearen Trends zwischen dCloud und dSST, wie oben berichtet, und die linearen Trends von SST und Wolkenbedeckung über den analysierten Zeitraum verwendet.

Eine solche Quantifizierung wäre zum jetzigen Zeitpunkt nicht zu rechtfertigen, denn solange die beteiligten Prozesse nicht einigermaßen gut verstanden sind, wären sie viel zu unzuverlässig. Es gibt einen offensichtlichen möglichen Prozess für eine negative Rückkopplung von Wolken: Wenn sich die Ozeane erwärmen, geben sie mehr Wasserdampf in die Atmosphäre ab, der dann in den nächsten Monaten weitere Wolken bildet. Dieses Konzept wird durch die Beobachtung eines erhöhten Wasserkreislaufs durch Durack [3] gestützt. Der Prozess muss jedoch erst anhand der hier gewonnenen Erkenntnisse bewertet werden, bevor er als der relevante Prozess angenommen werden kann.

6.4 Was kommt als Nächstes?

Eine Quantifizierung des Cloud-Feedbacks ist eindeutig erforderlich, wie in 6.3 Quantifizierung.

Aber es sind auch weitere Untersuchungen zum Verhalten von Wolken erforderlich:

Diese Studie zeigt, dass die beobachtete Abnahme der Bewölkung zwischen 1986 und 2017 keine Rückkopplung durch steigende Temperaturen war. Daraus folgt, dass ein Teil der Zunahme des SST in diesem Zeitraum durch eine davon unabhängige Verringerung der Wolkendecke verursacht worden sein könnte. Herauszufinden, was die Ursache für die Verringerung der Bewölkung war, wäre ein großer Fortschritt für die Klimawissenschaft. Einige Arbeiten sind bereits durchgeführt worden, z.B. [6] [14].

Auf einer allgemeineren Ebene: Es ist überdeutlich, dass die Klimamodelle das Verhalten von Wolken nicht abbilden können. Es muss daher ernsthaft in Frage gestellt werden, ob die Modelle, so wie sie derzeit aufgebaut sind, jemals überhaupt einen Wert für die Vorhersage des zukünftigen Klimas haben werden. Es wäre vernünftig, den Rat von Anagnostopoulos [1] zu berücksichtigen, dass ein Paradigmenwechsel notwendig ist.

6.5 Allgemeine Trends

Graphiken der SST (Grad Celsius) und Bewölkung (%) zeigen die Abbildungen 9 und 10. Diese stützen die Aussagen im Abstract: „Wie erwartet: die Trends für den gesamten Zeitraum sind steigende SST und abnehmende Bewölkung“.


Abbildung 9: SST-Daten über den untersuchten Zeitraum mit linearem Trend

Abbildung 10: Bewölkungs-Daten über den untersuchten Zeitraum mit linearem Trend.
Die Datenquellen für die SST und die Bewölkung werden in Abschnitt „2. Verfahren“ genannt.
References
1. Anagnostopoulos GG et al 2010: A comparison of local and aggregated climate model outputs with observed data. Hydrological Sciences Journal 55(7), 1094–1110.
https://doi.org/10.1080/02626667.2010.513518
2. Coddington et al 2015: NOAA Climate Data Record (CDR) of Total Solar Irradiance (TSI), NRLTSI Version 2 [monthly TSI]. NOAA National Centers for Environmental Information doi:10.7289/V55B00C1. Data downloaded Jan 2020 from https://www.ncei.noaa.gov/data/total-solar-irradiance/access/monthly/
3. Durack et al 2012: Ocean Salinities Reveal Strong Global Water Cycle Intensification During 1950 to 2000. Science 27 Apr 2012 Vol. 336, Issue 6080, pp. 455-458 DOI: 10.1126/science.1212222
4. Fyfe J et al 2013: Overestimated global warming over the past 20 years. Nature Climate Change 3,767–769 (2013) doi:10.1038/nclimate1972
5. IPCC 2007: Annex I, Glossary, in Climate Change 2007: Synthesis Report. Contribution of Working Groups I, II and III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Core Writing Team, Pachauri, R.K and Reisinger, A. (eds.)]. IPCC, Geneva, Switzerland, 104 pp.
6. Kamide Y 2007: Effects of the Solar Cycle on the Earth’s Atmosphere (in Handbook of the Solar-Terrestrial Environment). Springer, Berlin, Heidelberg.
https://doi.org/10.1007/978-3-540-46315-3_18
7. Nagaraja MP 2019: Climate Variability. NASA Science. Accessed 18 Nov 2019 at https://science.nasa.gov/earth-science/oceanography/ocean-earth-system/climate-variability/
8. Pokrovsky OM 2019: Cloud Changes in the Period of Global Warming: the Results of the International Satellite Project. Russian Academy of Sciences;
https://doi.org/10.31857/S0205-9614201913-13
9. Randall DA et al 2007: [Climate] Models and Their Evaluation. In: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon S et al (editors.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.
10. Reynolds RW et al 2002: An improved in situ and satellite SST analysis for climate. Journal of Climate, 15, 1609-1625.  Data accessed 26-30 Aug 2019 at https://www.esrl.noaa.gov/psd/data/gridded/data.noaa.oisst.v2.html
11. Rossow WB and Schiffer RA 1999: Advances in understanding clouds from ISCCP. Bulletin of the American Meteorological Society, 80, 2261-2288, doi:10.1175/1520-0477(1999)080<2261:AIUCFI>2.0.CO;2. Data accessed 26 Aug 2019 at https://www.ncei.noaa.gov/data/international-satellite-cloud-climate-project-isccp-h-series-data/access/isccp/hgm/
12. Spencer RW 2013: STILL Epic Fail: 73 Climate Models vs. Measurements, Running 5-Year Means. (hier)
13. Spencer RW and Braswell WD 2011: On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance. Remote Sensing 2011, 3(8), 1603-1613; https://doi.org/10.3390/rs3081603
14. Svensmark J et al 2016: The response of clouds and aerosols to cosmic ray decreases, Journal of Geophysical Research – Space Physics, 2016, DOI: 10.1002/2016JA022689.
ENDE DER STUDIE

Die Studie kann verändert werden müssen, um dem Begutachtungs-Verfahren zu genügen. Aber in der Zwischenzeit handelt es sich bei der oben vorgestellten Studie um genau diejenige, welche dem Journal eingereicht worden war.

Die „Iris”-Theorie

Richard Lindzen et al. stellten im September 2000 die Hypothese auf, dass die Erde eine „adaptive Infrarot-Iris“ haben könnte, die eine signifikante negative Rückkopplung auf Änderungen der Oberflächentemperatur liefert – die „Iris“-Theorie. Wenn ich diese Arbeit richtig verstanden habe, dann unterstützt meine obige Arbeit die „Iris“-Theorie nicht, denn die „Iris“-Theorie basiert auf der Oberflächenerwärmung, die in den Tropen zu weniger Wolken eines bestimmten Typs führt, während ich festgestellt habe, dass die Daten mit der Zunahme der Oberflächentemperatur eine Wolkenzunahme assoziieren.

Nebenbei: Meine Ergebnisse widerlegen auch nicht die „Iris“-Theorie, denn die „Iris“-Theorie basiert auf einer spezifischen Wolkenreduktion in einem begrenzten Gebiet, während meine Analyse nur globale SST- und Wolkendaten verwendet.

Im Januar 2002 argumentierten Bing Lin et al. gegen die „Iris“-Theorie, indem sie sagten, dass die Änderungen der Bewölkung in Wirklichkeit eine Erwärmung und nicht eine Abkühlung darstellten und dass daher die Rückkopplung, auf welche Bezug genommen wurde, positiv und nicht negativ war.

Mein Beitrag unterstützt das Argument von Bing Lin nicht mehr als das von Richard Lindzen, und zwar aus dem gleichen Grund: Bing Lin bezieht sich auf die gleiche Wolkenreduktion.

Übrigens: Argumente, die auf verschiedenen Wolkentypen basieren, werden nicht funktionieren, wenn jemand sie zu benutzen versucht, um meine Ergebnisse zu widerlegen. Das liegt daran, dass auf eine Erwärmung die Bewölkung zunimmt. Wenn der betreffende Wolkentyp es irgendwie schafft, dies zu einer positiven RückKopplung zu machen – trotz meiner Feststellung einer erneuten Wolken-Opazität – dann wird die positive Rückkopplung noch mehr Wolken erzeugen, die noch mehr positive Rückkopplungen ergeben werden, usw., usw. Aber … auf längere Sicht, wenn die Oberflächentemperatur steigt, gibt es weniger Wolken, nicht mehr, so dass mein Argument in 6.2 (b) zutrifft.

Und eine letzte Bemerkung: Alles, was ich getan habe war, die Daten zu analysieren. Ich stelle keine Theorien auf, ich verwende keine Modelle, und ich verwende keine ausgeklügelten statistischen Tricks oder Rosinenpickerei, um die Daten zu einem zweifelhaften Ergebnis zu manipulieren. Es werden alle verfügbaren Daten verwendet, und das einzige angewandte Verfahren ist die einfache gewichtete (und ungewichtete) Mittelung. Das Diagramm der Wolkenänderung gegen die Temperaturänderung geht in die „falsche“ Richtung. Punkt.

Link: https://wattsupwiththat.com/2020/06/05/cloud-feedback-if-there-is-any-is-negative/
Übersetzt von Chris Frey EIKE




Der globale Kohlenstoff-Haushalt: schöne Zahlen, vorge­täuschtes Vertrauen, aber höchst fragwürdig (Teil 1)

In diesem ersten Teil werde ich die Bedeutung der menschlichen CO2-Emissionen relativieren, indem ich argumentiere, dass natürliche Faktoren eine vorherrschende Rolle spielen. Ich befasse mich nicht direkt mit dem Einfluss von CO2 auf das Klima, sondern nur mit der Beziehung zwischen den natürlichen Faktoren und dem menschlichen Beitrag zum CO2-Budget.

Die Klimawissenschaft leidet unter einer Form von Demagogie und Voreingenommenheit, die am besten durch die berühmte CO2-Flusskurve in der folgenden Abbildung veranschaulicht wird. Dieses farbenprächtige Bild wurde erstellt, um zu veranschaulichen, wie viel CO2 vom Menschen emittiert wird (Quelle) und wie viel und wo dieses CO2 jährlich landet (Senke). Seit diese Grafik von Le Quéré et al. eingeführt wurde (Ref. 1), sind viele Variationen dieses Bildes (vom IPCC und anderen) mit der gleichen alarmierenden Botschaft veröffentlicht worden. Ich werde versuchen zu zeigen, warum diese Grafik als wissenschaftliche Täuschung eingestuft werden sollte.

Die Basisdaten, die zur Erstellung dieser Grafik verwendet wurden, sind meiner Meinung nach recht zuverlässig, da sie auf genauen atmosphärischen CO2-Messungen, Berechnungen des Verbrauchs fossiler Brennstoffe, der Zementproduktion und der beobachteten Entwaldung basieren. Die Zuverlässigkeit der Grafik endet jedoch hier. Die menschlichen Emissionen/die Entwaldung werden oberhalb der horizontalen Achse und unterhalb dessen, was mit diesen Emissionen geschehen ist, dargestellt. Die Soll- und Habenseite sind ausgeglichen. Es wird jedoch vermutet, dass die Natur (Land, Ozean und Luft) in einem immer wechselnden Verhältnis in der Lage war, den menschlichen Emissionen einen eigenen Platz einzuräumen.

Es stellt sich nun sofort die Frage, wie man feststellen kann, dass das Land in einem Jahr z.B. 50% der menschlichen Emissionen absorbieren kann, während in einem anderen Jahr diese Absorption völlig zu fehlen scheint. Die Antwort ist, dass diese Differenz nicht empirisch ermittelt wurde, sondern nur das Ergebnis einer Untersuchung zum Ausgleich des Kohlenstoffhaushalts ist, die auf der Annahme beruht, dass die jährliche CO2-Absorption der menschlichen CO2-Emissionen durch den Ozean (violett) relativ stabil ist und keinen großen Schwankungen von Jahr zu Jahr unterliegt (auch wenn sie im Laufe der Jahre allmählich zunimmt). Was in dieser Grafik völlig (bewusst?) ignoriert wird, ist der gigantische natürliche Fluss (d.h. Emissionen und Absorption) zwischen Land, Meer und Luft, denn dieses Bild beschränkt sich auf die menschliche Emissionsgeschichte seit 1870.

Durch die Darstellung der fluktuierenden atmosphärischen CO2-Zunahme in einer Grafik mit nur menschlichen Emissionen, ohne natürliche Emissionen, entsteht der falsche Eindruck, dass die Veränderung der atmosphärischen CO2-Konzentration nur mit menschlichen Emissionen zuammenängt und daher keinen Einfluss auf den 20-mal größeren jährlichen natürlichen CO2-Fluss hat. Die natürliche Emission (Quelle) und Absorption (Senke) von CO2 hängt von vielen besonders komplexen und schwierig zu messenden Faktoren ab, vergleichbar mit den vielen Faktoren, die das Klima/Wetter so schwer vorhersagbar machen.

Ich habe die ozeanographische Literatur über den CO2-Fluss von der Luft ins Meer und umgekehrt so gut wie möglich durchgesehen und war verblüfft über die große Zahl von Faktoren und Unsicherheiten, die mit diesem Phänomen verbunden sind: Meeresströmungen, Temperatur, biogene Aktivität (Phytoplankton), um nur einige zu nennen. Die gleiche Unsicherheit gilt für den Grad des terrestrischen CO2-Flusses. Die physikalischen, chemischen und biologischen Prozesse, die den gigantischen CO2-Haushalt steuern, sind so komplex, dass es sehr anspruchsvoll ist zu glauben, man könne alle Ursachen der CO2-Fluktuationen mit beliebiger Genauigkeit identifizieren oder quantifizieren.

In Abbildung 2 habe ich die menschlichen Emissionen aus Abbildung 1 (kürzlich ≈10 GtC) mit den jährlichen natürlichen Emissionen (≈ 210 GtC) kombiniert, um einen Eindruck von der Beziehung zwischen den beiden zu vermitteln. Die drei wichtigsten natürlichen Quellen für atmosphärisches CO2 sind (Ref. 2): Pflanzenatmung, Bodenatmung und Meeresatmung. Die wichtigsten natürlichen Aufnahmeprozesse sind: die Photosynthese (≈ 120 GtC/Jahr) und die Absorption im Ozean (≈ 90 GtC/Jahr).

Nahezu 50% der natürlichen CO2-Landemissionen werden der Bodenatmung zugeschrieben (≈ 60 GtC/Jahr). Dies ist das Ergebnis der Zersetzung von organischem Material im Boden und des Absterbens von Pflanzenwurzeln.

Die Zersetzung hängt von zwei wichtigen Faktoren ab: Bodentemperatur und Bodenfeuchtigkeit. Die Bedeutung der Bodentemperatur ist in der folgenden Grafik dargestellt. Sie zeigt eine (empirisch ermittelte) lineare Beziehung zwischen Bodentemperatur und Emissionen: 1° C Temperaturanstieg führt zu einem Anstieg der CO2-Emissionen um 16,5% (Quelle Wikipedia).

Während der letzten 55 Jahre ist die Oberflächenlufttemperatur an Land (in der nördlichen Hemisphäre) um ≈1,5 ° C gestiegen. Das ist mehr als der Weltdurchschnitt, denn das Land in der nördlichen Hemisphäre hat sich stärker erwärmt als die Erde insgesamt, einschließlich des Meeres. Eine chinesische Studie (360 Standorte) hat gezeigt, dass sich der Boden seit 1962 mit einer Geschwindigkeit von 0,031 °C/Jahr erwärmt hat (Ref. 3). Eine Studie auf amerikanischem Boden (292 Standorte) ergab einen fast identischen Anstieg von 0,032 ° C / Jahr in einer Tiefe von 10 cm (Ref. 4). Ein Anstieg der Bodentemperatur um 1,5° C seit den 1960er Jahren ist daher eine vernünftige Annahme. Aus der Graphik können wir ableiten, dass die globale Erwärmung heute 25 % mehr Bodenatmung von CO2 verursacht als vor 50 Jahren. Wenn sie heute auf 60 GtC geschätzt wird, wären es vor 50 Jahren 48 GtC gewesen. Das bedeutet, dass heute jährlich 12 GtC mehr durch die Bodenatmung emittiert werden als vor 50 Jahren, allein durch den Temperaturanstieg. Das ist mehr als die gesamten anthropogenen jährlichen CO2-Emissionen von ≈ 10 GtC.

Es ist mir nicht gelungen, den Ursprung der Wikipedia-Grafik nachzuverfolgen, aber eine Bestätigung für den Grad der zusätzlichen Bodenatmung liefern Zhang et al: Steigende Bodentemperatur in China und ihre möglichen ökologischen Auswirkungen (ref. 5). Sie maßen eine Zunahme der Bodenatmung um 28% über einen Zeitraum von 50 Jahren. Angesichts der grossen Unsicherheiten bezüglich des CO2-Budgets muss ich erwähnen, dass in der Literatur auch grosse Unterschiede bezüglich der Menge der Bodenatmung erwähnt werden. In Bond-Lamberty et al. (Ref. 6) wird die Bodenatmung auf 98 GtC (=+/- 12 GtC) geschätzt. Wenn die 28%ige Zunahme bei Zhang et al. repräsentativ für die gesamte Erde ist und die 98 GtC die tatsächliche Emission darstellen, hätte die Bodenatmung vor 50 Jahren 76 GtC/Jahr betragen und die CO2-Zunahme somit 22 GtC/Jahr, also mehr als das Doppelte der jährlichen menschlichen Emissionen.

Es wird auch erwartet, dass eine sich erwärmende Erde aufgrund einer Zunahme des Wasserdampfs feuchter wird (eine der wichtigsten positiven Rückmeldungen in Klimamodellen). Da die Bodenatmung auch von der Bodenfeuchte abhängt, wird eine erhöhte Feuchtigkeit auch einen Anstieg des atmosphärischen CO2 verursachen. Ich konnte noch nicht herausfinden, wie viel feuchter die Erde geworden ist und wie groß der Einfluss der Bodenfeuchte ist, aber es kann angenommen werden, dass dieser Faktor auch eine wichtige Rolle bei dem gemessenen atmosphärischen CO2-Anstieg spielt.

Zusammenfassend lässt sich sagen, dass das Wissen über die Prozesse, die den terrestrischen CO2-Fluss bestimmen, nicht ausreicht, um genau zu bestimmen, was mit den anthropogenen Emissionen geschieht. Deshalb habe ich ernsthafte Zweifel daran, die Landnutzung als trügerischen Faktor zum Ausgleich des Kohlenstoffhaushalts zu verwenden. In der Tat wird mit einem Anstieg der Temperatur der terrestrische Fluss in beide Richtungen zunehmen, zum einen durch mehr Photosynthese und zum anderen durch mehr Bodenatmung. Ich glaube jedoch nicht, dass der terrestrische Fluss der wichtigste Faktor ist, um die kurzfristigen CO2-Schwankungen ohne Berücksichtigung der Rolle des Ozeans auszugleichen.

Daher werde ich im zweiten Teil dieser Reihe den Anteil des Ozeans bei der Erklärung der kurzfristigen Schwankungen des Kohlenstoffhaushalts erörtern, wie in Abbildung 1 irreführend dargestellt. Der dritte Teil wird sich mit der Bedeutung der saisonalen CO2-Schwankungen (Sägezahn) bei der Bestimmung von Faktoren befassen, die den langfristigen atmosphärischen CO2-Anstieg steuern.
Ich hoffe, dass ich mit diesen Beispielen dem Leser einen Schimmer von Zweifel an der (irreführenden) Gewissheit geben konnte, mit welcher (irreführenden) Sicherheit die Klimawissenschaft den menschlichen Anteil am CO
2-Budget darstellt und dessen Bedeutung stark überzeichnet. Wir werden daher auch sehen, dass der Lockdown die jährliche CO2-Kurve des Mauna Loa nicht verändern wird.

References

1) C. Le Quéré et al .: Global carbon budget 2013. https://www.earth-syst-sci-data.net/6/235/2014/essd-6-235-2014.pdf

2) Global Carbon Budget 2018.https: //www.earth-syst-sci-data.net/10/2141/2018/

3) Hui Zhang et al .: Asymmetric Soil Warming under Global Climate Change. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6539193/

4) Qi Hu et al .: A Daily Soil Temperature Dataset and Soil Temperature Climatology of the Contiguous United States. https://doi.org/10.1175/1520-0450(2003)042<1139:ADSTDA>2.0.CO;2

5) Zhang H. et al .: Rising soil temperature in China and its potential ecological impact. https://www.nature.com/articles/srep35530

6)Bond-Lamberty et al .: Temperature-associated increases in the global soil respiration record. https://www.ncbi.nlm.nih.gov/pubmed/20336143

Übersetzt von Chris Frey EIKE

Dr. Chis Schonefeld ist Geophysiker und war viele Jahre bei Shell in Lohn und Brot. Er ist jetzt Mitglied von CLINTEL




Modelle können nicht einmal das Wetter der nächsten Woche genau prognosti­zieren …

Jetzt komme man nicht mit dem Einwand „Klima ist nicht Wetter“. Das ist banal und dumm. Der Knabe, der sagt, dass „Nahrung nicht Küche ist“, ist ein Nahrungs-Kritiker und von vornherein hochmütig und unausstehlich.

Wie ist es hiermit: Wissenschaft ist keine Semantik.

Wir alle würden nur zu gerne die Zukunft vorhersagen können. Intellektuell, empirisch und rational wissen wir, dass wir das nicht können, aber einige versuchen es dennoch. In ganz Washington, DC, wo ich lebe, gibt es neben den Elite-Intelligenzen, die ihre eigenen Bücher über den in New York beheimateten Acela lesen, zahlreiche Tarotkartenleser und Hellseher, die ihre Dienste als Wahrsager anbieten.

Und wir hören Geschichten. Der Kumpel, der einen guten Aktienkauf tätigte, weil „er sicher war“, dass die Aktie steigen würde. Oder den Knaben, der proklamiert, dass „er wusste, dass die Nationals die World Series* gewinnen würden“. Das ist nicht wahr. Nicht möglich. Nicht einmal logisch zu begründen. Es ist Syntax, nicht Wahrheit.

[*Endspiel um die amerikanische Baseball-Meisterschaft, vergleichbar mit dem Super Bowl im Football. Anm. d. Übers.]

Wir können Entscheidungen für die Zukunft treffen, nicht auf der Grundlage übernatürlicher Intelligenz, sondern auf der Grundlage von Daten. Markttrends und Bilanzen leiten Aktiengeschäfte, aber es gibt keine Garantie, dass der Wert der Aktie steigt. Wären wir nicht alle schon reich, wenn das der Fall wäre? Im Baseball bilden Verletzungen, Rotation und Aufstellung sowie Teamloyalität unsere Leitlinien, aber es gibt keine Garantie, dass unser Team gewinnen wird.

Niemand „wusste“, dass das Wetter dem Start von SpaceX einen Strich durch die Rechnung machen würde, vielmehr zogen Wissenschaftler Daten heran, um einen bestmöglichen guess abzugeben, was Teil der wissenschaftlichen Methodik ist, die wir in der 3. Klasse gelernt haben. Genauso „weiß“ niemand, was in 5, 10, 15 oder 50 Jahren mit der Erde passieren wird im Zuge des Klimawandels. Ich bin es also leid, dazu ständig irgendetwas zu hören.

Und jetzt zur Antwort auf die Frage, bevor Sie sie stellen: nein, es gibt keine Daten, aus denen hervorgeht, dass die Temperaturen der Welt auf ein unbewohnbares Niveau steigen. Es gibt nur Modelle, und Modelle sind sehr, sehr menschlich.

Klimawandel-Modelle sind im Computer generiert und programmiert von voreingenommenen Individuen. Sie basieren nicht auf einem wissenschaftlichen Prozess, sondern auf Prognose auf der Grundlage verfügbarer Daten, die akkurat sein können oder auch nicht. Erinnert man sich noch an das Modell, welches 2,2 Millionen Tote durch das Coronavirus prophezeit hatte?

Whoopsie!

Müll rein, Müll raus – genau wie in jedem anderen, von Computern generierten Szenario. Vielleicht wird eines Tages künstliche Intelligenz tatsächlich intelligent werden und den Programmierer korrigieren, aber derzeit folgt der Computer genau dem vom sehr fehlbaren Menschen geschriebenen Programm.

Daher kommt auch die Empörung über den Kommentar von Kongress-Dame Alexandria Ocasio-Cortez, die da posaunte: „Die Welt wird in 12 Jahren untergehen, wenn wir nicht dem Klimawandel begegnen“. Nicht, weil der Kommentar töricht ist (ist er), nicht weil er falsch ist (ist er), sondern weil er so absichtlich irreführend ist. Es ist ein perfektes Beispiel dafür, wie man eine Spekulation in ein Faktum verwandelt, und das ausschließlich aufgrund des Vorantreibens einer politischen Agenda, die ein einziger Angriff auf meine Brieftasche ist. Es tötet jede Diskussion. Es stößt vernünftige Leute wie mich ab. Es ist kaum sinnvoll, über Klimawandel zu diskutieren, ebenso wie über den Beitrag der Menschheit zu demselben, wenn es überhaupt einen gibt. Und trotzdem, immer mehr politische Maßnahmen und immer mehr Geld des Steuerzahlers wird auf der Grundlage dieser Art von unlogischem Denken ausgegeben.

Klima ist die große Unbekannte, und Politiker und Medien gleichermaßen lieben es, normale Amerikaner bis zum Anschlag zu ängstigen, indem man eine großartige Einsicht in das Morgen vortäuscht, die sie in ihren Sesseln erzittern lässt. Der Klimawandel wird uns töten. Paul Ehrlich sagte in den 1970er Jahren, dass die Überbevölkerung dazu führen wird, dass England im Jahre 2000 nicht mehr existieren wird. Die arme Queen, als ob sie nicht schon genug um die Ohren hätte. Al Gore prophezeite vor 20 Jahren, dass das Arktische Eis längst verschwunden sein sollte – und bekam dafür einen Oskar.

Als ich das letzte Mal hingesehen hatte, ging es sowohl UK als auch dem arktischen Eis wunderbar. Das Aussehen beider ändert sich fortwährend. Das waren eben keine Prognosen. Es waren Modellergebnisse, dazu gedacht, Angst zu erzeugen und eine Agenda voranzutreiben.

Wir können das Wetter noch nicht einmal ein paar Wochen voraussagen. Am 20. März dieses Jahres prophezeite die Washington Post ein „außerordentlich warmes Frühjahr“ in den gesamten USA, und zwar aufgrund von auf Daten basierenden Modellen (Wintertemperaturen, Polarwirbel). Das wurde als Faktum dargestellt. Zeug von der Art ängstigender globaler Erwärmung. Meine Güte.

Einen Monat nach Erscheinen dieses Artikels wies der gleiche Autor in der gleichen Publikation darauf hin, dass die Temperatur in Washington DC schon zwei Wochen lang unter den Mittelwerten gelegen hatte. Das bedeutet, der Untergangs-Artikel konnte nicht einmal 2 Wochen in die Zukunft schauen. Ein paar Tage später räumte man in der gleichen Publikation ein, dass das um 1 bis 2 Grad zu kalte Wetter wahrscheinlich weitergehen werde.

Huh.

Dann wartete die gleiche Washington Post mit einem Artikel auf mit dem Titel [übersetzt] „Außerordentlich kaltes Wetter für Mai kommt heute Nacht daher mit Temperaturen nahe dem Gefrierpunkt und eisigen gefühlten Temperaturen“. Am nächsten Tag schrieb man über den kältesten Tag in Washington seit über einem Jahrzehnt, und dass in Baltimore der kälteste Tag in einem Mai jemals aufgetreten war.

Was schließen wir daraus? Einfach: Der erste Artikel, der Angst über Angst erzeugende Klimawandel-Artikel, basierte auf Modellen (wurde aber als Faktum präsentiert). Die nachfolgenden „Hilfe-ist-das-kalt“-Artikel basierten auf … nun, Tatsachen. Die aber längst nicht so ängstigend und nicht so spaßig daherkommen.

Wird die Welt wegen des Klimawandels zugrunde gehen?. Das weiß ich nicht. Werden die Meere steigen und die Seen überkochen? Ich weiß es nicht. Und auch niemand sonst weiß es.

Link: https://wattsupwiththat.com/2020/06/02/turner-models-cant-accurately-predict-next-weeks-weather-so-why-should-we-trust-them-to-predict-climate-change/
Übersetzt von Chris Frey EIKE
————————————-
Erklärung des Bildes oben:

Gezeigt ist die numerische Vorhersage des amerikanischen GFS-Modells vom Sonnabend, dem 6. Juni 2020 für 1 Tag (links), 1 Woche (Mitte) und 2 Wochen rechts. Die eingehenden Daten weisen in riesigen Gebieten große Lücken auf, z. B. über den Ozeanen, und müssen dort extrapoliert werden. Fehler sind dabei unvermeidlich, selbst wenn sie nur gering sind. Um abzuklopfen, wie zuverlässig eine solche Simulation ist (von Computern, die nicht einmal das Wort „Wetter“ buchstabieren können, wenn man es ihnen nicht sagt!), verändert man den Anfangszustand künstlich minimal und lässt die Simulation immer wieder laufen – in diesem Beispiel 10 mal.

Den Verlauf der Linien muss der Meteorologe dann in eine Wettervorhersage „übersetzen“. Je enger die Linien beieinander liegen, umso genauer die Prognose. Nach 1 Woche liegen die Linien schon deutlich auseinander, aber eine allgemeine Tendenz ist noch erkennbar – jedoch keine Einzelheiten mehr! Nach 2 Wochen gleicht der Verlauf der Linien einem Kunstwerk eines Kindergarten-Kindes. Da kann man zwar noch raten, aber nichts mehr prognostizieren. 2Wochen! Und: Jeder einzelne Verlauf ist aus der Sicht des Ausgangstages gleich wahrscheinlich!

Dipl.-Met. Christian Freuer




Corona ist vorbei. Nun hat uns der alltägliche Wahnsinn wieder

Sagt der Eine, die Maßnahmen seien nachteiliger als der Nutzen [9], der Leiter der Intensivstation eines italienischen Krankenhauses in der Lombardei gar: „das Virus sei klinisch nicht mehr existent“ , korrigiert (neben anderen) eine WHOEpidemiologin sofort, dass das genau Gegenteil richtig wäre [10]. Bei Studien sieht es nicht anders aus [11].
Was macht unsere hohe Politik in einem solchen Fall, wenn nichts gesichert ist? Das, was sie am besten kann: Einfach viel, viel und noch mehr Geld zum Fenster hinausschmeißen
[12].

Unsere Medien stellen sich um

Auch Redaktionen müssen zeitnah agieren. Fast schon täglich lassen die Gazetten deshalb Atolle wieder untergehen und Länder von Unwettern fluten [13].
Nun gibt es ein Land, welches sich nicht nur besonders vom Klimawandel betroffen fühlt, sondern auch Konkretes dagegen unternimmt. Und eines von diesem „Konkreten“ ist das Wenden der Energie.
Für die Nordbayerischen Nachrichten Anlass, eine sogenannte Studie vom 8. Oktober letzten Jahres [1] aus der Mottenkiste hervorzuholen, um ihren Lesern nochmals freudig zu berichten, dass der Strom für sie nur deshalb billiger wurde, weil Deutschland den höchsten Strompreis in der EU und den zweithöchsten der Welt hat:
[18] [8] Nürnberger Zeitung 28.05.2020: Warum die Strompreise wirklich steigen

Bild 1 Strompreise für private Haushalte in Europa. Deutschland steht unangefochten an der EU-Spitze. Quelle: eurostat Strompreisstatistik


Bild 2 Strompreise weltweit 2019. Deutschland steht an zweithöchster Stelle. Quelle: statista

In Deutschland haben Professoren vollkommene Narrenfreiheit

Versorger, deren Privatkunden diese Überzeugung nicht teilen, verweisen diese entweder an unsere Politiker zwecks Beschwerde [5], oder sie lassen sich belegen, dass der einfache Stromkunde das Thema nicht wirklich durchblickt und mit seiner Meinung vollkommen daneben liegt. Diesen Weg haben die Elektrizitätswerke Schönau beschritten.
Weil eine Argumentation zum Strompreis das Wissen und Können einer Energieversorger-Fach-Mannschaft erheblich überschreitet, beauftragten sie zur (Er-)Klärung ein Energieinstitut der Uni Erlangen.
Dort ist ein rühriger Energie-Forschungs-Professor nie verlegen, gegen Fördermittel eine „gute“ Studie zu liefern [3]. Und weil es beauftragt war, ermittelte der Professor mit diesen Mitteln, dass unser Strompreis nur wegen der Ökostromeinspeisung so billig ist. Es gelang ihm auch eine Vorhersage für den künftigen Strompreis: Nur, wenn die Ökoenergie massiv weiter ausgebaut wird, wird der Strompreis weiterhin so rasant wie bisher sinken.
Weil es nicht beauftragt war, wurde ein kleines Detail in der Studie leider nicht „gelöst“, ja nicht einmal angesprochen: Warum ist dann der Strom aus der Haushaltssteckdose überall rund um die Welt billiger, als in Deutschland?
Und so ist die gesamte Studie im Kern eine Sammlung dialektischer Kunstgriffe. Praktisch alles wird ins Gegenteil „erklärt“ und führt geradezu wundersam zu lauter Vorteilen. Sogar die „Energiefrau“ C. Kemfert ist dagegen eine dialektische Weisenknäbin.

Alles nur eine Frage der Interpretation

Manche werden sich an die Information von Herrn Schuster über Strom und Strompreise erinnern. Darin wird regelmäßig die dank gesetzlicher Vorrangeinspeisung zu beliebigen Zeiten in beliebigen Mengen die Netze geflutete Ökoenergie dargestellt, welche als Überangebot, das auch aus physikalischen Gründen aus dem Netzt entfernt werden muss, inzwischen zu massiven Kostenzusammenbrüchen bis hin zu negativen Strompreisen, sowie einer Explosion der Kosten für Regelenergie zur Folge haben.
Will man erfahren, was alleine zum Beispiel die erforderliche Regelenergie (zur Verhinderung Ökostrom-bedingter Netzzusammenbrüche) inzwischen jährlich kostet, muss man lange suchen. Bei keiner amtlichen Stelle in Deutschland wird man fündig. Doch gibt es welche, die noch Kosten zählen:
energate 06.02.2020: Netzeingriffe bei konventionellen Kraftwerken steigen
… In Summe hat sie einen Wert von rund 952,4 Mio. Euro (Anm.: aufs Jahr hochgerechnet 1.270 Mio. EUR) für alle Netz- und Systemsicherheitsmaßnahmen von Januar bis September ausgerechnet (EinsMan, Redispatch inklusive Countertrading und Netzreserve). Zur Einordnung: 2018 kostete die deutsche Systemsicherheit rund 1,44 Mrd. Euro, im Jahr 2017 noch etwas mehr mit 1,51 Mrd. Euro. /mt
Die Studie erklärt dies wie folgt: [1]Zudem lieferten Wind und PV einen wesentlichen Beitrag zur Stabilität des Netzbetriebes: Über 269 Stunden des Jahres hätte die Nachfrage an der Strombörse mit der maximal im Jahr 2013 angebotenen Leistung aus konventionellen Kraftwerken nicht gedeckt werden können …
… Ein stabiler Netzbetrieb war in diesen Situationen allerdings nur durch die Einspeisung erneuerbarer Energien sicher gewährleistet.

Dass man den Strom verschenken, teils gar noch dessen Entsorgung bezahlen muss, ist ein Beleg für einen massiv fallenden (Erzeuger-)Preis

Ökoenergie darf in beliebiger Menge und vollkommen unabhängig vom Bedarf ins Netz gespeist werden. Der Netzbetreiber – und damit der Endkunde – muss diese Einspeisung bezahlen. Wird die Einspeisung wegen nicht mehr beherrschbarer Überlastung abgeregelt, also unterbrochen, wird diese nicht eingespeiste Energie ebenfalls vergütet.
In solchen Situationen ist der Strom nichts wert und zeitweise muss für dessen Entsorgung sogar eine Zuzahlung geleistet werden. Der Verbraucher bezahlt also mehrfach: Für die zusätzlich erforderliche Regelleistung, für die Stromeinspeisung und für die Entsorgung dieses überflüssigen und „entsorgungspflichtigen“ Stromes.
Die Studie kommt zu dem Schluss, dass das ein Preisvorteil sei:
Studie [1]
Vorwort
Dass die Steigerungen der Stromkosten der bundesdeutschen Endverbraucher nur teilweise dem Ausbau erneuerbarer Energien geschuldet waren und im Gegenteil das Überangebot erneuerbarer Energien zu massiv fallenden Großhandelspreisen an den europäischen Handelsplätzen führte …

Zwangsweise wurden (und werden) Grundlastkraftwerke abgeschaltet. Ohne diese Abschaltungen hätten diese zu höheren Strompreisen geführt …

Bei den Sozialisten gilt bekanntlich: Wenn etwas erfolgreich ist, gilt dies als Ausbeutung. Und Ausbeutung darf nicht sein. Also wird das Erfolgreiche zerschlagen oder verboten. Wichtig ist dabei: An seiner Misere ist immer der Ausbeuter selbst Schuld. Schließlich hat er dieses Schicksal herausgefordert. Und so argumentiert auch die Studie.
Studie: [1] Zudem lieferten Wind und PV einen wesentlichen Beitrag zur Stabilität des Netzbetriebes: Über 269 Stunden des Jahres hätte die Nachfrage an der Strombörse mit der maximal im Jahr 2013 angebotenen Leistung aus konventionellen Kraftwerken nicht gedeckt werden können ….Aufgrund des geringeren Stromangebots errechneten sich Großhandelspreise, die im betrachteten Zeitraum zu signifikant höheren Endverbraucherpreisen geführt hätten.
Ergänzt wird diese Aussage:
[1] … Ein stabiler Netzbetrieb war in diesen Situationen allerdings nur durch die Einspeisung erneuerbarer Energien sicher gewährleistet.
Irgend etwas kann daran nicht stimmen. Lässt man sich bei AGORA das Jahr 2013 im Viewer anzeigen, kommt das folgende Bild:

Bild 3 Jahr 2013. Stromverbrauch und Ökoeinspeisung. Quelle: Agora-Viewer (Screenshot)


Daraus lässt sich der damalige Energieverbrauch ablesen. Mit einem Angebot von knapp über 75 GW konnte man den Bedarf selbst in Spitzenzeiten decken. Wie war das Angebot in diesem Jahr?

Bild 4 Installierte Leistungen. Quelle: BDEW Bundesverband der Energie- und Wasserwirtschaft e.V. Kraftwerkspark in Deutschland


Für das Jahr 2013 ergibt die Summe konventioneller Kraftwerksleistung 103.966 MW. Davon sind in der Regel 90 % rund um die Uhr verfügbar, also mindestens 93.570 MW. Das sind erheblich mehr, als die etwas über 75 GW, welche im Jahr 2013 selbst zu Spitzen-Verbrauchszeiten ausreichend waren.
Sofern die Daten von WIKIPEDIA auch nur im Ansatz richtig sind, kann die Aussage der Studie demnach nicht stimmen.
Und betrachtet man die geradezu „mickrige“ und dazu stochastische Ökoeinspeisung in Bild 3, ist die folgende Aussage geradezu ein Hohn an den Verstand: [1] … Ein stabiler Netzbetrieb war in diesen Situationen allerdings nur durch die Einspeisung erneuerbarer Energien sicher gewährleistet.
Und völlig an der Wirklichkeit vorbei fabuliert die Studie weiter:
Studie: [1]
… Der Strombedarf hätte auch in den Jahren 2014 bis 2018 ohne die Einspeisung erneuerbarer Energien nicht jederzeit gedeckt werden können.
In der lokalen Printausgabe erklärte der Professor dem Redakteur im Interview, dass die Ökoenergie vorteilhaft dann einspeist, wenn viel Energie benötigt wird. Als Beispiel nannte er die Solareinspeisung im Sommer, welche zur Mittagszeit am höchsten ist. Wie es im Winter wäre, vergaß der Redakteur nachzufragen. Da kann es nämlich auch genau umgekehrt sein:

Bild 5 Strombedarf und Einspeisung Ökoenergie für eine Woche im Winter 2020. Quelle: Agora-Viewer (Screenshot)

Wind weht (nicht) immer irgendwo

Der Professor nutzt zur Belegführung gerne das „Prinzip C. Kemfert“: Wiederhole etwas lange genug; irgendwann wird es geglaubt …
Er überzeugt seinen Interviewer: [8] Es spricht aber nichts dagegen, Erneuerbare Energien zu importieren. Es ist in Zukunft sicher wirtschaftlicher, sie dort zu produzieren und zu speichern, wo es viel Wind und Sonne gibt … Wenn in Deutschland gerade Flaute herrscht und dafür gerade viel Wind im Baltikum weht, ist das vorteilhafter zu nutzen ….
(Nicht nur) ein Politikredakteur einer Lokalzeitung glaubt so etwas. Dabei gibt es längst Untersuchungen, welche gerade dies als reine Fabel ausweisen:
EIKE: Herr Hofreiter ist sich sicher, dass es keine Dunkelflauten geben kann. Doch das Wetter führt vor, dass es solche regelmäßig auch über ganz Europa erzeugt
Bayerns Wirtschaftsminister Aiwanger hat von solchen Feinheiten sicher auch wenig bis keine Ahnung (rein persönliche Vermutung des Autors, welche durch keine Studie belegt ist). Aber er ist vorsichtiger – oder noch wahnsinniger – und verschiebt das gleich nach Afrika und Südamerika (Bild 14).
Ein Problem tut sich bei solchen Gedanken auf: Hat nicht die Coronakrise angeblich gezeigt, dass man essentiellen Grundbedarf im eigenen Land produzieren können sollte? Und nun soll bei der Energieversorgung genau das Gegenteil wieder richtig sein?
Den Bürgern steht es aber nicht zu, an der strategischen Genialität unserer „Führungskräfte“ zu zweifeln. Das wäre eindeutig Verschwörungstheorie und zudem räääächts.

Wie kommt die Studie trotzdem auf einen verringerten Strompreis?

Indem man alles weglässt, was Verstand erfordert hätte. Nein, das ist nur die rein persönliche Meinung des Autors. Selbstverständlich hat der Professor sorgfältig und seriös gerechnet. Es war nur schwierig, so zu rechnen, dass das geforderte Ergebnis herauskam. Und das erfordert wirklich Verstand.
„Gerechnet“ wurde in etwa wie folgt: Eine Straße kostet rein netto so viel, wie der Asphalt beim Lieferanten.
Das folgende Bild aus der Studie erklärt es:
Der Strompreis beträgt (damals noch) 29,47 ct/kWh. Die Studie „erkennt“: Darin sind ja andere Kosten als die für den reinen Strom enthalten. Der Strom netto ist gestrichelt eingezeichnet und seht: Seit den Preisspitzen 2007 … 2009 hat der Börsenpreis abgenommen. Teilweise ist er sogar wundersam negativ geworden …. Das ist der Preisvorteil der Ökoenergie.

Bild 6 [1] Abb. 2: Steigerung der durchschnittlichen Strompreise für Haushalte und Entwicklung der EEG-Umlage (Quelle: BDEW [10])

Das folgende Bild zeigt solch einen „Preisvorteil“. Netto – an der Börse – bekommt man sogar zeitweise mit dem Strom auch noch Geld dazu. Laut Studie ein Preisvorteil der Ökoenergie. Dass dabei der private Verbraucher gleich mehrfach zur Kasse gebeten wird, ist „brutto“ und das interessiert in der Studie nicht.

Bild 7 Börsen-Strompreis April 2020. Quelle: AGORA Viewer (Screenshot). Vom Autor ergänzt


Bild 8 Entwicklung der Energiepreise für private Haushalte. Strompreis vom Autor markiert


Wie der Strompreis selbst mit der Einführung des EEG im Jahr 2000 begann zuzunehmen, zeigt das folgende Bild.

Bild 9 [14] Abbildung 4.1: Erlöse aus Stromabsatz, inflationsbereinigt. Dargestellt sind nominelle Preise (schwarze Kurve) und inflationsbereinigt Preise in Preisen von 2005 (rote Kurve). Anmerkung: 2000 wurde das EEG eingeführt

Ökostrom sei billiger als konventioneller

Studie: [1] …Erneuerbare Energien sorgten für fallende Großhandelspreise und sparten bundesdeutschen Letztverbrauchern insgesamt etwa 40 Mrd. Euro ein …
Der Professor verschweigt dabei, dass der Börsen-Strompreis bei Ökostrom nichts über die Stromkosten aussagt (sonst könnte er ja nicht negativ werden). Die folgenden Tabellen zeigen die für die Ökostromlieferungen an die Erzeuger zu bezahlenden Beträge pro kWh und eine Abschätzung von Energiekosten nach Erzeugung.

Bild 10 „Quellenkosten“ für Ökostrom. Quelle: WIKIPEDIA: Erneuerbare-Energien-Gesetz


Bild 11 Quelle: WIKIPEDIA: Stromgestehungskosten


Der Autor hat sich die Mühe gemacht, wichtige Daten der Tabellen Bild 10 und Bild 11 grafisch umzusetzen

Bild 12 Grafische Umsetzung der Werte Bilder 10 und 11. Aus Bild 11 nur Werte für Kernenergie und Braunkohle, jeweils als Medianwert der tabellierten Kostenspannen. Grafik vom Autor erstellt


Leider enden die Daten mit dem Jahr 2017. Trotzdem sieht man, wie teuer die Ökoenergie im Vergleich zu konventionell erzeugter in Wirklichkeit immer noch ist.
Aber das kann man natürlich auch ganz anders sehen.

Bild 13 Tweet von einer GRÜNEN Energie-Fachperson


Der Fehler wird inzwischen politisch „korrigiert“. Die CO2-Zertifikatekosten werden der Braunkohle endgültig auch das kommerzielle Ende bereiten.
So wie die Kosten für den Asphalt nicht die einer Straße sind, sind die Kosten für den reinen Strom nicht die, welche dem Verbraucher aufgebürdet werden. Die Studie tut fast so, als wenn diese Betrachtung nebensächlich wäre. Dabei werden deren Folgen neben den bereits auftretenden Kosten für den Umbau des Strom-Verteilsystems mit Sicherheit noch eines der technischen Hauptprobleme, vor allem der weiterhin vollkommen fehlenden Speicher.

Der neue Heilsbringer: Wasserstofftechnologie (mit der es bumst und kracht)

Für das immer noch ungelöste Speicherproblem hat der Bayerische Wirtschaftsminister bereits eine Lösung: In Nürnberg wurde nun, zwanzig Jahre nach der Einführung des EEG, mit viel TamTam ein Wasserstoff-Forschungscluster eingerichtet. Die von den Fördermitteln Profitierenden haben Herrn Wirtschaftsminister Aiwanger (das ist der Chef der durch einen Treppenwitz der Geschichte „hochgespülten“ Provinzpartei) hoch und heilig versprochen, dass das nun der Beginn der Lösung wäre.
Minister Aiwanger war erkennbar gerührt und weiß auch schon, wie das glorreiche Zukunftsszenario aussehen wird:
pv magazine: … Bayerns Wirtschafts- und Energieminister Hubert Aiwanger hat die Bayerische Wasserstoffstrategie vorgestellt. Danach will sich der Freistaat zu einem weltweiten H2-Technologieführer entwickeln. Aiwanger: „Made in Bavaria soll zum Wasserstoff-Gütesiegel werden. Mit unseren hervorragenden Forschern und den innovativen Tech-Unternehmen werden wir eine Wasserstoffwirtschaft entwickeln, die den Hightech-Standort Bayern stärkt, Arbeitsplätze schafft und nicht zuletzt auch den Transformationsprozess der bayerischen Fahrzeug- und Zulieferindustrie unterstützt.“
Wasserstoff (H2) und bayerische Innovationskraft sollen im Verbund Wohlstand sichern und zugleich den Ausstieg aus der Nutzung fossiler Energieträger voranbringen. Angestrebt werde dabei eine Arbeitsteilung zwischen dem Technologieland Bayern und Regionen, die grünen Wasserstoff produzieren. „Wir wollen die weltweit führenden Wasserstofftechnologien entwickeln. Unsere künftigen Partner nutzen dann unsere Innovationen dank nahezu unbegrenzt verfügbarer erneuerbarer Energien wie Sonne und Wind für die Erzeugung, den Transport sowie die Verwendung von grünem Wasserstoff“, erläuterte Aiwanger.

Man sollte sich die Vorstellung der Wasserstoffstrategie durch Herrn Aiwanger im BR unbedingt ansehen. Größere Unkenntnis zur Technologie und entsprechend hirnrissige abgehobene Aussagen sind kaum vorstellbar. Über seine geradezu skurrilen Vorstellungen zum Bezug kann jeder selbst nachdenken [16]. Ob Herr Aiwanger bewusst, oder ebenfalls mangels Kenntnis (Vermutung des Autors) nicht über Kosten gesprochen hat, wird wahrscheinlich nicht einmal die spätere Geschichtsschreibung herausbekommen. Leider hat diese Unkenntnis auf Landesebene in der Bundes-Wissenschaftsministerin ein Pedant gefunden [17].
Anmerkung. Um eine kleine Orientierung zu geben, in welcher Größenordnung die Kosten dieser gerade (wieder) hochgehypten Wasserstofftechnologie liegen können, Daten aus einer Sichtung zu Speichertechnologien:
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Saisonal-Betrieb
– Stromeinspeisungskosten von 20 €ct/kWh mit Strombezugskosten von 4,8  €ct/kWh
– Eigene Zufügung: ca. 33 €ct/kWh mit Strombezugskosten von 13 €ct/kWh
Beachten: Das sind die Rückspeisekosten des wieder verstromten Wasserstoffs. Darauf kommen nun noch alle weiteren Kostenpositionen. Der private Endkunde bezahlt an seiner Steckdose dafür dann bis zur folgenden Größenordnung:
Schnurbein 2012[9]. Das „System SNG“ als Langzeitspeicher für überschüssigen EE-Strom würde bei einer Kapazität von 44 GW und einem Stromoutput zwischen 12,3 und 31,7 TWh – das wären 2-5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. € verursachen. Auf die Kilowattstunde SNG-Strom gerechnet ergäben sich für den Verbraucher Mehrkosten zwischen 79 und 228 ct/kWh – zuzüglich Steuern. Somit wäre SNG-Strom um den Faktor 10-20 teurer als Strom aus Erdgas.
Selbstverständlich werden die Kosten dank der nun gebündelten Intelligenz im (gesponserten) „Intelligenzcluster“ viel, viel niedriger (werden). Man ist das Problem bisher ja nur nicht richtig angegangen ….
Unabhängig davon, wo die Kosten später wirklich liegen werden, zeigt die Betrachtung sofort, für wen es sich auf jeden Fall lohnen wird …

Bild 14 Eingebettetes Video. Vorstellung der Bayerischen Wasserstoffstrategie durch den Wirtschaftsminister, Hubert Aiwanger (ab 0:45). YouTube-Link


Bei dieser Aufbruchsstimmung konnte auch Professor Quaschning nicht untätig bleiben und pinselte ebenfalls ein Szenario dieser herrlichen Zukunft:

Bild 15 Grafik Prof. Quaschning: Quelle: kaltesonne

Im Kern geht es auch nicht um Fakten, es geht um das ganz, ganz Große

Wie das Thema hier behandelt wird, ist in den Augen der wirklichen „Intelligenz“ allerdings reine Kleingeisterei penetrant nur stänkernder Untertanen, die immer noch nicht verstanden haben, in welchen Maßstäben Deutschlands geniale Führung heute denkt und lenkt:
Bundesumweltministerin Svenja Schulze (SPD) in einer Rede am 23. März 2018: … Wir sind noch lange nicht am Ende des Weges. Vor uns liegen grundlegende Strukturveränderungen, oder wie es eben auch genannt wird, eine Große Transformation. Das gilt für neue Mobilitätssysteme, unsere Energieversorgung, neue industrielle Prozesse, die Digitalisierung und natürlich auch für neue Formen der Landwirtschaft.“
Anmerkung: Das Video mit dem Redebeitrag ist auf YouTube mittlerweile gelöscht.

Fazit

Wenn im Sozialismus – siehe aktuell Venezuela – wieder ein grandioses Zukunftsexperiment im Chaos versank, waren und sind nie die Verursacher die Schuldigen. Es ist das dumme Volk, welches die Genialität einfach nicht versteht.
Natürlich nur die älteren. Den Jugendlichen fehlt noch Wissen und Erfahrung.

Bild 16 Tweed der GRÜNE Jugend


Und Ältere, welche dies zu nutzen wissen:
[8] Werden die Energiepreise steigen, weil die Energiewende stockt? Danach sieht es derzeit aus … Die einfachste und billigste Lösung wäre eine Kombination aus Photovoltaik und Windenergie …
Mit genügend Geld, kann man sich gegen die Folgen dieser grandiosen Öko-Energiezukunft wappnen, wie es der Professor gemacht hat: [18]Ich habe mir für meinen Keller eine notstromfähige Batterie gekauft
Anmerkung: Als vom Professor die Vorgängerstudie (eigentlich die Basisstudie) vorgestellt wurde, hat der Autor darüber bereits eine umfangreiche Rezension verfasst:
[15] EIKE 03.10.2017: Deutschland ohne Erneuerbare Energien – Energiewende im Faktencheck
In dieser sind viele weitere Details angesprochen und leider ist die damalige Rezension nach wie vor aktuell.

Nachtrag Ökoenergie

Herr Schuster von VERNUNFTKRAFT. Landesverband Hessen e.V. hat gerade eine Übersicht zur Ökoenergie zusammengestellt. Diese geben einen ergänzenden Überblick zwischen dem, was der Professor fabuliert und dem, was die Ökoenergie in Wirklichkeit (nicht) „leistet“. Anbei Grafiken daraus.
Man beachte, dass der Netzausbau in Anlehnung an die installierte Leistung erfolgen muss. Zum Füllen der nicht vorhersehbaren Versorgungslücken müssen parallel immer Backup-Kraftwerke mitlaufen, die schnell genug einspringen können.

Bild 17 Wind onshore und offshore seit 2010. Quelle: R. Schuster VERNUNFTKRAFT, vom Autor ergänzt


Bild 18 Ökoenergie Wind und Solar seit 2010. Quelle: R. Schuster VERNUNFTKRAFT, vom Autor ergänzt


Bild 19 Erträge Mai aus Ökoenergie Wind und Solar für 2010; 2015; 2020. Quelle: R. Schuster VERNUNFTKRAFT, vom Autor ergänzt


Quellen
[1] Lehrstuhl für Energieverfahrenstechnik Friedrich-Alexander-Universität Erlangen-Nürnberg „Deutschland ohne erneuerbare Energien?“ – Ein Update für die Jahre 2014 bis 2018 Stromkosten und Versorgungssicherheit ohne die Einspeisung Erneuerbarer Energien
[2] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
[3] FAU 7. Oktober 2016: Energiewende auch mit weniger Hochspannung-Trassen möglich Studie zur Dezentralität und zellularen Optimierung im Stromnetz
[4] Elektrizitätswerke Schönau 09.10.2019: Erneuerbare Energien bremsen Strompreise
[5] EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar
[6] EIKE 9. Februar 2015: Haben “Erneuerbare Energien” uns vor einem Strompreis-Schock bewahrt?
[7] FAU Januar 2015: Kurzstudie „Deutschland ohne Erneuerbare Energien?“ Stromkosten und Versorgungssicherheit ohne die Einspeisung Erneuerbarer Energien in den Jahren 2011-2013
[8] Nürnberger Zeitung 28.05.2020: Warum die Strompreise wirklich steigen
[9] Tichys Einblick 11. Mai 2020: Analyse aus dem BMI Nur ein Fehlalarm? Mehr Tote durch die Rettung als durch das Virus?
[10] The European 02.06.2020: Wir dürfen die Gefahr durch Covid-19 nicht kleinreden
[11] Bild 25.05.2020: Fragwürdige Methoden Drosten-Studie über ansteckende Kinder grob falsch
[12] The European: 10 Dinge, die die EU unternimmt, um das Coronavirus zu bekämpfen
[13] EIKE 08.05.2020: Die SZ im Agitationsmodus. Und die Wahrheit bleibt wieder auf der Strecke
[14] Lukas Emele: Projektarbeit der Hochschule für Forstwirtschaft Rottenburg in Zusammenarbeit mit dem Wirtschaftsarchiv Baden-Württemberg Entwicklung der Strompreise im Verhältnis zur Kaufkraft und Abhängigkeit der Strompreise von den Primärenergiekosten im Untersuchungszeitraum 1950 bis heute
[15] EIKE 03.10.2017: Deutschland ohne Erneuerbare Energien – Energiewende im Faktencheck
[16] EIKE 29. Mai 2020: Wasserstoff Hoax: Wind- und Solarprofiteure fordern Subventionen, um ihre chaotische Energie in leichtflüchtiges Gas umzuwandeln
[17] EIKE 19. Mai 2020: Afrika soll die deutsche Energiewende retten
[18] Lokalausgabe der Nordbayerischen Nachrichten am 28.05.2020: warum die Strompreise wirklich steigen. Sebastian Kolb und Prof. Karl erläutern die Strompreisstudie im Interview mit Erik Stecher




Einordnung der gegenwärtigen Maitemperaturen in einem längeren Zeitraum: Der Mai will einfach nicht wärmer werden.

Der Hohenpeißenberg (HPB) gibt eine erste Antwort
Einzelne wenige Stationen wie der HPB im deutschen Raum reichen natürlich weiter zurück, und die Daten wurden einigermaßen zuverlässig und vergleichbar erfasst. Neben einer gleichbleibenden Erfassungsmethode darf sich der Standort nur wenig verändert haben, sonst sind die Daten als Vergleiche unbrauchbar. Diese 2 Bedingungen erfüllt natürlich keine einzige Wetterstation der Welt, aber der HPB wenigstens einigermaßen.
Der Berg ist 988 m hoch und liegt im Voralpenland, 50 km nördlich der Zugspitze. Schon über 200 Jahre betrieben die Mönche im dortigen früher unbeheizten Kloster eine Wetterstation, die an der nördlichen Außenwand des Anbaus an der Klosterkirche in etwa 7 m Höhe neben einem Fenster angebracht war. Nach Gründung des Reichswetterdienstes mit normierten neuen Standortbedingungen wurde die Station 1936 an einen wärmeren und etwas tiefer gelegenen Standort verlegt, der inzwischen zu einem kleinen DWD-Messzentrum ausgebaut wurde. Die neue Wetterhütte mit inzwischen digitaler Erfassung steht frei auf dem DWD-Messfeld und ist allen Jahres-Sonnenstunden ausgesetzt. Im Mai 2020 waren es 231 Sonnenscheinstunden. Wir schätzen die menschengemachte Wärmeinselzugabe aufgrund des Standortwechsels auf etwa 0,3 bis 0,5°C ab dem Jahre 1970 ein, d.h. die gemessenen Temperaturen müsste man entsprechend nach unten korrigieren, was wir nicht getan haben, denn die Grafik 1 ist auch so eindeutig zur Verdeutlichung der Überschrift.

Grafik 1: Die Grafik zeigt deutlich, dass die warmen Maimonate, als die deutschen Maienlieder entstanden sind, vor über 200 Jahren konzentriert auftraten. Das momentane Temperaturplateau des Wonnemonates Mai befindet sich seit 1988 leicht über dem Schnitt. Die kalten Jahrzehnte um 1881 sind in der Grafik gut zu erkennen.


Fazit: Die warmen Maimonate lagen in früheren Jahrhunderten.
Die Aussage gilt nicht nur für den Hohenpeißenberg, auch die DWD-Wetterstation Berlin-Tempelhof hat eine lange Reihe und seit 1756 sind die Werte zuverlässig erfasst, allerdings ist die Station eine typische Wärmeinselstation. Vom einstigen Gutshof vor den Toren Berlins zum heutigen Stadtteil.

Grafik 2: Auch bei der Wetterstation in Berlin-Tempelhof liegen die wirklich heißen Maimonate lange zurück. Wie schon beim Hohenpeißenberg sind auch in Berlin um 1881 die Maimonate am kältesten


Es existieren auch länger zurückliegende Deutschlanddaten, die sich aber nur auf wenige Stationen berufen können, bzw. die Daten wurden interpoliert. Wir verwenden für die nächste Grafik die Deutschlanddaten seit 1800, seit 1881 sind es die offiziellen DWD-Daten. Quelle: https://dewiki.de/Lexikon/Zeitreihe_der_Lufttemperatur_in_Deutschland
Die 15 wärmsten Maimonate Deutschlands in Form einer Bundesligatabelle.
Man achte auf die Jahreszahlen der warmen Maimonate. Der Mai 2019 und 2020 wären ein Absteiger aus der ersten Liga.

Grafik 3: Unser Dichter Johann Wolfgang Goethe lebte noch zu den Zeiten des viertwärmsten Maimonats (1811) in Deutschland. Der Mai 2020 ist keineswegs an 16.ter Stelle, er wurde auf dieser Grafik nur im Vergleich zu den 15 wärmsten eingezeichnet. Ein Ausreißer aus der Neuzeit, der sonnenreiche Mai 2018 führt die Tabelle an.


Auch diese Grafik zeigt: Das momentane Wärmeplateau des Monates Mai ist keineswegs ein hohes Niveau seit Beginn der Temperaturmessungen in Deutschland.
Vergleich der Maimonate mit den CO2-Messungen: Die Keeling Kurve
Nur 3 der 15 wärmsten Maimonate liegen im Zeitraum der ansteigenden CO2-Keeling-Kurve. Messbeginn am Mauna Loa: 1958

Grafik 4: Die CO2-Konzentrationen der Atmosphäre steigen vor allem nach dem Kriege stark an. Behauptet wird, dass die Ursache des CO2-Anstieges fast ausschließlich anthropogenen Ursprunges wäre. Zumindest seit der Corona-Krise darf man Zweifel anmelden, denn inzwischen ist der Wert im Mai 2020 auf 417 ppm angewachsen und keinesfalls in den letzten 3 Monaten gesunken.


Weiter wird behauptet, dass dieser CO2-Anstieg die Ursache der Erwärmung wäre, die es aber für den Monat Mai in Mitteleuropa über einen längeren Zeitraum gar nicht gibt.
Siehe auch: https://www.eike-klima-energie.eu/2020/06/02/der-mai-will-nicht-waermer-werden-wo-bleibt-die-co2-treibhauswirkung/