Klima: Über welche Temperatur reden wir eigentlich?

1. Messfehler

Temperaturen wurden seit etwa 250 Jahren mit Thermometern  (darunter solche im englisch sprachigen Raum, die Max und Min Temperaturen anzeigen) gemessen und seit einigen Jahrzehnten mittels elektronischer Sensoren oder Satelliten. Hinsichtlich noch älterer Daten muss man sich auf „Proxys“ verlassen (Baumringe, Stomata oder andere geologische Belege, welche eine Kalibrierung bzgl. Zeit und Amplitude benötigen, historische Chroniken oder Almanache usw.). Jedes Verfahren weist einen gewissen experimentellen Fehler auf. Bei einem Thermometer sind es etwa 0,1°C, bei Proxys noch viel mehr. Springt man von einem Verfahren zu einem anderen (z. B. von Thermometer-Messungen zu elektronischen Sensoren oder von elektronischen Sensoren zu Satellitendaten), müssen die Daten kalibriert und adjustiert werden, was in den Aufzeichnungen nicht immer sauber dokumentiert wird. Wie in dieser Studie ebenfalls gezeigt wird, ist die Länge des Zeitfensters für Messungen von ultimativer Bedeutung, um Schlussfolgerungen zu ziehen hinsichtlich eines möglichen gemessenen Trends in Klimadaten. Es müssen gewisse Kompromisse eingegangen werden zwischen der Genauigkeit der Daten und deren Repräsentativität.

2. Zeitliche Mittelungs-Fehler

Falls jemand ausschließlich Thermometermessungen für „zuverlässig“ hält, muss man täglich, wöchentlich, monatlich und jährlich definieren, was die Mitteltemperatur ist. Aber vor der Einführung elektronischer Sensoren, welche eine kontinuierliche Registrierung der Daten gestatteten, wurden diese Messungen von Hand, punktuell und einige Male über den Tag verteilt durchgeführt. Der Algorithmus zur Errechnung der täglichen Mitteltemperatur war Gegenstand von Änderungen von Land zu Land und mit der Zeit, und zwar auf eine Art und Weise, die in den Datensätzen nicht perfekt dokumentiert ist und wobei einige Fehler enthalten sind (Limburg, 2014). Auch folgte die Temperatur saisonalen Zyklen, verbunden mit der Sonnenaktivität und der lokalen Exposition in dieser Hinsicht. Das bedeutet, dass wenn man monatliche Daten mittelt, man Temperaturen vergleicht (von Beginn bis zum Ende des Monats) welche mit unterschiedlichen Punkten im saisonalen Zyklus korrespondieren. Und schließlich, wie jeder Gärtner weiß, haben auch die Mondzyklen einen gewissen messbaren Einfluss auf die Temperatur (ein 14-Tage-Zyklus ist in lokalen Temperaturdaten offensichtlich, was korrespondiert mit der Harmonic 2 des Mondes Frank, 2010). Es gibt etwa 28 Mondzyklen über jeweils 28 Tage innerhalb eines solaren Jahres von 365 Tagen, aber das solare Jahr ist in 12 Monate unterteilt, was einige Verzerrungen und falsche Trends induziert (Masson, 2018).

3. Räumliche Mittelung

Zuallererst, das IPCC betrachtet global gemittelte Temperaturen über den gesamten Globus, trotz der Tatsache, dass die Temperatur eine intensive Variable ist, und zwar von einer Kategorie von Variablen, die nur eine lokale thermodynamische Bedeutung haben, und trotz der Tatsache, dass es auf der Erde mehrere gut definierte Klimazonen gibt.

Die verwendeten Daten stammen von Aufzeichnungen meteorologischer Stationen und sollen repräsentativ sein für ein Gebiet um jede der Stationen. Das Gebiet soll alle Punkte umfassen, die näher an der jeweiligen Station als an irgendeiner anderen Station liegen (Voronoi-Algorithmus). Da die Stationen nicht gleichmäßig verteilt sind und da deren Anzahl erheblich mit der Zeit geschwankt hat, sind mit diesem Verfahren der räumlichen Mittelung „Algorithmus-Fehler“ verbunden.

Voronoi Diagramm

„In der Mathematik ist ein Voronoi Diagramm die Partitionierung einer Fläche in Regionen auf der Grundlage der Distanz zu Punkten in einem spezifischen Untergebiet der Fläche. Dieser Satz von Punkten (mit den Bezeichnungen seeds, sites oder generators) ist zuvor spezifiziert, und für jedes seed gibt es eine korrespondierende Region, die alle Punkte enthält, welche näher an diesem seed liegen als an jedem anderen. Diese Regionen nennt man Voronoi-Zellen (Quelle).

Da sich die Anzahl der seed-Punkte ändert ändert sich auch Größe, Anzahl und Aussehen der korrespondierenden Zellen (Abbildungen 1 und 2):

Abbildungen 1 und 2: Beispiel eines Voronoi-Diagramms, in Abb. 2 mit einer reduzierten Anzahl von seeds (konstruiert mit http://alexbeutel.com/webgl/voronoi.html).

In der Klimatologie sind die seed-Punkte die meteorologischen Stationen, und deren Anzahl hat sich mit der Zeit signifikant reduziert. Dadurch änderten sich Anzahl und Größe der korrespondierenden Zellen (siehe die Abbildungen 3, 4 und 5).

Abbildungen 3 und 4: Anzahl der Stationen nach der Zeit (links) und Ort vs. Zeit (rechts). Die Daten in Abb. 3 stammen von der GISS Surface Temperature Analysis (GISTEM v4). Quelle: https://data.giss.nasa.gov/gistemp/station_data_v4_globe/

Abbildung 5: Entwicklung von Landstationen und globaler Temperatur. Ab dem Jahr 1990 sind 1000 in kühleren ländlichen Gebieten stehende meteorologische Stationen (z. B. in Sibirien und Nordkanada) ausgesondert worden (Quelle: ftp://ftp.ncdc.noaa.gov/pub/data:ghcn/v2/v2.temperature.readme). Man beachte, dass Abbildung 3 auf GHCNv4 (Juni 2019) beruht und Abbildung 5 auf GHCNv2 (vor 2011). Alle Stationen wurden re-analysiert, und das ist auch der Grund für die Unterschiede in den beiden Abbildungen.

Mitteltemperatur

Die Mitteltemperatur (genauer deren Anomalie, siehe weiter unten) wird berechnet durch Aufsummierung der individuellen Daten von unterschiedlichen Stationen, wobei jeder Datenpunkt gewichtet wird proportional zu dessen korrespondierender Zelle (gewichtetes Mittel).

Da sich die Größen der Zellen mit der Zeit geändert haben, hat sich auch die Wichtung der seed-Punkte geändert. Dies induziert einen Bias in der Berechnung des globalen Wertes der Mitteltemperatur.

4. Der städtische Wärmeinseleffekt UHI

Außerdem sind viele ursprünglich in ländlicher Umgebung aufgestellten Messpunkte in zwischen Schauplatz einer progressiven Verstädterung gewesen, was zum „städtischen Wärmeinsel“-Effekt führte, welcher die gemessenen Temperaturwerte künstlich beeinflusste (Abbildungen 6 und 7)

Abbildungen 6 und 7: Gründe und Illustration des UHI

Es ist also unabdingbar bei Landstationen, dass jedwede nicht-klimatischen Temperatursprünge wie der UHI eliminiert werden. Derartige Sprünge können auch induziert werden durch Änderung des Aufstellortes der Stationen oder durch eine Aktualisierung der Instrumentierung. In den adjustierten Daten von GISTEMP v4 sind die Auswirkungen solcher nicht-klimatischen Einflüsse eliminiert wo immer möglich. Ursprünglich wurden nur dokumentierte Fälle adjustiert. Das gegenwärtig von NOAA/NCEI angewendete Verfahren jedoch appliziert ein automatisiertes System auf der Grundlage eines systematischen Vergleichs mit benachbarten Stationen. Damit soll dokumentierten und nicht dokumentierten Fluktuationen Rechnung getragen werden, die nicht direkt Bezug zum Klimawandel haben. Die Verfahren nebst deren Evaluierungen sind Gegenstand vieler Veröffentlichungen.

5. Wassertemperatur

Und was ist mit der Temperatur über den Ozeanen (welche etwa 70% der Erdoberfläche bedecken)? Bis vor Kurzem wurden diese Temperaturen kaum gemessen, kamen sie doch von Schiffen, die eine begrenzte Anzahl kommerzieller Seewege befuhren.

In jüngerer Zeit wurden ARGO-Bojen in allen Ozeanen ausgebracht, was eine repräsentativere räumliche Abdeckung dieser Daten ermöglichte.

6. Temperaturanomalien

Zweitens, zu jedem gegebenen Zeitpunkt kann die Temperatur auf der Erde um bis zu 100°C variieren (zwischen Messpunkten in polaren bzw. tropischen Regionen). Um diesem Problem zu begegnen, bezieht sich das IPCC nicht auf absolute Temperaturwerte, sondern auf etwas, das man „Anomalien der Temperatur“ nennt. Dafür berechnet man zunächst die mittlere Temperatur über einen festgelegten Zeitraum von 30 Jahren: 1931 bis 1960, 1961 bis 1990. Die nächste Periode wird der Zeitraum 1991 bis 2020 sein. Dann wird jede jährliche Temperatur mit der mittleren Temperatur der nächstgelegenen zeitlichen Periode verglichen. Gegenwärtig und bis zum Jahr 2012 ist die Anomalie die Differenz zwischen der Temperatur und dem Mittelwert des Zeitraumes 1961 bis 1990.

Dieses Verfahren fußt auf der impliziten Hypothese, dass die „natürliche“ Temperatur konstant bleibt und dass jedweder erkannte Trend anthropogenen Aktivitäten geschuldet ist. Aber selbst dann würde man erwarten, dass einige Adjustierungen vorgenommen werden, wenn man von einer Referenzperiode auf eine andere übergeht. Das berührt die Kompensation eines eventuellen UHI oder die Änderung der Anzahl von Stationen – und wir haben beide als Quellen von Fehlern und Verzerrungen ausgemacht.

Aber das Schlüsselproblem ist tatsächlich der Umstand, dass die Temperaturaufzeichnungen Gegenstand lokaler natürlicher, polyzyklischer Fluktuationen sind, die nicht genau periodisch und nicht synchronisiert sind. Die Tatsache, dass der artige Fluktuationen nicht genau periodisch sind, macht es mathematisch unmöglich, dass man die Daten trendbereinigen kann mittels Subtraktion eines Sinusoids, wie es beispielsweise allgemein üblich ist bei der Eliminierung jahreszeitlicher Effekte aus den Daten.

Die Länge dieser Zyklen variiert von einem Tag bis zu jährlichen, dekadischen, hundert- oder tausendjährigen Komponenten und über zehntausende von Jahren hinaus (Milankovitch-Zyklen).

Von besonderem Interesse für unsere Diskussion sind dekadische Zyklen, weil deren Präsenz dreifach Konsequenzen hat:

Erstens, da sie wegen ihrer Aperiodizität nicht direkt trendbereinigt werden können, beeinflussen oder verstärken sie eventuelle anthropogene Effekte, welche in den Anomalien zutage treten.

Zweitens, die Zyklen induzieren Verzerrungen und falsche Anomalien bei der Berechnung der mittleren Temperatur des Referenz-Zeitraumes, wie die folgende Abbildung zeigt (nach Masson):

Abbildung 9: Anomalien und periodische Signale des Zeitraumes, der vergleichbar ist mit der Länge des Referenz-Zeitraumes.

Kommentar zu Abbildung 9:

Die Abbildung zeigt die Probleme zur Festlegung einer Anomalie, wenn das Signal ein periodisches Signal mit einer Länge vergleichbar mit der Länge des Referenz-Zeitraumes aufweist, der zu Berechnung dieser Anomalie herangezogen wird. Zur Vereinfachung denke man sich ein Sinusoid mit einer Periode gleich 180 Jahre (eine allgemein in Klima-bezogenen Signalen erkannte Periodizität). Folglich ist 360° = 180 Jahre und 60° = 30 Jahre (also die Länge der vom IPCC herangezogenen Referenzperioden zur Berechnung der Anomalien). Für unseren Zweck werden drei Referenzperioden mit jeweils 60° (30 Jahre) entlang des Sinusoids betrachtet (die roten horizontalen Linien markieren die Referenzen 1, 2 und 3). Auf der rechten Seite der Abbildung sind die korrespondierenden Anomalien dargestellt (Messung über die nächsten 30 Jahre minus dem Mittelwert über die Referenzperiode). Man erkennt offensichtlich, dass die Anomalien unterschiedliche Trends zeigen. Ebenfalls offensichtlich tritt hervor, dass alle diese Trends ein Fake sind, weil das reale Signal ein Sinusoid des Mittelwertes insgesamt gleich Null ist. Mit anderen Worten, es gibt gar keinen Trend, sondern nur ein periodisches Verhalten.

Der dritte fundamentale Schwachpunkt, wie das IPCC mit den Temperaturdaten umgeht, betrifft die Entscheidung, sich ausschließlich auf lineare Regressions-Trendlinien zu stützen, trotz der Tatsache, dass jeder Daten-Wissenschaftler weiß, dass man zumindest ein Zeitfenster berücksichtigen muss, das mehr als 5 mal über die Periode einer zyklischen Komponente in den Daten hinausgeht, um „border effects“ zu vermeiden. Pech für das IPCC: die meisten Klimadaten zeigen signifikante zyklische Komponenten mit (angenähert) Perioden von 11, 60 und 180 Jahren, während sie andererseits ein 30-Jahre-Fentser heranziehen, um ihre Anomalien zu berechnen.

Und so erzeugt das IPCC eine künstliche „Beschleunigung der globalen Erwärmung“, weil es kurzfristige lineare Trends aus Daten berechnet, welche eine zyklische Signatur aufweisen. Mittels Abbildung 10, entnommen FAQ 3.1 aus Kapitel 3 des IPCC-AR 4 (2007) erklärt das IPCC: „Man beachte, dass sich die Steigung über kürzere Perioden vergrößert, was auf eine beschleunigte Erwärmung hinweist“.

Abbildung 10: Fake-Schlussfolgerungen des IPCC

Die folgende Graphik (Abbildung 11) illustriert das Ganze:

Abbildung 11: Globale Temperaturen im Vergleich zur mittleren globalen Temperatur über den Zeitraum 1901 bis 2000

Kommentar zu Abbildung 11

Die Graphik zeigt die mittlere jährliche globale Temperatur seit dem Jahr 1880, aber nicht verglichen mit einer 30-jährigen Referenzperiode (wie es bei der Berechnung von Anomalien üblich ist), sondern im Vergleich zum langfristigen Mittel im Zeitraum 1901 bis 2000. Die Null-Linie repräsentiert das langfristige Mittel für den gesamten Planeten, die Balken zeigen die globalen (aber langfristigen) „Anomalien“ über oder unter dem langfristigen Mittelwert mit der Zeit. Der behauptete lineare Trend im linken Teil der Abbildung ist (mehr als wahrscheinlich) ebenso wie der Trend im rechten Teil der Abbildung nichts weiter als der steigende Ast eines Sinusoids von 180 Jahren. Dies ist auch ein anderer Weg (der richtige und einfachste?), den „Stillstand“ zu erklären, welcher während der letzten 20 Jahre beobachtet worden ist. Der „Stillstand“ korrespondiert mit dem Maximum des Sinusoids, und als Konsequenz kann man eine globale Abkühlungsperiode während der nächsten Jahre erwarten.

7. Lineare Trendlinien und Daten, die eine zyklische Signatur aufweisen

Schließlich illustrieren die folgenden Graphiken (Abbildungen 12, 13 und 14) von Masson den „border effect“, der weiter oben schon einmal für einen schematischen Fall erwähnt worden ist. Sie zeigen die potentiellen Fehler, die man bei der Anwendung linearer Regressions-Verfahren macht, wenn Daten eine zyklische Komponente aufweisen mit einer (pseudo-)Periode von einer Länge, die vergleichbar ist mit dem betrachteten Zeitfenster. Das Sinusoid bleibt genau gleich (und zeigt keinen Trend), aber falls man die lineare Regression berechnet (mittels des Verfahrens kleinster Quadrate) über eine Periode des Sinusoids, wird eine FAKE-Trendlinie erzeugt, dessen Steigung abhängig ist von der Anfangsphase des betrachteten Zeitfensters.

Abbildungen 12,13 und 14: Lineare Regressions-Linie über eine einzelne Periode eines Sinusoids.

Regressions-Linie für ein Sinusoid

Um das Problem im Zusammenhang mit dem „border effect“ zu illustrieren, wenn man für ein Sinusoid eine Regressions-Linie zeigt, wollen wir ein einfaches Sinusoid heranziehen und die Regressions-Linie über ein, zwei, fünf, … X Zyklen berechnen (Abbildungen 15, 16 und 17).

Das Sinusoid ist stationär, die wahre Regressions-Linie verläuft horizontal (Steigung = Null).

Nimmt man eine Initial-Phase von 180° (um eine Regressions-Linie mit positiver Steigung zu erzeugen), wollen wir feststellen, wie sich die Steigung der Regressions-Linie in Abhängigkeit der Anzahl von Perioden ändert:

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Die korrespondierende Regressions-Gleichung ist in jeder Graphik genannt. In dieser Gleichung ergibt der Koeffizient von x die Steigung der „Fake“-Regressions-Linie. Der Wert dieser Steigung ändert sich mit der Anzahl der Perioden, wie in Abbildung 18 gezeigt. Als Faustregel nennen Daten-Wissenschaftler eine Mindestzahl von 6 Perioden, die betrachtet werden müssen.

Abbildung 18: Steigung der Regressionslinie im Vergleich zur Anzahl der Zyklen. Dazu gibt es hier auch eine Excel-Illustration.

8. Ein exemplaarischer Fall

Die Überlegungen in dieser Studie mögen für erfahrene Daten-Wissenschaftler offensichtlich sein, aber es scheint, als ob die meisten Klimatologen sich der Probleme nicht bewusst sind (oder versuchen sie vielleicht, diese Probleme unter den Teppich zu kehren?), die sich aus der Länge des betrachteten Zeitfensters und dem Ausgangswert ergeben. Als finale Illustration wollen wir die „offiziellen“ Klimadaten betrachten und sehen, was passiert, wenn man die Länge des Zeitfensters sowie den Ausgangswert verändert (Abbildungen 19 bis 21). Aus diesem Beispiel geht eindeutig hervor, dass lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters die Tür weit aufstoßen zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

Abbildung 19: Beispiel einer „offiziellen“ Anomalie einer globalen Temperaturreihe

Abbildung 20: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien

Abbildung 21: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien (fortgesetzt)

[Wegen der Bedeutung dieser Graphik folgt hier die Übersetzung der Bildinschrift:

obere Graphik: Ein globaler Abkühlungstrend (etwa 0,35 Grad pro Dekade) während der 11 Jahre von 1998 bis 2009. Realistisch? Nein!

Mittlere Graphik: Ein globaler Erwärmungstrend (etwa 0,12 Grad pro Dekade) während der 30 Jahre von 1979 bis 2009. Realistisch? Nein!

Untere Graphik: Was also ist realistisch? Die jährliche Varianz in den Daten ist groß im Vergleich zu jedwedem Trend. Es gibt eindeutig erkennbare Zyklen in den Daten (ein solcher von etwa 4 Jahren ist in der mittleren Graphik erkennbar). Was zeigen nun also die Daten während der Satelliten-Ära? Keine Erwärmung von 1979 bis 1997; ein signifikantes El Nino-Ereignis 1997-98 führte zu einer sprunghaften Änderung von etwa 0,3 Grad; keine Erwärmung von 1999 bis 2009. Die gesamte Erwärmung der letzten 30 Jahre ereignete sich in einem einzigen einzelnen Jahr!

Ende Übersetzung der Inschrift.]

Schlussfolgerungen:

1. IPCC-Projektionen resultieren aus mathematischen Modellen, welche der Kalibrierung bedürfen, indem man Daten aus der Vergangenheit einfließen lässt. Die Genauigkeit der Kalibrierungs-Daten ist von ultimativer Bedeutung, ist doch das Klimasystem höchst nicht-linear, und das gilt auch für die (Navier-Stokes)-Gleichungen und die (Runge-Kutta Integrations-) Algorithmen, welche in den IPCC-Computermodellen angewendet werden. Als Konsequenz daraus ist das System und auch die Art, wie das IPCC dieses präsentiert, hoch sensitiv gegenüber winzigen Änderungen des Wertes der Parameter oder der Ausgangsbedingungen (die Kalibrierungs-Daten im gegenwärtigen Fall). Sie müssen mit höchster Genauigkeit bekannt sein. Das ist aber nicht der Fall, was ernste Zweifel an jedweder Folgerung aus den Modellprojektionen aufwirft.

2. Die meisten vom IPCC herangezogenen Mainstream-Daten mit Klimabezug sind tatsächlich erzeugt aus Daten von Messpunkten auf dem Festland. Dies hat zwei Konsequenzen:

i) Die räumliche Verteilung der Daten ist höchst fragwürdig, weil die Temperatur über den Ozeanen, die 70% der Erdoberfläche bedecken, zumeist unbeachtet bleiben oder „guestimated“ werden mittels Interpolation;

ii) Die Anzahl und die Aufstellungsorte dieser Landstationen hat sich mit der Zeit deutlich verändert, was Verzerrungen und Fake-Trends induzierte.

3. Der Schlüssel-Indikator des IPCC ist die globale Temperatur-Anomalie, errechnet aus räumlicher Mittelung, ebenso wie mögliche lokale Anomalien. Lokale Anomalien sind der Vergleich der gegenwärtigen lokalen Temperatur mit der gemittelten lokalen Temperatur über einen festgesetzten Zeitraum von 30 Jahren, der sich alle 30 Jahre ändert (1930-1960, 1960-1990, etc.). Das Konzept der lokalen Anomalien ist höchst fragwürdig wegen der Präsenz poly-zyklischer Komponenten in den Temperaturdaten einschließlich deutlicher Verzerrungen und falschen Trends, wenn das Zeitfenster kürzer ist als mindestens 6 mal die längste, aus den Daten hervorgehende Periode. Unglücklicherweise ist bzgl. der Temperaturdaten genau das der Fall.

4. Lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters stoßen die Tür weit auf zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

5. Als Folge davon ist es dringend geraten, das Konzept der globalen Temperatur-Anomalie zu verwerfen und sich auf unverzerrte lokale Daten zu stützen, um eine mögliche Änderung des lokalen Klimas aufzufinden. Das wäre ein physikalisch bedeutungsvolles Konzept, und das ist schließlich das, was für die lokalen Anwohner, für Landwirtschaft, Industrie, Dienstleistungen, Geschäftsbereiche, Gesundheit und Wohlergehen allgemein von Bedeutung ist.

Notes

[1] The GISS Surface Temperature Analysis (GISTEMP v4) is an estimate of global surface temperature change. It is computed using data files from NOAA GHCN v4 (meteorological stations), and ERSST v5 (ocean areas), combined as described in Hansen et al. (2010) and Lenssen et al. (2019) (see : https://data.giss.nasa.gov/gistemp/). In June 2019, the number of terrestrial stations was 8781 in the GHCNv4 unadjusted dataset; in June 1880, it was only 281 stations.

[2] Matthew J. Menne, Claude N. Williams Jr., Michael A. Palecki (2010) On the reliability of the U.S. surface temperature record. JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D11108, doi:10.1029/2009JD013094, 2010.

[3] Venema VKC et al. (2012) Benchmarking homogenization algorithms for monthly data. Clim. Past, 8, 89-115, 2012.

[4] F.K. Ewert (FUSION 32, 2011, Nr. 3 p31)

[5] H. Masson,Complexity, Causality and Dynamics inside the Climate System (Proceedings of the 12thannual EIKE Conference, Munich November  2018.

[6] IPCC, http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter3.pdf]

Link: http://www.science-climat-energie.be/2019/07/24/climate-about-which-temperature-are-we-talking-about/

———————————————

Autoren: Samuel Furfari,  Professeur à l’Université libre de Bruxelles et Henri Masson, Professeur (émérite) à l’Université d’Antwerpen

Übersetzt von Chris Frey EIKE




Was Sie schon immer über CO2 wissen wollten: Teil 3 – der globale CO2-Kreislauf

Teil 2 befasste sich mit dem Konzentrationsverlauf von CO2 in der Atmosphäre. Zumindest zwischen einer Million Jahre zurück bis zum Beginn der Industrialisierung um 1850 folgte der armosphärische CO2-Gehalt den Ozeantemperaturen (SST). Die maximale CO2-Konzentrationsspanne zwischen dem Temperaturhöhepunkt eines Zwischenglazials und dem Temperaturtiefpunkt einer Eiszeit betrug grob 100 ppm (Bild 2 in Teil 2). Seit Ende der jüngsten Eiszeit betrugen dann die CO2-Schwankungen, entsprechend den geringen SST-Schwankungen, nur noch wenige ppm (Bild 2 ganz rechts). Erst die anthropogenen CO2-Emissionen haben dieses Gleichgewicht verschoben (s. Bild 1 in Teil 1). Im Folgenden geht es um die Folgen dieser Verschiebung für den globalen CO2-Kreislauf, dessen Quellen und Senken die drei Hauptakteure „Atmosphäre, „Ozeane“ und „Biospäre“ sind. Die Einzelheiten des globalen CO2-Kreislaus sind zwar beliebig komplex, dennoch stellt sich heraus, dass seine groben Züge recht gut mit einfachen physikalischen Modellen erfassbar sind.

Beginnen wir mit einer unzutreffenden Angstvorstellung, wie sie immer wieder nicht nur von den Medien, sondern sogar von Fachwissenschaftlern geschildert wird, die es in Wirklichkeit besser wissen: Weitere Kohleverbrennung der Menschheit würde den CO2-Gehalt der Atmosphäre generell immer weiter erhöhen. Das ist falsch. Die Schlüsselrolle beim CO2-Kreislauf spielen nämlich die Ozeane, die knapp die vierzigfache Menge der Atmosphäre an frei gelöstem CO2 enthalten [1]. Zwischen Ozeanen und Atmosphäre fand vor der Industrialisierung laufend ein in etwa gleichgewichtiger CO2-Austausch statt, wobei die Verweilzeit eines CO2-Moleküls in der Luft nur wenige Jahre beträgt. Dieses Gleichgewicht wurde durch die menschgemachten CO2-Emissionen immer stärker in Richtung ansteigender CO2-Konzentration der Atmosphäre verschoben.

Die Konsequenz dieses Anstiegs ist ein ansteigender CO2-Partialdruck in der Luft im Vergleich mit dem CO2-Partialdruck der Ozeane. Der CO2-Partialdruck der Ozeane bleibt nämlich konstant, denn die Ozeane enthalten, frei gelöst, etwa die vierzigfache Menge des in der Atmosphäre enthaltenen CO2. Die Ozeane „spüren“ das menschgemachte CO2 nicht, es ist für sie vernachlässigbar. Der stetig ansteigende CO2-Partialdruck der Luft drückt aber immer mehr CO2 in die Ozeane und das Pflanzenwachstum. Zu Beginn der Industrialisierung, als die CO2-Partialdrücke von Luft und Ozeanen noch im Gleichgewicht standen, wurden die ersten anthropogenen CO2-Emissionen ausschließlich von der Luft aufgenommen. Heute hat sich diese Situation grundlegend geändert. Von jeder Tonne anthropogenem CO2 verbleiben nur noch eine halbe Tonne in der Atmosphäre, eine viertel Tonne geht bereits in die Ozeane und das restliche Viertel wird von den Pflanzen aufgenommen (Bild 1).

Bild 1: Schematische, vereinfachte Darstellung der Quellen und Senken des globalen CO2-Kreislaufs zu Beginn der Industrialisierung A) verglichen mit heute B).

Die aus Bild 1 hervorgehende Entwicklung verschiebt sich mit weiter zunehmenden anthropogenen CO2-Emissionen hin zu einer immer stärkeren CO2-Senke „Ozeane“ und einer immer schwächeren CO2-Senke „Atmosphäre“. Die sich in dieser Richtung ändernden Werte des globalen CO2-Kreislaufs, d.h. die Quellen und Senken über die letzten Jahrzehnte werden seit wenigen Jahrzehnten vom Carbon Dioxide Information Analysis Center (CDIAC) akribisch gemessen und dokumentiert [2].

Was bedeutet nun die immer höhere CO2-Aufnahme von Ozeanen und Pflanzen konkret für die zukünftige CO2-Konzentration der Atmosphäre? Die Antwort: Um den CO2-Gehalt der Luft weiter zu erhöhen, müssen die CO2-Emissionen der Menschheit ebenfalls immer weiter erhöht werden! Würde die Menschheit ihre CO2-Emissionen dagegen einmal (hypothetisch) konstant halten, würde der CO2-Gehalt der Atmosphäre nach einer Einschwingzeit von mehreren Jahrzehnten ebenfalls konstant bleiben. Wohlgemerkt konstant, obwohl weiter anthropogenes CO2 erzeugt wird. Es stellt sich ein Gleichgewichtszustand ein, in welchem bei einem gleichbleibenden anthropogenen „CO2-Nachschub“ die gleichbleibende CO2-Partialdruckdifferenz zwischen Luft und Ozean für einen ebenfalls gleichbleibenden Zustrom von CO2 in die Ozeane sorgt. Dieser Zustand ändert sich auch nicht, denn die Ozeane können praktisch beliebig viel CO2 aufnehmen, ohne dass sich ihr CO2-Partialdruck verändert. Dies nicht nur ihrer riesigen Menge an gelöstem CO2 wegen, sondern weil das Kohlendioxid von Meereslebewesen zum Aufbau ihrer Kalkskelette verbraucht wird, zum Meeresboden absinkt und damit dem CO2-Kreislauf für immer entzogen wird.

Die hier in groben Zügen geschilderten Zusammenhänge sind in der Fachliteratur in detaillierter Beschreibung aufzufinden, wie zum Beispiel in [3] und weiteren Zitierungen in dieser Arbeit. Weil zum CO2-Kreislauf auch der Autor mit begutachteten Fachveröffentlichungen beteiligt war [4], seien einige weiteren Anmerkungen erlaubt. Die Messbasis aller Publikationen wird, wie bereits erwähnt, vom Carbon Dioxid Information Analysis Center (CDIAC) zur Verfügung gestellt in Form von EXCEL-Tabellen [5]. In ihnen sind ab dem Jahre 1959, mit Angabe der Fehlerbreiten, die folgenden fünf jährlichen Werte angegeben für: fossil fuel and cement emissions, land use change, atmospheric growth, ocean sink und land sink. Alle Fachpublikationen verwenden unterschiedliche Modelle und testen ihre Modellparameter am gemessenen CO2-Verlauf der Atmosphäre: Dies hat allerdings den Nachteil, dass mit dieser einzigen Messbasis (CO2-Anstieg) keine Unterscheidung möglich ist, welches Modell am besten die Realität wiedergibt. Die einzige Ausnahme davon macht die Publikation des Autors mit Koautoren [4], in welchem die hier zwei Modellparameter zusätzlich zum atmosphärischen CO2-Gehalt auch noch aus den gemessenen ocean-sink- und land sink-Daten von CDIAC ermittelt werden.

Ein Vergleich nur mit dem CO2-Anstieg der Atmosphäre erlaubt dagegen sogar Modelle, welche den rezenten CO2-Anstieg allein auf Ozeantemperatur-Werte (SST) zurückführen, siehe [6] und weitere Zitierungen in dieser Arbeit. Ob diese Modelle realistisch sind, kann nur die begutachtete Fachdiskussion entscheiden. Dennoch seien die am meisten ins Auge springenden Caveats zumindest erwähnt:

Wären die „SST-Modelle“ zutreffend, müssten sich in den Warmzeiten der letzten 10.000 Jahre, also in den beiden extrem warmen Holozän-Temperaturmaxima sowie dem römischen und mittelalterlichen Temperaturmaximum, ungewöhnliche atmosphärische CO2-Steigerungen zeigen. Solche sind aber weder in CO2-Messungen von Eisbohrkernen noch in Blatt-Stomata-Messungen auffindbar. Es erscheint ferner unwahrscheinlich, dass ausgerechnet in Zeiten von anthropogenen CO2-Emissionen der CO2-Gehalt der Atmosphäre in Schnelligkeit und Stärke auf natürliche Weise angestiegen sein soll, wie es in der letzen Million Jahre noch nie vorkam. Andere CO2-Quellen, wie Vulkanismus am Meeresboden etc., die solches natürlich ermöglicht könnten, werden zwar oft vermutet, sind aber bis heute nicht nachgewiesen.

Das für uns wichtigste Ergebnis des globalen CO2-Zyklus ist dagegen sehr leicht zu verstehen. Der CO2-Gehalt der Atmosphäre kann eine obere Grenze von etwa 800 ppm grundsätzlich niemals überschreiten, weil, wie hier beschrieben, zu immer höherem CO2-Anstieg in der Atmosphäre zwangsweise auch immer höhere(!) anthropogenen CO2-Emissionen erforderlich sind. Damit hat es aber spätestens dann ein Ende, wenn die Kohle zu teuer geworden ist oder gar alle Kohleressourcen aufgebraucht wurden. Dann haben längst Kernkraftwerke der Generation IV die Energieversorgung der Menschheit übernommen.

Es gibt daher absolut keinen Grund, einen zu großen CO2-Anstieg der Atmosphäre zu befürchten.

 

Quellen

[1] W.M. Post et al, The global carbon cycle, http://www.as.wvu.edu/biology/bio463/globalcarbon.pdf

[2] https://cdiac.ess-dive.lbl.gov/

[3] Joos et al., Carbon dioxide and climate impulse response functions .., https://www.atmos-chem-phys.net/13/2793/2013/acp-13-2793-2013.pdf

[4] W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20 (2015),  http://www.earth-syst-dynam-discuss.net/6/2043/2015/esdd-6-2043-2015.pdf sowie H.-J. Lüdecke and C. O. Weiss: Simple Model for the Antropogenically Forced CO2 Cycle, Tested on Measured Quantities,  Journal of Geography, Environment and Earth Science International, 8(4), 1-12, 2016, DOI: 10.9734/JGEESI/2016/30532, http://www.sciencedomain.org/download/MTc0MzRAQHBm.pdf

[5] https://cdiac.ess-dive.lbl.gov/GCP/carbonbudget/2016/

[6] H. Harde, What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations, Earth Sciences, 8(3), 139-159, 2019 (hier)




Menschengemachte Schwankungen*

Die Hitzewelle der letzten Juniwoche liess die Schweizer schwitzen, aber zumeist die Temperaturrekorde nicht fallen. Als historisch höchsten Wert in der Stadt Zürich massen die Meteorologen des Bundes, wie sie auf dem Blog von Meteo Schweiz bekanntgaben, 37,7 Grad Celsius – im Juli 1947. Damals, vier Jahrzehnte vor der angeblich menschengemachten Klimaerwärmung in den achtziger Jahren, erlebte die Schweiz einen denkwürdigen Hitzesommer, der den Rhein zum Rinnsal austrocknen und das Bauernland zur Steppe veröden liess. Doch dieser Rekord gilt für die Meteorologen nicht.

Denn bis 1949 stand die Zürcher Station der Meteorologischen Zentralanstalt bei der ETH, auf 475 m ü. M. in Zentrumsnähe; dann kam sie nach Fluntern, 80 Meter höher gelegen an den Stadtrand. Nicht nur die Höhenlage wirkt sich aber auf die Messungen aus, sondern auch die Distanz zur Stadt. Denn dort staut sich die Hitze, ein Phänomen, das die Meteorologen alsurban heat islandskennen. Kritiker führen einen Teil der gemessenen Erwärmung darauf zurück, dass in den USA oder in China Wetterstationen, die sich früher auf dem Land fanden, jetzt in Stadtzentren oder neben Flughäfen stehen. Wer zu historischen Temperaturdaten forscht, muss sie also korrigieren. Aber wie?

Immer wieder korrigieren

Schon beim Messen – der Grundlage der Klimaforschung wie in jeder Naturwissenschaft – zeigt sich, dass es keine eindeutigen, sondern nur menschengemachte Fakten gibt. Wir Menschen sehen, aufgrund der menschlichen Schwäche des confirmation bias, aber am liebsten jene Daten, die unsere Sicht bestätigen. Und wir biegen die Daten, wenn sie dies nicht tun, notfalls zurecht.

Sogar auf die Messwerte des landesweiten Netzes von Wetterstationen, die seit 1864 sorgfältig dokumentiert sind, können wir uns nicht blind verlassen. Denn die Umstände haben sich gewandelt: andere Messinstrumente, andere Umgebungsverhältnisse, manchmal gar ein anderer Standort. Die Meteorologen des Bundes mussten die Daten deshalb immer wieder korrigieren, in der Fachsprache: homogenisieren. Zuletzt taten sie es 2003 – mit einem spektakulären Resultat.

Die Temperaturkurven zeigten jetzt, wie nie zuvor, die «unnatürlich» schnelle Erwärmung seit den achtziger Jahren, vor der die Klimaforscher warnen. Die Temperaturen seit 1864 stiegen nach der Korrektur in Zürich statt um 0,7 um 1,6 Grad Celsius, auf dem Chaumont statt um 0,7 um 1,7 Grad und in Château-d’Œx statt um 1,2 um 2,0 Grad. Und Sion, das seit dem 19. Jahrhundert kaum eine Erwärmung mass, fiel jetzt mit einem Anstieg um 2 Grad Celsius auf. So kamen die Meteorologen auf eine mittlere Zunahme der Temperatur im 20. Jahrhundert um rund 1,2 Grad. Sie räumten in ihrer Studie jedoch selber ein, der Anstieg «würde bei der Verwendung von Originalwerten im Mittel nur etwa halb so gross ausfallen».

Eine Erwärmung um 0,6 Grad wäre aber die Aufregung nicht wert, sondern ein Segen: Die Meteorologische Zentralanstalt der Eidgenossenschaft baute ihr Messnetz 1863 auf – drei Jahre nach dem Ende der «ausgeprägtesten Kaltperiode seit 1520», wie der Klimahistoriker Christian Pfister diese unwirtliche Zeit nannte. Der Verdacht drängt sich deshalb auf, dass die Forscher bei ihren Eingriffen nachhalfen, weil sie eine unnatürlich schnelle Erwärmung in den letzten Jahrzehnten sehen wollten.

Er lässt sich begründen, denn in den letzten Jahren flogen immer wieder Skandale auf. So sorgten die australischen Meteorologen bei einer Temperaturreihe mit ihren «Anpassungen» dafür, dass statt einer Abkühlung von 1 Grad pro Jahrhundert eine Erwärmung von 2,3 Grad herauskam. Und so feierte das Nasa-Institut GISS 2014 globale Rekordwerte, weil es unter anderem den Trend der Messwerte von abgelegenen Messstationen in Lateinamerika gedreht hatte. Der britische Wissenschaftsjournalist Christopher Booker hält das Manipulieren der Temperaturdaten deshalb für «the biggest science scandal ever» (den grössten je erlebten Wissenschaftsskandal).

Die Frage stellt sich deshalb: Waren die Korrekturen an den Originaldaten korrekt? Ein Blick auf die Grafik mit den «Homogenisierungsbeiträgen», also den aggregierten Änderungen an den Daten, schürt den Verdacht weiter: Mit ihren Eingriffen senkten die Meteorologen die Werte vor 1978 um 0,4 bis 0,8 Grad; erst dies führte dazu, dass die Temperaturkurve in den achtziger Jahren eine Erwärmung zeigte. Der Graph sieht so aus, wie sich der Weltklimarat (IPCC) die Temperaturentwicklung seit dem 19. Jahrhundert vorstellt – allerdings zeigt er nicht den Verlauf der tatsächlich gemessenen Werte, sondern die Änderungen daran.

Das Senken der Temperaturen vor 1978 lässt sich gemäss Meteo Schweiz damit erklären, dass die Meteorologen damals ihr Messnetz von konventionellen auf automatisierte Wetterstationen umstellten: Die neuen Thermometer massen leicht tiefere Werte. Allerdings stellte der deutsche Meteorologe Klaus Hager bei Parallelmessungen fest, dass die elektronischen Geräte höhere Temperaturen anzeigten; die Werte vor 1978 hätten also nicht gesenkt, sondern angehoben werden müssen. So wäre von der Erwärmung nichts geblieben. Die Debatte um seine brisanten Erkenntnisse schloss der Deutsche Wetterdienst mit einer Stellungnahme ab, die festhielt: «Bei der Messung der Lufttemperatur sind die Differenzen der Terminwerte in den meisten Fällen so gering, dass die Homogenität einer Messreihe beim Wechsel des Messverfahrens nicht gestört wird.»

Schraubten die Schweizer Meteorologen also zu Unrecht an ihren Kurven herum? Meteo Schweiz wehrt sich, der Deutsche Wetterdienst verwende andere Instrumente, seine Feststellungen liessen also keine Schlüsse auf die Unterschiede von konventionellen und automatisierten Messungen in der Schweiz zu. Zu diesen Unterschieden forschten allerdings Meteorologen in Bundesdiensten schon früher, gerade weil sie klären wollten, ob sich die Temperaturreihen nach der Umstellung der Stationen weiterführen liessen: Gerhard Müller (bereits 1984) und Othmar Gisler (1992)kamen zum Schluss, es gebe dabei kein Problem, weil sich die gemessenen Temperaturen kaum unterschieden – jedenfalls nicht so, dass die Umstellung eine generelle Korrektur rechtfertigen würde.

Erklärungsbedürftig bleiben auch die extremen Änderungen auf dem Chaumont und in Château-d’Œx, denn dort massen die Meteorologen die ganze Zeit mit konventionellen Wetterhütten. «Grund für die relevanten Inhomogenitäten sind Stationsverschiebungen», behauptet Meteo Schweiz auf Nachfrage. Tatsächlich wurde die Station auf dem Chaumont sechsmal verschoben, jene in Château-d’Œx gar zehnmal. Auf dem Chaumont betrug die grösste Distanz zwischen zwei Standorten aber drei Kilometer entlang des Bergrückens, sie waren also auf derselben Höhe; bei Château-d’Œx hält die Studie von 2003 selber fest, dass sich die zehn Standorte «bezüglich ihrer Lage nur geringfügig unterschieden». Es gab also keine Rechtfertigung, die Daten jeweils zu korrigieren – schon gar nicht zu einer in der Summe so massiven Differenz.

Der krasseste Fall

Mysteriös mutet auch der krasseste Fall an: Sion, wo die Homogenisierer aus einem kaum messbaren Anstieg um 0,2 Grad seit 1864 eine gefährliche Erwärmung von 2,0 Grad machten. Meteo Schweiz erklärt dies damit, dass es mehrere Hüttenwechsel und Stationsverschiebungen gegeben habe. Die Studie von 2003 hält allerdings fest, dass die Station von 1873 bis 1977 beim Kapuzinerkloster (542 m ü. M.) stand, und sie weiss nichts von einem Wechsel des Hüttentyps. Ab 1978 stand die automatisierte Station beim Flughafen im Talboden (483 m ü. M.); dort herrschen gemäss den Meteorologen tiefere Temperaturen als beim sechzig Meter höher gelegenen Kloster.

In den Publikationen von Meteo Schweiz findet sich jedoch eine Dissertation, die nur sechs Jahre vor der Studie von 2003 erschien. Mathias Baudenbacher wollte damit, in einem Programm des Nationalfonds, eine «allgemeine technische Anleitung zur Bereinigung und Homogenisierung langer Temperaturmessreihen in der Schweiz» liefern. Als Beispiel bearbeitete er auch die Daten von Sion, und er fand dabei keine Erwärmung: Auf seinen Grafiken ist nicht zu erkennen, dass die Temperaturen seit dem 19. Jahrhundert stiegen – sondern dass sie vor den Eingriffen der Homogenisierer zeitweise sogar höher lagen als nach der schnellen Erwärmung ab 1980.

Fazit :

Die Frage, ob Meteo Schweiz die Temperaturdaten korrekt bearbeitete, lässt sich nicht klar beantworten; sie ruft – angesichts ihrer Relevanz für die Klimadebatte – nach einer unabhängigen Untersuchung.

Gewiss ist nur : Die unnatürliche Erwärmung seit 1980 ist tatsächlich menschengemacht.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

  |  Sonderheft „Klimawandel für die Schule“, (11.07.2019) ;  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Warnte Hans Rosling vergebens?

Verlegt in vielen Sprachen, auch in Deutsch bei Ullstein 2018 , erhielt sein Buch enthusiastische Zustimmung. Lieferte es doch ein durchweg optimistisches, und trotzdem ungeschönt realistisches Weltbild aus statistisch gesicherten Belegen. Es ist ein wertvolles, weil aufklärendes Buch gegen eine medial verzerrte alarmistische Weltsicht. Es liest sich gut. Es bildet. Es erheitert. Wer es kürzer braucht, schaue in die informative Rezension von Kip Hansen unter:

https://www.eike-klima-energie.eu/2018/11/17/factfulness-eine-buchrezension/

Mahnte Rosling vergebens vor Panikmache? Ja, wenn man die globale Pandemie erkennt, die gerade auch von  schwedischen Eliten angezettelt, die Welt  infiziert. Sie trägt den Namen eines psychisch erkrankten skandinavischen Kindes „Greta Thunberg“.

Hans Rosling, der Professor für Internationale Gesundheit am schwedischen Karolinska-Institut, Arzt und erfahrener Bekämpfer von Infektionskrankheiten, ist leider zu früh verstorben, um gegen das Panikorchester seines Landsmädchens eingreifen zu können. Tun wir es, indem wir seine Mahnungen auffrischen. Er schreibt in „Urgency instinct“ salopp „ Panikmache“

  • tritt ein Problem auf, ist es das Erste eben nicht zu rufen „Der Wolf kommt“, sondern die Sachlage zu prüfen. Es geht nur im akuten Notfall um „Jetzt oder Nie“
  • Bestehe auf validen und detaillierten Daten. Wenn irgendetwas wichtig und dringlich ist, muss dazu auch eine Datengrundlage bestehen. Sei vorsichtig, wenn Daten relevant, aber ungenau sind, oder umgedreht. Es braucht beides!
  • Hüte Dich vor Horror-Darstellungen! Jede Vorhersage ist unsicher. Fordere Szenarien, wenn es „alternativlos“ heißt! Kommentar: Rosling forderte von Al Gore die Darstellung aller Klimaszenarien, was dieser mit seinem Motto: „ Wir müssen Furcht erzeugen“ verweigerte
  • Hüte Dich vor drastischen Aktionen! Frage nach deren Nebenwirkungen! Frage nach Erfahrungen damit!
  • Strebe ein stufenweises Herangehen mit parallelem Monitoring an!

Um Rosling nicht komplett zu vereinnahmen: er glaubt an den  menschengemachten Klimawandel in Form der AGW-Hypothese. Aber er ist als erfahrener Arzt klug genug, um zu erkennen, ob die Diagnose tragfähig ist.

„Unser Problem ist, dass wir nicht wissen, was wir nicht wissen, und selbst unsere Vermutungen basieren auf ungewissen und vorhersehbaren Verzerrungen.“

„Was ich für besonders bedenklich halte, ist der Versuch mit der Erfindung des Klimaflüchtlings Aufmerksamkeit zu erzeugen….Die Klimaaktivisten sind inzwischen leider überzeugt, dass der Zweck die Mittel heiligt, aber wer zu oft ruft“ der Wolf kommt“ setzt seine Glaubwürdigkeit und seinen Ruf als seriöser Klimaforscher aufs Spiel.

Die Rolle des Klimawandels zu überzeichnen und ihn mit Kriegen  und Konflikten , mit Armut und Migration in Zusammenhang zu bringen bedeutet auch, andere wichtige Ursachen dieser globalen Problematik zu ignorieren und unsere Fähigkeiten, diesen zu  begegnen, zu schwächen.

Wir dürfen nicht in eine Situation geraden, in der wir einander nicht mehr zuhören. ….

Wer sich seriös mit dem Klimawandel  befassen will, muss immer zwei Dinge im Kopf behalten. Man darf nie zum Opfer der eigenen frustrierten und alarmierenden Botschaften werden . Man darf einerseits die Augen  vor den Worst-Case-Szenarien nicht verschließen, muss aber andererseits auch um die Unsicherheiten der Datenlage wissen. Und wer anderen Dampf machen will, muss trotzdem eine kühlen Kopf behalten, um kluge Entscheidungentreffen zu können und seine Glaubwürdigkeit nicht aufs Spiel zu setzen…

Der Klimawandel ist dafür zu wichtig. Er verlangt systematische Analyse, gut durchdachte Entscheidungen , abgestufte Aktionen und sorgfältige Bewertungen.

Mit einem Wort: Vernunft.

 




Solar und Batteriestrom so günstig wie noch nie – es sei denn, Sie rechnen nach

Die Kurzfassung: Ohne Subventionen und ohne Verlustabschreibungen funktioniert das Ganze nicht – also nicht ohne dem Strombezieher anderweitig in die Tasche zu greifen. Zusätzlich ist zu wissen, in USA werden Stromanteile im Strommix vorgeschrieben, Strom aus Erneuerbaren Energien wird in „Abnahme- / Liefermenge“ vertraglich geregelt. Wo die MWh dann bei fehlendem Grünstrom letztendlich tatsächlich generiert werden, interessiert nicht, wenn es sich bei dem Vertragspartner (~Zwischenhändler) um einen „grünen Stromanbieter“ handelt.

****

Gastbeitrag von David Middleton

Der neue Solar- und Batteriepreis zermalmt fossile Brennstoffe und begräbt die Kernenergie

Jeff McMahon Mitherausgeber, Grüne Technik,

Aus Chicago schreibe ich über Klimawandel, grüne Technologie und Energie.

Die Verantwortlichen für Energie und Wasser in Los Angeles, haben einen Vertrag über das größte und billigste Solar- und Batteriespeicherprojekt der Welt abgeschlossen, zu Preisen, die fossile Brennstoffe im Staub belassen und möglicherweise die Kernenergie in den Mülleimer verlagern.

Noch für diesem Monat wird erwartet, dass der Aufsichtsrat der Los Angeles Wasser- und Energiewerke einen 25-Jahres-Vertrag genehmigt, der 7 Prozent des Strombedarfs der Stadt mit 1,997 ¢ / kWh für Solarenergie und 1,3 ¢ für Batteriestrom abdeckt.

„Dies ist der niedrigste Preis für Strom aus Solar- / Photovoltaik in den USA“, sagte James Barner, Manager der Agentur für strategische Initiativen. „Es ist das größte und kostengünstigste Solar- und Hochleistungs-Batteriespeicherprojekt in den USA und wir glauben an die Welt von heute. Ich glaube, das ist wirklich revolutionär in der Branche. “

Es ist die die Hälfte der geschätzten Stromkosten einer neuen Erdgasanlage .

Mark Z. Jacobson, Stanford-Professor…

[…]

Forbes

An dieser Stelle hörte ich auf, obigen Forbes- Artikel zu lesen.

Kohle und Gas unter Druck, da großes US-amerikanisches Solar- und Batteriegeschäft den Markt verblüfft

Renew Economy [einschlägige Webseite aus Australien], Autor Sophie Vorrath 3. Juli 2019

Ein Kaufvertrag für Solar- und Batteriespeicherstrom in Kalifornien setzt neue Maßstäbe für die Kosten von Solarstrom – 1,99 c / kWh für 400 MW PV (Solar) und 1,3 c / kWh für gespeicherten Solarstrom von 400 MW / 800MWh Batteriespeichersystem in gleicher Region.

Der Rekordvertrag, den die Verantwortlichen für Energie und Wasser in Los Angeles (LADWP) mit „8minute“, einem Anbieter von Erneuerbaren Solarstrom abgeschlossen hat, soll einen zweistufigen Vertrag mit einer Laufzeit von 25 Jahren abschließen, um 7 Prozent des Strombedarfs von LA zu decken.

Das Projekt mit dem Namen Eland Solar and Storage Cente, das im Kern County nördlich von Los Angeles realisiert wird, in zwei Schritten a‘ 200-MW. Optional können weitere 50 MW / 200 MWh Energiespeicher für 0,665 Cent pro kWh mehr hinzugefügt werden.

[…]

„Dies ist der niedrigste Preis für Strom aus Solar-Photovoltaik in den USA und das größte und kostengünstigste Hochleistungs-Batteriespeicherprojekt in den USA. Wir glauben an die heutige Welt“, sagte der Leiter der LADWP für strategische Initiativen, James Barner. „Ich glaube, das ist wirklich revolutionär in der Branche.“

Barner hat auch festgestellt, dass das Projekt in der Lage ist, eine „erhebliche“ Steuergutschrift für Solarinvestitionen des Bundes „voll auszuschöpfen“, die sich auf rund 30 Prozent belief und „im Grunde genommen die Kapitalkosten des Projekts senkte“.

 […]

Dieses Projekt wäre ohne die Investitionssteuergutschrift (ITC) nicht realisierbar. 30% der Investition auf Kosten des Steuerzahlers zu bekommen, ist hier ein wichtiger Faktor. Steuergutschriften sind nicht dasselbe wie Steuerabzüge. Die ITC [für Erneuerbare] sollen in den nächsten Jahren zurückgefahren werden.

Es gibt auch einige Verwirrung über den Stromabnahmevertrag.

Los Angeles strebt Rekordpreis für Solarstrom unter 2 ¢ / kWh an. Die Stadtwerke haben einen 25-jährigen Strombezugsvertrag für 400 MWac Solarstrom bei 1,997 ¢ / kWh und 200 MW / 800 MWh Energiespeicher bei 1,3 ¢ vor / kWh.

  1. JUNI 2019 JOHN WEAVER

[…]

Das Team teilte den Kommissaren mit, dass sie am 23. Juli die Genehmigung eines zweiphasigen 25-Jahres-Strombezugsvertrags (PPA) mit einem Preis von 1,997 ¢ / kWh für 400 MWac / 530 MWdc Solarstrom, der zum Zeitpunkt der Erzeugung zuzüglich gespeicherten Solarstrom zu 1,3 ¢ / kWh für den überschüssigen Strom, der später aus einem gemeinsam installierten Energiespeichersystem mit 400 MW / 800 MWh geliefert wird.

Quelle PV Magazine

Die grünen Cheerleader gehen davon aus, dass der direkt durch Sonnenenergie erzeugte Strom für 1,997 ¢ / kWh und der im Batteriesystem gespeicherte Strom als separates Produkt für 1,3 ¢ / kWh verkauft wird. Aus dem Kommentarbereich des PV Magazine-Artikels:

NickM
28. Juni 2019 um 11:00 Uhr.
Wäre die Batterieleistung nicht zusätzlich 1,3 Cent / kWh, also insgesamt ~ 3,3 Cent? Ansonsten wird die gespeicherte Energie für weniger als der direkt erzeugte Sonnenstrom verkauft – das klingt merkwürdig.

John Weaver
28. Juni 2019 um 11:03 Uhr
Separates Produkt, wird also nicht hinzugefügt

[ein dritter schreibt: ~überschüssiger Strom ins Netz gespeist ist einfach weg, daher kostet der auch nichts extra…]

[…]

PV Magazine

 

Die Mathematik eines „separaten Produkts, also nicht darüber hinzugefügt“ funktioniert einfach nicht.

Ich konnte keine Zahlen für den Bau dieses Kraftwerks finden. Es scheint, dass sie heutzutage selten veröffentlicht werden. Alles, was jemals angekündigt wurde, sind lächerlich niedrige Preise in Stromabnahmeverträgen.

Wenn wir davon ausgehen, dass sie die Installationskosten auf 1 USD / W senken und einen Kapazitätsfaktor von 33% schaffen, wie die nahe gelegene Springbok 1-Anlage , würde die 200 MW Eland Phase 1-Solaranlage 200 Mio. USD kosten. Nach der neuesten Schätzung von NREL zu den Batteriespeicherkosten würde ein System mit 100 MW, das 4 Stunden liefern kann [also 400MWh] einen Umsatz von ca. 132 Mio. USD (bei 93 Mio. USD Investionssteuergutschrift ITC) erbringen. Sie würden Geld für den Verkauf von batteriegepeichertem Strom mit 1,3 t / kWh verlieren.

Solar mit Steuergutschrift.

Batterie mit Steuergutschrift

Solar + Batterie mit Steuergutschrift

Zusammen ergibt sich für das Projekt über einen Zeitraum von 25 Jahren ein einfacher ROI [Return of Investment] von 144% bei einer Auszahlung von 17 Jahren. Dies schließt jedoch die Betriebs- und Wartungskosten sowie den Austausch der Batteriezellen nicht ein. Kein vernünftiges Geschäft würde ein solches Risiko eingehen. Sie könnten mit 30-jährigen Staatsanleihen einen ROI von 190% erzielen, praktisch ohne Risiko. Das verlustreiche Hinzufügen des Akkus macht keinen Sinn. Wenn dies die tatsächliche Preisstruktur wäre, würde der Nettopreis mit mehr Batteriespeicher sinken … Dies trotzt einfach der Glaubwürdigkeit.

Das Projekt beinhaltet die Option, 50 MW / 200 MWh Energiespeicher für einen zusätzlichen Preis von 0,665 ¢ / kWh hinzuzufügen.

PV Magazine

 

Wenn sich die Batteriekosten zum Grundpreis addieren, wäre das Projekt mit dem Batteriespeichersystem rentabler als ohne. Eine Erhöhung des Batteriespeichers würde den Nettopreis pro kW / h erhöhen und die Projektökonomie verbessern, anstatt sie zu verschlechtern.

Solar Phase 1 + 100MW BESS/4-hr –> 3.297¢/kWh.

100MW/4hr Batteriespeicher mit Steuergutschrift.

Solar Phase 1 + 150MW BESS/6-hr –> 3.962¢/kWh.

150MW/6hr Batteriespeicher mit Steuergutschrift.

Übersicht mit Subventions-Steuer-Gutschrift ITC

Diese Preise sind zwar mit erdgasbetriebenen Kombikraftwerken „konkurrenzfähig“, jedoch völlig von Subventionen abhängig. Selbst dann sind die Renditen marginal. Ein Rabatt von 7% würde sogar das Solar + 150MW BESS / 6hr-Projekt zum Erliegen bringen. Es muss einen anderen Blickwinkel geben.

 

Der andere Blickwinkel

Wie setzen Projektentwickler die Steuergutschriften ein?

Viele Projektentwickler haben nicht genügend zu versteuerndes Einkommen, um die Steuergutschriften voll auszunutzen. Anstatt sie zur Senkung ihrer eigenen Steuern zu verwenden, sichern sie sich damit Investitionsgelder von Steuerbeteiligungsinvestoren (in der Regel große Finanzinstitute und gelegentlich vermögende Privatpersonen). Steuerliche Eigenkapitalinvestoren stellen dem Bauträger eine Finanzierung im Austausch für einen Anteil [am Wert] des Projekts zur Verfügung. Dies ermöglicht es den Anlegern, Steuergutschriften für jeden investierten Dollar zu erhalten (Reduzierung der zukünftigen Steuerschuld) UND eine Rendite für ihre Investition vom Bauträger zu erhalten.

Typischerweise werden alle Einnahmen in den ersten fünf Jahren des Projektlebens für die Rückzahlung von Steuerbeteiligungen verwendet, bis sie ihre Rendite erreicht haben. Zu diesem Zeitpunkt kauft der Bauträger den Anteil des Investors am Projekt auf. Steuerliche Eigenkapitalinvestitionen sind bedeutend: Laut  Greentech Media entfallen 40 bis 50 Prozent der Finanzierung auf Solarprojekte und 50 bis 60 Prozent auf Windprojekte. Der Rest des Projektkapitals stammt von Eigenkapital- und Fremdkapitalgebern.

 

Level 10 Energy Blog

Selbst wenn das Solarstromprojekt unrentabel ist und keine oder nur eine geringe Steuerschuld des Bundes hat, kann der ITC effektiv an Anleger verkauft werden, die die Steuergutschrift in vollem Umfang nutzen können.

Streichen Sie die Steuergutschrift und das ist ein Verlustgeschäft

Barner hat auch festgestellt, dass das Projekt in der Lage war, eine „erhebliche“ Steuergutschrift für Solarinvestitionen des Bundes „voll auszuschöpfen“, die sich auf rund 30 Prozent belief und „im Grunde genommen die Kapitalkosten des Projekts senkte“.

Renew Economy

Tabelle ohne Steuergutschrift ITC

Eine Discounted-Cashflow-Analyse [… discounted = ~zusätzlicher Rabatt?] würde dieses Projekt sofort zum Erliegen bringen, wenn nicht die Investitionssteuergutschrift (ITC) helfen würde. Ohne die ITC könnten sie keine solchen Low-Ball-PPAs bieten, und es wäre viel schwieriger, sich die Finanzierung zu sichern. [PPA Purchase Price Allocation]

Wie wirkt sich das Auslaufen von Steuergutschriften für erneuerbare Energien auf die Preise aus?

Ohne Steuergutschriften müssen sich die Bauträger an teurere Finanzierungsquellen wenden, um ihr Projekt zu realisieren, was zu einem Preisanstieg führen könnte. Darüber hinaus können sie die Preise aufgrund von Produktionssteuergutschriften PTC [… für „Erneuerbare“] nicht senken.

In vielen Fällen sind Steuergutschriften die treibende Kraft dafür, dass erneuerbare Energien billiger wurden als Kohle. Es bleibt abzuwarten, ob sich das Auslaufen von ITC und PTC dramatisch auf die Preise für erneuerbare Energien auswirken wird. Während es wahrscheinlich ist, dass die Preise steigen werden, gibt es mehrere Faktoren, die ihren Anstieg abschwächen könnten:

Geringere Kosten: Durch technologische Fortschritte konnten die Kosten für den Bau von Windkraftanlagen, Photovoltaikzellen und anderen wichtigen Komponenten für Projekte im Bereich erneuerbare Energien gesenkt werden. Darüber hinaus könnten die Ausrüstungskosten sinken, wenn die Zölle für Solarprodukte und Stahl abgeschafft werden.

Erhöhte Nachfrage: Die Unternehmensnachfrage nach erneuerbaren Energien und Standards für erneuerbare Stromerzeugung für Stadt- und Landesregierungen erhöhen die Anzahl der Käufer auf dem Markt und die Gesamtnachfrage nach sauberer Energie [aufgrund gesetzlicher bestimmter Zwangsanteile im Strommix]. Darüber hinaus könnten politische Änderungen wie eine Kohlenstoffsteuer oder die Verabschiedung des Green New Deal die Nachfrage erhöhen.

Level 10 Energy [Blog für Erneuerbare]

Realität

Der größte Teil der USA eignet sich nicht so gut für Solar oder PV Anlagen wie die Mojave-Wüste. Abgesehen von Staaten mit Pipeline-Phobie und Hawaii, liefert Erdgas fast überall zuverlässige Energie … Selbst nachts und an bewölkten Tagen.

Während Wind und Sonne in einigen Bereichen wettbewerbsfähig sein könnten…

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

Unabhängig davon, wie niedrig der LCOE-Wert ist, hängen Wind und Sonne immer von der Stärke des Windes und des Sonnenscheins ab. Hinweis: Die EIA-LCOE-Zahlen enthalten keine Speicherung oder Back-up Kraftwerke und gehen von einem Anstieg der Erdgaspreise zwischen 2023 und 2040 aus.

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

[Aus vorstehendem Link: Nivellierte Stromkosten

Die Stromniveaukosten (LCOE) geben die durchschnittlichen Einnahmen pro erzeugter Energieeinheit [Strom in MWh] an, die erforderlich sind (.. wären), um die Kosten für den Bau und den Betrieb eines Kraftwerks, während eines angenommenen finanziellen- und Betriebszeitraums zu decken. ..]

Und wenn die Reduzierung der CO2-Emissionen wirklich so wichtig wäre …

Netto Kosten und Vorteile pro Jahr per MW mit Grundlastabdeckung durch Kohlekraftwerke. Nuclear und Gas bringen große Vorteile, Wind ist ausgeglichen und Solar ist ein Verlierer [Zusatzkosten wegen unzuverlässigen Stromproduktion.]

Real Clear Energy.

[… Wind und Sonne benötigen unter Berücksichtigung der Unstetigkeit irgendwo am Netz Subventionen oder versteckte back-up – standby Stromquellen, während sich Wasser, Wind und Erdgas amortisieren und wirtschaftliche Vorteile schaffen. Kernkraft ist die große Überraschung, da es die höchsten Baukosten hat, die es normalerweise am teuersten erscheinen lassen. Aufgrund seines außergewöhnlichen Kapazitätsfaktors – Reaktoren laufen in mehr als 90 Prozent der Zeit – erfordert seine extreme Zuverlässigkeit kein Backup und senkt die Kosten für das Netz. Erdgas [-kraftwerke] kann sogar noch besser sein, vor allem, weil es am geeigneten ist, schnell auf Schwankungen der Stromerzeugung zu reagieren (Sonne oder Wind).]

Obwohl die Kosten für Wind und Sonne seit Veröffentlichung dieser Grafik im Jahr 2014 gesunken sind, hat sich nichts geändert: Kernkraft- und Erdgas können Kohle 1 : 1 direkt ersetzen. Wind und Sonne werden das niemals können. Dies setzt voraus, dass Kohle überhaupt ersetzt werden soll.

 

Aber, aber, aber … Was ist mit Subventionen für fossile Brennstoffe?

Was ist mit denen?

Direkte finanzielle Interventionen und Subventionen des Bundes für Energie im Geschäftsjahr 2016

 

Wie der Gipper sagen würde …

[u.a. Spitzname für Ronald Reagan, auch Anfeuerungsruf für ein Spielerteam, das letzte zu geben, um einen Punkt zu machen]

Der Blick der Regierenden auf die Wirtschaft kann in kurzen Phrasen zusammengefasst werden:
Wenn es läuft, besteure es; Wenn es weiter läuft, reguliere es; und wenn es aufhört zu laufen, subventioniere es.

Gefunden auf WUWT vom 15.07.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/15/new-solar-battery-price-crushes-fossil-fuels-buries-nuclear-until-you-do-the-math/