Was Sie schon immer über CO2 wissen wollten: Teil 3 – der globale CO2-Kreislauf

Teil 2 befasste sich mit dem Konzentrationsverlauf von CO2 in der Atmosphäre. Zumindest zwischen einer Million Jahre zurück bis zum Beginn der Industrialisierung um 1850 folgte der armosphärische CO2-Gehalt den Ozeantemperaturen (SST). Die maximale CO2-Konzentrationsspanne zwischen dem Temperaturhöhepunkt eines Zwischenglazials und dem Temperaturtiefpunkt einer Eiszeit betrug grob 100 ppm (Bild 2 in Teil 2). Seit Ende der jüngsten Eiszeit betrugen dann die CO2-Schwankungen, entsprechend den geringen SST-Schwankungen, nur noch wenige ppm (Bild 2 ganz rechts). Erst die anthropogenen CO2-Emissionen haben dieses Gleichgewicht verschoben (s. Bild 1 in Teil 1). Im Folgenden geht es um die Folgen dieser Verschiebung für den globalen CO2-Kreislauf, dessen Quellen und Senken die drei Hauptakteure „Atmosphäre, „Ozeane“ und „Biospäre“ sind. Die Einzelheiten des globalen CO2-Kreislaus sind zwar beliebig komplex, dennoch stellt sich heraus, dass seine groben Züge recht gut mit einfachen physikalischen Modellen erfassbar sind.

Beginnen wir mit einer unzutreffenden Angstvorstellung, wie sie immer wieder nicht nur von den Medien, sondern sogar von Fachwissenschaftlern geschildert wird, die es in Wirklichkeit besser wissen: Weitere Kohleverbrennung der Menschheit würde den CO2-Gehalt der Atmosphäre generell immer weiter erhöhen. Das ist falsch. Die Schlüsselrolle beim CO2-Kreislauf spielen nämlich die Ozeane, die knapp die vierzigfache Menge der Atmosphäre an frei gelöstem CO2 enthalten [1]. Zwischen Ozeanen und Atmosphäre fand vor der Industrialisierung laufend ein in etwa gleichgewichtiger CO2-Austausch statt, wobei die Verweilzeit eines CO2-Moleküls in der Luft nur wenige Jahre beträgt. Dieses Gleichgewicht wurde durch die menschgemachten CO2-Emissionen immer stärker in Richtung ansteigender CO2-Konzentration der Atmosphäre verschoben.

Die Konsequenz dieses Anstiegs ist ein ansteigender CO2-Partialdruck in der Luft im Vergleich mit dem CO2-Partialdruck der Ozeane. Der CO2-Partialdruck der Ozeane bleibt nämlich konstant, denn die Ozeane enthalten, frei gelöst, etwa die vierzigfache Menge des in der Atmosphäre enthaltenen CO2. Die Ozeane „spüren“ das menschgemachte CO2 nicht, es ist für sie vernachlässigbar. Der stetig ansteigende CO2-Partialdruck der Luft drückt aber immer mehr CO2 in die Ozeane und das Pflanzenwachstum. Zu Beginn der Industrialisierung, als die CO2-Partialdrücke von Luft und Ozeanen noch im Gleichgewicht standen, wurden die ersten anthropogenen CO2-Emissionen ausschließlich von der Luft aufgenommen. Heute hat sich diese Situation grundlegend geändert. Von jeder Tonne anthropogenem CO2 verbleiben nur noch eine halbe Tonne in der Atmosphäre, eine viertel Tonne geht bereits in die Ozeane und das restliche Viertel wird von den Pflanzen aufgenommen (Bild 1).

Bild 1: Schematische, vereinfachte Darstellung der Quellen und Senken des globalen CO2-Kreislaufs zu Beginn der Industrialisierung A) verglichen mit heute B).

Die aus Bild 1 hervorgehende Entwicklung verschiebt sich mit weiter zunehmenden anthropogenen CO2-Emissionen hin zu einer immer stärkeren CO2-Senke „Ozeane“ und einer immer schwächeren CO2-Senke „Atmosphäre“. Die sich in dieser Richtung ändernden Werte des globalen CO2-Kreislaufs, d.h. die Quellen und Senken über die letzten Jahrzehnte werden seit wenigen Jahrzehnten vom Carbon Dioxide Information Analysis Center (CDIAC) akribisch gemessen und dokumentiert [2].

Was bedeutet nun die immer höhere CO2-Aufnahme von Ozeanen und Pflanzen konkret für die zukünftige CO2-Konzentration der Atmosphäre? Die Antwort: Um den CO2-Gehalt der Luft weiter zu erhöhen, müssen die CO2-Emissionen der Menschheit ebenfalls immer weiter erhöht werden! Würde die Menschheit ihre CO2-Emissionen dagegen einmal (hypothetisch) konstant halten, würde der CO2-Gehalt der Atmosphäre nach einer Einschwingzeit von mehreren Jahrzehnten ebenfalls konstant bleiben. Wohlgemerkt konstant, obwohl weiter anthropogenes CO2 erzeugt wird. Es stellt sich ein Gleichgewichtszustand ein, in welchem bei einem gleichbleibenden anthropogenen „CO2-Nachschub“ die gleichbleibende CO2-Partialdruckdifferenz zwischen Luft und Ozean für einen ebenfalls gleichbleibenden Zustrom von CO2 in die Ozeane sorgt. Dieser Zustand ändert sich auch nicht, denn die Ozeane können praktisch beliebig viel CO2 aufnehmen, ohne dass sich ihr CO2-Partialdruck verändert. Dies nicht nur ihrer riesigen Menge an gelöstem CO2 wegen, sondern weil das Kohlendioxid von Meereslebewesen zum Aufbau ihrer Kalkskelette verbraucht wird, zum Meeresboden absinkt und damit dem CO2-Kreislauf für immer entzogen wird.

Die hier in groben Zügen geschilderten Zusammenhänge sind in der Fachliteratur in detaillierter Beschreibung aufzufinden, wie zum Beispiel in [3] und weiteren Zitierungen in dieser Arbeit. Weil zum CO2-Kreislauf auch der Autor mit begutachteten Fachveröffentlichungen beteiligt war [4], seien einige weiteren Anmerkungen erlaubt. Die Messbasis aller Publikationen wird, wie bereits erwähnt, vom Carbon Dioxid Information Analysis Center (CDIAC) zur Verfügung gestellt in Form von EXCEL-Tabellen [5]. In ihnen sind ab dem Jahre 1959, mit Angabe der Fehlerbreiten, die folgenden fünf jährlichen Werte angegeben für: fossil fuel and cement emissions, land use change, atmospheric growth, ocean sink und land sink. Alle Fachpublikationen verwenden unterschiedliche Modelle und testen ihre Modellparameter am gemessenen CO2-Verlauf der Atmosphäre: Dies hat allerdings den Nachteil, dass mit dieser einzigen Messbasis (CO2-Anstieg) keine Unterscheidung möglich ist, welches Modell am besten die Realität wiedergibt. Die einzige Ausnahme davon macht die Publikation des Autors mit Koautoren [4], in welchem die hier zwei Modellparameter zusätzlich zum atmosphärischen CO2-Gehalt auch noch aus den gemessenen ocean-sink- und land sink-Daten von CDIAC ermittelt werden.

Ein Vergleich nur mit dem CO2-Anstieg der Atmosphäre erlaubt dagegen sogar Modelle, welche den rezenten CO2-Anstieg allein auf Ozeantemperatur-Werte (SST) zurückführen, siehe [6] und weitere Zitierungen in dieser Arbeit. Ob diese Modelle realistisch sind, kann nur die begutachtete Fachdiskussion entscheiden. Dennoch seien die am meisten ins Auge springenden Caveats zumindest erwähnt:

Wären die „SST-Modelle“ zutreffend, müssten sich in den Warmzeiten der letzten 10.000 Jahre, also in den beiden extrem warmen Holozän-Temperaturmaxima sowie dem römischen und mittelalterlichen Temperaturmaximum, ungewöhnliche atmosphärische CO2-Steigerungen zeigen. Solche sind aber weder in CO2-Messungen von Eisbohrkernen noch in Blatt-Stomata-Messungen auffindbar. Es erscheint ferner unwahrscheinlich, dass ausgerechnet in Zeiten von anthropogenen CO2-Emissionen der CO2-Gehalt der Atmosphäre in Schnelligkeit und Stärke auf natürliche Weise angestiegen sein soll, wie es in der letzen Million Jahre noch nie vorkam. Andere CO2-Quellen, wie Vulkanismus am Meeresboden etc., die solches natürlich ermöglicht könnten, werden zwar oft vermutet, sind aber bis heute nicht nachgewiesen.

Das für uns wichtigste Ergebnis des globalen CO2-Zyklus ist dagegen sehr leicht zu verstehen. Der CO2-Gehalt der Atmosphäre kann eine obere Grenze von etwa 800 ppm grundsätzlich niemals überschreiten, weil, wie hier beschrieben, zu immer höherem CO2-Anstieg in der Atmosphäre zwangsweise auch immer höhere(!) anthropogenen CO2-Emissionen erforderlich sind. Damit hat es aber spätestens dann ein Ende, wenn die Kohle zu teuer geworden ist oder gar alle Kohleressourcen aufgebraucht wurden. Dann haben längst Kernkraftwerke der Generation IV die Energieversorgung der Menschheit übernommen.

Es gibt daher absolut keinen Grund, einen zu großen CO2-Anstieg der Atmosphäre zu befürchten.

 

Quellen

[1] W.M. Post et al, The global carbon cycle, http://www.as.wvu.edu/biology/bio463/globalcarbon.pdf

[2] https://cdiac.ess-dive.lbl.gov/

[3] Joos et al., Carbon dioxide and climate impulse response functions .., https://www.atmos-chem-phys.net/13/2793/2013/acp-13-2793-2013.pdf

[4] W. Weber, H.-J. Lüdecke and C.O. Weiss: A simple model of the anthropogenically forced CO2 cycle, Earth System Dynamics Discussion, 6, 1-20 (2015),  http://www.earth-syst-dynam-discuss.net/6/2043/2015/esdd-6-2043-2015.pdf sowie H.-J. Lüdecke and C. O. Weiss: Simple Model for the Antropogenically Forced CO2 Cycle, Tested on Measured Quantities,  Journal of Geography, Environment and Earth Science International, 8(4), 1-12, 2016, DOI: 10.9734/JGEESI/2016/30532, http://www.sciencedomain.org/download/MTc0MzRAQHBm.pdf

[5] https://cdiac.ess-dive.lbl.gov/GCP/carbonbudget/2016/

[6] H. Harde, What Humans Contribute to Atmospheric CO2: Comparison of Carbon Cycle Models with Observations, Earth Sciences, 8(3), 139-159, 2019 (hier)




Menschengemachte Schwankungen*

Die Hitzewelle der letzten Juniwoche liess die Schweizer schwitzen, aber zumeist die Temperaturrekorde nicht fallen. Als historisch höchsten Wert in der Stadt Zürich massen die Meteorologen des Bundes, wie sie auf dem Blog von Meteo Schweiz bekanntgaben, 37,7 Grad Celsius – im Juli 1947. Damals, vier Jahrzehnte vor der angeblich menschengemachten Klimaerwärmung in den achtziger Jahren, erlebte die Schweiz einen denkwürdigen Hitzesommer, der den Rhein zum Rinnsal austrocknen und das Bauernland zur Steppe veröden liess. Doch dieser Rekord gilt für die Meteorologen nicht.

Denn bis 1949 stand die Zürcher Station der Meteorologischen Zentralanstalt bei der ETH, auf 475 m ü. M. in Zentrumsnähe; dann kam sie nach Fluntern, 80 Meter höher gelegen an den Stadtrand. Nicht nur die Höhenlage wirkt sich aber auf die Messungen aus, sondern auch die Distanz zur Stadt. Denn dort staut sich die Hitze, ein Phänomen, das die Meteorologen alsurban heat islandskennen. Kritiker führen einen Teil der gemessenen Erwärmung darauf zurück, dass in den USA oder in China Wetterstationen, die sich früher auf dem Land fanden, jetzt in Stadtzentren oder neben Flughäfen stehen. Wer zu historischen Temperaturdaten forscht, muss sie also korrigieren. Aber wie?

Immer wieder korrigieren

Schon beim Messen – der Grundlage der Klimaforschung wie in jeder Naturwissenschaft – zeigt sich, dass es keine eindeutigen, sondern nur menschengemachte Fakten gibt. Wir Menschen sehen, aufgrund der menschlichen Schwäche des confirmation bias, aber am liebsten jene Daten, die unsere Sicht bestätigen. Und wir biegen die Daten, wenn sie dies nicht tun, notfalls zurecht.

Sogar auf die Messwerte des landesweiten Netzes von Wetterstationen, die seit 1864 sorgfältig dokumentiert sind, können wir uns nicht blind verlassen. Denn die Umstände haben sich gewandelt: andere Messinstrumente, andere Umgebungsverhältnisse, manchmal gar ein anderer Standort. Die Meteorologen des Bundes mussten die Daten deshalb immer wieder korrigieren, in der Fachsprache: homogenisieren. Zuletzt taten sie es 2003 – mit einem spektakulären Resultat.

Die Temperaturkurven zeigten jetzt, wie nie zuvor, die «unnatürlich» schnelle Erwärmung seit den achtziger Jahren, vor der die Klimaforscher warnen. Die Temperaturen seit 1864 stiegen nach der Korrektur in Zürich statt um 0,7 um 1,6 Grad Celsius, auf dem Chaumont statt um 0,7 um 1,7 Grad und in Château-d’Œx statt um 1,2 um 2,0 Grad. Und Sion, das seit dem 19. Jahrhundert kaum eine Erwärmung mass, fiel jetzt mit einem Anstieg um 2 Grad Celsius auf. So kamen die Meteorologen auf eine mittlere Zunahme der Temperatur im 20. Jahrhundert um rund 1,2 Grad. Sie räumten in ihrer Studie jedoch selber ein, der Anstieg «würde bei der Verwendung von Originalwerten im Mittel nur etwa halb so gross ausfallen».

Eine Erwärmung um 0,6 Grad wäre aber die Aufregung nicht wert, sondern ein Segen: Die Meteorologische Zentralanstalt der Eidgenossenschaft baute ihr Messnetz 1863 auf – drei Jahre nach dem Ende der «ausgeprägtesten Kaltperiode seit 1520», wie der Klimahistoriker Christian Pfister diese unwirtliche Zeit nannte. Der Verdacht drängt sich deshalb auf, dass die Forscher bei ihren Eingriffen nachhalfen, weil sie eine unnatürlich schnelle Erwärmung in den letzten Jahrzehnten sehen wollten.

Er lässt sich begründen, denn in den letzten Jahren flogen immer wieder Skandale auf. So sorgten die australischen Meteorologen bei einer Temperaturreihe mit ihren «Anpassungen» dafür, dass statt einer Abkühlung von 1 Grad pro Jahrhundert eine Erwärmung von 2,3 Grad herauskam. Und so feierte das Nasa-Institut GISS 2014 globale Rekordwerte, weil es unter anderem den Trend der Messwerte von abgelegenen Messstationen in Lateinamerika gedreht hatte. Der britische Wissenschaftsjournalist Christopher Booker hält das Manipulieren der Temperaturdaten deshalb für «the biggest science scandal ever» (den grössten je erlebten Wissenschaftsskandal).

Die Frage stellt sich deshalb: Waren die Korrekturen an den Originaldaten korrekt? Ein Blick auf die Grafik mit den «Homogenisierungsbeiträgen», also den aggregierten Änderungen an den Daten, schürt den Verdacht weiter: Mit ihren Eingriffen senkten die Meteorologen die Werte vor 1978 um 0,4 bis 0,8 Grad; erst dies führte dazu, dass die Temperaturkurve in den achtziger Jahren eine Erwärmung zeigte. Der Graph sieht so aus, wie sich der Weltklimarat (IPCC) die Temperaturentwicklung seit dem 19. Jahrhundert vorstellt – allerdings zeigt er nicht den Verlauf der tatsächlich gemessenen Werte, sondern die Änderungen daran.

Das Senken der Temperaturen vor 1978 lässt sich gemäss Meteo Schweiz damit erklären, dass die Meteorologen damals ihr Messnetz von konventionellen auf automatisierte Wetterstationen umstellten: Die neuen Thermometer massen leicht tiefere Werte. Allerdings stellte der deutsche Meteorologe Klaus Hager bei Parallelmessungen fest, dass die elektronischen Geräte höhere Temperaturen anzeigten; die Werte vor 1978 hätten also nicht gesenkt, sondern angehoben werden müssen. So wäre von der Erwärmung nichts geblieben. Die Debatte um seine brisanten Erkenntnisse schloss der Deutsche Wetterdienst mit einer Stellungnahme ab, die festhielt: «Bei der Messung der Lufttemperatur sind die Differenzen der Terminwerte in den meisten Fällen so gering, dass die Homogenität einer Messreihe beim Wechsel des Messverfahrens nicht gestört wird.»

Schraubten die Schweizer Meteorologen also zu Unrecht an ihren Kurven herum? Meteo Schweiz wehrt sich, der Deutsche Wetterdienst verwende andere Instrumente, seine Feststellungen liessen also keine Schlüsse auf die Unterschiede von konventionellen und automatisierten Messungen in der Schweiz zu. Zu diesen Unterschieden forschten allerdings Meteorologen in Bundesdiensten schon früher, gerade weil sie klären wollten, ob sich die Temperaturreihen nach der Umstellung der Stationen weiterführen liessen: Gerhard Müller (bereits 1984) und Othmar Gisler (1992)kamen zum Schluss, es gebe dabei kein Problem, weil sich die gemessenen Temperaturen kaum unterschieden – jedenfalls nicht so, dass die Umstellung eine generelle Korrektur rechtfertigen würde.

Erklärungsbedürftig bleiben auch die extremen Änderungen auf dem Chaumont und in Château-d’Œx, denn dort massen die Meteorologen die ganze Zeit mit konventionellen Wetterhütten. «Grund für die relevanten Inhomogenitäten sind Stationsverschiebungen», behauptet Meteo Schweiz auf Nachfrage. Tatsächlich wurde die Station auf dem Chaumont sechsmal verschoben, jene in Château-d’Œx gar zehnmal. Auf dem Chaumont betrug die grösste Distanz zwischen zwei Standorten aber drei Kilometer entlang des Bergrückens, sie waren also auf derselben Höhe; bei Château-d’Œx hält die Studie von 2003 selber fest, dass sich die zehn Standorte «bezüglich ihrer Lage nur geringfügig unterschieden». Es gab also keine Rechtfertigung, die Daten jeweils zu korrigieren – schon gar nicht zu einer in der Summe so massiven Differenz.

Der krasseste Fall

Mysteriös mutet auch der krasseste Fall an: Sion, wo die Homogenisierer aus einem kaum messbaren Anstieg um 0,2 Grad seit 1864 eine gefährliche Erwärmung von 2,0 Grad machten. Meteo Schweiz erklärt dies damit, dass es mehrere Hüttenwechsel und Stationsverschiebungen gegeben habe. Die Studie von 2003 hält allerdings fest, dass die Station von 1873 bis 1977 beim Kapuzinerkloster (542 m ü. M.) stand, und sie weiss nichts von einem Wechsel des Hüttentyps. Ab 1978 stand die automatisierte Station beim Flughafen im Talboden (483 m ü. M.); dort herrschen gemäss den Meteorologen tiefere Temperaturen als beim sechzig Meter höher gelegenen Kloster.

In den Publikationen von Meteo Schweiz findet sich jedoch eine Dissertation, die nur sechs Jahre vor der Studie von 2003 erschien. Mathias Baudenbacher wollte damit, in einem Programm des Nationalfonds, eine «allgemeine technische Anleitung zur Bereinigung und Homogenisierung langer Temperaturmessreihen in der Schweiz» liefern. Als Beispiel bearbeitete er auch die Daten von Sion, und er fand dabei keine Erwärmung: Auf seinen Grafiken ist nicht zu erkennen, dass die Temperaturen seit dem 19. Jahrhundert stiegen – sondern dass sie vor den Eingriffen der Homogenisierer zeitweise sogar höher lagen als nach der schnellen Erwärmung ab 1980.

Fazit :

Die Frage, ob Meteo Schweiz die Temperaturdaten korrekt bearbeitete, lässt sich nicht klar beantworten; sie ruft – angesichts ihrer Relevanz für die Klimadebatte – nach einer unabhängigen Untersuchung.

Gewiss ist nur : Die unnatürliche Erwärmung seit 1980 ist tatsächlich menschengemacht.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich :  Markus Schär, „Menschgemachte Schwankungen  Sonderheft „Klimawandel für die Schule“, (11.07.2019) ;  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Warnte Hans Rosling vergebens?

Verlegt in vielen Sprachen, auch in Deutsch bei Ullstein 2018 , erhielt sein Buch enthusiastische Zustimmung. Lieferte es doch ein durchweg optimistisches, und trotzdem ungeschönt realistisches Weltbild aus statistisch gesicherten Belegen. Es ist ein wertvolles, weil aufklärendes Buch gegen eine medial verzerrte alarmistische Weltsicht. Es liest sich gut. Es bildet. Es erheitert. Wer es kürzer braucht, schaue in die informative Rezension von Kip Hansen unter:

https://www.eike-klima-energie.eu/2018/11/17/factfulness-eine-buchrezension/

Mahnte Rosling vergebens vor Panikmache? Ja, wenn man die globale Pandemie erkennt, die gerade auch von  schwedischen Eliten angezettelt, die Welt  infiziert. Sie trägt den Namen eines psychisch erkrankten skandinavischen Kindes „Greta Thunberg“.

Hans Rosling, der Professor für Internationale Gesundheit am schwedischen Karolinska-Institut, Arzt und erfahrener Bekämpfer von Infektionskrankheiten, ist leider zu früh verstorben, um gegen das Panikorchester seines Landsmädchens eingreifen zu können. Tun wir es, indem wir seine Mahnungen auffrischen. Er schreibt in „Urgency instinct“ salopp „ Panikmache“

  • tritt ein Problem auf, ist es das Erste eben nicht zu rufen „Der Wolf kommt“, sondern die Sachlage zu prüfen. Es geht nur im akuten Notfall um „Jetzt oder Nie“
  • Bestehe auf validen und detaillierten Daten. Wenn irgendetwas wichtig und dringlich ist, muss dazu auch eine Datengrundlage bestehen. Sei vorsichtig, wenn Daten relevant, aber ungenau sind, oder umgedreht. Es braucht beides!
  • Hüte Dich vor Horror-Darstellungen! Jede Vorhersage ist unsicher. Fordere Szenarien, wenn es „alternativlos“ heißt! Kommentar: Rosling forderte von Al Gore die Darstellung aller Klimaszenarien, was dieser mit seinem Motto: „ Wir müssen Furcht erzeugen“ verweigerte
  • Hüte Dich vor drastischen Aktionen! Frage nach deren Nebenwirkungen! Frage nach Erfahrungen damit!
  • Strebe ein stufenweises Herangehen mit parallelem Monitoring an!

Um Rosling nicht komplett zu vereinnahmen: er glaubt an den  menschengemachten Klimawandel in Form der AGW-Hypothese. Aber er ist als erfahrener Arzt klug genug, um zu erkennen, ob die Diagnose tragfähig ist.

„Unser Problem ist, dass wir nicht wissen, was wir nicht wissen, und selbst unsere Vermutungen basieren auf ungewissen und vorhersehbaren Verzerrungen.“

„Was ich für besonders bedenklich halte, ist der Versuch mit der Erfindung des Klimaflüchtlings Aufmerksamkeit zu erzeugen….Die Klimaaktivisten sind inzwischen leider überzeugt, dass der Zweck die Mittel heiligt, aber wer zu oft ruft“ der Wolf kommt“ setzt seine Glaubwürdigkeit und seinen Ruf als seriöser Klimaforscher aufs Spiel.

Die Rolle des Klimawandels zu überzeichnen und ihn mit Kriegen  und Konflikten , mit Armut und Migration in Zusammenhang zu bringen bedeutet auch, andere wichtige Ursachen dieser globalen Problematik zu ignorieren und unsere Fähigkeiten, diesen zu  begegnen, zu schwächen.

Wir dürfen nicht in eine Situation geraden, in der wir einander nicht mehr zuhören. ….

Wer sich seriös mit dem Klimawandel  befassen will, muss immer zwei Dinge im Kopf behalten. Man darf nie zum Opfer der eigenen frustrierten und alarmierenden Botschaften werden . Man darf einerseits die Augen  vor den Worst-Case-Szenarien nicht verschließen, muss aber andererseits auch um die Unsicherheiten der Datenlage wissen. Und wer anderen Dampf machen will, muss trotzdem eine kühlen Kopf behalten, um kluge Entscheidungentreffen zu können und seine Glaubwürdigkeit nicht aufs Spiel zu setzen…

Der Klimawandel ist dafür zu wichtig. Er verlangt systematische Analyse, gut durchdachte Entscheidungen , abgestufte Aktionen und sorgfältige Bewertungen.

Mit einem Wort: Vernunft.

 




Solar und Batteriestrom so günstig wie noch nie – es sei denn, Sie rechnen nach

Die Kurzfassung: Ohne Subventionen und ohne Verlustabschreibungen funktioniert das Ganze nicht – also nicht ohne dem Strombezieher anderweitig in die Tasche zu greifen. Zusätzlich ist zu wissen, in USA werden Stromanteile im Strommix vorgeschrieben, Strom aus Erneuerbaren Energien wird in „Abnahme- / Liefermenge“ vertraglich geregelt. Wo die MWh dann bei fehlendem Grünstrom letztendlich tatsächlich generiert werden, interessiert nicht, wenn es sich bei dem Vertragspartner (~Zwischenhändler) um einen „grünen Stromanbieter“ handelt.

****

Gastbeitrag von David Middleton

Der neue Solar- und Batteriepreis zermalmt fossile Brennstoffe und begräbt die Kernenergie

Jeff McMahon Mitherausgeber, Grüne Technik,

Aus Chicago schreibe ich über Klimawandel, grüne Technologie und Energie.

Die Verantwortlichen für Energie und Wasser in Los Angeles, haben einen Vertrag über das größte und billigste Solar- und Batteriespeicherprojekt der Welt abgeschlossen, zu Preisen, die fossile Brennstoffe im Staub belassen und möglicherweise die Kernenergie in den Mülleimer verlagern.

Noch für diesem Monat wird erwartet, dass der Aufsichtsrat der Los Angeles Wasser- und Energiewerke einen 25-Jahres-Vertrag genehmigt, der 7 Prozent des Strombedarfs der Stadt mit 1,997 ¢ / kWh für Solarenergie und 1,3 ¢ für Batteriestrom abdeckt.

„Dies ist der niedrigste Preis für Strom aus Solar- / Photovoltaik in den USA“, sagte James Barner, Manager der Agentur für strategische Initiativen. „Es ist das größte und kostengünstigste Solar- und Hochleistungs-Batteriespeicherprojekt in den USA und wir glauben an die Welt von heute. Ich glaube, das ist wirklich revolutionär in der Branche. “

Es ist die die Hälfte der geschätzten Stromkosten einer neuen Erdgasanlage .

Mark Z. Jacobson, Stanford-Professor…

[…]

Forbes

An dieser Stelle hörte ich auf, obigen Forbes- Artikel zu lesen.

Kohle und Gas unter Druck, da großes US-amerikanisches Solar- und Batteriegeschäft den Markt verblüfft

Renew Economy [einschlägige Webseite aus Australien], Autor Sophie Vorrath 3. Juli 2019

Ein Kaufvertrag für Solar- und Batteriespeicherstrom in Kalifornien setzt neue Maßstäbe für die Kosten von Solarstrom – 1,99 c / kWh für 400 MW PV (Solar) und 1,3 c / kWh für gespeicherten Solarstrom von 400 MW / 800MWh Batteriespeichersystem in gleicher Region.

Der Rekordvertrag, den die Verantwortlichen für Energie und Wasser in Los Angeles (LADWP) mit „8minute“, einem Anbieter von Erneuerbaren Solarstrom abgeschlossen hat, soll einen zweistufigen Vertrag mit einer Laufzeit von 25 Jahren abschließen, um 7 Prozent des Strombedarfs von LA zu decken.

Das Projekt mit dem Namen Eland Solar and Storage Cente, das im Kern County nördlich von Los Angeles realisiert wird, in zwei Schritten a‘ 200-MW. Optional können weitere 50 MW / 200 MWh Energiespeicher für 0,665 Cent pro kWh mehr hinzugefügt werden.

[…]

„Dies ist der niedrigste Preis für Strom aus Solar-Photovoltaik in den USA und das größte und kostengünstigste Hochleistungs-Batteriespeicherprojekt in den USA. Wir glauben an die heutige Welt“, sagte der Leiter der LADWP für strategische Initiativen, James Barner. „Ich glaube, das ist wirklich revolutionär in der Branche.“

Barner hat auch festgestellt, dass das Projekt in der Lage ist, eine „erhebliche“ Steuergutschrift für Solarinvestitionen des Bundes „voll auszuschöpfen“, die sich auf rund 30 Prozent belief und „im Grunde genommen die Kapitalkosten des Projekts senkte“.

 […]

Dieses Projekt wäre ohne die Investitionssteuergutschrift (ITC) nicht realisierbar. 30% der Investition auf Kosten des Steuerzahlers zu bekommen, ist hier ein wichtiger Faktor. Steuergutschriften sind nicht dasselbe wie Steuerabzüge. Die ITC [für Erneuerbare] sollen in den nächsten Jahren zurückgefahren werden.

Es gibt auch einige Verwirrung über den Stromabnahmevertrag.

Los Angeles strebt Rekordpreis für Solarstrom unter 2 ¢ / kWh an. Die Stadtwerke haben einen 25-jährigen Strombezugsvertrag für 400 MWac Solarstrom bei 1,997 ¢ / kWh und 200 MW / 800 MWh Energiespeicher bei 1,3 ¢ vor / kWh.

  1. JUNI 2019 JOHN WEAVER

[…]

Das Team teilte den Kommissaren mit, dass sie am 23. Juli die Genehmigung eines zweiphasigen 25-Jahres-Strombezugsvertrags (PPA) mit einem Preis von 1,997 ¢ / kWh für 400 MWac / 530 MWdc Solarstrom, der zum Zeitpunkt der Erzeugung zuzüglich gespeicherten Solarstrom zu 1,3 ¢ / kWh für den überschüssigen Strom, der später aus einem gemeinsam installierten Energiespeichersystem mit 400 MW / 800 MWh geliefert wird.

Quelle PV Magazine

Die grünen Cheerleader gehen davon aus, dass der direkt durch Sonnenenergie erzeugte Strom für 1,997 ¢ / kWh und der im Batteriesystem gespeicherte Strom als separates Produkt für 1,3 ¢ / kWh verkauft wird. Aus dem Kommentarbereich des PV Magazine-Artikels:

NickM
28. Juni 2019 um 11:00 Uhr.
Wäre die Batterieleistung nicht zusätzlich 1,3 Cent / kWh, also insgesamt ~ 3,3 Cent? Ansonsten wird die gespeicherte Energie für weniger als der direkt erzeugte Sonnenstrom verkauft – das klingt merkwürdig.

John Weaver
28. Juni 2019 um 11:03 Uhr
Separates Produkt, wird also nicht hinzugefügt

[ein dritter schreibt: ~überschüssiger Strom ins Netz gespeist ist einfach weg, daher kostet der auch nichts extra…]

[…]

PV Magazine

 

Die Mathematik eines „separaten Produkts, also nicht darüber hinzugefügt“ funktioniert einfach nicht.

Ich konnte keine Zahlen für den Bau dieses Kraftwerks finden. Es scheint, dass sie heutzutage selten veröffentlicht werden. Alles, was jemals angekündigt wurde, sind lächerlich niedrige Preise in Stromabnahmeverträgen.

Wenn wir davon ausgehen, dass sie die Installationskosten auf 1 USD / W senken und einen Kapazitätsfaktor von 33% schaffen, wie die nahe gelegene Springbok 1-Anlage , würde die 200 MW Eland Phase 1-Solaranlage 200 Mio. USD kosten. Nach der neuesten Schätzung von NREL zu den Batteriespeicherkosten würde ein System mit 100 MW, das 4 Stunden liefern kann [also 400MWh] einen Umsatz von ca. 132 Mio. USD (bei 93 Mio. USD Investionssteuergutschrift ITC) erbringen. Sie würden Geld für den Verkauf von batteriegepeichertem Strom mit 1,3 t / kWh verlieren.

Solar mit Steuergutschrift.

Batterie mit Steuergutschrift

Solar + Batterie mit Steuergutschrift

Zusammen ergibt sich für das Projekt über einen Zeitraum von 25 Jahren ein einfacher ROI [Return of Investment] von 144% bei einer Auszahlung von 17 Jahren. Dies schließt jedoch die Betriebs- und Wartungskosten sowie den Austausch der Batteriezellen nicht ein. Kein vernünftiges Geschäft würde ein solches Risiko eingehen. Sie könnten mit 30-jährigen Staatsanleihen einen ROI von 190% erzielen, praktisch ohne Risiko. Das verlustreiche Hinzufügen des Akkus macht keinen Sinn. Wenn dies die tatsächliche Preisstruktur wäre, würde der Nettopreis mit mehr Batteriespeicher sinken … Dies trotzt einfach der Glaubwürdigkeit.

Das Projekt beinhaltet die Option, 50 MW / 200 MWh Energiespeicher für einen zusätzlichen Preis von 0,665 ¢ / kWh hinzuzufügen.

PV Magazine

 

Wenn sich die Batteriekosten zum Grundpreis addieren, wäre das Projekt mit dem Batteriespeichersystem rentabler als ohne. Eine Erhöhung des Batteriespeichers würde den Nettopreis pro kW / h erhöhen und die Projektökonomie verbessern, anstatt sie zu verschlechtern.

Solar Phase 1 + 100MW BESS/4-hr –> 3.297¢/kWh.

100MW/4hr Batteriespeicher mit Steuergutschrift.

Solar Phase 1 + 150MW BESS/6-hr –> 3.962¢/kWh.

150MW/6hr Batteriespeicher mit Steuergutschrift.

Übersicht mit Subventions-Steuer-Gutschrift ITC

Diese Preise sind zwar mit erdgasbetriebenen Kombikraftwerken „konkurrenzfähig“, jedoch völlig von Subventionen abhängig. Selbst dann sind die Renditen marginal. Ein Rabatt von 7% würde sogar das Solar + 150MW BESS / 6hr-Projekt zum Erliegen bringen. Es muss einen anderen Blickwinkel geben.

 

Der andere Blickwinkel

Wie setzen Projektentwickler die Steuergutschriften ein?

Viele Projektentwickler haben nicht genügend zu versteuerndes Einkommen, um die Steuergutschriften voll auszunutzen. Anstatt sie zur Senkung ihrer eigenen Steuern zu verwenden, sichern sie sich damit Investitionsgelder von Steuerbeteiligungsinvestoren (in der Regel große Finanzinstitute und gelegentlich vermögende Privatpersonen). Steuerliche Eigenkapitalinvestoren stellen dem Bauträger eine Finanzierung im Austausch für einen Anteil [am Wert] des Projekts zur Verfügung. Dies ermöglicht es den Anlegern, Steuergutschriften für jeden investierten Dollar zu erhalten (Reduzierung der zukünftigen Steuerschuld) UND eine Rendite für ihre Investition vom Bauträger zu erhalten.

Typischerweise werden alle Einnahmen in den ersten fünf Jahren des Projektlebens für die Rückzahlung von Steuerbeteiligungen verwendet, bis sie ihre Rendite erreicht haben. Zu diesem Zeitpunkt kauft der Bauträger den Anteil des Investors am Projekt auf. Steuerliche Eigenkapitalinvestitionen sind bedeutend: Laut  Greentech Media entfallen 40 bis 50 Prozent der Finanzierung auf Solarprojekte und 50 bis 60 Prozent auf Windprojekte. Der Rest des Projektkapitals stammt von Eigenkapital- und Fremdkapitalgebern.

 

Level 10 Energy Blog

Selbst wenn das Solarstromprojekt unrentabel ist und keine oder nur eine geringe Steuerschuld des Bundes hat, kann der ITC effektiv an Anleger verkauft werden, die die Steuergutschrift in vollem Umfang nutzen können.

Streichen Sie die Steuergutschrift und das ist ein Verlustgeschäft

Barner hat auch festgestellt, dass das Projekt in der Lage war, eine „erhebliche“ Steuergutschrift für Solarinvestitionen des Bundes „voll auszuschöpfen“, die sich auf rund 30 Prozent belief und „im Grunde genommen die Kapitalkosten des Projekts senkte“.

Renew Economy

Tabelle ohne Steuergutschrift ITC

Eine Discounted-Cashflow-Analyse [… discounted = ~zusätzlicher Rabatt?] würde dieses Projekt sofort zum Erliegen bringen, wenn nicht die Investitionssteuergutschrift (ITC) helfen würde. Ohne die ITC könnten sie keine solchen Low-Ball-PPAs bieten, und es wäre viel schwieriger, sich die Finanzierung zu sichern. [PPA Purchase Price Allocation]

Wie wirkt sich das Auslaufen von Steuergutschriften für erneuerbare Energien auf die Preise aus?

Ohne Steuergutschriften müssen sich die Bauträger an teurere Finanzierungsquellen wenden, um ihr Projekt zu realisieren, was zu einem Preisanstieg führen könnte. Darüber hinaus können sie die Preise aufgrund von Produktionssteuergutschriften PTC [… für „Erneuerbare“] nicht senken.

In vielen Fällen sind Steuergutschriften die treibende Kraft dafür, dass erneuerbare Energien billiger wurden als Kohle. Es bleibt abzuwarten, ob sich das Auslaufen von ITC und PTC dramatisch auf die Preise für erneuerbare Energien auswirken wird. Während es wahrscheinlich ist, dass die Preise steigen werden, gibt es mehrere Faktoren, die ihren Anstieg abschwächen könnten:

Geringere Kosten: Durch technologische Fortschritte konnten die Kosten für den Bau von Windkraftanlagen, Photovoltaikzellen und anderen wichtigen Komponenten für Projekte im Bereich erneuerbare Energien gesenkt werden. Darüber hinaus könnten die Ausrüstungskosten sinken, wenn die Zölle für Solarprodukte und Stahl abgeschafft werden.

Erhöhte Nachfrage: Die Unternehmensnachfrage nach erneuerbaren Energien und Standards für erneuerbare Stromerzeugung für Stadt- und Landesregierungen erhöhen die Anzahl der Käufer auf dem Markt und die Gesamtnachfrage nach sauberer Energie [aufgrund gesetzlicher bestimmter Zwangsanteile im Strommix]. Darüber hinaus könnten politische Änderungen wie eine Kohlenstoffsteuer oder die Verabschiedung des Green New Deal die Nachfrage erhöhen.

Level 10 Energy [Blog für Erneuerbare]

Realität

Der größte Teil der USA eignet sich nicht so gut für Solar oder PV Anlagen wie die Mojave-Wüste. Abgesehen von Staaten mit Pipeline-Phobie und Hawaii, liefert Erdgas fast überall zuverlässige Energie … Selbst nachts und an bewölkten Tagen.

Während Wind und Sonne in einigen Bereichen wettbewerbsfähig sein könnten…

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

Unabhängig davon, wie niedrig der LCOE-Wert ist, hängen Wind und Sonne immer von der Stärke des Windes und des Sonnenscheins ab. Hinweis: Die EIA-LCOE-Zahlen enthalten keine Speicherung oder Back-up Kraftwerke und gehen von einem Anstieg der Erdgaspreise zwischen 2023 und 2040 aus.

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

EIA Levelized Cost and Levelized Avoided Cost of New Generation Resources in the Annual Energy Outlook 2019

[Aus vorstehendem Link: Nivellierte Stromkosten

Die Stromniveaukosten (LCOE) geben die durchschnittlichen Einnahmen pro erzeugter Energieeinheit [Strom in MWh] an, die erforderlich sind (.. wären), um die Kosten für den Bau und den Betrieb eines Kraftwerks, während eines angenommenen finanziellen- und Betriebszeitraums zu decken. ..]

Und wenn die Reduzierung der CO2-Emissionen wirklich so wichtig wäre …

Netto Kosten und Vorteile pro Jahr per MW mit Grundlastabdeckung durch Kohlekraftwerke. Nuclear und Gas bringen große Vorteile, Wind ist ausgeglichen und Solar ist ein Verlierer [Zusatzkosten wegen unzuverlässigen Stromproduktion.]

Real Clear Energy.

[… Wind und Sonne benötigen unter Berücksichtigung der Unstetigkeit irgendwo am Netz Subventionen oder versteckte back-up – standby Stromquellen, während sich Wasser, Wind und Erdgas amortisieren und wirtschaftliche Vorteile schaffen. Kernkraft ist die große Überraschung, da es die höchsten Baukosten hat, die es normalerweise am teuersten erscheinen lassen. Aufgrund seines außergewöhnlichen Kapazitätsfaktors – Reaktoren laufen in mehr als 90 Prozent der Zeit – erfordert seine extreme Zuverlässigkeit kein Backup und senkt die Kosten für das Netz. Erdgas [-kraftwerke] kann sogar noch besser sein, vor allem, weil es am geeigneten ist, schnell auf Schwankungen der Stromerzeugung zu reagieren (Sonne oder Wind).]

Obwohl die Kosten für Wind und Sonne seit Veröffentlichung dieser Grafik im Jahr 2014 gesunken sind, hat sich nichts geändert: Kernkraft- und Erdgas können Kohle 1 : 1 direkt ersetzen. Wind und Sonne werden das niemals können. Dies setzt voraus, dass Kohle überhaupt ersetzt werden soll.

 

Aber, aber, aber … Was ist mit Subventionen für fossile Brennstoffe?

Was ist mit denen?

Direkte finanzielle Interventionen und Subventionen des Bundes für Energie im Geschäftsjahr 2016

 

Wie der Gipper sagen würde …

[u.a. Spitzname für Ronald Reagan, auch Anfeuerungsruf für ein Spielerteam, das letzte zu geben, um einen Punkt zu machen]

Der Blick der Regierenden auf die Wirtschaft kann in kurzen Phrasen zusammengefasst werden:
Wenn es läuft, besteure es; Wenn es weiter läuft, reguliere es; und wenn es aufhört zu laufen, subventioniere es.

Gefunden auf WUWT vom 15.07.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/15/new-solar-battery-price-crushes-fossil-fuels-buries-nuclear-until-you-do-the-math/




So heiß, dass man städtische Wärmeinseln vom Weltall aus sieht

Die Wärme der Rollbahnen des Flughafens Charles DeGaulle in Paris-Orly sind vom Weltall aus leicht erkennbar. (Ebenso wie alle anderen idealen Aufstell-Orte für Klimawandel-Thermometer). Die Rollbahnen des Flughafens Charles DeGaulle befinden sich (glaube ich) oben rechts auf der Wärmekarte.

Abbildung 1: Die Ökostress-Karte der NASA von Paris. Quelle: NASA/JPL-Caltech

Bitte um Handzeichen: Wer glaubt, dass die Thermometer im Jahre 1880 zu hohe Werte zeigten? Irgendwer?

Die Fotos wurden am frühen Morgen gemacht. Sie zeigen, wie es wegen des UHI in den Zentralbereichen einer jeden Stadt viel wärmer ist als in der umgebenden natürlichen Landschaft – eine Folge davon, dass Stadtflächen Wärme über den Tag speichern, die sie dann nur sehr langsam wieder abgeben.

Die Tatsache, dass die Temperatur am frühen Morgen 25 bis 30°C betragen hatte, zeigt, dass ein großer Teil der Wärme der Vortage gespeichert worden war von Oberflächen mit hoher Wärmekapazität (Asphalt, Beton und Gewässer). Diese Oberflächen waren nicht in der Lage, die Wärme bis zum nächsten Tag vollständig abzustrahlen. Die eingefangene Wärme resultierte an einigen Stellen in sogar noch höheren Mittagstemperaturen in den hohen 40-er Grad Celsius, als sich die Hitzewelle fortsetzte.

Zwar hatten all diese Wärmesenken die ganze Nacht Zeit, ihre Extra-Wärme loszuwerden, und doch strahlten sie immer noch – sogar noch am nächsten Tag zur Mittagszeit.

Abbildung 2: Ökostress-Wärmekarte von Rom. Quelle wie oben.

Nett, dass man die Flughäfen gekennzeichnet hat.

Hier noch die gleichen Karten von Mailand und Madrid:

Abbildung 3: Mailand, Ökostress-Wärmekarte. Quelle wie oben

Abbildung 4: Ökostress-Wärmekarte von Madrid. Quelle wie oben

Die COSTRESS-Sonde wurde im vorigen Sommer zur Weltraumstation geschossen und sammelte ihre ersten Daten schon wenige Tage nach der Installation. Das Instrument misst Variationen der Oberflächentemperatur bis auf wenige Zehntelgrad genau, und das mit beispiellosem Detailreichtum: Es kann Temperaturänderungen zu verschiedenen Tageszeiten auf Flächen von der Größe eines Football-Feldes erkennen. Diese Messungen helfen den Wissenschaftlern bei der Abschätzung des Wohlergehens von Pflanzen und Reaktionen auf Wasserknappheit, was ein Indikator für eine bevorstehende Dürre sein kann. Das Instrument kann auch zur Messung von Wärmetrends herangezogen werden, zum Aufspüren von Waldbränden und Steigerungen vulkanischer Aktivitäten.

Mehr zu ECOSTRESS findet man hier.

Link: http://joannenova.com.au/2019/08/we-can-see-the-urban-heat-islands-from-space/

Übersetzt von Chris Frey EIKE