Kohlenstoff und Carbonate

Bild rechts: Coccolithophore. Quelle

Auf der Grundlage meiner Erfahrung und meines Wissens habe ich eine Reihe von Beiträgen geschrieben über das, was ich als erstaunliche Reaktions- und Anpassungsfähigkeit der im Ozean lebenden Lebensformen ansehe. Ich habe wiederholt gesagt, dass die geringe Neutralisierung der Ozeane infolge eines höheren atmosphärischen CO2-Gehaltes bedeutungslos ist und dass den ozeanischen Lebensformen eine solche Änderung nichts ausmachen würde.

Daher habe ich laut gelacht, als mir die jüngste Studie im Magazin Science unter die Augen kam, in der es um Coccolithophores [Kieselalgen?] ging. Das sind Kalk bildende Pflanzen, welche die schönsten und komplexesten Skelette aus Kalziumkarbonat bilden, welches sie dem Meerwasser entnehmen.

Der Studie zufolge hat die Anzahl der Coccolithophores im Nordatlantik während der letzten Jahre um das Zehnfache zugenommen. Mit anderen Worten, anstatt Coccolithophores in 2% des Planktons in den Schleppnetzen zu finden, findet man jetzt 20%. Man führte eine multivariable Analyse durch und kam zu dem Ergebnis, dass die Zunahme von CO2 der Hauptgrund für die Zunahme der Coccolithophores-Vielfalt sei. Die Studie trägt den Titel „Multidecadal increase in North Atlantic coccolithophores and the potential role of rising CO2” und findet sich hier hinter einer Zahlschranke.

Diese Studie ist bedeutsam, weil der Zustand der Ozeane eines der größten Themen der reihenweise scheiternden Klimauntergangs-Propheten ist. Die Alarmisten behaupten, dass die leichte Neutralisierung des Ozeans es den Kalk bildenden Organismen schwerer macht, ihre Kalzium-Skelette zu bilden. Allerdings zeigt die Studie, dass dies für die Coccolithophores nicht gilt. Aus dem Magazin:

Durchführung eines Säure-Tests

Kalk bildende maritime Organismen werden allgemein größere Schwierigkeiten haben, ihre Karbonat-Skelette zu bilden und zu erhalten, da eine steigende Konzentration des atmosphärischen CO2-Gehaltes die Ozeane versauern lässt. Nichtsdestotrotz werden einige Typen von Organismen stärker geschädigt als andere, und einige können sogar von dem höheren CO2-Niveau profitieren. Coccolithophores sind hierfür ein Beispiel, weil deren photosynthetisches Vermögen stark Kohlenstoff-limitiert ist. Rivero-Calle et al. zeigen, dass die Vielfalt von Coccolithophores im Nordatlantik bis zu 20% während der letzten 50 Jahre zugenommen hat. Folglich könnte diese wichtige Phytoplankton-Gruppe sich an eine Zukunft mit höherem CO2-Gehalt anpassen.

Abstract

Da anthropogene CO2-Emissionen die Ozeane versauern lassen, wird allgemein erwartet, dass Kalk bildende Lebensformen negativ beeinflusst werden. Allerdings zeigen wir mittels Daten des Continuous Plankton Recorder, dass das Vorkommen von Coccolithophores im Nordatlantik von etwa 2% auf über 20% zugenommen hat, im Zeitraum von 1965 bis 2010. Wir haben bestimmte Modelle [nämlich random forest models] angewendet, um über 20 mögliche Umwelttreiber dieser Änderung zu untersuchen. Wir finden, dass CO2 und die Atlantische Multidekadische Oszillation die besten Prädiktoren waren. Dies führt uns zu der Hypothese, dass ein höheres CO2-Niveau das Wachstum fördern könnte. Eine Sichtung 41 unabhängiger Laborstudien stützt unsere Hypothese. Unsere Studie zeigt eine langfristige Zunahme der Coccolithophores im Maßstab von Ozeanbecken. Sie zeigt, dass steigendes CO2 und steigende Temperatur das Wachstum dieser Phytoplankton-Gruppe beschleunigt hat, was wichtig ist für den Kohlenstoff-Kreislauf.

Ich habe schon immer gesagt und sage es auch jetzt wieder: Hinsichtlich des Ozeans habe ich eine Faustregel:

In den Ozeanen dirigiert nicht die Chemie das Leben – stattdessen dirigiert das Leben die Chemie!

Und diese Faustregel hat eine logische Konsequenz:

Das Leben ist raffiniert – und wird einen Weg finden, auch durch Steine zu wachsen!

Dies ist ein perfektes Beispiel. Leben hat die Gewohnheit, chemische Reaktionen in unerwartete Richtungen zu lenken, und das mit einem Tempo, dass nirgendwo außerhalb lebender Kreaturen angetroffen wird. Trotz der chemischen Realität gestiegenen CO2-Gehaltes, was den Ausfall von CaCO3 schwieriger macht, widmen die Coccolithophores dem Umstand nur geringe Aufmerksamkeit, wie steil der energetische Hügel ist. Sie wachsen einfach, und in diesem Falle sogar schneller denn je.

Ich finde das sehr wichtig, weil die Coccolithophores der Studie zufolge verantwortlich gemacht werden für etwa die Hälfte allen ausfallenden Kalziumkarbonates (CaCO3) in den Ozeanen. Die Hälfte. Das ist viel.

Folgt man nun dieser Kette von Auswirkungen zum nächsten logischen Schritt, hatt die Rate, mit der CO2 aus dem Ozean als CaCO3 herausgefiltert wird, Auswirkungen auf den Grad der Neutralisierung des Ozeans infolge des gestiegenen atmosphärischen CO2-Gehaltes.

In Anlehnung an Mark Twain lautet meine Schlussfolgerung, dass die Gerüchte über den Tod der Ozeane durch mehr CO2 gewaltig übertrieben sind.

Link: http://wattsupwiththat.com/2016/01/30/carbon-and-carbonate/

Übersetzt von Chris Frey EIKE




Aktualisierung zum wärmsten Jahr jemals: El Nino-Effekt 2015 war 20 mal größer als das Signal der globalen Erwärmung

Bild rechts: Wassertemperatur-Anomalie im Pazifik vom 7.2.2016. Quelle

Graphik 1 zeigt die monatliche Temperatur-Anomalie nach HadCRUT4 im Zeitraum 1880 bis 2015. Mit eingezeichnet ist auch eine LOESS-Kurve für die HadCRUT4-Daten. Die LOESS-Kurve wurde erzeugt mittels multipler lokaler Regressionen, wobei für jede Regression Daten von 20 Jahren verwendet worden sind.

Man erkennt in Graphik 1, dass die jüngste Periode konsistenter Erwärmung um das Jahr 1975 eingesetzt und sich bis zum Ende des Zeitraumes (Dezember 2015) fortgesetzt hat. Die LOESS-Kurve zeigt, dass der Erwärmungstrend halbwegs linear verläuft von 1975 bis 2015. Für diesen Zeitraum wird eine lineare Regression durchgeführt.

Graphik 2 zeigt die monatliche Temperatur-Anomalie nach HadCRUT4 von 1975 bis 2015. Ebenfalls eingezeichnet ist eine lineare Regressionslinie über den gleichen Zeitraum. Die Neigung der Regressionslinie beträgt 0,0175°C pro Jahr. Die Gesamterwärmung von 1975 bis 2015 beträgt fast 0,72°C.

Die Temperaturänderung zwischen Ende 2014 und Ende 2015 beträgt 0,371°C (siehe Berechnung 1 – alle Berechnungen werden am Ende dieses Beitrags dokumentiert).

Wir wissen durch die lineare Regression, dass die Temperaturänderung aufgrund der Globalen Erwärmung für ein Jahr 0,0175°C beträgt. Daher können wir berechnen, dass die Erwärmung aufgrund des El Nino 0,3535°C beträgt (siehe Berechnung 2).

Dies bedeutet, dass die Temperaturänderung aufgrund des El Nino über 20 mal größer war als die Temperaturänderung aufgrund der Globalen Erwärmung (siehe Berechnung 3). Mit anderen Worten, El Nino war für über 95% der Temperaturänderung zwischen Ende 2014 und Ende 2015 verantwortlich.

Die Ergebnisse für die unterschiedlichen Temperaturreihen zeigt die folgende Tabelle:

Die prozentuale Änderung aufgrund des El Nino variiert für die 4 Temperaturreihen zwischen 94,3% und 95,3%. Die prozentuale Änderung aufgrund der Globalen Erwärmung variiert zwischen 4,7% und 5,7% in den 4 Temperaturreihen – eine sehr konsistente Ergebnismenge.

Diese Berechnungen sind einfach durchzuführen. Die Ergebnisse sind eindeutig. Sie sollten keine Überraschung sein für jeden, der mit dem Klima vertraut ist. Man denke an den El Nino 1998. Die Temperatur zeigte eine Spitze, um gleich danach wieder abzufallen. Diese Temperaturspitze war nicht auf die Globale Erwärmung, sondern auf den El Nino zurückzuführen. Erwarten die Klimawissenschaftler etwa, dass bei diesem El Nino alles ganz anders ist?

Daher kommt es überraschend, dass eine Reihe von Klimawissenschaftlern Statements abgegeben hat, die den Effekt des El Nino minimieren und den Effekt der Globalen Erwärmung übertreiben.

Bei der Lektüre der folgenden Aussagen sollte man sich immer daran erinnern, dass El Nino für etwa 95% der Temperaturänderung zwischen Ende 2014 und Ende 2015 verantwortlich war. El Nino verursachte eine Temperaturzunahme um 0,32°C, aber die Klimawissenschaftler behaupten, dass es nur wenige hundertstel Grad seien.

1) Zitate aus einem Artikel unter der Überschrift [übersetzt] „Analyse: wie wurde 2015 zum wärmsten Jahr jemals“ bei carbonbrief.org:

Steigende Treibhausgas-Konzentrationen und ein „kleiner Beitrag“ von El Nino im Pazifik führten zusammen zu den Rekordtemperaturen des Jahres 2015, sagt Prof. Adam Scaife vom UKMO.

Wie groß ist der Beitrag zu den Rekordtemperaturen 2015 durch El Nino?

El Nino wurde 2015 immer stärker und erreichte sein Maximum erst in diesem Winter. Daher glauben wir, dass der El Nino nur einen kleinen Beitrag (ein paar hundertstel Grad) zu den Rekordtemperaturen des Jahres 2015 beigetragen hat (Prof. Adam Scaife).

Bedeutet dies, dass menschliche Aktivitäten der größte Treiber der Rekordtemperatur 2015 waren?

Ja. Die nominelle globale mittlere Rekordtemperatur 2015 war im Voraus gut vorhergesagt und gut erklärt worden als primär der globalen Erwärmung geschuldet. Diese wiederum ist hauptsächlich Treibhausgas-Emissionen geschuldet, hauptsächlich menschlichen Ursprungs. El Nino leistete nur einen geringen Beitrag (Prof. Adam Scaife).

2) Zitate aus einem Artikel mit der Überschrift [übersetzt] „Wie stark hat El Nino die globale Temperatur im Jahre 2015 getrieben?“ bei carbonbrief.org:

Carbon Brief hat mit Klimawissenschaftlern gesprochen, die sich mit dieser Frage befasst hatten. Sie scheinen alle darin übereinzustimmen, dass El Nino irgendwo bei 10% für die Rekordwärme 2015 verantwortlich war.

Dr. Gavin Schmidt, Direktor des GISS der NASA, beschrieb den fortgesetzten Anstieg der globalen Temperaturen als „assistiert“ von El Nino.

Als Teil der Berichterstattung von Carbon Brief zum Thema wärmstes Jahr sprachen wir mit Dr. Adam Scaife, Leiter der Abteilung für Langfrist-Vorhersagen am UK Met.-Office. Scaife wies dem El Nino nur eine oberflächliche Rolle zu und sagte Carbon Brief:

Wir glauben, dass El Nino nur einen kleinen Beitrag zu den Rekordtemperaturen 2015 geleistet hat (ein paar hundertstel Grad).

Schmidt schätzte, dass der El Nino für einen Anteil von 0,07°C über der mittleren Erwärmung verantwortlich war, die wir 2015 erlebt haben.

Ein kurzer Vergleich der Zahlen von Schmidt oder Cropper mit der Temperaturanomalie der NASA für das Jahr 2015 von 0,87°C über dem Mittel von 1951 bis 1980 zeigt, dass El Nino einen Beitrag von 8% bis 10% geleistet hat.

Stott sagt Carbon Brief: Eine Schätzung unter 0,1°C infolge El Nino zur globalen jährlichen mittleren Temperatur ist weniger als 10% der Erwärmung von etwa 1°C im Jahre 2015 relativ zum vorindustriellen Niveau.

Mit anderen Worten, El Nino leistete „einen kleinen Beitrag zusätzlich“ zu der Erwärmung durch Treibhausgase, sagt Stott.

[Die Auflistung obiger Aussagen scheint im Original irgendwie durcheinander geraten zu sein. Aber vielleicht irre ich mich da auch. Anm. d. Übers.]

Es gibt keinen Zweifel daran, dass der El Nino, der sich 2015 entwickelt hatte und immer noch im Gange ist, ungewöhnlich stark war, sogar außerordentlich. Aber mit einem Beitrag irgendwo um die 10%-Marke scheint den Wissenschaftlern zufolge klar zu sein, dass El Nino nicht für die Rekordwärme 2015 verantwortlich gemacht werden kann. Tatsächlich soll dieser Beitrag außerordentlich gering gewesen sein.

Alle diese Wissenschaftler scheinen aus dem gleichen Liederbuch vorzusingen!

Ich würde gerne erleben, dass diese Wissenschaftler ihre Kommentare rechtfertigen, und zwar unter Verwendung numerischer Berechnungen, um zu zeigen, woher sie ihre Zahlen haben. Ich habe meine Methode hier vollständig dokumentiert. Falls irgendjemand in meinen Berechnungen einen Fehler entdeckt, bitte melden!

—————————-

Berechnungen.

1)  [December 2015 anomaly] minus [December 2014 anomaly] = 1.005 – 0.634 = 0.371 °C.

2)  [Total warming 2014/2015] minus [warming due to Global Warming] = 0.371 – 0.0175 = 0.3535 °C.

3)  [warming due to El Nino] divided by [warming due to Global Warming] = 0.3535 / 0.0175 = 20.2

4)  [warming due to El Nino] times 100 divided by [Total warming 2014/2015] = 0.3535 * 100 / 0.371 = 95.28 %

5)  [warming due to Global Warming] times 100 divided by [Total warming 2014/2015] = 0.0175 * 100 / 0.371 = 4.72 %

Link: http://wattsupwiththat.com/2016/02/04/hottest-year-ever-update-el-nino-effect-in-2015-was-20-times-larger-than-the-global-warming-signal/

Übersetzt von Chris Frey EIKE




Marokko setzt Maßstäbe – im Verschwenden von internationalen (Klimaschutz)-geldern. Aber mit dem Wohlwollen und Förderung Deutschlands und der Weltbank

Das islamische Königreich Marokko  ist bisher nicht  unbedingt als Silikon Valley Afrikas bekannt. Eher ist es bekannt durch seine technische wie entwicklungs-bedingte Rückständigkeit, die sich durch große Armut weiter Teile der Bevölkerung bei gleichzeitiger rigider Herrschaft des muslimischen Königshauses,  derzeit von König Mohamed VI. angeführt , manifestiert.  Auch dadurch immer wieder hierzulande ins Bewusstsein gebracht, weil Marokko einen erheblichen Teil seiner männlichen Jugend als  „Flüchtlinge“  nach Westeuropa – vorzugsweise nach Deutschland entsorgt. 

Doch zwei  Güter hat Marokko im Überfluss: Riesige leere Flächen und sehr viel  Sonne. Incl. des umstrittenen Gebietes Westsahara ist Marokko etwa doppelt so groß wie Deutschland und beherbergt dabei nur ca. 33 Mio Einwohner. Und helle Sonnentage gibt es, von wenigen Ausnahmen abgesehen, das ganze Jahr über. Also gute Voraussetzungen um die  notorische Schwäche der sog. „Erneuerbare“ Energien, nämlich die äußerst geringe Energiedichte , was gleichbedeutend ist mit riesigem Flächenbedarf um die Energie einzusammeln,  nicht zu wichtig zu nehmen und darüber hinaus die Spendierlaune der klimaängstlichen Länder, voran Deutschland zu nutzen, um billiges, so gut wie geschenktes Geld für „klimafreundliche“ Investitionen ins Land zu bringen.  Und deshalb hieß das Motto „Think big“.

Trotz oder wegen der damals bereits absehbaren peinlichen Pleite des Projektes Desertec begann man in Marokko 2012 das Projekt Noor (arabisch für Licht) zu entwickeln. Anders als bei Desertec und auch anders als beim spanischen Pleitekraftwerk Andasol nämlicher Bauart, baute man hier von vornherein auf – durch wirtschaftliche Argumente wenig zu beeindruckende- staatliche Geldgeber. Das war clever!

Das Projekt Noor

 Wikipedia zeigt uns die erwartete Leistung , die Technik und, wenn auch nur ungefähr und sehr verwirrend, die Kosten der Anlagen. Noor soll nach Fertigstellung mal das größte Solarkraftwerk der Welt werden. Und dieser Tage wurde die erste Projektstufe  Noor 1 in Betrieb genommen.

Anlage Max. Leistung (MW) Typ Betriebsbeginn   Invest    
1 160 Parabolrinnenkraftwerk Februar 2016   1,04 Mrd. €[1]    
2 200 Parabolrinnenkraftwerk in Bau   Ca. 0,6 Mrd. €[2]    
3 160 Solarturmkraftwerk in Bau   Ca. 0,6 Mrd. €    
4 50 Solarpark (Photovoltaik) geplant   Noch in Planung    

Tabelle 1 Anzahl, geplante Leistung (peak), Betriebsart und Investitionshöhe der Projektteile  von Noor in  Ouarzazate. Die ZEIT berichtet über Gesamtkosten NOOR I-III von 3,5 Mrd. €. Ein Wert der durch die hier angestellten Vergleichsrechnungen sehr viel wahrscheinlicher zu sein scheint

Insgesamt sollen es also mal 3 Solarthermie-Kraftwerke mit  einer Spitzenleistung von 520 MW werden. Zusätzlich ist für später noch ein PVA Kraftwerk mit 50 MW Spitzenleistung geplant. Damit erreichte das Noor-Projekt zwar nur knapp 50 % der Leistung eines einzigen modernen Kohlekraftwerks, aber immerhin, es wäre das größte Solarkraftwerk der Welt.

Der Investitionsbedarf  für die ersten 3 Anlagenteile wird von der finanzierenden KfW -eher stark untertreibend (siehe Fußnote 2)-  mit 2,2 Mrd. € angegeben, was ungefähr dem gut 4 fachen der Investition  eines Kohlekraftwerkes gleicher Leistungsfähigkeit entspricht.  Legt man die potentiell lieferbare  Energie- vulgo Strom- menge  zugrunde, so erhöht sich dieser Faktor auf etwa 8. Doch dazu später mehr. Bei anderen Quellen findet man einen Finanzbedarf von 3,5 Mrd €, was nach den Andasol Erfahrungen der Wahrheit wohl näher kommen dürfte.

Aber da das Geld dafür sozusagen fast geschenkt ist, wenn auch der Steuerzahler nirgends, auch nicht in Deutschland, gefragt wurde, ob er sein Geld dafür hergeben wolle, kann man es dem Betreibern – die marokkanische ACWA Power und Moroccan Agency For Solar Energy (MASEN) nicht übelnehmen, wenn sie sich aus dieser reichlich sprudelnden Geldquelle bedienen.

Deutschland –immer als Vorreiter gut- ist immerhin mit  38 % oder gut 840 Mio. € mit von der Partie. Weil, so wird das begründet: es eben um den Klimaschutz geht. Und der fängt – wenn schon die Verteidigung am Hindukusch nicht so recht geklappt hat – ab sofort in Marokko an.

Also gesagt getan. Für den guten Zweck des Klimaschutzes waren staatliche Finanziers[3]  die über reichlich Steuergelder gebieten, rasch gefunden. Ein geringer Rest  blieb aber offen, für den ein privater Investor gesucht wird. Bei den Garantien, welche die Staatsfinanziers zu geben imstande sind, dürfte das  sicher kein großes Problem sein. Der Anschein der privaten Mitfinanzierung bleibt gewahrt

Die Technik

Bei den ersten drei Projektstufen handelt es sich um Solarthermie. Noor I besteht aus riesigen  zylindrisch-parabolischen Hohlspiegeln (jeder 3 x 7 m), die der Sonne nachgeführt werden und die Strahlung auf eine mit synthetischem Trägeröl gefülltes zentrales Rohr konzentrieren. Das wird durch die Strahlung von knapp 300 auf knapp 400 ° C erhitzt. Die Spiegel sind in Vierer-Gruppen und diese wieder in 400 Reihen von je 300 m Länge angeordnet. Das synthetische Trägeröl erhitzt sowohl Wasserdampf für die Turbine als auch das Salzgemisch für den Wärmesalzspeicher.  Für die Vorerwärmung des Trägeröls und zur Verhinderung, dass es bei Nacht unter seinen Gefrierpunkt von 8 ° C abkühlt, wird ein Dieselaggregat mit Heizung eingesetzt, dass ca. 19 t Diesel pro Tag verbraucht. Mit diesem Dieseleinsatz hätten übrigens rd. 23 GWh jährlich an Elektrizität erzeugt werden können.

Kosten

Schauen wir uns nun die Kosten näher an und unterstellen  dabei die Investitionskosten für Noor I in Höhe von. 1.042 Mrd. €. Diese hat das damit befasste National  Renewable Energy Laboratoium Marokkos NREL[4] angegeben. Bei einer Laufzeit von 25 Jahren, nur 3 % Verzinsung und 6 % Wartungskosten dürften für den erzeugten Strom dann ca. 0,13 €/kWh anfallen.

Das ist etwa 3 x mehr als bei einem Diesel- oder Kohlekraftwerk entstehen würden. Rechnet man die laufenden Betriebskosten incl. des notwendigen Personals für die Riesenanlage sowie die notwendige Abschreibung (über die garantierten 25 Jahre), hinzu dann sind es bereits 0,24 €/kWh und für die Rücklagenbildung zur Wiederbeschaffung, Unvorhergesehenes oder gar Gewinn, bleibt immer noch nichts. Damit sind wir also schon recht dicht bei den 0,30 €/kWh die das systemgleiche aber kleinere Andasol Kraftwerk seinen Kunden berechnet.

Bei Wikipedia finden wir zusammengefassten Medienberichte über die angepeilten Stromkosten. Die Autoren vermelden, dass die Kosten pro kWh nur bei 12 ct bzw. bei 18,9 $ct liegen werden. Letztere sind 17,01 €ct. Ein Wert, den das schon erwähnte NREL ermittelt hat. Rechnet man diese Werte nach, so wird schnell klar, dass sich bei diesen Meldungen mal wieder die PR Abteilungen der Projektierer (Prokon lässt grüßen) durchgesetzt haben, um die Journalisten zu Lobpreisungen zu veranlassen. Was diese auch redlich taten.

Doch sei es wie es sei, egal ob die Herstellkosten bei 24, oder 17 oder 13 oder gar 12 ct/kWh liegen, in jedem Fall ist das für den Endverbraucherpreis incl. Vertrieb etc. deutlich mehr als was Diesel- oder Gasstrom in Marokko kostet und damit mehr als der marokkanische Verbraucher zahlen kann. Deswegen werden diese Stromkosten auch vom marokkanischen Staat runter subventioniert.

Die zu liefernde Energiemenge bleibt ungewiss

Die Kosten sind von  mir nach bestem Gewissen und unter Nutzung der vorhanden Daten überschlägig berechnet worden. Leider wird die Schlüsselzahl, nämlich der Menge der projektierten jährlichen Elektroenergiemenge nirgends erwähnt. Um diese zu ermitteln behelfe ich mich mit der überall genannten „Einsparung“ an CO2.

Lt. verschiedener Medien liegt diese bei ca. 240.000 t CO2 per anno. Mittels der Umrechnung von 0,34 kg CO2/KWh [5] für Steinkohle errechnen sich  rd. 706 GWh pro Jahr, die das Solar-Kraftwerk zu erzeugen im Stande wäre.  Doch diese Menge ergäbe bereits einen Nutzungsgrad von 50 % im Jahr. Und das hieße, dass dieses solare Kraftwerk – dass ja direkt und ausschließlich seinen Brennstoff von der Sonne bezieht, an jedem Tag den Allah in diesem Lande werden lässt, 12 h lang Volllast liefern könnte. Der zugehörige Flüssig-Salz-Speicher ist für 3 h Volllast ausgelegt, wie man den NREL Daten entnehmen kann. Auch dessen Energiefüllung müsste aber zuvor erbracht werden. Also müssen in den 12 h eines jeden  Tages die volle Nennleistung plus der zu speichernden Energiefüllung erbracht werden. Eine eher unwahrscheinliche Annahme, auch wenn man die starke Sonneneinstrahlung in diesem Land berücksichtigt. Denn auch in Marokko scheint die Sonne nachts nicht, Jahreszeiten sind auch nicht unbekannt, und mag auch die Dämmerung kurz sein, sie ist jedenfalls vorhanden.

Fazit:

Marokko hat sich ein Minikraftwerk von  gerade mal 160 MW (im Endausbau dann 520 MW + PVA Teil) auf einer Riesenfläche von -im Endausbau- 30 Quadratkilometern, von den meist westlichen staatlichen Kreditgebern bezahlen lassen. Das war sehr clever.

Trotzdem muss es den erzeugten Strom bezuschussen, da die Endpreise dort lediglich bei 11 bis 13 ct/KWh[6] liegen.  Bei diesem Projekt liegen jedoch schon die Herstellkosten mindestens bei 13 ct/kWh, bei Einbeziehung realer Kosten würden sie etwa das Doppelte erreichen.

Noch cleverer wäre es allerdings gewesen, weil  Marokko mit Sicherheit – von den Kosten, der Verfügbarkeit und der zu liefernden Strommenge her-  wesentlich günstiger gefahren wäre, hätte man dort normale Kredite aufgenommen, um damit ein modernes Kraftwerk zu bauen, und seinen Strombedarf z.B. per Dieselerzeugung zu decken.  Bei einem Wirkungsgrad der Stromerzeugung von 33 %  hätten für die Mini-Leistung von Noor 1 gerade mal 6 Dieselmotoren des Typs Wärtsilä-Sulzer mit je 80 MW Leistung ausgereicht.

Mit dem Unterschied, dass diese Diesel –Generatoren nicht nur einen geringen Bruchteil der Solar-Investitionen gekostet hätten. Auch der Platzbedarf wäre viel, viel geringer. Zudem hätten sie schön dezentral, nahe den Verbrauchszentren aufgebaut und im Dauerbetrieb mit bis zu 90 % Nutzungsgrad betrieben werden können.

Damit wären dann auch die doppelte Anzahl der Bewohner, als die von dem Noor Projekt Versorgten, in den Genuss wirklich billigen Stroms gekommen. Der Staat Marokko hätte diesen auch nicht subventionieren müssen.

Ein Nachteil wäre aber geblieben und hätte nicht ausgeräumt werden können. Die Medien hätten darüber nicht, oder wenn, dann nur negativ berichtet. 

Vielleicht war das der Grund, warum König Mohammed VI so scharf auf das Noor Projekt war. Oder er glaubt wirklich, dass sein heißes Königreich, mit Temperaturen bis zu 50 °C, dank des Klimawandels und ohne seine Gegenmaßnahmen mittels Noor, noch heißer würde? Diese Gefahr – sollte sie je bestanden haben- ist aber vielleicht jetzt gebannt. Wenn man an die Märchen aus 1001 Nacht glaubt,  


[1] Siehe http://www.nrel.gov/csp/solarpaces/project_detail.cfm/projectID=270

[2] Siehe : KfW Bericht https://www.kfw.de/KfW-Konzern/Newsroom/Themen-Kompakt/Marokko/Projektbeschreibung_Ouarzazate_April2013-SgJ.pdf. Die dort genannten Werte sind aber nicht sehr glaubwürdig, weil hier unterstellt wird, dass sogar um 25 % größere Anlagen wie NOORoII um 40 % billiger gebaut werden können. Noch dazu vom selben Anlagenbauer

[3] Lt KfW beteiligen sich die Europäische Kommission, die Europäische Investitionsbank, die Französische Entwicklungsbank (Agence Française de Développement), der Clean Technology Fund, die Afrikanische Entwicklungsbank, die Moroccan Agency for Solar Energy und ein per Ausschreibung gefundener privater Investor

[4] Quelle http://www.nrel.gov/csp/solarpaces/project_detail.cfm/projectID=270. Auch der günstigere Wert von 0,27 kG CO2/KWh für Diesel ergäbe zwar eine höhere Energielieferung, würde aber die Probleme der zu hohen Produktionskosten nicht beheben.

[5] Quelle: http://volker-quaschning.de/datserv/CO2-spez/index.php

[6] Quelle http://marokko.ahk.de/fileadmin/ahk_marokko/2013_Events/2014-01-15_EI_EEn_Factsheet_Solar-_Windenergie.pdf




Initialisierungs-Verfahren disqualifizieren die IPCC-GCMs für die meisten Zwecke der Vorhersagen zum Klimawandel

Die meisten Menschen würden zustimmen, dass die Globalen Zirkulations-Modelle (Global Circulation model) GCMs primär konstruiert worden sind, um eine Bandbreite globaler und regionaler Feuchtigkeits- und Temperaturvorhersagen für Zeiträume zu erstellen, die von Jahrzehnten bis zu Jahrhunderten reichen. Diese Modelle werden jetzt reaktiviert für vieljährige bis dekadische Klimavorhersagen in zahlreichen spezifischen Unterregionen des Planeten.

GCMs fressen erhebliche Summen Geldes aus nationalen Förderquellen. Es kann sein, dass über 1,5 Milliarden Dollar Förderung der [US-]Bundesregierung während der letzten Jahrzehnte direkt in die Entwicklung von GCMs geflossen sind. Falls sie weiterhin öffentliche Gelder mit der gegenwärtigen Rate verschlingen, sollte man erwarten, dass GCMs sich auch mittels angemessener Vorhersageleistungen rentieren. Aus diesem Grunde, und einfach weil es öffentlich finanzierte Modelle sind, sind GCMs und deren Nachfolgeprodukte verpflichtet, Kalibrierungen transparent zu dokumentieren, und zwar bei jeder Anwendung.

Kein normaler Physiker oder Ingenieur würde großes Vertrauen in Modelle setzen, die keine transparente Dokumentation von Kalibrierungen zur Verfügung stellen. Viele einschließlich ich selbst argumentieren, dass sogar Modelle, welche tatsächlich Leistungen zeigen, auch etwas Vertrauen verdienen, jedoch nicht sehr weit in die Zukunft. Wie kommt es dann, dass die primären GCMs des IPCC weder die Modell-Genauigkeit noch Transparenz in Verbindung mit ihren Vorhersagen zeitigen?

Dieser Beitrag wurde geschrieben, um die überraschend schlechten Vorhersageleistungen zu erkunden, zusammen mit der genauso schlechten Dokumentation von Kalibrierungen dieser GCMs. Bei der Einführung zu diesem Thema möchte ich mich im Wesentlichen auf meine kürzlich gemachten Erfahrungen stützen, indem ich meine eigenen Ergebnisse mit denen der GCMs vergleiche. Bei diesen Bemühungen habe ich auch von den beispiellosen und undurchsichtigen Praktiken der Ersetzung von Modellergebnissen durch nicht veröffentlichte Daten erfahren. Diese Praxis ist eine neue Variante von Standardmodell-Initialisierungen.

Wer mit meinen bisherigen Begegnungen mit den ozeanischen pH-Daten (Wallace 2015) vertraut ist, kann eventuell die Ironie erkennen. Im Falle der ozeanischen pH-Werte wurden große gemessene Datenmengen durch nicht veröffentlichte Modellergebnisse ersetzt. In diesem GCM-Fall sind große Mengen von Modellergebnissen durch nicht veröffentlichte Beobachtungsdaten ersetzt worden.

Der jüngste Satz technischer und damit zusammenhängender Veröffentlichungen (WG1 AR5) des IPCC sind de facto Referenzen für die Überprüfung der GCMs. Eine damit zusammenhängende und oft zitierte Studie (Meehl et al. 2009) umreißt auch den neu definierten Zweck der GCMs. Den Autoren zufolge haben die Modelle inzwischen ihr primäres Ziel der Validierung von Treibhausgasen als Treiber einer langzeitlichen Erwärmung erreicht. Die Studie untersucht, wie diese GCMs als Nächstes angewendet werden zum Vorteil für Gesellschaften, indem regionalisierte Produkte erzeugt werden über kürzere Zeiträume, also über Jahre bis Jahrzehnte. Die Studie führt die Leser auch in die Studien der Coupled Model Intercomparison Project (CMIP) ein. Diese CMIP-Aktivitäten machen die primäre Dokumentation der Kalibrierungen der GCMs aus (Vorhersageleistungen, die zur Historie passen).

Teils aufgrund dieser Informationsquellen verlassen sich Viele im relevanten Ressourcen-Management wahrscheinlich bis zu einem gewissen Grad auf die IPCC-basierten dekadischen Vorhersagen zum Klimawandel. Diese Domäne der Klimavorhersage überlappt sich rein zufällig mit dem Gegenstand meiner eigenen kleinen Beschäftigung mit der Klimavorhersage – siehe http://www.abeqas.com.

Mein Verfahren der Klimavorhersage basiert im Wesentlichen auf Regression (RB) im Vergleich zu der deterministischen Modellierungs-Strategie des IPCC. Trotz dieses bedeutenden Unterschiedes koexistieren meine Produkte und die GCMs im gleichen allgemeinen Spektrum von Klimavorhersagen. Abbildung 1 (übernommen von Meehl et al.) zeigt einige Größenordnungen der Vorhersagbarkeit in Bezug auf Ziele der Klimavorhersage. Die damit in Beziehung stehenden Vorhersage-Größenordnungen meiner Firma werden durch das unterste schattierte Band erläutert, welches ich der Originalabbildung hinzugefügt habe.

Abbildung 1: MWA-Vorhersagen umfassen ähnliche Bandbreiten wie die jüngst umgewidmeten IPCC-Modelle. Unsere Verfahren basieren ausschließlich auf verzögerten Korrelationen zu natürlichen oszillatorischen Antrieben. Abbildung übernommen aus Meehl et al. 2009.

Die Abbildungen 2 und 3 sind repräsentativ für einige Klimavorhersageprodukte meiner Firma. In diesem Beispiel haben wir 5-year trailing average flow rate* eines mountain streams* für 3 bis 6 Jahre im Voraus vorhergesagt. In Abbildung 2 habe ich eine Zeitlinie (grüne durchgezogene Linie) des jährlichen mittleren Flusses dieses streams* dargestellt, und zwar via der Beobachtungen des Pegels des Pecos-Flusses nahe der Stadt Pecos im nördlichen New Mexico. Die über diese Zeitlinie gelegten offenen blauen Kreise sind meine Vorhersagen des stream flow*, und zwar auf der Grundlage von „Ozean-Antriebs“-Informationen aus vielen früheren Jahren.

[Kursiv gesetzte Termini mit * entziehen sich meinen Übersetzungskenntnissen. Anm. d. Übers.]

Abbildung 2: Vorhersagen und Beobachtungen stichprobenartig am oberen Pecos-Fluss im nördlichen New Mexico. Vorhersage: 6-jährige Projektion eines 5-jährigen trailing-Mittelwertes. Nachhersage: 5-jähriges trailing-Mittel auf der Grundlage einer dreijährigen Verzögerung zur Ursprungs-Variablen. Vorhersagen jenseits der durchgezogenen grünen Linie wurden nicht später als 31. Dezember 2015 erzeugt.

Abbildung 3: Repräsentation der Nachhersage-Leistung für 5 Jahre mit einer dreijährigen Verzögerung zum Ursprung. Die Gleichung für die Regression ist nicht gezeigt und basiert auf jüngsten Gesamt-Datenmengen. Gebiet: am oberen Pecos-Fluss im nördlichen New Mexico.

Normalerweise lenke ich die Aufmerksamkeit der Leute auf die Beobachtung, dass wir an dieser Stelle einige nachgewiesene Fähigkeit zur Vorhersage haben, um Feuchtigkeits-Defizite bzw. -Überschüsse für einen vieljährigen Zeitraum zu erkennen. Man kann sagen, dass dieses Verfahren helfen kann, einige Jahre im Voraus Dürren im Beobachtungsgebiet zu erkennen. Abbildung 3 zeigt die Güte für diesen Satz von Vorhersagen. Derartige Punktwolken haben diagnostischen Wert ebenso wie Vergleichswerte von Evaluierungen anderer Vorhersagen. Sie können auch herangezogen werden, um Werte wie den mittleren Fehler und den mittleren quadratischen Fehler zu berechnen.

Wir haben auch damit zusammenhängende Produkte entwickelt wie eine über ein Jahr gemittelte Stream flow [Abflussrate?] zwei Jahre im Voraus vorherzusagen. Die Abbildungen 4 und 5 folgen der logischen Verteilung der Abbildungen 2 und 3. Zufälligerweise bin ich in diesem Fall auch in der Lage, unsere Vorhersagen direkt mit einem IPCC-Bericht zu untergeordneten Modellen zu vergleichen. Dieser Bericht dokumentiert die Anwendung herabgestufter GCMs, um das Volumen von Abflussraten über viele Jahrzehnte im Voraus zu simulieren, und zwar für den Gila-Fluss in New Mexico. Dieser Fluss liegt nur wenige hundert Meilen von der Pegelmessstelle am Pecos-Fluss entfernt, wo ich meine Untersuchungen durchgeführt habe.

Abbildung 4: Überlagerung tatsächlicher Beobachtungen zweier unterschiedlicher Flussbetten in New Mexico (grüne Linien) über zwei miteinander konkurrierende Vorhersage-Verfahren. Oben rechts: MWA-Nachhersage und Vorhersage von jährlichen Flussraten des Pecos-Flusses. Unten: SubVendor 001-Nachhersage jährlicher Fluss-Volumina für den Gila-Fluss.

Abbildung 5: Eine Repräsentation von Kalibrierungs-Vermögen. Oben rechts: Fehler in Prozent für jede Jahres-Schätzung: MWA 2 Jahre im Voraus für Fluss-Volumina des Pecos-Flusses in New Mexico. Unten: Fehler in Prozent für jede Jahres-Schätzung: IPCC SubVendor 001-Vorhersagen der Volumina am Gila-Fluss in New Mexico.

Allerdings enthielt jener IPCC-Bericht über die Untermodelle im Original keine Karte mit den tatsächlichen Beobachtungen, und daher gab es auch keine reproduzierbare Dokumentation der Kalibrierung. Für den Beginn des Prozesses, die Güte dieser Vorhersagen zu evaluieren, habe ich jene Beobachtungs-Zeitlinie in grün hinzugefügt. Aus dieser Graphik kann man eine Vielfalt von Modellläufen erkennen in hellem graublau, sowie ein Ensemble oder mittleres Modellergebnis in schwarz. Im Vergleich zu den beobachteten Flüssen scheinen die Modelle das minimale Fluss-Volumen für diesen Fluss konstant zu überschätzen. Außerdem zeigt kein Modell oder Ensemble eine überzeugende visuelle Korrelation mit der Historie der Beobachtung.

Die Informationen zur Kalibrierung in unserem Falle zeigen, dass unsere 2-Jahres-Vorhersagen für die Höhen und Tiefen des jährlichen Stream Flows sehr gut sind. Die Größenordnung dieser Schwingungen könnte besser sein als unsere Vorhersagen. Am besten schnitten die Vorhersagen ab in mittleren Flussjahren, und Ausreißer werden nicht immer genau vorhergesagt. Das ist kein ungewöhnliches Ergebnis. Wir teilen diese Schwäche mit den übrigen Vorhersageverfahren. Es scheint, dass quantitative Vorhersagen extremer Klimaereignisse derzeit jenseits der Möglichkeiten liegen. In jedem Falle ist es bei uns üblich, immer unsere Güte für jede Vorhersage bekannt zu machen. Während der letzten 2 Jahre hat die Mehrheit unserer auf Regression basierenden Vorhersagen ein Genauigkeit von 90% gezeigt. Mehr dazu hier.

Ich hatte das Gila-Beispiel im Oktober vorigen Jahres untersucht auf Anforderung eines weitsichtigen Klienten. Nachdem ich die Ergebnisse gesehen hatte, glaubte ich, dass es helfen könnte, die Aufmerksamkeit zu heben für unsere hohe Güte der Klimavorhersage mittels formaler Vergleiche mit zusätzlichen Anbietern. Ich entwickelte Kriterien für die Abschätzung mit dem Ziel sowohl von Transparenz als auch Güte von Klimavorhersage-Produkten für jedweden Kunden. Ich verschickte damit zusammenhängende Übersichten an eine Anzahl von Kunden und schaute auch auf deren Websites. Die Liste meiner Klienten reichte von Variationen im Old Farmers Almanach über USDA NRCS SNOTEL-Vorhersagen bis hin zum IPCC mit dessen heruntergestuften Sub-Modellen. In jedem Falle habe ich zunächst die Website des Klienten begutachtet. Falls ich auf fehlende Berichte zu Kalibrierungen stieß, habe ich dies dem Klienten per E-Mail mitgeteilt. Falls der Klient geantwortet hat, habe ich meine ursprüngliche Einschätzung mit diesen Informationen aktualisiert. Hat der Klient nicht geantwortet, habe ich einen Vermerk angebracht und weiter gemacht.

Was die Evaluierungen bei anderen Klienten betrifft, begann ich bei den High-Level-Summaries des IPCC, um generell die Inhalte ihrer Klimavor- und -nachhersagen zu verstehen. Bereits aus Abbildung 4 geht beispielsweise hervor, dass wir beide Vorhersageprodukte hatten, die über Zeit und Raum miteinander verglichen werden konnten.

Auch bin ich davon ausgegangen, dass deren Kalibrierung (Nachhersage-Güte) auf GCMs basierten, die allesamt kontinuierlich laufen gelassen worden sind über Jahrzehnte lange Simulationszeiträume, und habe sie mit historischen dekadischen Beobachtungen verglichen. Derartige Verfahren können beispielsweise bei Shuhua et al. 2008 eingesehen werden. Diese Hypothese hat sich als unrichtig erwiesen, wie ich hier detailliert beschreiben möchte.

Abbildung 6 ist übernommen aus Kapitel 9 der WG1 des AR5 und repräsentiert einige potentielle Kalibrierungs-Produkte mit Bezug zu CMIP5. Die Abbildung zeigt eine offensichtliche Folge langzeitlicher Modellhistorie, die zu Zeitreihen-Produkten passt, zusammen mit einer Repräsentation von auf Beobachtungen basierenden Zeitreihen der gleichen Variable als dicke schwarze Linie. Die Variable ist in diesem Fall die Temperaturanomalie in Grad Celsius. Allerdings scheinen die Modellsimulationen in dieser Abbildung auch Läufe zu enthalten, welche jährlich einer Re-Initialisierung mit den Beobachtungen unterzogen worden sind.

Abbildung 6: In dieser Abbildung 9 aus WG1 im AR5 sind die unterschiedlichen Ergebnisse der GCMs gezeigt, zusammen mit Beobachtungen, die durch die dicke schwarze Linie repräsentiert werden. Der hellblau hinterlegte Text bezieht sich auf die IPCC-Repräsentation des prädiktiven Wertes der gezeigten GCMs. Hellblau hinterlegte Jahre heben einfach die Ergebnisse von etwa 1960 bis 2000 hervor.

Diese Initialisierungen sind bedenklich. Typischerweise werden in jedem deterministischen Modell Initialisierungen von Parametern nur einmal angebracht zu Beginn der Simulation der Zeitreihe. Wer würde argumentieren, dass diese einmalige „Initiation“ die Wurzel des Wortes ist? Es würde extensiver Qualifikationen bedürfen, wenn man jede Initialisierung durch den gesamten deterministischen Zeitrahmen wiederholt. Würde das auftreten, wären es Re-Initialisierungen.

Merryfield et al. (2010) zeigen Beschreibungen eines Re-Initialisierungs-Verfahrens eines GCMs. In diesem Falle betont das Dokument, dass derartige Verfahren im besten Falle zu Verbesserungen jahreszeitlicher Vorhersagen führen. Mit anderen Worten, von dem prädiktiven Wert ihrer Modelle wurde nicht behauptet, dass sie über jahreszeitliche Zeitrahmen von 3 Monaten oder so hinausgehen. Die Autoren stellten zusammenfassend fest, dass ein großer Teil der offensichtlichen Güte ihrer Vorhersagen der Tatsache geschuldet ist, dass sie die Modellwerte re-initialisiert hatten:

„…Wassertemperaturen im Modell sind an die beobachteten Werte angepasst [nudged] worden während eines vieljährigen Zeitraumes, der dem Beginn einer Vorhersage vorausgeht“.

Die Adjustierungen waren erforderlich, weil sie die Ozeanparameter nicht hinreichend weit in die Zukunft hinein genau modellieren oder vorhersagen konnten.

Und doch, trotz dieser Schwäche erfolgte die graduelle Ausweitung des Initialisierungs-Verfahrens durch die gesamte Gemeinschaft der GCM-Modellierer von Jahreszeitlichen zu dekadischen Vorhersagezeiträumen. Diese Initialisierungen dominierten schließlich meine Bedenken hinsichtlich der GCM-Kalibrierungen und der Berichte über deren Güte: Warum werden diese Parameter fortwährend zurückgesetzt, um zu den Beobachtungen zu passen, wenn doch die GCMs diese vorhersagen sollen? Woher bekommen sie jetzt jene Zukunfts-Beobachtungen, die sie brauchen, um ihre prädiktiven dekadischen Modelle auf Linie zu halten? Wie kommen sie dazu, ganze Publikationen von Ergebnissen mit hohem Vertrauen zu verbreiten?

Eine kürzlich erschienene Studie von Suckling und Smith (2013) befasst sich mit einigen Aspekten dieser Neuausrichtung und Initialisierung der GCMs. Vor allem verweist der Artikel auf die Praxis der Re-Initialisierung der Randbedingungen der GCMs mit jüngsten Beobachtungen. Die Autoren stellen in einfachen Worten fest:

„Gegenwärtig ist unklar, ob die Initialisierung der Modelle mit den Beobachtungen bei jedem Lauf die Güte dekadischer Vorhersagen verbessert … Grundsätzlicher, die Fähigkeit, brauchbare dekadische Vorhersagen zu erstellen mittels der Simulation von Modellen muss erst noch etabliert werden“.

Allgemein herrscht unter den Gemeinschaften der Modellvergleiche untereinander die Ansicht, dass man Modellvorhersagen nicht übernehmen sollte, die länger im Voraus Vorhersagen machen als die Zeitspanne, für die sie kalibriert worden sind. Aber trotz derartiger Bedenken liefert das CMIP5-Programm unverdrossen „ein Rahmenwerk für koordinierte Klimawandel-Experimente während der nächsten fünf Jahre, was folglich Simulationen im AR5 einschließt ebenso wie Simulationen, die über AR5 hinausgehen“. (Taylor et al. 2008).

Diese Design-Guidance von CMIP5 spezifiziert die folgenden Zeiträume zur Anwendung von Vorhersagen:

„1) kurzfristige dekadische Vorhersage-Simulationen (10 bis 30 Jahre), initialisiert in gewisser Weise mit…“ und

„2) langfristige (Zeitmaßstab von Jahrhunderten) Simulationen initialisiert von…“

Keinerlei Zweifel für diese Vorhersagezeiträume werden angegeben, anders als in Beispielen wie diesem tief inmitten von Untertiteln:

Kapitel 3. Abschnitt 1.2 Erweiterte Integrationen mit initialen Zeitpunkten Ende 1960, 1980 und 2005 für 30 Jahre. Untertitel: Weitere Details zu den Läufen: … „… die gesamte Frage der Initialisierung des Klimasystems ist eine der größten wissenschaftlichen Herausforderungen der dekadischen Vorhersage“ (Hervorhebung von mir).

Dieser seltsame Satz scheint zu behaupten, dass ihr Verfahren eine enorme wissenschaftliche Herausforderung ist. Ich frage mich, ob sie damit sagen wollten, dass dies unmöglich sein könnte. Sicherlich wringen viele Wissenschaftler und Ingenieure ihre Hände über die Aussagen in den Kapiteln 9 und 11 des IPCC-Berichtes über nichtlineare Dynamik und Chaos, einschließlich ich selbst. Aber wenn derartige Hindernisse das wirkliche Problem sind, warum sind dann meine Vorhersagen so genau? (1)

In jedem Falle erscheint die Re-Initialisierung der CMIP5-Design-Guidance jetzt institutionell zu sein für alle nachgeordneten regionalen dekadischen Vorhersagen. Das Lawrence Livermore National Laboratory (LLNL) hat das Programm der Klimamodell-Diagnose und Vergleiche [Program for Climate Model Diagnosis and Intercomparison (PCMDI)] dem Erhalt operationeller und re-initialisierender Fähigkeiten für CMIP gewidmet, und zwar hier:

http://cmip-pcmdi.llnl.gov/cmip5/docs/Taylor_CMIP5_design.pdf

http://cmip-pcmdi.llnl.gov/cmip5/experiment_design.html

Dieses Programm enthält detaillierte Guidance und Unterstützung, wie die Re-Initialisierung implementiert werden muss. Abbildung 7 repräsentiert ein Beispiel von Kharin et al. (2012) von vier Schritten in Verbindung mit der Daten-Re-Initialisierung:

Abbildung 7: Aus Kharin et al.: Statistische Adjustierung von Vorhersagen

Bildinschrift: (a) schematische illustrierte Modellverschiebungen bei initialisierten Vorhersagen (farbige durchgezogene Linien) im Vergleich mit dem Klima von nicht initialisierten Simulationen (grau). Farbige gestrichelte Linien zeigen Verschiebungs-Residuen, die verbleiben, wenn der Bias korrigiert wird. (b) Evolution der jährlichen globalen mittleren Temperatur im GISS-Datensatz (schwarz) und Mittel des Roh-Ensembles von CanCM4 nicht initialisiert (grau) und initialisierte Vorhersagen (farbig). Die gestrichelten Linien sind langfristige lineare Trends, angepasst an die Beobachtungen und nicht initialisierte Lösungen. Die globale Größenordnung des vulkanischen Antriebs im CanCM4 ist repräsentiert entlang der horizontalen Achse. (c) Das Gleiche wie in Abbildung (b), jedoch mit Bias-korrigierten Vorhersagen. (d) ebenfalls wie in (b), aber trend-adjustierte Vorhersagen.

In dieser Studie wird kaum etwas der eigenen Vorstellung überlassen, außer jeder Reflektion, dass die Ergebnisse nur für saisonale Vorhersagen geeignet sind (falls überhaupt). Die Diagramme zeigen vier Komponenten zu den Adjustierungen:

1. Die Modelle werden jedes Jahr re-initialisiert.

2. Die re-initialisierten Modelle werden dann Bias-korrigiert.

3. Die Bias-korrigierten Modelle werden dann trend-adjustiert, und

4. Das Ensemble der Ergebnisse wird dann zusammengeführt.

Ich habe wohl so etwas Ähnliches versucht, aber mit einem viel lockereren Prozess in einer informellen Bestätigung dieser Initialisierungs-Praxis (Abbildung 8). Ich habe auch gefunden, dass die allgemeine Praxis die Perzeption höherer Güte tatsächlich verbessert.

Abbildung 8: Ich erzeugte meine eigene Version des Initialisierungs-Verfahrens. Anstatt GCMs laufen zu lassen, erzeugte ich einen Satz von Randwert-Zahlen, gezeigt als blaue Punkte im linken Bild. Ich betrachte diese als random walk models (RWMs). Das rechte Bild dokumentiert mit den offenen blauen Kreisen, dass ich jedes RWM-Ergebnis jedes Jahr re-initialisiert habe, um sie zu den Beobachtungen passend zu machen, die ich mit der schwarzen Linie dargestellt habe. Dann habe ich die Ergebnisse übereinander gelegt via der gepunkteten blauen Linie: Ich kam auf eine sehr gute Anpassung!

Ich hatte gedacht, dass Ozean-Parameter Hauptgegenstand der Re-Initialisierung seien. Abbildung 9, übernommen von Gonzales et al. (2015), zeigt eine partielle Erklärung für diesen Prozess.

Abbildung 9: nach Gonzales et al. 2015. Je länger man ein CMIP-Modell laufen lässt, umso weniger passen die Ergebnisse zu den Beobachtungen. Daher die Praxis der Initialisierung.

Das modellierte charakteristische Muster der Oberflächentemperatur des Pazifischen Ozeans auf beiden Hemisphären einschließlich der Äquator-Region nimmt rapide ab und werden schon nach einem Jahr von den GCMs nur noch sehr schlecht repräsentiert. Eine Re-Initialisierung scheint bei diesen Temperaturen durchgeführt worden zu sein, falls ich mich nicht irre. Nur dann können die Modelle sich ein paar weitere Monate nach vorne durchwursteln bzgl. einer potentiell plausiblen Vorhersage.

Ein offensichtlicher Appell, die Validierungs- und Kalibrierungs-Verfahren von CMIP zurückzubringen zu einer verlässlichen und transparenten Güte-Abschätzung scheint in einer Studie von Fricker et al. (2013). Allerdings bleibt der letzte Absatz der Studie unbeachtet:

„Die Ideen, die wir aufgezeigt haben sind noch etwas unterentwickelt und zeigen verschiedene Wege für zukünftige Untersuchungen auf. Wir fühlen, dass ein besseres Verständnis oder unterschiedliche Arten unechter Güte, deren Gründe und Implikationen für die Evaluierung wertvoll wäre. Viele weitere faire Messungen von Ensembles, die als unterschiedliche Arten von Stichproben interpretiert werden können, könnten ebenfalls konstruiert werden. Es wird außerdem interessant sein zu sehen, ob weitere Untersuchungen zur Vorhersagegüte über eine breite Spanne von Zeitmaßstäben helfen wird, die Qualität und Brauchbarkeit von Klimavorhersagen zu verbessern“.

Jetzt, wo der Prozess der CMIP-Validierung via Initialisationen institutionalisiert ist, glauben Klimawandel-Wissenschaftler offenbar, dass keine weitere Notwendigkeit für tatsächliche Experimente besteht, für Kalibrierungs-Dokumentationen oder Transparenz für Verbraucher. Solange das Geld fließt, werden stattdessen weiterhin die jüngsten Beobachtungen an einem Ende in die CMIPs gefüttert. Am anderen Ende werden weiterhin langfristige Klimavorhersagen für alle Gebiete, Modalitäten und Zeitspannen herauskommen. Die Entfaltung dieser ungenauen Ergebnisse wird dann weiterhin die Kosten steigen lassen und die Welt umfassen.

Es scheint, dass ohne Forderungen nach Transparenz aus der Öffentlichkeit die Multimilliarden Dollar schwere, CMIP-gesegnete GMS-Maschine weiterlaufen wird. Was kann man gegen ein titanisches und fehlgeleitetes Unterfangen tun? Ich empfehle zu Beginn, dass die Güte aller dekadischen Vorhersagen, Prophezeiungen, Projektionen und Nachhersagen aller Klimawandel-Klienten klar veröffentlicht werden, mit und ohne Initialisierungen. Anderenfalls haben kleinere Unabhängige, die weniger alarmierende, aber auch genauere Lösungen anbieten, kaum eine Chance.

References

Fricker, T.E., C.A.T. Ferro, and D.B. Stephenson, 2013, Three recommendations for evaluating climate predictions METEOROLOGICAL APPLICATIONS 20: 246 – 255 DOI: 10.1002/met.1409

Gonzalez, P.L.M,and L. Goddard, 2015, Long-lead ENSO predictability from CMIP5 decadal hindcasts. Journal of Climate Dynamics DOI 10.1007/s00382-015-2757-0

HYDROCOIN Sweden hosted workshop in 1992 on groundwater model skill inter-comparisons

http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/24/002/24002761.pdf

Kharin, V.V., G. J. Boer, W. J. Merryfield, J. F. Scinocca, and W.-S. Lee, 2012, Statistical adjustment of decadal predictions in a changing climate GEOPHYSICAL RESEARCH LETTERS, VOL. 39, L19705, DOI:10.1029/2012GL052647, 2012

Meehl, GA, L Goddard, J Murphy, RJ Stouffer, G Boer, G Danabasoglu, K Dixon, MA Giorgetta, AM Greene, E Hawkins, G Hegerl, D Karoly, N Keenlyside, M Kimoto, B Kirtman, A. Navarra, R Pulwarty, D Smith, D Staffer, and T Stockdale, 2009, Decadal Prediction, Can It Be Skillful? American Meteorological Society, Articles October 2009 1467 – 1485

Merryfield, W.J., W.S. Lee, G.J. Boer, V.V.Kharin, P. Badal, J.F. Scinocca, and G.M. Flato, 2010, The first coupled historical forecasting project (CHFP1). Atmosphere-Ocean Vol. 48, Issue 4 pp. 263-283

Shuhua Li, Lisa Goddard, and David G. DeWitt, 2008: Predictive Skill of AGCM Seasonal Climate Forecasts Subject to Different SST Prediction Methodologies. J. Climate, 21, 2169–2186. doi: http://dx.doi.org/10.1175/2007JCLI1660.1

Suckling, E.B. and L.A. Smith, 2013, An evaluation of decadal probability forecasts from state-of-the-art climate models. Centre for the Analysis of Time Series, London School of Economics.

Taylor, K.E., R.J. Stouffer, and G.A. Meehl, 2008, A Summary of the CMIP5 Experiment Design, Lawrence Livermore National Laboratory http://cmip-pcmdi.llnl.gov/cmip5/docs/Taylor_CMIP5_design.pdf

UN Intergovernmental Panel on Climate Change UN IPCC home page:

http://www.ipcc.ch/

UN Intergovernmental Panel on Climate Change UN IPCC WG1AR5 Chapter 9 Evaluation of Climate Models 2013

https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_Chapter09_FINAL.pdf

Flato, G., J. Marotzke, B. Abiodun, P. Braconnot, S.C. Chou, W. Collins, P. Cox, F. Driouech, S. Emori, V. Eyring, C. Forest, P. Gleckler, E. Guilyardi, C. Jakob, V. Kattsov, C. Reason and M. Rummukainen, 2013: Evaluation of Climate Models. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assess­ment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

UN IPCC assessment report: 2014 Climate Change 2014 Synthesis Report Summary for Policymakers

http://www.ipcc.ch/pdf/assessment-report/ar5/syr/AR5_SYR_FINAL_SPM.pdf

UN Intergovernmental Panel on Climate Change UN IPCC WG1AR5 Chapter 11 Near-term Climate Change: Projections and Predictability 2013

Kirtman, B., S.B. Power, J.A. Adedoyin, G.J. Boer, R. Bojariu, I. Camilloni, F.J. Doblas-Reyes, A.M. Fiore, M. Kimoto, G.A. Meehl, M. Prather, A. Sarr, C. Schär, R. Sutton, G.J. van Oldenborgh, G. Vecchi and H.J. Wang, 2013: Near-term Climate Change: Projections and Predictability. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)). Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

Wallace, M.G. 2015 Ocean pH Accuracy Arguments Challenged with 80 Years of Instrumental Data.

Guest post at http://wattsupwiththat.com/2015/03/31/ocean-ph-accuracy-arguments-challenged-with-80-years-of-instrumental-data/

Link: http://wattsupwiththat.com/2016/02/03/initialization-practices-disqualify-un-ipcc-global-circulation-models-from-use-for-most-climate-change-forecast-purposes/

Übersetzt von Chris Frey EIKE, der öfter an die Grenzen seiner Fachkenntnisse stieß.




Unter die Lupe genommen: Der „menschengemachte Klimawandel“

  Daher sei das CO2 schädlich, ja lebensbedrohlich. Daher die Abkehr von der Energiegewinnung aus fossilen Brennstoffen und Umstieg auf regenerative Energiequellen. Diese Angsteinflößungen und der Umstieg kostete den Bundesbürgern allein im Jahr 2015 für Ökostrom aus Wind-, Photvoltaik- und Biogasanlagen 24,1 Milliarden €. Diese hohe Summe fordert dazu auf, zu hinterfragen, ob die Ursachen, die zuvor aufgezeigten Bedrohnugen, ursächlich stimmen und diese Kosten gerechtfertigt sind?

Eine Klimareligion hat sich aufgetan

1989 verkündete der Weltklimarat (IPCC) der UNO: Ganze Länder werden in Meeren untergehen, wenn nicht bis zum Jahr 2000 die Erwärmung umgekehrt werde. 2005 zelebrierte der politische Direktor von New Economist Foundation, dass bis 2010 50 Millionen Menschen aufgrund des Klimawandels mit seinen steigenden Meerespiegeln, Zunahmen an Wüsten und ausgetrockneten Wasservorräten ihren Lebensraum verlieren werden. AL Gore prophezeite 2009 mit 75%-iger Sicherheit, dass ab 2014 die Nordpol-Eiskappen während der Sommermonate komplett frei sein werden. Die Krönung zur „Seelenwäsche“ in Sachen Klimaschutz brachte im November 2015 der Chefberater der Kanzlerin, Prof. Schellnhuber. Im Vorfeld der Pariser Klimakonferenz prophezeite er den Tod aller Menschen, denn die Erde werde sich um " .. 6 bis 8 bis 10°C“ aufheizen (Schellnhuber, 16.11.2015 RBB) wenn die fossilen Energieträger weiter benutzt werden. Die Menschen würden, selbst wenn sie draußen nackend herumlaufen und sich mit Wasser abkühlen würden, in 4 bis 5 Stunden sterben. DIE WELT setzte am 30.12.2015 noch eine Meldung oben drauf und titelte: „Am Nordpol wird es bis zu 50 Grad wärmer als üblich“. Damit wir unseren Seelenfrieden erreichen, nutzt ganz aktuell (SJ 17.1.) auch Schulpastor Hölterhoff dieses Klischee der „Erdaufwärmung“ mit seinem Bild, dass ganz Norddeutschland unter Wasser stehe und wir nach Senegal flüchten müssen. Da haben wir Glück, dass uns nicht mehr mit der Hölle gedroht wird.

Fakten sind

Keine dieser reißerischen Aussagen ist eingetroffen. Die Polkappen sind nach wie vor da. Keine Stadt ist im Meereswasser untergegangen, die Wüstengebiete der Sahara z. B. nehmen messbar ab. Es gibt keine 50 Millionen Klimaflüchtlinge, sondern aktuell 60 Millionen Kriegsflüchtlinge. Insgesamt muss man zu diesen Fällen Al Gore zitieren: „Wenn hochentwickelter Schwachsinn an die Stelle ernsthafter Analyse tritt“, dann entstehen derartige Meldungen.

Klima – was ist das?

Der Begriff Klima ist ein statistischer Begriff. Er ist international definiert. Alle Wetterparameter eines Tages (Temperatur, Windgeschwindigkeit, Luftdruck, Sonnenscheindauer, Regenmenge usw.) werden erfasst, täglich und monatlich verrechnet und erst die Durchschnittswerte für einen Zeitraum von 30 Jahren bilden die Klimawerte. 30 Jahre umfassen 10950 Tage. Ein einzelner Tag trägt zu den Gesamtdurchschnittswerten des Klimas beispielsweise für den Zeitraum 1986 bis 2015 also nur 1/10950tel bei. Eine Woche ist mit einem 1/1560tel und ein Monat einem 1/360tel an einem Klimazeitraum vertreten. Daraus wird deutlich, das Klima ändert sich noch nicht einmal wesentlich, wenn es mal einen sehr kalten oder sehr warmen Sommer gibt. Ein Jahr hat lediglich einen Einfluss eines 30igstels auf den Klimawert. Wer beispielsweise gleich nach einer Woche großer Hitze oder Kälte meint, das Klima habe sich verändert, liegt mit seiner Feststellung falsch. Leider trifft das auch für einige „kommerzielle Wetterfrösche“ im Fernsehen zu, die nach wenigen Tagen hoher oder niedriger Temperaturen oder Niederschlagsmengen gleich mit Klimaveränderungen aufwarten.

Das Klima war noch nie konstant. Das Klima ändert sich stetig. Und es hat sich immer geändert, obwohl es in der Vergangenheit (vor etwa 1850) nie eine industrielle Verbrennung fossiler Rohstoffe gab. Wer wie Klimaforscher Latif glaubt, das Klima regeln zu können, leidet unter ausgeprägter Selbstüberschätzung.

CO2 – das lebenswichtige Gas

Zunehmend stellen Wissenschaftler vor allem aus dem Bereich der Biologie und Agrarwissenschaften aber auch aus der Meteorologie klar, dass  steigende CO2-Gehalte der Luft positiv für das Wachstum der Pflanzen gegen Hunger und Armut der Menschheit zu bewerten sind. CO2 ist für die Pflanzen ein essentielles, lebensnotwendiges Nährion. Ohne CO2 ist eine Existenz von Pflanzen, Tieren und Menschen nicht möglich! CO2 ist keinesfalls schädlich! Aus dem CO2 der Luft und Wasser bilden die Pflanzen als „Abfallprodukt“ den Sauerstoff O2, den wir zum Atmen brauchen. CO2 ist daher ein äußerst lebenswichtiger, natürlicher „Rohstoff“.

Dass es in der Erdgeschichte einst extrem höhere CO2-Werte gab als heute, beweisen allein die riesigen Kohlenlagerstätten (einstige Urwälder) und Kalksteingebirge (einstige Meere), in denen der Kohlenstoff in unfassbar großen Mengen gebunden ist..

Tropische Regenwälder – Widersprechende Messergebnisse

Uns Bundesbürgern wird seit Jahren infiltriert, wie wichtig die tropischen Regenwälder als natürliche CO2 (= Einlagerung, dauerhafte Festlegung von CO2 für das Weltklima seien. Uns wird eingehämmert, dass in diesen Gebieten der CO2-Gehalt der Luft niedrig sei, weil es die tropischen Pflanzen ständig verbrauchen und wie in einem Speicher einlagern. Die NASA zeigte 2006 Simulationsfilme mit äußerst bedrohlichen, gefährlichen, feuerrot kreisenden CO2-Wolken über der Nordhalbkugel und sehr niedrigen CO2-Werten über den tropischen Regionen. Man kann bei Betrachtung dieser Filme wirklich Angst bekommen.

Erstmalige Satellitenaufnahmen der American Geophysical Union (AGU) vom Herbst 2014 zeigen allerdings etwas anderes: Über den tropischen Regionen ist die CO2-Konzentration deutlich höher als in benachbarten Regionen (wegen des ständigen Stoffauf- und -abbau) und zu dem Zeitpunkt auch deutlich höher als über der Nordhalbkugel, bei uns im industriellen Europa.

Auch diese Märchen von den Tropen müssen nun umgeschrieben werden.

Der Grundsatz, man solle erst messen und dann reden, erweist sich wieder einmal als richtig.

Steigende Meeresspiegel?

Der Meeresspiegel steigt an den Küsten seit Jahrtausenden. Nicht etwa durch Temperaturveränderungen wie Herr Latif es darstellt (BZ11.1.), sondern durch Krustenbewegungen und den  immer noch vorhandenen Verschiebungen der Kontinente. Der Anstieg war in Vorzeiten viel stärker als im letzten Jahrtausend und extrem viel höher als im letzten Jahrhundert. Wer steigende Meeresspiegel mit dem CO2 in Zusammenhang stellt, hat anderes als Aufklärung im Sinn. Er setzt auf die Unmündigkeit der Bürger und will weiterhin lukrative Forschungsaufträge erhalten.

Aussagen zu den Temperaturen hinterfragen

Zum Beweis, dass es auf der Erde wärmer geworden sei, wird gern auf den Zeitraum ab 1850 verwiesen. Danach sei es wegen des CO2-Ausstoßes durch die Industrialisierung unnatürlich wärmer geworden. Wer dieses Argument gebraucht, vertuscht, dass es vorher die „kleine Eiszeit“ von etwa 1400 bis 1850 gab. Ein Zeitabschnitt, in dem es wegen der  ca. 2 bis etwa 5 Grad niedrigeren Temperaturen der Bevölkerung Europas schlecht ging. Ausgeprägte Hungersnöte durch Missernten, Krankheiten und Auswanderungen kennzeichnen vor allem die Zeit um 1800 bis 1850. Die danach allmählich beginnende Erwärmung auf das in der früheren Vergangenheit vorhandene Niveau, kann man nur als „Glücksfall“ für Menschen und Tiere bezeichnen. 

Dieser Temperaturanstieg ist natürlich und unterliegt – so belegt es u. a. auch der Meteorologe Prof. Malberg, Berlin – mit seinen langjährigen Untersuchungen dem Zyklus der hohen und niedrigen Sonnenaktivitäten. Diese Beziehung ist nach seinen Untersuchungen zu 70 bis 80 % bestimmend für die schwankenden Temperaturverläufe in der Erdgeschichte. Die Wolken, also der Wasserdampf in der Atmosphäre, haben einen für jedermann fühlbaren Einfluss auf die Tages- und Nachttemperatur. Das CO2 und die anderen Gase spielen dabei eine untergeordnete Rolle. Seit Jahrzehnten steigt der CO2-Gehalt der Luft aber die Temperatur bleibt davon unbeeinflusst. Seit etwa 18 Jahren hat sich die globale Temperatur kaum verändert, der CO2- Gehalt ist dagegen ständig gestiegen.

Kein nachgewiesener Temperatureinfluss durch CO2

Im Übrigen hat bisher weder der Weltklimarat, die Bundesregierung, noch irgend ein Klimaalarmist den Beweis erbracht, dass steigende CO2-Gehalte der Luft höhere Temperaturen zur Folge haben (Wissenschaftlich: Besteht eine Korrelation zwischen der Lufttemperatur und dem CO2-Gehalt der Luft?). In einer seriösen Wissenschaft wäre dies die erste Arbeitsaufgabe, die geklärt sein müsste, um darauf aufbauend weitere Folgerungen zu ziehen.

Die aktuellen kommunalen Aktionen zum Klimaschutz – Einstellung von Klimamanagern – sind zwar politisch erwünscht, fachlich gibt es jedoch keinen Beweis dafür, dass sie mit ihrer Arbeit das Klima beeinflussen.

Überhaupt die Wissenschaft …

Heutzutage wird jedes politische Vorhaben „wissenschaftlich“ von „Experten“ begründet. Im Bereich des „menschengemachten Klimawandels“ hat sich ein schwungbarer Handel mit gut bezahlten „Projekten“ und „Forschungsvorhaben“ sowie ein teilweise krimineller Handel mit CO2-Zertifikaten entwickelt. Expertisen werden von den „Experten“ gegenseitig begutachtet, um sicher zu stellen, dass die Richtung der Aussagen auch passt. Daten werden geschönt. Zweifler werden gar nicht erst zu Stellungnahmen zugelassen und verunglimpft. Der Weltklimarat selber liefert dazu zahlreiche Beispiele. Oder das gibt es auch bei uns in Deutschland: Wissenschaftler, die abweichende Meinungen publizieren, erhalten einen Maulkorb und werden von ihren Aufgaben entbunden und versetzt. Insgesamt eine bedenkliche Entwicklung, denn eine freie Diskussion ist auf diesem Sektor nicht mehr gegeben.

Politik will unmündige Bürger

Die UNO mit dem Weltklimarat und besonders intensiv in weltweiter Vorreiterrolle benutzt unsere Bundesregierung mittelalterliche, angsteinflößende Scheinargumente für einen angeblich CO2-bedingten und menschengemachten Klimawandel. Die Bundesregierung erklärt uns Bürger für unmündig. Sie setzt alles daran, diesen Status der Unwissenheit aufrecht zu erhalten, um uns ihre allein im Jahr 2015 24,1 Millarden € teure, extrem unsoziale Energiepolitik zu begründen und aufzuzwingen.

Sehr langfristig betrachtet ist es richtig, nach alternativen Energiequellen zu suchen, da die fossilen  endlich sind. Diesen Umstieg allerdings mit einem „menschengemachten“ und „CO2-bedingten Klimawandel“ zu begründen und dafür einer vierköpfiger Familie dauerhaft ca. 1200 € pro Jahr – Tendenz stark steigend –  aufzubürden, ist eine politische Dreistigkeit, die kritische Nachfragen erlauben muss.

====================================================================

)* Dieser Artikel ist zuerst erschienen in:Bremervörder Zeitung, 30.01.2016, S.15 ;

EIKE-Redaktion dankt der Bremv.Z. und Herrn Nitsch für die Gestattung

====================================================================