Den Stillstand zerschlagende SST-Daten: Hat die NOAA eine Beziehung zwischen NMAT und SST hinweg adjustiert, die laut Konsens der CMIP5-Klimamodelle existieren sollte?

Bild rechts: © Chris Frey 2015

Hintergrund

Die NOAA hat ihr globales Temperatur-Erzeugnis Anfang dieses Jahres überarbeitet, um eine größere globale Erwärmung zu zeigen im Zeitraum nach 1998. Diese Datenmanipulationen haben vermeintlich die Verlangsamung der globalen Erwärmung in jenem Zeitraum beendet. Die von der NOAA durchgeführten Änderungen der globalen Temperatur wurden in drei Studien präsentiert. Die größten Änderungen wurden im Anteil der Wassertemperatur vorgenommen, und diese Änderungen waren Thema in den Studien von Huang et al. (2015) und Liu et al. (2015). Diese beiden Studien waren im Februar 2015 veröffentlicht worden – und von den Mainstream-Medien nicht zur Kenntnis genommen worden. Die Alarmisten jedoch haben nicht die Studie von Karl et al. (2015) übersehen Possible Artifacts of Data Biases in the Recent Global Warming Hiatus (Zahlschranke; gesamte Studie hier). Während sich die Überarbeitung auf den gesamten Zeitraum der globalen NOAA-Temperaturen seit dessen Beginn in den 1850-er Jahren erstreckte, haben sich Karl et al. (2015) auf die Zeiträume 1998 bis 2014 und 2000 bis 2014… konzentriert, während derer die NOAA den Anteil der Wassertemperatur bis zu einem Ausmaß adjustiert hatte, dass sie behaupten konnten, die Verlangsamung der globalen Erwärmung hatte es nie gegeben.
Natürlich waren diese Behauptungen irreführend. Grund: Selbst mit den NOAA-Änderungen an den Temperaturaufzeichnungen gibt es immer noch die sich unverändert erweiternde Diskrepanz zwischen Beobachtungen und der aufgrund von Klimamodellen prophezeiten globalen Erwärmung. Mit anderen Worten, die Manipulationen der NOAA an den globalen Temperaturaufzeichnungen haben diese Diskrepanz zwischen Modellen und Daten etwas kleiner gemacht, sie aber nicht eliminiert.
Der US-Kongress-Abgeordnete Lamar Smith ist Vorsitzender des Committee on Science, Space and Technology des Repräsentantenhauses. Wie viele andere Menschen auch hat Repräsentant Smith die NOAA-Änderungen bzgl. ihrer Temperaturaufzeichnung hinterfragt. Kürzlich hat Repräsentant Smith formell die NOAA-E-Mails angefordert, in denen es um die Änderungen der globalen Temperaturaufzeichnungen geht, und bis jetzt ist Dr. Kathryn Sullivan von der NOAA dieser Anforderung nicht gefolgt. Es gibt eine Fülle von Nachrichten-Artikeln über den Streit zwischen Smith und der NOAA, aber dieser ist nicht Gegenstand dieses Beitrags.
In diesem Beitrag geht es um die primäre Adjustierung, die die größte Auswirkung hat auf die den Stillstand zerschlagende [„pause busting“] Natur der neuen NOAA-Rekonstruktion der globalen Wassertemperatur an der Ozeanoberfläche. Ich komme zu dem Ergebnis, dass die NOAA einen Unterschied zwischen Messungen der Wassertemperatur durch Schiffe und der nächtlichen Lufttemperatur über Ozeanen hinweg adjustiert haben könnte. Diesen sollte es jedoch dem Konsens der im jüngsten IPCC-Bericht 5 verwendeten Klimamodelle zufolge geben. Wieder einmal legt dies die Vermutung nahe, dass eine weitere NOAA-Hypothese korrekt ist.

Zusätzlicher Hintergrund: Korrekturen eines Bias‘ der Wassertemperatur der Ozeane

Verschiedene Verfahren waren zur Anwendung gekommen, um Wassertemperaturen zu erhalten seit dem Beginn von Temperaturaufzeichnungen Mitte des 19. Jahrhunderts: Eimer aus unterschiedlichen Materialien (Holz, Segeltuch, isoliert); in Maschinen einströmendes Kühlwasser und Bojen (fest und treibend). Zusätzlich wurde die Lufttemperatur über der Wasseroberfläche von Schiffen gemessen … eine Größe, die maritime Lufttemperatur genannt wird. Jedes Verfahren enthält ihre eigenen Messfehler, Unsicherheiten und Verzerrungen. (Für Neulinge auf diesem Gebiet: Kent et al. (2010) Effects of instrumentation changes on ocean surface temperature measured in situ. Darin findet sich eine detaillierte und leicht verständliche Übersicht. Oder Kennedy (2014) A review of uncertainty in in situ measurements and data sets of sea-surface temperature. Eine Kopie der eingereichten Studie findet sich hier).
Mit Beginn Mitte des 20. Jahrhunderts haben die Datensammler den Verzerrungen Rechnung getragen, die sich aus den unterschiedlichen Eimer-Typen ergeben sowie durch den Übergang von Eimern zu einströmendem Wasser in Schiffsmotoren. Zusätzlich wurde der Bias zwischen Schiffs- und Bojenmessungen in der Studie seit Anfang dieses Jahrhunderts diskutiert. Die im einströmenden Kühlwasser gemessenen Wassertemperaturen (ERI) sind etwas wärmer als die von Bojen gemessenen Temperaturen. Aber die Datensammler haben bis vor Kurzem nicht versucht, dem Schiffs-Bojen-Bias Rechnung zu tragen infolge der großen Unsicherheit der Messungen im einströmenden Wasser bzw. von Bojen und infolge der massiven Unsicherheiten bzgl. des Schiffs-Bojen-Bias‘. (Siehe Reynolds et al. 2002. Also see Kennedy et al. (2011) Part 1 und Part 2 als Dokumentation jener Unsicherheiten).
Für ihre neuen, den „Stillstand zerschlagenden“ Daten hat die NOAA:
● die Schiffsdaten adjustiert mittels der HadNMAT2-Daten der nächtlichen Lufttemperatur vom UKMO als Referenz. Dies setzt natürlich die Hypothese voraus, dass sich die nächtlichen maritimen Lufttemperatur-Daten mit der gleichen Rate ändern wie die Wassertemperatur (sowohl tagsüber als auch nachts),
● die Bojen-Daten adjustiert, um der Temperaturdifferenz Rechnung zu tragen zwischen in Schiffen einströmendem Wasser und Bojen in Gebieten, in denen es beides gibt. Die Auswirkungen hiervon würden über die letzten Jahrzehnte hinweg variieren, weil sich das Verhältnis von Bojen zu Schiffsmessungen mit der Zeit verändert hat. Es gab zunehmende Bojen-Messungen und abnehmende Schiffsmessungen,
● die Bojendaten stärker gewichtet als die Schiffsdaten in Perioden, in denen es sowohl Schiffs- als auch Bojendaten gibt. Dies wurde gemacht, um den unterschiedlichen Genauigkeiten der Schiffs- und Bojen-Temperaturmessungen Rechnung zu tragen … Bojendaten haben sich als genauer erwiesen als Schiffsdaten.
Karl et al. (2015) zufolge hatten die Adjustierungen der Schiffsdaten die größte Auswirkung auf die Trends von 2000 bis 2014:
Von den 11 Verbesserungen in der ERSST-Version 4 (13) hatte die Fortsetzung der Schiffs-Korrekturen die größte Auswirkung auf die Trends des Zeitraumes 2000 bis 2014. Sie machte 0,030°C der Trenddifferenz von 0,064°C zu Version 3b aus. (Die Korrektur der Bojenwerte trug 0,014°C pro Dekade zum Unterschied bei, und das zusätzliche Gewicht, das man den Bojendaten wegen deren größerer Genauigkeit zugewiesen hat, macht 0,012°C pro Dekade aus).
In diesem Beitrag werden wir die Adjustierungen des Bias‘ zwischen Schiffen und Bojen umreißen sowie die Wichtung der Daten von Bojen und dem in Schiffe einströmendem Wasser. Dies wurde schon in zahlreichen anderen Blogbeiträgen diskutiert. Wir hier wollen aus konzentrieren auf…

Die Hypothesen der NOAA bei der Verwendung von NMAT-Daten*, um schiffsbasierte Messungen der Wassertemperatur zu adjustieren

[*Wie oben erwähnt: NMAT = Night Marine Air Temperature. Ich weiß nicht, ob das ein fester Begriff ist, der etwas anderes meint als die direkte Übersetzung aussagt. Im Folgenden gehe ich aber von der direkten Übersetzung als dem aus, was gemeint ist. Anm. d. Übers.]
Die NOAA hat zahlreiche Annahmen gemacht, um die Verwendung von NMAT-Daten zur Adjustierung der schiffsbasierten Messungen der Wassertemperatur zu rechtfertigen. Sie sind gelistet in der Studie von Huang et al. (2015) mit dem Titel Extended Reconstructed Sea Surface Temperature Version 4 (ERSST.v4) – Part I: Upgrades and Intercomparisons. Dort schreiben sie auf Seite 919:
Die Bias-Adjustierung von Wassertemperaturdaten von Schiffen wurde ursprünglich von Smith und Reynolds (2002) ins Spiel gebracht, was die NMAT-Daten als Referenz involvierte. NMAT wurde gewählt, weil die Differenzen der Wassertemperatur stabiler sind als maritime Lufttemperaturen tagsüber, die eine große Bandbreite haben können infolge der solaren Aufheizung der Schiffsdecks und der Instrumente selbst. Um die Bias-Adjustierung vorzunehmen ist es jedoch notwendig anzunehmen, dass
1) die Differenzen zwischen SST und NMAT nahezu konstant sind während des klimatologischen Zeitraumes (1971 bis 2000);
2) die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist;
3) die NMAT-Daten einen geringeren Bias aufweisen (homogener sind) als die SST-Daten, mit denen sie verglichen werden;
4) der Mix verschiedener SST-Messmethoden (Eimer oder ERI) invariant ist über alle globalen Ozeane, und die räumliche Verteilung von Verzerrungen folgt der klimatologischen Differenz zwischen SST und NMAT in neuer Zeit (1971 bis 2000); und
5) der Bias relativ langsam und gleichmäßig mit der Zeit variiert.
Wir brauchen nur die ersten beiden NOAA-Hypothesen zu untersuchen.
NOAA fuhr dann fort mit der Beschreibung, wie sie ihre ersten beiden Hypothesen getestet hatte:
Um die ersten beiden Hypothesen zu testen, welche eine grobe physikalische Kohärenz zwischen zwei stark korrelierenden, aber physisch unterschiedlichen Messgrößen nahelegen, wurde die mittlere Differenz zwischen SST- und Lufttemperatur-Daten bei Tag und Nacht (SAT) in 2 m Höhe berechnet durch Untermengen der monatlichen Outputs der GFDL CM2.1-Modelle mit monatlichen Beobachtungs-Masken von 1875 bis 2000 (Abbildung 4). Die Modell-SAT wird herangezogen, weil der Modellbias hypothetisch tagsüber und nachts gleich ist. Es zeigt sich, dass die ersten beiden Hypothesen gültig sind, da die Modellsimulationen zeigen, dass die Differenz zwischen SAT und SST nahezu konstant ist und dessen lineare Trends in allen vier unterschiedlichen Zonen geographischer Breite schwach sind.
Huang et al. führen nicht näher aus, was sie mit „monatlichen Beobachtungs-Masken“ meinen. Meinen sie, dass die NOAA alle Gitterpunkte maskiert hat, die keine Schiffsdaten enthalten? Ich habe den Verdacht, dass genau das der Fall ist.
Wichtiger Hinweis: Im Folgenden habe ich nicht den Schritt unternommen, die Gitternetze ohne Schiffsdaten zu maskieren, weil ich versuche, die globale (ohne polare Ozeane), von den Klimamodellen erwartete Beziehung zwischen der maritimen Lufttemperatur und der Wassertemperatur zu illustrieren. (Ende Hinweis).
Komischerweise geht die NOAA davon aus, dass die modellierte Beziehung zwischen Wassertemperatur und der Lufttemperatur darüber (sowohl tagsüber als auch nachts) die gleiche ist wie die Beziehung zwischen NMAT und Wassertemperatur, wobei Letztere Tages- und Nachtwerte enthält. Das heißt, dass die NOAA nächtliche maritime Lufttemperaturen (und nicht maritime Lufttemperaturen tagsüber und nachts) heranzieht, um die Wassertemperatur zu adjustieren. Trotzdem aber präsentieren sie modellierte Wassertemperaturen und maritime Lufttemperaturen (tagsüber und nachts) als Rechtfertigung. Ist das gemeint, wenn es heißt „Die Modell-SAT wird verwendet, da der Modellbias vermutlich der Gleiche ist tagsüber und nachts“? Genau so scheint es zu sein.
Meine Abbildung 1 ist Abbildung 4 bei Huang et al. (2015)

Abbildung 1
Erstens, man beachte, dass der auf Klimamodellen basierende Graph in ihrer Abbildung 1 im Jahre 2000 endet. Das ist komisch, sind wir doch am Zeitraum 2000 bis 2014 interessiert. Zweitens, sie haben die Trends von 1875 bis 2000 gelistet in der Bildunterschrift zu Abbildung 4, aber sie haben es versäumt, den Trend zu zeigen für ihre klimatologische Periode von 1971 bis 2014 (siehe deren Hypothese 1 oben).
Drittens, und sehr wichtig: Das gekoppelte Ozean-Atmosphäre-GFDL CM2.1-Klimamodell aus dem NOAA Geophysical Fluid Dynamics Laboratory (GFDL) ist eine seltsame Wahl als Verwendung in einer Studie des Jahres 2015. Zu Beginn der GFDL-Website über das neue und verbesserte GFDL CM3 model heißt es:
Das erfolgreiche Modell von GFDL, CM2.1 (Delworth et al. 2006) wurde als Startzeitpunkt gewählt, um die nächste Generation der gekoppelten CM3-Modelle zu entwickeln.
Mit anderen Worten, das 10 Jahre alte GFDL CM2.1-Klimamodell kann man als obsolet ansehen, soweit es durch das GFDL CM3-Modell ersetzt worden ist. Das GFDL CM2.1-Modell wurde von Delworth et al. (2006) unterstützt GFDL’s CM2 Global Coupled Climate Models. Part I: Formulation and Simulation Characteristics. Im Abstract wird angegeben, dass es für den 4. IPCC-Zustandsbericht 2007 aktuell war.
Wir wissen aus Erfahrungen der Vergangenheit, dass es weite Bandbreiten geben kann bei den absoluten Werten der Temperatur von Modell zu Modell ebenso wie eine große Bandbreite von Trends. Die Verwendung eines Klimamodells einer früheren Generation seitens der NOAA könnte jeden dazu führen zu glauben, dass die NOAA genau jenes GFDL CM2.1-Modell aus früherer Generation gewählt hat (nach Art von Rosinenpickerei), weil es genau das Ergebnis lieferte, das man sich gewünscht hatte.
Schauen wir also mal auf das Multimodell-Mittel aller neuen und verbesserten Klimamodelle, die im IPCC-Bericht #5 (2013) herangezogen worden waren. Diese Modelle sind gespeichert im CMIP5 archive, und deren Multimodell-Mittel (zusammen mit den Ergebnissen der individuellen Modelle) sind verfügbar im KNMI Climate Explorer. Das Multimodell-Mittel (das Mittel aller Modelle) repräsentiert im Grunde den Konsens (das Gruppendenken) der Klimamodellierungs-Gruppen, wie die Wassertemperatur und die maritime Lufttemperatur (in diesem Beispiel) auf die Klima-Antriebe reagieren, die man als Antrieb für die Modelle verwendet hat. Infolge der großen Bandbreite der Klimamodell-Ergebnisse stellt die Verwendung des Mittelwertes aller Modelle im CMIP5-Archiv sicher, dass man uns keine Rosinenpickerei vorwerfen kann dergestalt, dass wir ein bestimmtes Modell herausgreifen, das eine Agenda unterstützt. Und wir brauchen nur die Klimamodell-Ergebnisse für die globalen Ozeane untersuchen mit Ausnahme der polaren Ozeane (60°S bis 60°N); das heißt wir brauchen nicht die zusätzlichen Unterabteilungen untersuchen, wie sie in Abbildung 4 von Huang et al. (2015) zum Ausdruck kamen (= meine Abbildung 1).
Wir beginnen mit dem Zeitraum von 1875 bis 2000, der in Abbildung 4 von Huang gezeigt wird. Die obere Graphik in Abbildung 2 zeigt die Modelldifferenz zwischen den simulierten globalen Wassertemperaturen (60°S bis 60°N) und den maritimen Lufttemperaturen während der von der NOAA gewählten Periode von 1875 bis 2000, wobei die maritime Lufttemperatur (TAS, Landoberflächen maskiert) von den Wassertemperaturen subtrahiert werden. Während dieses Zeitraumes wurden nur die historischen Klimaantriebe von den Modellierungsgruppen verwendet. Für den von der NOAA gewählten Zeitraum von 1875 bis 2000 zeigt der Konsens der jüngsten Generation die modellierte Differenz zwischen der globalen Wasser- und maritimen Lufttemperaturen, die mit einer Rate von -0,008°C pro Dekade abnimmt … also mit genau der gleichen Rate wie die -0,008°C pro Dekade, die die NOAA für den Zeitraum 1875 bis 2000 geltend macht. Auf den ersten Blick scheint dies die Ergebnisse von Huang et al. (2015) zu bestätigen. Die untere Graphik in Abbildung 2 illustriert im gleichen Zeitrahmen das Multimodell-Mittel der simulierten Wassertemperaturen und der maritimen Lufttemperaturen, die für die Grundlagen der oberen Graphik stehen. Ich habe die Modellergebnisse des Zeitraumes 2000 bis 2014 hinzugefügt (gestrichelte Kurven) in beiden Graphiken als Referenz.

Abbildung 2
Man beachte jedoch, dass sich in der oberen Graphik der Abbildung 2 eine deutliche Trendänderung zeigt, die etwa Mitte der siebziger Jahre begonnen hat und von einem nachfolgenden starken Rückgang gefolgt wurde.
Untersuchen wir also den Trend der von der NOAA herangezogenen klimatologischen Periode von 1971 bis 2010. Siehe Abbildung 3. Für diese NOAA-Periode zeigt der Konsens der jüngsten Klimamodell-Generation die modellierte Differenz zwischen der globalen Wasser- und der maritimen Lufttemperatur, die mit einer stärkeren Rate von -0,021°C pro Dekade abnimmtn … weit größer als die -0,008°C pro Dekade, die von der NOAA für den Zeitraum 1875 bis 2000 propagiert wird.

Abbildung 3
Was die untere Graphik der Abbildung 3 betrifft: die modellierte maritime Lufttemperatur steigt etwas rascher als die modellierte Wassertemperatur während des klimatologischen NOAA-Zeitraumes. Mit anderen Worten, der Konsens der neuen und verbesserten Klimamodelle widerspricht dem NOAA-Ergebnis (Huang et al.) hinsichtlich ihrer ersten Hypothese zur Verwendung maritimer Lufttemperaturen, um die Verzerrungen der mit Schiffen gemessenen Wassertemperaturen zu adjustieren … oder irgendwelche Daten der Wassertemperatur.
Aber am Zeitraum 1971 bis 2000 sind wir nun wirklich nicht interessiert. Interessanter für uns ist der Zeitraum 2000 bis 2014, weil es genau der Zeitraum war, den die NOAA (Karl et al. 2015) für die Behauptung herangezogen hatte, dass die „Fortsetzung der Schiffsdaten-Korrekturen den größte Auswirkung auf die Trends von 2000 bis 2014 hatte; verantwortlich für 0,030°C pro Jahrzehnt der 0,064°C-Trenddifferenz zu Version 3b“.
Abbildung 4 gleicht den Abbildungen 2 und 3, außer dass wir in Abbildung 4 die Modellergebnisse illustrieren für den Zeitraum 2000 bis 2014. Der einzige Unterschied ist, dass Modelle jetzt auch die projizierten Antriebe enthalten, zusätzlich zu den historischen Antrieben. Der Übergang von historischen zu projizierten Antrieben erfolgt laut den meisten Modelle 2005/2006. Es ist kein von mir ausgesuchtes Feature. Aber ich habe das RCP6.0-Antriebsszenario gewählt, weil ich mich nicht dem Vorwurf aussetzen wollte, das Worst-Case-RCP8.5-Szenario herauszupicken.
Es ist keine große Überraschung, dass das Multimodell-Mittel in der oberen Graphik der Abbildung 4 einen Rückgang der Temperaturdifferenz zeigen zwischen den Wasser- und den maritimen Lufttemperaturen. Tatsächlich ist der Trend von -0,027°C pro Dekade der modellierten Temperaturdifferenz vergleichbar mit der Adjustierung der Schiffsdaten von 0,030°C pro Dekade seitens der NOAA (die nächtliche maritime Lufttemperaturdaten verwendet hatte) für den Zeitraum 2000 bis 2014.

Abbildung 4
Das heißt, mit Verwendung der neueren Modelle ist es Konsens unter den Modellierer-Gruppen zu erwarten, dass sich maritime Luft im Zeitraum 2000 bis 2014 rascher erwärmt als die Oberflächen der Ozeane … mit einer Rate, die vergleichbar ist mit der „Korrektur“, die man mittels der nächtlichen maritimen Lufttemperatur an die Schiffsdaten angebracht hatte. Dies widerspricht der zweiten der NASA-Hypothesen, der zufolge „die klimatologische Differenz zwischen SST und NMAT in anderen Zeiträumen konstant ist“. Das ist eindeutig nicht der Fall.
Einfach gesagt, die NASA scheint eine Differenz zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur hinweg adjustiert zu haben. Diese Differenz sollte es dem Konsens der neueren Klimamodelle zufolge jedoch geben. Dies legt die Vermutung nahe, dass die andere Große Hypothese der NOAA, nämlich dass „die Modell-SAT verwendet wird, da der Modell-Bias vermutlich tagsüber und nachts gleich ist“ korrekt ist.
Stellen wir das mal in einen größeren Zusammenhang. Die NOAA scheint anzunehmen, dass sich die NMAT mit der gleichen Rate erwärmt wie die MAT sowohl tagsüber als auch nachts. Sie hat maritime Lufttemperaturen anstatt die nächtlichen maritimen Lufttemperaturen herangezogen, um ihre ersten beiden Hypothesen zu verifizieren. Man beachte auch, dass der Konsens der jüngsten Generation von Klimamodellen zeigt, dass sich die maritimen Lufttemperaturen mit einer höheren Rate erwärmen sollten als die Wassertemperaturen seit etwa Mitte der siebziger Jahre. Und doch, zieht man diese Überlegungen in Betracht, zeigt das Enderzeugnis der NOAA, also ihr neuer „Stillstands-Vernichter“, nämlich die ERSST.v4-Daten, die gegenteilige Beziehung. Ihre neuen Wassertemperatur-Daten zeigen eine merklich höhere Erwärmungsrate als die nächtlichen maritimen Lufttemperaturen (HadNMAT2), die man als Referenz herangezogen hatte. Siehe Abbildung 5, welches Abbildung 1 im Beitrag Open Letter to Tom Karl of NOAA/NCEI Regarding “Hiatus Busting” Paper ist.

Abbildung 5
Bemerkung: Diese Graphik endet im Jahre 2010, weil da die HadNMAT2-Daten aufhören. Dies wirft natürlich folgende Frage auf: Wie adjustiert die NOAA (ungerechtfertigterweise) die Schiffsdaten nach dem Jahr 2010?
Unter dem Strich: Der jüngsten Generation von Klimamodellen zufolge sollte sich die maritime Lufttemperatur schneller erwärmen als die Wassertemperaturen, aber nicht in der NOAA-Welt, an der so viel herumgedoktert wurde.

Zum Schluss

Noch einmal, meine Illustrationen zeigen die erwartete globale Beziehung zwischen maritimen Lufttemperaturen (tagsüber und nachts) und der Wassertemperaturen, weil die NOAA diese heranzieht, um eine Beziehung zu verifizieren zwischen der nächtlichen maritimen Lufttemperatur und der Wassertemperatur.
Auch habe ich die Modellergebnisse nicht maskiert, so dass sie nur das Netz mit schiffsbasierten Wassertemperaturen enthalten, wie es die NOAA getan zu haben scheint. Aber dem Konsens der im IPCC-Bericht 5 verwendeten Klimamodelle zufolge ist die Beziehung global (60°S – 60°N) dergestalt, dass sich die maritime Lufttemperatur seit Mitte der siebziger Jahre rascher erwärmt hat als die Wassertemperatur.
Ich habe folgenden Verdacht: Wenn die Whistleblower von Kongressmann Lamar Smith besorgt sind hinsichtlich des Hypes um die Studie von Karl et al. (2015) „vor einer angemessenen Begutachtung der zugrunde liegenden Wissenschaft und der angewandten neuen Verfahren“, diskutieren sie über:
● Die Unsicherheiten der Bias-Adjustierungen,
● Die Unsicherheiten in den Daten,
● natürlich über die grundlegenden Verfahren einschließlich der Art und Weise, mit der die NOAA jene Adjustierungen über die Ozeane verteilt hatte, und
● am wichtigsten bzgl. der „zugrunde liegenden Wissenschaft“: wie die NOAA eine Differenz hinweg adjustiert zu haben scheint zwischen Temperaturmessungen von Schiffen und der nächtlichen maritimen Lufttemperatur, die es dem Konsens der neuen Klimamodelle zufolge geben sollte.
Vielleicht wird Dr. Sullivan von der NOAA die von Repräsentant Smith angeforderten E-Mails noch rechtzeitig zur Verfügung stellen, so dass wir meinen Verdacht sowie den Verdacht auch vieler Anderer bestätigt sehen können.
Link: http://wattsupwiththat.com/2015/11/30/pause-buster-sst-data-has-noaa-adjusted-away-a-relationship-between-nmat-and-sst-that-the-consensus-of-cmip5-climate-models-indicate-should-exist/
Übersetzt von Chris Frey EIKE




Bjørn Lomborg: Glauben Sie an den Osterhasen und die Zahnfee? Teil 2 Hier seine Aussagen zu Kosten und Nutzen der Erneuerbaren

Teil 1 brachte die Einleitung dieses Beitrags von STT zu Lomborgs Ansichten – zu finden auf Eike
Wir werden die globale Erwärmung bekommen, wenn wir eine Energiequelle billiger als Kohle haben.
Die nächsten Klimagipfel in Paris nähern sich und die Erwartungen sind wieder hoch – obwohl es das 21. seiner Art ist, nach 20 Gipfeln die fast nichts erreicht haben.
In Wirklichkeit, Paris – wie Kopenhagen, Lima, Warschau, Doha und all die anderen – ist sehr unwahrscheinlich, dass signifikante Fortschritte zu erzielen sind.
Dies ist das Dilemma: Wir wissen, Klimawandel ist ein Problem, aber leider versuchen wir es immer wieder mit einer Lösung, die immer wieder gescheitert ist. Wie das Sprichwort sagt, „Wahnsinn ist es, die gleiche Sache immer und immer wieder zu tun und ein anderes Ergebnis zu erwarten“.
Die CO2-Emissionen werden weiter steigen, denn es gibt eine sehr enge Verbindung zwischen Energieverbrauch und Bruttoinlandsprodukt. Denken Sie daran, wir verbrennen keine fossilen Energieträger um die Umweltschützer zu ärgern, sondern weil sie alles antreiben, was wir an der modernen Zivilisation so lieben, von Licht, Hitze und Kälte bis zur Mobilität, Strom und Nahrung.
Das Wachstum des BIP in den letzten 20 Jahren ging einher mit dem CO2-Wachstum, und es gibt fast eine Eins-zu-Eins-Übereinstimmung.
Die Erkenntnisse aus der Weltbank über zwei Jahrzehnte ist klar: Wachstum um 1 Prozent des BIP im Jahr, und die CO2-Emissionen bleiben konstant – wie in Italien. Wachstum von 3 Prozent und die CO2-Emissionen wachsen um 1,5 Prozent – wie Neuseeland. Oder das Wachstum Ihrer Wirtschaft beträgt 10 Prozent wie China, und Sie steigern Ihre Emissionen um 6,3 Prozent.
Ja, ist es möglich, Emissionen zu reduzieren und die die Wirtschaft wächst noch immer – aber sie wird weniger wachsen, was bedeutet, es sind echte Kosten. Einige Nationen wie Deutschland sind in der Lage, den Trend einzudämmen – wachsende Wirtschaft um 1,3 Prozent, während die Emissionen um 1,2 Prozent abnehmen [D hat eher erhöhte CO2 Emissionen, seit die KKW abgeschaltet werden; AD] – eine ähnliche Anzahl von Nationen haben ihre Emissionen aber noch weiter erhöht. Indien ist 6,5 Prozent gewachsen und steigerte seinen Ausstoß um fast eben so viel. Australien ist ein wenig unterhalb der Kurve mit 3,2 Prozent Wirtschaftswachstum und nur 1,3 Prozent CO2 Wachstum.
Die traditionelle Klima Ansatz ist das Versprechen der Politik CO2 zu reduzieren. Natürlich, nur wenige werden für Politiker stimmen, die das Wirtschaftswachstum absichtlich beschneiden, anstelle von Politikern, die üppige Subventionen für erneuerbare Energien wie Solar-und Wind versprechen. Doch die Montagekosten für erneuerbare Energien sind schließlich eine Belastung für die Wirtschaft geworden. Und sie lösen wenig, da diese neuen Technologien für erneuerbare Energien noch nicht ausgereift sind.
Entgegen dem, was viele Menschen glauben, werden erneuerbare Energien uns in absehbarer Zeit nicht von fossilen Brennstoffen unabhängig machen.
Gemäß den Daten der International Energy Agency, kamen im Jahr 1971  13,1 Prozent der weltweiten Energie aus „Erneuerbaren“; im Jahr 2012 war der Anteil mit 13,2 Prozent nahezu unverändert. Die überwiegende Mehrheit dieser Energie kam aus Biomasse oder Holz und Pflanzenmaterial, die älteste Energiequelle der Menschheit. Während Biomasse erneuerbar ist, ist es oft weder gut noch nachhaltig.
Das Verbrennen von Holz im vorindustriellen Westeuropa verursachte massive Entwaldung, wie es in weiten Teilen der Dritten Welt von heute auch ist. Die Raumluftverschmutzung, die Biomasse produziert tötet 4,3 Millionen Menschen pro Jahr. Und moderne Energiepflanzen erhöhen die Entwaldung, verdrängen die Landwirtschaft und treiben die Nahrungsmittelpreise hoch.
Trotz des Hypes, ist der Beitrag von Sonne und Wind im Wesentlichen trivial. Heute, nach endlosen Klimagipfeln, guten Absichten und großzügigen Subventionen, bekommt die Welt nur 0,4 Prozent ihrer Energie aus Sonne und Wind, nach Angaben der IEA. Es wird auch in einem Vierteljahrhundert noch immer unbedeutend sein, ab jetzt gerechnet. Im optimistischen, grünen IEA Szenario werden Solar- und Wind nur 2,2 Prozent der weltweiten Energie bis 2040 beitragen.
Trotz des allgegenwärtigen Kulturverständnisses, dass Sonne und Wind nur am Rande zur Lösung des Klimawandels beitragen – sogar auch Klima-Panikmacher, wie Jim Hansen, Al Gores-Klima-Berater, weiß, dass dies falsch ist: „Unterstellend, dass erneuerbare Energien uns schnell von fossilen Brennstoffen unabhängig machen in den Vereinigten Staaten, in China, in Indien oder in der Welt als Ganzes,  ist das fast das Äquivalent von Glauben an den Osterhase und die Zahnfee“.
Die einfache, aber unbequeme Wahrheit ist, Sonne und Wind sind nicht ausgereift – sie sind zu teuer und erfordern teures Back-up, wenn der Wind nicht weht oder die Sonne nicht scheint.
Wenig Einfluss, hohe Kosten
Was bedeutet das für Paris? Auch in dem Szenario, auf das Aktivisten hoffen, in dem die Regierungen einen Vertrag unterzeichnen, um jeden zu den Kohlensenkungs-Versprechungen zu zwingen, die sie bisher gemacht haben, wird der Gipfel sehr wenig bringen.
In einem neuen peer-reviewed Forschungs-Paper, finde ich, dass, wenn alle Nationen  ihre Kohlenstoff-Reduzierungsversprechen alle halten, für die sie sich im Vorfeld des Gipfels verpflichtet haben, werden die Temperaturen bis 2100 nur um 0,05°C reduziert. Und sogar, wenn jede Regierung der Welt nicht nur die Versprechen von Paris einhalten und alle die Emissionen bis zum Jahr 2030 reduzieren, keine Emissionen in andere Länder verschieben, sondern diese Emissionsreduktionen für den Rest des Jahrhunderts beibehalten, werden die Temperaturen nur um 0,17°C bis 2100 reduziert werden.
Doch die UN-Klima-Chefin Christiana Figueres ist zuversichtlich, dass die Pariser Zusagen den Temperaturanstieg auf über 2,7°C bis zum Jahr 2100 begrenzen könnten. Das ist nichts als Wunschdenken und eine falsche Darstellung von weltweiten Optionen. Die 2,7°C kommt von der Internationalen Energieagentur und geht davon aus, dass, wenn die Regierungen in Paris wenig tun und dann aber gleich nach 2030 mit unglaublich ehrgeizigen Klimasenkungen anfangen, könnten wir 2,7°C erhalten. Figueres eigene Organisation schätzt, die Paris Versprechungen werden die Emissionen um 33Gt CO2 insgesamt zu reduzieren. Um den Anstieg auf 2,7°C zu begrenzen, müssten etwa 3000 Gt CO2 reduziert werden – oder etwa 100-mal mehr als die Pariser Verpflichtungen.
Und die immer noch armseligen Senkungen, die versprochen werden, sind nur mit erheblichen Kosten erreicht. Nehmen Sie die EU 20-20-20 Klimapolitik, die Temperaturen nur um 0,007°C reduziert hätte. Selbst wenn man das auf das gesamte Jahrhundert erweitert, würde die Reduzierung 0,026°C bis zum Ende dieses Jahrhunderts betragen, nach einem der IPCC eigenen Klimamodelle.
Das Stanford Energie Modelling Forum, der Goldstandard für die Ökonomie von Klima und Energie, hat mehrere Studien über Kosten gemacht, die uns zwei Dinge zeigen.
Erstens, und vielleicht nicht überraschend, sind die offiziellen Kostenvoranschläge oft viel niedriger als die Realität. Die EU schätzt die Gesamtkosten ihrer 2020 Politik könnte so wenig wie ein jährlicher 0,4 Prozent BIP Verlust oder 64 Mrd. € pro Jahr sein. Die peer-reviewed‘ten Kosten betrugen 1,3 Prozent oder 209 Mrd. € pro Jahr, mehr als dreimal so viel.
Zweitens Politiker nehmen selten die intelligenteste Klimapolitik [Variante], die CO2 effektiv reduzieren könnte. Dadurch verdoppeln sich in der Regel die Kosten. Die EU könnte ihre Emissionen durch die Umstellung auf Gas und der Verbesserung der Effizienz für einen BIP Verlust von 0,7 Prozent reduziert haben. Allerdings, die phänomenal ineffiziente Solarförderung und Bio-Kraftstoffe sind zu verlockende Duftstoffe für Politiker, weshalb die tatsächlichen EU Kosten fast auf 1,3 Prozent des BIP verdoppelt sind. Die EU plant nun, seine Emissionen um 40 Prozent gegenüber 1990 im Jahr 2030 zu beschneiden.
Zwar gibt es keine direkte Schätzungen der Kosten dieser Politik – außergewöhnlich an sich – das neueste peer-reviewed Stanford Energie Modelling Forum für die EU betrachtet die Kosten für eine Reduzierung auf 80 Prozent im Jahr 2050, was eine Reduzierung von 41 Prozent im Jahr 2030 ergibt. Diese Reduzierung würde das BIP der EU um 1,6 Prozent im Jahr 2030 beschneiden oder € 287 Mrd. nach 2010er Kaufkraft des Euros. Dies setzt voraus, dass Kohlenstoff so effektiv wie möglich reduziert wird.
Ohne diese Annahme, werden die Kosten wahrscheinlich näher an 860 Mrd. Euro sein. Und es wird zu Temperaturen bis zum Ende des Jahrhunderts insgesamt nur um 0,053°C reduzieren.
Die Entwicklungsländer
Jedes Gespräch um Klima muss auf China schauen. In den neun Jahren von 2004 bis 2013 haben sich Chinas Emissionen verdoppelt und im Jahr 2013 hat China fast ein Drittel aller CO2 Emissionen produziert. China emittiert doppelt so viel wie die USA und drei Mal der EU-Emissionen.
Wir hören verführerische Reden von China als den „grünen Riesen“ und wie es den „weltweit größten Schub für Windenergie“ erzeugt. Doch die Fakten der IEA zeigen, dass China nur unbedeutende 0,28 Prozent seiner Energie aus Wind und eine nahezu unermessliche 0,02 Prozent aus Solar bekommt.
Bis 2040, geht die IEA optimistisch davon aus, dass China noch triviale 2,6 Prozent seiner Energie aus Sonne und Wind bekommt. China hat für das Jahr 2030 versprochen, seinen Energieverbrauch um mindestens 60 Prozent gegenüber 2005 zu reduzieren.
Diese Klimapolitik, die nur unter den optimistischsten Umständen vollständig erreicht und im Laufe des Jahrhunderts eingehalten werden kann, wird die globale Temperatur nur um 0,048°C reduzieren bis 2100.
Indien hat klargestellt, dass sie ihre Emissionen nicht reduzieren werden. Trotz anhaltender Behauptungen, dass es „grün“ wird, ist das ein dünnes Brett. Heute, erhält Indien 0,31 Prozent seiner Energie aus Wind und 0,02 Prozent aus Solar und Solar-und Wind werden sogar bis 2040 wahrscheinlich weniger als 2 Prozent beitragen.
Afrika ist der weltweit am meisten „erneuerbare“ Kontinent. Es erhält 50 Prozent seiner Energie aus Erneuerbaren verglichen mit nur 12 Prozent in der EU. Aber das liegt daran, Afrika ist arm und hat wenig Zugang zu moderner Energie.
Die knapp 900 Millionen Menschen die in Afrika südlich der Sahara leben (ohne Südafrika) brauchen nur 185kWh pro Jahr, weniger als ein typischer Kühlschrank. Fünfunddreißig Afrikaner verbrauchen weniger Energie als der durchschnittliche Deutsche. Nicht überraschend wollen Afrikaner viel mehr Energie verwenden, überwiegend aus fossilen Brennstoffen. Solar- und Windenergie machen triviale 0,03 Prozent Energie jetzt aus und weniger als 1 Prozent bis 2040.
Die Obama-Regierung plant, Milliarden von Dollar ausgeben, um Afrika zu elektrifizieren. Die Overseas Private Investment Corporation, die wichtigste US-Entwicklungs-Finanzierungsinstitution, zieht es vor allem vor, in Solar-, Wind- und andere emissionsarme Energieprojekte zu investieren. In den vergangenen fünf Jahren hat OPIC in mehr als 40 neue Energieprojekte investiert und alle bis auf zwei waren in erneuerbare Energien.
Eine Untersuchung von Todd Moss und Ben Leo vom Zentrum für globale Entwicklung hat gezeigt, dass, wenn die US die nächsten 10 Mrd. Dollar für die Elektrifizierung durch Gaskraftwerke spendiert, könnte es helfen, 90 Millionen Menschen aus der Armut zu heben. Wenn es nur erneuerbare Energien nutzt, können die gleichen 10 Mrd. Dollar nur 20 – 27 Millionen Menschen helfen.
Verständlicherweise ist Wirtschaftswachstum um Millionen aus der Armut zu befreien viel wichtiger als CO2 in China, Indien und Afrika zu reduzieren. In den vergangenen 30 Jahren hat China 680 Millionen Menschen aus extremer Armut befreit, mit billiger, wenn auch umweltschädlicher Kohle. China zu erzählen, diesen Prozess mit unreifen und teuren erneuerbaren Energien zu verlangsamen, ist wahrscheinlich nicht erfolgreich. Bei 800 Millionen extrem Armen in Indien und Afrika, zu erwarten, dass Indien und Afrika auf Erneuerbare gehen, ist offenbar Wunschdenken.
Das Klima der Entwicklung
Der Klimawandel ist nicht unsere einzige Herausforderung und die Armen der Welt sehen sich vor wichtigeren Problemen.
Die Weltgesundheitsorganisation schätzt, dass die globale Erwärmung etwa 141.000 Todesfälle pro Jahr verursacht und es erwartet, wenn die globale Erwärmung fortschreitet, wird es zu 250.000 jährlichen Todesfälle bis zum Jahr 2050 führen. Dies unterstreicht auf jeden Fall die Tatsache, dass die globale Erwärmung ein Problem ist. Doch es verblasst auch im Vergleich zu jetzt sieben Millionen Todesfälle pro Jahr durch Luftverschmutzung, 800 Millionen hungernden und 2,5 Milliarden in Armut lebenden Menschen ohne sauberes Wasser und sanitäre Einrichtungen.
Doch im Einklang mit der Mitteilung von Klimagipfel, bestehen die meisten Führer der Ersten Welt immer darauf, dass ihre Hilfsgelder für das Klima gespendet werden sollten. Die OECD schätzt, dass etwa einer von vier Dollar aller gemessenen, bilateralen Entwicklungshilfe, heute auf klimabezogene Beihilfen wie die Reduzierung von Treibhausgase wie CO2 verwandt wird. Dies ist jedoch nicht das, was die Entwicklungsländer wollen.
Die Vereinten Nationen haben mehr als 8,5 Millionen Menschen aus der ganzen Welt nach ihren Top-Prioritäten befragt. Nicht überraschend, sie wollen bessere Bildung und Gesundheitsversorgung, weniger Korruption, mehr Arbeitsplätze und erschwingliche Lebensmittel. Sie stellen die globale Erwärmung an den letzten Platz, als Priorität Nr. 16 von 16.
Das Problem mit der globalen Erwärmung als übergreifendes politisches Gespräch ist, dass die Führer der reichen Länder, von Barack Obama und Angela Merkel zu Justin Trudeau oder John Key, immer scheinen sie den weltweit 2,5 Milliarden Armen und Hungernden zu sagen: hier ist Geld, um euer CO2 zu reduzieren. Während es zweifellos gut gemeint ist, ist es moralisch unvertretbar.
Innovation ist der Schlüssel
Klima-Aktivisten argumentieren oft, dass der Einsatz von erneuerbaren Energien auch grüne Innovation anstößt. Durch den Aufbau von vielen Windkraftanlagen, sollten wir mehr Innovation bei Wind erhalten.
Allerdings ging eine deutsche parlamentarische Kommission der Frage nach und hat eindeutig festgestellt, dass die Subventionen keine grüne Innovationen schaffen, weil es viel sicherer für Unternehmen ist, sich an die stark subventionierten Windkraftanlagen, Solaranlagen und Biomasse zu halten, anstelle der Weiterentwicklung bestehender Technologien und der Entwicklung neuer, tragfähiger Alternativen zu fossilen Brennstoffen.
Die Subventionen erzeugen einfach die falschen Anreize und der Kommission ist es „nicht gelungen, signifikante positive und innovative Auswirkungen zu zeigen“. Subventionierte Verwendung ist eindeutig nicht der richtige Weg, die benötigte Innovation zu schaffen.
Eine Lektion auf Innovation kann bei Computern gefunden werden. Wir haben die Computer von heute nicht durch Massenproduktion in den 1950er Jahren erhalten, um billigere Vakuumröhren zu bekommen. Wir haben keinerlei hohe Subventionen gezahlt, so dass jeder Westler in seinem Haus des Jahres 1960 einen haben könnte. Noch haben wir auch Alternativen wie Schreibmaschinen nicht besteuert. Die Durchbrüche wurden ein dramatisches Hochfahren von Forschung und Entwicklung erreicht, was zu mehreren Innovationen führte, die Unternehmen wie IBM und Apple schließlich aktiviert haben, um Computer zu produzieren, die die Verbraucher auch kaufen wollten. [Elektroautos!?, AD]
Und wir haben jetzt ein großartiges Beispiel dafür, wie Innovation CO2 reduzieren kann. Die Schiefergasrevolution in den USA wurde durch die Ausgabe von 14 Mrd. Dollar für Forschung und Entwicklung in den vergangenen drei Jahrzehnten durch die US-Regierung möglich. Fracking hat die Gaspreise nach unten gedrückt, ersetzt schmutzige Kohle durch weniger umweltschädliches Gas und reduziert die CO2-Emissionen um rund 300 Millionen Tonnen im Jahr 2012.
Das ist mehr als dreimal so viel wie teure Windkraftanlagen und Solarzellen in der EU jedes Jahr erreichen. Und während die EU etwa 53 Mrd. Euro an Subventionen für Solar-und Wind jedes Jahr zahlt, erzielt die USA 390 Mrd. Dollar pro Jahr durch den Schiefergas Durchbruch. Dies zeigt das Potenzial für „Klima-Durchbrüche“ wenn die Politik die Notwendigkeit für Innovation entdeckt.
Während des Kopenhagener Konzils für Klima-Projekte, fanden 28 Klimaökonomen und eine Fachjury, darunter drei Nobelpreisträger, dass es die beste langfristige Klimastrategie ist, Investitionen in grüne F & E drastisch zu erhöhen. Dieses macht letztlich grüne Energie billiger, damit sich jeder umstellt. Die Schätzungen zeigen, dass jeder Dollar für grüne F & E aufgewendet, ihnen helfen wird Klimaschäden im Wert von $ 11 zu vermeiden. Das ist 100-mal besser als die Investition in die heutigen ineffizienten Solar- und Windenergie-Technologie.
Die vorliegende Klimapolitik hat seit 20 Jahren versagt und wird wahrscheinlich weiter scheitern. Wir würden gerne glauben, dass grüne Energie gerade dabei ist zu übernehmen, aber auch 25 Jahre weiter sind Sonne und Wind nur winzige Spieler. Wir würden gerne glauben, dass Erneuerbare gerade dabei sind, konkurrenzfähig zu werden. Aber die eigentliche Rechnung wird nur immer größer. Im vergangenen Jahr zahlte die Welt 184 Mrd. Dollar für Subventionen in Erneuerbare. Im Jahr 2040, werden diese voraussichtlich noch mehr kosten, etwa 297 Mrd. Dollar.
Die gegenwärtige Klimapolitik basiert auf Wunschdenken, dass sich nur sehr reiche Länder wie Deutschland leisten können. Für die Entwicklungsländer zählt es mehr, sich aus der Armut zu lösen, um Malaria und Hunger zu stoppen.
Anstatt auf die Welt zu zählen, sich plötzlich für eine Politik zu entscheiden, die sich direkt gegen die wirtschaftlichen Interessen jedes Landes richtet, sollte der Pariser Klimagipfel den Schwerpunkt auf eine drastisch erhöhte Finanzierung von grünen F & E fokussieren, um die nächsten, billigeren Generationen von grüner Energie zu entwickeln.
Wenn wir den Preis der grünen Energie unter den Preis für fossile Brennstoffe innovieren, werden wir endlich mit der Bekämpfung der globalen Erwärmung anfangen.
Bjørn Lomborg ist ein außerordentlicher Professor an der Copenhagen Business School und leitet das Copenhagen Consensus Center.
Gefunden auf STT vom 19. November 2015
Lomborgs Beitrag wurde duch STT übernommen vom The Australian vom 14.Nov. 2015
Übersetzt von Andreas Demmig
http://stopthesethings.com/2015/11/19/bjorn-lomborg-believe-in-the-easter-bunny-and-tooth-fairy-then-youll-probably-believe-wind-power-replaces-fossil-fuels-too/




Offener Brief an die bayerische Umweltministerin Ulrike Scharf zu ihren Aussagen über Klimakatastrophen

Frau

Staatsministerin Ulrike Scharf 

  p e r s ö n l i c h 

Staatsministerium für Umwelt und Verbraucherschutz

Rosenkavalierplatz 2

81925 München

 

Sehr geehrte Frau Scharf,

als Ministerin im bayerischen Kabinett sind Sie neben Verbraucherschutz auch für Umweltfragen zuständig. Ihre öffentlichen Äußerungen, die den Klimawandel betreffen, werden dabei geprägt durch Behauptungen wie "Schließlich drohe der Klimawandel das Gesicht der Welt zu verändern" oder "Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu" oder "Es gibt Prognosen wonach sich bis zu 100 Millionen Menschen weiter auf den Weg machen werden, weil sie durch den Klimawandel ihre Lebensgrundlagen verlieren. Und für uns ist klar – Klimaschutz ist auch Flüchtlingspolitik" [1]. Wir möchten Ihnen nun gerne einige Anmerkungen und Fragen zur Kenntnis bringen.

Zunächst möchten wir als wissenschaftlich unstrittig festhalten: Klimawandel ist naturgesetzlich, konstantes Klima gab es noch nie und kann es nie geben.

Zu Ihren Ausführungen:

Sie meinen offenbar, dass anthropogene Einflüsse für den aktuellen, sehr gemäßigten und im natürlichen Bereich der Klimavergangenheit liegenden Klimawandel verantwortlich seien. Ferner sprechen Sie von zunehmenden Extremwetterereignissen. Wir dürfen daher Ihre Aussagen unterteilen in

(a) "Extremwetterereignisse nehmen generell zu"

(b)"diese Zunahme wird durch anthropogene Einflüsse, z.B. CO2 Emissionen verursacht". 

 

Zu Punkt (a) "Extremwetterereignisse nehmen generell zu":

Als für die Umwelt zuständige Politikerin ist Ihnen bekannt, dass die Politik den Klimarat IPCC als Sprachrohr der Klimaforschung ansieht. Dabei scheinen Ihnen aber die weit über die "Summary forPolicymakers SPM" hinausgehenden, allein maßgebenden, detaillierten und sehr umfangreichen Berichte dieser Institution unbekannt zu sein [2]. In diesen finden sich nämlich sehr präzise Aussagen, die im krassen Gegensatz zu Ihren oben zitierten Bemerkungen stehen. Wir zitieren in Folgendem direkt aus diesen IPCC-Berichten 2001, 2013 und 2014 wörtlich (es gibt leider keine deutschen Versionen dieser Berichte):

Tropische Stürme und HurrikaneIPCC 2013, AR5, WGI, Kapitel 2, Seite 216No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

TropischeZyklone IPCC 2013, AR5, WGI, Kapitel 2, Seite 216 “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone IPCC 2013, AR5, WGI, Kapitel 2, Seite 220“In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren ]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in IPCC 2013, AR5, WGI, Kapitel 2, Seite 215:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen : ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter IPCC 2013, AR5, WGI, Kapitel 2, Seite 216“In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

Es ist bemerkenswert, dass alle diese Zitate und Aussagen in der 28-seitigen deutschen Fassung des Summary for policymakers [3] fehlen! Alle wissenschaftlichen und damit allein maßgebenden IPCC-Aussagen sind dagegen absolut klar: Extremwetterzunahmen im jüngsten Klimazeitraum sind nicht auffindbar von den Wetterdiensten. Der Vollständigkeit halber fügen wir noch hinzu, dass sich die entwarnenden IPCC-Aussagen mit denen der Fachwissenschaft decken. Hier empfehlen wir insbesondere das Buch von Krauss und Ebel: Risiko Wetter. Professor H. Kraus war weltweit anerkannter Ordinarius für Meteorologie an der Universität Bonn.

 

Zu Punkt (b) "….. diese Zunahme wird durch anthropogene Einflüsse, z.B. CO2 Emissionen verursacht"(Zitat Frau Scharf):

Für die in den Klima-Modellen prognostizierte Erwärmung ist die so genannte Klima-Sensitivität des CO2 entscheidend. Sie beschreibt die hypothetische Erwärmungsrate in Grad bei CO2-Verdoppelung. Ist sie groß, besteht evtl. Gefährdung, ist sie klein, dann nicht. Interessanterweise ist der Wert dieser Klimasensitivität aber bis heute der Wissenschaft unbekannt. Genau das steht sogar im jüngsten IPCC-Bericht (2013/14), Summary for Policymakers, SPM auf S.16 als Fußnote [4]: "No best estimate for equilibrum climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies".

Daraus folgt zwingend, dass alle "Klimaschutzmaßnahmen" auf einem unbekannten Zahlenwert  beruhen.

Bei alledem ist noch zu berücksichtigen, dass der Klimarat IPCC in seinem jüngsten Bericht darauf hinweist, dass  es – seit mittlerweile mehr als 15 Jahren – keine Erwärmung mehr gibt [IPCC 2013/14, IPCC, AR5, Climate Change 2013: Technical Summary, p.61]:

"… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series".

Sehr geehrte Frau Scharf, wir können uns kaum vorstellen, dass Ihnen alle diese vorstehend zitierten konkreten IPCC-Aussagen unbekannt sind. Wenn doch, so möchten wir gerne mit diesem Schreiben zur Erweiterung Ihres Informationsstandes beitragen. Möglicherweise führt das ja auch dazu, daß Sie es künftig vermeiden, Ihre von uns w.o. zitierten Aussagen zu wiederholen, denn sie sind peinlich, weil sie den wissenschaftlich gesicherten Fakten widersprechen.

Als Pressesprecher des Europäischen Instituts für Klima und Energie mit einem Blog, der täglich viele Tausend Internet-Besucher zählt [5], erlauben wir uns dieses Schreiben öffentlich zu machen. Unsere Leser möchten nämlich gerne mehr über Ihre Motivation zu Ihren oben angeführten, sachlich unzutreffenden Aussagen sowie insbesondere über die wissenschaftlichen Quellen wissen, mit denen Sie diese Aussagen begründen. Wir bitten Sie daher hiermit, diese wissenschaftlichen Quellen zu nennen.

Bitte machen Sie sich nicht die Mühe, mediale Aussagen von Advokaten-Forschern wie etwa Prof. Hans-Joachim Schellnhuber oder Prof. Mojib Latif als Quellen zu nennen, da diese Wissenschaftler ihre Position in unzulässiger Weise zur Propagierung ideologischer Ziele missbrauchen. Von Mojib Latif wurde beispielsweise im Spiegel Online vom 1.4.2000 die Aussage veröffentlicht, es werde in Deutschland keine Winter mit Schnee mehr geben [6]. Dieser Unsinn bedarf keines weiteren Kommentars. Unter Quellen verstehen wir die wissenschaftliche Fachliteratur, meteorologische Fachbücher oder eben die wissenschaftlichen Berichte des IPCC (nicht die Zusammenfassungen für Politiker).

Schließlich: Wir werden auch Ihre Antwort auf dem EIKE Blog veröffentlichen und weiter für die Verbreitung in Foren wie Facebook etc. sorgen.

Mit freundlichen Grüßen
Horst-Joachim Lüdecke, Klaus-Eckart Puls




Was ist dran an der „Meeresversauerung“- Märchen, Übertreibungen und Schummeleien

Meteorologen und Klimaforscher haben das Thema längst weltweit als hervorragende Möglichkeit der wundersamen Forschungsgeldvermehrung entdeckt und durch ständig schrillere Horrorvisionen fest in den Köpfen der Medienvertreter und der Politik etablieren können. Auf diesen Zug angeblich nachteiliger Folgen des CO2-Anstiegs ist 2008 auch ein Teil der Zunft der Meeresforscher aufgesprungen.
Bild rechts: Sind ihre Tage gezählt? Die farbenprächtige Paua ist in den flachen Küstengewässern vor Neuseeland zu finden
Zu den Segnungen der heutigen technischen Zivilisation gehören Erfindungen wie das Internet, die sehr mächtigen sogenannten Suchmaschinen sowie enzyklopädische Dienste wie Wikipedia. Auch wenn man gerade bezüglich der beiden letzteren berechtigte Einwände haben darf, so stellen sie andererseits doch Rechercheinstrumente von einer Mächtigkeit zur Verfügung, für die mancher Wissenschaftler noch vor wenigen Jahrzehnten seine rechte Hand gegeben hätte. Wenn also davon die Rede ist, dass eine weitere Erhöhung des CO2 über das jetzige Niveau von 400 ppm unser Klima in Richtung einer katastrophalen Erwärmung verändern würde, dann empfiehlt sich eine kurze Recherche bezüglich der Verhältnisse in der Vergangenheit, sagen wir mal der letzten 550 Mio. Jahre. Das ist der Zeitraum, in dem das Leben bereits Formen angenommen hatte, die uns auch heute noch vertraut anmuten. Eine kurze Recherche bei Wikipedia liefert hierzu Angaben sowohl zum CO2-Gehalt der jeweiligen Atmosphäre als auch der durchschnittlichen Temperaturen. Beginnend beispielsweise beim Kambrium [ERDZ] kann man sich mit wenigen Klicks bis zur Neuzeit durcharbeiten. Die entsprechenden Werte sind in Tabelle 1 aufgeführt.

CO2 ppm              T °C
Kambrium 4500 21
Ordovizium 4200 16
Silur 4500 17
Devon 2200 20
Karbon 800 14
Perm 900 16
Trias 1750 17
Jura 1950 16,5
Kreide 1700 23
Paläogen 500 18
Neogen 280 14

Tabelle 1. Durchschnittliche atmosphärische CO2-Gehalte und Temperaturen vom Kambrium bis zur Neuzeit, Daten aus [ERDZ]
Zunächst fällt auf, dass die CO2-Gehalte der Atmosphäre über den größten Teil dieses rund 550 Mio. Jahre umfassenden Zeitraums um ein Vielfaches über den Werten lagen, die von der heutigen Klimawissenschaft als „normal“ bezeichnet werden. Prof Schellnhuber vom Potsdam-Institut für Klimafolgenforschung (PIK) und seine Mitstreiter behaupten, dass der Anstieg von den etwa 280 ppm CO2, die als Normalwert der vorindustriellen Zeit angegeben werden, auf die heutigen 400 ppm uns bereits an den Rand der Klimakatastrophe geführt habe und wir dringendst die Weltwirtschaft „dekarbonisieren“ müssten, indem die CO2-Emissionen weitestgehend wieder auf ein vorindustrielles Niveau zurückgefahren werden. Anderenfalls, so Schellnhuber, drohe der Planet „zumindest abseits der Pole“ unbewohnbar zu werden [SCHE].
An den Daten fällt sofort auf, dass zwischen den teils hohen, teils mittleren und in einem Fall sogar sehr tiefen CO2-Werten und der jeweiligen Temperatur kein eindeutiger Zusammenhang besteht. Bei grafischer Auftragung (Bild 1) wird dies sofort erkennbar.

Bild 1. Die grafische Darstellung der Daten aus Tabelle 1 zeigt deutlich, dass zwischen Temperatur und CO2-Gehalt der Atmosphäre kein eindeutiger Zusammenhang besteht
Ergänzend ist hierzu noch anzumerken, dass andere Quellen sogar von noch höheren CO2-Gehalten von bis zu mehr als 6.000 ppm ausgehen [CALU]. Aus diesen Fakten kann man den Schluss ziehen, dass die Erde für den weitaus größten Teil dieses Zeitraums ein wärmeres Klima als heute aufgewiesen hat. Die Pole dürften über einen Großteil der 550 Mio. Jahre eisfrei gewesen sein. Und dass der Planet damals ein regelrechtes Paradies war, beweist der überreiche Schatz an paläontologischen Funden von Lebewesen mit Kalkschalen, die überall auf dem Globus zu finden sind. Das hohe CO2 hat ihnen überhaupt nicht geschadet, und der Planet ist auch nicht verbrannt. Angesichts dieser von jedermann selbst ohne akademischem Hintergrund leicht überprüfbaren Fakten ist es umso erstaunlicher, dass die Presse und die sonstigen Medien die ständigen schrillen Warnungen von Prof. Schellnhuber weiterhin so unkritisch nachplappern.

Bild 2. Fossile Muscheln aus einer Zeit, als der CO2-Gehalt der Atmosphäre um ein Mehrfaches über den heutigen Werten lag

Das Schreckgespenst „Ozeanversauerung“…

Nach dem Vorbild der Verlautbarungen des PIK zu den angeblich klimaschädlichen Folgen steigender CO2-Gehalte in der Atmosphäre lenkten im Oktober 2008 auch rund 150 „Top-Meeresforscher“ anlässlich einer Tagung in Monaco die Aufmerksamkeit der Weltöffentlichkeit auf vorgebliche Gefahren, die den Ozeanen durch verstärkte CO2-Aufnahme aus der Atmosphäre drohen sollen. In dieser „Monaco Declaration“ wurde behauptet, dass die Ozeane aufgrund der Bildung von Kohlensäure durch Reaktion des Wassers mit dem aufgenommenen CO2 aus dem Gleichgewicht gebracht würden, weil sie „versauerten“ [MONA]. Dabei wurde insbesondere hervorgehoben, dass diese pH-Änderung 100 Mal schneller ablaufe als die natürliche Variabilität. Als Konsequenz sei bei marinen Lebewesen von Muscheln über Korallen bis zu winzigen Schnecken die Bildung der Kalkschalen gestört. Das führe zu ihrer Gefährdung und möglicherweise sogar zum Aussterben. Seitdem ist um dieses Thema ein regelrechter Hype entstanden.

ist beim besten Willen nicht ernst zu nehmen

Der Kern der Theorie von der „Ozeanversauerung“ ist folgender: Der CO2-Gehalt der Atmosphäre ist in den letzten ca. 150 Jahren von etwa 280 ppm auf heute 400 ppm angestiegen. Das ist ein Anstieg von rund 43 %. Er lag in der Vergangenheit aber auch schon bei rund 6.000 ppm, das sind mehr als 2.000 % über den 280 ppm von 1750. Unser heutiger CO2-Gehalt ist erdgeschichtlich gesehen eher eine Art Betriebsunfall, der Normalzustand lag über hunderte Millionen Jahre um etliche hundert bis 2.000 % darüber [CALU]. In dieser langen Zeit ging es den Lebewesen in den Meeren so prächtig, dass sie uns entsprechende Beweise in Form von Billiarden Tonnen Schalen hinterlassen haben, die heute als Kalkstein überall auf der Welt zu finden sind.

Bild 3. Das im Kalk der Insel Gotland eingebettete Fossil lässt erkennen, dass die Kalkschalenbildung mariner Lebewesen auch in Zeiten extrem hoher CO2-Konzentrationen nicht beeinträchtigt war
Wir haben aktuell also, ausgehend von einem geradezu extrem niedrigen Niveau, einen Anstieg des atmosphärischen CO2-Gehalts um 43 %. Dies soll angeblich das Leben in den Ozeanen gefährden. Wir hatten andererseits Gehalte, die bis zu 2.000 % darüber lagen, und dem Leben ging es prächtig. Schon der gesunde Menschenverstand sagt einem sofort, dass hier jemand nicht die Wahrheit sagt. Der Verdacht liegt nahe, dass hier manche Forscher ganz dringend Geld für die Finanzierung ihrer Institute brauchen und bereit sind, dies auf eine Weise zu begründen, die – noch sehr höflich ausgedrückt – nur als ziemlich „kreativer“ Umgang mit der Wahrheit gewertet werden kann.

Verquere Wissenschaft

Wie anders wäre sonst zu erklären, dass sich Wissenschaftler bereitgefunden haben, einen Zusammenhang zwischen dem minimalen Anstieg des CO2-Gehalts in der Atmosphäre und der angeblich damit einhergehenden Meeresversauerung zu konstruieren. Beispiel für eine solche verquere Wissenschaft ist die Grafik von Richard A. Feely (Bild 4), einem Mitarbeiter der US-Amerikanischen National Oceanic and Atmospheric Administration (NOAA). Diese Behörde untersteht einem Staat, dessen oberster Befehlsgeber erkennbar und mit eiserner Entschlossenheit drauf hinarbeitet, sich zum Ende seiner Präsidentschaft noch schnell einen extragroßen Heiligenschein als „GröKliReAZ“ (größter Klimaretter aller Zeiten) aufzusetzen. Mit dieser Grafik und dem entsprechenden Bericht hat Mr. Feely zwar seinen wissenschaftlichen Ruf erheblich lädiert, ganz bestimmt jedoch nicht seine Karriere in Gefahr gebracht. Denn wie das halt so ist, wenn man dem Chef nach dem Mund redet: Feely erhielt im Jahre 2010 für seine „maßgebenden Arbeiten zur Meeresversauerung“ einen mit 100.000 US-$ dotierten Preis der Heinz Family Foundation („Heinz-Ketchup“). Diese Stiftung wurde von Theresa Heinz, der heutigen Ehefrau des US-Außenministers John Kerry, gegründet.

Bild 4 soll den Zusammenhang  von steigenden CO2-Pegeln in der Atmosphäre (Mauna-Loa-Pegel) mit steigenden CO2-Werten des Ozeans in der nahegelegenen Messstation Aloha sowie das gleichzeitige Versauern (=Absinken des pH-Wertes) belegen (Grafik: Feely [FEEL])
Diese Grafik und die damit suggerierten Zusammenhänge stellen die Tatsachen derart auf den Kopf, dass sich seither zahlreiche Wissenschaftler zu Wort meldeten, welche dem damit angeblich bewiesenen Zusammenhang von CO2 und „Ozeanversauerung“ energisch widersprachen. Besonders anschaulich ist die folgende Darstellung des renommierten Hydrologen Mike Wallace, über die Anthony Watts in einem Artikel berichtete [PHRA].

Bild 5. Der Langzeit-Verlauf und sowie die Streuungen von zahlreichen pH-Messungen des NOAA im Verlauf des 20. Jahrhunderts (Grafik: Wallace [WALL])
Das Bemerkenswerte an beiden Bildern ist zunächst die Tatsache, dass sich beide auf die gleiche Datenbasis beziehen, nämlich auf vom NOAA durchgeführte Messungen. Der Trick von Feely besteht darin, dass er eine willkürliche Verkürzung der Zeitachse auf den Zeitraum nach 1988 vorgenommen hat, weil die sich dann ergebende Kurve das von ihm gewünschte Ergebnis eines sinkenden pH-Werts zu beweisen scheint. Dazu schreibt A. Watts: „Feely’s Arbeit basiert auf Computermodellen, die nicht der durch Messwerte belegten Realität entsprechen….Feely und sein Coautor Dr. Christopher L. Sabine….haben über 80 Jahre ermittelte Daten ausgeblendet, die mehr als 2 Millionen Messungen von ozeanischen pH-Werten beinhalten“.
Weiterer Punkt, der hier hervorgehoben werden sollte, ist die in Bild 5 dokumentierte natürliche Variabilität ozeanischer pH-Werte. Diese können den Daten zufolge zwischen 7,75 und 8,35 liegen. Die Ozeane und die in ihnen lebenden kalkbildenden Organismen sind demnach imstande, mit dieser Bandbreite zurechtzukommen.
Zu ähnlichen Schlüssen wie Wallace kommen darüber hinaus mehr als 20 weitere wissenschaftliche Veröffentlichungen, die in einer Übersicht mit dem Titel „Ocean Acidification (The Phenomenon) – Summary“ vorgestellt werden [CO2V].
Sehr deutlich ins Gericht mit den Darstellungen von Feely und anderen Anhängern der Theorie der Meeresversauerung geht auch Dr. Ulrich Steiner [STEI], Bild 6.
Bild 6. Die pH-Skala mit Angaben zur natürlichen Variabilität von Mineralwasser und Meerwasser (Grafik: Steiner [STEI])
Er gibt für die natürliche Variabilität des pH-Werts von Meerwasser mit 7,5 bis 8,4 sogar einen noch etwas breiteren Bereich als Wallace an. Zugleich verweist er auf deutliche Temperaturabhängigkeiten des pH-Werts von Meerwasser sowie auf eine Satellitendarstellung von Columbia’s Lamont-Doherty Earth Observatory, welche für verschiedene Meeresregionen pH-Werte zwischen 7,74 und 8,40 ausweist. Angesichts dieser Tatsachen drängt sich der Eindruck geradezu auf, dass es sich bei Feely’s Darstellung um eine plumpe und unwissenschaftliche Manipulation handelt.

Die angeblichen Leiden der jungen Koralle…

Gravierendste Auswirkung der behaupteten „Versauerung“ der Ozeane ist, wie bereits erwähnt, die angebliche Behinderung der Kalkschalenbildung bei marinen Lebewesen. Zu den lautstärksten Warnern gehört beispielsweise auch der britische Chefwissenschaftler, Sir Mark Walport, der in der BBC „erheblichen Risiken für komplexe marine Nahrungssysteme und Ökosysteme“ beklagt und behauptet, die derzeitige Versauerungsrate sei höher als jemals zuvor in den letzten 65 Millionen Jahren. Zudem warnt er vor künftigen Auswirkungen auf die Fischerei [COPP].
Ins gleiche Horn stößt auch Richard Bellerby vom Norwegian Institute for Water Research, der mit Blick auf die „Versauerung“ der arktischen Ozeane behauptete, man habe die kritischen Grenzwerte bereits überschritten. Selbst wenn man jetzt mit den CO2-Emissionen aufhöre, werde die Versauerung noch zehntausende Jahre anhalten [SABB]. Noch alarmierender äußern sich Meeresforscher beispielsweise in einem Bericht des International Programm on the State of the Ocean (IPSO). Dort wird behauptet: „Die Gesundheit der Ozeane bewegt sich viel schneller auf einer Abwärtsspirale als wir gedacht haben. Wir sehen größere Veränderungen, die schneller passieren und deren Folgen unmittelbar bevorstehen“ [SAWA].

sind wohl eher Schauermärchen

Zum Glück für die Öffentlichkeit sind die CO2-Katastrophenprediger im Bereich der Meereswissenschaften erst viel später aufgewacht als bei den Meteorologen. Deshalb gibt es noch unverfälschte Datenbasen und eine erfreulich große Zahl gestandener Wissenschaftler, welche nicht bereit sind, ihren wissenschaftlichen Ruf auf’s Spiel zu setzen.
Beispiel hierfür sind Untersuchungen von Q. Shi et al. zu den Bildungsraten von Korallen-Kalkschalen im südchinesischen Meer über einen Zeitraum von 300 Jahren[SHIQ]. Hierbei wurde festgestellt, dass diese im Zeitraum von etwa 1710 bis etwa 1760 – also eindeutig in vorindustrieller Zeit mit deutlich niedrigerem CO2-Gehalt als heute – tiefer lagen als heute und zunächst bis etwa 1810 deutlich anstiegen, um ab 1920 wieder abzusinken, Bild 7. Im Zeitraum ab ca. 1985 – der sich in etwa mit dem von Bild 4 deckt – kam es sogar trotz markant steigender CO2-Gehalte bzw. sinkender pH-Werte zu einem ausgeprägten Wiederanstieg des Schalenwachstums.

Bild 7. Die von Shi et al. für das Meiji-Riff im südchinesischen Meer ermittelten Kalkschalen-Wachstumsraten im Zeitraum von 1710 bis 2010 (Grafik: Shi et al., [SHIQ])
In die gleiche Richtung weisen auch von Dr. Ulrich Steiner vorgestellte Studien, welche sich mit der Reaktion von Korallen auf erhöhte CO2 Werte befassten [STEI]. Bei der ersten wurde festgestellt, dass bei Coccolithophoren – die für ein Drittel der marinen Kalksteinproduktion verantwortlich sind – Kalkbildung und Produktivität bei höherer CO2 Konzentration signifikant höher waren. Bei der zweiten Studie zeigte sich, dass die Koralle Lophelia pertusa sich in einigen Monaten an saurere Bedingungen anpasste und dann ebenfalls erhöhte Kalkbildung zeigte.
Willis Eschenbach [ESCH] stellte die Ergebnisse einer Untersuchung von Yeakel et al. [YEAK] vor, die entlang eines Korallenriffs vor den Bermudas über fünf Jahre die Korallenaktivität mithilfe von Sensoren aufzeichneten. Dabei wurde festgestellt, dass die Korallen auf ein erhöhtes Nahrungsangebot aufgrund von Algenblüten mehr alkalische Karbonate aus dem umgebenden Wasser zogen, so dass dieses saurer wurde, und zugleich mehr CO2 ins Wasser emittierten. Die Folge war eine starke Zunahme der „Versauerung“ – auf Niveaus, die höher lagen als die prophezeiten Niveaus der Zukunft infolge menschlicher Emissionen – und doch wuchsen die Korallen immer weiter.
Und Forscher der Woods Hole Oceanographic Institution stellten bei der Beaufschlagung der Atmosphäre über marinen Versuchsbecken mit bis zu 2660 ppm (!) CO2 fest, dass zwar bei einigen Arten die Schalen dünner wurden, dass jedoch sieben der 18 untersuchten Arten zur Überraschung der Wissenschaftler auf die steigende Beaufschlagung nicht mit dünneren, sondern mit dickeren Schalen reagierten [WOOD]. Zu diesen Profiteuren gehörten neben dem Hummer unter anderen rote und grüne schalentragende Algen, Napfschnecken und Seeigel der gemäßigten Breiten
Effekthascherei auf Kosten der Wissenschaftlichkeit…
Zu den schlimmsten Begleiterscheinungen des Hypes um die angebliche Versauerung der Ozeane gehört der teils bedenkenlose Verzicht mancher Akademiker auf wissenschaftlich korrektes Vorgehen. Dies entspringt offensichtlich der Absicht, mithilfe des Medien „Stimmung zu machen“. Klipp und klar ausgedrückt hat dies beispielsweise Dr. Ceri Lewis von der Universität Exeter. Sie hat sich zum Ziel gesetzt, speziell Kinder bezüglich des Themas „Ozeanversauerung“ „aufzuklären“, und zu diesem Zweck von den Schulbehörden die Einrichtung eines Bildungsprogramm gefordert [COPP]. Daraus entwickelte sich unter gütiger Mithilfe von Greenpeace und Co. eine weltweite Kampagne. In ihrem Verlauf wurden unzählige Experimente konzipiert, um Schülern, Journalisten und Laien gleichermaßen durch eindrucksvoll blubbernde Säureexperimente mit Kalk die angebliche Gefährdung der Meere zu demonstrieren. Zurzeit gibt es auf Bildungsservern eine regelrechte Inflation an Anleitungen speziell für Lehrer, welche Schülern zeigen sollen, welch negative Auswirkungen CO2 hat, wenn es sich in Wasser löst [EXPE].
Dabei wird häufig munter Desinformation betrieben, beispielsweise indem man ein Stück Kreide in kohlensäurehaltiges Mineralwasser wirft, wo es dann aufgelöst wird. Dass dies schon vom pH-Bereich her nichts mit den Verhältnissen in Meerwasser zu tun hat, zeigt schon ein Blick auf Bild 6. Das hält jedoch selbst Wissenschaftler des eigentlich renommierten Alfred-Wegener-Instituts nicht davon ab, diesen billigen Taschenspielertrick zur Beeindruckung von z.B. Journalisten anzuwenden [VERS2]. Andere Experimente, welche jedem, der eine Vorstellung von den fein austarierten Gleichgewichten des stark gepufferten chemischen Milieus in den Meeren hat, die Zornesröte ins Gesicht treiben dürften, befassen sich mit dem Einsetzen von Trockeneis in Wasser (Resultat ist ein 3.000facher CO2-Gehalt im Vergleich zur Atmosphäre) oder der Verwendung von Säure zur Kalkauflösung [BURN].
Das hinterlistige an solchen Experimenten ist, dass eine Säurezugabe zu Muschelkalk tatsächlich zur Schaumbildung aufgrund von ausgasendem CO2 führt. Das hat jedoch nichts mit dem komplexen mit dem System Kohlensäure/Karbonat im Meerwasser zu tun. Analogien zu solchen Versuchen bekäme man, wenn man sich vorstellt, jemand wolle eine Kettensäge als Werkzeug für Gehirnchirurgie einsetzen oder eine Uhr mit dem Vorschlaghammer „reparieren“.
und Unsauberkeiten selbst bei wissenschaftlichen Arbeiten
Ebenso bedenklich stimmt, dass selbst bei vielen wissenschaftlichen Arbeiten zum Thema Ozeanversauerung inzwischen die üblichen Standards nicht mehr in zufriedenstellendem Umfang eingehalten werden. So erschien im August 2015 in „Nature“ eine Zusammenstellung von Berichten, die z.T. erhebliche Mängel bei der Konzeption von Experimenten zur „Ozenaversauerung“ beklagten [CRES]. Erwähnt wird beispielsweise eine Arbeit von C.E. Cornwall und C.L. Hurd, wonach die meisten Autoren von Berichten über entsprechende Laborversuche entweder ungeeignete Methoden verwendeten oder ihre Methode nicht in geeigneter Form darlegten. Cornwall und Hurd stellten beispielsweise fest, dass nur in 27 Fällen ein angemessenes Design der Experimente zweifelsfrei festgestellt werden konnte. In 278 (!) Fällen sei das Versuchsdesign offensichtlich ungeeignet gewesen. Die übrigen Studien hätten keine ausreichenden Informationen über den experimentellen Aufbau enthalten – was nach Ansicht der Verfasser für sich selbst bereits ein Problem darstelle. Unglücklicherweise seien wirklich konsequent konzipierte Versuche logistisch sehr komplex und auch teuer, sowohl was den Versuchsaufbau als auch was die laufenden Wartungsaufwendungen angehe. Kombiniere man dies mit dem zunehmenden Druck, schnell und noch dazu in Top-Journalen zu publizieren, dann komme es dazu, dass manche Forscher oder Forscherteams versuchten, Arbeiten zu publizieren, die nicht den erforderlichen Standards entsprechen. In einem weiteren Papier stellt auch Bayden Russell von der Hong Kong University fest, dass manche Forscher beim Design ihrer Experimente die Komplexität des Themas „Ozeanversauerung“ nicht ausreichend berücksichtigen.
Fred F. Mueller
Quellen
[BURN] http://www.eike-klima-energie.eu/news-cache/ozean-versauerung-welche-ozean-versauerung/
[CALU] Berger, W. H.: Carbon Dioxide through Geologic Time, http://earthguide.ucsd.edu/virtualmuseum/climatechange2/07_1.shtml    abgerufen 21.4.2013
[CO2V] http://www.co2science.org/subject/o/summaries/acidificationphenom.php
[COPP] http://www.bbc.com/news/science-environment-29746880
[CRES] http://www.nature.com/news/crucial-ocean-acidification-models-come-up-short-1.18124
[ERDZ] https://de.wikipedia.org/wiki/Kambrium
[ESCH] http://www.eike-klima-energie.eu/news-cache/tiefenrausch-warum-korallen-die-versauerung-gut-ueberleben/
[EXPE] http://www.cisanctuary.org/ocean-acidification/hands_on_activities.php
[FEEL] http://pmel.noaa.gov/co2/files/co2_time_series_12-17-2014_with_text.jpg
[MONA] http://news.bbc.co.uk/2/hi/science/nature/7860350.stm
[PHRA] http://wattsupwiththat.com/2014/12/23/touchy-feely-science-one-chart-suggests-theres-a-phraud-in-omitting-ocean-acidification-data-in-congressional-testimony/
[SCHE] http://www.eike-klima-energie.eu/climategate-anzeige/maschinenstuermerei-in-der-heutigen-zeit-die-hoellenvisionen-des-potsdam-propheten/
[SHIQ] http://www.nipccreport.org/articles/2012/may/22may2012a1.html
[SABB] http://www.bbc.co.uk/news/science-environment-22408341  6.5.2013
[SAWA] http://www.spiegel.de/wissenschaft/natur/erwaermung-klimawandel-macht-meere-weltweit-saurer-und-waermer-a-928096.html
[STEI] http://www.eike-klima-energie.eu/news-cache/versauern-die-ozeane-die-phaelschung/
[VERS2] http://www.spiegel.de/wissenschaft/natur/c02-emissionen-saure-ozeane-gefaehrden-polarmeere-a-654034.html
[WALL] http://www.abeqas.com/wp-content/uploads/2014/01/MWAcompilationOfGlobalOcean_pHJan82014.jpg
[WOOD] http://www.scinexx.de/wissen-aktuell-10898-2009-12-03.html
[YEAK] http://www.marine-geo.org/portals/gmrt/




Widerpart zur „Klimakonferenz“: Ein Loblied auf das CO2! Die Erde hat nicht zu viel, sondern zu wenig CO2

Seit 1991 liegen für das junge Bundesland Thüringen Ertragsstatistiken vor. Wir betrachteten den Winterweizen, unsere wichtigste Getreideart. Der Untersuchungszeitraum (1991 bis 2015; die 2015er Werte sind vorläufig) weist sowohl sehr nasse, trockene, kalte und warme Jahre auf. Zunächst wollten wir wissen, ob es einen merklichen Zusammenhang zwischen Lufttemperaturen und Winterweizenertrag (in Dezitonnen je Hektar) während der Vegetationsperiode gibt. Diese dauert beim Winterweizen von Oktober (Aussaat) bis zum Reifebeginn Ende Juni/Mitte Juli. Erstaunlicherweise war der gefundene Zusammenhang sowohl über den Gesamtzeitraum nur gering, aber positiv (Bestimmtheitsmaß 2,6%; nicht signifikant). Auch die Betrachtung der wichtigsten, ertragsbestimmenden Wachstumsphase, die in den Zeitraum April bis Mai fällt, erbrachte nur einen geringen, positiven, nicht signifikanten Zusammenhang) (erste Abbildung):

Grafik 1: Temperaturen seit 1991 in Thüringen in den Wachstumsmonaten April und Mai.
Während die Lufttemperaturen im April und Mai (Zwei- Monatsmittel) leicht gestiegen sind, gab es einen kräftigen Ertragszuwachs von gut 0,5dt/Jahr und Hektar. Von „alarmierend sinkenden Erträgen“ also keine Spur- im Gegenteil! Doch welchem Faktor verdanken wir diesen enormen Zuwachs, pro Hektar werden heuer etwa 12dt mehr geerntet, als noch zu Beginn der 1990er Jahre, als in Thüringen auch schon kräftig gedüngt wurde. Gab es vielleicht reichlichere Niederschläge, speziell in der entscheidenden Wachstumsphase (April und Mai, zweite Abbildung):

Grafik 2: Niederschläge in Thüringen in den Wachstumsmonaten April und Mai.
Auch bei der Niederschlagsentwicklung in der wichtigsten Wachstumsphase zeigt sich bislang kein besorgniserregender Trend; der geringe Anstieg kann die stark positive Ertragsentwicklung nicht erklären (Bestimmtheitsmaß 10%; nicht signifikant). Und im Dürrejahr 2015 hätte es eigentlich eine katastrophale Missernte geben müssen, denn von Februar bis Juni fielen nur um die 50 Prozent der normalen Regenmengen; in der für den Ertrag besonders entscheidenden Zeitspanne (April/Mai) sogar großflächig deutlich unter 50 Prozent. Doch mit etwa 72dt/ha fiel die 2015er Ernte überraschend gut aus, und das bei einer hervorragenden Qualität. Offenbar gibt es da noch einen Faktor, der die Erträge langfristig steigert und stabilisiert. Es ist der angebliche „Bösewicht“ CO2. In der folgenden Abbildung erkennt man den Gleichklang zwischen steigenden CO2- Konzentrationen und den Erträgen:

Grafik 3: Zusammenhang Kohlendioxidkonzentration und Ertragssteigerung
Und dass der Winterweizen keinen Einzelfall darstellt, zeigt ein Blick auf die Ertragsentwicklung aller Getreidearten inklusive Körnermais und Corn- Cob- Mix (sichere Werte liegen momentan nur bis 2014 vor):

Grafik 4: CO2 bewirkt Ertragssteigerung bei Nahrungspflanzen.
Um Missverständnissen vorzubeugen: Nicht die gesamte Ertragssteigerung seit 1991 geht auf das Konto des CO2. Bessere Anbaumethoden und leistungsstärkere Sorten dürften ebenfalls beteiligt gewesen sein. Allerdings zeigen zahlreiche, langjährige Feldversuche ebenfalls den engen Zusammenhang von CO2- Konzentration und Ertrag bei verschiedenen Kulturpflanzen (Quelle http://www.eike-klima-energie.eu/climategate-anzeige/mehr-co2-bedeutet-ertragsteigerung-in-der-landwirtschaft/ ):

In Abb.5 sind die Erträge von W-Weizen und Z-Rüben in Abhängigkeit zum CO2-Gehalt gesetzt. Sie ergeben für den Untersuchungszeitraum lineare, hoch signifikante Relationen.
Wie ist dieser Zusammenhang zu erklären? CO2 ist der wichtigste Pflanzennährstoff- ohne CO2 funktioniert keine Fotosynthese! Allerdings liegt die momentane CO2- Konzentration weit unterhalb der für Pflanzen optimalen Werte. Jegliche CO2- Konzentrationssteigerung bewirkt nach den Ertragsgesetzen daher einen überproportional hohen Ertragszuwachs. Das CO2 wird von den Pflanzen durch mikroskopisch kleine Spaltöffnungen an der Blattunterseite eingeatmet; diese ähneln kleinen Mündern. Beim Atmen verliert das Blatt jedoch Wasser- genau wie wir auch. Steigt nun die CO2- Konzentration, so muss das Blatt weniger atmen, es verliert weniger Wasser. Somit hat CO2 auch eine wesentliche ertragsstabilisierende Wirkung bei Dürren.
Irdisches Leben ist auf Kohlenstoff und Kohlendioxid aufgebaut
Wir Menschen und die Tiere liefern auch durch Ausatmen den Pflanzen das C02 zum Leben und diese zerlegen CO2 und geben uns den Sauerstoff wieder zurück. Aus dem Kohlenstoff bauen sie dann hochwertige Stoffe, unsere Nährstoffe und Nahrungsmittel auf. So funktioniert der Kreislauf des Lebens. Kohlendioxid ist somit neben Wasser, Wärme und Sauerstoff die Voraussetzung für das Leben auf der Erde. Ohne CO2 wäre die Erde kahl wie der Mond. Das Grundelement aller organischen Verbindungen und allen Lebens ist Kohlenstoff. Das Gas CO2 ist das Transportmittel für das Kohlenstoffatom, um von einer organischen Verbindung zur anderen zu gelangen. Ohne CO2 wäre die Erde lebensfeindlich und tot. Kohlendioxid ist der Lebensmotor. CO2 ist das Gegenteil von rauchenden stinkenden Schornsteinen. Als Spurengas ist es von außerordentlicher Wichtigkeit für den Erhalt und die Weiterentwicklung organischen Lebens auf unserer Erde. Mit einer Konzentration von derzeit 0,04% = 400 ppm haben wir zu wenig Kohlendioxid auf der Erde. Aus diesem Grunde erhöhen Großgärtnereien auch den CO2-gehalt in den Gewächshäusern, siehe hier: http://www.gewerbegas-online.de/index.php?id=573 Aus diesem Fachartikel für Gärtnereien wollen wir folgende Faustregel weitergeben: „Liegen keine Erkenntnisse über die optimale CO2-Konzentration bei einer Pflanze vor, dann sollte der Gärtner zunächst eine CO2-Dosierung von 600 ppm wählen“. Die optimale Konzentration für Pflanzen wird nach den bisherigen Erfahrungen zwischen 600 und 1600 ppm angegeben.
Die Wachstumsergebnisse mit höheren CO2-Konzentrationen sind eindeutig. Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen bei einer Kiefer dargestellt.
Quelle: www.nhteapartycoalition.org/pdf/LeonAshby.pdf

Abb.6: Pflanzen wachsen mit mehr Kohlendioxid viel besser. Auf dem linken Bild wuchs der Nadelbaum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er vor 10 Jahren auf dem Mauna Loa noch gemessen wurde. Bereits bei einer Zunahme um weitere 150 ppm auf 535 ppm ist ein deutlicher Zuwachs zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem Ausgangswert, was dem Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm.
Der Kohlendioxidgehalt der Atmosphäre war in früheren Zeitaltern der Erdgeschichte weitaus höher. Aufgrund dessen, dass organische Stoffe zunehmend im Erdreich in Form von Torf, Kohle und Erdöl eingelagert wurden, hat der CO2-gehalt der Atmosphäre immer weiter abgenommen. Außerdem wurde CO2 zunehmend durch Schalentiere gebunden, das als Kalk abgelagert wurde. Die Folge war eine zunehmende Verknappung dieses lebensnotwendigen Gases in der Luft bis der Mensch begann, C02 wieder freizusetzen. Hätte der Mensch nicht eingegriffen und den Prozess der Konzentrationsabnahme gestoppt, dann wäre das Wachstum auf der Erde irgendwann zum Stillstand gekommen, mangels CO2 für die Photosynthese. Der kritische Wert dürfte bei 100 ppm liegen. Kurz gesagt: Ohne Mensch, grüne Erde, ade. Insofern hat der Mensch sogar einen Schöpfungsauftrag, nämlich durch erneutes Freisetzen von CO2 aus eingebunkerten Kohlenstoffverbindungen die Photosynthese und das Leben zu erhalten. Ergänzende Literatur durch den Greenpeace Gründer Patrick Moore, hier: http://www.eike-klima-energie.eu/news-cache/greenpeace-gruender-haelt-eine-grosse-rede-und-lobt-kohlendioxid/
Diese Verunglimpfung des Gases Kohlendioxid ist keine Wissenschaft, sondern sie trägt Züge einer lebensfeindlichen Pseudoreligion. Der Hauptsatz dieses Glaubens ist, dass Kohlendioxid der Hauptfaktor für die Erderwärmung seit 1850 ist. Mit teuren Computern wird dann hochgerechnet wie warm es im Jahre 2100 dann sein könnte. Und wie immer bei einer Religion werden die naturwissenschaftlichen Fakten ignoriert, in diesem Falle sind es gleich zwei: Nämlich, dass wir seit 19 Jahren einen Temperaturstillstand haben, und dass bislang kein einziger Versuch eine CO2-Erwärmung beweisen konnte. Was keine Wirkung hat, bewirkt logischerweise auch nichts. Um trotzdem Angst verbreiten zu können, wählt man in den Medien oft folgende Falschdarstellung:

Abb. 7: Bei diesen Rauchfahnen handelt es sich in der Hauptsache um Ruß und Wasserdampf. Kohlendioxid ist unsichtbar und geruchlos.
Beim Lesen dieses Aufsatzes hat der Leser das ungiftige und farblose, aber für das irdische Leben und Pflanzenwachstum unbedingt notwendige Kohlendioxid ausgeatmet, ohne irgendwelche Schäden anzurichten. Dieses anthropogene und absolut saubere CO2 hat noch nie zur Erderwärmung beigetragen und wird es auch weiter nicht tun.
Stefan Kämpfe, Diplom- Agrar- Ingenieur und unabhängiger Klimaforscher
Josef Kowatsch, aktiver Naturschützer und unabhängiger Klimaforscher