Wärmer, noch wärmer, am wärmsten – NOAA und NASA erwischt mit der Manipulation der Aufzeichnungen

Zusammenfassung

·        Nach den Daten der NOAA Website war 1997 war wirklich das heißeste Jahr der Aufzeichnung mit 16,9°C (62.45°F). Die globale Durchschnittstemperatur in 2015 betrug 14,78°C (58.62°F) oder 2,12K (3.83F) unter der Temperatur von 1997.

·        Nach den Daten der NOAA Website, haben die Temperaturen, wie beispielsweise die Durchschnittstemperatur des 20. Jahrhunderts und jährliche Temperaturanomalien, die festgelegt [fixed] werden mussten, unterschiedliche Werte in den jährlichen globalen Analysen.

·        NOAA und NASA korrigierten historische Temperaturdaten und stellten Temperaturdaten in Gebieten ohne Temperaturaufzeichnung systematisch her, unidirektional in Richtung "kühlerer" Vergangenheit, in dem Versuch, einen steigenden Temperaturtrend zu beweisen.

·        NOAA und die NASA haben Anstrengungen unternommen, ihre eigenen Satellitendaten zu diskreditieren – welche im Einklang mit dem Ballon Daten sind – weil diese eine globale Erwärmung Pause seit 1998 zeigen, was im Widerspruch mit der von NOAA und der NASA bevorzugten Erzählung steht.

·        NOAA und NASA haben sich geweigert, die durch das US-Repräsentantenhaus für Wissenschaft, Weltraum und Technologie angeforderten Daten und Informationen heraus zugeben. Es gibt keinen Grund für sie die Daten und Informationen, die öffentlich zugänglich sind, zurückzuhalten, es sei denn, sie haben etwas zu verbergen.

Die Schlagzeile: „letztes Jahr war das heißeste der Aufzeichnungen, dieses Jahr ist heißer als letztes Jahr und nächstes Jahr könnte heißer als dieses Jahr werden” wird Jahr für Jahr widerholt bis die Finanzierung des Klimawechsels aufhört!

Einführung

Wie seit April 2015 [1-9] monatlich behauptet, gaben die Mainstream-Medien heute bekannt, dass: "Es ist offiziell: 2015 war das wärmste Jahr der Aufzeichnung" [10-13]. Dieses "heißen Neuigkeiten" wurde sofort veröffentlicht, nachdem das „National Centers for Environmental Information“ (NCEI) der „National Oceanic and Atmospheric Administration“ (NOAA) seine "Globale Analyse – Annual 2015" [14] geliefert hatte. Nach dieser 2015er globalen Analyse: "… die globale Durchschnittstemperatur der Oberflächenbereiche über Land und Ozean für das Jahr 2015 betrug 0,90° C (1,62 ° F) über dem Durchschnitt von 13,9° C (57,0 ° F) im 20. Jahrhunderts und schlug den bisherigen Wärmerekord von 2014 um 0,16° C (0,29° F)", um das heißeste Jahr der Aufzeichnungen zu werden. "Wir sehen wirklich einen langfristigen Trend und das ist ein Symptom für einen langfristigen Trend" und „wenn 2016 sich als so warm erweist, wie wir erwarten, wäre das beispiellos in unserem Buch der Rekorde", sagte Gavin Schmidt, Direktor des Goddard Institute for Space Studies (GISS) der National Aeronautics and Space Administration (NASA) [10,15]. Das überrascht nicht, weil ein zuvor vom britischen Met Office veröffentlichter Bericht behauptet, dass " nächste Jahr [2016] wird wahrscheinlich das wärmste dank El-Niño und fortschreitenden Klimawandel sein" [16].

Allerdings gibt es Hinweise darauf, dass die von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen ungenau, unzuverlässig und vor allem nicht mit den Satelliten-Temperaturdaten konsistent zu sein scheinen. Dieser Bericht ist ein Versuch zu verstehen, warum [bereits] seit langer Zeit, die von der NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen durch "skeptische" Wissenschaftler und Meteorologen als Betrug betrachtet werden oder diplomatischer – unwissenschaftlich!

Unbestreitbare Beweise

Bedenken in Bezug auf die Genauigkeit und Zuverlässigkeit der von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen waren nicht gegeben und erfuhren keine besondere Aufmerksamkeit, bis die NASA erklärte: „dass die Temperatursteigerung des Planeten aus dem langfristigen Durchschnitt von 1,04 Celsius im Oktober [2015] die größte eines Monats überhaupt ist, die von der NASA aufgenommen wurde. Es war das erste Mal das eine monatliche Temperaturanomalie von 1 Grad Celsius in den Aufzeichnungen aus dem Jahr 1880 übertroffen wurde. Die bisherige größte Anomalie betrug 0,97 Celsius im Januar 2007 "[17] Seitdem wurden viele Beweise [, dass das falsch ist,] aufgedeckt und im Internet veröffentlicht.

Welches Jahr war das wärmste Jahr der Aufzeichnungen?

In der NOAA Globalen Analyse – Annual 2015 [14] heißt es "… die globale Durchschnittstemperatur der Oberflächenbereiche über Land und Ozean für das Jahr 2015 betrug 0,90 ° C (1,62 ° F) über dem Durchschnitt von 13,9 ° C (57.0 ° F) im 20. Jahrhundert und schlug den bisherigen Wärmerekord des Jahres 2014 um 0,16K (0.29 F)". Als Folge errechnet sich die globale Durchschnittstemperatur für das Jahr 2015 über Land und Ozean mit 14,80 °C (58.62°F). In der NOAA Global Analysis – Annual 1997 [18] heißt es: "Die globale Durchschnittstemperatur von 62.45 Grad Fahrenheit [16,9°C} im Jahr 1997 war das wärmste Jahr der Aufzeichnung und übertraf damit den bisherigen Rekord im Jahr 1995 um 0.15 Grad Fahrenheit (0,08K)."

Basierend auf diesen globalen Analysen der NOAA, war die globale Durchschnittstemperatur für das Jahr 1997, mit 16,92°C (62.45°F) höher als die für das Jahr 2015, von 14,80°C (58.62°F), mit 2,12K (3.83F). Daher war 1997 eigentlich das wärmste Jahr der Aufzeichnung und übertraf damit alle nachfolgenden Jahre einschließlich 2015!

Konstante Parameter mit unterschiedlichen Werten

Einige Temperaturparameter, die konstant sein müssen, werden mit unterschiedlichen Werten in den NOAA globalen Analysen gezeigt. Ohne besondere Aufmerksamkeit sind sie schwer zu erkennen, da sie in Einzelanalysen versteckt sind.

Der erste Parameter, der direkte Auswirkungen auf die NOAA Einschätzung hat, ist der Durschnitt des 20. Jahrhundert. In den jährlichen globalen Analysen vor 2010, wird der Mittelwert des 20. Jahrhunderts, mit 56,9°F oder 13,9 °C ausgewiesen (eigentlich müsste es 13,83°C sein). Sein Wert wird mit 57,0°F oder 13,9 °C ab dem Jahr 2010 bis jetzt dargestellt [19].

Zusätzlich in der globalen Analyse – August 2015 [20], berichtet NOAA: "Die kombinierte Durchschnittstemperatur über globalen Land- und Ozeanoberflächen für August 2015 betrug 0,88 K (1.58 F) über dem Durchschnitt von 15,6 °C (60.1 °F) des 20. Jahrhunderts und war der höchste Augustwert in der 136-jährigen Aufzeichnung". Die Veränderung des Wertes für den Durchschnitt des 20. Jahrhunderts wird von NOAA und der NASA nicht erklärt.

 

Tabelle 1 – Unterschiedliche Werte von Jahres Anomalien

Der zweite Parameter ist die jährliche Anomalie, das heißt die Differenz zwischen der jährlichen globalen Durchschnittstemperatur und der mittleren des 20. Jahrhunderts. Der Wert dieses Parameters, der eine Konstante sein muss, variiert von Analyse zu Analyse. Zum Beispiel die 2010er-Anomalie – gezeigt mit 0,62K ( 1.12F) in der globalen Analyse – Annual 2010 – steigt auf 0,83K (1.15F) in der 2011 Analyse und 0,66K (1.19F) in den 2012 und 2013 Analysen, verringert sich auf 0,94K (1.17F) in der 2014er Analyse und erhöht sich dann wieder in der 2015er Analyse, wie in Tabelle 1 gezeigt.

Korrigierte und hergestellte Temperaturdaten

Fragen in Bezug auf die Zuverlässigkeit, Genauigkeit und Angemessenheit der Temperaturdaten die von NOAA und der NASA verwendet werden, um die globale Durchschnittstemperatur zu berechnen, wurden von Joseph D’Aleo gestellt, dem ersten Direktor der Meteorologie und Mitbegründer des Kabel-TV Weather Channel und von Anthony Watts, ein 25-Jahre-Broadcast Meteorologie Veteran und derzeit ein Meteorologe für KPAY-AM-Radio und den vom Wissenschaft & Public Policy Institute (SPPI) im Jahr 2010  veröffentlichten Bericht [21].

Im Anschluss an eine integrative Beurteilung der Aufzeichnungen der Oberflächentemperaturen der Climatic Research Unit (CRU) der East Anglia University in Großbritannien und NASA‘s GISS und NOAA National Climatic Data Center (NCDC), schlossen die Autoren, dass "Instrumentale Temperaturdaten für die Vor-Satelliten-Ära (1850-1980) wurden so umfangreich, systematisch und unidirektional verfälscht, dass sie nicht glaubwürdig geltend machen können, dass es eine signifikante "globale Erwärmung" im 20. Jahrhundert gegeben hat … globale terrestrische Temperaturdaten wurden beeinträchtigt, weil mehr als drei Viertel der 6.000 Stationen, die [früher] einmal erfasst wurden, nun nicht mehr in den Trendanalysen verwendet werden … zu den Ozeanen fehlen Daten und die Unsicherheiten sind beträchtlich. Veränderungen in Datensätzen führten zu einer schrittweisen Erwärmung im Jahr 2009. "

Das D’Aleo‘s und Watt‘s Bericht ermutigt zusätzliche Bewertungen durch andere Wissenschaftler, Anpassungen oder Herstellung von Temperaturdaten in den NCDC und CRU-Datenbanken genau zu prüfen. Diese zusätzlichen Bewertungen bestätigen, dass NOAA und der NASA systematisch und umfangreich, historische Daten verändert und Temperaturdaten in Bereichen ohne Messungen hergestellt haben [22-35], um "die Vergangenheit zu kühlen", damit ein zunehmender globaler Temperaturtrend gezeigt werden kann, wie von NOAA und NASA interpretiert (siehe Abbildung 1).

 

Abbildung 1 – NASA "kühlt" die Vergangenheit, um den globalen Erwärmungstrend zu beweisen [22]

Diskreditierung der Satellitendaten

Seit 1978 hat NOAA Wettersatelliten verwendet, um die Temperatur der Erdatmosphäre zu überwachen. Laut einer Studie, die von der NASA im Jahr 1990 [36] durchgeführt wurde, „haben mehrere Regierungs- und Universitäts Meteorologen auf der ganzen Welt festgestellt, dass die durchschnittliche Oberflächentemperatur in den letzten Jahren zugenommen hat“, der Autor dieses Berichts schrieb, dass ihre Satelliten-Analyse der oberen Atmosphäre viel genauer ist und als der normale Weg übernommen werden sollte, um globale Temperaturänderungen zu überwachen."

Abbildung 2 – Satelliten Temperaturanomalien der globalen unteren Atmosphäre [37]

Abbildung 3 – NASA, globale Land und Meer Temperaturanomalien [38]

Satellitendaten von 1979 (Abbildung 2) zeigen, dass die Temperatur der globalen unteren Atmosphäre seit 1998 nicht gestiegen ist, im Widerspruch mit dem steigenden Trend der NASA, wie in Abbildung 3 zu sehen. Aus diesem Grund, haben NOAA und NASA Anstrengungen unternommen, um die durch ihre eigenen Satelliten gesammelten Temperaturdaten zu diskreditieren.

Der erste Versuch war eine Studie von Thomas R. Karl, Direktor des NOAA National Centers for Environmental Information (NCEI), und seinen NOAA Kollegen. Die Studie, online in der Zeitschrift Science [39] veröffentlicht, kommt zu dem Schluss, dass: "Viele Studien wurden den möglichen Ursachen für eine scheinbare Abnahme des Aufwärtstrend der globalen Oberflächentemperatur seit 1998 gewidmet, ein Phänomen, das die globale Erwärmungs- "Pause" überspielt hat. Hier präsentieren wir eine aktualisierte globale Oberflächentemperatur-Analyse, die zeigt, dass globale Trends höher sind als die vom IPCC gemeldeten, vor allem in den letzten Jahrzehnten, und dass die zentrale Schätzung für die Erwärmungsrate während den ersten 15 Jahre des 21. Jahrhunderts mindestens so groß ist wie in der letzten Hälfte des 20. Jahrhunderts [4]. Diese Ergebnisse stützen die Vorstellung von einem "Rückgang" in der Zunahme der globalen Oberflächentemperatur nicht."

Abbildung 4 – NOAA’s globale Temperaturtrend Analysen [Internet]

Die zweite Anstrengung war ein Propaganda-Video, an dem der "berühmte Klimaforscher" Michael Mann (der Autor von "The Hockey Stick") beteiligt war, Kevin Trenberth (zugebend, dass "es ein Hohn ist, dass wir nicht auf die im Moment fehlende Erwärmung zählen können") und Ben Santer. Das Video wurde von einer Stiftung für Klima-Aktivisten finanziert, um Zweifel an den Satellitendaten [40] zu streuen. Aber dieses Video scheint ein Schuss in den Ofen zu sein, weil (1) die Satellitendaten durch die unabhängigen Ballondaten (Abbildung 5) verifiziert werden, während die von NOAA und der NASA berechneten Temperaturdaten nicht bestätigt werden, (2) die Verwendung von Satelliten für Überwachung der globalen Temperaturänderungen war von der NASA empfohlen und (3) Jason-3 – der neueste in den Orbit gestartete Wettersatellit – ist eine internationale Mission, in der NOAA in Partnerschaft ist mit der NASA, dem Centre Nationale de’Études Spatiales (CNES), der Französischen Weltraumorganisation und der Europäischen Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT)) [41].

Abbildung 5 – Satelliten- durch Ballon-Daten verifiziert [40]

Verbergen von Daten und Methoden die für wissenschaftliche Untersuchungen verwendet werden

Im Juli 2015, um die wissenschaftliche Integrität der NOAA-Studie zu "keine Pause in der globalen Erwärmung" zu beweisen, fragten der Republikaner Lamar Smith (R-Texas), der Ausschussvorsitzende im US-Repräsentantenhaus für Wissenschaft, Raumfahrt und Technologie, die NOAA um Daten und Dokumente an, die mit der Studie verbunden sind. Obwohl Rep. Smith Anfrage legitim und die angeforderten Informationen öffentlich sind, weigerte sich NOAA dem Ausschuss die angeforderten Daten und Informationen zu geben, weil "es ist eine langjährige Praxis in der wissenschaftlichen Gemeinschaft, die Vertraulichkeit der beratenden wissenschaftlichen Diskussionen zu schützen" [42]. Warum verweigert NOAA diesen Antrag? "Es gibt absolut keinen Grund für die NOAA, ihre Informationen zurückzuhalten, außer sie haben etwas zu verbergen. Und als Bundesbehörde ist es ihre Pflicht, mit dem Kongress zu kooperieren "[42].

NOAA weigerte sich weiterhin, die angeforderten Daten und Informationen zu geben, bis die Überwachung der Justiz am 2. Dezember 2015 eine Klage eingereichte, zur Vorlage der gleichen Unterlagen, die der Ausschuss anforderte. Das Department of Commerce (DOC) wurde wegen fehlender Reaktion auf die Anfrage nach dem Freedom of Information Act (FOIA) [ist in US Gesetz; der Übers.] verklagt, weil NOAA eine Komponente des DOC ist. Am 15. Dezember 2015 begann NOAA die angeforderten Dokumente an den Kongress [43] zu übermitteln.

Die Tiefe der Probleme in NOAA’s Praktiken wurde wahrscheinlich zum ersten Mal im Jahr 2007 aufgedeckt, als Klimaforscher Roger Pielke und Meteorologe Anthony Watts ernsthafte Probleme mit dem US-Oberflächentemperatur-Messnetz fanden, welches vom National Climatic Data Center (NCDC) verwaltet wurde, ein Zweig der NOAA. Sie bemühten sich, dieses Netzwerk zu validieren, aber ‚das NCDC entfernte alle Website Zugänge zu Stationsstandorten unter Berufung auf  ‚Bedenken hinsichtlich der Privatsphäre.‘ Ohne diese Daten (die seit Jahren öffentlich sind), wurden Validierungsbemühungen blockiert" [44].

FAZIT

Wie so häufig von den Mainstream-Medien seit April 2015 wiederholt, erklärten NOAA und NASA offiziell, dass 2015 heißer als 2014 war, das alte wärmste Jahr der Aufzeichnungen und "versprechen", dass 2016 heißer als 2015 sein könnte! Jedoch, unleugbare Beweise zeigen, dass die von NOAA und der NASA berechneten durchschnittlichen globalen Temperaturen ungenau, unzuverlässig und nicht mit den Satellitendaten konsistent erscheinen.

Laut Daten der NOAA Website, war 1997 wirklich das heißeste Jahr der Aufzeichnung mit 16,9°C (62.45°F). Die globale Durchschnittstemperatur im Jahr 2015 betrug 14,8°C (58.62°F) oder 2,12K (3.83F) von unter der Temperatur 1997.  [… und unter der „Normal“ Temperatur von 15°C gemäß PIK u.ä., der Übersetzer]

Nach den Daten der NOAA Website, haben die Parameter wie beispielsweise die Durchschnittstemperatur des 20. Jahrhunderts und der jährlichen Temperaturanomalien, die konstant sein müssten, unterschiedliche Werte in den jährlichen globalen Analysen.

NOAA und NASA korrigierten historische Temperaturdaten und stellten Temperaturdaten in Gebieten ohne Temperaturaufzeichnung systematisch her, weit verbreitet und unidirektional zum „kühlen“ der Vergangenheit, in dem Versuch, einen steigenden Temperaturtrend zu beweisen.

NOAA und der NASA haben Anstrengungen unternommen, um ihre eigenen Satellitendaten zu diskreditieren – die im Einklang mit dem Ballon Daten sind – weil eine globale Erwärmung Pause seit 1998 im Widerspruch mit der von NOAA und der NASA bevorzugten Behauptung steht.

NOAA und NASA haben sich geweigert, die durch das US-Repräsentantenhaus für Wissenschaft, Weltraum und Technologie angeforderten Daten und Informationen heraus zugeben. Es gibt keinen Grund für sie die Daten und Informationen, die öffentlich zugänglich sind, zurückzuhalten, es sei denn, sie haben etwas zu verbergen.

 Bild WUWT

Die Schlagzeile: „letztes Jahr war das heißeste der Aufzeichnungen, dieses Jahr ist heißer als letztes Jahr und nächstes Jahr könnte heißer als dieses Jahr werden” wird Jahr für Jahr widerholt bis die Finanzierung des Klimawechsels aufhört!

Erschienen auf WUWT am 2. Februar 2016

Übersetzt durch Andreas Demmig

www.wattsupwiththat.com/2016/02/02/2014-was-the-hottest-year-on-record-but-2015-is-hotter-than-2014-and-2016-could-be-hotter-than-2015

Referenzen

[1] Andrea Thompson. April 17, 2015. “2015 Hottest Year to Date, Could Top 2014 Record.” Climate Central. http://www.climatecentral.org/news/2015-hottest-year-to-date-18895

[2] Jay Michaelson. May 16, 2015. “2015 Is the Hottest Year On Record.” The Daily Beast. http://www.thedailybeast.com/articles/2015/05/16/2015-is-the-hottest-year-on-record.html

[3] Jon Edrman. Jun 18, 2015. “2015 Still On Pace as Hottest Year On Record.” The Weather Channel. http://www.weather.com/news/climate/news/earth-warmest-january-may-2015

[4] Brian Clark Howard. July 24, 2015. “See Why 2015 May Be the Hottest Year Ever.” National Geographic. http://news.nationalgeographic.com/2015/07/071524-this-year-may-be-hottest-ever/

[5] Andrea Thompson. August 20, 2015. “2015 May Just Be Hottest Year on record.” Scientific American. http://www.scientificamerican.com/article/2015-may-just-be-hottest-year-on-record/

[6] Adam Vaughan. September 17, 2015. “US science agency says 2015 is 97% likely to be the hottest year on record.” The Guardian. http://www.theguardian.com/us-news/2015/sep/17/2015-hottest-year-on-record-noaa

[7] Justin Gillis. October 21, 2015. “2015 Likely to Be Hottest Year Ever Recorded.” The New York Times. http://www.nytimes.com/2015/10/22/science/2015-likely-to-be-hottest-year-ever-recorded.html?_r=0

[8] WMO. 25 November 2015. “WMO: 2015 likely to be Warmest on Record, 2011-2015 Warmest Five Year Period.” WMO. https://www.wmo.int/media/content/wmo-2015-likely-be-warmest-record-2011-2015-warmest-five-year-period

[9] Tom Randall. December 17, 2015. « A White-Hot Christmas Wraps Up Earth’s Hottest Year on Record.” Bloomberg Business. http://www.bloomberg.com/news/features/2015-12-17/a-white-hot-christmas-wraps-up-earth-s-hottest-year-on-record

[10] Jason Plautz. January 20, 2016. “It’s Official: 2015 Was Hottest Year on Record.” National Journal. http://www.nationaljournal.com/s/399249/its-official-2015-was-hottest-year-record?mref=scroll

[11] Brandon Miller. January 20, 2016. “2015 is warmest year on record, NOAA and NASA say.” CNN. http://www.cnn.com/2016/01/20/us/noaa-2015-warmest-year/

[12] Alyssa Newcomb. January 20, 2016. “Earth Had Its Hottest Year on Record in 2015, Says NASA, NOAA.” ABC News. http://abcnews.go.com/Technology/earth-hottest-year-record-2015-nasa-noaa/story?id=36400929

[13] Justin Gillis. January 20, 2016. “2015 Was Hottest Year in Historical Record, Scientists Say.” The New York Times. http://www.nytimes.com/2016/01/21/science/earth/2015-hottest-year-global-warming.html

[14] National Centers for Environmental Information. Retrieved January 20, 2016. “Global Analysis – Annual 2015.” NOAA. http://www.ncdc.noaa.gov/sotc/global/201513

[15] Deborah Netburn. January 20, 2016. “2015 was the hottest year on record, and the forecast for 2016 is warmer yet.” The Los Angeles Times. http://www.latimes.com/science/sciencenow/la-sci-sn-2015-hottest-year-20160119-story.html

[16] Justin Worland. December 17, 2015. “2016 Expected to Be the Warmest Year on record, Report Says.” Time. http://time.com/4154331/warmest-year-2016-climate-change-el-nino/

[17] Jason Samenow. November 17, 2015. “Record-crushing October keeps Earth on track for hottest year in 2015.” The Washington Post. https://www.washingtonpost.com/news/capital-weather-gang/wp/2015/11/17/record-crushing-october-keeps-earth-on-track-for-hottest-year-in-2015/

[18] NOAA National Climatic Data Center, State of the Climate: Global Analysis for Annual 1997, published online January 1998, retrieved on May 4, 2015 from http://www.ncdc.noaa.gov/sotc/global/199713

[19] National Centers for Environmental Information. “State of the Climate: Global Analysis.” NOAA. http://www.ncdc.noaa.gov/sotc

[20] NOAA National Centers for Environmental Information, State of the Climate: Global Analysis for August 2015, published online September 2015, retrieved on January 22, 2016. http://www.ncdc.noaa.gov/sotc/global/201508

[21] Joseph D’Aleo and Anthony Watts. August 27, 2010. Surface Temperature Records: Policy-Driven Deception? Science & Public Policy Institute.http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf

[22] Paul Homewood. January 29, 2015. “Temperature Adjustments Around the World.” Not A Lot of People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/01/29/temperature-adjustments-around-the-world/

[23] Christopher Booker. February 7, 2015. “The fiddling with temperature data is the biggest science scandal ever.” The Telegraph. http://www.telegraph.co.uk/news/earth/environment/globalwarming/11395516/The-fiddling-with-temperature-data-is-the-biggest-science-scandal-ever.html

[24] Selwyn Duke. February 9, 2015. “Global Conning: temperature Data Cooked in ‘Biggest Science Scandal Ever’.” The New American. http://www.thenewamerican.com/usnews/item/20081-global-conning-temperature-data-cooked-in-biggest-science-scandal-ever?

[25] James Delingpole. February 7, 2015. “’Breathtaking’ Adjustments to Arctic Temperature Record. Is There Any ‘Global Warming’ We Can Trust?” Breitbart. http://www.breitbart.com/london/2015/02/07/breathtaking-adjustments-to-arctic-temperature-record-is-there-any-global-warming-we-can-trust/

[26] John Hinderaker. May 5, 2015. “NOAA Caught Rewriting US Temperature History (Again).” Powerline. http://www.powerlineblog.com/archives/2015/05/noaa-caught-rewriting-us-temperature-history-again.php

[27] Paul Homewood. July 20, 2015. “NOAA Tampering Exposed.” Not A Lot of People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/07/20/noaa-tampering-exposed/

[28] John Hinderaker. September 27, 2015. “Almost All US Temperature Data used in Global Warming Models Is Estimated or Altered.” Powerline. http://www.powerlineblog.com/archives/2015/09/almost-all-us-temperature-data-used-in-global-warming-models-is-estimated-or-altered.php

[29] John Goetz. September 27, 2015. “Approximately 92% (or 99%) of USHCN surface temperature data consists of estimated values.” Watts Up With That. http://wattsupwiththat.com/2015/09/27/approximately-92-or-99-of-ushcn-surface-temperature-data-consists-of-estimated-values/

[30] Larry Bell. November 17, 2015. “Data Tweaking heats up climate hype.” CFACT. http://www.cfact.org/2015/11/17/data-tweaking-heats-up-climate-hype/

[31] Tony Heller. November 19, 2015. “Record Crushing Fraud From NOAA And NASA Ahead of Paris.” The Real Climate Science. http://realclimatescience.com/2015/11/record-crushing-fraud-from-noaa-and-nasa-ahead-of-paris/

[32] Judith Curry. November 5, 2015. “Is the government tinkering with global warming data?” Fox News. http://www.foxnews.com/opinion/2015/11/05/is-government-tinkering-with-global-warming-data.html

[33] Paul Homewood. November 21, 2015. “NOAA’s Fabricated ‘Record Temperatures’.” Not A Lot People Know That. https://notalotofpeopleknowthat.wordpress.com/2015/11/21/noaas-fabricated-record-temperatures/

[34] P Gosselin. November 20, 2015. “’Massive Altered’… German Professor Examines NASA GISS Temperature Datasets.” NoTricksZone. http://notrickszone.com/2015/11/20/german-professor-examines-nasa-giss-temperature-datasets-finds-they-have-been-massively-altered/#sthash.lEDY4hkl.TeBUOeAB.dpbs

[35] Steven Goddard. November 22, 2015. “NOAA Data Tampering – Much Worse Than It Seems.” Real Science. https://stevengoddard.wordpress.com/2015/11/22/noaa-data-tampering-much-worse-than-it-seems/

[36] Steven Goddard. January 7, 2014. “NASA 1990: No Global Warming – Surface Temperature Record Should Be Replaced by More Accurate Satellites.” Real Science. https://stevengoddard.wordpress.com/2014/01/07/nasa-1990-no-global-warming-surface-temperature-record-should-be-replaced-by-more-accurate-satellites/

[37] Barbara Hollingsworth. January 21, 2016. “NASA/NOAA: 2015 ‘Warmest Year on Record’ – Except Earth’s Lower Atmosphere.” CNSNews. http://www.cnsnews.com/news/article/barbara-hollingsworth/nasanoaa-2015-warmest-year-record-except-earths-lower-atmosphere

[38] Goddard Institute for Space Studies. Retrieved on January 23, 2016. “GISS Surface temperature Analysis.” NOAA. http://data.giss.nasa.gov/gistemp/graphs_v3/

[39] Thomas R. Karl, et al. June 26, 2015. ”Possible artifacts of data biases in the recent global surface warming hiatus.” Science, Vol. 348, Issue 6242. http://science.sciencemag.org/content/sci/348/6242/1469.full.pdf

[40] Ronald Bailey. January 15, 2016. “Global Temperature Trend Propaganda Video: Who Needs Pier Review?” Reason.com. http://reason.com/blog/2016/01/15/global-temperature-trend-propaganda-vide

[41] Satellite and Information Service. January 17, 2016. “Jason-3 Officially Reaches Orbit!” NOAA. http://www.nesdis.noaa.gov/jason-3/

[42] Jeff Dunetz. October 28, 2015. “Why Is NOAA Hiding its Climate Data from Congress?” The Lid. http://lidblog.com/why-is-noaa-hiding-its-climate-data-from-congress/#

[43] Judicial Watch. December 22, 2015. “Judicial Watch Sues for Documents Withheld From Congress in New Climate Data Scandal.” Judicial Watch. http://www.judicialwatch.org/press-room/press-releases/judicial-watch-sues-for-documents-withheld-from-congress-in-new-climate-data-scandal/

[44] Michael Asher. August 7, 2007. “New Scandal Erupts over NOAA Climate Data.” Daily Tech. http://www.dailytech.com/New+Scandal+Erupts+over+NOAA+Climate+Data/article8347.htm




Klimamodelle simulieren NICHT das Klima der Erde

Einführung

Die vom IPCC verwendeten Klimamodelle simulieren das Klima nicht so, wie es auf der Erde besteht. Diese Realität der Klimamodelle wird wahrscheinlich für viele Laien in punkto Klima überraschend sein.

Im ersten Teil dieser Reihe zeigten wir, wie die räumliche Verteilung der modellierten Erwärmungsraten der Oberflächen der globalen Ozeane von 1982 bis 2015 (also der Ära mit satellitengestützten Temperaturmessungen) keine Ähnlichkeiten aufweist mit der räumlichen Verteilung der gemessenen, auf Daten basierenden Erwärmung und Abkühlung. Und wir haben besprochen, warum es wichtig ist, dass die vom IPCC verwendeten Modelle in der Lage sind zu simulieren, wann und wo und warum die Temperaturen der Ozeanoberflächen variieren. Das ist relativ leicht zu verstehen. Wo und wann sich die Oberflächen der Ozeane erwärmen, nicht erwärmen oder sich gar aus natürlichen abkühlen und um welchen Betrag – zusammen mit anderen natürlich auftretenden Faktoren – diktiert, wo und wann Landtemperaturen steigen und fallen und wo der Niederschlag zunimmt oder abnimmt – auf jährlicher dekadischer oder multidekadischer Grundlage.

In diesem Teil zeigen wir die Vergleiche zwischen Modellen und Daten in Gestalt von Zeitreihen-Graphiken global und für eine Anzahl von Regionen. Wie schon erwähnt handelt es sich dabei um Darstellungen in absoluter Form anstatt von Anomalien. Damit sollen Additionsprobleme der Modelle illustriert werden.

Warum absolute Temperaturen?

Die tatsächlichen Temperaturen der Ozeanoberfläche bestimmen zusammen mit zahlreichen anderen Faktoren, wie viel Feuchtigkeit aus den Ozeanen verdunstet und daraus folgend, wie viel Feuchtigkeit sich in der Atmosphäre befindet … was die Feuchtevariable (1) für Niederschlag, (2) für den auf Wasserdampf bezogenen Treibhauseffekt und (3) für die negativen Rückkopplungen durch die Wolkenbedeckung diktiert. Mit anderen Worten, die Meeresoberflächen-Temperaturen nicht angemessen zu simulieren bedeutet, dass auch die atmosphärischen Komponenten der gekoppelten Ozean-Atmosphäre-Modelle nicht stimmen können.

Einleitende Information

Der in diesem Beitrag verwendete Datensatz der Ozean-Oberflächentemperatur [sea surface temperature] ist die wöchentliche und monatliche Version von NOAA’s Optimum Interpolation (OI) Sea Surface Temperature (SST) v2 (a.k.a. Reynolds OI.v2). Wir verwenden ihn, weil (1) es der längste verfügbare Datensatz mit satellitengestützten Wasseroberflächen-Temperaturen ist, (2) weil dessen Satellitendaten bias-adjustiert sind auf der Grundlage von Temperaturmessungen von in Schiffe einströmendem Kühlwasser und von Bojen (sowohl treibend als auch fest) und (3) – und das ist am wichtigsten – weil die NOAA-Reynolds OI.v2-Daten „eine gute Schätzung der Wahrheit“ genannt worden sind. Siehe hier. Die Autoren stellten hinsichtlich der Reynolds OI.v2-Daten fest (Hervorhebung von mir):

Obwohl die NOAA OI-Analyse einiges Rauschen enthält infolge deren Verwendung unterschiedlicher Datentypen und Bias-Korrekturen für Satellitendaten, wird sie von den Satellitendaten dominiert und zeigt eine gute Schätzung der Wahrheit.

Dies ist nicht die (übermäßig aufgeblähte und eine extrem hohe Erwärmungsrate zeigende) hoch aufgelöste tägliche Version der NOAA’s Reynolds OI.v2-Daten, welche wir illustriert und diskutiert haben in dem Beitrag mit dem Titel [übersetzt] „Über die monumentalen Differenzen zwischen den Datensätzen der globalen Meeresoberflächentemperatur während der von der NOAA herausgepickten Stillstandsperiode der globalen Erwärmung von 2000 bis 2014“ (hier). Auf der Grundlage jenes Beitrags verwenden wir auch nicht die den „Stillstand zerschlagenden“ [pause buster] Daten von NOAA ERSST.v4, aus welchen der Ozean-Anteil der von NOAA und GISS kombinierten Temperaturprodukte von Land + Wasser besteht. Die NOAA hat die zahlreichen Parameter in ihrem ERSST.v4-Modell adjustiert, so dass die Erwärmungsraten für die von der NOAA gewählten Zeiträume von 1951 bis 2012 und 2000 bis 2014 am extremen oberen Rand der Unsicherheits-Bandbreite für jene Perioden liegen. Und wie wir in jenem Beitrag gezeigt und illustriert haben, weist die originale Version (wöchentlich, monatlich, auf 1°C aufgelöst) der Reynolds OI.v2-Daten, die wir hier zeigen, im Wesentlichen die gleiche Erwärmungsrate auf wie die UKMO HADSST3-Daten der von der NOAA gewählten Stillstandsperiode von 2000 bis 2014.

Die in diesem Beitrag präsentierten Klimamodelle sind diejenigen, die im CMIP5-Archiv gespeichert sind, welcher vom IPCC für dessen 5.Zustandsbericht verwendet worden ist. Die CMIP5-Klimamodell-Ergebnisse der Wasseroberflächentemperatur sind verfügbar über den KNMI Climate Explorer, spezifiziert auf dieser Website unter der Überschrift Ocean, ice and upper air variables. Die Wasseroberflächentemperatur wird als TOS bezeichnet. Um mit vorherigen Beiträgen konsistent zu sein werden das „CMIP5-Mittel“ und das Historic/RCP6.0-Szenario verwendet. Das RCP6.0-Szenario liegt A1B am nächsten, welches in den CMIP3-Modellen verwendet wurde (also für den 4. IPCC-Zustandsbericht). Und wieder benutzen wir das Modellmittel, weil es die erzwungene Komponente der Klimamodelle repräsentiert. Im Wesentlichen repräsentiert das Modellmittel den Konsens der das Klima modellierenden Gruppen darüber, wie sich die Oberflächen der Ozeane erwärmen sollten, falls sie durch anthropogene Treibhausgase und die anderen in den Modellen verwendeten Treiberfaktoren in den Modellen getrieben werden würden. Für weitere Diskussionen siehe hier.

Weil die Vergleiche zwischen Modell und Daten absolut vorgenommen werden, werden jährliche Daten gezeigt. Die Reynolds OI.v2-Daten beginnen im November 1981, so dass sich die Vergleiche über 34 Jahre erstrecken, von 1982 bis 2015.

Die in die Graphiken eingezeichneten linearen Trends wurden mittels EXCEL berechnet (hier).

Globale Zeitreihen

Abbildung 1 zeigt zwei Modelle-Daten-Vergleiche der Oberflächentemperaturen während der Satellitenära, keine Anomalien. Die obere Graphik für die Breiten zwischen 90N und 90S umfasst auch die polaren Ozeane. Die untere Graphik zeigt den Bereich zwischen 60N und 60S, also ohne die polaren Ozeane. Es macht kaum einen Unterschied, ob wir die polaren Ozeane in diesen Modelle-Daten-Vergleich einbeziehen oder nicht. Die Disparität zwischen den Modellen und den Daten ist ohne die polaren Ozeane etwas größer, aber unter dem Strich zeigen die Modelle zu viel Erwärmung.

Abbildung 1

Die Differenzen zwischen Modellen und Daten auf globaler Basis beleuchten ein sehr grundlegendes Problem mit den Modellen. Die Modellierer müssen sich allein auf anthropogene Treibhausgase und andere anthropogene Faktoren konzentrieren, um die Klimamodelle zu treiben, weil die Klimamodelle Timing, Größenordnung und Dauer natürlich auftretender Prozesse nicht angemessen simulieren, die zur Erwärmung der Ozeanoberfläche führen können. Auf der Grundlage jener Modelle (die keinerlei Bezug zur realen Welt haben), wurde erwartet, dass sich die Oberflächen der Ozeane grob mit einer Raten von 0,17°C pro Dekade während der letzten 34 Jahre erwärmt haben müssten. Aber in der realen Welt zeigten sich beobachtete Erwärmungsraten infolge der Kombination der natürlichen Variabilität und Treibhausgasen von lediglich 0,10°C pro Dekade. Das ist eine monumentale Differenz zwischen Hypothese und Realität.

Ein weiteres Faktum muss berücksichtigt werden: Die Daten existierten, während die Modellierer ihre Klimamodelle für das CMIP5-Archiv vorbereitet haben. Mit anderen Worten, die Modellierer kannten ihre Ziele. Und das beste, was die Modellierer tun konnten war, die Erwärmungsrate der Oberfläche der globalen Ozeane fast zu verdoppeln. Das ist eine grauenhafte Modellierungsmaßnahme … selbst mit der jüngsten leichten Erwärmung primär durch The Blob und durch den El Nino 2015/2016.

Man beachte auch, dass von Klimamodellen simulierten Ozeanoberflächen etwas wärmer sind als beobachtet. Für den Bereich zwischen 60N und 60S liegen die mittleren simulierten Temperaturen der Ozeanoberfläche im Zeitraum 1982 bis 2015 um etwa 0,2°C höher als beobachtet. Vielleicht ist das der Grund, warum die Modelle global zu viel Niederschlag simulieren. Siehe Abbildung 2, was in meinem E-Buch On Global Warming and the Illusion of Control die Abbildung Intro-10 ist.

Abbildung 2

Tropische Wasseroberflächen-Temperaturen

Die Modelle überschätzten die Erwärmung der Wasseroberflächen-Temperaturen der tropischen Ozeane (24N bis 24S) während der letzten 34 Jahre … keine Überraschung. Überraschend ist, wie ähnlich die modellierten und die beobachteten Wasseroberflächen-Temperaturen in den Tropen sind. Siehe Abbildung 3. In den tropischen Ozeanen liegt die mittlere simulierte Wasseroberflächentemperatur im Zeitraum 1982 bis 2015 um lediglich etwa 0,02°C über den beobachteten Werten.

Abbildung 3

Während die absoluten Temperaturen sich ziemlich ähnlich sind, haben die Modelle die Erwärmung drastisch überschätzt. Den Daten zufolge hat sich die Oberfläche der tropischen Ozeane mit einer nicht gerade alarmierenden Rate von +0,08°C erwärmt. Die Modelle hingegen zeigen, dass sie sich im Falle der Erwärmung durch anthropogene Treibhausgase um etwa +0,19°C erwärmt haben müssten. Jetzt berücksichtige man, dass die tropischen Ozeane (24N bis 24S) 76% der Tropen und 46% der globalen Ozeane ausmachen.

Diese Disparität zwischen Modellen und Daten stützt die Vergleiche zwischen Modellen und Daten bzgl. der tropischen mittleren Troposphäre von John Christy im Juni 2013. Siehe die Beiträge von Roy Spencer dazu hier und hier. Die Modelle haben die Erwärmungsraten der mittleren Troposphäre über den Tropen gewaltig übertrieben.

Kommen wir zu den tropischen Ozeanen. Wie Abbildung 4 zeigt, beträgt die Differenz zwischen den simulierten und den beobachteten Erwärmungsraten für die tropischen Seegebiete des Atlantischen und des Indischen Ozeans (24S bis 24N; 80W bis 120E) etwa 0,08°C pro Dekade, wobei natürlich die Modelle zu viel Erwärmung zeigen.

Abbildung 4

Im tropischen Pazifik (24S bis 24N; 120E bis 80W) zeigen die Modelle sogar eine Erwärmung mit einer Rate, die fast 0,14°C über der beobachteten Rate liegt (siehe Abbildung 5).

Abbildung 5

El Nino- und La Nina-Ereignisse wirken sich im östlichen tropischen Pazifik am stärksten aus. Während eines El Nino fließt warmes Oberflächen- und oberflächennahes Wasser entlang des Äquators in den tropischen Ostpazifik, wobei das oberflächennahe Wasser, wärmer als normal, an die Oberfläche aufquillt. Während einer neutralen ENSO-Phase (weder El Nino noch La Nina) und während La Nina-Ereignissen quillt kühles Wasser unter der Oberfläche nach oben. Offensichtlich haben die Klimamodellierer nicht einmal ansatzweise Aspekte des tropischen Pazifiks erfasst. Während es den Daten zufolge im östlichen tropischen Pazifik (24N bis 24S; 180W bis 80W) während der letzten Jahre keine Erwärmung der Oberfläche gegeben hat, zeigt der Konsens der Modelle, dass die Oberfläche sich mit einer Rate von 0,18°C erwärmt haben sollte. Siehe Abbildung 6.

Abbildung 6

Außertropische Wasseroberflächen-Temperaturen

Für die außertropischen Ozeane der Südhemisphäre (90S bis 24S), Abbildung 7, ist die beobachtete Erwärmungsrate ebenfalls mit etwa 0,06°C pro Dekade extrem niedrig. Andererseits zeigen die Klimamodelle, dass sich die Ozeane mit einer fast doppelt so hohen Rate, nämlich 0,12°C pro Dekade erwärmt haben müssten, falls anthropogene Treibhausgase für die Erwärmung in dieser Region verantwortlich wären. Jetzt führe man sich vor Augen, dass die außertropischen Ozeane der Südhemisphäre etwa 33% der globalen Ozeane ausmachen (etwa 23% der gesamten Planetenoberfläche).

Abbildung 7

Andererseits scheinen die Klimamodelle die Erwärmungsrate der Wasseroberflächen ziemlich richtig gezeigt haben im kleinsten Teil der globalen Ozeane, nämlich in den außertropischen Ozeanen der Nordhemisphäre (24N bis 90N). Siehe Abbildung 8. Die außertropischen Ozeane der Nordhemisphäre machen lediglich 21% der globalen Ozeanoberfläche aus (etwa 15% der gesamten Planetenoberfläche).

Abbildung 8

Unglücklicherweise für die Modellierer haben die Modelle die Erwärmung der Oberfläche des außertropischen Nordatlantik (Abbildung 9) unter- und die Erwärmung im außertropischen Nordpazifik überschätzt (Abbildung 10), so dass sie die Erwärmung insgesamt der außertropischen Nordhemisphäre unrichtig dargestellt haben. Keine Überraschung.

Abbildung 9

———————————————-

Abbildung 10

Jetzt beachte man die Ähnlichkeiten zwischen den modellierten und den beobachteten Oberflächentemperaturen (nicht Trends) der tropischen Ozeane (Abbildung 9). Die mittlere beobachtete tropische Wasseroberflächentemperatur für den Zeitraum 1982 bis 2015 liegt nur um 0,02°C unter den Modellwerten. Dann ist da noch die Differenz zwischen den Modellen und den Beobachtungen in den außertropischen Regionen der Südhemisphäre (Abbildung 7) und der Nordhemisphäre (Abbildung 8). Für den Zeitraum 1982 bis 2015 liegen die modellierten Wasseroberflächentemperaturen der Südhemisphäre um etwa 0,8°C über den beobachteten Werten. Auf der Nordhemisphäre beträgt dieser Unterschied +0,4°C. All dies sind weitere Hinweise darauf, dass die ozeanischen Zirkulationen in den Klimamodellen falsch abgebildet sind.

Diese Disparitäten in absoluten Temperaturwerten können helfen zu erklären, warum die Klimamodellierer nicht den Meereisverlust der Nordhemisphäre und den Meereiszuwachs der Südhemisphäre erklären können. Siehe die Abbildungen 11 und 12, in welchen das modellierte und das beobachtete Gebiet mit Meereis in der Nord- und Südhemisphäre verglichen wird. Hierbei handelt es sich um die Abbildungen Intro-8 und Intro-9 in einem E-Book On Global Warming and the Illusion of Control.

———————————————-

Abbildung 12

Individuelle Ozeanbecken

Jetzt folgen vergleiche Modelle vs. Daten für die individuellen Ozeanbecken … ohne Kommentar:

Abbildung 13

———————————————-

Abbildung 14

———————————————-

Abbildung 15

———————————————-

Abbildung 16

———————————————-

Abbildung 17

———————————————-

Abbildung 18

———————————————-

Abbildung 19

———————————————-

Abbildung 20

———————————————-

Abbildung 21

Atlantische multidekadische Oszillation

Die Atlantische Multidekadische Oszillation wird oft beschrieben als die Variationen der Oberflächentemperaturen im Nordatlantik, die mit einer Periode von 50 bis 80 Jahren schwingen. In dieser Hinsicht wird diese AMO typischerweise mittels Trendbereinigung der langzeitlichen Wasseroberflächen-Temperaturanomalien des Nordatlantiks dargestellt. Das Argument gegen die Trendbereinigung lautet, dass sie nicht die „globale Erwärmung“ berücksichtigt.

Falls jemand mit der AMO nicht vertraut ist, siehe man bei der NOAA hier sowie die folgenden beiden Beiträge:

An Introduction To ENSO, AMO, and PDO — Part 2

Multidecadal Variations and Sea Surface Temperature Reconstructions

Über einige multidekadische Zeiträume erwärmt sich die Wasseroberfläche des Nordatlantiks schneller als die übrigen globalen Ozeane, und während anderer multidekadischer Perioden erwärmt sich die Wasseroberfläche langsamer als die übrigen globalen Ozeane und kann sich auch dramatisch abkühlen. Im längsten Teil des Zeitraumes von November 1981 bis Dezember 2014 befanden sich die Wasseroberflächentemperaturen des Nordatlantiks in einer ihrer natürlichen Erwärmungsphasen.

Wie früher schon erwähnt zählen die Daten aus dem Nordatlantik nicht für die Erwärmung der globalen Ozeane. Daher sind die zusätzlichen langzeitlichen Variationen der Wasseroberflächentemperaturen des Nordatlantiks eine bessere Darstellung der AMO, über jene der globalen Ozeane hinaus. Um das zu bewerkstelligen, haben Trenberth and Shea (2006) die globalen Wasseroberflächen-Temperaturanomalien (60S bis 60N) von den Wasseroberflächen-Temperaturanomalien des Nordatlantiks (0 bis 60N; 80W bis 0) subtrahiert. Dieses Verfahren trägt der zusätzlichen Variabilität der Daten aus dem Nordatlantik über die Variationen der globalen Daten hinaus Rechnung. Aber für diesen Beitrag fügen wir diesem Verfahren eine kleine Änderung zu. Wir präsentieren die Differenz zwischen den globalen Daten und denen aus dem Nordatlantik in absoluten Zahlen, nicht als Anomalien.

Trenberth und Shea (2006) arbeiteten mit HadISST-Daten. Darum verwendete ich jenen Datensatz für diese Diskussion in vorherigen Aktualisierungen. Siehe Abbildung 22. Sie ist Abbildung 25 aus diesem Beitrag. Sie zeigt die modellierten und beobachteten Differenzen zwischen den globalen Wasseroberflächentemperaturen und denen des Nordatlantiks, und zwar für den Zeitraum 1870 bis 2014, d. h. das Porträt der AMO nach Trenberth and Shea (2006).

Abbildung 22

Offensichtlich zeigen die Daten, dass es keine merklichen multidekadischen Variationen der Wasseroberflächentemperaturen des Nordatlantiks gibt, die über jene in den globalen Daten hinausgehen. Dies zeigt natürlich, dass die natürlichen Variationen der Oberflächentemperaturen des Nordatlantiks eine globale Erwärmung verstärken oder unterdrücken können. Oder wie es die NOAA am Ende ihrer Website zur AMO schreibt:

Im 20. Jahrhundert haben die Klimaschwingungen der AMO alternierend die globale Erwärmung kompensiert oder übertrieben, was die Gründe für globale Erwärmung schwieriger zu finden macht.

Unglücklicherweise zeigt das Modellmittel der Klimamodelle nicht jene zusätzliche Variabilität in den Wasseroberflächentemperaturen des Nordatlantiks. Dies zeigt, dass die AMO durch die Faktoren getrieben wird (primär anthropogene Treibhausgase), die die globale Erwärmung in den Klimamodellen erzeugen.

Wollen wir also jene Graphik mit Hilfe der Reynolds OI.v2-daten aktualisieren, was unsere Sichtweite auf die letzten 34 Jahre limitiert. Zunächst die Komponenten:

Abbildung 23

Die obere Graphik in Abbildung 23 zeigt die modellierten Wasseroberflächentemperaturen der globalen Ozeane (60S bis 60N) und des Nordatlantiks (0 bis 60N; 80W bis 0) für den Zeitraum 1982 bis 2015. Der modellierte Trend des Nordatlantiks ist der Erwärmungsrate der globalen Ozeane sehr ähnlich, beträgt doch die Differenz lediglich 0,02°C pro Dekade. Die untere Graphik zeigt die gemessenen Wasseroberflächentemperaturen des Nordatlantiks und global. Die Daten zeigen, dass die Erwärmungsrate des Nordatlantiks fast 0,1°C pro Dekade höher ist als der der globalen Ozeane.

Abbildung 24 enthält den Modell-Daten-Vergleich der AMO während der Satellitenära mittels des Verfahrens von Trenberth und Shea (2006), außer dass wir wieder mit absoluten Temperaturwerten arbeiten. Dem Modellmittel zufolge sollte sich die Wasseroberfläche des Nordatlantiks lediglich mit einer Rate erwärmt haben, die etwas höher liegt als die der globalen Ozeane. Aber die Daten zeigen, dass die Oberfläche des Nordatlantiks in der Lage ist, sich mit einer Rate zu erwärmen, die um fast 0,1°C höher ist als die der globalen Ozeane, ohne von den Faktoren getrieben zu werden, die die Modelle treiben (primär Treibhausgase).

Abbildung 24

Abbildung 24 zeigt noch ein anderes Problem: Die Differenz zwischen der Oberflächentemperatur des Nordatlantiks und der globalen Ozeane ist zu klein … was erneut darauf hinweist, dass die Ozean-Zirkulationen in den Modellen falsch dargestellt sind.

Schlussbemerkungen

Wir leben auf einem mit Ozeanen bedeckten Planeten. Man könnte denken, dass es eine der obersten Prioritäten der Klimamodellierer ist, die Prozesse zu simulieren, die dazu führen, dass die Wasseroberflächentemperaturen jährlich, dekadisch und multidekadisch variieren. Traurigerweise haben die Modellierer einen anderen Weg gewählt … sie haben sich entschlossen, Modelle eines Planeten zu erzeugen, der keinerlei Beziehung aufweist zu dem, auf dem wir leben.

Klimamodell-Simulationen der Wasseroberflächentemperaturen liegen weit von jeder Realität entfernt. Das heißt, sie modellieren einen virtuellen Planeten – einen Science-Fiction-Planeten – der keinerlei Ähnlichkeit mit der Erde aufweist. Spezifischer: die vom IPCC herangezogenen Klimamodelle simulieren nicht (1) die tatsächlichen Erwärmungs- und Abkühlungsraten der Ozeanoberfläche, (2) die räumliche Verteilung dieser Trends und (3) die absoluten Temperaturen. Es wäre nett, wenn die Klimamodellierungs-Agenturen versuchen würden, die Oberflächentemperaturen dieses Planeten zu simulieren, und nicht diejenigen irgendeines Phantasie-Planeten. Dann könnten ihre Modelle einen gewissen Wert haben. Derzeit jedenfalls dienen sie keinem Zweck … außer zu demonstrieren, wie schlecht sie das Klima der Erde simulieren.

Link: http://wattsupwiththat.com/2016/02/12/climate-models-are-not-simulating-earths-climate-part-2/

Übersetzt von Chris Frey EIKE




Langfristiger Klimawandel: Was ist eine angemessene Datenmenge?

Die Irreführung basiert auf der falschen Hypothese, dass nur wenige Variable und Prozesse beim Klimawandel eine wichtige Rolle spielen und dass diese während jener 4,54 Milliarden Jahre konstant geblieben seien. Es begann mit der Hypothese der Solarkonstante, die Astronomen definieren als einen Stern mittlerer Variabilität. Die AGW-Befürworter haben es erfolgreich geschafft, die Aufmerksamkeit der Welt nur auf das CO2 zu lenken, welches gerade mal 0,04% aller atmosphärischen Gase ausmacht und deutlich zeitlich und räumlich variiert. Ich ziehe gerne den Vergleich, dass dies so ist, als ob man Charakter, Aufbau und Verhalten eines Menschen lediglich durch die Messung einer Warze am linken Arm festlegen kann. Tatsächlich schauen sie nur auf eine Zelle dieser Warze für ihre Berechnung.

Der Grad, bis zu dem Promoter der AGW-Hypothese des IPCC ablenken und täuschen wollen, wurde erneut in einem Artikel von Quang M. Nguyen unterstrichen. Nahezu sämtliche Aktivitäten der Promoter involvieren den Beweis, dass alles während des Zeitraumes instrumenteller Aufzeichnungen Rekorde bricht. Dies umfasst auch die Veränderung von Paläo-Aufzeichnungen, wie sie es bei dem ,Hockeyschläger‘ und mit der Adjustierung der Neigung des Gradienten in der instrumentellen Aufzeichnung gemacht haben. Wenn man die 120-jährige Periode instrumenteller Aufzeichnungen als repräsentativ für irgendwas ansieht, ist das lächerlich. In dem unsäglichen IPCC-Bericht 2001 erfuhren wir von Phil Jones, dass der Temperaturanstieg in den instrumentellen Aufzeichnungen, der zum Blatt des ,Hockeyschlägers‘ geworden war, 0,6°C betrug mit einer Fehler-Bandbreite von ±0.2°C oder ±33%. Aber das ist nur die Spitze des Eisbergs.

Zwei Hauptthemen der AGW-Behauptungen sind, dass die Temperaturänderung größer und schneller vor sich geht als zu irgendeiner Zeit in der Vergangenheit. Dies ist Unsinn, wie schon ein flüchtiger Blick auf jedwede längere Aufzeichnung zeigt. Falls das nicht der Fall ist, sind alle Maßnahmen, die zu einer Veränderung der Aufzeichnung führen sollen, unnötig. Sowohl der antarktische als auch der grönländische Eisbohrkern illustrieren das Ausmaß von Temperaturänderungen während kurzfristiger Zeiträume. Abbildung 1 zeigt eine modifizierte antarktische Eisbohrkern-Aufzeichnung.

Abbildung 1

Die gesamte Bandbreite der Temperatur beträgt etwa 12°C (-9°C bis +3°C). Die Variabilität ist dramatisch, selbst wenn man eine 70-jährige Glättung anwendet. Das Diagramm vergleicht die Spitzen-Temperaturwerte der gegenwärtigen Zwischeneiszeit mit jenen während der vier Zwischeneiszeiten zuvor. Der horizontale Maßstab auf der X-Achse ist zu klein, um die Periode mit instrumentellen Aufzeichnungen überhaupt zu erkennen.

Steve Goreham zeigt, wie gering dieser Abschnitt ist im folgenden Diagramm der letzten 10.000 Jahre (Abbildung 2):

Abbildung 2

Eine weitere Graphik zeigt den gleichen Zeitraum, das Optimum des Holozäns, in unterschiedlicher Form (Abbildung 3):

Abbildung 3

Die Bandbreite der Temperatur während dieses Zeitraumes beträgt etwa 3,75°C (von 28,75°C bis 32,5°C), liegt jedoch während des größten Teils der letzten 10.000 Jahre über der gegenwärtigen globalen mittleren Temperatur. Man verlege einfach gedanklich die 120 Jahre der instrumentellen Aufzeichnungen in irgendeinen Abschnitt der Graphik, und man erkennt, um wieviel es derzeit kühler ist als im größten Teil des Zeitraumes, und dass die Werte mitten innerhalb der natürlichen Variabilität liegen.

Das IPCC behauptet, dass der Strahlungsantrieb (RF) vor 1750 relativ stabil war. Seitdem, so behauptet es, gab es einen stetigen Anstieg hauptsächlich infolge der Hinzufügung von menschlichem CO2 (Abbildung 4). Die NOAA erklärt dazu:

Seit 1750 haben anthropogen verursachte Klimatreiber zugenommen, und deren Auswirkungen dominieren alle natürlichen Klimatreiber.

Abbildung 4

Die Behauptung lautet also, dass eine Zunahme des Strahlungsantriebs um 2,29 W/m² fast die gesamte Temperaturänderung seit 1750 erklärt. Man vergleiche diese Zunahme mit der Variation des RF von ein paar natürlichen Klimatreibern, die in den IPCC-Modellen gar nicht berücksichtigt werden. Wie zuverlässig sind diese Daten? Wie groß sind die Fehlerbandbreiten? Wir wissen, dass die Klimasensitivität, das ist der RF-Einfluss auf die Temperatur, signifikant abgenommen hat (Abbildung 5).Man beachte dass das IPCC einen Ausreißer in dieser Bandbreite von Schätzungen der Klimasensitivität ausmacht. Diese Schätzungen liegen innerhalb oder sehr nahe bei dem Fehler der Schätzung. Eine Definition des RF lautet:

Der Strahlungsantrieb durch eine Klimavariable ist eine Änderung der Energiebilanz zwischen einfallender Solarstrahlung und ausgehender thermischen IR-Strahlung, wenn diese Variable sich ändert und alle anderen Faktoren konstant gehalten werden.

Abbildung 5

Die Phrase „alle anderen Faktoren werden konstant gehalten“ wird traditionell abgedeckt durch den lateinischen Terminus ceteris paribus. Unglücklicherweise ist dies in der Realität niemals der Fall und kann niemals auf ein dynamisches System wie Klimawandel angewendet werden, kommen doch dabei nur bedeutungslose Ergebnisse zustande. Das ist genauso wie die Phrase ,rein akademisch‘, was bedeutet, dass es in der realen Welt keinerlei Relevanz hat. Die Neigung in Abbildung 5 zeigt einen Trend, der jene stützt, die argumentieren, dass CO2 keine Klimasensitivität besitzt. Unabhängig davon ist die Stärke der Sensitivität viel zu gering, um signifikant zu sein.

Das Problem sind die Schätzungen von nur einer Seite jenes Gleichgewichtes, die „einfallende Solarstrahlung“, die deutlich variiert. Abbildung 6 zeigt die Variation der geschätzten Einstrahlungswerte aus verschiedenen Computermodellen. In einer Studie aus dem Jahr 2005 mit dem Titel [übersetzt] „wie gut können wir die Einstrahlung an der Obergrenze der Atmosphäre TOA in der Strahlungs-Klimatologie und in den GCMs berechnen?“ schreibt Ehrhard Raschke:

Der in 20 Modellen des Atmospheric Model Intercomparison Project (AMIP-2) verwendete solare Antrieb wurde verglichen mit der gleichen Quantität, die für das ISCCP [?] berechnet worden ist, und die Klimatologie sollte zumindest in dieser Quantität übereinstimmen. Allerdings zeigt die Abbildung auf Seite 1 unten (Abbildung 6 in diesem Beitrag) eine große Nicht-Übereinstimmung.

Man kann darüber spekulieren, dass derartige unterschiedlichen meridionalen Profile des solaren Strahlungsantriebs an der TOA auch einen Einfluss auf die berechnete Verteilung der atmosphärischen Zirkulation haben sollte, vor allem, wenn Simulationen über Zeiträume von mehreren Jahrzehnten bis mehreren Jahrhunderten durchgeführt werden. Daher sollten damit in Verbindung stehende Projekte innerhalb des World Climate Research Program angemessene Schritte unternehmen, um systematische Diskrepanzen wie oben gezeigt zu vermeiden und deren mögliche Auswirkung auf die resultierenden Klima- und Zirkulationsänderungen zu schätzen“.

Abbildung 6

Die mittlere Variation ist am Äquator gering, aber in höheren Breiten merklich größer. Die Vermutung liegt nahe, dass ein Gesamtfehler von mindestens 5 W/m² anzunehmen, was die vom IPCC behauptete Sensitivität von CO2 mehr als überschreitet.

Eine größere Frage ist, welche das Klima treibende Variablen ignoriert worden sind, vor allem in den IPCC-Modellen. Dazu gibt es eine große Vielfalt von Antworten. Dabei gilt, dass der größte Teil der Variabilität und die Fehler bei den Schätzungen den behaupteten RF komplett ertränken.

Der Milankovitch-Effekt ist in den IPCC-Computermodellen nicht enthalten mit der Begründung, dass die Änderungen zu langsam erfolgen und zu gering sind, um in einem Zeitraum von 120 Jahren Auswirkungen zu zeigen.

Abbildung 7 zeigt die Variation des RF auf 40°N während eines Zeitraumes von 1 Million Jahren.

Abbildung 7

Willis Eschenbach untersuchte die Beziehung zwischen dem Verlauf der Einstrahlung und dem 100.000 Jahre langen Milankovitch-Zyklus. Er fand keinen Zusammenhang mit der Temperaturanomalie im EPICA-Eisbohrkern aus der Antarktis. Darum geht es mir hier nicht, sondern um die Schwingung der Einstrahlung von 100 W/m² im Vergleich zur IPCC-Behauptung von 2,29 W/m².

Eschenbach verglich Milankovitch mit Schwingungen zwischen Eiszeit und Zwischeneiszeit während des Pleistozäns. Viele Menschen wissen nicht, dass es vor dem Pleistozän mindestens vier Vereisungen gegeben hatte, zusammen mit Spekulationen über deren Ursache, jedoch ohne diesbezügliche Übereinstimmung. Die verbreitetste Spekulation involviert den Orbit der Sonne um das Zentrum der Milchstraße und Wechselwirkungen mit galaktischem Staub auf dieser Reise. Wie wirkt sich dies auf den RF aus?

Die Liste von Variablen und Prozessen, die verantwortlich sind für kurz- und langfristige Variationen des RF und weit über die behaupteten anthropogen 2,29 W/m² hinausgehen, ist extensiv. Lamb zeigte im 2. Band von Climate Present, Past and Future die hier mit Abbildung 8 bezeichnete Graphik:

Abbildung 8

Dann ist da noch die Wasserdampf-Frage. Jeder sagt, dass es bei weitem das wichtigste Treibhausgas ist, man streitet nur darüber, wie wichtig. Wasserdampf ist 95% und CO2 4% durch Volumen. Darum haben AGWler behauptet, dass CO2 „effektiver“ hinsichtlich seiner Fähigkeit war, ausgehende thermische Strahlung zu blockieren. Die große Bandbreite aller Schätzungen dieses Effektes ist ein Beweis, dass es niemand weiß. Schlimmer noch, es gibt einen Widerspruch zwischen der NASA-Behauptung und dem IPCC. In der Studie wollte die NASA zu beweisen versuchen, dass die Rückkopplung von Wasserdampf positiv ist und Konsequenzen hat.

Diese Studie bestätigt, dass das, was von den Modellen prophezeit worden ist, in der Atmosphäre tatsächlich passiert“, sagte Eric Fetzer, ein Atmosphärenwissenschaftler, der mit AIRS-Daten arbeitet, am Jet Propulsion Laboratory der NASA in Pasadena. „Wasserdampf ist der große Player in der Atmosphäre, soweit es das Klima betrifft“.

Also bestimmt die Zunahme des anthropogenen CO2 in der Atmosphäre die Menge atmosphärischen Wasserdampfes. Der IPCC-Bericht 2007 belehrte uns:

Wasserdampf ist das häufigste und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge atmosphärischen Wasserdampfes“.

Es gibt kaum Zweifel daran, dass die Variation des atmosphärischen Wasserdampfes und der Fehler in den Schätzungen allein über die 2,29 W/m² hinausgeht, die dem menschlichen CO2 zugeordnet werden. Das gilt auch für die meisten Variablen, vor allem für jene, die das IPCC ausgelassen hat.

Es ist der Missbrauch der Wissenschaft, der die Irreführung erzeugt hat, die die AGW-Behauptung zu Ablenkung, Übertreibung und selektive Wahrheiten zwang. Aldous Huxley jedoch sagte mal: „Fakten sind durch Ignorieren nicht aus der Welt zu schaffen“. [Das habe ich auch gesagt, ohne von Huxley zu wissen, und zwar hier. Anm. d. Übers.]

Link: http://wattsupwiththat.com/2016/02/07/long-term-climate-change-what-is-a-reasonable-sample-size/

Übersetzt von Chris Frey EIKE




Leserbrief als Hilfestellung für die Berliner Umwelt-Politiker ?

================================================================  

Leserbrief – Betr.: Argumentationshilfe in Sachen Tempo-30-Zone

     Tempo-30-Zone:  Ein Traumreich  

     Die verordnete Geschwindigkeitsbegrenzung auf 30 km/h für die wichtige Ausfallstraße in Berlin-Weißensee, und zwar 900m der großen Bundesstraße 2 und Autobahnzubringer, solle die Schadstoffbelastung senken helfen. 

     Hier dazu eine einfache Milchmädchen-Gegenrechnung; denn rechnen wir einmal nach und gehen – der leichteren Verständlichkeit wegen – großzügig von 60 km/h aus und lassen mit 30 km/h die Kraftfahrzeuge 900 m lang nur noch halb so schnell fahren: Dadurch verdoppelt sich dort ihre Aufenthaltsdauer, verdoppelt sich ihre Anzahl auf gleicher Strecke, also verdichtet sich der Verkehr, und halbiert sich ihr gegenseitiger Wagenabstand. Für einen Anwohner dauert es doppelt so lang, bis ein Fahrzeug vorbeigefahren ist, wenn auch die Zeit zum Durchqueren der Fahrzeugkolonne dabei nur gleichbleibt. Der Treibstoffverbrauch und auch mittlere Ausstoß der unterschiedlichen Abgaskomponenten – insbesondere unter der Mitwirkung der Dieselfahrzeuge – beginnt mit dem langsameren Fahren im Mittel markant zu steigen, um so mehr bei aufkommendem Stau. Wieviel auch immer: im Schnitt nimmt das Gemisch der belastenden Schadstoffe zu!

Weiterhin geht bei der Einfahrt meist infolge Abbremsung Energie verloren; und bei der Ausfahrt wird bei der Wiederbeschleunigung neue Energie aufgewendet und so vermehrt Schadstoff emittiert. Auch nehmen bei größerem Verkehrsaufkommen die Stillstandanteile zu. Keine Streitfrage, sondern Faktum: Zusammengenommen erhöht sich zwangsweise die Schadstoff-Immission daher eindeutig! Da wo nicht, liegt es am überproportionalen Verzicht auf die Nutzung der Tempo-30-Straße durch deren Umfahrung.  

     "Verkehrsberuhigung"? Mag zumindest so empfunden sein. Abgasminderung? Gewiss nicht; vielmehr resultiert meist das Gegenteil! – Wer also mehr Verkehr und mehr Abgase haben will, braucht nur die Tempo-30-Zonen auszuweiten. So einfach ist das. 

     Die einzuhaltenden EG-Grenzwerte sind im ozeannäheren und damit windigeren Brüssel gesetzt worden. Im kontinentaleren und daher öfter viel windstilleren Berlin hat man sie rein bürokratisch übernommen, ohne vorher die Meteorologen zu fragen oder gar mitentscheiden zu lassen. Das haben wir nun davon und sitzen in der juristischen Falle. 

    Der tiefere Grund:  Das träumerische Ökobewusstsein wittert zeitgemäß Gefahren, lässt sich unbewusst von gesundheitlichen Placebo-Effekten aktivieren und bemüht jetzt erfolgreich den paragraphengebundenen Amtsschimmel. Dazu ließ das Gericht nicht einmal eine Berufung zu (VG 11 K 132.15)! – Es ist zum Wiehern!

=========================================================================

Auch nach über einem Monat (Stand 09.02.1016) wurde dieser Leserbrief jedoch nicht  abgedruckt, auch nicht auszugsweise. Wie ist das nun zu deuten? Sollten die Leser mit dem doch an vorderster Stelle heraushobenen Artikel warnend mit den weiter auf sie zukommenden Einschränkungen, Zumutungen und Unbequemlichkeiten aufgeschreckt werden? Oder frohlockt die Redaktion eher mit dem ökologischen Sieg des kleinen Mannes für eine bessere Welt? Im lezteren Falle würde der Leserbrief ja ungewünscht kontraproduktiv wirken. Und das darf natürlich nicht sein (?).

Das Nichterscheinenlassen des Leserbriefes läßt zwangsläufig auf die letztgenannte redaktionelle Einstellung schließen. Sollte eventuell im letzten Moment ein "grüner" Redakteur in seinem Sinne bremsend eingegriffen haben? Das würde dann nichts anderes als eine (umwelt)politische Meinungs-Manipulation bedeuteten.

*) Walter Fett; Apl. Prof. FU Berlin; bis 1990 Dir. u. Prof. am Inst. f. Wasser-, Boden- u. Lufthygiene des Bundesgesundheitsamts Berlin




Sind Festlands- und Ozean-Temperaturmittel von Bedeutung?

Temperaturen addieren sich nicht!

Technisch gesehen ist Temperatur keine extensive Quantität. Dies wird illustriert durch die Tatsache, dass wenn man einen Eimer Wasser mit einer Temperatur von 30°C hat und dem Wasser den Inhalt eines anderen Eimers von Wasser mit 30°C hinzufügt, man keine Wassertemperatur von 60°C bekommt.

Energie ist eine extensive Sache: Falls man ein Volumen Wasser mit einer thermischen Energie von 4000 Megajoule hat und ein gleich großes Volumen hinzufügt, wird man zweimal die thermische Energie haben. Die mittlere Energie pro Einheit kann verglichen werden mit dem Strahlungsenergie-Budget pro Einheit.

Das Verhältnis von Temperatur zu thermischer Energie ist nicht für alle Materialien gleich, sondern hoch variabel, abhängig von den physikalischen Eigenschaften der Substanz. Es hängt ebenso von der Menge einer Substanz ab, d. h. der Masse. In der Physik und der Materialwissenschaft ist es oft am bequemsten, die „spezifische Wärmekapazität“ zu studieren, das ist die Änderung des Energiegehalts pro Einheit der Masse pro Grad Temperaturänderung. Folglich ist es eine Eigenschaft für jede Art von Material, unabhängig von einem bestimmten Objekt.

Im internationalen Standard-System (S.I.) wird dies gemessen in joule / kilogram / kelvin oder J/kg/K . Kelvin hat die gleiche Größenordnung wie Grad Celsius und ist in diesem Zusammenhang austauschbar. Einige Beispiele für allgemeine Materialien:

Tabelle 1: Spezifische Wärmekapazität verschiedener Materialien in J/kg/K. Datenquelle

Also könnte man Temperaturänderung als ein „Proxy“ für eine Änderung der thermischen Energie für äquivalente VOLUMINA des GLEICHEN Materials betrachten. In diesem Zusammenhang könnte man eine ,mittlere Temperaturänderung‘ berechnen für jenes Medium und auf die Änderung der thermischen Energie rückschließen, welche beispielsweise mit einfallender und ausgehender Strahlung in Bezug gesetzt wird. Falls dies eine Oberflächentemperatur ist, impliziert dies die Hypothese, dass die Erdoberfläche die Temperatur bis zu einer gewissen Wassertiefe repräsentiert und diese repräsentative Tiefe die Gleiche bleibt in den Gebieten, über die gemittelt wird, um den „Volumen“-Zustand oben zu berücksichtigen. Das ist für die ,durchmischte Schicht‘ des Ozeans einigermaßen fragwürdig, kann aber als grobe Energie-Proxy durchgehen.

Allerdings ist sofort klar, dass man nicht beginnen kann, Luft und Wassertemperatur zusammenzufügen oder zu mitteln; oder Temperaturen über Land und Wasser. Das sind keine kompatiblen Medien. Das ist wie die Frage, was das Mittel ist zwischen einem Apfel und einer Orange: Es hat keinerlei physikalische Bedeutung. Es kann mit Sicherheit nicht die Grundlage sein für eine Berechnung des Energiehaushaltes, da es nicht mehr eine Maßzahl für die Änderung der thermischen Energie ist.

Wie aus der Tabelle oben ersichtlich: Luft, Felsgestein und Erde werden eine viermal so hohe Temperaturänderung aufweisen als Wasser als Folge der gleichen einfallenden Energiemenge.

Niemand wird auf den Gedanken kommen, Temperaturaufzeichnungen in Grad Fahrenheit mit solchen in Grad Celsius zu mitteln. Trotzdem scheint es aus irgendwelchen Gründen so, als ob die Vermischung von Land- und Ozeandaten (SST Sea Surface Data) bei niemandem ein Heben der Augenbrauen auslöst.

Änderungsrate in den globalen Temperatur-Datensätzen


Abbildung 1: Vergleich von Änderungsraten in Temperatur-Datensätzen über dem Festland und über dem Ozean (30 Monate Gaussian low-pass filter). Quelle der Daten.

Abbildung 1 zeigt die Änderungsrate in zwei Datensätzen der Wassertemperatur und dem BEST-Datensatz vom Festland, mit einer Verkleinerung um einen Faktor zwei. Mit diesem Skalierungsfaktor sehen sie alle ziemlich eng beieinander liegend aus. Die große Spitze in den ICOADS-Daten liegt an einer erkannten Änderung der Datenmenge infolge Änderungen der Schiffsrouten und der Daten-Sammelverfahren während und nach WW II. Das UKMO bearbeitete den HadISST-Datensatz mit dem Ziel, diesen Bias zu entfernen.

Die Änderungsrate der Festlands-Lufttemperatur, wie sie vom „BEST“-Datensatz Berkeley geschätzt worden ist, ist sehr ähnlich der Änderungsrate der Wassertemperatur, außer dass die Änderungsrate doppelt so hoch ist.*

[*Original: The rate of change of near surface land air temperature as estimated in the Berkeley “BEST” dataset is very similar to the rate of change in the sea surface temperature record, except that it shows twice the rate of change. Ändert sich nicht die Landtemperatur viel stärker als die Wassertemperatur? Was verstehe ich an diesem Satz nicht? Anm. d. Übers.]

Meerwasser besitzt eine spezifische Wärmekapazität, die viermal so groß ist wie Felsgestein. Dies bedeutet, dass sich die Temperatur des Gesteins vier mal stärker ändert als Wasser bei der gleichen Änderung der thermischen Energie, beispielsweise durch einfallende Solarstrahlung.

Erde ist im Allgemeinen eine Mixtur feiner Gesteinspartikel und organischem Material mit einem signifikanten Wassergehalt. Die beiden Temperatur-Datensätze sind konsistent, wenn man Land als ,nasse Felsen‘ betrachtet. Auch erklärt dies teilweise die viel größeren Temperaturschwankungen in Wüstengebieten: Die Temperatur trockenen Sandes wird sich viermal schneller ändern als die von Meerwasser und ist zweimal so volatil wie in Nicht-Wüstengebieten.

Dies unterstreicht auch, warum es unangemessen ist, Land- und Wassertemperaturen zusammen zu mitteln, wie es in vielen anerkannten globalen Temperaturaufzeichnungen gemacht worden ist, beispielsweise bei HadCRUT4 (eine abartige Mischung von HadSST3 und CRUTem4) ebenso wie bei GISS-LOTI und bei den neuen BEST Land- und Wasser-Mittelwerten.

Es ist ein klassischer Fall von ,Äpfeln und Orangen‘. Falls man das Mittel zwischen einem Apfel und einer Orange nimmt, ist das Ergebnis ein Obstsalat. Das ist keine brauchbare Gemengelage für Berechnungen auf physikalischer Grundlage wie etwa dem Energiehaushalt der Erde und der Auswirkung von Strahlungs-„Antrieben“.

Die unterschiedliche Wärmekapazität wird die Daten zugunsten der Lufttemperaturen über Land verdrehen, welche viel schneller variieren und folglich eine irrige Grundlage liefern, um energie-basierte Berechnungen vorzunehmen. Außerdem sind die Landtemperaturen auch durch den Wärmeinseleffekt und andere Verzerrungen beeinträchtigt. Daher werden diese effektiv verdoppelt, bevor sie die globale Land- + Wasseraufzeichnung kontaminieren.

In disem Sinne bieten die Satellitendaten ein physikalisch konsistenteres globales Mittel, weil sie ein konsistenteres Medium messen. Falls man Energie-Berechnungen auf der Grundlage von Strahlung durchführen möchte, ist es wahrscheinlich bedeutsamer, SST-Daten als Kalorimeter zu nutzen.

Klimasensitivität ist definiert als das ∆rad , ∆T-Verhältnis, gewöhnlich im Zusammenhang mit einer linearen Approximation zur Planck-Rückkopplung, welche über relativ kleine Abweichungen in der etwa 300 K umfassenden Temperatur-Bandbreite gültig sind. Andere Rückkopplungen werden als Störungen gesehen, die von der dominanten Planck’schen Strahlungs-Rückkopplung addiert oder subtrahiert werden. All dies und sogar die weitaus komplexeren globalen Zirkulationsmodelle sind im Grunde Berechnungen des Energie-Gleichgewichtes. Der Energie-Erhaltungssatz ist eines der solidesten Axiome der Physik. Ein fundamentaler Test jedweder Theorie oder Gleichung ist, ob der Energie-Erhaltungssatz berücksichtigt ist.

Horizontaler Wärmetransport stellt sicher, dass die Festlandstemperatur durch die ozeanische Wärmekapazität beeinflusst wird: der thermische Anker des Klimasystems. Es ist bekannt, dass Temperaturen in Küstengebieten stabilisiert werden durch die Nachbarschaft von Land und Wasser und dass die zentralen Gebiete der Kontinente eine viel größere tägliche und jährliche Variation zeigen. Allerdings bleibt die Landtemperatur nahe der Oberfläche volatiler als die SST, und Analysen von Klimamodellen zeigen, dass sie über Land eine größere Klimasensitivität aufweisen und einen unterschiedlichen vertikalen Temperaturgradienten zeigen (1). FALLS man das als zuverlässig nehmen kann (die meisten Modelle nehmen eine konstante Relative Feuchtigkeit an).

In diesem Zusammenhang ist ein Temperaturanstieg die finale Folge aller Inputs, „Antriebe“ und Rückkopplungen, von denen viele über Land unterschiedlich sein können. Zieht man eine nicht-thermodynamisch relevante „mittlere“ Temperatur von zwei unterschiedlichen Ökologien mit unterschiedlicher Klimasensitivität heran, um ein ,Mittel‘ zu erzeugen, scheint auch die Klimasensitivität offen für Bias.

Schlussfolgerungen

Temperaturen sind keine abstrakten Statistiken; deren physikalische Bedeutung muss berücksichtigt werden bei der Auswahl, was man mit ihnen macht. Die Verwendung von Mittelwerten von Land- + Wassertemperaturen, verzerrt durch übertriebene Wichtung der volatileren landbasierten Temperaturen, wird physikalisch fehlerhafte Ergebnisse zeitigen.

Die meisten Klimadaten sind nicht einfach dimensionslose Zahlen. Jedes Processing sollte im Zusammenhang mit den physikalischen Größen betrachtet werden, die sie repräsentieren. Falls Temperaturen oder Temperaturanomalien als Energie-Proxy betrachtet werden für Berechnungen auf Energiegrundlage, sollte dies explizit erwähnt werden, und jedwede Verzerrungen, die sich hieraus ergeben, müssen angesprochen werden.

Die physikalische Signifikanz, Validität und Grenzen von „mittleren“ Land- + Wassertemperaturen sollte man berücksichtigen, wenn man sie verwendet. Dies ist jedoch nur sehr selten der Fall, wenn überhaupt.

(1) Geoffroy et al 2015 : “Land-sea warming contrast: the role of the horizontal energy transport” [ paywalled ] http://link.springer.com/article/10.1007/s00382-015-2552-y

Link: https://climategrog.wordpress.com/2016/02/09/are-land-sea-averages-meaningful-2/

Übersetzt von Chris Frey EIKE

Der (anonyme) Autor ClimateCrog hat einen Abschluss in Physik, Berufserfahrung in der Spektroskopie , Elektronik und Software-Engineering , einschließlich 3-D- Computer-Modellierung der Streuung von E- m -Strahlung in die Erdatmosphäre .