NCSE: Wann ist angebliche Wissenschaft keine Wissenschaft mehr?

Mark ist wahrscheinlich verantwortlich für wissenschaftlich so unhaltbare Statements wie:
„Viele unabhängige Wege der Beweisführung zeigen, dass menschliche Aktivität für das meiste der Klimaänderung der letzten Jahre verantwortlich ist, im Besonderen die Erwärmung der Atmosphäre und der Ozeane während der letzten 150 Jahre, … dass wir ‚dramatische Änderungen’ bzgl. … Klima … und Ökosystemen sehen, einschließlich der Verteilung der Regenmenge, der Aktivität von Stürmen, dem Aussterben von Tier- und Pflanzenarten sowie jahreszeitliche Änderungen“.
Nicht zu erwähnen seine Verantwortung für sachlich unhaltbare Statements wie:
„Leugner des Klimawandels sind Leute und Organisationen, die den wissenschaftlichen Konsens zur Klimaänderung leugnen oder bezweifeln, um politische Maßnahmen zum Klima zum Stehen zu bringen, sie zu verzögern oder herabwürdigen, (und welche) danach trachten, den wissenschaftlichen Konsens hinsichtlich der Klimaänderung zu verunglimpfen oder zu verschleiern“.
Wie auch immer, Ausgabe 31(5) der NCSE-Berichte, dem Hausjournal des NCSE, stellte einen Artikel von Dr. David Morrison vor, und zwar mit der moderaten Schlagzeile: „Wissenschaftliche Leugnung: Evolution und Klimaänderung“. Ich war viele Jahre lang Mitglied des NCSE gewesen, und durch diese Ausgabe der NCSE-Berichte merkte ich zum ersten Mal, dass sie das süsse AGW-Gift* getrunken hatten. „Erschrocken und bestürzt“ beschreibt meine Gefühle nur unzureichend.
[*Kool-Aid: Ein Erfrischungsgetränk in den USA mit sehr viel Zucker. Obwohl alkoholfrei, werden  manche Leute süchtig danach. A. d. Übers.]
David Morrison ist Direktor des SETI-Institutes [SETI = Search for Extraterrestrial Intelligence] und ein sehr angesehener Astronom mit einer herausragenden Laufbahn. Nichtsdestotrotz schwappt sein 4,5 Seiten langer Artikel durch die Schwachstellen bzgl. des Klimas (mit ‚Spritzern’ wie „Die heutige Erwärmung geht viel schneller vonstatten als in jedwedem historischen Zyklus“ oder „wir brauchen keine (numerischen) Klimamodelle um zu sehen, dass sich die Welt rapide erwärmt“). Dann folgen weitere 4,5 Seiten knöcheltiefe Polemiken, in denen die AGW-Skeptiker gleichgesetzt werden mit den Kreationisten oder Lobbyisten der Tabakindustrie (wie z. B. „Das Marshall-Institut … ist das Gegenstück zum Discovery Institute“ (eine Organisation der Kreationisten. A. d. Autors) oder „Strategien, die von den Gegnern sowohl der Evolution als auch der globalen Erwärmung benutzt werden, basieren auf ausgestreuter Fehlinformation und Zweifel… oft als ‚Tabak-Strategie’ bezeichnet“. Im Artikel wimmelt es von Begriffen wie „Leugnern“ der globalen Erwärmung, „Leugnen“ und „Leugnung“. Dr. Morrison erzählt uns, dass „der einzige Weg (der Leugner der Erwärmung) darin besteht, den internationalen wissenschaftlichen Konsens hinsichtlich der Gründe des Klimawandels zu leugnen“. Ich wette, dass niemand auf WUWT das gewusst hat.
Nach der Lektüre von so viel Fehlinformationen und dem Austausch nichtssagender E-Mails mit Eugenie Scott (geschäftsführende Direktorin am NCSE) und Andrew Petto (Herausgeber der NCSE-Berichte) habe ich mich entschlossen, einen Brief an „NCSE Berichte“ zu senden als Reaktion auf David Morrisons Artikel. Abgeschickt habe ich ihn am 16. Januar 2012, und am 14. März wurde er zurückgewiesen. NCSE-Herausgeber Dr. Petto schrieb: „Wir haben entschieden, den Brief als Antwort auf Morrisons Artikel zurückzuweisen, da er wenig dazu beiträgt, Morrisons Hauptargument in diesem Falle zu stützen oder zu widerlegen, bei dem es ja darum ging, wie die Gegner der gegenwärtigen Modelle zur Klimaänderung ihre Informationen an Regierungen und Öffentlichkeit geben“.
Mit ausführlichen Zitaten, um meine Position zu stützen, wies ich darauf hin, dass „es beim Hauptargument in Dr. Morrisons Artikel um die Klimawissenschaft geht und erst in zweiter Linie auch um ‚Leugner’, von denen dann gesagt wird, dass sie darüber fehlinformieren, es ignorieren oder Lügen darüber verbreiten. Meine Einlassung beschäftigt sich mit dem ersten Teil – dem Hauptteil – der These von Dr. Morrison; welche eine wirkliche Verengung des Blickwinkels ist“. Und: „Falls Dr. Morrisons Wissenschaft falsch ist, ist seine These über die Kommunikation sinnlos und irrelevant“. Dr. Petto war davon nicht berührt.
Das ist der Hintergrund. Hier folgt gleich der (abgelehnte) Brief. Wirklich? Ich glaube, dass er unter einem Vorwand abgelehnt worden ist. Beurteilen Sie selbst, ob er „wenig dazu beiträgt, Morrisons Hauptargument zu stützen oder zu widerlegen“.
==============================================================
Wann ist angebliche Wissenschaft keine Wissenschaft?
Patrick Frank
In seinem exzellenten Buch „Galileo” (1) weist Stillman Drake auf Galileos sehr modernes Verständnis der wissenschaftlichen Praxis hin, wenn er schreibt: „In seinem Buch über Hydrostatik merkte Galileo an, dass die Autorität eines Archimedes nicht mehr wert war als die Autorität eines Aristoteles; Archimedes hatte recht, schreibt er, nur weil seine Ergebnisse zu [den Ergebnissen von] Experimenten passten“. Galileo hat das im Jahr 1612 geschrieben und drückte damit ein identisches Verständnis von Wissenschaft wie bei Albert Einstein aus, der sich dazu 300 Jahre später äußerte: „Falls die Rotverschiebung der Spektrallinien wegen des Potentials der Schwerkraft nicht existieren würde, wäre die Allgemeine Relativitätstheorie unhaltbar“.
Einsteins Feststellung zu Theorie und Beobachtung wird von Karl Popper aufgegriffen in seinem autobiographischen Werk „Unended Quest“ [etwa: unendliche Entdeckungsreise] (2). Popper fährt fort, dass Einsteins kritische Beobachtung eine Enthüllung war, und öffnete den Weg für sein eigenes, seine ganze Laufbahn durchziehendes Argument, dass Wissenschaft das Wechselspiel zwischen widerlegbaren Theorien und empirischen Ergebnissen sei (Vermutungen und Widerlegungen). Die Theorie muss zu einheitlichen und falsifizierbaren Vorhersagen mit Hilfe analytischer Ableitungen führen. Daten, die jederzeit und von jedermann überprüft werden können, sprechen das Urteil. Nur diese beiden Gegenpole machen echte Wissenschaft aus. Betrachtet man sie getrennt voneinander, ist das keine Wissenschaft.
Eine Folge dieser Beziehung ist, dass die Bedeutung empirischer Daten nur im Zusammenhang mit einer falsifizierbaren Theorie zu finden ist. Das stimmt, selbst wenn es bedeutet, dass die Daten der Vorhersage widersprechen und die Theorie widerlegen. Nur eine falsifizierbare physikalische Theorie grenzt die Bedeutung von Blitzen von der Hand Gottes ab. Nur die Kapazität der Falsifizierbarkeit erzeugt eine einheitliche Vorhersage und bietet eine eindeutige Bedeutung der Daten. (3)
In einer kürzlich erschienenen Ausgabe der NCSE-Berichte schrieb Dr. David Morrison einen Essay (4) über „Leugnung in der Wissenschaft“. Das war nichts weiter als ein sehr langer Versuch, Leugner der Evolution mit AGW-Skeptikern gleichzusetzen. Es gab kaum Wissenschaft in Dr. Morrisons Essay. Er lässt sich im Wesentlichen so zusammenfassen: „Klimamodelle sind wirklich komplex und stimmen auch nicht immer mit Details überein wie z. B. dem Timing der zukünftigen Erwärmung. Allerdings ist der Beweis für die Erwärmung empirisch, und deren zukünftige Trends sind in grundlegender Physik verankert, genauso wie der Treibhauseffekt und die Wärmekapazität der Ozeane“.
Dieses Bewusstsein der Bedeutung in der Wissenschaft zeigt sofort die Schwäche von Dr. Morrisons Position: Er schreibt der Klimaerwärmung kausale Bedeutung zu und räumt gleichzeitig das Fehlen einer Klimatheorie ein. Der Beweis für die Erwärmung ist feststellbar empirisch. Aber die Bedeutung dieser Erwärmung kann nur aus einer falsifizierbaren Theorie kommen, die einheitliche Aussagen über das Klima macht. Ist die Erwärmung Folge zusätzlichen CO2 in der Atmosphäre oder nicht? Keine Menge empirischer Daten kann diese Frage beantworten.
Dr. Morrison behauptet, dass der Treibhauseffekt (eine nicht korrekte Bezeichnung, aber lassen wir das jetzt) und die Wärmekapazität ausreichen um abzuschätzen, wie das Erdklima auf den steigenden Gehalt atmosphärischen CO2 reagieren wird. Aber der „Treibhauseffekt“ – im Wesentlichen Strahlungsphysik – und die Wärmekapazität bilden keine adäquate Klimatheorie. Sie machen keine Aussage darüber, wie sich die zusätzliche Energie in der Atmosphäre in den ganzen Klimaverhaltensweisen verteilt, wie z. B. ENSO-Zyklen, und vor allem dem globalen hydrologischen Zyklus von Schmelzen, Verdunstung, Wolkenbildung und Niederschlag.
Dr. Morrison machte den bemerkenswerten Einwand geltend, dass „wir keine numerischen Modelle brauchen, um uns zu sagen, dass (der höhere Gehalt von CO2) ein Vorbote noch deutlich schlimmerer Klimastörungen in Zukunft ist“. Aber natürlich brauchen wir Klimamodelle, die uns darüber Auskunft geben. Wie sonst können wir das wissen? Klimamodelle repräsentieren die physikalische Theorie des Klimas. Es ist ausschließlich deren Vorhersageaufschluss, die dem atmosphärischen CO2 eine kausale Bedeutung zukommen lässt. Das ist der felsenfeste Anker der Wissenschaft, und Dr. Morrison hat das nicht verstanden.
Werfen wir einen kurzen Blick auf die Klimamodelle. Sie tun viel weniger als lediglich „nicht immer mit den Details“ des zukünftigen Klimas überein zu stimmen. Sie stimmen nicht einmal mit der Wirklichkeit vergangener Klimaperioden überein. Zum Beispiel haben Demetris Koutsoyiannis et al. die erweiterten generellen Klimazirkulationsmodelle (GCMs) evaluiert, die für den Vierten Zustandsbericht des IPCC 2007 verwendet worden waren (5, 6). Das IPCC nutzte diese GCMs, um 100 Jahre des Klimas im 20. Jahrhundert „nachherzusagen“, und zwar an allen Gitterpunkten eines globalen Netzes. Die reproduzierte globale Temperatur sah großartig aus. Das sollte sie auch, weil die GCMs so angepasst worden sind, dass sie den bekannten globalen Temperaturverlauf reproduzieren (7).
Aber die Gruppe um Koutsoyiannis untersuchte das globale Klimamodell des IPCC im 20. Jahrhundert und rekonstruierte, was die Klimamodelle über die Temperaturaufzeichnungen im vorigen Jahrhundert in den kontinentalen USA gesagt haben. Die Klimamodelle lagen sehr daneben. Sie untersuchten auch die Nachhersage der GCMs hinsichtlich von Temperatur und Niederschlag an 58 Stationen rings um die Welt. Diese Rekonstruktion versagte kläglich im Vergleich mit den realen Daten. An die Durchführung eines solchen grundlegenden Tests der Verlässlichkeit der GCMs scheint während der letzten 20 Jahre des Klimaalarms niemand gedacht zu haben; ein Klimaalarm, der angeblich durch gerade diese GCMs glaubhaft gemacht worden ist. Klimamodelle können das bekannte Klima nicht reproduzieren. Warum sollte dann irgendjemand glauben, dass sie zuverlässig ein unbekanntes Klima vorhersagen können?
Dr. Morrison erwähnte, dass Klimamodelle die Wolken nicht richtig simulierten, qualifizierte dieses Problem aber gleich danach als irrelevant ab. Aber Wolken über den Tropen und Subtropen beeinflussen stark die in der Atmosphäre wirksame Energiemenge (8). Wolken haben insgesamt eine abkühlende Wirkung auf die Erde (9, 10). Ich habe den Wolkenfehler der GCMs evaluiert, wie er von den Wissenschaftlern am „Coupled Model Intercomparison Project“ beschrieben worden ist, und fand dabei, dass der Wolkenfehler der GCMs gemittelt über den ganzen Globus mindestens ±10.1 % betragen hatte (11).
Dieser Wolkenfehler bedeutete einen Fehler von mindestens ±2,8 W/m². Diese ±2,8 W/m² sind gleich der gesamten zusätzlichen Antriebskraft durch alle zusätzlichen, in die Atmosphäre gelangten Treibhausgase während des gesamten 20. Jahrhunderts. Das heißt, der Wolkenfehler der GCMs allein beläuft sich auf ±100% des zusätzlichen „Treibhauseffektes“. Es bedarf keines sehr klugen Menschen um zu erkennen, dass der Effekt unerkennbar ist, wenn der Fehler genauso groß ist wie der Effekt selbst.
Die Wissenschaftler, die mit den Projektionen der GCMs Vorhersagen über das zukünftige Klima machen, berücksichtigen den Wolkenfehler nicht. Kompetente Wissenschaftler würden diesen Fehler in ihre Vorhersagen einbeziehen. Aber die Klimamodellierer tun das nicht. Auch das IPCC tut das nicht. Eine Berücksichtigung des Wolkenfehlers würde zeigen, dass das Fehlerwachstum Klimavorhersagen sehr schnell nicht besser machen würde als zielloses Raten (11). GCMs können die globale Temperatur nicht einmal ein Jahr im Voraus vorhersagen, geschweige denn in 10 oder gar 100 Jahren. Aber Dr. Morrison sagt uns, dass das irrelevant ist, weil der zunehmende CO2-Anteil selbst ausreicht, um eine katastrophale Klimastörung auszulösen.
Erinnern Sie sich an das Kriterium der Wissenschaft? Nur aus falsifizierbaren Vorhersagen ergibt sich die Bedeutung von Beobachtungen. Klimamodelle liefern keine falsifizierbaren Vorhersagen, vor allem nicht hinsichtlich des Antriebs durch CO2. Daher können sie auch keine kausale Bedeutung hinsichtlich eines erhöhten CO2-Gehaltes in der Atmosphäre ergeben. Sie können das sich erwärmende Klima nicht erklären. Sie können nicht das zukünftige Klima vorhersagen. Die Beobachtung, dass der CO2-Gehalt der Atmosphäre zunimmt, reicht nicht aus, um irgendetwas anderes zu zeigen als einen zunehmenden CO2-Gehalt. Bekannte Kausalität und die Vorhersage von Ergebnissen erfordert eine falsifizierbare Theorie. Dr. Morrison hat keine, ebenso wie auch niemand sonst. Diejenigen, die eine verheerende Klimazukunft vorhersagen, wissen nicht, wovon sie reden. Aber das hindert sie nicht daran, überhaupt davon zu reden. Dr. Morrisons Haltung zum Klima ist nicht unterscheidbar von einem intuitiven Alarmruf, der auf subjektiven Gewissheiten beruht.
Wie der Lohn der Sünder unter den Gläubigen.
Eine Durchsicht der wissenschaftlichen Literatur zeigt viele Studien mit Aussagen über die Unzuverlässigkeit der GCMs. Aber diese Studien gerieren sich nicht alarmistisch. Ein verantwortungsbewusster Wissenschaftler würde die relevante Literatur studieren, bevor er öffentliche Verlautbarungen abgibt. Die AGW-Schlussfolgerungen täuschen Kausalität lediglich vor, weil es keine falsifizierbare, wissenschaftlich einheitliche Theorie zur Vorhersage des Klimas gibt.
Man könnte noch viel mehr schreiben. Aber die grundlegende Aussage ist klar, so dass ich hier aufhöre. Die Antwort auf die Frage in der Überschrift lautet übrigens: ‚Wenn die Wissenschaft tendenziös wird’. Genau das ist die AGW-Wissenschaft, und das schließt die Temperaturaufzeichnungen ein (12, 13), auf die sich Dr. Morrison so sehr stützt.
References:
1. Drake, S., Galileo: a very short introduction,  Oxford University,  Oxford 2001.
2. Popper, K.R., Unended Quest,  Open Court (pbk),  La Salle 1976.
3. Frank, P. and Ray, T.H., Science is not Philosophy, Free Inquiry, 2004, 24 (6), 40-42.
4. Morrison, D., Science Denialism: Evolution and Climate Change, NCSE Reports, 2011, 31 (5), 10.
5. Anagnostopoulos, G.G., Koutsoyiannis, D., Christofides, A., Efstratiadis, A. and Mamassis, N., A comparison of local and aggregated climate model outputs with observed data, Hydrolog. Sci. J., 2010, 55 (7), 1094–1110; see also http://www.itia.ntua.gr/en/docinfo/978/ Last accessed 13 March 2011.
6. Koutsoyiannis, D., Efstratiadis, A., Mamassis, N. and Christofides, A., On the credibility of climate predictions, Hydrolog. Sci. J., 2008, 53 (4), 671-684; doi: 10.1623/hysj.53.4.671.
7. Kiehl, J.T., Twentieth century climate model response and climate sensitivity, Geophys. Res. Lett., 2007, 34 (22), L22710,1-4; doi:10.1029/2007GL031383.
8. Hartmann, D.L., Tropical Surprises, Science, 2002, 295  811-812.
9. Chen, T., Rossow, W.B. and Zhang, Y., Radiative Effects of Cloud-Type Variations, J. Clim., 2000, 13 (1), 264-286.
10. Hartmann, D.L., Ockert-Bell, M.E. and Michelsen, M.L., The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis, J. Climate, 1992, 5  1281-1304.
11. Frank, P., A Climate of Belief, Skeptic, 2008, 14 (1), 22-30; open access: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html.
12. Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A  Representative Lower Limit, Energy & Environment, 2010, 21 (8), 969-989; open access: http://meteo.lcd.lu/globalwarming/Frank/uncertainty_in%20global_average_temperature_2010.pdf.
13. Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index, Energy & Environment, 2011, 22 (4), 407-424; open access: http://multi-science.metapress.com/content/t8x847248t411126/fulltext.pdf (1 MB).
Link: http://wattsupwiththat.com/2012/03/27/ncse-when-is-purported-science-not-science/#more-60214
Übersetzt von Chris Frey EIKE




Die Erde selbst sagt uns, dass nichts Besorgniserregendes bei einer Verdoppelung oder sogar Vervierfachung des atmosphärischen CO2-Gehaltes zu erwarten ist

Update 17.6.11

Einige Kommentatoren verwiesen auf die tlw. bösartige Kritik des Bloggers Tamino. Pat Frank hat sich dieser Kritk gestellt und ist detailliert und höflich darauf eingegangen. Ergebnis: Sie ist haltlos. Details dazu Siehe pdf Anhang

Zusammenfassung von Prof. C.O.. Weiss: Der Autor zeigt leitet aus den offiziellen globalen Erdtemperaturdaten erstmals direkt die Sensitivität des Klimas für steigende atmosphärische CO2-Konzentrationen ab. Er findet eine Erdtemperaturerhöhung von 0,45 Grad für Verdopplung des atmosphärischen CO2 Gehaltes, wie sie bis 2100 eintreten könnte. Damit ergibt sich ein konsistentes Bild der Erderwärmung durch CO2, die sich als durchaus harmlos erweist.

 Der Autor zeigt zunächst, dass sich die Erdtemperatur durch eine langsame zeitliche Zunahme, kombiniert mit einer Oszillation, sehr genau darstellen lässt. Er zeigt, dass die Oszillation auf bekannte ozeanische Oszillationen zurückzuführen ist. Zieht man diese ab, so verbleibt der Trend der langsamen Zunahme. Der Vergleich der Trendwerte für die Zeit ohne nennenswerte CO2 Emissionen mit denen nach 1960 (starke CO2 Emissionen) ergibt die Klimasensitivität für CO2 (plus der anderen Treibhausgase).

Gegenüber diesem Ergebnis sowie den  kürzlichen genauen Voraussagen ist der mittlere Wert, der „offiziell“ vom IPCC  angegeben wird, etwa 9 mal größer.

Man mag sich erinnern, dass die Voraussagen des IPCC bisher auf reinen Modellrechnungen beruhen, in denen sich die großen und angeblich gefährlichen Temperaturerhöhungen nur ergeben, da eine sehr starke positive Rückkopplung durch Wasserdampf WILLKÜRLICH ANGENOMMEN wird, die niemals durch Messungen belegt wurde.

Pat Frank

In meinem jüngsten Beitrag “New Science of Climate Change” auf Jeffs tAV war die Kosinusanpassung an Differenzen zwischen den verschiedenen Datensätzen der bodennahen globalen Temperaturanomalien (von GISS) faszinierend. Also beschloss ich, mal zu schauen, was uns die Kosinusfunktionen über die Trends der Temperaturanomalien selbst sagen können. Es stellte sich heraus, dass sie eine Menge enthüllen.

Regelmäßige Leser von tAV wissen), dass ich über die erstaunliche Vernachlässigung der Instrumentenfehler in den gegenwärtigen Aufzeichnungen der Lufttemperatur berichtet habe. Es scheint sicher zu sein, dass die Daten der Lufttemperatur an der Erdoberfläche so mit systematischen Fehlern verseucht sind – mindestens ± 0,5°C – dass die Anomalietrends der globalen Temperatur keinerlei klimatologische Bedeutung haben. Ich habe in dieser Richtung weiter gearbeitet und, obwohl die Analyse unvollständig ist, sieht es bis jetzt so aus, als ob systematische Instrumentenfehler noch schwerwiegender sind , als wir dachten. Aber das ist eine andere Geschichte.

Systematische Fehler sind lustige Dinge. Bei der Lufttemperatur ist er nicht notwendigerweise eine konstante Abweichung, sondern ein variabler Fehler. Das bedeutet, dass er nicht einfach das Mittel eines Datensatzes verschiebt, sondern dass er auch zu einer asymmetrischen Verteilung der Daten führt. Systematische Fehler dieser Art in einer Temperaturmessreihe können einen zeitlichen Trend verstärken oder abschwächen oder ihn auch in unvorhersagbarer Weise zwischen diesen beiden Polen hin- und her springen lassen. Da der systematische Fehler durch Auswirkungen des Wetters auf die Temperaturfühler verursacht wird, wird er fortwährend mit dem Wetter variieren. Die mittlere fehlerhafte Verschiebung wird für jeden Datensatz unterschiedlich sein, ebenso wie die Verteilung des systematischen Fehlers.

Für jetzt möchte ich jedoch all dies beiseite stellen und mit einer Analyse fortfahren, die die Betrachtung der Temperatur so akzeptiert, wie sie im Baseballstadion des IPCC zu finden ist. Das heißt, für diese Analyse nehme ich mal an, dass die Anomalietrends der offiziellen globalen mittleren Temperatur real und bedeutsam sind.

Ich verfüge über die jährlichen Datensätze der Temperaturanomalien von GISS und CRU bis 2010. Um die Analysen vergleichbar zu machen, benutzte ich die Startzeit von GISS im Jahr 1880. Abbildung 1 zeigt, was passiert, wenn ich  diese Daten mit einer Kombination von einer Kosinusfunktion und einem linearen Trend anpasse. Beide Datensätze lassen sich in dieser Weise gut anpassen.

Die nicht angepassten Reste sind unter diesen Plots dargestellt. Eine lineare Anpassung der Restkurve verläuft genau entlang der Nulllinie, etwa 1 zu 10^5.  Dies zeigt, dass beide Sätze der Anomaliedaten sehr gut durch eine kosinusartige Oszillation plus einem ansteigenden linearen Trend dargestellt werden. Die linearen Anteile dieser angepassten Trends sind: GISS 0,057°C pro Dekade und CRU 0,058°C pro Dekade.

Abbildung 1: Trends für die jährlichen Temperaturanomalien, und zwar zusammen mit einer Kombination aus einer Kosinusfunktion und einem linearen Trend. Darunter: die Restdaten (Daten minus fit). Die farbigen Linien entlang der Nullachse sind lineare Fits zu den betreffenden Restwerten.  Diese zeigen, dass die Restwerte keinem allgemeinen Trend folgen. Teil a: GISS, Teil b: CRU-Daten

Wenn man die Oszillationen aus den globalen Anomalietrends entfernt, sollten nur die linearen Anteile der Trends übrig bleiben. Wie sieht das aus? Abbildung 2 zeigt die in den Datensätzen von CRU und GISS verbleibenden linearen Trends nach Subtraktion des Kosinus. Die reinen Kosinusfunktionen stehen unter jedem Plot.

Jeder der Plots, der den linearisierten Trend zeigt, enthält auch zwei gerade Linien. Eine davon ist die  Kosinuslinie plus die linearen Fits aus Abbildung 1. Die andere gerade Linie ist eine lineare Anpassung mittels Minimierung der Abweichungsquarate an die linearisierten Trends. Die linearen Fits haben Trends von: 0,058°C/Dekade bei GISS, 0,058°C/Dekade bei CRU, was auch  identisch sein kann mit der Steigung der Linien in Abbildung 1.

Die Abbildungen 1 und 2 zeigen, dass mit einem hohen Grad an Sicherheit und unabhängig von der Temperaturvariabilität von Jahr zu Jahr der gesamte Trend der globalen Lufttemperatur seit 1880 durch einen linearen Trend plus einer Oszillation erklärt werden kann.

Abbildung 3 zeigt, dass der GISS-Kosinus und der CRU-Kosinus sehr ähnlich sind – wahrscheinlich identisch, wenn man die Qualität der Daten berücksichtigt. Sie zeigen eine Periode von etwa 60 Jahren und eine Amplitude von etwa ±0,1°C. Diese Oszillationen sind ganz klar verantwortlich für die blockierenden, ins Auge fallenden Änderungen der Steigung in den Anomalietrends nach 1915 und nach 1975.

Abbildung 2: oben: Der lineare Anteil der Anomalietrends der jährlichen Mitteltemperatur, sich ergebend aus der Subtraktion der angepassten Kosinusfunktionen vom Gesamttrend. Die zwei geraden Linien in jedem Plot sind: OLS-Fits an die linearen Trends und die linearen Anteile aus Abbildung 1. Die beiden Linien liegen decken sich. Unten: die voneinander subtrahierten Kosinusfunktionen.

Die Datensätze der Lufttemperatur enthalten die Temperatur auf dem Land plus die SSTs [Obeflächentemperatur der Ozeane]. Es erscheint vernünftig, dass die von den Kosinusfunktionen repräsentierten Oszillationen von einem Erwärmungs-Abkühlungszyklus der Ozeane der Welt stammen.

Abbildung 3: Vergleich der angepassten Kosinusfunktionen von GISS und CRU.

Die größeren ozeanischen Zyklen schließen die PDO, die AMO und die Oszillation des Indischen Ozeans ein. Joe D’Aleo hat diese anschaulich zusammengefasst hier (pdf-Download).

Die Kombination aus PDO und AMO ist grob eine  Oszillation mit einer Periode von etwa 55 Jahren, mit einem Maximum im 20. Jahrhundert um 1937 und einem Minimum um 1972 (Abbildung 11 bei D’Aleo). Die Kombination der Ozeanzyklen scheint nahe einem weiteren Maximum um 2002 gewesen zu sein, (obwohl sich die PDO nach Süden  bewegt hat).  Periode und Phase von PDO + AMO entsprechen sehr gut  den angepassten Kosinusfunktionen von GISS und CRU, und so scheint es, als hätten wir einen Temperaturfußabdruck der Ozeane in den Datensätzen der Temperaturanomalien gefunden.

In dem Beitrag in „New Science” sahen wir das Auftauchen einer schwachen Oszillation in den GISS-Daten der Anomaliedifferenzen nach 1999 nach Hinzufügen der SSTs. Vor und bis 1999 enthielten diese Daten nur die Temperaturwerte des Festlands.

Also untersuchte ich die Temperaturanomaliedaten von GISS 1999, um zu sehen, ob sie ebenfalls durch eine kosinusartige Oszillation plus einem linearen Trend repräsentiert werden konnten. Und sie konnten! Die Oszillation hatte eine Periode von 63 Jahren und eine Amplitude von ±0,1°C/. Der lineare Trend betrug 0,047°C/Dekade; also so ziemlich die gleiche Oszillation, aber mit einem geringeren Erwärmungstrend von 0,1°C/Dekade. Es sieht also so aus, als stünde die thermische Oszillation der Ozeane mit der globalen Temperatur an Land in einem Zusammenhang.

Aber das ist nicht die Analyse, die mich interessierte. Abbildung 2 scheint zu zeigen, dass der gesamte Zeitraum von 130 Jahren zwischen 1880 und 2010 einen stetigen Erwärmungstrend von etwa 0,058°C/Dekade aufweist. Dies erklärt offenbar den fast unaufhaltsam-stetigen [almost rock-steady] Anstieg des Meeresspiegels im 20. Jahrhundert.

Das Argument ist immer  gewesen, dass das Klima der ersten 40 bis 50 Jahre des 20. Jahrhundert nicht durch anthropogene Treibhausgase beeinflusst worden war. Nach 1960 oder so ungefähr, mit Sicherheit aber nach 1975, kam der Treibhausgaseffekt ins Spiel, und der Erwärmungstrend der globalen Lufttemperatur begann einen menschlichen Einfluss zu zeigen. So lautet die gängige Geschichte.

Ist diese Behauptung nicht widerlegt, wenn sich das späte 20.Jahrhundert mit der gleichen Rate erwärmt hat wie das frühe 20. Jahrhundert? Dies scheint die Aussage der Abbildung 2 zu sein.

Aber die Analyse kann noch weiter ausgeführt werden. Die frühen und späten Trends der Temperaturanomalie können separat abgeschätzt und dann verglichen werden. Das ist in Abbildung 4 dargestellt, erneut unter Verwendung der Datensätze von CRU und GISS. In  jedem Datensatz habe ich die Anomalien von 1880 bis 1940 und von 1960 bis 2010 angepasst. In dem Beitrag in  New Science of Climate Change habe ich gezeigt, dass diese linearen Anpassungen erheblich durch die Wahl des Startpunktes verzerrt werden können. Das Anomalieprofil von 1960 ist ähnlich dem Profil 1880, und folglich weisen diese beiden Startpunkte keine offensichtliche fehlerhafte Verschiebung auf.  Visuell scheint die Steigung der Anomalietemperatur nach 1960 ziemlich gleichmäßig zu verlaufen, vor allem im Datensatz von GISS.

Abbildung 4 zeigt die Ergebnisse dieser getrennten Anpassungen, die den linearen Erwärmungstrend zu Anfang und gegen Ende der letzten 130 Jahre ergeben.

Abbildung 4: Die aus Abbildung 2 linearisierten Trends der Anomalien nach GISS und CRU mit den separaten OLS-Anpassungen für die Zeiträume von 1880 bis 1940 und 1960 bis 2010.

Die Ergebnisse der Anpassungen der frühen und späten Anomalietrends zeigt Tabelle 1.

Tabelle 1: Zehnjährige Erwärmungsraten für die frühe und die späte Periode

Datensatz

C/d (1880-1940)

C/d (1960-2010)

(spät minus früh)

GISS

0.056

0.087

0.031

CRU

0.044

0.073

0.029

 „C/d” ist die Steigung der angepassten Linien in Grad Celsius pro Dekade.

Also, da haben wir es! Beide Datensätze zeigen, dass es sich in der späten Periode schneller erwärmte als in der früheren Periode. Obwohl die Raten zwischen GISS und CRU um 12% differieren, sind die Änderungen (Spalte 3) identisch.

Wenn wir das IPCC/AGW global warming – Denkmodell akzeptieren und die "klimatologische Sauberkeit" des frühen 20. Jahrhunderts voraussetzen, beträgt die mittlere Rate der Temperaturerholung aus der kleinen Eiszeit (LIA) etwa 0,05°C pro Dekade. Um hier weiterzukommen, müssen wir annehmen, dass diese natürliche Rate von 0,05°C/Dekade unverändert für die gesamten 130 Jahre bis 2010 geblieben ist.

Wenn wir das annehmen, dann ist die Zunahme der Steigung um 0,03°C/Dekade nach 1960 auf die schädlichen Einflüsse der unnatürlichen und unsauberen anthropogenen Treibhausgase zurückzuführen.

Wenn wir all dem zustimmen, haben wir jetzt ein Werkzeug zur Hand, um die  klimatologisch am schwersten fassbare Größe zu betrachten: die „Klimasensitivität“ der Treibhausgase.

Ich habe immer noch all die Daten für die atmosphärischen Antriebe für CO2, Methan und Stickoxide, die ich für meinen Beitrag http://www.skeptic.com/reading_room/a-climate-of-belief/ berechnet habe [auf Deutsch bei EIKE hier]. Zusammen bilden diese den Löwenanteil des neuen Antriebs durch Treibhausgase seit 1880. Die gesamten Chlorfluorkohlenwasserstoffe bringen einen Beitrag von weiteren 10% oder so, aber das ist kein großer Einfluss, so dass diese ignoriert werden können.

Alles, was wir jetzt noch tun müssen ist, den progressiven Trend des jüngsten Antriebs durch die Treibhausgase gegen den unheilvollen offensichtlichen anthropogenen Trend von 0,03°C/Dekade aufzutragen, alles im Zeitraum von 1960 bis 2010, und die Steigung zeigt uns die Klimasensitivität in ° C/(W-m^-2). Diesen Plot zeigt Abbildung 5.

Abbildung 5: Blaue Linie: die „überschüssige“ Erwärmung von 1960 bis 2010 um 0,03°C/Dekade, aufgetragen gegen den Antriebstrend der Treibhausgase durch die  zunehmenden Anteile von CO2, CH4 und N2O. Rote Linie: die linearen OLS-Anpassungen zur Antriebs-Temperaturkurve (r^2=0.991). Eingefügt: die gleichen Linien bis zum Jahr 2010 extrapoliert.

Da gibt es eine Überraschung: Die Trendlinie ist gekrümmt. Mehr dazu später. Die rote Linie in Abbildung 5 ist eine lineare Anpassung an die blaue Linie. Sie ergibt eine Steigung von 0.090 C/W-m^-2.

Also, hier haben wir es: jedes Watt pro Quadratmeter durch zusätzliche Treibhausgase hat die globale mittlere Temperatur während der letzten 50 Jahre um 0,09°C zunehmen lassen.

Verkünden Sie dies: Die Klimasensitivität der Erde beträgt 0.090 C/W-m^-2!

Das IPCC sagt, dass der verstärkte Antrieb durch den verdoppelten CO2-Gehalt**, das Flaggschiff des Klimaalarms, bei etwa 3.8 W/m^2 liegt. Die daraus folgende Zunahme der globalen mittleren Temperatur wird im Mittel mit 3 Grad Celsius angegeben. Also sagt das IPCC offiziell, dass die Klimasensitivität der Erde bei 0.79 C/W-m^-2 liegt. Das ist 8,8 mal größer als der Wert, den uns die Messungen der Temperatur der Erde sagen.

Unsere aus Messungen gewonnene Sensitivität sagt, dass die Verdoppelung des CO2**  zu einem mittleren Temperaturanstieg von 0,34°C zusätzlich zu jeder natürlichen Zunahme führt. Dieser Wert ist 4,4 bis 13 mal kleiner als die vom IPCC allein auf Grund theoretischer Annahmen, von verschiedenen Modellen vorausgesagte projizierte  Spannbreite.

Der gesamte Antrieb durch Verdoppelung des CO2** plus projizierte Zunahmen von atmosphärischem Methan und Stickoxid beträgt 5 W/m^2. Nach unseren Ergebnissen wird dies zu einer mittleren Temperaturzunahme von 0,45°C führen. Dies ist in etwa der Temperaturanstieg, wie wir ihn seit 1980 sehen. Finden Sie das wirklich beängstigend?

Aber zurück zu der negativen Krümmung des Plots der Sensitivität. Es wird allgemein angenommen, dass die Änderung der Lufttemperatur mit dem Antrieb linear ist. Aber hier sehen wir, dass die Änderung der Temperatur durch den Antrieb seit 50 Jahren negativ gekrümmt worden ist. Etwas passiert hier.

Nach Ansicht der AGW Verfechter müssen die Daten falsch (oder „nicht zuverlässig“) sein, denn nur ihre Modelle können recht haben!

Aber nach meiner eigenen wissenschaftlichen Gewohnheit (und der Gewohnheit von jedem, den ich kenne) sind die Daten die Grundlage der Theorie und nicht umgekehrt. Kevin [Trenberth], Michael [Mann] und Gavin [Schmidt] können mich dafür kritisieren, weil Klimatologie anders und einheitlich und Ravetzian ist, aber ich richte mich in jedem Falle nach den grundlegenden Standards der Wissenschaft.

Also, was bedeutet die negative Krümmung? Falls sie wirklich existiert, heißt das. Sie bedeutet, dass die Sensitivität des Klimas auf den Antrieb durch Treibhausgase abgenommen hat, und zwar während der ganzen Zeit, in der der Antrieb durch die Treibhausgase selbst zugenommen hat.

Wenn ich es nicht besser wüsste, würde ich sagen, dass es im Klimasystem irgend etwas gibt, das sich an den Antrieb durch Treibhausgase anpasst. Es führt ein zunehmend negatives Feedback ein. Der Einfluss wird also als Funktion der CO2-Konzentration kleiner*. Es liegt also eine Abweichung vom linearen Modell vor. Woher diese Abweichung kommt, bleibt offen.

Mit anderen Worten, das Klima zeigt Stabilität trotz Störungseinflüssen. Da die Störungseinflüsse zunehmen, nimmt auch die negative Kompensation durch das Klima zu.

Nehmen wir an, die letzten 50 Jahre deuten darauf hin, wie das Klimasystem auf die nächsten 100 Jahre zunehmenden Antriebs durch Treibhausgase reagiert.

Der Einschub in Abbildung 5 zeigt, wie das Klima auf einen stetig zunehmenden Antrieb durch Treibhausgase bis zum Jahr 2100 antwortet. Das ergibt sich aus einer Vervierfachung des atmosphärischen CO2-Gehaltes.

Die rote Linie zeigt die projizierte Temperaturzunahme, falls das linear angepasste Modell mit 0,03°C/Dekade zutrifft. Alternativ zeigt die blaue Linie, wie die globale Lufttemperatur darauf reagieren könnte, falls der empirisch negative Feedback stimmt.

Wenn das Klima weiter so reagiert, wie es das bis jetzt getan hat, wird die Temperaturzunahme bis zum Jahr 2100 ganze 50% geringer ausfallen, als wenn das lineare Antwortmodell richtig wäre. Und das lineare Antwortmodell erzeugt eine viel kleinere Temperaturzunahme als das IPCC-Klimamodell, umm, Modell.

Semi-empirisches lineares Modell: 0,84°C wärmer bis zum Jahr 2100.

Voll empirisches Modell mit negativem Feedback: 0,42°C wärmer bis 2100.

Und das mit einem zusätzlichen Antrieb durch Treibhausgase in Höhe von 10 W/m^2 und einem atmosphärischen CO2-Gehalt von 1274 ppmv. Zum Vergleich: das IPCC-A2-Modell hat im Jahr 2100 einen atmosphärischen CO2-Gehalt von 1250 ppmv und eine Zunahme der globalen Mitteltemperatur um 3,6°C simuliert. 

Also fügen wir hinzu: Offizielles IPCC-A2-Modell: 3,6°C wärmer im Jahr 2100.

Das semi-empirische Modell allein, empirisch durch 50 Jahre aktueller Daten belegt, sagt, dass die Temperatur nur um 0,23 K des IPCC-A2-Modells von 3,6°C zugenommen hat.

Und falls wir das empirische negative Feedback, das uns die Erde zeigt, berücksichtigen, wird die Temperaturzunahme bis 2100 nur 0,12 der IPCC-Projektion betragen.

Also liegt hier eine nette Lektion für das IPCC und die AGW-Modellierer über GCM-Projektionen vor: Ihnen widersprechen die Daten der Erde selbst. Damit nicht genug, die Erde hat der gleichen Crew schon einmal widersprochen.

Ist das nun alles physikalisch real? Lassen Sie es mich so ausdrücken: Alles das ist begründet durch echte Temperaturdaten. Zumindest dieses macht diese Analyse physikalisch viel realer als jede Rekonstruktion der Paläotemperaturen, die Baumringen oder  anderen Komponenten eine Temperatur zuordnet.

Da jedoch den globalen Temperaturwerten systematische Fehler in unbekannter Größe anhaften, wissen wir nicht, ob irgendetwas hiervon physikalisch real ist.

Aber wir können dieses jedem sagen, der den Aufzeichnungen der globalen mittleren Temperatur physische Realität beimisst, oder jedem, der darauf besteht, dass die Aufzeichnung der Anomalien klimatologisch bedeutsam ist: Die Bodentemperatur selbst sagt, dass das Klima der Erde nur eine sehr geringe Sensitivität für Treibhausgase aufweist.

Die grundlegende Hypothese für diese Analyse, nämlich dass das Klima im frühen 20. Jahrhundert frei von menschlichen Einflüssen war, ist in der AGW-Literatur Allgemeingut. Die zweite Hypothese, dass der natürliche hintergründige Erwärmungstrend sich während der zweiten Hälfte der letzten 130 Jahre fortsetzte, ist ebenfalls sinnvoll unter der Voraussetzung der typischen Ansichten über eine konstante natürliche Variabilität. Der Rest dieser Analyse folgt daraus automatisch.

Im Zusammenhang mit dem ureigenen Ballpark des IPCC sagt uns die Erde selbst, dass wir bei einer Verdoppelung**, ja selbst bei einer Vervierfachung** des atmosphärischen CO2-Gehaltes nichts zu befürchten haben.

Übersetzt von Chris Frey für EIKE unter Mithilfe von Prof. Carl Otto Weiss (ehem. Direktor der Physikalisch-technischen Bundesanstalt Hannover)

Pat Frank

Den Originalbeitrag finden Sie hier

Update 9.6.11:

Der bekannte Klimaforscher Sherwood Idso veröffentlichte schon 1998 unter dem Titel "CO2-induced global warming: a skeptic’s view of potential climate change" ein Papier, dass zu ähnlichen Ergebnissen kommt. Sie finden es als pdf im Anahng

 

*Kommentar von C.O. Weiss:

Das Ergebnis von Pat Frank  entspricht genau (!) der Berechnung von Harde (hier) und Lord Monckton. Diese Übereinstimmung ist für sich schon ein sehr wichtiges Ergebnis.

** Hinweis der Redaktion

Es wird im Text mehrfach auf die Verdopplung der CO2 Konzentration als Basis für die Kiimasensitivität CS abgestellt. Wie Prof. Werner Weber (Uni Dortmund) jüngst in seinem Vortrag bei dem EIKE undefinedPIK Kolloqium aufzeigte kann sich die Konzentration von CO2 aufgrund von physikochemischen Gleichgewichtsprozessen bei sonst gleichen Umständen nur auf ca. max 500 ppm erhöhen.

Update 17.6.11

Einige Kommentatoren verwiesen auf die tlw. bösartige Kritik des Bloggers Tamino. Pat Frank hat sich dieser Kritk gestellt und ist detailliert und höflich darauf eingegangen. Ergebnis: Sie ist haltlos. Details dazu Siehe pdf Anhang

Related Files




Die neue Wissenschaft vom Klimawandel!

Aber wie auch immer, für die Suche nach Messfehlern bei der Ermittlung der Bodendaten scheint es eine gute Idee zu sein, die Datensätze der globalen Mitteltemperatur zur Hand zu haben, nur so als Referenz. Man weiß nie, wann diese zur Verfügung stehen.

Ich verfügte bereits [über die Datensätzen von] GISSTEMP 2007 und 2010 von der GISS-Website (2) sowie über die CRU-Daten 2005 als Download von der Site des Carbon Dioxide Information Analysis Center (CDIAC) (3). Aber frühere Daten zu erhalten erschien ebenfalls sinnvoll. Wie zu erwarten war, hat sich herausgestellt, dass diese interessante Eigenschaften haben.

Ich wollte die Datensätze so, wie sie veröffentlicht worden waren und habe sie deshalb direkt aus den veröffentlichten Graphiken digitalisiert: GISS 1984 (4), 1988 (5), 1996 (6) und 1999 (7), ferner CRU 1994 (8) und 2003 (9). Bei den Jahreszahlen handelt es sich um die Jahre der Veröffentlichung, daher enden die Datensätze ein oder zwei Jahre früher. In jedem Falle habe ich nur die ungeglätteten Daten digitalisiert, und jeder digitalisierte Punkt wurde in die Mitte des veröffentlichten Punktes gestellt. Unter Berücksichtigung der gewählten Auflösung der veröffentlichten Graphiken schätze ich die digitalisierte Präzision auf ± 0,002°C.

Eines der ersten Dinge, die ich fand, war etwas unerwartet – wie Jim Hansen 1988 vor dem Kongress aussagen konnte, dass er zu 99% sicher war, den menschlichen Fingerabdruck in der Klimaerwärmung zu sehen. Im Januar 1988 veröffentlichte er eine Studie über den Trend der globalen Temperatur an der Erdoberfläche (5), in der er die Normalisierung von 1951 bis 1980 eine 1-sigma globale Temperaturvariabilität von ± 0,13°C zeigte. Dies präsentierte er als die Grenzen der natürlichen Variabilität seit 1880 und sagte: „Falls eine Erwärmung um 3-sigma erreicht werden würde (d. h. 0,39°C – P), würde dies einen Trend nahe einem Vertrauenslevel von 99% Signifikanz repräsentieren“.

Er wurde ein wenig zweideutig in dieser Studie vom Januar, wiederholte aber die Abgrenzung in seiner Studie vom Juni 1988, in der er die Vorhersagen  über einen „robusten“ 3-sigma-Antrieb aus dem GISS-Modell II (10) vorstellte. JH sagte weiter, dass „(eine persistente globale Erwärmung von) 0,4°C einen überzeugenden Beweis für die Beziehung von Ursache und Wirkung darstellen würde, d. h. eine „rauchende Kanone“ in der gegenwärtigen Umgangssprache“.

Der globale Anomalietrend von GISS 1996 zeigte, dass er sich im Jahre 1988 zügig der 3-sigma-Marke näherte, was sein Vertrauen gefestigt haben könnte. Aber die gesamte Basis für die 99%-Gewissheit, die Jim vor dem Kongress beschworen hatte, beruhte darauf, dass der Trend von 1951 bis 1980 als definitive Größe der natürlichen Variabilität für die letzten Jahrtausende des Klimas im Holozän stehen würde. Das können Sie nun selbst beurteilen, aber ich sehe das als wissenschaftlichen Blödsinn.

Wie auch immer, als ich nun alle Datensätze zur Hand hatte, schien es mir eine gute Idee, die früher veröffentlichten Trends mit den später veröffentlichten zu vergleichen. Sie würden diesen Artikel nicht lesen, wenn sich nicht interessante Dinge herausgestellt hätten. Hier kommen sie!

Eine unkritische Entdeckung war, dass die Anomalien von GISS 1987 zufällig mit einem positiven Abstand von 0,1°C von der Null-Linie geplottet worden waren. Ansonsten sind die Anomalien von 1987 identisch mit denen von GISS 1988. Beide Datensätze wurden auf das Mittel des Zeitraumes 1951 bis 1980 bezogen, so dass der Abstand von der Null-Linie nicht aufgrund von Normalisierungsverfahren zustande gekommen ist. Hansen und Lebedeff haben 1988 nichts zu dem Irrtum des Abstandes gesagt, den sie 1987 veröffentlicht hatten, und keines der beiden Studien hatte ein Korrigendum bis zum 1. Mai 2011. Vielleicht haben sich die Autoren gedacht, dass jeder das selbst herausfinden kann.

Aber weiter: Abbildung 1 zeigt die globale mittlere Temperatur, wie sie 1988 und 1999 veröffentlicht worden war. Die beiden Trendlinien scheinen sich gut zu überlagern, außer in der Zeit um 1880 bis 1890.

Abbildung 1: Anomalien der jährlichen globalen Mitteltemperatur, wie veröffentlicht in den Jahren 1988 und 1999. Die Unterschiede der Jahre 1996 bis 1988 und 1999 bis 1988 in den Datensätzen sind darunter geplottet.

Unten in der Abbildung 1 habe ich den Unterschied in den Trends geplottet: 1999 minus 1988 und 1996 minus 1988. Dieser Plot der Unterschiede zeigt, dass zwischen den Jahren 1925 und 1988 die globalen Temperaturtrends von 1996 und 1999 nicht wesentlich von dem Trend des Jahres 1988 unterscheiden. Aber 1996 und 1999 wurden die Jahre von 1880 bis 1925 plötzlich wärmer , als sie 1988 gewesen sein sollen. Und im Jahre 1999 erschienen die Jahre 1880 bis 1920 sogar noch wärmer als in 1996. Dies ist eine anthropogene globale Erwärmung, die wirklich jenseits der natürlichen Variabilität liegt.

Wir alle wissen, dass wir in einer wärmeren Welt leben. Aber wenn man die Aufzeichnungen des frühen 20. Jahrhunderts erhöht, reduziert sich die Erwärmungsrate bis zum Ende des 20. Jahrhunderts. 1988 lag die Erwärmungsrate bei 0,55°C pro Jahrhundert, während es 1999 nur noch 0,48°C pro Jahrhundert war (und nur 0,41°C zwischen 1880 und 1988). Wenn die Erwärmungsrate 1999 15% unter der des Jahres 1988 liegt, würde es da nicht weniger Anlass zur Sorge geben? Warum die Veränderung hin zu einer wärmeren Vergangenheit?

 „Warum” könnte eine Frage der persönlichen Absicht sein, die unbekannt ist. Aber wir können ein „was?“ bemerken. 1988 schrieben Hansen und Lebedeff, dass „die Rate der Erwärmung zwischen Mitte der sechziger Jahre und der Gegenwart höher ist als die vorherige Periode einer rapiden Erwärmung zwischen 1880 und 1940“.

Das stimmt, aber nur, weil die Anomalie des Jahres 1964 ein starker Ausschlag nach unten war, während die achtziger Jahre mit einem ebenso großen Ausschlag nach oben begannen. Vielleicht wurden H&L wegen der Auswahl eines bequemen Startpunktes in den sechziger Jahren kritisiert, weil eine solche Feststellung in der Temperaturanomalie von GISS aus dem Jahr 1996 nicht auftauchte.

Aber im Jahre 1999 finden wir Beweise für eine erneute Durchsetzungskraft [assertiveness] in der Einführung: „Die Rate der Temperaturänderung war während der letzten 25 Jahre höher als jemals zuvor in dem Zeitraum mit instrumentellen Messungen“. 25 Jahre vor 1999, das bedeutet 1974, und 1976 zeigte sich erneut am Grund eines großen Ausschlags der Anomalie nach unten. Das hilft auch.

Aber schauen wir selbst. Hier folgt eine Tabelle von Erwärmungsraten nach GISS:

Tabelle 1: Mittlere dekadische Rate der Temperaturänderung (DDC)

Die Verzerrung (Bias) des Anfangspunktes 1964 ist ziemlich offensichtlich (Spalte 2 zu Spalte 3), also verpufft das zum Fenster hinaus. Das Jahr 1960 scheint einen viel weniger verzerrten Startpunkt für den Vergleich von Erwärmungsraten zu bieten, weil die Dekade wie 1880 und 1960 an der Spitze eines Anomalieausschlags begann.

Ich kann nicht darüber spekulieren, warum die Wissenschaftler beim GISS irgendwann zwischen 1960 und 1988 die Periode von 1880 bis 1920 systematisch erwärmt haben, aber Tabelle 1 zeigt die Auswirkung davon: Im Jahre 1988 erwärmte es sich von 1880 bis 1940 mit der gleichen Rate wie 1960 bis 1988 – also um etwa 0,1°C pro Dekade. Wie die Idsos sagen würden: ‚Hier ist nicht viel AGW!‘

Aber 1996 (Reihe 2) wurden von der Erwärmung pro Dekade im frühen 20. Jahrhundert 0,017°C abgezogen. Auf einmal lag die Erwärmungsrate von 1960 bis 1988 um 50% über der Rate von 1880 bis 1940. Vielleicht erschien ihnen das als eine gute Sache, weil 1999 (Reihe 3) weitere 0,019°C Erwärmung verschwanden. Also hat sich bis 1999 die Erde von  1960 bis 1988 doppelt so schnell erwärmt wie in den Jahren von 1880 bis 1940. Und diese für die NGOs vielversprechende Rate wurde gleich bis 1999 verlängert.

Abbildung 2: Die globalen jährlichen Temperaturtrends an der Erdoberfläche, wie sie 1988 und 1999 von GISS veröffentlicht worden waren. Blaue glatte Linie: Der Trend von 1880 bis 1940 aus dem Jahr 1988. Orange glatte Linie: Der Trend von 1880 bis 1940 nach den von GISS vorgenommenen Anpassungen der Daten. Rosa glatte Linie: die Rate von 1960 bis 1999. Dieser Trend verläuft auch eindeutig steiler als die Anomalien von 1988.

Abbildung 2 zeigt diesen Effekt visuell. Die blaue und die rosa Linie stellen die Glättungen der Temperaturen vor den Anpassungen dar. Sie verlaufen nahezu parallel. Also waren die Erwärmungsraten für die Zeiträume von 1880 bis 1940 und 1960 bis 1988 etwa gleich groß. Laut Tabelle 1 waren sie so ziemlich identisch, innerhalb der Fehlergrenzen.

Es wird ziemlich klar, dass man 1988 nicht behaupten konnte, dass es im späten 20. Jahrhundert schneller wärmer geworden ist als im frühen 20. Jahrhundert. Genau das konnte man jedoch 1999 sehr wohl behaupten. Wirklich?

Ist die verstärkte Erwärmung im späten 20. Jahrhundert die Erklärung für die seit 1988 von GISS vorgenommenen Änderungen bei der Anpassung? Ich weiß es nicht. Aber wir wissen sicher, dass die Anpassungen nach 1988 den Anpassern sehr geholfen haben.

Es wird jedoch noch ein wenig merkwürdiger. Danach verglich ich den GISS-Trend 1999 mit den GISS-Trends von 2007 und 2010. Und siehe da, Gräber öffneten sich und Wunder liefen durch das Land.

Abbildung 3 zeigt die Anomalietrends von GISS 1999 und 2010. Auch diese scheinen sich auf den ersten Blick nicht sehr zu unterscheiden. Aber man betrachte unten in Abbildung 3 den Unterschied 2010 minus 1999.

Abbildung 3: der globale mittlere Anoamlietrend der Temperatur nach GISS 1999 und 2010. Unten zeigt die blaue Linie den Unterschied 2010 minus 1999. Die orange Linie ist ein an den Unterschied angepasster Cosinus [?].

Das Wunder der Wissenschaft von der Klimaänderung besteht darin, dass sichere Klimaphänomene des 20. Jahrhunderts 1999 seltsam unsichtbar waren, sie wurden klar 2010 manifest. Die gleiche Cosinus-Differenz ergibt sich aus dem Reich der Wunder auch im Datensatz der globalen Temperatur nach GISS 2007, daher wissen wir, dass dieser Effekt vor 2007 in die Daten von 1999 eingegangen war.

Irgendwann zwischen 1999 und 2007 erschien ein Temperaturzyklus im Anomalietrend der globalen jährlichen Mitteltemperatur. Die Sinuskurven stehen für den gesamten signifikanten Unterschied der Anomalietrends zwischen 1999 und 2010 (einer spielt jedoch immer noch mit dem Zeitraum von 1880 bis 1890).

Ich habe eine exzellente Anpassung an den Unterschied zwischen 1999 und 2010 erhalten, und zwar durch Verwendung einer beliebigen Cosinus-Funktion. Die Periode ist 66 Jahre; leider nicht religiös signifikante 66,6 Jahre. 66 Jahre ist ein merkwürdiger Zyklus. Er ist etwas zu kurz für einen Gleissberg-Zyklus (60 bis 150 Jahre{11}) und scheint nicht zu irgendeinem der gewöhnlichen solaren Zyklen zu passen (http://en.wikipedia.org/wiki/Solar_variation). Also suchte ich in Google nach einem „66-Jahre-Zyklus“, und die ersten vier der über 88 Millionen Treffer führten mich zu Klimablogs.

Luboš (The Reference Frame, http://motls.blogspot.com/2011/03/is-there-66-year-cycle-in-temperatures.html) war der erste Treffer, und bei ihm findet sich eine gute Einführung in die Diskussion. Es scheint, dass Tamino über eine Studie bloggt, die einen 66-Jahre-Zyklus der Atlantischen Multidekadischen Oszillation innerhalb von 8000 Jahren in einem Eisbohrkern gefunden hatte. Tamino war skeptisch und Luboš stimmte zu, aber die AMO zeigt nicht die Aufzeichnungen der globalen jährlichen Mitteltemperatur. Das war also das. Wir haben keine Ahnung, was dieser wunderbare neue 66-Jahres-Zyklus repräsentiert. Vielleicht neu gefundene Zusammenhänge der AMO?

Noch mehr auf den Punkt gebracht: Welche legitime Anpassungsstrategie bringt ein Sinusoid in den Trend der globalen jährlichen Mitteltemperatur? Wird sie ‚entdeckt‘, wenn das nächste Mal jemand eine Wellenanalyse der instrumentellen Aufzeichnungen durchführt?

Man beachte, dass die Periodizität nicht sehr ersichtlich die Änderung des globalen mittleren Temperaturtrends zeigt. Hier folgt, welche Auswirkungen es auf die Temperaturtrends im frühen und im späten 20. Jahrhundert hat: das Sinusoid reduzierte 2010 die Erwärmungsrate zwischen 1960 und 1999 auf 20% unter die Rate im Datensatz von 1999, reduzierte jedoch den Trend zwischen 1880 und 1940 um 33%. Tabelle 2 zeigt die Zahlen.

Tabelle 2: GISS mittlere Dekadische Temperaturänderung mit Sinusoid (DDC)

Man sieht: als Ergebnis zeigt sich, dass die Erwärmung im späten 20.Jahrhundert bis 2010 2,8 mal schneller vonstatten ging als im frühen 20. Jahrhundert. 1999 lag das Verhältnis noch bei 2,3 mal schneller. Daraus folgt, dass das Sinusoid den gleichen Effekt hat wie die Erniedrigung der Temperatur von 1880 bis 1900: es verstärkt das Missverhältnis zwischen den Erwärmungsraten des frühen und des späten 20. Jahrhunderts. Aber es führt nicht dazu, dass sich die Trendlinien selbst aufsteilen. Der Effekt ist ziemlich subtil.

Die Änderung kommt – natürlich rein zufällig – jenen zupass, die nach einer noch nie da gewesenen Änderung anthropogenen Ursprungs suchen, aber wir alle wissen, dass wissenschaftliche Ergebnisse unabhängig von menschlichen Wünschen sind.

Aber vielleicht gibt es ja das Sinusoid wirklich, und es ist durch die primitiven Anpassungen vor 2007 nur zufällig verschwunden. Also beschloss ich, die analogen Datensätze der Climate Research Unit (CRU) der University of East Anglia zu untersuchen. Falls ein Temperaturzyklus mit den fortgeschrittenen Algorithmen des 21. Jahrhunderts wirklich enthüllt werden könnte, müssten die Differenztemperaturen CRU 2005 minus CRU 1994 das auch sicher zeigen. Gibt es einen 66-Jahres-Zyklus der Temperatur, der nur in späteren Datensätzen der CRU erscheint? Abbildung 4 zeigt die Antwort: Es gibt keinen Hinweis darauf. Wir bleiben zurück mit der Frage, was GISS sich bloß dabei gedacht hat.

Abbildung 4: Der Trend der mittleren globalen jährlichen Mitteltemperatur wie 1996 und 2006 von der CRU veröffentlicht. Unten zeigt die blaue Linie wieder die Differenz dieser Anomalien. Kein kryptisches Sinusoid ist zu sehen. Die y-Achse wird 1860 bei dem Wert -0,036°C geschnitten (Original: The fit y-intercept at 1860 is at -0.036 C).

Es ist interessant zu sehen, dass der Datensatz der CRU von 1994 kühler war als der Datensatz von CRU 2005, jedenfalls vor etwa 1940. 2005 hat das UK Met Office die Erstellung der globalen Temperaturanomalien in UK von der CRU übernommen. Daher dachte ich, dass das Met Office die Anpassungsmethoden vielleicht etwas verändert hätte. Aber die gleiche Kühle vor 1940 zeigte sich auch hier wieder, und jener Datensatz stammte ausschließlich von der CRU.

Was also auch immer der Fall ist, die Arbeitsgruppen der UEA CRU und des UK Met Office kühlten die Temperaturen vor 1940 mit den gleichen Methoden. Was bewirkte dies bei der Differenz der Anomalieraten zwischen dem frühen und dem späten 20. Jahrhundert? Tabelle 3 zeigt: fast nichts.

Aber die nach 1994 von CRU vorgenommene Anpassung hat den gesamten Anomalietrend von 1880 bis 1993 um 0,01°C pro Dekade zunehmen lassen.

Tabelle 3: CRU Mittlere dekadische Temperaturänderung (DDC)

Die Trends der CRU enthüllen auch etwas Interessantes bei den GISS-Trends: Die Hinzufügung des Sinusoids zu den GISS-Anomalien von 1999 zog ihre Trends von 2010 genau auf die Linie der CRU-Trends- Ein glücklicher Zufall? Ich weiß es nicht.

So verbleiben nach all dem mehr Fragen als Antworten. Aber die neue Wissenschaft von der Klimaänderung ist ganz klar umrissen: Sie hat sich von einem Studium des Klimas zu einem studierten Klima gewandelt.

Link: http://noconsensus.wordpress.com/2011/05/08/delta-t/

Autor: Pat Frank

References:

1.         Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A  Representative Lower Limit, Energy & Environment, 2010, 21 (8), 969-989; freely available by the generosity of Multi-Science http://meteo.lcd.lu/globalwarming/Frank/uncertainty_in%20global_average_temperature_2010.pdf.”>here</a>.

2.         Hansen, J. and Sato, M., GISS Surface Temperature Analysis, Goddard Institute for Space Studies, NASA, http://data.giss.nasa.gov/gistemp/graphs/, Last accessed on: 2 April 2011.

3.         Jones, P.D., Osborn, T.J., Briffa, K.R. and Parker, D.E., Global Monthly and Annual Temperature Anomalies (degrees C), 1856-2004 (Relative to the 1961-1990 Mean), CRU, University of East Anglia, and Hadley Centre for Climate Prediction and Research, http://cdiac.ornl.gov/ftp/trends/temp/jonescru/global.txt, Last accessed on: 27 November 2010.

4.         Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.

5.         Hansen, J. and Lebedeff, S., Global Surface Air Temperatures: Update through 1987, Geophys. Res. Lett., 1988, 15 (4), 323-326.

6.         Hansen, J., Ruedy, R., Sato, M. and Reynolds, R., Global surface air temperature in 1995: Return to pre-Pinatubo level, Geophys. Res. Lett., 1996, 23 (13), 1665-1668.

7.         Hansen, J., Ruedy, R., Glascoe, J. and M. Sato, M., GISS analysis of surface temperature change, J. Geophys. Res., 1999, 104 (D24), 30997–31022.

8.         Parker, D.E., Jones, P.D., Folland, C.K. and Bevan, A., Interdecadal changes of surface temperature since the late nineteenth century, J. Geophys. Res., 1994, 99 (D7), 14373-14399.

9.         Jones, P.D. and Moberg, A., Hemispheric and Large-Scale Surface Air Temperature Variations: An Extensive Revision and an Update to 2001, Journal of Climate, 2003, 16 (2), 206-223.

10.       Hansen, J., Fung, I., Lacis, A., Rind, D., Lebedeff, S., Ruedy, R., Russell, G. and Stone, P., Global Climate Changes as Forecast by Goddard Institute for Space Studies Three?Dimensional Model, J. Geophys. Res., 1988, 93 (D8), 9341-9364.

11.       Ma, L.H., Gleissberg cycle of solar activity over the last 7000 years, New Astronomy, 2009, 14 (1), 1-3.

Übersetzt von Chris Frey für EIKE