An das IPCC: Vergiss das mit den „30 Jahren“

Einige haben darin den Beginn von Machenschaften des IPCC gesehen, den seit 16 Jahren anhaltenden Temperatur-Stillstand auch in Zukunft zu ignorieren. Aber selbst das IPCC muss wissen, dass dies eine Totgeburt ist:

1) Als James Hansen die Angst vor der globalen Erwärmung im Jahre 1988 in den Ring geworfen hat, gab es keine statistisch signifikante Erwärmung während der 30 Jahre zuvor, und der Erwärmungstrend der Jahre 1977 bis 1987 hatte 0,0°C betragen. Auch das IPCC wurden in jenem Jahr ins Leben gerufen.

Quelle: Woodfortrees plot

2) Zur Zeit des 1. IPCC-Zustandsberichtes 1991 (FAR), war der Erwärmungstrend gerade mal 11 Jahre alt.

Quelle: Woodfortrees plot

3) Höchst bedeutsam: der Erdgipfel in Rio im Jahr 1992 übernahm den UNFCCC-Vertrag auf Basis eines 30-jährigen Abkühlungstrends, dem lediglich 12 Jahre mit Erwärmung gefolgt waren. Dieser Vertrag legte dogmatisch fest, dass die „Klimaänderung“ anthropogener Natur war, und verpflichtete über 190 Staaten, die „gefährliche“ Klimaänderung zu bekämpfen.

4) Der jüngste Bericht der WG 1 legt den Schwerpunkt auf den Anstieg des Meeresspiegels und den ozeanischen Wärmegehalt aufgrund von Satellitenbeobachtungen, die erst seit 19 Jahren verfügbar waren, zusammen mit den Werten der ARGO-Bojen für einen Zeitraum kürzer als ein Jahrzehnt. Man entschuldigt sich nicht für die kurzen Zeiträume.

5) Im Jahre 2007 machte der AR 4 großes Gedöns um die Tatsache, dass der Erwärmungstrend der voran gegangenen 15 Jahre größer als 0,2°C pro Dekade gewesen ist. Im Jahre 2013 spielt der AR 5 die Tatsache herunter, dass es während der letzten 15 Jahre überhaupt keine Erwärmung mehr gegeben hat. (Aber der AR 5 nennt 0,05°C pro Dekade ohne die Fehlergrenze von ± 0,14°C zu erwähnen).

6) Falls sich das IPCC auf 30-Jahres-Trends konzentrieren möchte, warum hat es dann nichts zu der Tatsache gesagt, dass der gegenwärtige 30-Jahres-Trend auf 0,174°C pro Dekade gefallen ist, wo doch der Trend von 0,182°C pro Dekade im AR 4 (1992 bis 2006) noch eine so große Rolle gespielt hat? Vor allem, weil die dazwischen liegenden 6 Jahre durch eine Rekord-Zunahme des CO2-Gehaltes gekennzeichnet waren.

7) Dr. Stockers Kritik an kurzzeitigen Trends, die durch die Auswahl des Anfangs- und Endzeitpunktes beeinflusst werden, ignoriert, dass es mit langzeitlichen Trends genauso ist. Er wählte einen Zeitraum von 60 Jahren (1951 bis 2010), um einen Trend von 0,12°C pro Dekade zu erzeugen. Ein Zeitraum von 70 oder 80 Jahren hätte einen deutlich geringeren Trend von 0,07°C gezeigt.

8) Die Wissenschaftler der WG 1 waren sich nicht zu schade, in die SPM des AR 5 die Aussage zu schreiben, dass „die Modelle allgemein nicht den beobachteten Rückgang des Erwärmungstrends während der letzten 10 bis 15 Jahre reproduziert haben“.

Drei Monate später wurde dieser grundlegende Satz in einem geheimen Konklave von Politikern und Bürokraten – nicht von Wissenschaftlern – gestrichen.

9) Dr. Jarraud, Generalsekretär der WMO, hat dem Journalisten David Rose gesagt, dass dessen Frage zum Stillstand „falsch gestellt“ war. Die WMO gibt Schriften mit den besten Ratschlägen für die Klimatologie heraus und sieht sich selbst als die führende Autorität, wenn es um die Messung von Temperaturtrends geht. Der WMO GUIDE TO CLIMATOLOGICAL PRACTICES (3RD EDTN) hat Folgendes über die 30-Jahres-Perioden zu sagen:

Kapitel 4.8.1: Periode der Berechnung: Eine Anzahl von Studien hat ergeben, dass 30 Jahre nicht allgemein optimal zur Bestimmung von Normalwerten sind, die für Vorhersagen verwendet werden. Der optimale Zeitraum für Temperaturen ist oftmals kürzer als 30 Jahre, aber der optimale Zeitraum für Mittelwerte der Niederschlagsmenge ist substantiell größer als 30 Jahre“. Und (auf Seite 102): „Die optimale Länge von Aufzeichnungen für Vorhersagezwecke ist abhängig von Element, Geographie und Langzeittrends. Im Allgemeinen hat die jüngste Periode von 5 bis 10 Jahren Aufzeichnung einen genauso großen Wert für Vorhersagen wie ein Zeitraum von 30 Jahren“.

Vor Veröffentlichung der SPM hat Bloomberg berichtet, dass einige Länder (vor allem Deutschland) den Temperatur-Stillstand komplett ignorieren und so tun wollen, als ob das 20 Jahre alte Paradigma immer noch gültig ist.

Wenige haben erwartet, dass es dazu kommen würde, dass eine stark verringerte beste Schätzung [best estimate] der Sensitivität vorhergesagt werden und dass es zu einem reuevollen Eingeständnis kommen würde, dass natürliche Faktoren unterschätzt worden waren. Die Tatsache, dass die Debatte um diese absurde Falschmeldung über 30-Jahres-Trends mehrere Tage dauerte, ist ein sehr starker Hinweis darauf, wie verzweifelt das Klima-Establishment inzwischen geworden ist.

Link: http://wattsupwiththat.com/2013/09/30/to-the-ipcc-forget-about-30-years/

Übersetzt von Chris Frey EIKE




Vermeidungskosten statt Anpassungskosten – 50:1 sollte jetzt 100:1 betragen

Bild rechts: geringe ECS verdoppelt das Missverhältnis von Kosten und Nutzen [Original: Low ECS doubles the cost: benefit shortfall]

Seit Januar 2012 sind nicht weniger als 19 wissenschaftliche Studien veröffentlicht worden (hier) zur alles entscheidenden Frage der Klimasensitivität: z. B. wie viel Erwärmung würde aus einer Verdoppelung der Treibhausgas-Anteile in der Atmosphäre resultieren? Die jüngste Version der AR 5-Summary schleicht um diesen heißen Brei herum, räumt aber effektiv ein (einfacher ausgedrückt, es vermutet), dass die ‚Gleichgewichts’-Sensitivität (ECS) möglicherweise um 2°C liegt – also etwa 33% niedriger als in den vier Berichten zuvor vermutet.

Aber das bedeutet noch lange nicht, dass die zukünftige Entwicklung nur ein Drittel betragen wird!

Wir wollen die folgenden übertrieben generösen Annahmen machen:

1. Die ECS spiegelt sich unmittelbar in der globalen Mitteltemperatur

2. Die IPCC-Modelle sind in jeder anderen Hinsicht richtig (außer ECS)

3. Der Treibhauseffekt ist arithmetisch anstatt logarithmisch

4. Die atmosphärische CO2-Konzentration wird in 70 Jahren 560 ppm betragen.

5. Der Diskontsatz für Klimabelange liegt weit unterhalb jeder anderen Investitionsrate.

Das CMIP%-Modellensemble projiziert gegenwärtig bis zum Jahr 2085 Temperaturen, die um 3°C über dem Niveau von 1850 liegen. Der NOAA zufolge (dem mittleren der drei Datensätze) war es während der letzten 160 Jahre bereits zu einer Erwärmung von 1,024 ±0.128°C gekommen. Also lautet die offizielle Vorhersage, dass die Temperatur um weitere 1,876°C während der nächsten 70 Jahre zunehmen wird.

Falls man jene CMIP5-Modelle mit dem aktualisierten ECS laufen ließe, würde sich die Projektion für das Jahr 2088 um ein Drittel auf 2°C reduzieren. Davon ziehen wir die bereits eingetretene Erwärmung von 1,024°C ab. Die projizierte Erwärmung während der nächsten 70 Jahre reduziert sich damit auf 0,976°C.

Das ist WENIGER ALS DIE HÄLFTE dessen, was das IPCC zuvor erwartet hat – eine sehr dramatische Reduktion.

Die aktualisierte Projektion zeigt, dass der Erwärmungstrend fast genau der Gleiche wie während der letzten 100 Jahre ist. Während dieser Zeit gab es keinerlei Beschleunigung des Meeresspiegel-Anstiegs, Gletscher- oder Meereis-Rückzüge, mehr Malariafälle oder größere Häufigkeiten von Hurrikanen oder Dürren.

Tatsächlich handelte es sich um ein Temperatur-‚Optimum’. CO2 trug zur ‚grünen Revolution’ bei, die Kindersterblichkeit wurde dezimiert, während Indikatoren wie die Lebenserwartung und Bildung boomten. Die Todesrate durch Extremwetterereignisse hat seit 1920 um 98% abgenommen. Und es gibt noch einen anderen Grund, warum die 50:1-Schätzung eine deutliche Überschätzung ist.

Der gegenwärtige Temperatur-Stillstand seit 16 Jahren zeigt, dass die Zeit des Temperatur-Optimums jetzt vorüber sein könnte. Falls das so wäre und die Welt ein Crash-Programm zur Reduktion von Treibhausgasen auflegen würde, würden wir vermutlich während des 21. Jahrhunderts einen Abkühlungseffekt erzeugen. Würde das die Vorteile auch nur im Geringsten zunehmen lassen? Oder schneiden wir uns dabei nur ins eigene Fleisch?

Vielleicht wird der AR 5 der WG 3 (fällig im März 2014) dieses Szenario ansprechen. Das IPCC sagt, es ziehe alle möglichen Zukünfte in Betracht, ohne irgendeine davon mit einer Wahrscheinlichkeit zu belegen.

Jetzt aber zurück zu den oben gemachten heroischen Hypothesen:

1. Die ECS ist die theoretische Reaktion der Temperatur, die sich noch lange nach den Emissionen fortsetzt – hunderte Jahre lang in die Zukunft. Die kurzfristige Auswirkung einer Treibhausgas-Verdoppelung liegt bei nur 1,2°C – 40% weniger als die ECS.

2. Die Modelle CMIP5 und CMIP3 lagen tatsächlich um 100% falsch während der letzten 20 Jahre. Die ECS ist mit Sicherheit nicht der einzige Fehler.

3. Der Treibhauseffekt ist logarithmisch, also gab es bereits (bei 400 ppm) mehr als die Hälfte an Verdoppelung.

4. Die IPCC-Szenarien ignorieren Änderungen der Technologie, den Schiefergas-Boom usw. und sind schon lange überholt.

5. Das 50:1-Projekt basiert konservativ auf dem Stern-Bericht, dem zufolge die Klima-Abschwächung eindeutig unterschiedlich ist zu Investitionen in die Gesundheitsvorsorge, Bildung, in Krankheiten und Armutsbekämpfung, Anpassung an das Klima usw. Dieses Credo basiert auf einer obskuren moralischen Philosophie, dem nur wenige Ökonomen folgen geschweige denn sie übernehmen können.

Und schließlich ist der größte Einfluss nehmende Faktor in all den ökonomischen Modellen die Geschwindigkeit der Änderung, nicht nur die Größe. Die Ergebnisse des AR 4 zeigten eine so rasche Änderung der Rate, dass die meisten Möglichkeiten der Spezies (einschließlich der Menschen) sich anzupassen ausgeschlossen sind. Mit dem langen Stillstand und der neuen geringen Sensitivität ist dieser Fall komfortabel erledigt.

Also, wenn wir die aktualisierte Wissenschaft und normale Ökonomie einer Kosten-Nutzen-Analyse unterziehen würden, könnte sich das Verhältnis 50:1 leicht auf 100:1 verändern.

Link: http://wattsupwiththat.com/2013/09/18/501-should-now-be-1001/

Übersetzt von Chris Frey EIKE




Kann das IPCC revolutionäre Wissenschaft durchführen?

Die SPM-Ausgabe, die den Regierungen am 2. August übermittelt worden ist, kondensiert auf 22 Seiten den Inhalt der 14 Kapitel im AR 5, in denen wissenschaftliche Studien zusammengefasst werden, die zwischen 2006 und dem 15. März 2013 veröffentlicht worden sind.

Diese SPM ist (oder könnte es sein) ein Dokument von welterschütternder Wichtigkeit. Wie Bloomberg sagt: „Sie ist dazu gedacht, von Ministern herangezogen zu werden, die bis 2015 einen globalen Vertrag zum Kampf gegen den Klimawandel aushandeln sollen“.

Der Zeitrahmen für den globalen Vertrag wurde auf der Doha-COP verschoben, weil Entwicklungsländer (vor allem China und Indien) den Eindruck hatten, dass die SPM 2013 eine unverzichtbare Grundlage der Verhandlungen sein sollte. Regierungen brauchen eine autoritative, aktualisierte Zustandsbeschreibung sowohl des Ausmaßes als auch der Gründe der Bedrohung durch den Klimawandel, und zwar jetzt und in Zukunft.

Aber die SPM wurde eingerahmt von momentanen Klimaänderungs-Ereignissen, die nach Redaktionsschluss im März aufgetreten waren – und selbst noch, nachdem die Fassung in Umlauf gebracht worden war.

Klimasensitivität

Das Thema Ausmaß der Erwärmung” konzentriert sich immer mehr auf die Frage, wie sensitiv der Planet auf die zunehmende CO2-Konzentration reagiert. Die Gleichgewichts-Klimasensitivität [equilibrium climate sensitivity (ECS)] wurde im Jahre 1979 von Charney grob geschätzt mit 3,0 ±1,5 angegeben, und diese Bandbreite wurde mehr oder weniger in allen vier IPCC-Zustandsberichten zuvor beibehalten.

Während des Jahres 2012 haben viele Forschergruppen darauf hingewiesen, dass neueste Daten und moderne Diagnose-Methoden jetzt gezeigt haben dass die 30 Jahre alte Schätzung von 3°C erheblich übertrieben war. Begutachtete Studien waren unter anderen:

● Ring et al.: Schätzungen der Klimasensitivität liegen zwischen 1,5°C und 2°C.

● Van Hateren: Die Sensitivität im Maßstab eines Jahrtausends beträgt 2,0°C ±0,3°C

● Aldrin et al.: Das 90%-Intervall liegt zwischen 1,2°C und 3,5°C mit einem Mittelwert bei 2,0°C.

Dies führte natürlich zu großen Meinungsverschiedenheiten und wurde zur wesentlichen Herausforderung, der sich die Leitautoren der WG1 gegenüber sahen. Obwohl wir noch nicht wissen, wie sie am Ende reagiert haben, zeigt eine durchgesickerte Kopie der SPM-Ausgabe, dass sie im Wesentlichen der langzeitlichen Orthodoxie verhaftet blieben.

Im Januar 2013 berichteten britische Medien, dass das UK Met. Office UKMO eine 20-jährige Pause der globalen Erwärmung bis zum Jahr 2017 projiziert hatte. Dieser ‚Stillstand’ war von den Klimamodellen nicht simuliert worden. Im Februar musste der IPCC-Vorsitzende Pachauri einräumen, dass der Temperaturverlauf schon seit 17 Jahren flach verlaufen war. Ihm zufolge wäre ein Stillstand von 30 Jahren erforderlich, um den bisherigen Konsens zu verwerfen.

Sowohl das Thema „Grund” als auch „Ausmaß” hängen stark von der Validität der Klima-Simulationen durch das derzeitige Coupled Model Intercomparison Project (CMIP5) ab, wie auch alle anderen IPCC-Projektionen der zukünftigen planetaren Temperaturen und deren Auswirkungen. Seriöse wissenschaftliche Zweifel sowohl an den mit ECS zusammen hängenden Inputs als auch an der Genauigkeit der Temperaturberechnungen wären fatal für die Glaubwürdigkeit des AR5.

Nach Redaktionsschluss für WG1-Studien haben nachfolgende Studien aus diesem Jahr 2013 starke Bedenken hinsichtlich der übertriebenen Klimasensitivität wiederbelebt:

● Otto et al.: Die beste Schätzung der Sensitivität liegt um 30% unter dem CMIP5-Multimodell-Mittelwert.

● Forster et al.: Die Analyse von CMIP5 zeigt, dass 2/3 über der ‚Wahrscheinlichkeits’-Bandbreite von Otto liegen.

● Masters: Mittlere Schätzung von ECS beträgt 1,98°C.

● Lewis: verbesserte Methoden zeigen einen Wert um 1,6 K [show the mode and median to be 1.6K].

In einer Anhörung vor dem Kongress zitierte Judith Curry die Hawkins-Graphik, die beobachtete Trends unter 90% der CMIP5-Projektionen zeigt, und weist darauf hin, dass die Erwärmung bis zur Mitte des Jahrhunderts nicht wieder einsetzen könnte. James Hansen ordnet den ‚Stillstand’ einer Kombination natürlicher Variabilität und niedrigerer Sensitivität zu, sagt aber vorher, dass „die Temperatur während der nächsten paar Jahre mit der nächsten El Nino-Phase wieder signifikant steigen werde“.

Temperatur-Stillstand

Der Temperatur-Stillstand war seit vielen Jahren aus den Daten offensichtlich, aber der Standesdünkel der Klimawissenschaft hielt es nicht für nötig, dies zu erwähnen – bis zur öffentlichen Enthüllung Anfang 2013. Einmal ausgesprochen bedurfte es einer Erklärung – und dann wurde klar, dass es einen großen Mangel an Forschungen hierzu gab. Bis die Forscher in der Lage waren, diese Lücke zu füllen, war die SPM-Ausgabe bereits verteilt worden.

Im August 2013 erschien eine ganze Flut sehr einflussreicher Studien:

● von Storch & Zorita [1] fanden, dass die beobachteten Temperaturen von 1998 bis 2012 nicht konsistent waren mit 23 getesteten CMIP3 und CMIP5-Modellen, selbst auf dem 2%-Vertrauensniveau. Die Inkonsistenz nahm rapide zu mit der Trendlänge, und ein 20-Jahres-Trend (d. h. bis zum Jahr 2017) würde außerhalb des Ensembles aller vom Modell simulierten Trends liegen.

● von Storch & Zorita (die gleiche Studie) folgern, dass die ‚natürliche’ Variabilität und/oder externe Antriebe möglicherweise die anthropogene Erwärmung während des Stillstands unterbrochen haben. Eine überschätzte Sensitivität kann ebenfalls einen Beitrag dazu geleistet haben.

● Tung & Zhou [2] berichteten, dass „die zugrunde liegende anthropogene Gesamt-Erwärmungsrate seit 1910 konstant 0,07 bis 0,08°C pro Jahrzehnt betragen habe, mit überlagerten, mit der AMO zusammen hängenden Auf- und Abwärtsbewegungen…“. Die stark gestiegenen CO2-Konzentrationen der letzten Jahrzehnte haben nicht dazu geführt, dass sich die Erwärmung nicht wie von den Modellen vorhergesagt beschleunigt hat.

● Yu Kosaka & Shang-Ping Zie [3] konnten plausibel zeigen, dass die Klimamodelle die natürliche Variation erheblich unterschätzt haben. La Nina-Kaltphasen im Ostpazifik während des 21. Jahrhunderts (seit die PDO negativ geworden ist) haben die projizierte Treibhaus Erwärmung bezwungen. Der Erwärmungstrend von 0,68°C während der Jahre von 1975 bis 1998 (als die PDO positiv war), würde sich aus 0,4°C aus natürlichen und lediglich 0,28°C aus anthropogenen Gründen zusammensetzen [4].

● Katz et al. [5] sagen, dass die vom IPVV verwendeten kritischen Unsicherheits-Messungen „deutlich über ein Jahrzehnt überholt“ sind. Moderne statistische Verfahren könnten die Zustandsbeschreibungen „dramatisch“ verbessern.

● Fyfe, Gillet & Zwiers [6] konzentrierten sich auf die außerordentliche Lücke zwischen den Temperatursimulationen von 37 CMIP5-Modellen und den beobachteten Daten. Infolge einer ‚Kombination von Fehlern’ haben die Modelle die Erwärmung während der vergangenen 20 Jahre zu 100% und während der letzten 15 Jahre um 400% überschätzt.

Die Revolution kommt…

Diese neuen Studien zerschlagen die IPCC-Orthodoxie, dass die gegenwärtigen und zukünftigen globalen Temperaturen hauptsächlich durch Treibhausgas-Emissionen getrieben und später in diesem Jahrhundert ein gefährliches Niveau erreichen werden. Andererseits sind alle älteren Studien völlig überrumpelt worden durch ihr offensichtliches Scheitern, die gegenwärtigen Daten (den Stillstand) einzubeziehen.

Im IPCC-Bericht aus dem Jahr 2001 wurde besänftigt [7]: Bei der Klimaforschung und –modellierung haben wir es mit einem gekoppelten, nicht linearen, chaotischen System zu tun, weshalb eine langzeitliche Vorhersage des künftigen Klimas nicht möglich ist. Was wir noch am ehesten ereichten können, ist die Vorhersage der Wahrscheinlichkeits-Verteilung möglicher zukünftiger Zustände des Systems durch die Erzeugung von Ensembles von Modell-Lösungen. Dies reduziert die Klimaänderung auf das Beurteilungsvermögen signifikanter Unterschiede in den Statistiken solcher Ensembles.

Die Hypothese der „gefährlichen anthropogenen globalen Erwärmung” DAGW basiert auf einem eindeutigen Unterschied zwischen den CMIP5-Modellläufen mit natürlichen plus anthropogenen Antrieben im Vergleich zu natürlichen Antrieben allein. Dieser Unterschied verschwindet, wenn die Ensembles so adjustiert werden, dass sie gegenwärtige empirische Daten reflektieren. Es ist ziemlich wahrscheinlich, dass die natürliche Variabilität (einschließlich natürlicher Antriebe) die anthropogenen Effekte immer marginalisiert hat und dass dies auch in der gesamten Zukunft so ist.

In seinem Aufsatz aus dem Jahr 1962 mit dem Titel The Structure of Scientific Revolutions hat Thomas Kuhn überzeugend dargelegt, dass sich Wissenschaft nicht durch die lineare Akkumulation von Wissen auszeichnet, sondern periodische Umwälzungen oder ‚Paradigma-Änderungen’ durchläuft.

Nach Kuhns Ansicht wird es während langer Perioden normaler Wissenschaft keine Beweise geben, die inkompatibel mit dem gerade herrschenden Paradigma sind. Wenn sich jedoch Anomalien häufen, erreicht die Wissenschaft vielleicht eine Krise, die die notwendige Akzeptanz eines neuen Paradigmas befeuert, in dessen Rahmen sowohl die alten als auch die neuen Ergebnisse eingepasst werden. Kuhn nennt das den umgestaltenden Punkt; revolutionäre Wissenschaft.

Das Jahr 2013 führt in eine seit langem verspätete Revolution der Klimawissenschaft. Ein neues Paradigma wird gefordert, das anerkennt, dass AGW nichts weiter ist als eine nicht-deterministische Komponente in einem ‚nicht linearen, chaotischen System’.

Umgang mit der Paradigma-Änderung

All dies hinterlässt das IPCC in einer schlimmen Fessel hinsichtlich seines Treffens im September. Sollte es:

● eine SPM einstampfen, die von den Ereignissen überrollt worden ist?

● einen wesentlichen Vorbehalt hinsichtlich des Status’ im März 2013 hinzufügen und einen Anhang in Aussicht stellen, in dem nach Redaktionsschluss erschienene Studien behandelt werden, oder

● sollte es das Treffen verschieben, um ein Crash-Programm abzufassen, mit dem sowohl der Technical Report der WG1 als auch die daraus resultierende SPM umgeschrieben werden kann?

‚Business as usual’ ist die schlechteste Option. Angesichts der harten internationalen Verhandlungen, die auf diesem Dokument aufbauen, ist es viel besser, das Erscheinen dieses Dokuments zu verschieben, als dass es falsch im Umlauf ist – oder unhaltbar. Keine Regierung kann weit reichende politische Entscheidungen treffen, die auf einem Bericht basieren, von dem man weithin glaubt, dass er schon vor seinem Erscheinen obsolet ist.

Ein Zwischenbericht würde ein ähnliches Glaubwürdigkeits-Defizit aufweisen. Schon jetzt [8] haben die Umweltministerien in den USA und Europa formell mehr Klarheit über den „Erwärmungs-Stillstand“ angefordert und das IPCC aufgefordert, die gesamte Information in die SPM zu stecken.

„Die jüngste Verlangsamung des Temperaturtrends ist gegenwärtig ein Schlüsselthema, und doch ist es nicht in geeigneter Weise in der SPM angesprochen worden”, sagte die EU.

Obwohl es in der Ausgabe heißt, dass der Trend nachgelassen hat, sind die Implikationen unklar – was die USA zu dem Kommentar veranlasst hat: „es steht eine Reihe von Zahlen im Raum ohne konkrete Schlussfolgerung“.

Viele Staaten, einschließlich China, trachten nach Informationen über die Wärmeaufnahme in den Ozeanen oder andere natürliche Veränderungen, die die Daten zur Klimaänderung unterdrückt haben.

In der SPM-Ausgabe fehlt offensichtlich jeder Hinweis darauf [9], dass die 30-Jahres-Erwärmungstrends in jedem Jahr abgenommen haben seit dem Spitzenwert im Jahr 2003. Oder darauf, dass die jüngste 10-Jahres-Periode (2003 bis 2012) die kälteste Dekade seit Beginn von Satellitenaufzeichnungen im Jahr 1979 ist [10].

WG1 ist schon lange dafür bekannt, unbequeme Forschungsergebnisse zu ignorieren mit der Begründung, dass die Ergebnisse ‚isoliert’ sind oder in obskuren Journalen veröffentlicht worden sind.. Das kann kaum für die Studien im August gelten. Alle mit einer Ausnahme waren von Nature Climate Change akzeptiert worden. Viele der Autoren haben aktiv Beiträge zu den IPCC-Berichten geliefert, wobei Zwiers derzeit ein Vize-Vorsitzender der WG1 ist und Fyfe ein Herausgeber von Begutachtungen.

Revolutionäre Klimawissenschaft ist im Gange. Die Frage ist jetzt, ob das IPCC dieser Herausforderung gewachsen ist.

[1] http://www.academia.edu/4210419/Can_climate_models_explain_the_recent_stagnation_in_global_warming

[2] http://www.pnas.org/content/early/2013/01/22/1212471110.short

[3] http://www.nature.com/nature/journal/vaop/ncurrent/full/nature12534.html

[4] See http://judithcurry.com/2013/08/28/pause-tied-to-equatorial-pacific-surface-cooling

[5] http://www.nature.com/nclimate/journal/v3/n9/full/nclimate1980.html?WT.ec_id=NCLIMATE-201309

[6] http://www.nature.com/nclimate/journal/v3/n9/full/nclimate1972.html?WT.ec_id=NCLIMATE-201309

[7] 14.2.2.2 WG1 TAR IPCC

[8] http://www.bloomberg.com/news/2013-08-29/global-warming-slowdown-data-sought-in-un-climate-report.html

[9] http://www.quadrant.org.au/blogs/doomed-planet/2013/08/if-warmists-would-only-tell-the-truth

[10] http://www.skepticalscience.com/trend.php

Link: http://wattsupwiththat.com/2013/08/31/can-the-ipcc-do-revolutionary-science/

Übersetzt von Chris Frey EIKE




Die Wissenschaft ist sich einig: Keine Erwärmung

Der IPCC-Bericht aus dem Jahr 2007 kam und ging – ohne zu merken oder zumindest zuzugeben, dass es keine globale Erwärmung mehr gab. Im Gegenteil, „es ist schlimmer als wir gedacht haben“ war der einhellige Schrei im Vorfeld von COP 15 in Kopenhagen.
Aber diese Verdrehung der Tatsachen konnte nicht ewig weitergehen. Vor drei Jahren hat Phil Jones von der CRU in einem Interview bei der BBC zugegeben, dass es seit 1995 keine statistisch signifikante Erwärmung mehr gegeben hatte.
Das Ganze gewann an Fahrt, als die Modelle des Met. Office in UK am Heiligen Abend 2012 verstohlen einen 20-jährigen Stillstand projiziert haben und James Hansen – oftmals als der Vater der globalen Erwärmung bezeichnet – eine „Pause“ von einem Jahrzehnt oder mehr bestätigte. Jetzt ist das gesamte Kartenhaus in sich zusammengefallen, hat doch auch Rajendra Pachauri, offizieller Sprecher des IPCC, bestätigt, dass die globale Temperatur seit 17 Jahren auf einem Plateau lag.
Wird die globale Erwärmung jemals wieder einsetzen? Das weiß niemand.
Irgendwann in der Zukunft wird der lange flache Trend natürlich durch einen neuen Trend ersetzt, aber dessen mögliche Anzeichen und Neigung sind unerforschlich. Die bislang nicht identifizierte Kombination von Kräften, die den gegenwärtigen Stillstand treiben, kann ihn in jede Richtung lenken.
Einige Betonköpfe machen geltend, dass ein 16 bis 17 Jahre dauerndes Plateau ein zu kurzer Zeitraum ist, um wirklich einen flachen Trend zu beschreiben. Aber Taten sind lauter als Worte, und in der Vergangenheit wurden schon wesentlich kürzere Zeiträume als ausschlaggebend angesehen.
Die Rio-Konferenz im Jahre 1992 gründete einen wichtigen internationalen Vertrag hinsichtlich eines Erwärmungstrends, der 12 Jahre alt war. Die von Hansen losgetretene DAGW-Kampagne erfolgte wenig mehr als ein Jahrzehnt, nachdem Wissenschaftler den Beginn einer neuen Eiszeit befürchtet hatten.
Es wird weithin anerkannt, dass 15 oder mehr Jahre geeignet sind, einen Trend zu bestimmen:
● Im Jahre 2008 berichtete die NOAA, dass 15 Jahre ohne Trend die erwartete Erwärmungsrate widerlegen würden.
● Am 7. Mai 2009 hat ein führender Klimamodellierer seinen Kollegen in einer E-Mail geschrieben: „Der fehlende Aufwärtstrend muss 15 Jahre dauern, bevor wir uns Gedanken machen“.
● Im Jahre 2011 beteuerte Dr Ben Santer, dass eine ‚Auszeit’ von 17 Jahren erforderlich sei, um den ‚menschlichen Fußabdruck’ zu negieren, der in den Klimamodellen zutage tritt.
● Gavin Schmidt auf RealClimate.com: „Man kann keinen Kurzfrist-Zeitraum heranziehen (15 Jahre oder weniger), um zu zeigen, dass die globale Erwärmung aufgehört hat oder nicht“.
Wenden wir uns dem besten Praxis-Manual der Klimatologie zu, dem „Guide to Climatological Practices“ (3. Ausgabe), veröffentlicht von der Weltwetterorganisation WMO im Jahre 2011. Beim Punkt 4.8.1 unter der Überschrift „Period of Calculation“ heißt es:
 „Eine Anzahl von Studien hat gezeigt, dass 30 Jahre nicht allgemein der optimale Mittelungszeitraum sind für Mittelwerte, die für die Vorhersage verwendet werden. Die optimale Periode für Temperaturen ist oft substantiell kürzer als 30 Jahre, aber der optimale Zeitraum hinsichtlich Niederschlag ist oft substantiell länger als 30 Jahre… Allgemein hat die jüngste 5 bis 10-jährige Zeitperiode den gleichen Vorhersagewert wie ein 30-jähriger Zeitraum“.
Folgt man Pachauris Zugeständnis, können wir die Bildung einer Abwehrspirale um Wörter wie „Stillstand“, „Rückbildung“, „Pause“, „Auszeit“, „angehalten“ und „unterbrochen“ erwarten.
Die Verwendung des Ausdrucks “Pause” ist ein glatter Missbrauch der Sprache. Er beruht auf einer nicht bewiesenen Prophezeihung, dass der verblichene Trend eines Tages wieder einsetzen wird. Das ist nichts weiter als Freud’sches Wunschdenken.
Es gab drei klare Erwärmungsperioden seit Beginn instrumenteller Aufzeichnungen – 1860 bis 1880, 1912 bis 1940 und 1978 bis 1996 – aber niemand behauptet, dass irgendwelche davon durch eine „Pause“ miteinander verbunden sind. Einige Historiker argumentieren, dass die beiden Weltkriege ein einziges Ereignis waren mit einer 21-jährigen ‚Unterbrechung’ dazwischen, aber nur Wenige finden das überzeugend.
Die statistische Tatsache ist, dass der Erwärmungstrend Ende des 20. Jahrhunderts Geschichte ist. Es ist vorbei. Es ist gestern. Wie der unsterbliche „Dead Parrot” sketch von Monthy Python so wunderbar illustriert, gibt es einen riesigen Graben zwischen „pausieren“ und „tot“.
Video nicht mehr verfügbar
Hon Barry Brill OBE is a New Zealand barrister and solicitor. He is a former Minister of Science & Technology, and Minister of Energy, and is currently chairman of the New Zealand Climate Science Coalition
Link: http://www.quadrant.org.au/blogs/doomed-planet/2013/03/the-science-is-settled-no-warming
Übersetzt von Chris Frey EIKE