Bild rechts: Autor J. Scott Armstrong
Die Computermodelle, auf die das IPCC sich verlässt, sind komplizierte Repräsentationen der Hypothese, dass menschliche CO2-Emissionen jetzt der primäre Faktor sind, der die Klimaänderung antreibt. Die Modellierer haben korrekt festgestellt, dass sie Szenarien erzeugen. Szenarien sind Geschichten, die aus einer Sammlung verschiedener Annahmen konstruiert worden sind. Gut konstruierte Szenarien können sehr überzeugend sein, so überzeugend wie ein gut geschriebener Roman oder ein gut gemachter Spielfilm. Allerdings sind Szenarien weder Vorhersagen noch das Produkt validierter Vorhersageverfahren.
Den IPCC-Modellierern waren offensichtlich die vielen Jahrzehnte der Erforschung von Vorhersagemethoden nicht bewusst. Zusammen mit Dr. Kesten Green habe ich ein Audit der Verfahren durchgeführt, die zur Erstellung der IPCC-Szenarien geführt haben. Wir fanden heraus, dass das IPCC 72 von 89 relevanten Prinzipien wissenschaftlicher Vorhersagen verletzt hat. (Die Prinzipien sind hier frei im Internet verfügbar). Würden Sie eine Flugreise antreten, wenn sie Zeuge der Unterhaltung zwischen dem Bodenpersonal wären, aus der hervorgeht, dass der Pilot 80 Prozent der Sicherheitsvorschriften vor dem Flug verletzt hat?
Angesichts der kostspieligen politischen Maßnahmen, die im Namen der Verhinderung einer vom Menschen verursachten globalen Erwärmung vorgeschlagen und eingeführt worden sind, sind wir erstaunt darüber, dass es nur eine einzige veröffentlichte und wissenschaftlich begutachtete Studie gibt, die behauptet, wissenschaftliche Langfrist-Vorhersagen der globalen mittleren Temperaturen zur Verfügung zu stellen. Die Studie: Der Artikel von Green, Armstrong und Soon 2009 im International Journal of Forecasting.
In der Studie wurden der Wissensstand und die verfügbaren empirischen Daten untersucht, um geeignete, auf Beweisen basierende Verfahren für langfristige Vorhersagen der globalen Mitteltemperaturen auszuwählen. Angesichts der Komplexität und der Ungewissheit der Lage kamen wir zu dem Ergebnis, dass das „Kein-Trend“-Modell die am meisten mit den Vorhersageprinzipien konsistente Methode ist.
Wir testeten das Kein-Trend-Modell mit den gleichen Daten, die auch das IPCC verwendet hat. Wir erzeugten jährliche Vorhersagen für Zeiträume von einem bis 100 Jahren im Voraus. Startpunkt war das Jahr 1851, von dem aus wir uns Jahr für Jahr vorwärts bewegt haben bis zum Jahr 1975, also dem Jahr, bevor der gegenwärtige Erwärmungs-Alarm ausgelöst worden ist. (Es ist auch das Jahr, in dem Newsweek und andere Magazine berichtet hatten, dass die Wissenschaftler „fast einstimmig“ der Ansicht seien, dass die Erde in eine neue Periode der globalen Abkühlung eintreten werde). Wir führten die gleiche Analyse für das IPCC-Szenario durch, bei dem die Temperaturen mit einer Rate von 0,03°C pro Jahr als Folge der zunehmenden menschlichen CO2-Emissionen steigen. Dieses Verfahren ergab 7550 Vorhersagen aus jeder Methode.
Alles in Allem hatte der Fehler der Kein-Trend-Vorhersage nur ein Siebentel der IPCC-Projektion betragen. Sie waren genauso akkurat oder noch akkurater als die IPCC-Temperaturen für alle Vorhersagezeiträume. Noch wichtiger, die relative Akkuratesse der Kein-Trend-Vorhersagen nahm mit der Länge des Vorhersagezeitraumes zu. Zum Beispiel betrug der Fehler der Kein-Trend-Vorhersage nur ein Zwölftel der IPCC-Szenarien für Vorhersagen 91 bis 100 Jahre im Voraus.
Unsere weiteren Forschungen überprüften eingehend andere Vorhersagemethoden, verwendeten mehr und bessere Daten und erweiterten unsere Validerungstests. Die Ergebnisse unterstreichen die Schlussfolgerung, dass es keine wissenschaftlichen Vorhersagen gibt, die eine gefährliche globale Erwärmung prognostizieren.
Auf einen auf- oder abwärts gerichteten Trend der Temperaturen gibt es hinsichtlich wissenschaftlicher Vorhersagen keinerlei Hinweise. Ohne Stützung durch wissenschaftliche Vorhersagen ist der Alarm der globalen Erwärmung ein falscher Alarm und sollte ignoriert werden.
Regierungsprogramme, Subventionen, Steuern und Vorschriften als Reaktion auf den Alarm der globalen Erwärmung führen dazu, dass wertvolle Ressourcen verschwendet werden. Sie führen zu inflationären Energiepreisen, abnehmender internationaler Wettbewerbsfähigkeit, dem Verschwinden von Industrien und Arbeitsplätzen und bedrohen Gesundheit und Wohlstand.
Klimapolitik erfordert wissenschaftliche Vorhersagen und keine von Computern erzeugten Storys darüber, was dem Glauben mancher Wissenschaftler zufolge geschehen könnte.
Professor J. Scott Armstrong ist ein Mitbegründer der zwei wichtigsten Journale zu Vorhersagemethoden, Autor von Long-Range Forecasting, Herausgeber des Handbuches Principles of Forecasting und Gründer der Website forecastingprinciples.com. Wenn jemand Vorhersagen haben möchte, ist er genau der Richtige, an den man sich wenden sollte.
Im Jahre 2007 schlug er Al Gore eine Wetter über zehn Jahre vor, dass er eine genauere Vorhersage erstellen könne als jede Vorhersage, die Al Gore ins Spiel bringen könnte. Siehe The Climate Bet, um die jüngsten monatlichen Ergebnisse zu sehen, die bislang eingetreten sein könnten.
Link: http://wmbriggs.com/blog/?p=9681
Übersetzt von Chris Frey EIKE
#4 Martin Landvoigt sagt: „Nur ist die Realität so, wie in 1. beschreiben.“
Herr Landvoigt,
von welchen Input-Variationen die verschiedenen Szenarien in der Realität ausgehen, liest man am bestem im entsprechenden Bericht nach.
Gruß
Hans Jung
#2: Hans Jung sagt:
Natürlich braucht sie Szenarien.
Sie muß nämlich wissen, wie sich die Temperatur unter bestimmten Voraussetzungen (CO2-Emissionen) etwickeln wird. Bzw. wie man diese Voraussetzungen ändern muß, damit der Temeraturanstieg ein bestimmtes Maß nicht überschreitet.
—————-
Da setzt wohl babylonische Sprachverwirrung ein. Ein Szenario stellt eine Variante unter bestimmten Bedingungen her. Die Bedingungen sind entweder explizit genannt, oder implizit enthalten.
Im Grunde will man eine Art Funktion damit darstellen: Bei diesem Input ist jener Output zu erwarten.
Nun gibt es aber ein maximales Missverständnis.
Einige meinen, das Szenario bildet unbekannte Wirkparameter der CO2-Sensitivität ab. Manche Erweitern: Unter bestimmten anderen meteorologischen Rahmenannahmen. Dann hätten wir tatsächlich nur eine Erklärung einer vermeintlichen Wirkung im Ungewissen … was eigentlich weitgehend bedeutungslos wäre, da die wirklichen Zusammenhänge unbekannt seien.
Hans Jung aber meint,das Szenario bezieht sich auf unterschiedliche Politik-Varianten. Also:
Wenn ich eine Klimaschutz-Politik betreibe, dann kommt jenes dabei raus, oder eben in einem anderen Szenario etwas anderes. Und da schwebt dann ein oft beschworenes 2-Grad-Ziel über allem.
Im 2. Fall ist das Szenario de fakto eine Prognose bei unterschiedlichen Handlungsvarianten. Wenn man diese hinreichend zuverlässig gestallten könnte, wären die Szenarien auch tatsächlich von hohem Interesse.
Nur ist die Realität so, wie in 1. beschreiben. Die Klimaentwicklung ist weitgehend unverstanden. Mehrere Ansätze versuchen hier, die Zusammenhänge aufzudecken, aber für ein zuverlässiges Gesamtmodell konnte eigentlich noch gar kein Ansatz überzeugen. Wir fahren nicht auf Sicht, sondern eher im Nebel.
Der CO2-Katastrophismus ist positiv verstanden eher eine Art Vorsicht, dass man nichts irreversibel kaputt machen will, bloß weil man es nicht versteht. Wenn das nicht so entsetzlich teuer wäre und massenhafte negative Auswirkungen hätte, bloß auf den Verdacht hin, könnte man das vielleicht für nachvollziehbar halten.
#1: Ebel sagt:
Szenarien deswegen, weil die Voraussagen von der Entwicklung der CO2-Emission beeinflußt werden – und für diese Entwicklung ist die Politik wesentlich. Die Voraussagen für die künftige Politik sind sehr unsicher.
————–>
Ganz im Gegenteil: Die Politik lässt sich am ehesten prognostizieren. Nur Wetter und Klima macht da wesentlich mehr Schwierigkeiten.
———–
Die Wirkung erhöhter CO2-Konzentrationen ist mindestens schon seit 1906 …
———->
Das entscheidende ist nicht die isolierte Absorptionseigenschaft von CO2, sondern die Wirkungen im gesamten Klimageschehen, einschließlich denkbarer positiver oder negativer Rückkopplungen.
Darum kann nur mit Zusatzannahmen abgeschätzt werden, wie der Faktor (oder ‚Antrieb‘) CO2 wirkt. Wird die Klimasensitivität z.B. mit 0,5 Grad geschätzt, andere Faktoren erweisen sich aber als wesentlich stärker, ist die Bedeutung einer Veränderung von CO2 Anteilen marginal.
„Klimapolitik braucht wissenschaftliche Vorhersagen und keine Szenarien“
Natürlich braucht sie Szenarien.
Sie muß nämlich wissen, wie sich die Temperatur unter bestimmten Voraussetzungen (CO2-Emissionen) etwickeln wird. Bzw. wie man diese Voraussetzungen ändern muß, damit der Temeraturanstieg ein bestimmtes Maß nicht überschreitet.
Gruß
Hans Jung
Szenarien deswegen, weil die Voraussagen von der Entwicklung der CO2-Emission beeinflußt werden – und für diese Entwicklung ist die Politik wesentlich. Die Voraussagen für die künftige Politik sind sehr unsicher.
Die Wirkung erhöhter CO2-Konzentrationen ist mindestens schon seit 1906 (Schwarzschild http://tinyurl.com/schwara ) und 1908 (Ernest Gold http://www.ing-buero-ebel.de/Treib/Gold.pdf ) bekannt, die den Anstieg der Tropopausenhöhe bei mehr CO2 in der Atmosphäre festgestellt haben. Für die letzten 42 Jahre (1965 – 2008) wird dieser Sachverhalt trotz großer Schwankungen eindeutig bestätigt ( http://tinyurl.com/hohepeu ).
Da müßten doch bei denjenigen, die für die Troposphäre immer den Einfluß des Spurengases CO2 die Alarmglocken läuten, denn bei einer dickeren Troposphäre (= dünnere Stratosphäre oder höherer Tropopause) steigt wegen des annähernd konstanten Temperaturgradienten (kaum Einfluß der Spurengase) die Differenz zwischen Oberflächen- und Tropopausentemperatur. Eine höhere Differenz bei konstanter Abstrahlung (weil gleich der absorbierten Solarenergie) verlangt wegen der unterschiedlichn Absorptionslängen bei unterschiedlichen Wellenlängen ein Ansteigen der Oberflächentemperatur und ein Absinken der Tropopausentemperatur.
Kurzfristig braucht die Oberflächentemperatur diesem Trend nicht zu folgen, weil sich kurzfristig noch kein Gleichgewichtszustand eingestellt hat.
MfG