„Bestätigungen sollten nur dann etwas zählen, wenn sie das Ergebnis riskanter Prognosen sind, das heißt, unabhängig von der zur Diskussion stehenden Theorie hätten wir ein Ereignis erwarten sollen, das mit der Theorie nicht kompatibel ist – ein Ereignis, dass die Theorie widerlegt hätte“ – Karl Popper in Conjectures and Refutations: The Growth of Scientific Knowledge (1963).
Daniel Davies ist ein in London ansässiger Analyst und Börsenmakler. Er schreibt auf seinem Blog und hier. Hier erklärt er, warum er in der Lage war, das desaströse Ergebnis unserer Invasion im Irak genau vorherzusagen (was sich vollkommen von den auf Theorie basierenden Vorhersagen unterschied). Seine Einsichten lassen sich auf viele Dinge in Politik und Business anwenden – und auch auf Klimawandel. Ein Auszug:
Gute Gedanken brauchen nicht viele Lügen, um öffentliche Akzeptanz zu erreichen.
Zum ersten Mal wurde ich in einem Kurs über das Rechnungswesen darauf aufmerksam.
Vorhersagen von Schwindlern sind wertlos.
Ein schlechter Fall nach dem anderen belegen diesen Punkt. … Falls es irgendwelche Zweifel gibt hinsichtlich der Integrität eines Prognostikers, kann man dessen Vorhersagen in keiner Weise verwenden; nicht einmal als „Ausgangspunkt“.
Die entscheidende Bedeutung der Überprüfung
Bei Brealey & Myers on Corporate Finance gibt es hierzu einen Abschnitt, in dem sie unerfahrene Studenten daran erinnern, dass jeder diese Lektion auf die harte Weise gelernt zu haben scheint.
Im Grunde wurde diese Erkenntnis wieder und immer wieder bestätigt. Unternehmen, die vollendete Projekte nicht überprüfen, um zu sehen, wie genau die ursprünglichen Projektionen waren, tendieren dazu, genau die Vorhersagen und Projekte bekommen, die sie verdienen. Unternehmen mit einer Kultur, in der die Abgabe unehrlicher Vorhersagen keine Konsequenzen hat, bekommen die Projekte, die sie verdienen. Unternehmen, die Management-Teams Blankoschecks ausstellen, die sich durch Scheitern und Verlogenheit auszeichnen, bekommen was sie verdienen.
Hier gibt es zwei deutliche Erkenntnisse. Die erste betrifft unsere persönliche Argumentation. Die zweite betrifft die Informationsverbreitungs-Systeme durch Organisationen. Beide sind wesentliche Mängel, die moderne Propaganda so effektiv machen.
Aus Stephen Coveys “The Speed of Trust: The One Thing That Changes Everything“.
1) Die Bedeutung von Glaubwürdigkeit
„Und doch denkt jeder in unserer Welt daran, die Menschheit zu ändern, aber niemand denkt daran, sich selbst zu ändern“ – Leo Tolstoi, „Three Methods Of Reform” (1900).
Sowohl die Rechte als auch die Linke in Amerika haben die Erfahrung gemacht, dass ihren Jüngern Skeptizismus fehlt. Sie glauben nur zu gerne alles, sofern es zu ihrer Sicht der Welt passt – Stories, die ideologisch gefällig sind mit klarer Rollenverteilung für die Guten und die Bösen. Jede Seite sieht dieses Verhalten bei ihren Feinden, aber nicht bei sich selbst (d. h., Faktencheck ist zu einem Partisanen-Spiel verkommen). Zum Beispiel dokumentieren zahlreiche Beiträge bei Crooked Timber das Leugnen der Realität seitens der Rechten. Ist irgendwo die gleiche Fehlinterpretation der Klimawissenschaft seitens der Linken dokumentiert?
Hier folgen ein paar Beispiele, wie Klimaaktivisten bewiesene Fakten der Klimawissenschaft übertreiben, fehlinterpretieren oder rundweg leugnen:
● Ein kunstvoll ungenauer Artikel im Guardian über Klimawandel-Flüchtlinge (hier)
● Eine kunstvoll irreführende Story über globale Erwärmung in Alaska, welches einen riesigen Hype bei Twitter auslöste (hier)
● Der Nordpol ist jetzt ein See! Seien Sie sehr ängstlich! (hier)
● Kunstvoll in die Irre führende Artikel über das Abschmelzen des größten Gletschers im Yosemite Nationalpark (hier)
● Kunstvolle Propaganda im New Yorker über „Den Untergang von Miami“ (hier)
● Kunstvolle Propaganda im Mother Jones über Eisbären. (hier)
● Über „Vorhersagen von Schwindlern“: Fabrizieren von Klima-Albträumen: Der Missbrauch der Wissenschaft zur Erzeugung von Schreckens-Vorhersagen (hier).
Die vielleicht abscheulichste Propaganda der Linken ist ihr Leugnen dessen, was Klimawissenschaftler als den „Stillstand“ der seit zwei Jahrhunderten andauernden globalen Erwärmung bezeichnen (von denen wir seit 1950 die hauptsächliche Ursache sind laut IPCC-Bericht AR 5). Haufenweise Studien (siehe Links und Abstracts) beschreiben den Fortschritt der Wissenschaftler bzgl. dieses Phänomens, die Analysen der möglichen Gründe und Vorhersagen, wann er zu Ende gehen wird (hier). Die Linken arbeiten emsig an der Zementierung ihrer Ignoranz dieser Forschungen. Beispiel hierfür sind die Artikel von Romm at ThinkProgress, Phil Plait at Slate und von Ökonomieprofessor in Berkeley Brad DeLong.
„…man entferne zuerst den Balken aus dem eigenen Auge, dann wird man klar den Splitter im Auge des Anderen entfernen können“ (Matthäus 7, 5).
2) Warnung vor Systemen ohne starke Überprüfung
„Vertrauen kann Ungewissheit ausstechen“ – Presentation by Leonard A Smith (Prof of Statistics, LSE), 6. Februar 2014.
Die öffentliche politische Debatte über Klimawandel beruht fast ausschließlich auf Prophezeiungen von Computermodellen. Prophezeiungen von Modellen sind inhärent unmöglich zu beweisen, selbst deren robuste Überprüfung ist schwierig. Außerdem gibt uns der häufige Missbrauch von Modellen Grund zum Skeptizismus. Dazu gehört die offensichtlich falsche Behauptung vom Aussterben von 30.000 Spezies in jedem Jahr (hier) und die Fehlinterpretationen der probabilistischen UN-Vorhersage von 11 Milliarden Menschen bis zum Jahr 2100.
Die ,Rückschau‘ [auch der LEO gibt keine Übersetzung für hindcast] ist die Grundlage des Vertrauens in die vom IPCC verwendeten Klimamodelle, welche die Grundlage sind für politische Entscheidungen, die Auswirkungen um Multi-Billionen Dollar auf die Weltwirtschaft haben – und die vielleicht sogar die Natur unseres Wirtschaftssystems ändern (wozu wir von Papst Franziskus und Naomi Klein gedrängt werden).
Unglücklicherweise sagt die umfangreiche Literatur zur Validierung von Modellen, dass die Rückschau unzureichend ist, wenn man historische Daten heranzieht, mit denen die Modelle konstruiert worden sind (z. B. zur Parametrisierung). Schlimmer, trotz einer 27 Jahre langen Kampagne (seit der Anhörung von Jim Hansen vor dem US-Senat) konnte eine Mehrheit von Amerikanern nicht überzeugt werden, rangiert doch der Klimawandel ganz unten auf der Liste der Sorgen der Öffentlichkeit (e.g., Gallup). Das ist gut so, da weder die Modelle noch deren Prophezeiungen von außenstehenden Experten überprüft worden sind (d. h. von einem selbständigen Team von Experten aus Klima, Physik, Software usw.)
Mehr zur Validierung von Klimamodellen:
●Über Modelle, die immer öfter als Linse dienen, durch die wir die Welt sehen (hier)
●Wird ein Wiedereinsetzen von Erwärmung die IPCC-Klimamodelle validieren? (hier)
●Wir müssen uns auf die Vorhersagen von Computermodellen verlassen. Sind diese zuverlässig? (hier)
●Eine Beschränkung der Klimawissenschaft: Die Divergenz zwischen Temperatur und Modellen (hier)
●Prognostizieren Klimamodelle das Klima genau? (hier)
Wie geht es von hier weiter?
Wie unvorbereitet sind wir? „Wir planen nicht einmal für die Vergangenheit“ – Steven Mosher (member of Berkeley Earth; bio here), a comment posted at Climate Etc.
Die öffentliche Debatte ist inzwischen festgefahren, was uns einige Möglichkeiten zur Auswahl gibt. Wir können dem Gezänk beider Seiten weitere 27 Jahre lang zuhören (danach wird das Wetter die Antwort gegeben haben), oder wir können nach Wegen suchen, die öffentliche Debatte wiederzubeleben.
Karl Popper glaubte, dass Prognosen der Gold-Standard zum Austesten wissenschaftlicher Theorien seien. Die Öffentlichkeit glaubt dies auch. Zahllose Filme und Fernsehshows konzentrieren sich auf den triumphalen Zeitpunkt, wenn ein Test eine wissenschaftliche Vorhersage bestätigt. Klimawissenschaftler können solche Tests heute für die globalen Temperaturen laufen lassen (hier). Dies wäre ein Äquivalent zu einer Überprüfung und würde einen Beweis erbringen hinsichtlich der Vorhersagefähigkeit der Modelle, die über allem Bisherigen steht.
Jedes neue Verfahren wird möglicherweise von Links oder Rechts verdammt – oder von beiden. Versuchen wir es mit neuen Verfahren, selbst wenn wir dafür eingefahrene Gleise verlassen müssen.
Link: http://fabiusmaximus.com/2015/12/28/daniel-davis-insights-about-experts-predictions-92430/4
Übersetzt von Chris Frey EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
#7 T.Heinzow
Dieser Pro-Artikel von Müller-Jung war mir nicht bekannt. Ich war zufällig bei Nature auf den Artikel vom PIK gestossen.
mfG
@ #6 H. Urbahn
Der Pro-Artikel von Müller-Jung in der FAZ hat eine vernichtende Kritik erfahren. Was Schellnhuber sich da leistet kommt mir vor wie das letzte Aufgebot vor 72 Jahren, als das NS-Reich endgültig zusammenbrach. Eine letzte Offensive … . Als ob man etwas simulieren kann dessen Ablauf man nicht kennen kann.
Ein wenig off topic, aber hier her paßt es noch am besten. Ein neuer Artikel von Schellnhuber und Co gerade bei Nature erschien:
Critical insolation–CO2 relation for diagnosing past and future glacial inception.
„beweist“, daß durch das anthropogene CO2 die nächste Eiszeit um 100000 Jahre verschoben wird.
Wie hieß noch das Lied: Was das Co2 alles kann. Da können wir uns doch richtig freuen, ob dieser tollen Vorhersage.
MfG
Hallo zusammen,
vielen Dank für die Blumen! Die Übersetzung „Nachhersage“ habe ich von Hans-Dieter Schmidt, und er entspricht einem Jargon unter seinen (Synoptiker-)Kollegen, die besagt, dass man hinterher bzgl. des Wetters immer schlauer ist.
Ich möchte daher in dem Zusammenhang, um den es hier geht, bei der Übersetzung Nachhersage oder Nach-Hersage bleiben.
Was meinen andere Meteorlogen hierzu?
Chris Frey, Übersetzer
@ #3 R. Steppan
„So wurde doch auch getrickst, dass die Modelle in der Vergangenheit passten.“
Das ist eine Frage der korrekten Handhabung der Validierung eines Modells. Prinzipiell hat man zwei Datensätze: Der 1. Datensatz wird dazu genutzt, um die systematischen Fehler eines Modells zu minimieren. Wenn man das für ein Erntevorhersagemodell macht, teilt man den Datensatz von z.B. 1948 bis 2008 auf und benutzt die ersten 40 Jahre für die Optimierung des Modells und die letzten 20 zur Überprüfung. Man kann aber auch die letzten 40 zur Optimierung und die ersten 20 zur Prüfung nutzen.
Mit Lotterie hat das nix zu tun. Sämtliche Routinevorhersagemodelle der Wetterdienste sind so generiert worden. Das Ergebnis kann sich sehen lassen.
Die jetzige Dominanz der Welle 4 der Rossby-Wellen mit einem Hoch von 1045 hPa über dem Pol wurde von den Modellen korrekt eine Woche vorher vorhergesagt, auch die Kälteperiode in Norddeutschland ab Jahreswechsel.
Daß sowas dann die Politik zum Mißbrauch einlädt ist nicht verwunderlich. Und daß in einer von den Ergebnissen abhängigen Forschungsförderung dann die Ergebnisse geschönt werden, ist auch nicht verwundelich, jedenfalls dann nicht, wenn man sich mit der generellen Frage des Outsourcings und der Agenxy Costs befaßt hat.
Der VW-Abgasskandal (der m.E. keiner ist), beruht auf dieser Fehlentwicklung. Grundlagenforschungsfinanzierung darf nicht ergebnisabhängig sein.
Es gibt nur noch zwei Hersteller von großen Passagierflugzeugen. Das Ergebnis ist ein Stillstand bei der Entwicklung neuer Kurz- und Mittelstreckenflugzeuge. Bei der Langstrecke dürfte der A380 (und die B-777) die letzten Dinosaurier gewesen sein. Worin unterscheiden sich A320 und B-737?
Dasselbe gilt auch in der Meteorologie. Grundlagenforschung findet nur da statt, wo die Politik Geld gibt wenn die Ergebnisse stimmen. Ergebnisoffene unabhängige universitäre Forschung gibt es nicht mehr. Die war es aber, die die numerischen Vorhersagemodelle hervorbrachte.
Nachvorhersage: Die Lottozahlen vom letzten Samstag vorhersagen?
So wurde doch auch getrickst, dass die Modelle in der Vergangenheit passten. Joker einsetzen, die die Ergebnisse der Modelle in die in dem Fall gewünschte Richtung lenken.
Hindcast?
Unter Hindcast verstehen die MOdellierer unter den Meteorologen und Ozeanographen die Nachvorhersage. Es wird demgemäß versucht aufgrund des bekannten Anfangsfeldes(-felder) die nachfolgende bekannte Entwicklung ‚vorherzusagen‘. Es handelt sich also um ein Testverfahren der Güte der Modelle.
Die These, die dahintersteht besteht darin zu vermuten, daß ein Modell, welches in der Lage ist die bekannte Vergangenheit mit hinreichender Genauigkeit (die definiert man halt willkürlich) nachzubilden, dies auch für die unbekannte Zukunft kann. (Klappt immer besser bei den Routinevorhersagemodellen der Wetterdienste: wetterzentrale.de)
Wer die Vergangenheitsläufe der Modelle (die gibt es z.B. hier: ‚GFDL NOAA CMIP5‘ mit der gemessenen (die gibt es hier: ‚NOAA COOP‘) Realität (also Statistik über mehrere Jahrzehnte bei den GCM) vergleicht, stellt fest, daß die Abweichungen systematisch und gravierend sind.
GCM sind Forschungsinstrumente und keine Vorhersageinstrumente, auch wenn das jetzt in HH am MPI-met versucht werden soll die ‚Klimaparameter‘ kurzfristig vorherzusagen. ‚MPI mittelfristige Klimaprognosen‘
Ich schließe mich dem Lob vieler an: Herzlichen Dank Herr Frey für Ihre Arbeit!
Zur Frage „hindcast“: das ist sehr vieldeutig. Also könnte es sein, wie Sie es übersetzt haben oder auch (Nachträglicher) Aufguß oder nachkarten oder hinterherlaufen …
Das sagte mir Merriam Webster: Aren’t you smart – you’ve found a word that is only available in the Merriam-Webster Unabridged Dictionary. To view the full definition of hindcast, activate your free trial today. (Darüber verfüge ich nicht.) Tolles Wort also.