Das Kyoto-Protokoll enthält verbindliche Verpflichtungen für die Reduzierung der menschengemachten CO2-Emissionen durch die Verbrennung von fossilen Brennstoffen. Bisher gab es nur eine begrenzte Anzahl von entwickelten Ländern, darunter EU-Mitgliedstaaten, die sich dazu verpflichtet haben. Aber die von vielen erhoffte (und von anderen befürchtete) weltweite Ausbreitung der Gruppe stieß auf Widerstand von großen CO2-Emittenten wie China und Indien, während Japan und Russland, die sich heute noch an Kyoto beteiligen, erklärt haben, in der Zukunft auszusteigen. Die USA hatten zwar angekündigt, Massnahmen zu treffen, um CO2-Emissionen zu reduzieren, aber nicht im Rahmen einer "internationalen Architektur". Zusätzlich zog Kanada sich zurück. Dies bedeutet, dass die internationalen Verhandlungen über ein Abkommen tot sind.
Die Klimapolitik beruht auf den Erkenntnissen des UN-Klimarats (offiziell: "Intergovernmental Panel on Climate Change“, IPCC) (1), das alle 5 oder 6 Jahre einen umfangreichen Bericht mit einer Erfassung und Bewertung der relevanten Klima-Literatur veröffentlicht. Der Bericht enthält auch Prognosen über den zukünftigen Temperaturverlauf bis 2100. Sie beruhen auf einer Kombination von Erwartungen der wirtschaftlichen Aktivität und der Ergebnisse von Klimamodellen.
Der Einsatz von wirtschaftlichen Szenarien/Modellen bietet eine Reihe von wirtschaftlichen Wachstumsraten. Weil Wirtschaftswachstum und CO2-Emissionen sowie andere Treibhausgas-Emissionen, eng miteinander verbunden sind, bekommt man in dieser Weise Emissionswerte. Diese werden als Eingabe für Klimamodelle verwendet. Man geht davon aus, dass es einen Zusammenhang gibt zwischen CO2 (und anderen Treibhausgasen) und der globalen Erwärmung. Aber das IPCC verwendet nicht nur ein wirtschaftliches Szenario/Modell, sondern viele. Das gleiche gilt für Klimamodelle. Das IPCC verwendet ungefähr zwanzig dieser Modelle, die alle ihre eigenen Eigenschaften haben und daher zu unterschiedlichen Ergebnissen führen. Das Endergebnis ist, dass es nicht einen Wert für die prognostizierte globale Erwärmung gibt, sondern eine Bandbreite von 1,4 – 5,8 Grad Celsius in diesem Jahrhundert.
Obwohl genau genommen nicht unbedingt bewiesen, wird allgemein davon ausgegangen, dass nur bei einem Temperaturanstieg von mehr als 2 Grad Celsius die negativen Auswirkungen der Erwärmung die Oberhand erlangen über die positiven Effekte. Deshalb haben viele Länder das Ziel bestätigt, dass die Erhöhung der Temperatur der Erde in diesem Jahrhundert sich auf 2 Grad Celsius beschränken soll.(2) Aber sie haben sich dabei nicht verpflichtet, die Maßnahmen zu treffen, die dafür nach conventional wisdom erforderlich wären.
Die Aussagekraft der Klimamodelle
Oft wird der Eindruck erweckt, oder es wird stillschweigend davon ausgegangen, dass die Klimamodelle zuverlässig genug sind, um als Grundlage für die Klimapolitik zu dienen. Aber ohne Prüfung der Werthaltigkeit dieser Modelle, ohne angemessene Berücksichtigung der zugrunde liegenden empirischen Daten und ohne eine gründliche wissenschaftliche Bewertung und Diskussion der Gültigkeit ist es problematisch, diese Ansicht zu verteidigen.
Aber steht die Wissenschaft dann mit leeren Händen da? In der Klimadiskussion werden viele Daten und Erkenntnissen letztlich in Modelle eingegliedert. Das Ergebnis ergibt langfristige Erwartungen über die Höhe des Meeresspiegels, die Durchschnittstemperaturen, CO2-Konzentrationen und so weiter. Die Erkenntnisse sind aber sehr unterschiedlich. Kein Wunder, dass die Erwartungen ebenso unterschiedlich sind. Das ist an sich nicht bedenklich. Das kommt häufig in der Wissenschaft vor. Oft führt das zu tieferen Einsichten und eine bessere theoretische Fundierung.
Aber die politischen und wirtschaftlichen Implikationen der Ergebnisse können tiefgreifend sein. Dies führt zu hitzigen Diskussionen über die Gültigkeit der Modelle. Die Literatur bietet reichlich Belege dafür. Aber die Frage nach der inhärenten Gültigkeit der Modelle (unabhängig davon, ob erhebliche Erwärmung durch menschliche Emissionen von CO2 als Ausgangspunkt gewählt ist oder nicht) bekommt zu wenig Aufmerksamkeit. Oder, mit anderen Worten, ist es überhaupt möglich mit Hilfe von Modellen valide Aussagen über längerfristige Klimawandel zu tun?
Deshalb zunächst ein Überblick über relevante Entwicklungen in der Meteorologie. Anfang der sechziger Jahre wurden die Meteorologen sich bewusst, dass sie an einem Wendepunkt in ihrem Fachbereich standen. Die manuelle Analyse von Wetterkarten und die Verwendung von verschiedenen Tabellen – die synoptische Methode genannt – war zwar effektiv, aber mit dem Erscheinen von Tirus- und Nimbussatellieten standen mehr und vor allem genauere Daten zur Verfügung. Es war der Anbruch einer neuen Ära, die eine viel schärfere Analyse der Wetterkarten ermöglichte. Und nicht nur das! Es schien sogar möglich, eine Wetterprognose für 5 Tage zu stellen. Das war aber ein bisschen tricky, wie sich herausstellte.
In den USA wurde ein Büro für "Extended Forecasting"gegründet, wo ein gewisser O’Connor mit Hilfe von statistischen Modellen dieses Kunststück schaffte.(3) Überall gab es Skepsis und Diskussion in den meteorologischen Kreisen in den Niederlanden. Wäre es überhaupt möglich, langfristige Erwartungen zu stellen auf Grund der Beobachtungstechniken, und welche Methoden und Modelle sollte man dann verwenden? Eine Vorhersage von zwei Tagen war bisher das Maximum, vor allem in der komplexen Wetterlage in den Niederlanden. Mit dem Aufkommen von leistungsfähigen Computern wurden numerische (dynamische) Modelle daher immer attraktiver.
Damals hatte ein Unteroffizier/Meteorologe der Luftwaffe behauptet, dass eine Prognose für sieben Tage möglich sei (es war Hochsommer). Herausgefordert von seinem Major steckte er seine Vorhersage in einem großen Umschlag. Eine Woche später konnte sein Major lesen: "anhaltend Tauwetter“. Eine hier nicht unwichtige Fußnote.
Vielleicht unbeabsichtigt, betraf es hier das Kernproblem bei der Arbeit mit dynamischen Modellen. Das heisst, inwieweit ist es möglich mit einer erwünschten Genauigkeit Aussagen über zukünftige Ereignisse zu machen? Später stellte sich heraus, dass bestimmte Ergebnisse der "chaotischen" Prozesse, die inhärent sind in dynamischen Modellen, innerhalb gewisser Grenzen (das anhaltende sommerliche Tauwetter!) auftreten.
Klimamodelle haben oft viel gemeinsam mit den meteorologischen Modellen. Vor allem geht es um Systeme, die nichtlinear sind und dass die Kalkulationen chronologisch, d. h. eine Periode nach der anderen, stattfinden. Das heisst, dass die berechneten Werte zu einem bestimmten Zeitpunkt wieder als Startwerte für die nächste Periode verwendet werden und so weiter. Darin steckt das Problem der Gültigkeit dieser Art von Modellen: der Flügelschlag eines Schmetterlings in Brasilien kann drei Monate später ein Gewitter in den Niederlanden verursachen. Wie bei der Meteorologie können die ursprünglichen Werte mit Monte Carlo-Methoden (das betrifft die Einführung von Zufallszahlen um einem bestimmten Startwert) manipuliert werden. Ergebnisse sind dann Werte, die mit einer gewissen Wahrscheinlichkeit auftreten können. Aber dann wird eigentlich das Problem verschoben zu den Nutzern der Ergebnisse der Berechnung: politische Entscheidungsträger, die 100% Sicherheit wünschen/brauchen. Aber die Wisschaft kann das nicht liefern.
Die inhärent chaotische Natur der Ergebnisse dieser Modelle ist nicht das einzige Problem. Wie in der Meteorologie spielt die Genauigkeit der Beobachtungen ebenso eine entscheidende Rolle. Zu diesem Thema gibt es zahlreiche Diskussionen. Und das ist verständlich! Die Modelle sind in der Regel empfindlich für die Anfangswerte. Die Zuverlässigkeit dieser Werte ist eine Voraussetzung für valide Ergebnisse. Es gibt oft Meinungsverschiedenheiten über die Genauigkeit und Definition von Beobachtungen in der Klimaforschung. Das gibt Anlass zur vielen Missverständnissen, die zu unterschiedlichen Schlussfolgerungen führen.
Das dritte Problem liegt in der Gestaltung der Modelle selbst. Es gibt unzählige, je nach Interesse und der Schule, zu der sein Designer gehört. Oft stehen die Modelle im Widerspruch zueinander. Sie haben alle gemeinsam, dass sie kaum überprüft werden können. Kaum, denn man hat auch versucht, die Modelle ex post, so historisch, zu validieren – nützlich vielleicht, aber nicht ohne methodische Fallstricke.
Werden neue Modelle schließlich entscheidend sein für die Debatte und in verschiedenen Bereichen zu einer "Paradigmenwechsel" führen? Das ist nicht unmöglich, aber auch nicht wahrscheinlich, jedenfalls nicht in kurzer Frist.
Stehen die Modellbauer in der Klimaforschung dann mit leeren Händen da? Ja und nein.
Ja, wenn eine zu große Präzision erwartet wird. So ist es beispielsweise grundsätzlich unmöglich, steigende Meeresspiegel mit einer Genauigkeit von Zentimetern vorherzusagen. Diejenigen, die so tun, sollten noch einen weiteren kritischen Blick auf ihren Modelle werfen. Zwar ist das Problem, dass die Öffentlichkeit oft von Wissenschaftlern erwartet, dass sie ihre Aussagen mit großer Genauigkeit machen. Die Gezeiten sind doch auch mit großer Präzision vorherzusagen?
Nein, wenn eine normale wissenschaftliche Debatte über die oben genannten Probleme stattfinden könnte. Die inhärent begrenzte Gültigkeit der Ergebnisse der Modelle ist eine gewaltige Behinderung und sollte Gegenstand ständiger Aufmerksamkeit sein. Die politischen Entscheidungsträger müssen lernen damit umzugehen.
Ein praktischer Ansatz
Die Frage ist, ob dynamische Modelle in der Klimaforschung derzeit möglich sind und, wenn das heute nicht genügend der Fall ist, wie weit es noch möglich ist, mit akzeptabler Genauigkeit Aussagen über das Klima der Zukunft zu machen. In der Meteorologie (kurzfristig) werden dynamische Modelle mit relativem Erfolg angewandt. Die oben genannten Probleme sind in diesem Wissenschaftsbereich hinreichend geklärt. In der Klimaforschung (langfristig) ist das nicht der Fall. Deshalb sollte man zurückgreifen auf geschickte Sub-Modelle, in denen diese Probleme weniger dominant sind.
Dick Thoenes (4) zeigt eine praktische Liste dieser Sub-Modelle oder Prozesse. Nach Ansicht der Autoren bietet sie ein nutzbares Format. Der Überblick zeigt gleichzeitig die Komplexität des Klimaproblems.
1. Sonnenstrahlung und kosmische Strahlung auf die Erde (Land, Wasser, Atmosphäre) und die Ausstrahlung der Erde zum Universum;
2. die Wechselwirkung zwischen Strahlung und der Atmosphäre, inklusive Wolken (Absorption und Emission, einschließlich des Treibhauseffekts),
3. andere Prozesse in der Atmosphäre, wie zum Beispiel verschiedene Arten von Luftströmungen, Wolkenbildung, Niederschlag und Tiefdruckgebieten,
4. Prozesse in den Ozeanen, wie horizontale und vertikale Strömungen, sowohl an der Oberfläche als auch in der Tiefe, besonders wichtig für den Transport von CO2 und andere Prozesse wie Verdunstung, Bildung und Schmelzen von Eis,
5. die Prozesse, die an Land auftreten, wie Verdunstung und Abfluss, Erosion, Bildung und Schmelzen von Landeis sowie Vulkanismus,
6. die Wechselwirkung zwischen der Atmosphäre und den Ozeanen, vor allem in Bezug auf Wärme-, H2O (Wasserdampf) – und CO2-Ströme,
7. die Wechselwirkung zwischen der Atmosphäre und der Landoberfläche, insbesondere im Hinblick auf Wärme- und H2O-Strömungen,
8. die Prozesse in der Biosphäre, vor allem das Wachstum der Pflanzenmasse und die Zersetzung von abgestorbenem Pflanzenmaterial (insbesondere im Hinblick auf CO2-Ströme),
9. die Wechselwirkung zwischen der Biosphäre und der Atmosphäre (insbesondere im Hinblick auf CO2-Ströme),
10. die Interaktion zwischen den Ozeanen und dem Meeresboden, wie unterseeische vulkanische Aktivität (warmes Wasser) und die Fällung von Calciumcarbonat Schalen und Skeletten (insbesondere im Hinblick auf CO2-Ströme).
Hinter der allgemeinen Beschreibung dieser Variablen, die eine Rolle spielen, liegt natürlich eine Vielzahl von versteckten Prozessen, deren Geschwindigkeit variiert je nach Ort auf der Erde, den lokalen Wetterbedingungen und Jahreszeiten. Was wir "Klima" nennen, sind die laufenden Ergebnisse all dieser Prozesse, Wechselwirkungen und Rückkopplungen zwischen ihnen. Viele Prozesse beeinflussen zum Beispiel die Temperatur der Atmosphäre, aber sie selbst sind auch temperaturempfindlich. Fast alle Prozesse sind relevant für das Klima.
Die meisten Prozesse sind unzureichend oder nicht genügend genau bekannt. Auch wenn die Erkenntnisse hinlänglich sind, sind aufgrund der Komplexität modell-basierte Vereinfachungen notwendig, um sie überschaubar zu machen. Die Frage ist immer: Inwieweit können wir die Modelle so gestalten, dass sie ausreichende Gültigkeit beibehalten? Wie soll man mit den Unvollkommenheiten in den Modellen umgehen? In der Praxis sind daher Schätzungen und/oder Annahmen über funktionale Zusammenhänge zwischen verschiedenen Faktoren unvermeidlich. Diese Schätzungen und Annahmen sind um so problematischer, je weniger über die zugrunde liegenden Prozesse bekannt ist.
Angesichts der Bedeutung der Modelle ist es klar, dass sie häufig heftiger Kritik ausgesetzt sind. Die Hauptkritik konzentriert sich auf die Unterschätzung des Einfluss‘ der Sonne, die Vernachlässigung des Einfluss‘ von Meeresströmungen, die Unsicherheit über die Auswirkungen von Aerosolen und die Nichtbeachtung des Verhaltens der Wolken. Jedes Modell wird daher Fehler wegen der unzureichenden Kenntnisse aufweisen. Die Frage ist daher, in wie weit die drei oben genannten grundlegenden Probleme gelöst werden können.
Um den Realitätsgehalt der Modelle zu testen, verwendet man "hindcasting". Dies ist das Spiegelbild von "forecasting". Man ändert die Parameter des Modells so lange, bis man eine gute Übereinstimmung bekommt über die Entwicklung der wichtigsten Merkmalen des Klimas in der Vergangenheit, vor allem hinsichtlich der Temperatur. Auffällig ist, dass diese Methode in vielen Modellen in dieser Hinsicht recht erfolgreich ist, obwohl sie völlig unterschiedliche Eigenschaften haben. Diese Methode zeigt sich als plausibel. Aber die methodischen Fallstricke sind nicht zu vernachlässigen. So ist zum Beispiel die Qualität der historischen empirischen Daten nicht immer adäquat. Aber im Moment müssen wir mit diesen Mängeln leben. Simulationsmethoden sind immer noch unzureichend untersucht.
Ein Problem von entscheidender Bedeutung
Wir haben gezeigt, dass in der Klimawissenschaft die Anwendung von Modellen bei weitem nicht einfach ist, aber dass es von großer Bedeutung ist, um zuverlässige Ansätze zu finden und Antworten zu geben auf die Fragen, die von großem gesellschaftlichem Interesse sind. Ein zentrales Problem dabei ist die sogenannte Klimasensitivität ("climate sensitivity"). Es ist eine Art von Elastizität. Sie ist definiert als der Temperatur-Effekt einer Verdoppelung der CO2-Konzentration in der Atmosphäre. Wenn der heutige Anstieg von CO2 in der Atmosphäre so weiter geht, kann ein solches Niveau am Ende des Jahrhunderts erreicht werden.
Wie bereits erwähnt, behaupten Befürworter der menschlichen Treibhausgas-Hypothese (AGW = "Anthropogenic Global Warming"), dass eine solche Entwicklung zu einem Anstieg der Temperatur zwischen 1,4 und 5,8 Grad Celsius führen kann aufgrund der Absorption und Reflexion der von der Erde ausgehenden (warmen) Infrarot-Strahlung von CO2. Dieser Anstieg besteht aus einem primären Wärme-Effekt von einem Grad Celsius. Weiter sollte es einen sekundären Effekt geben – oder einen zusätzlichen Rückkopplungsseffekt – durch den Einfluss von Wasserdampf, einem wichtigen Treibhausgas.
Die Anhänger der AGW-Hypothese argumentieren, dass höhere Temperaturen zu mehr Verdunstung führen. Damit kommt mehr Wasserdampf in die Luft, der den primären Heiz-Effekt verstärkt. Ihre Opponenten, die sogenannte Klimaskeptiker, vertreten eine andere Auffassung. Sie kommen – anhand verschiedener Methoden – zu dem Schluss, dass die Klimasensitivität wahrscheinlich erheblich niedriger ist: In der Größenordnung von 0,5 Grad Celsius oder weniger. Ihre Annahmen sind anders: sie sind der Meinung, dass Wasserdampf einen negativen Rückkopplungseffekt verursacht. Sie argumentieren von der klassischen Meteorologie aus, gegenüber der AGW-Hypothese, dass CO2 ein Treibhausgas ist, und dadurch unbedingt erwärmend wirken soll.
Die klassische Meteorologie geht davon aus, dass das Land und die Meeresoberfläche auf zwei verschiedene Weisen die eingefangen Sonneneinstrahlung los werden kann: Infrarot-Strahlung direkt in dem Raum, und Konvektion (thermisch, Wind, Wolken und vor allem tropische Regengüsse), die Wärme in der Atmosphäre transportiert. Sie halten es für erwiesen, dass Klimaschwankungen in der Vergangenheit – kleine Eiszeit, mittelalterliche Warmzeit und all die großen Eiszeiten – überhaupt nicht mit CO2 Variationen, aber mit solar-magnetischer Aktivität verknüpft sind. Im Allgemeinen erkennen sie an, dass CO2 eine gewisse erwärmende Wirkung hat, aber sie halten diese für unbedeutend und nicht messbar im statistischen Rauschen des Temperatursignals. Wenn sie Recht haben, gibt es kein Erwärmungsproblem. Die umweltökonomische Literatur zeigt, dass ein geringer Temperaturanstieg per Saldo sehr vorteilhaft sein wird für Mensch und Natur.
Die grundlegende Meinungsverschiedenheit über das Vorzeichen der Rück-Kopplung (positiv oder negativ) wird derzeit in Gesprächen zwischen Vertretern der "Schulen" diskutiert. In den Niederlande beteiligt sich auch das Königliche Niederländisches Meteorologisch Institut (KNMI) an dieser Diskussion.
Es ist wichtig dass eine solche Diskussion stattfindet, denn beide Schulen begegnen, jeder aus seiner eigenen Sicht, ähnlichen Problemen. Die oben genannte wissenschaftliche Debatte in diesem Bereich kann deshalb Früchte tragen.
Übereinstimmung oder nicht?
Es bleibt von grösster Wichtigkeit, dass die Wissenschaftler durch ein freien und ungehinderten Austausch von sachlichen Argumenten und die Bündelung von zersplitterte wissenschaftlichen Erkenntnisse zum Konsens kommen. Aber die Erfahrung zeigt, dass ein solches Verfahren in der Klimatologie bislang noch kaum begonnen hat. Die Beziehungen sind polarisiert. Kuhn (5) hat übrigens darauf hingewiesen, dass solche Verhältnisse nicht nur in der Klimatologie, sondern auch in vielen anderen wissenschaftlichen Disziplinen vorgekommen.
Auf der Seite der Klimaskeptiker gibt es die Oregon Petition, in deren sich 31.000 Unterzeichner von der AGW-Hypothese distanziert haben. (6) Von AGW-Seite jedoch werden die Qualifikationen mancher dieser Wissenschaftler bestritten. Zusätzlich gab es auch ernsthafte Kritik an der Vorgehensweise, die bei der Erstellung der Petition verfolgt wurde. Diese Beschwerden treffen nicht zu in Bezug auf die Liste hergestellt vom „Climate Depot“. Diese Liste nennt über 1000 klimaskeptische Wissenschaftler, inklusive umfangreicher Auskünfte über die akademischen Qualifikationen und wissenschaftlichen Zugehörigkeiten der Beteiligten.(7)
Anderseits gibt es die viel zitierte Aussage, dass 97% der Wissenschaftler AGW unterschreiben. Diese Zahl stammt aus einer Umfrage/Probe von 79 Klimatologen.(8) Natürlich kann man behaupten, dass es hier um eine sehr beschränkte Probe handelt. Trotzdem bleibt die Tatsache, dass eine relativ große Anzahl von Forschern diese Hypothese anhängt.
Es ist übrigens bedauerlich, dass beide Schulen versuchen, ihr Gewicht durch verschiedene Umfragen zu belegen. Sie zeigen auch, dass man von der notwendigen wissenschaftlichen Debatte noch weit entfernt ist. Sie zeigen weiter, dass grundlegende Fragen nichtwissenschaftlicher Natur noch gelöst werden müssen.
Illustrativ in diesem Zusammenhang ist eine interessante Studie deutscher Herkunft von Hans M. Kepplinger und Svenja Post, veröffentlicht unter dem Titel "Die Klimaforscher Sind Sich Nicht Sicher.“ Sie haben die Ergebnisse ihrer Studie auf Welt Online zusammengefasst.(9).
Der Klimaschutz ist zu einem der wichtigsten Rechtfertigungsgründe von politischen Entscheidungen geworden. Als parteiübergreifende Begründung von Macht- und Gestaltungsansprüchen hat er hierzulande die Funktion übernommen, die Nation und Religion in der Vergangenheit besaßen und in anderen Weltregionen noch besitzen. Der Klimaschutz legitimiert. Er legitimiert staatliche Eingriffe in die Energieversorgung, die Technologieförderung, den Wohnungsbau. Mit dem Klima kann man alles begründen – von Subventionen für Wind- und Solarenergie über Vorschriften für den Bau von Eigenheimen bis hin zur steuerlichen Behandlung von Dienstwagen.
Kepplinger und Post haben 133 deutsche Klimaforscher befragt. Die zweite Frage der Untersuchung betraf die Zuverlässigkeit der Modelle.(10) Nur 14% der Befragten gaben an, dass diese bereits ausreichend zuverlässig sind. 65% dachten, dass sie in der Zukunft hinreichend zuverlässig sein würden. 14% Hielten es aus prinzipiellen Gründen für unmöglich, und 7% gaben keine klare Antwort. Die allgemeine Schlussfolgerung von Kepplinger und Post war wie folgt:
Anhand ihrer Urteile über die Qualität der Daten und Modelle der Klimaforschung, der Interpretation der Befunde zur Entwicklung des Klimas sowie zu den zukünftigen Gefahren kann man einen Index berechnen, der in der Klimaforschung zwei unterschiedliche Lager ausweist – überzeugte Warner und skeptische Beobachter. Im Unterschied zu ihrer Präsenz in der Öffentlichkeit und zu ihrer Resonanz in der Politik sind beide Lager in der Klimaforschung gleich groß (37 beziehungsweise 36 Prozent der Klimaforscher). Zwischen ihnen steht eine etwas kleinere Gruppe (27 Prozent), die weniger klar umrissene Ansichten vertritt und hier außer Acht bleiben kann.
Nota bene! Dies sind professionelle Klimatologen, die im formalen akademischen Umfeld tätig sind. Der politische Kontext ihrer Arbeit sickert überall durch und bedeutet ein schweres Handicap für eine gründliche Diskussion. Wir sehen in den zitierten Quellen wenig Hoffnung zu einem Konsens in absehbarer Zeit. Dies bedeutet, dass viel Energie in nicht-produktiven Diskussionen verloren gehen wird. Angesichts der Bedeutung der Klimatologie ist das bedauerlich. Aber in Anlehnung an Kuhn trösten wir uns mit der Hoffnung, dass es letztendlich klappen wird.
Zum Schluss
In Bezug auf Klima wird oft gesagt: "The science is settled – all scientists agree,“ oder Wörter mit ähnlicher Bedeutung.(11) Wie wir gezeigt haben, ist das nicht korrekt. Im Gegensatz zu dem, was oft behauptet wird, bieten Klimamodelle jetzt (noch?) keine zuverlässige Grundlage für Vorhersagen über künftige Klimaänderungen. Das IPCC erkennt das implizit. Es verwendet daher konsequent die korrekte Bezeichnung "Projektionen" – eine bessere Formulierung für Ergebnisse, die von vielen Unsicherheiten umgeben sind. Im Hinsicht auf diesen Unsicherheiten ist der Begriff “Vorhersagen“ also falsch. Aber in der Kommunikation mit dem Publikum geht diese subtile Unterscheidung oft verloren. Infolgedessen setzen die Politik, die Medien und die Öffentlichkeit auf das falsche Pferd. Was bleibt ist, dass Politiker lernen müssen mit Ergebnissen umzugehen, die ein hohes Maß an Unsicherheit haben.
Heute scheint die Aufregung über die angebliche globale Erwärmung nachzulassen. Und renommierte Astrophysiker, einschließlich des niederländischen Kees de Jager, erwarten sogar eine neue kleine Eiszeit (im Jargon: Maunder Minimum). Das bedeutet, dass es Zeit und Gelegenheit gibt für ein Umdenken über Richtung und Grenzen der Klimaforschung, insbesondere die Grenzen der Aussagekraft von Klimamodellen. Werden sie jemals zuverlässig genug sein, um vertrauenswürdige Prognose zu liefern? Oder werden sie, wie ökonomische Modelle, niemals dazu in der Lage sein?
Die Zeit wird es zeigen.
Autoren: Prof. Dr. Theo deVries, Dr. Oec. Hans Labohm für EIKE. Der Originalartikel erschien hier. Die Übersetzung besorgte Hans Labohm
Theo de Vries ist Mathematiker. Derzeit ist er Professor für Zukunftsstudien Gesundheitswesen an der Universität Twente. Sein zweites Interessengebiet ist die Anwendung von mathematischen Modellen für soziale Fragen. Er ist ehemaliger Vorsitzender des Ausschusses Wissenschaft und Technik der VVD, Mitglied des Kuratoriums der Telders Stiftung und Mitglied der Redaktion von Liberaal Reveil.
Hans Labohm ist derzeit unabhängiger Ökonom und Publizist. Von 1987 bis 1992 war er stellvertretende Ständiger Vertreter der Niederlande bei der OECD (Paris) und nachher Berater der Verwaltung des Niederländischen Instituts für Internationale Beziehungen (‚Clingendael‘). Auch war er Expertengutachter für den Zwischenstaatlichen Ausschuss für Klimaänderungen (IPCC) der Vereinten Nationen. Zusammen mit Dick Thoenes und Simon Rozendaal hat er das Buch ‚Man-Made Global Warming: Unravelling a Dogma‘ (Multi-Science Publishing Co. Ltd. April 2004, 200 S., 51,50 Euro) veröffentlicht. Er ist Mitglied des wissenschaftlichen Beirats von EIKE.
Liberaal Reveil ist eine Ausgabe der Telders Stiftung. Die Telders Stiftung ist die wissenschaftliche Ideen-schmiede der Niederländischen VVD (Volkspartei für Freiheit und Demokratie – also die klassischen Liberalen). Sie ist zu vergleichen mit der Friedrich Naumann Stiftung in Deutschland. Die neueste Ausgabe des Liberaal Reveils war das Thema der Vorhersagen gewidmet. Das unterstehende Artikel von Theo de Vries und Hans Labohm wurde in dieser Sonderausgabe veröffentlicht.
Fußnoten
(1) Das IPCC wurde vor kurzem stark kritisiert, weil es das nicht auf ausgewogener und objektiver Art und Weise getan hätte. Siehe insbesondere den Bericht des „Inter Academy Council“: „Climate Change Assessments. Review of the Processes and Procedures of the IPCC.“
http://reviewipcc.interacademycouncil.net/report.html
(2) Im letzten Kommuniqué des G8-Gipfels in Deauville war zum Beispiel wieder zu lesen:
„49. Tackling climate change is a global priority. We, members of the G8, have undertaken ambitious measures, and are committed to long-term efforts, with a view to doing our part to limit effectively the increase in global temperatures below 2 degrees Celsius above pre-industrial levels, consistent with science. We express our determination to act as part of a larger global effort to address this threat as well as our solidarity with developing countries, particularly the poorest and most vulnerable.“
(3) KNMI, Bericht des „International Meteorological Satellite Workshop“, 1961.
(4) Prof. Dr. Dick Thoenes, ‚Over de onvoorspelbaarheid van het klimaat‘. Geografie, februari 2007.
(5) Thomas S. Kuhn, „The Structure of Scientific Revolutions“, UoC 1996.
(6) Petition Project, http://www.oism.org/pproject/
(7) Climate Depot Special Report, „More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims“, http://hw.libsyn.com/p/b/f/6/bf663fd2376ffeca/2010_Senate_Minority_Report.pdf?sid=68b5e7d9e3a454a4675c254d6348a1c3&l_sid=27695&l_eid=&l_mid=2336201
(8) Dennis Ambler, „Climate ‚Consensus‘ Opiate. The 97% Solution“, http://scienceandpublicpolicy.org/originals/climate_qconsensusq_opiate_the_97_solution.html
(9) Hans M. Kepplinger, Senja Post, „Die Klimaforscher sind sich längst nicht sicher“, Weltonline, 25.09.2007, http://www.welt.de/welt_print/article1210902/Die_Klimaforscher_sind_sich_laengst_nicht_sicher.html
(10) http://www.kepplinger.de/files/Die_Klimaforscher_sind_sich_laengst_nicht_sicher_0.pdf
(11) Siehe zum Beispiel: http://en.wikipedia.org/wiki/User:Sbandrews/the_science_is_settled
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Hallo,
Welches wissenschaftliche Modell bildet exakt die Natur ab? – KEIN einziges Modell kann das und ist auch Sinn und Zweck eines Modells.
Ein Modell stellt in der Regel keine allgemeingültige System-Abbildung dar, sondern bedeutet eine Auswahl, Fokussierung, Vereinfachung und Abstraktion wichtiger Systemelemente und -wirkungen hinsichtlich des Modellzweckes. Jedoch wird man gewiss immer wieder Prozesse im realen System vorfinden, die man im Modell nicht über dementsprechende Funktionen nachbilden kann, da das Modell immer Vereinfachungen enthalten muss. Das ist ja das Wesen eines Modells. Dennoch will man wissen, wie sich bestimmte Eingabegrößen auf bestimmte Ausgabegrößen auswirken, um zumindest den Nettoeffekt der Funktionen/Veränderungen abschätzen zu können.
Das wahrscheinlich größte Problem der Klimamodellierer sind die Rand- und Anfangswerte, mit denen die Klimamodelle initialisiert und kontinuierlich gefüttert werden müssen, solange die Daten nicht modellintern berechnet werden. Sind keine instrumentellen Messreihen für einen Zeitraum vorhanden, muss auf indirekte Daten aus Eisbohrkernen, Sedimentproben, Baumringen und Fossilien usw. zurückgegriffen werden. Problematisch dabei ist die Kürze der verfügbaren Messreihen und deren systematische Fehler, beispielsweise durch Messgeräte oder verfälschende Prozesse wie das Städtewachstum, das eine schwer quantifizierbare Temperaturzunahme bewirkt. Nicht-systematische Fehler wie durch menschliche Mess-, Bedienungs- und Aufzeichnungsfehler sind ebenso in den Daten vorhanden, können aber nur in Ausnahmefällen korrigiert werden.
Man sollte noch wissen, dass es kein Klima-Gesamt-Modell gibt, sondern Teil-Modelle die miteinander gekoppelt werden und die getrennt die Gleichungen für die verschiedenen Sphären der Erde rechnen. Über Schnittstellen übergeben die Teil-Modelle nach jedem Zeitschritt sich gegenseitig ihre Berechnungen bzw. Werte.
Zwei gern benutzte Methoden der Modellierer:
1.Ursache-Wirkungs-Analyse: Man verändert und vereinfacht das bestehende Modell bis es den neu gefundenen System-Prozess korrekt nachahmt, aber die innere Wirkungsstruktur dieses Modells ist realitätsfern/unvollständig. Den Klimamodellierer interessiert quasi nur „was hinten rauskommt“.
Ein Beispiel: Durch die Vereinfachungen/Veränderungen wird die innere Wirkungsstruktur geändert und die Sensitivitäts-Gleichungen erfüllen die mathematischen Kriterien nicht mehr. Sensitivitäten müssen exakten mathematischen Bedingungen genügen, sonst werden die Effekte entweder über- oder unterschätzt. Die Sensitivität ist immer mit der Stabilität des Systems verbunden. Eine große Sensitivität bewirkt immer eine „schlechte“ Langzeit-Stabilität. Man kann die Strahlungs-Dichte über das Stefan-Boltzmann-Gesetz oder per numerischer Integration der Planck-Funktion über die unter der Kurve liegenden Fläche ermitteln. Wenn man bei der numerischen Integration ein Wellenlängen-Intervall von 0,05 um verwendet, dann ist der Wert für die solare Strahlungs-Dichte um 3,2 W/m^2 geringer, als nach dem Stefan-Boltzmann-Gesetz.
2.Unter Parametrisierung versteht man, das Ersetzen oder Ergänzen von Teilen (Termen) der exakten DGL, die nur für kleinste Zeitschritte und Volumen (3d Gitterbox) gilt. Man ersetzt Teile durch genäherte (approximierte) Terme.
Ein Beispiel: Parametrisierungen wie jene für die konvektive oder advektive Durchmischung, die in den 1d, 2d und 3d Modellen Verwendung finden, werden über die Erhaltungsgleichungen für Masse, Energie und Impuls angenähert. Ebenso die Kondensationswärme bei der Wolkenbildung. Wenn Wasserdampf innerhalb einer Gitterbox zu einer Wolke kondensiert, muss die freiwerdende Wärme einen Fluss von Energie in die kühleren Nachbar-Gitterboxen auslösen, in denen sich gerade keine Wolken bilden. Würden die Prozesse innerhalb einer Gitterbox nicht betrachtet, sondern nur die sowieso über ihre aneinandergrenzenden Flächen stattfindenden Flüsse, fiele die Kondensationsfläche unter den Tisch bzw. durch das grobe Gitter.
Man denkt dabei unwillkürlich an die Prinzipen der nicht-linearen Dynamik wie Kausalität, Sensitivität, Multi-Stabilität (Lyapunov-Exponent), Einbettungssatz, Bifurkationen usw. Oder wie hat es der Mathematiker POINCARE einmal treffend beschrieben:
„Eine sehr kleine Ursache, die wir nicht bemerken, bewirkt einen beachtlichen Effekt, den wir nicht übersehen können, und dann sagen wir, der Effekt sei zufällig. Ein kleiner Fehler zu Anfang wird später einen grossen Fehler zur Folge haben. Vorhersagen werden unmöglich, und wir haben ein zufälliges oder gering-wahrscheinliches Ergebnis.“
Frei nach dem Motto: Germany’s next Topmodeler!
Grüße aus dem Norden
Andy Mühlenberg
#11 Georg Hoffmann
Es ist richtig, die Amish ziehen ihr Ding durch, aber ohne den Anspruch, dass die übrige Nation oder die Welt ebenso handelt.
Beispielhaft!
mfG A.Schmitt
Herr Hoffmann,
da hat Ihre Klimakommissarin Hedegaard aber mehr Bammel, die Präsidentschaftskandidaten sind alle Klimaleugner 😉
Was tun?
Herr Hader,
Sie unterschätzen Politiker, bevor die Politiker eine schwachsinnige Theorie in die Tat umsetzen, haben sie die schließlich schon bezahlt und die bezahlen nur für etwas, was sie auch bestellt haben.
@laburda
„Würden Sie bitte Ihre Behauptungen beweisen (mit links, aber keine von Grünpiss & co). Oder hat ein Grüner das nicht nötig??“
Hab noch nice Gruen gewaehlt und werds nicht tun. Hilft aber so oder so bei der Fragestellung nicht weiter.
http://tinyurl.com/5te5m2q
@Rassbah
„Herr Hoffmann, Sie müssen sich doch auch wenigstens wundern, dass die Skeptiker so hartnäckig sind?“
Wieso? Die Amish ziehen ihr Ding doch auch durch. Aus Hartnaeckigkeit folgt erstmal gar nichts.
Hallo, ich würde gerne mal aus dem Artikel einen Satz aus dem sprichwörtlichen Zusammenhang reissen. 😉 Aber er sagt etwas aus, was in der generellen Betrachtung sehr relevant ist.
„Aber dann wird eigentlich das Problem verschoben zu den Nutzern der Ergebnisse der Berechnung: politische Entscheidungsträger, die 100% Sicherheit wünschen/brauchen. Aber die Wissenschaft kann das nicht liefern.“
Ich würde mal ganz mutig eine Gegenthese aufstellen und fragen, benötigen politische Entscheidungsträger zu 100% sichere Vorinformationen? Ist das generell bei Entscheidungsprozessen eine notwendige Bedingung, um am Ende vernünftigen Entschluß zu treffen? Es ist eher so, dass diese 100%ige Sicherheit der Informationen nicht der Regelfall ist, sondern die Ausnahme darstellt. Es ist fast egal welchen Bereich man nimmt, weder verfügt man alle Informationen noch ist die Zukunft deterministisch. Aus der Spieltheorie kennt man den Begriff der unvollständigen Information. Ein Spieler weiss erst mal nichts über seine Gegner. Aber er kann probabilistische Erwartungen für bestimmte Spielzustände annehmen und daraus vernünftige Spielzüge herleiten.
Würde man erst dann handeln, wenn man alle Informationen zusammen hat, wäre es meist zu spät. Das war aus evolutions-biologischer Sicht auch gar nicht sinnvoll gewesen, so lange auf den Säbelzahntiger zu warten, bis dieser aufgrund geringer Distanz einwandfrei identifiziert wurde und man dann erst die Fluchtreaktion einleitet.
Natürlich versuchen Institutionen und Gruppen uns Vorhersagen und Pläne als total sicher zu verkaufen. Die Bank, die uns einen Kredit geben will, erklärt uns in Ruhe wie wir das Geld im Normalfall zurückzahlen werden und da auch nix passieren kann. Aber jeder der sich damit beschäftigt, weiss, dass es auf Informationsseite nie eine 100%ige Sicherheit geben kann. Und trotzdem kann es eine vernünftige Entscheidung sein, zu dem Zeitpunkt bei dieser Bank mit dem Zinssatz den Kredit zu nehmen, obwohl man nicht alle Eventualitäten kennt.
Um wieder den Schlenker zu den Klimamodellen, deren Mängel und die Auswirkungen auf politische Entscheidungen zu bekommen; man kann daraus zwei (bestimmt auch mehr) Dinge ableiten. Zum einen, die weitere Erforschung des Klimas ist wichtig und darf nicht stehenbleiben. Zwar gibt es Stimmen, die sich darüber beschweren, das heute schon so viel Geld für Klimaforschung ausgegeben wird, aber das ist letztlich die Konsequenz daraus, dass man das Klima besser verstehen will. Und zum anderen müssen wir eine Entscheidungskultur der unvollständigen Informationen pflegen, falls sie nicht schon vorhanden ist. D.h. man muss den Klimawandel und seine ökonomischen und ökologischen Folgen auch dann ernst nehmen, wenn nur die Hälfte der Wissenschaftler davon überzeugt wären. Daraus muss kein blinder Aktionismus folgen, aber die Risiken sind zumindest abzuwägen. Oder wie in dem Artikel u.a. als Resümee steht:
„Was bleibt ist, dass Politiker lernen müssen mit Ergebnissen umzugehen, die ein hohes Maß an Unsicherheit haben.“
Zweiter Versuch, hoffentlich jetzt erfolgreicher:
„Das Endergebnis ist, dass es nicht einen Wert für die prognostizierte globale Erwärmung gibt, sondern eine Bandbreite von 1,4 – 5,8 Grad Celsius in diesem Jahrhundert.“
Ja, diese Bandbreite sieht enorm aus, liegt aber daran, dass der Autor verschiedene CO2-Szenarien bei den Modellen zugrunde gelegt hat, also Äpfel mit Birnen vergleicht.
Im AR4 hat man vernünftiger alle verwendeten Modelle für dasselbe CO2-Szenario verglichen, hier für die 2xCO2, Zitat:
„The current generation of GCMs[5] covers a range of equilibrium climate sensitivity from 2.1°C to 4.4°C (with a mean value of 3.2°C; see Table 8.2 and Box 10.2),…“
(siehe AR4, WGI, Kap. 8.6.2.2.)
Die Bandbreite ist zwar immer noch unbefriedigend groß, aber deutlich kleiner, als im Artikel dargestellt.
Und für den, der die ausgefeilten Modelle nicht mag, werden in Kap. 8 und 9 noch weitere Methoden zur Bestimmung der Klimasensitivität vorgestellt, die nicht auf GCMs beruhen. Überflüssig zu erwähnen, dass die Übereinstimmung mit den GCM-Werten zufriedenstellend ist.
PS:
Warum habe ich bei diesem Thema immer Probleme mit der Freischaltung? Ist es so schlimm, wenn ein Leser im AR4 sich selbst überzeugen kann, dass das hiesige Dogma, die projizierten Erwärmungswerte würden ausschließlich auf Computersimulationen beruhen, falsch ist?
Die „Antwort“ der Frankfurter Rundschau???:
http://tinyurl.com/62mzr2q
In der Rhein Lahn Zeitung von heute wird über eine Tagung von sogenannaten Experten in Trier berichtet, welche bis zum Jahr 2100 den durchschnittlichen Teperaturanstieg im Moseltal um 4 – 5°C vorhersagen. Die Land- und Forstwirte bzw. Winzer sollen sich schon mal darauf einstellen. Laut Berichterstattung wusste Prof. Günther Heinemann die Auswirkungen wohl sehr genau zu berichten, wobei ihn die letzten drei strengen und langen Winter in Folge und der durchwachsene Sommer überhaupt nicht irritierten: „Aber global und über einen längeren Zeitraum gesehen, erwärmt sich das Klinma.“
Was wenn diese Herren sich irren? Ich erinnere mich vor etwa drei Jahren von einem Klimagläubigen gelesen zu haben, der in freudiger Erwartung des Temperaturanstiegs schon mal eine Menge Mandelbäume gepflanzt hatte, welche mit dem frostigen Winterklima hierzulande dann doch nioht zurecht kamen und jämmerlich erforen sind. Ich glaube nicht, dass dieser Optimist durch irgendjemand entschädigt wurde. Worauf soll man sich da einlassen?
Ein schöner Artikel mit dem ich mich voll identifizieren kann, Dank den Autoren und Übersetzern
„Die Frage ist, ob dynamische Modelle in der Klimaforschung derzeit möglich sind…“
Sie werden NIEMALS möglich sein. So wie man auch NIEMALS schneller fliegen kann als das Licht.
Einfache Mathematik, einfache Physik!
Danke, Christian Ohle
„Was bleibt ist, dass Politiker lernen müssen mit Ergebnissen umzugehen, die ein hohes Maß an Unsicherheit haben.“
Da denke ich, Politiker suchen nach auch unsicheren Projektionen, um ihre Ziele zu begründen. Oder denkt die postnormale „Klimatologie“ etwa, sie haben etwas alarmierendes gefunden?
Herr Hoffmann, Sie müssen sich doch auch wenigstens wundern, dass die Skeptiker so hartnäckig sind?
Die Kohleindustrie hat in den letzten 10 Jahren um 50% zugelegt, hauptsächlich China und Indien, da müssen doch den AGWlern langsam mal die fehlenden Korrelationen mit der anzuzweifelnden Weltmitteltemperatur auffallen.
Das kann ich doch nur übersehen, wenn die materielle Stimulation( so hieß das in der DDR- hat den Glauben an die führende Rolle der Arbeiterklasse aufrechterhalten ) immer größer wird;-)
Als Modellersatz kramt man jetzt wieder das Ozonloch raus- die strengen arktischen Winter machen die Stratosphäre kalt.
@ #2: Georg Hoffmann
Würden Sie bitte Ihre Behauptungen beweisen (mit links, aber keine von Grünpiss & co). Oder hat ein Grüner das nicht nötig??
Kein Gruss
„Kein Klimamodell hat das „vorhergesagt“, oder genauer gesagt: „projiziert“.“
ist definitiv falsch.“
Man kann sich natürlich eins aussuchen! Welches gerade passt! Nach dem Motto: „Steht der Hahn aufm Mist, ändert sichs Wetter oders bleibt wies iss!“ Die „Klimawissenschaft“ ist an sich betrachtet bereits Nonsens, Strömungen im kochenden Wassertopf haben den selben Wert, und selbst als Schnittfläche mit realen Wissenschaften fehlen für reelle Vorhersagen allenthalben die Grundlagen! Auf den Müll der Geschichte damit! Erstmal 100 Jahre vergehen lassen…;-)))
Mal von der hier ueblichen voelligen Vermischung von politischen, persoenlichen und pseudo-wissenschaftlichen Aussagen abgesehen.
„Kein Klimamodell hat das „vorhergesagt“, oder genauer gesagt: „projiziert“.“
ist definitiv falsch.
Die wörtlichen Zitate von Kepplinger aus 2007 auch in diesem Video ab Minute 6:26 hier:
http://youtu.be/ASn3s5Kdr-s?t=6m26s