Graphen, Trends und Hypothesen

Warnung: Dieser Beitrag enthält die Aussage Trends können keine zukünftigen Werte prognostizieren und tun es auch nicht. Wem dieser Gedanke zuwider ist, sollte jetzt aufhören zu lesen.

Ich beginne diesen Beitrag mit einem früheren Kommentar auf den ersten, oben verlinkten Beitrag von Andrew C. Rifkin mit dem Titel „Warming Trend and Variations on a Greenhouse-Heated Planet” vom 8. Dezember 2014. Darin verlinkt er auch meine Erwiderung. Der folgende Kommentar stammt von Dr. Eric Steig. Dieser ist Professor des Fachbereiches Earth & Space Sci. an der University of Washington, wo er als Direktor des IsoLab fungiert. Auf der Website der Fakultät wird er als Gründungsmitglied und Beitragender zu der einflussreichen (deren Bezeichnung) klimawissenschaftlichen Website RealClimate.org gelistet. Steig sagt:

Kip Hansens „Kritik“ des Cartoons ist clever – und geht vollständig an der Sache vorbei. Ja, die Kommentatoren hätten nicht sagen sollen, „der Trend bestimmt die Zukunft“, das war schlecht formuliert. Aber der Klima-Antrieb (zumeist CO2) bestimmt doch den Trend, und der Trend (wo Herrchen läuft) bestimmt, wohin der Hund gehen wird, im Mittel. (Hervorhebung von mir, Hansen)

Ich glaube, dass Dr. Steig seine Erwiderung einfach „schlecht formuliert“ hat. Er meinte sicherlich, dass die Klimaantriebe, welche selbst nach oben tendieren, die zukünftigen Temperaturen bestimmen („wohin der Hund laufen wird, im Mittel“). Diese Meinung steht ihm zu, aber er irrt sich, wenn er darauf besteht, dass „der Trend (wo Herrchen läuft) bestimmt, wohin der Hund läuft“. Es ist diese wiederholte und fast überall benutzte, ungenaue Wortwahl, welche einen erheblichen Teil der Missverständnisse auslöst sowie Schwierigkeiten in der englischsprachigen Welt (und ich vermute, auch in anderen Sprachen nach einer direkten Übersetzung), wenn es um Zahlen, Statistiken, Graphiken und Trendlinien geht. Menschen, Studenten, Journalisten, Leser, Publikum … fangen an, tatsächlich zu glauben, dass der Trend selbst zukünftige Werte bestimmt.

Viele werden nun sagen „Unsinn! Niemand glaubt so etwas!“ Das glaubte ich auch, aber man lese die Kommentare zu meinen beiden Beiträgen zuvor, und man wird erstaunt sein.

Datenpunkte, Linien und Graphiken:

Betrachten wir zunächst die Definition einer Trendlinie: „Eine Linie in einer Graphik, welche die allgemeine Richtung anzeigt, in die eine Gruppe von Datenpunkten zu laufen scheint“. Oder eine andere Version: „Eine Trendlinie (auch die Linie des besten Fits genannt) ist eine Linie, die man einer Graphik hinzufügt, um die allgemeine Richtung anzuzeigen, in welche die Punkte zu gehen scheinen“.

Hier folgt ein Beispiel (zumeist mit Bildern):

Trendlinien werden Graphiken bestehender Daten hinzugefügt, um die „allgemeine Richtung zu zeigen, in welche die Datenpunkte zu laufen scheinen“. Genauer, zur Klarstellung, die Trendlinie allein zeigt tatsächlich die allgemeine Richtung, in welche die Datenpunkte gelaufen sind – und man könnte hinzufügen „bisher jedenfalls“.

Das sieht sehr pingelig aus, oder? Aber es ist sehr wichtig für das Verständnis, was ein Datengraph wirklich ist – nämlich eine Visualisierung bestehender Daten – also der Daten, wie wir wirklich haben – und die gemessen sind. Wir würden alle zustimmen, dass die Hinzufügung von Datenpunkten an beiden Enden des Graphen betrügerisch ist – Daten, die wir gerade erst bekommen haben und die nicht wirklich gemessen oder experimentell gefunden worden sind. Aber trotzdem haben wir kaum jemanden gesehen, der gegen „Trendlinien“ ist, die weit über die auf dem Graphen liegenden Datenpunkte hinausgehen – gewöhnlich in beide Richtungen. Manchmal ist es Bequemlichkeit bei der Erstellung der Graphik. Manchmal liegt aber auch die absichtliche (ungerechtfertigte) Implikation zugrunde, dass Daten in Vergangenheit und Zukunft auf der Trendlinie liegen. Aber klar gesagt: falls es keine Daten „vorher“ und „nachher“ gibt, dann kann und sollte eine solche Hypothese nicht aufgestellt werden.

Hier noch ein oder zwei kleine Argumente:

[Eggnog = Eierlikör]

Ich werde mit einer Graphik antworten:

Aber (gibt es nicht immer ein ,Aber‘?):

Fügt man den Datenpunkten auf einem Graphen Zwischenschritte hinzu, kann dies manchmal dazu führen, dass man diese Zwischenschritte als Daten ansieht, die zwischen den gezeigten Datenpunkten liegen. Angemessener würde der Graph NUR die Datenpunkte zeigen, falls das alles ist, was wir haben – aber wie oben gezeigt sind wir es nicht wirklich gewöhnt, Zeitreihen-Graphen auf diese Weise zu sehen – wir wollen die kleinen Linien über die Zeit laufen sehen, welche die Werte verbinden. Das ist gut, solange wir nicht auf den närrischen Gedanken kommen, dass die Linien irgendwelche Daten repräsentieren. Das ist nicht so, und man sollte sich nicht durch kleine Linien dazu bringen lassen zu glauben, dass zwischenzeitliche Daten sich entlang dieser kleinen Linien positionieren. Das kann so sein … oder auch nicht … aber es gibt keine Daten, zumindest nicht auf dem Graphen, die diesen Gedanken stützen.

Für Eierlikör-Verkäufe habe ich Teile des Graphen zwecks Anpassung an die Realität modifiziert:

Dies ist einer der Gründe, warum Graphiken von so etwas wie „jährliche mittlere Daten“ erheblich irreführende Informationen vermitteln – die Spurlinien zwischen den jährlichen mittleren Datenpunkten können leicht dahingehend missverstanden werden, dass sie zeigen, wie sich die Daten in der dazwischen liegenden Zeit verhalten haben – zwischen year-end totals oder jährlichen Mittelwerten. Die graphische Darstellung jährlicher Mittelwerte oder globaler Mittelwerte verdeckt leicht wichtige Informationen über die Dynamik des Systems, welches die Daten hervorbringt. In einigen Fällen, wie Eierlikör wäre es sehr entmutigend, lediglich auf individuelle monatliche Verkaufszahlen zu schauen wie die Zahl der Verkäufe im Juli (die traditionell nahe Null liegen). So etwas könnte einen Eierlikör-Produzenten dazu verleiten, das jährliche Verkaufspotential erheblich zu unterschätzen.

Es gibt viele gute Informationsquellen, wie man eine Graphik angemessen anwendet – und über die allgemeinen Wege, auf denen Graphen missbraucht und missgebildet werden – entweder aus Ignoranz oder mit Absicht, um Propagandazwecke zu unterstützen. Sie treten fast überall auf, nicht nur in der Klimawissenschaft.

Hier folgen zwei klassische Beispiele:

In beiden Graphiken gibt es noch ein weiteres, unsichtbares Element – Fehlerbalken (oder Vertrauensintervalle, wenn man so will) – unsichtbar, weil sie vollständig fehlen. In Wirklichkeit sind Werte vor 1990 „vage geraten“, Vertrauen nimmt von 1900 bis 1950 zu aufgrund von „Schätzungen [erraten] aus sehr ungenauen und räumlich sehr dünn verteilten Daten“. Vertrauen nimmt weiter zu von 1950 bis zu den neunziger Jahren aufgrund „besserer Schätzungen“ und schließlich in der Satelliten-Ära „bessere Schätzungen auf der Grundlage von rechenintensiver Hybris“.

Soweit die Einführung und die Beschreibung von Punkten, an die wir alle uns immer wieder mal erinnern sollten.

Der Knopf-Sammler [the button collector]: überarbeitet

Meine früheren beiden Beiträge über Trends konzentrierten sich auf den button collector, den ich hiermit noch einmal einführen möchte:

Ich habe einen Bekannten, der ein fanatischer Sammler von Knöpfen ist. Er sammelt Knöpfe bei jeder Gelegenheit, verwahrt sie, denkt jeden Tag an sie, liest über Knöpfe und Knöpfe sammeln; er bringt jeden Tag Stunden damit zu, seine Knöpfe in verschiedene kleine Schachteln zu sortieren und sorgt sich um die Sicherheit seiner Sammlung. Ich nenne ihn einfach den button collector*. Natürlich sammelt er nicht wirklich Knöpfe, sondern er sammelt Dollars, Yen, Lira, Pfund Sterling, Escudos, Pesos usw. Aber er verwendet sie nie für irgendeinen brauchbaren Zweck; sie helfen weder ihm noch anderen, also könnten es genauso gut auch Knöpfe sein.

[*Im Folgenden behalte ich den Begriff kursiv bei. Anm. d. Übers.]

Er hat nach der jüngsten Zählung Millionen über Millionen Knöpfe, genau, Sonntag Abend. Also können wir die „Millionen über Millionen“ ignorieren und einfach sagen, dass er Montag früh, zu Beginn seiner Woche, keine Knöpfe hat, um die Dinge vereinfacht darzustellen. (Man sieht schon, der Gedanke von „Anomalien“ hat schon ein paar Vorteile). Montag, Dienstag und Mittwoch gehen vorüber, und Mittwoch Abend zeigt ihm sein Buchhalter die folgende Graphik:

Wie in meinem Beitrag zuvor frage ich: „wie viele Knöpfe wird BC am Freitag Abend haben, also am Tag 5?“

Bevor wir antworten wollen wir darüber sprechen, was man tun muss, um diese Frage auch nur zu beantworten versuchen. Wir müssen einen Gedankengang formulieren, welches Verfahren mit diesem kleinen Datensatz modelliert wird. (Mit „modellieren“ meine ich einfach, dass die täglichen Ergebnisse irgendeines Systems visuell dargestellt werden).

„Nein, müssen wir nicht!“ werden Einige sagen. Wir nehmen einfach ein kleines Lineal zur Hand und zeichnen eine kleine Linie wie folgt (oder verwenden komplizierte mathematische Prozeduren auf unseren Laptops, die das für uns tun) und – voila! Die Antwort ist enthüllt:

Und unsere Antwort lautet „10“ … … (und wird natürlich falsch sein).

Es gibt keinerlei mathematische oder statistische oder physikalische Gründe oder Rechtfertigung zu glauben, dass wir die korrekte Antwort gezeigt haben. Wir haben einen sehr wichtigen Schritt ausgelassen. Wir sind einfach zu schnell vorgegangen. Wir müssen zuerst versuchen zu ergründen, welcher Prozess dahinter steckt (mathematisch, welche Funktion hier graphisch dargestellt wird), der die Zahlen erzeugt, die wir sehen. Dieses Ergründen wird wissenschaftlicher eine „Hypothese“ genannt, ist aber an diesem Punkt nicht anders als jeder andere Guess. Wir können sicher annehmen, dass der Prozess (die Funktion) lautet, „der Gesamtwert von morgen wird der Gesamtwert von heute plus 2 sein“. Dies ist tatsächlich der einzige vernünftige Ansatz für die Daten der ersten drei Tage – und geht sogar konform mit formalen Prognose-Prinzipien (wenn man fast nichts weiß, prognostiziere man mehr des Gleichen).

Schauen wir mal auf den Donnerstag-Graphen:

Klasse! Genau wie gedacht! Und jetzt Freitag:

Hoppla! Was ist passiert? Unsere Hypothese ist mit Sicherheit korrekt. Vielleicht eine Störung…? Versuchen wir es mit Sonnabend (wir arbeiten über das Wochenende, um verlorene Zeit aufzuholen)

Aha, das sieht schon besser aus. Bewegen wir unsere kleine Trendlinie etwas, um sicher zu gehen…:

Na ja, sagen wir, immer noch ziemlich nah dran … jene verdammten Störungen!

Aber einen Moment … wie lautete unsere Original-Hypothese, unser guess hinsichtlich des Systems, des Prozesses, der Funktion, welche die Ergebnisse der ersten drei Tage ergab? Sie lautete „Die Gesamtzahl morgen ist die Gesamtzahl heute plus 2“. Stützen unsere Ergebnisse unsere Original-Hypothese, unseren first guess, bis zum Tag 6? (Klarstellung: diese Ergebnisse kommen einfach durch Zählen zustande – das ist unser Verfahren der Datengewinnung – zählen). Nein, tun sie nicht. Keine wie auch immer geartete Schummelei – etwa zu sagen „aufwärts ist aufwärts“ oder „der Trend ist immer noch steigend“ – lassen diese Ergebnisse unsere Hypothese stützen.

Was würde ein Wissenschaftler, der etwas auf sich hält, an diesem Punkt tun? Er darf viele Dinge nicht tun, als da wären: 1) Die Ergebnisse so frisieren, dass sie zur Hypothese passen, 2) so tun, als ob „nahe“ das Gleiche ist wie Unterstützung ist („erkennen Sie, wie eng die Trends korrelieren?“), 3) Die Option „warten wir bis morgen, wir sind uns sicher, dass sich die Störung aufklären wird“ übernehmen, 4) eine Neuzählung anordnen und sicherstellen, dass die Knopf-Zähler verstehen, welche Zahlen sie zu finden haben, 5) eine Re-Analyse durchzuführen, incremental hourly in-filling, krigging, de-trending and re-analysis and anything else, bis die Ergebnisse auf der Linie liegen, auf der sie „liegen sollten“.

Während unsere Kollegen diese Tricks durchführen, wollen wir schauen, was am Tag 7 passiert:

Oh Mann … mitten in unserem „immer noch steigend“-Mantra müssen wir erkennen, dass wir die Daten nicht mehr weiter verwenden können, um unsere Original-Hypothese zu stützen – irgendetwas Anderes, was wir nicht erwartet haben, muss hier geschehen sein.

Ein wahrer Wissenschaftler macht an diesem Punkt Folgendes:

Er stellt eine neue Hypothese auf, welche die tatsächlichen Ergebnisse besser erklärt, normalerweise mittels Modifizierung der Original-Hypothese.

Das ist schwer – erfordert es doch das Eingeständnis, dass man beim ersten Mal falsch gelegen hatte. Es kann bedeuten, einen wirklich schönen Gedanken aufzugeben – einen Gedanken, der professionell, politisch oder sozial ist, unabhängig davon, ob er die Frage, um die es hier geht, beantwortet. Aber – an diesem Punkt MUSS man das tun!

Tag 8, obwohl „in die richtige Richtung weisend“, hilft unserer Original-Hypothese auch nicht:

Der gesamte Trend der Woche „geht immer noch aufwärts“ – aber dafür ist eine Trendlinie nicht geeignet.

Warum also eine Trendlinie?

Um uns zu helfen, das System oder den Prozess zu visualisieren und zu verstehen, der die Zahlen (tägliche Zählung der Knöpfe) hervorbringt (verursacht), die wir sehen – das ist vor allem nützlich bei Daten, die viel mehr durcheinander sind als hier.

Um uns bei der Beurteilung zu helfen, ob die Hypothese korrekt ist oder nicht.

Solange wir nicht verstehen, was vor sich geht, welcher Prozess zugrunde liegt, werden wir kaum in der Lage sein, bedeutsame Prognosen abzugeben darüber, was die tägliche Zählung der Knöpfe in Zukunft ergibt. An diesem Punkt müssen wir einräumen, dass wir es nicht wissen, weil wir die zugrunde liegenden Prozesse nicht vollständig verstehen.

Trendlinien sind zum Austesten einer Hypothese sinnvoll. Sie können den Forschern visuell oder numerisch zeigen, ob sie einerseits das System oder den Prozess korrekt erkannt haben, welcher ihren Ergebnissen zugrunde liegt, oder ihnen andererseits aufzeigen, wo sie vom Weg abgekommen sind und ihnen Gelegenheit geben, Hypothesen umzuformulieren oder sogar „zurück auf Los gehen“, falls das notwendig ist.

Diskussion

Mein Beispiel ist für die Leserschaft ein wenig unfair, weil es für Tag 10 keine offensichtliche Antwort auf die Frage gibt, die wir beantworten müssen: Welcher Prozess oder welche Funktion erzeugt diese Ergebnisse?

Das ist der ganze Punkt dieses Beitrags!

Ich will bekennen: Die Ergebnisse dieser Woche sind zufällig ausgesucht – es gibt kein zugrunde liegendes System, das es in den Ergebnissen zu entdecken gibt.

Derartiges tritt viel öfter bei Forschungsergebnissen auf als allgemein bekannt – man sieht scheinbar zufällige Ergebnisse, hervorgehend aus einer schlecht durchgeführten Studie, aus einer zu geringen Datenmenge, aus einer ungenauen Selektion der Parameter und einer „Hypothese weit daneben liegend“. Dies hat zu unsäglichen Bearbeitungen unschuldiger Daten geführt, die unablässig „bearbeitet werden, um Geheimnisse zu ergründen, die sie gar nicht enthalten“.

Wir glauben oft, dass wir ziemlich klar und offensichtlich sehen, was verschiedene Visualisierungen numerischer Ergebnisse uns sagen können. Wir kombinieren diese mit unserem Verständnis der Dinge, und wir geben kühne Statements ab, oftmals mit übertriebener Sicherheit. Haben wir diese erst einmal aufgestellt, sind wir versucht, aus falschem Stolz bei unseren first guesses zu bleiben. Falls unsere Zeiträume im obigen Beispiel nicht Tage, sondern Jahre gewesen wären, würde diese Versuchung sogar noch stärker sein, vielleicht unwiderstehlich – unwiderstehlich, falls wir zehn Jahre mit dem Versuch zugebracht haben zu zeigen, wie richtig unsere Hypothese ist, nur um zu sehen, dass die Daten uns betrügen.

Wenn unsere Hypothesen daran scheitern, die Daten zu prognostizieren oder zu erklären, die bei unseren Ergebnissen oder bei Messungen in Systemen der realen Welt zutage treten, brauchen wir neue Hypothesen – neue guesses – modifizierte guesses. Wir müssen uns dem Umstand stellen, dass unsere Hypothese nicht stimmt – oder noch schlimmer, dass sie vollständig falsch ist.

Von Linus Pauling, brillanter Chemiker und Nobelpreisträger, glaubt man allgemein, dass er sich zum Ende seines Lebens zu viele Jahre lang dem Kampf gegen eine Krebs-Kur mit Vitamin C verschrieben hat, und der es stets abgelehnt hat seine Hypothese neu zu evaluieren, als die Daten gegen sie sprachen und andere Gruppen seine Ergebnisse nicht nachvollziehen konnten. Dick Feynman machte für Derartiges etwas verantwortlich, dass er ,sich selbst zum Narren halten‘ nannte. Andererseits kann Pauling recht haben hinsichtlich der Fähigkeit von Vitamin C, gewöhnliche Erkältungen zu verhindern oder deren Dauer zu verkürzen. Dieses Thema war noch nicht ausreichend Gegenstand guter Experimente, um Schlussfolgerungen ziehen zu können.

Wenn unsere Hypothese nicht zu den Daten passt wie im oben ausführlich beschriebenen Beispiel – und es scheint dafür keine vernünftige, belastbare Antwort zu geben – dann müssen wir zurück zu den Grundlagen gehen und unsere Hypothesen testen:

1) Ist unser Experiment-Aufbau valide?

2) Sind unsere Messverfahren angemessen?

3) Haben wir die richtigen, zu messenden Parameter gewählt? Reflektieren/repräsentieren unsere gewählten Parameter (physisch) das, was wir glauben, dass sie reflektieren/repräsentieren?

4) Haben wir alle möglichen Störvariablen berücksichtigt? Sind die Störfaktoren um Größenordnungen größer als das, was wir zu messen versuchen? (Hier steht ein Beispiel).

5) Verstehen wir das größere Bild gut genug, um ein Experiment dieser Art angemessen durchzuführen?

Darum geht es heutzutage – das ist der Fragenkatalog, den ein Forscher aufstellen muss, wenn die Ergebnisse einfach nicht zur Hypothese passen, unabhängig von wiederholten Versuchen und Modifizierungen der Original-Hypothese.

„Moment“, kann man jetzt sagen, „was ist mit Trends und Prognosen?“

Trends sind einfach nur graphische Visualisierungen der Änderungen während der Vergangenheit oder von vorhandenen Ergebnissen. Das möchte ich wiederholen: es sind Ergebnisse von Ergebnissen – Auswirkungen von Auswirkungen – es sind keine Ursachen und können auch keine sein.

Wie wir oben sehen, können selbst offensichtliche Trends nicht herangezogen werden, um zukünftige Werte beim Fehlen eines wahren (oder zumindest „ziemlich wahren“) und klaren Verständnisses der Prozesse, Systeme und Funktionen (Ursachen) zu prognostizieren, welche zu den Ergebnissen, den Datenpunkten führen, welche die Grundlagen des Trends sind.

Wenn man ein klares und ausreichendes Verständnis der zugrunde liegenden Systeme und Prozesse wirklich hat, dann ist es so: falls der Trend der Ergebnisse vollständig unserem Verständnis (unserer Hypothese) entspricht und falls man eine Größe verwendet, welche die Prozesse genau genug spiegelt, dann kann man dies heranziehen, um mögliche zukünftige Werte innerhalb bestimmter Grenzen zu prognostizieren – fast mit Sicherheit, falls Wahrscheinlichkeiten allein als Prognosen akzeptabel sind. Aber es ist das Verständnis des Prozesses, der Funktion, dass es gestattet, die Prognose abzugeben, nicht der Trend – und das tatsächliche kausative Agens ist immer der zugrunde liegende Prozess selbst.

Falls man durch Umstände, Druck der Öffentlichkeit oder seitens der Politik oder einfach durch Hybris gezwungen wird, eine Prognose trotz des Fehlens von Verständnis abzugeben – mit großer Unsicherheit – ist es das Sicherste, „weiterhin das Gleiche“ zu prognostiziere und selbst bei einer solchen Prognose sehr viel Spielraum zuzulassen.

Anmerkungen:

Studien aus jüngerer Zeit zu Trends in nicht linearen Systemen (hier) geben nicht viel Hoffnung, abgeleitete Trends für Prognosen nutzen zu können. Meist reicht es nur zu „vielleicht wird es so weitergehen wie in der Vergangenheit – aber vielleicht wird es auch eine Änderung geben“. Klimaprozesse sind fast mit Sicherheit nicht linear – folglich ist es für Zahlen physikalischer Variablen als Ergebnis von Klimaprozessen (Temperatur, Niederschlag, atmosphärische Zirkulation, ENSO/AMO/PDO) unlogisch, wenn man davon gerade Linien (oder Kurven) über Graphiken numerischer Ergebnisse dieser nicht linearen Systeme zeichnet, um Projektionen zu erhalten und zu nicht physikalischen Schlussfolgerungen zu kommen.

Es gibt immer mehr Arbeiten zum Thema Prognose. (Hinweis: Die Konstruktion gerader Linien in Graphiken ist kein Beweis). Scott Armstrong bemühte sich viele Jahre lang, einen Satz von Prognose-Prinzipien zu entwickeln, um „wissenschaftliches Prognostizieren allen Forschern, Praktikanten, Klienten und Anderen zugänglich zu machen, die sich um Prognose-Genauigkeit kümmern“. Seine Arbeit findet sich hier. Auf seiner Website gibt es viele Beiträge zu Schwierigkeiten, Klima und globale Erwärmung zu prognostizieren (nach unten scrollen).

# # # # #

Der größte Teil der Leserschaft hier ist skeptisch hinsichtlich des Mainstreams und des IPCC-Konsens‘ der Klimawissenschaft, welche meiner Ansicht nach zu verzweifelten Versuchen verkommen ist, eine gescheiterte Hypothese namens „CO2-induzierte katastrophale globale Erwärmung“ mit aller Gewalt am Leben zu halten – Treibhausgase mögen allgemein eine gewisse Erwärmung bewirken, aber wie stark, wie schnell, wie lange sowie vorteilhaft oder schädlich – das sind alles Fragen, die bisher in keiner Weise beantwortet sind. Und außerdem steht immer noch die Frage im Raum, ob sich das Klima der Erde selbst reguliert trotz sich ändernder Konzentrationen von Treibhausgasen oder solarer Fluktuationen.

Link: https://wattsupwiththat.com/2018/01/04/the-button-collector-revisited-graphs-trends-and-hypotheses/

Übersetzt von Chris Frey EIKE




Trotz allem, was man so hört: globale Erwärmung macht das Wetter nicht extremer

Zuletzt kam diese Behauptung des „neuen Normals“ von der Münchener Rück, welche jüngst ihren jährlichen Bericht zu Schadenssummen durch Hurrikane, Überschwemmungen, Buschbrände und so weiter veröffentlichte (hier).

Dem Report zufolge zahlten Versicherer die Rekordsumme von 135 Milliarden Dollar aufgrund dieser Katastrophen, und der Gesamtverlust belief sich auf 330 Milliarden Dollar, das ist die zweithöchste Summe seit 2011. Es war dem Report zufolge auch die kostspieligste Hurrikan-Saison jemals. Und wenn man die Graphik in dem Report betrachtet, kann man den Eindruck gewinnen, dass die Kosten von Naturkatastrophen seit dem Jahr 1980 einen Aufwärtstrend zeigen.

Natürlich schlachten Klimawandelisten diesen Punkt aus als weiteren Beweis, dass die Zunahme des CO2-Niveaus schon jetzt Katastrophen in aller Welt auslöst. Der Environmental Defense Fund EDF drückt es so aus: „Mit dem Voranschreiten des vom Menschen ausgelösten Klimawandels wird Extremwetter immer häufiger und gefährlicher“.

Das eigene Corporate Climate Center der Münchner Rück behauptet, dass „2017 kein Ausreißer war“ und dass „wir unser Radar auf einen Trend neuer Größenordnungen ausrichten müssen“.

Aber welche Beweise gibt es dafür, dass Extremwetter „immer häufiger und gefährlicher wird“? In den USA gar keinen.

Wer das nicht glaubt, sollte sich die Serie von Graphiken unten anschauen, von Websites der Regierung entnommen, in denen jeweils Trends von Hurrikanen, Tornados, Dürren und Buschfeuer dargestellt sind – die den Alarmisten zufolge allesamt einen Aufwärtstrend aufweisen.

Diese Graphiken finden sich hier.



Dr. Roger Pielke Jr. zeigt auf seinem Blog “The Climate Fix”:

Abbildung: Jährliche Kosten von Wetterkatastrophen (Daten von der Münchner Rück) im Verhältnis zum globalen BIP (Daten von den UN) von 1990 bis 2017.

Erkenntnisse daraus:

2017 liegt nach 2005 an zweiter Stelle

Der Datensatz wird dominiert von US-Hurrikanen (die etwa 70% des Verlustes ausmachen)

Der Trend von 1990 bis 2017 zeigt abwärts

Mittel und Median liegen beide bei 0,24%

während 6 der letzten 10 Jahre lagen die Verluste unter dem Mittel.

Aber der wichtigste Punkt: Man ziehe Katastrophen nicht als Argument bzgl. Klimatrends heran. Man verwende Klimadaten. Pielke 2015 zeigt eine zugängliche Zusammenfassung der IPCC-Schlussfolgerungen zu Trends hinsichtlich von Wetterextremen. (Siehe auch IPCC SREX and AR5). Trends hinsichtlich des Auftretens von Extremwetter helfen, diese Graphik zu erklären, hat doch die Welt gerade eine lange Zeit Glück gehabt in dieser Hinsicht.

Link: https://wattsupwiththat.com/2018/01/07/despite-what-youve-heard-global-warming-isnt-making-weather-more-extreme/

Übersetzt von Chris Frey EIKE




Keine Erwärmung während der letzten 40 Jahre?

Das diese unglaubliche Tatsache unbemerkt geblieben ist, geht hauptsächlich auf die Fixierung der wissenschaftlichen Gemeinschaft auf die Erwärmung zurück, wie sie aus den statistischen Temperaturmodellen hervorgeht. Aber wie hier erklärt, sind diese komplexen Computermodelle vollständig unzuverlässig.

Die Satelliten-Messungen zeigen nun aber eine gewisse globale Erwärmung, was manch einen dazu brachte, diesen Umstand fälschlicherweise der Hypothese einer vom Menschen verursachten, CO2-induzierten Erwärmung zuzuschreiben. Eine sorgfältige Betrachtung zeigt, dass diese Hypothese falsch ist. In Wirklichkeit gibt es keinen einzigen Beweis einer Erwärmung durch CO2 während der gesamten Satelliten-Aufzeichnungen.

Um das zu erkennen, muss man die Satelliten-Aufzeichnungen im Detail betrachten. Dazu sollte man im Hinterkopf haben, dass es in der Wissenschaft ausschließlich um spezifische Details einer Beobachtung geht. Diese Details können große, allgemein akzeptierte Theorien grundlegend widerlegen.

Beispiel: Das negative Ergebnis des Michelson-Morley-Experimentes führte zu der revolutionären Speziellen Relativitätstheorie. Wenn es um globale Erwärmung geht, zeigen die 40 Jahre langen Satelliten-Messungen ein stark negatives Ergebnis für die Hypothese der Erwärmung durch CO2. Die CO2-Erwärmung ist einfach nicht da.

Dieses negative Ergebnis geht eindeutig aus einer eingehenden Betrachtung der folgenden Graphik hervor:

Quelle

Die Graphik zeigt die monatlichen, fast globalen Temperaturmessungen in der unteren Atmosphäre. Die Satelliten decken nicht den gesamten Globus ab, aber den größten Teil. In der Graphik enthalten ist auch eine rote Linie, welche ein gleitendes Mittel über 13 Monate repräsentiert.

Man beachte, dass auf der vertikalen Achse die Temperatur mit etwas dargestellt wird, das wir Anomalien nennen, es sind keine tatsächlichen Temperaturen. Eine Anomalie ist hier die Differenz in Grad Celsius zwischen der tatsächlichen Temperatur und einer willkürlich gewählten mittleren Temperatur. Diese mittlere Temperatur definiert die Null-Linie in der Graphik. Für unsere Diskussion hier ist es unwichtig, warum man das so macht.

Schauen wir zunächst auf die Periode vom Anfang bis zum Jahr 1997. Die rote Linie zeigt, dass dies etwas ist, was man einen aperiodischen Oszillator nennt. Es ist ein Oszillator, weil er immer wieder steigt und fällt, steigt und fällt usw. Es ist aperiodisch im Gegensatz zu periodisch, weil die Phasen von Anstieg und Rückgang unregelmäßig daherkommen.

Es ist wohl eindeutig, dass es alles in allem nur eine sehr geringe Erwärmung während dieses Zeitraumes gab, wenn überhaupt eine. Das heißt, die rote Linie oszilliert in etwa um die -0,1°C-Linie.

Liegt ein aperiodischer Oszillator mit so wenigen Oszillationen vor, gibt es keinen Grund zu versuchen, übertrieben präzise zu sein, weil die nächste Oszillation daran etwas ein wenig ändern könnte. Im Besonderen muss man sehr sorgfältig vorgehen, wenn man eine gerade Linie (d.h. linear) in die Trendanalyse legt, weil das Ergebnis dann sehr empfindlich darauf reagiert, wo man mit dem Trend anfängt und aufhört.

Sagen wir also einfach, dass es während dieses Zeitraumes eine geringe oder gar keine Erwärmung gegeben hat. Zu jener Zeit war das bekannt und ein wesentlicher Punkt in der Klimawandel-Debatte.

Dann ereignete sich etwas, was oftmals der Große El Nino genannt wird, obwohl es in Wirklichkeit ein großer El Nino-La Nina-Zyklus der ozeanischen Zirkulation ist. Erst steigt die Temperatur stark, dann geht sie stark zurück, bis sie sich wieder in einem natürlichen aperiodischen Oszillator stabilisiert.

Der große El Nino-La Nina-Zyklus begann Mitte 1997 und unterbrach eine abwärts gerichtete aperiodische Oszillation. Er endet irgendwann 2001, gefolgt von einer neuen aperiodischen Oszillation. Allerdings ist diese Oszillation wärmer und konzentriert sich in etwa um die +0,15°C-Linie. Diese neue Oszillation dauert bis zu einer weiteren großen El Nino-La Nina-Oszillation um das Jahr 2015. Was dieser letzte El Nino-Zyklus bewirkt, muss abgewartet werden.

Folglich scheint der Graph im Wesentlichen vier unterschiedliche Perioden aufzuweisen. Erstens die Periode mit geringer bzw. fehlender Erwärmung von 1979 bis 1997. Zweitens der große El Nino-La Nina-Zyklus von 1997 bis 2001. Drittens die wärmere Periode mit geringer oder gar keiner Erwärmung von 2001 bis 2015. Viertens der neue El Nino-La Nina-Zyklus, der immer noch im Gange ist.

Ja, es gibt eine gewisse Erwärmung, aber diese scheint fast vollständig zusammenzufallen mit dem großen El Nino-La Nina-Zyklus. Die einfachste Erklärung für den Umstand, dass die zweite flach verlaufende aperiodische Kurve wärmer ist als die erste, ist der El Nino-Effekt. Vielleicht ist ein Teil der in der Atmosphäre freigesetzten Erwärmung dort verblieben, was die Grundlinie für die nächste aperiodische Oszillation anhebt.

In keinem Falle jedoch gibt es irgendwelche Beweise einer CO2-induzierten oder einer anthropogen verursachten Erwärmung. Diese Ursachen würden zu einer relativ stetigen Erwärmung mit der Zeit führen und nicht zu einzelnen episodischen Erwärmungen, die hier vorliegen. Im Besonderen gibt es meines Wissens keine bekannte Art und Weise, mit der die graduelle CO2-Zunahme diesen gigantischen El Nino-La Nina-Zyklus verursacht haben könnte.

Folglich scheint die geringe Erwärmung während der letzten 40 Jahre mehr oder weniger vollständig natürlichen Ursprungs zu sein. In jedem normalen Wissenschafts-Fachbereich wäre dieses Ergebnis ausreichend, die Hypothese ungültig zu machen, dass die zunehmende CO2-Konzentration die globale Erwärmung verursacht.

Link: http://www.cfact.org/2018/01/02/no-co2-warming-for-the-last-40-years/

Übersetzt von Chris Frey EIKE

Anmerkung: Auch wenn ich mich wiederhole: Für jeden Laien mit halbwegs gesundem Menschenverstand ist doch glasklar, dass das Wetter – und damit das Klima – nicht nur von einem einzigen Parameter gesteuert wird, der noch dazu nur in so geringer Menge in der Atmosphäre vorhanden ist – oder? — C. F.




Von Korrelationen, Trends bei Anomalien!

Zugegeben es ist kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist.

In der Klimatologie wird aus guten Gründen sehr oft mit Korrelationen gearbeitet. Diese werden gesucht, berechnet, verglichen, mit vermuteten Ursachen unterlegt, oft aber auch beides miteinander verwechselt, um der Beantwortung der schwierigen Frage näher zu kommen: Was steuert unser Klima? Oder – genauer – was steuert unsere Temperatur? Da Klimatologen es oft nicht unter „Weltklima“ machen – dabei es tunlichst unterlassen diesen Begriff zu definieren – muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!

Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2°C-Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt gemessen werden.

Nun wissen wir aus vielfältigen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist, eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern eher schlechter geworden. Zwar behauptet das britische Met. Office1 ungerührt auf seiner Website: „Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“. Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends – ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt, gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.

Abbildung 1: Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung.

Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Met. Office zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen2 ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels – des Politprofis Al Gore – die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 3 im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die Autoren „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.

In der Zusammenfassung des Aufsatzes steht:“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ In diesem hochtrabenden, etwas sehr verschwurbelten Satz steht also im Klartext:“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“ Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet.

Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert wurde, schaffte man

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen Modelle (GCM´s) wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.

Diese Methode wird vom GISS unter seinem Chef James Hansen und seinem Nachfolger Gavin Schmidt bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren4 angemeldet.

Jüngst erst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.

Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen

Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.

Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.

Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt.

Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.

Wir sehen sie in Abbildung 5:

Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.

Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:

Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen

Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!

Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach 5 folgert daraus:

„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.(http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728) Denn dort wird so gut wie nirgends gemessen: „Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“ Richtige seriöse Klimaforschung sollte anders aussehen.

Meint

Michael Limburg EIKE

1 Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html) …The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.

2„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit (Wikipedia spricht allgemeiner von Wechselbeziehungen) zweier Datenzeitreihen. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. sehr ähnlich. Ein negatives Vorzeichen verändert die Ähnlichkeit nicht, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.

3 HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

4 Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen, gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode

5 Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728




Künstlich fabrizierter Konsens: Historie der Anfänge des IPCC

Bernie Lewin hat ein bedeutendes neues Buch geschrieben: SEARCHING FOR THE CATASTROPHE SIGNAL:The Origins of The Intergovernmental Panel on Climate Change

Die Bedeutung dieses Buches manifestiert sich in den Danksagungen sowie im Zusammenhang von Assistenz und Beiträgen von frühen Führern und Teilnehmern am IPCC:

Dieses Buch hätte nicht geschrieben werden können ohne die Dokumente, welche ich über Mike MacCracken und John Zillman erhalten habe. Ihr fortwährendes Interesse an einer wahren und genauen Präsentation der Fakten verhinderte, dass ich im Zuge meiner Recherchen vom Weg abkomme. Viele von denen, die an den hier beschriebenen Ereignissen teilhatten, widmeten großzügig ihre Zeit der Beantwortung meiner Anfragen. Darunter waren Ben Santer, Tim Barnett, Tom Wigley, John Houghton, Fred Singer, John Mitchell, Pat Michaels … und noch viele mehr.

Vielleicht erinnert sich der eine oder andere an einen früheren Beitrag hier auf Climate etc. mit dem Titel Consensus by Exhaustion, an Lewins 5-teilige Reihe über Madrid 1995: The last day of climate science.

Das Buch ist lesenswert. Der Schwerpunkt meiner Zusammenfassung des Inhalts dieses Buches liegt bei den Kapiteln 8 bis 16 im Zusammenhang mit dem Thema ,Erkennung und Zuordnung‘, ,politischer Karren vor dem wissenschaftlichen Pferd‘ und ,Fabrikation des Konsens‘.

Hier also Auszüge aus dem Buch:

Die Energiekrise der siebziger Jahre

Mit einer Verbindung, die ich zuvor nicht hergestellt hatte, zeigt Lewin den historischen Kontext des Schwerpunktes auf der CO2-Forschung in den siebziger Jahren, angeblich wegen der „Ölkrise“, und Bedenken hinsichtlich Energiesicherheit. Es gab eine bedeutende Debatte darüber, ob Kohle oder Kernkraft das Öl ersetzen sollten. Aus dem 8. Kapitel:

Aber in dem Streit zwischen Kernkraft und Kohle hatten die Befürworter der Kernkraft einen bedeutenden Vorteil. Dieser ergab sich als Folge der Neuausrichtung des riesigen Netzwerkes der von der Regierung finanzierten R&D-Laboratorien [=Forschung und Entwicklung] innerhalb der bürokratischen Maschinerie. Es waren diese ,nationalen Laboratorien‘ jener Zeit, in denen das Kohlendioxid-Programm ins Leben gerufen worden ist. Diese Flutwelle neuer Ergebnisse bedeutete, dass die Forschung bzgl. eines spezifischen menschlichen Einflusses auf das Klima zu einem Hauptbereich der Klimaforschung allgemein werden würde. Heute könnten wir das übersehen, und zwar aus dem einfachen Grund, dass die ,Kohlendioxid-Frage‘ schon lange den gesamten Bereich der Klimaforschung dominiert – wobei die wörtliche Bedeutung des Terminus‘ ,Klimawandel‘ gleichzeitig auf diesen Bereich eingeengt wurde.

Dieser Schwerpunkt wurde NICHT von Atmosphären-Wissenschaftlern gesetzt:

Das stärkste Interesse an Klima unter den atmosphärischen Wissenschaftlern war eine internationale Klimakonferenz in Stockholm im Jahre 1974 sowie eine Publikation des ,US-Komitees für GARP‘ (GARP = Global Atmospheric Research Programme) im darauf folgenden Jahr. Der GARP-Report erhielt das Motto [übersetzt] ,Klimawandel verstehen: Ein Programm für Maßnahmen‘, wobei sich der ,Klimawandel auf den natürlichen Klimawandel bezog, und mit ,Maßnahmen‘ war ein ambitioniertes Forschungsprogramm gemeint.

Es gab ein koordiniertes und gut ausgestattetes Forschungsprogramm bzgl. katastrophaler Auswirkungen, bevor es irgendwelche einzelnen Bedenken innerhalb der meteorologischen Gemeinschaft hinsichtlich dieser Auswirkungen gab und bevor es irgendwelche signifikanten öffentlichen oder politischen Ängste gab, die diesen Bedenken Vorschub leisteten. Es begann mitten in einer Debatte über die relativen Vorzüge der Energieerzeugung durch Kohle oder durch Kernkraft (nach der Ölkrise der siebziger Jahre). Es wurde koordiniert durch Wissenschaftler und Manager mit Interessen an der Kernkraft-Seite dieser Debatte, wobei die Finanzierung infolge Ängsten bzgl. der Energiesicherheit kanalisiert wurde hin zu einer Untersuchung eines potentiellen Problems mit Kohle, um mehr Unterstützung für die Option Kernkraft zu gewinnen.

Das Auftauchen der ,globalen Erwärmung‘

Im Februar 1979, auf der ersten Weltklimakonferenz jemals, erhoben Meteorologen zum ersten Mal Bedenken bzgl. Erwärmung. Die Weltklimakonferenz mag den Abkühlungs-Alarm beseitigt haben, aber sie hat nicht die Erwärmungs-Angst losgetreten.

Während die Führung des UN-Umweltprogramms UNEP stur blieb hinsichtlich globaler Erwärmung, lag die Last vorherrschend bei der Weltwetterorganisation WMO. Als die UNEP-Forderung nach der Modellierung von Klima-Szenarien pünktlich das WCRP (World Climate Research Programme)-Komitee erreichte, scheute man diesen Gedanken: Computer-Modellierungen waren zu primitiv, und besonders auf regionaler Ebene könnten damit keine bedeutenden Ergebnisse gewonnen werden. Das Voranschreiten bei der Entwicklung von Klima-Szenarien würde lediglich die Entwicklung irreführender Abschätzungen der Auswirkungen riskieren.

Es dauerte nicht lange, bis die wissenschaftliche Forschung bzgl. Klimawandel im politischen Prozess marginalisiert wurde, und zwar im Kontext mit dem Vorsorgeprinzip:

Zu Beginn der Klimavertrag-Bewegung im Jahre 1985 in Villach entfernte sich die Rhetorik der politischen Bewegung bereits von seiner Verankerung in der Wissenschaft. Zweifel hinsichtlich der wildesten Spekulationen wurden gewendet in einer Rhetorik von Vorsorgemaßnahmen: wir sollten in jedem Falle aktiv werden, nur für den Fall. Mit der Umkehrung der Beweislast kann die Forschung weitergehen, während die Frage weiterhin offen bleibt.

Ursprünge des IPCC

Hinsichtlich der Ursprünge des IPCC:

Jill JÅNager äußerte ihre Ansicht, dass einer der Gründe der aktiven Unterstützung der USA für ein zwischenstaatliches Gremium zu Klimawandel war, dass das US State Department befürchtet hatte, dass die Lage ,außer Kontrolle gerät‘, wobei ,frei stehende Kanonen potentiell die Agenda festlegen‘ konnten, obwohl dies den Regierungen vorbehalten bleiben sollte. Ein Gremium zwischen Regierungen, so diese Denkrichtung, würde die politische Diskussion wieder unter die Kontrolle der Regierungen bringen. Es würde außerdem die Wissenschaft den Politikern näher bringen, ohne dass Politik-Unternehmer [policy entrepreneurs ?] dazwischen funken. Nachdem sich ein solches Gremium über die Wissenschaft geeinigt hatte, so dieser Gedanke weiter gesponnen, kann man zu einer Diskussion über irgendwelche politischen Implikationen kommen.

Während die Politik bereits die Wissenschaft zunehmend irrelevant machte, brachten Bert Brolin und John Houghton den Schwerpunkt zurück in die Wissenschaft:

Innerhalb eines Jahres der ersten IPCC-Sitzung würde sich der Abschätzungs-Prozess transformieren von einem Report der Repräsentanten eines Landes im Volumen eines Pamphlets zu einem Prozess, welcher drei dicke Bände hervorbringt, geschrieben von unabhängigen Wissenschaftlern und Experten am Ende des komplexesten und teuersten Verfahrens, das jemals von einem UN-Gremium zu einem einzelnen meteorologische Thema durchgeführt worden ist. Die Ausdehnung der Abschätzung und die Machtverschiebung zurück zu den Wissenschaftlern erfolgte ziemlich genau zu der Zeit, als eine Welle des politischen Enthusiasmus‘ erfolgreich kanalisiert werden konnte hin zu Investitionen in den UN-Prozess mit dem zwischenstaatlichen Gremium im Zentrum.

John Houghton, Vorsitzender der Arbeitsgruppe I, brachte das IPCC näher an die Linien einer von Experten gesteuerten Begutachtung: er nominierte einen oder zwei wissenschaftliche Experten – ,Leitautoren‘ – um individuelle Kapitel zu entwerfen, und er etablierte ein Verfahren, mittels welchem diese Entwürfe auf Treffen der Leitautoren begutachtet werden.

Die Hauptänderung war, dass er die Verantwortung von den Delegierten der Regierungen zu praktizierenden Wissenschaftlern verschob. Die Entscheidung, Assessoren zu rekrutieren, welche führend in ihrer jeweiligen Wissenschaft waren, brachte jedoch ein anderes Problem mit sich, nämlich dass die Tendenz dieser Wissenschaftler zutage trat, aus ihren eigenen Arbeiten zu zitieren, selbst wenn diese noch gar nicht veröffentlicht waren.

Das Problem der Marginalisierung der Wissenschaft blieb jedoch bestehen:

Das Vertrags-Verfahren lag jetzt in den Händen von Karriere-Diplomaten und dürfte wahrscheinlich dominiert werden von unfreundlichen südlichen politischen Agitatoren. Daher standen die Wissenschaftler vor der sehr realen Perspektive, dass ihr Klima-Gremium aufgelöst und ersetzt wird, sowie die Framework Convention on Climate Change ihre Arbeit aufnehmen würde.

Und viele Wissenschaftler waren skeptisch:

Mit der Erkenntnis, dass es eine unaufhaltsame Bewegung hin zu einem Vertrag gab, kam von der wissenschaftlichen Gemeinschaft eine Welle des Skeptizismus‘. Dieser Chor der Bedenken war jedoch durch den Lärm auf dem Weg zu einem neuen Vertrag kaum zu hören und ist jetzt weitgehend in Vergessenheit geraten.

Zu jener Zeit legte John Zillman einem Politikforum eine Studie vor, in der er versuchte, all jenen, die in die politische Debatte verstrickt waren, ein wenig mehr Einsicht zu geben, welch großer Unterschied bestand zum Standpunkt innerhalb der Forschungsgemeinschaft. Zillmann stellte dazu fest, dass…

…die Treibhausgas-Debatte jetzt abgekoppelt wurde von wissenschaftlichen Betrachtungen, welche diese ausgelöst hatte; dass es viele Agenden gab, dass darin jedoch höchstens peripher enthalten war zu ergründen, ob Wetter- und Klimaänderungen für die Welt gut oder schlecht waren“

Beispielhaft für das Ausmaß der grassierenden Frustration unter den Klimaforschern jener Zeit zitierte Zillman den Direktor des WCRP [World Climate Research Programme, ein Projekt der WMO. Anm. d. Übers.]. Das war damals Pierre Morel, erklärter er, welcher ,die internationale Klimaforschung über das vergangene Jahrzehnt vorangetrieben hatte‘. Einige Monate, bevor Zillman mit der Studie aufwartete, hatte Morel dem WCRP-Komitee einen Report zugeleitet, in welchem er die Lage wie folgt beschrieb:

„Die zunehmende direkte Einmischung der Vereinten Nationen in Angelegenheiten des globalen Klimawandels, in Umwelt und Entwicklung war Ausdruck des Erfolges derjenigen Wissenschaftler, die um #politische Aufmerksamkeit‘ wetteiferten und einer ,Kenntnisnahme der Öffentlichkeit‘ der Probleme in Verbindung mit dem Weltklima. Das Thema Klimawandel hat jetzt ein Niveau erreicht, auf dem es in den Händen professioneller Unterhändler für auswärtige Angelegenheiten liegt und damit die grenzen wissenschaftlicher Erkenntnisse (und Unsicherheiten) verlassen hat“

Die Unterhänlder, so Morel, hatten kaum Interesse an weiteren Informationen von wissenschaftlichen Agenturen einschließlich des IPCC und sogar noch weniger Interesse für die komplizierten Statements seitens der wissenschaftlichen Gemeinschaft.

Es tat sich eine immer größer werdende Kluft auf zwischen der Politik/den Politikern einerseits und der Wissenschaft andererseits:

Das allgemeine Gefühl in der Forschungsgemeinschaft, dass der politische Prozess die Wissenschaft breit überholt hat, hatte oftmals eine andere Auswirkung auf jene Wissenschaftler, die mit dem Thema globale Erwärmung mittels der üppigen Finanzierung desselben zu tun hatten. Für sie war die Lage so wie von Präsident Bush zu verstehen gegeben hatte, als er mehr Förderung versprochen hatte: die Tatsache, dass ,Politik und Meinung die Wissenschaft hinter sich gelassen haben‘, brachte die Wissenschaftler unter Druck, ,die Kluft zu überbrücken‘.

Tatsächlich gab es jede Menge Skeptizismus hinsichtlich der Modellierung, die innerhalb und um das Carbon Dioxide Program frei ausgesprochen wurde während jener Tage, bevor das Klimavertrags-Verfahren begann. Jene, die darauf bestanden, sich weiter um wissenschaftliche Validierung zu bemühen, blieben stecken vor dem Problem, die natürliche Variabilität im Hintergrund besser herauszuarbeiten.

Die Herausforderung von ,Erkennung und Zuordnung‘

Hinsichtlich der Aussage von Jim Hansen vor dem Kongress-Komitee im Jahre 1998:

Ein Beitrag im Magazin Science im folgenden Frühjahr eröffnete Einblicke in den Aufruhr. Bei ,Hansen gegen die Welt bzgl. Treibhaus-Bedrohung‘ erklärte der Wissenschaftsjournalist Richard Kerr: ,während Wissenschaftler die Aufmerksamkeit des Capitol Hill bzgl. Treibhauseffekt begrüßten‘, distanzierten sie sich jedoch ,von der wiederholt unwissenschaftlichen Art und Weise, mit der ihr Kollege James Hansen diese Aufmerksamkeit zu errungen hatte‘.

Eindeutig war die wissenschaftliche Opposition gegen jedwede Erkennungs-Behauptungen im Jahre 1989 erheblich, als die IPCC-Abschätzung im Gange war.

Erkennung und Zuordnung des anthropogenen Klimasignals war das Entscheidende:

Während des IPCC-Begutachtungsprozesses (zum 1. Zustandsbericht) wurde Wigley aufgefordert, eine Frage zu beantworten: Wann wird die Erkennung erreicht werden? Er antwortete mit einem Zusatz zu dem IPCC-Kapitel, in welchem erklärt wird, dass wir warten müssten, bis das halbe Grad Erwärmung, zu dem es bereits im Laufe des 20. Jahrhunderts gekommen war, sich wiederholt. Nur dann haben wir gute Aussichten herauszufinden, wie viel dieser Erwärmung dem Menschen geschuldet ist. Falls die von Kohlendioxid getriebene Erwärmung am oberen Ende der Prophezeiungen liegt, wäre das Anfang des 21. Jahrhunderts, aber bei geringer Erwärmung dürften wir kaum Erkenntnisse dazu vor dem Jahr 2050 haben.

Der erste IPCC-Zustandsbericht war für die ,Kausa‘ der Politiker keine Hilfe. Auf dem Weg zum Erdgipfel von Rio:

Um die Diskussionen der Framework Convention auf dem Erdgipfel von Rio zu stützen, stimmte man dafür, dass der IPCC eine ergänzende Einschätzung abgab. Diese ,Rio-Ergänzung‘ erklärte:

„…das Klimasystem kann auf viele Antriebe reagieren, und es muss noch bewiesen werden, dass das Treibhaus-Signal ausreichend unterscheidbar ist von anderen noch zu entdeckenden Signalen, es sei denn, es erfolgt eine so erhebliche Zunahme der troposphärischen Temperatur, dass andere Erklärungen dafür unwahrscheinlich sind“.

Nun ja, diese Zusatz-Einschätzung half auch nicht viel. Die Wissenschaftler unter Leitung von Bolin und Houghton waren gehalten, sich Druck nicht zu beugen. Aber das IPCC riskierte die Marginalisierung in diesem Vertragsverfahren.

Auf dem Weg zur COP1 in Berlin bedrängte das IPCC selbst das Verhandlungs-Komitee, es in dem politischen Prozess zu halten, aber Spannungen ergaben sich, als es sich weigerte, seine eigenen Verfahren zurückzufahren, um den politischen Erfordernissen zu genügen.

Allerdings blieb der Schub für Maßnahmen auf dem Weg zu Rio ausreichend stark, dass diese Schwierigkeiten mit der wissenschaftlichen Rechtfertigung ignoriert werden konnten.

Der zweite Zustandsbericht:

Im Zusammenhang mit den Vertrags-Aktivitäten wurde der zweite IPCC-Zustandsbericht als sehr wichtig erachtet, um Implementationen in das Kyoto-Protokoll zu rechtfertigen.

Im Jahre 1995 saß das IPCC zwischen den Stühlen Wissenschaft einerseits und Politik andererseits. Der einzige Weg, sich aus dieser realen Gefahr, politisch in Vergessenheit zu geraten zu befreien war, dass man die wissenschaftliche Diagnose in eine positive Richtung lenken und sie in Übereinstimmung mit politischen Maßnahmen bringen konnte.

Das entscheidende wissenschaftliche Thema war Erkennung und Zuordnung:

Die Abfassung von Kapitel 8 (in dem es um Entdeckung und Zuordnung geht) verspätete sich wegen der späten Ernennung von dessen koordinierendem Leitautor. Es dauerte bis zum April, dass jemand sich bereit erklärte, diese Position zu übernehmen. Das war Ben Santer, ein junger Klima-Modellierer am Lawrence Livermore Laboratory.

Das Kapitel, das Santer zu entwerfen begann, wurde erheblich beeinflusst von einer Studie, die im Wesentlichen von Tim Barnett geschrieben worden war, bei der jedoch auch Santer als Autor gelistet war. Es war diese Studie, die in Kurzform all die Schwierigkeiten beschrieb hinsichtlich des Strebens nach ,Erkennung‘. Es war ein neuer Versuch, den alten hinderlichen Block zu überwinden der ,First Detection-Forschung‘: nämlich angemessen den ,Maßstab‘ der natürlichen Klima-Variabilität zu etablieren. Die Studie beschreibt, wie dieses Projekt gescheitert ist, und das fabelhaft.

Im von Santer für das IPCC verfassten Erkennungs-Kapitel gibt es viele Querverweise auf diese Studie. Mehr als alle anderen in Kapitel 8 genannten Referenzen ist sie der Spoiler sämtlicher Behauptungen bzgl. Zuordnung, finden sich diese nun in Verteilungsstudien oder in einer Analyse des globalen Mittels. Sie ist die prinzipielle Grundlage der Schlussfolgerung des Kapitels 8:

„…bis auf den heutigen Tag hat keine Studie eine signifikante Klimaänderung ausgemacht und diese Änderung ganz oder teilweise mit anthropogenen Ursachen in Verbindung gebracht“.

Das finale Treffen der 70 Leitautoren der WG I für den zweiten Zustandsbericht sollte den Entwurf für die Summary for Policymakers absegnen und diesen der zwischenstaatlichen Begutachtung zuleiten. Der von Houghton für das Treffen vorbereitete Entwurf war nicht so skeptisch hinsichtlich der Erkennungs-Wissenschaft wie der Haupttext des Erkennungs-Kapitels von Santer; tatsächlich enthielt er eine schwache Behauptung bzgl. Erkennung.

Diese Behauptung bzgl. Erkennung schien unvereinbar mit dem Skeptizismus im gesamten Haupttext des Kapitels und stand in direktem Widerspruch zu dessen zusammenfassender Schlussfolgerung. Sie repräsentierte eine Änderung des Standpunktes, zu der Santer erst vor Kurzem gekommen war aufgrund eines Durchbruchs in seinen eigenen ,Fingerabdruck‘-Untersuchungen. Diese Ergebnisse waren so neu, dass sie noch nicht veröffentlicht oder auf andere Weise verfügbar waren, und tatsächlich hatte Santer zum ersten Mal die Gelegenheit, diese Ergebnisse einer breiteren wissenschaftliche Bewertung vorzustellen, als Houghton ihn aufforderte, auf dem Treffen der Leitautoren einen Sondervortrag zu halten.

Allerdings wurden auch die Ergebnisse bei diesem Treffen auf den Prüfstand gestellt: Santers Fingerabdruck-Ergebnis und der neuen Erkennungs-Behauptung wurde von vielen Experten in dem Fachbereich heftig widersprochen.

Am ersten Tag der WG I-Sitzung in Madrid im November 1995 hielt Santer erneut einen erweiterten Vortrag über sein neues Ergebnis, dieses Mal vor Delegierten, die zumeist keine Experten waren. Als er geendet hatte, erklärte er, dass das Kapitel im Lichte seiner neuen Ergebnisse überholt war und geändert werden muss. Nach einiger Diskussion forderte John Houghton eine Ad-Hoc-Gruppe, um sich hinsichtlich des Themas Erkennung zu einigen im Lichte dieser bedeutenden neuen Ergebnisse und die entsprechende Passage in der Summary for Policymakers zu ändern, so dass sie anschließend erneut der Vollversammlung zur Genehmigung vorgelegt werden kann. Während dieser Verlauf des Ganzen weitgehend auf Zustimmung stieß, sprachen sich ein paar Delegationen heftig dagegen aus, vor allem, als klar wurde, das Kapitel 8 geändert werden musste. Der Widerstand gegen die Änderungen dominierte weiterhin das dreitägige Treffen. Nach weiterer Debatte entschloss man sich zu einer finalen Version der Erkennungs-Behauptung ,unter dem Strich‘:

„Die Gesamtheit der Beweise zeigt einen erkennbaren menschlichen Einfluss auf das globale Klima.

All das löste Vorwürfe der ,Schwindelei‘ aus:

Ein Meinungsartikel von Frederick Seitz mit dem Titel [übersetzt] ,Großer Schwindel bzgl. „globaler Erwärmung“‘ erschien am 12. Juni 1996 im Wall Street Journal:

„Dieser IPCC-Bericht wird wie alle anderen deshalb so hoch gehängt, weil er begutachtet ist. Das heißt, er wurde gelesen, diskutiert, modifiziert und genehmigt von einem internationalen Experten-Gremium. Diese Wissenschaftler haben ihren Ruf eingebracht. Aber dieser Bericht ist nicht das, was er zu sein vorgibt – es ist nicht die Version, welche die auf der Titelseite gelisteten beitragenden Wissenschaftler genehmigt haben. Während meiner über 60 Jahre Mitgliedschaft in der amerikanischen wissenschaftlichen Gemeinschaft einschließlich meiner Funktion als Präsident der NAS und der American Physical Society habe ich niemals eine noch verstörendere Korruption des Begutachtungsprozesses erlebt als die, welcher zu diesem IPCC-Report geführt hat.

Beim Vergleich des finalen Entwurfs des Kapitels mit der gerade veröffentlichten Version erkannte er, dass grundlegende Feststellungen skeptisch gegenüber irgendeinem menschlichen Einfluss verändert oder gelöscht worden waren. Er führte folgende Beispiele gelöschter Passagen an:

Keine der o. g. Studien hat klare Beweise erbracht, dass wir die beo bachteten (Klima-)Änderungen dem spezifischen Grund Zunahme der Treibhausgase zuordnen können.

Keine Studie hat bis auf den heutigen Tag den (bis heute beobachteten Klimawandel) ganz oder teilweise anthropogenen Ursachen zugeordnet.

Jedwede Behauptung einer positiven Erkennung eines bedeutenden Klimawandels wird wahrscheinlich kontrovers bleiben, bis die Unsicherheiten der natürlichen Gesamt-Variabilität Klimasystems reduziert sind.

Am 4. Juli schließlich veröffentlichte Nature Santers Studie bzgl. des menschlichen Fingerabdrucks. In Science zitierte Richard Kerr Barnett mit den Worten, dass er nicht völlig überzeugt davon ist, dass das Treibhaus-Signal erkannt worden ist und dass eine ,Anzahl nagender Fragen‘ verbleibt. Später im Jahr würde eine ins Herz von Santers Erkennungs-Behauptung zielende Kritik als Erwiderung veröffentlicht.

Der künstlich fabrizierte Konsens des IPCC

Was man aus all diesen Aktivitäten seitens der Wissenschaftler in der engeren Umgebung des zweiten und dritten Zustandsberichtes des IPCC erkennen kann, ist die Existenz eines bedeutenden Meinungschores, der mit der IPCC-Botschaft einer Erkennung eines Katastrophensignals nur schwer in Übereinstimmung zu bringen ist, welcher die Grundlage für politische Maßnahmen darstellt.

Die wissenschaftliche Debatte um Erkennung und Zuordnung wurde effektiv im 2. IPCC-Bericht unterdrückt:

Kritik wird weiterhin insgesamt ausgespart, ist sie doch eine Politisierung der Wissenschaft seitens Interessengruppen, während die mächtigen politischen Unterstützer des Gremiums sicherstellen, dass dessen Rolle als wissenschaftliche Autorität bei den weiter gehenden Klimavertrags-Verhandlungen niemals wieder ernsthaft bedroht werden darf.

Und natürlich wurde der ,Totenglocke‘ wissenschaftlicher Argumente mit Bedenken hinsichtlich der Erkennung im Dritten Zustandsbericht Rechnung getragen, in welchem die Hockeyschläger-Analyse des Paläoklimas auf der Nordhemisphäre effektiv die Existenz einer hemisphärischen mittelalterlichen Warmzeit ebenso wie die Kleine Eiszeit eliminiert hatte. Damit war der gordische Knoten bzgl. Erkennung durchschlagen.

Bemerkungen der Autorin Judith Curry

Das Buch von Bernie Lewin ist eine wirklich wichtige und gut dokumentierte Historie des Zusammenhangs und der frühen Historie des IPCC.

Ich sprach über Lewins Buch mit Garth Partridge, der in den frühen Jahren des IPCC in denselben involviert war, und er sandte mir per E-Mail folgenden Kommentar:

Ich bin schon etwas erbost, weil ich von die siebziger bis Anfang der neunziger Jahre dabei war, weil ich an einer ganzen Reihe der Treffen teilgenommen habe, über die Lewin spricht, weil ich ein Jahr in Genf zugebracht habe als ein Mitglied der „Belegschaft“ des frühen WCRP und ein weiteres Jahr (1990) als Mitarbeiter beim US National Program Office in Washington DC, weil ich die meisten der Leute getroffen habe, über die Lewin spricht … und ich kann mich einfach nicht daran erinnern, was vor sich ging, soweit es die Politik betraf. Wie naiv kann man sein?? Ich habe den Verdacht, dass der Grund dafür darin zu suchen ist, dass viele Menschen meiner Zeit darin geübt (??) waren, absichtlich all den Müll zu ignorieren und/oder darüber zu lachen, der mit den politischen Betrügereien der internationalen Politik in der wissenschaftlichen Welt verbunden war. Offensichtlich kann die Arroganz von Wissenschaftlern ziemlich außerordentlich sein!

Wissenschaftlicher Skeptizismus hinsichtlich AGW war vor dem Jahr 1995 lebendig und in guter Form; brach aber ein nach der Veröffentlichung des 2. Zustandsberichtes. Danach trug man dem Skeptizismus im 3. Zustandsbericht und mit der Hockeyschläger-Graphik Rechnung in der Hoffnung, diesem Skeptizismus den Todesstoß zu versetzen.

Ein ziemlich fadenscheiniges Gebäude für eine überzeugende Zuordnung der jüngsten Erwärmung zum Menschen.

Ich denke, dass Bernie Lewin recht hat, wenn er das Treffen in Madrid 1995 als den Wendepunkt ausmacht. Es war John Houghton, der die Zuordnungs-Behauptung in den Entwurf der Summary for Policymakers einfügte, was im Gegensatz zu den in Kapitel 8 beschriebenen Ergebnissen stand. Typischerweise wird Ben Santer dafür verantwortlich gemacht, aber es ist eindeutig Houghton, der dies wollte und ermöglicht hat, so dass er und das IPCC einen Sitz am Tisch der Großen Politik erhalten konnte, welche in den Vertrag involviert war.

Man kann den IPCC-Führern ihren Umgang mit neuer Wissenschaft und einer sehr schwierigen politischen Lage im Jahre 1995 nachsehen, worin sie ihr Wirken übertreiben. Allerdings ist es dem 3. Zustandsbericht vorbehalten, in welchem Houghtons Betrügereien mit dem Hockeyschläger wirklich enthüllten, was los war (einschließlich der Selektion von Michael Mann als Leitautor, obwohl dieser gar nicht von der US-Delegation nominiert war). Der Hockeyschläger machte Schluss mit jenem ,nervtötenden‘ Erkennungs-Problem.

Ich vermute, dass die Zurückweisung von all dem seitens der ,wirklich AGW-Gläubigen‘ erfolgte, weil Politik chaotisch ist, aber seht mal, die Klimawissenschaftler hatten von Anfang an recht, und die Temperatur steigt weiter. Jüngste Forschungen lassen das Vertrauen bzgl. der Zuordnung zunehmen, welche uns schon seit Jahrzehnten ,bekannt‘ ist.

Nun, zunehmende Temperaturen sagen nichts über die Ursachen von Klimawandel. Wissenschaftler diskutieren immer noch über den ,Hot Spot‘ in der oberen Troposphäre über den Tropen, welcher die von Santer 1995 identifizierte ,smoking gun‘ war (hier). Und es gibt immer mehr Beweise, dass die natürliche Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten viel größer ist als bisher gedacht (und größer auch als die Simulationen der Klimamodelle hergeben; hier).

Ich müsste wirklich weitere Blogbeiträge schreiben über Erkennung und Zuordnung und werde mich bemühen, mir die Zeit dafür zu nehmen.

Und schließlich, diese gesamte Geschichte scheint die Merton’sche Norm von Universalismus zu verletzen:

Universalismus: Wissenschaftliche Validität ist unabhängig vom soziopolitischen Status/persönlichen Zuordnungen von den daran Teilhabenden

Man stelle sich vor, wie sich all das entwickelt hätte, wenn Pierre Morel oder John Zillman Leiter der WG I gewesen wären, oder falls Tom Wigley oder Tim Barnett oder John Christy beitragende Leitautoren zum Kapitel 8 gewesen wären. Und wie die Klimawissenschaft dann heute aussehen würde.

Ich hoffe, dass dieser Ablauf der künstlichen Fabrizierung des Konsens‘ vernünftigen Menschen Gründe gibt innezuhalten, bevor man Argumenten hinsichtlich eines Konsens‘ über Klimawandel akzeptiert.

Link: https://judithcurry.com/2018/01/03/manufacturing-consensus-the-early-history-of-the-ipcc/

Übersetzt von Chris Frey EIKE