Es ist wichtig, die Isolation der Paläoklima-Gemeinschaft zu unterstreichen; selbst wenn sie sich stark auf statistische Methoden stützen, die sie anscheinend nicht mit der Gemeinschaft der Statistiker abgesprochen haben.
Offensichtlich wussten sie, dass ihr Gebrauch und Missbrauch von Statistik und statistischen Methoden niemals untersucht werden würde. Das galt für den „Hockeyschläger“, einem Beispiel von falscher Anwendung und für die Erzeugung ‚einheitlicher‘ statistischer Methoden, um das Ergebnis vorweg zu bestimmen. Unglücklicherweise ist diese Gefahr in der Statistik inhärent. Ein Statistik-Professor sagte mir: je ausgeklügelter eine statistische Methode ist, umso schwächer sind die Daten. Alles jenseits grundlegender statistischer Methoden ‚unterminierte‘ die Daten und entfernte sich immer weiter von der Realität und einer vernünftigen Analyse. In der Klimatologie ist dies wegen unzureichender Daten unvermeidlich. Im Bericht des US National Research Council vom 3. Februar 1999 heißt es:
„Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen begrenzen ernstlich das Vertrauen in die Forschungsergebnisse“.
Methods in Climatology von Victor Conrad ist ein klassisches Lehrbuch, das die meisten der grundlegenden Dinge in der Klimaanalyse anspricht. Seine Stärke liegt in der Erkenntnis, dass  die Menge und Qualität der Daten kritisch ist. Dieses Thema war für Hubert Lamb zentral, als er die Climate Research Unit (CRU) ins Leben gerufen hatte. Meiner Ansicht nach hat sich die Statistik, so wie sie hinsichtlich des Klimas angewendet wird, seitdem kaum weiterentwickelt. Es stimmt zwar, dass wir inzwischen über andere Methoden verfügen wie die Spektralanalyse, aber alle diese Methoden sind bedeutungslos, wenn man nicht akzeptiert, dass es Zyklen gibt oder dass man Aufzeichnungen hinreichender Qualität und zeitlicher Länge braucht.
Ironischerweise entfernen einige Methoden Daten, wie z. B. gleitende Mittel. Eisbohrkern-Aufzeichnungen sind ein gutes Beispiel. Die antarktischen Aufzeichnungen aus Eisbohrkernen, zum ersten Mal im Jahre 1990 gezeigt, illustrieren die Mahnung des Statistikers William Briggs:
Jetzt werde ich Ihnen die große Wahrheit über Analysen von Zeitreihen verkünden. Sind Sie bereit? Solange die Daten nicht mit Fehlern gemessen werden, darf man die Zeitreihe niemals, jemals, unter keinen Umständen und auf keinen Fall GLÄTTEN! Und wenn man dies aus irgendwelchen bizarren Gründen doch tut, werden Sie diese geglättete Reihe absolut NIE als Input für andere Analysen benutzen! Werden die Daten mit Fehlern gemessen, kann man versuchen, diese zu modellieren (das heißt zu glätten), und zwar in einem Versuch, den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine von außen kommende Abschätzung jenes Fehlers haben, das heißt eine, die nicht Ihre gegenwärtigen Daten zur Grundlage hat (Fettdruck von ihm).
Die Aufzeichnungen der antarktischen Eisbohrkerne hat man mit einer über 70 Jahre gehenden Glättung versehen. Dies eliminiert einen großen Teil dessen, was Briggs „reale Daten“ nennt, im Gegensatz zu „fiktiven Daten“, die die Glättung hervorbringt. Die Glättung verkleinert eine wesentliche Komponente grundlegender Statistik, nämlich die Standardabweichung der Rohdaten. Dies ist teilweise der Grund, warum diese in den Klimastudien so wenig Aufmerksamkeit erfahren hat, obwohl sie ein kritischer Faktor hinsichtlich des Einflusses von Wetter und Klima auf Flora und Fauna ist. Die Konzentration auf Mittelwerte und Trends war ebenfalls dafür verantwortlich. Noch wichtiger aus wissenschaftlicher Perspektive ist deren Wichtigkeit zur Berechnung von Mechanismen.

Abbildung (Beschreibung teils aus dem Original): Rekonstruierte CO2-Konzentrationen für das Zeitintervall zwischen etwa 8700 und 6800 Kalenderjahren vor heute, basierend auf CO2, das aus Luftbläschen des antarktischen Eises an der Stelle Taylor Dome extrahiert worden ist (linke Kurve; ref.2; Rohdaten erhältlich bei www.ngdc.noaa.gov/paleo/taylor/taylor.html) und SI-Daten für fossile B. pendula und B. pubescens [?] aus dem Lille Gribso-See in Dänemark. Die Pfeile kennzeichnen accelerator mass spectrometry 14C–Chronologien, die für zeitweilige Kontrollen verwendet wurden. Das schattierte Zeitintervall markiert das Abkühlungsereignis von 8200 Jahren vor heute.
Quelle: Proc. Natl. Acad. Sci. USA 2002 September 17: 99 (19) 12011 -12014.
Die Abbildung zeigt eine Bestimmung des atmosphärischen CO2-Gehaltes in einem Zeitraum von 2000 Jahren, wobei geglättete Daten aus einem Eisbohrkern (links) und aus Stomata (rechts) verglichen werden. Unabhängig von der Wirksamkeit jeder Methode der Datengewinnung ist es nicht schwierig zu bestimmen, welcher Plot wahrscheinlich die meisten Informationen über die Mechanismen vermittelt. Wo ist das Abkühlungsereignis vor 8200 Jahren in der Kurve des Eisbohrkerns?
Zu Beginn des 20. Jahrhunderts wandte man Statistik auf die Gesellschaft an. Universitäten, ursprünglich geteilt in Natur- und Geisteswissenschaften, sahen eine neue und ultimativ größere Disziplin heraufdämmern, die Sozialwissenschaften. Viele im Bereich der Naturwissenschaften sehen die Sozialwissenschaft als einen Widerspruch in sich und nicht als ‚wirkliche‘ Wissenschaft. Um die Bezeichnung zu rechtfertigen, begann man in den Sozialwissenschaften, deren Forschungen statistisch zu untermauern. Ein Buch mit dem Titel  „Statistical Packages for the Social Sciences”  (SPSS) erschien erstmals im Jahre 1970 und wurde zum Handbuch für Studenten und Forscher. Man gebe ein paar Zahlen ein, und das Programm liefert Ergebnisse. Die Brauchbarkeit der Daten, wie der Unterschied zwischen kontinuierlichen und diskreten Zahlen, sowie die Methode waren wenig bekannt oder sind ignoriert worden, obwohl die Ergebnisse beeinflusst worden sind.
Die Meisten kennen den Kommentar von Disraeli: Es gibt drei Arten Lügen: Lügen, verdammte Lügen und Statistik“, aber nur Wenige verstehen, wie sehr die Anwendung von Statistik ihr Leben beeinflusst. Jenseits der ungenauen Anwendung von Statistiken liegt das Entfernen von allem jenseits der Standardabweichung, was die Dynamik der Gesellschaft beseitigt. Macdonald verkörpert die Anwendung von Statistiken – sie haben die Mittelmäßigkeit perfektioniert. Wir fühlen, wenn alles zu jedem passt, aber nie genau zu jedem einzelnen passt.
Klimastatistik
Klima ist ein Mittel des Wetters über einen bestimmten Zeitraum oder einem Gebiet, und bis zu den sechziger Jahren waren Mittelwerte effektiv die einzige entwickelte Statistik. Antike Griechen benutzten mittlere Bedingungen, um drei globale Klimaregionen zu bestimmen: die heißen, gemäßigten und kalten Zonen, erzeugt vom Winkel zum Sonnenstand. Klimaforschung enthält die Berechnung und Veröffentlichung mittlerer Bedingungen an individuellen Stationen oder Gebieten. Nur wenige verstehen, wie bedeutungslos eine Messung ist, obwohl schon Robert Heinlein schrieb: „Klima ist das, was man erwartet, und Wetter ist das, was man bekommt“. Auch Mark Twain war sich dessen bewusst, bemerkte er doch: „Klima ist immer, Wetter nur ein paar Tage“. Ein Landwirt befragte mich hinsichtlich der Wahrscheinlichkeit eines normalen Sommers. Er ärgerte sich über die Antwort „nahe Null“, weil er nicht verstanden hat, dass ‚Mittel‘ Statistik ist. Eine informativere Frage ist, ob es kälter oder wärmer als normal sein wird, aber dazu braucht man Kenntnis über zwei andere wesentliche statistische Parameter, nämlich Variation und Trend.
Nach dem Zweiten Weltkrieg kamen Planungen und Sozialforschung auf, als die Nachkriegs-Gesellschaften Entwicklungen einer einfachen Trendanalyse ausgelöst hatten. Man nahm an, dass ein darin erscheinender Trend immer so weiterlaufen würde. Die Mentalität hatte Bestand trotz offensichtlicher Auf- und Abschwünge; hinsichtlich des Klimas scheint es Teil der Zurückweisung von Zyklen zu sein.
Studien zu Klimatrends begannen im Wesentlichen in den siebziger Jahren mit der Vorhersage einer kommenden Mini-Eiszeit, hatten doch die Temperaturen bis dahin seit 1940 abgenommen. Als Mitte der achtziger Jahre die Temperaturen wieder stiegen, hieß es, dass sich dieser Trend ohne Abschwächung fortsetzen würde. Politische User des Klimas übernahmen etwas, das ich den Trend-Waggon nenne. Das IPCC machte den Trend unabwendbar mit der Aussage, dass das menschliche CO2 dafür der Grund war und dass CO2 immer weiter zunehmen werde, solange die industrielle Revolution noch andauert. Wie auch alle Trends zuvor hatte auch dieser Trend keinen Bestand, zeigte sich doch nach 1998 bei den Temperaturen ein Abwärtstrend.
Für das Leben und die Wirtschaft ist die Variabilität von Jahr zu Jahr wichtig. Landwirte wissen, dass die Arbeit des nächsten Jahres nicht auf der Grundlage des Wetters im vorigen Jahr geplant werden kann, aber eine reduzierte Variabilität reduziert das Risiko merklich. Die jüngste Änderung der Variabilität ist normal und durch bekannte Mechanismen erklärt, wird aber von denjenigen mit einer politischen Agenda als anomal hingestellt.
John Holdren, der Wissenschafts-Zar von Obama, nutzte die Autorität des Weißen Hauses, um die zunehmende Variation des Wetters und eines Mechanismus‘ auszuschlachten, der den meisten Wissenschaftlern, geschweige denn der Öffentlichkeit unbekannt ist, nämlich den Polarwirbel [the circumpolar vortex]. Er erzeugte eine ungenaue Propaganda-Veröffentlichung über den Polarwirbel, um zu implizieren, dass dieser etwas völlig Neues und unnatürliches sei und daher den Menschen zuzuordnen ist. Zwei der drei von den antiken Griechen festgelegten Klimazonen sind sehr stabil, nämlich die Tropen und die Polargebiete. Die gemäßigte Zone weist infolge jahreszeitlicher Veränderungen die größte kurzfristige Variabilität auf. Es gibt dort aber auch eine längerfristige Variabilität, weil der Polarwirbel zyklisch zonal und meridional hin und her schwingt. Letzteres führt zu einer zunehmenden Variation der Wetter-Statistik, wie es auch jüngst der Fall war.  
Das Scheitern der IPCC-Studien und –Vorhersagen war unvermeidlich, weil ihm Daten fehlen und Daten fabriziert wurden, weil Kenntnisse über Mechanismen fehlen und bekannte Mechanismen ausgeschlossen worden sind. Reduktion oder Entfernung der Standardabweichung führte zu Informationsverlusten und einer weiteren Verzerrung der natürlichen Wetter- und Klimavariabilität, die beide weiterhin innerhalb historischer und natürlicher Normen ablaufen.
Link: http://wattsupwiththat.com/2014/06/15/standard-deviation-the-overlooked-but-essential-climate-statistic/
Übersetzt von Chris Frey EIKE

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken