Klima klar, Wetter ungewiss *

Vor dem zweiten Juli-Wochenende hatte der Wetterbericht für den Großraum Dresden Dauerniederschlag von Freitagmorgen bis Sonntagabend angesagt. Tatsächlich gab es aber nur etwas Nieselregen und zwei kräftige Gewitter von jeweils einer reichlichen Stunde Länge.

An diesem Beispiel wurde wieder einmal deutlich, wie wenig Verlass auf die Vorhersagen der Meteorologen ist, obwohl den Forschern mittlerweile um die 100000 mobile und stationäre Beobachtungsstationen rund um den Globus, Dutzende Wettersatelliten sowie Supercomputer zur Auswertung der erfassten Daten zur Verfügung stehen.

Ganz besonders fehlerhaft fallen die Prognosen bei Zeiträumen von mehr als drei Tagen aus. Und jenseits der Grenze von 20 Tagen ist dann komplett Schluss: Keine der heutigen meteorologischen Methoden erlaubt brauchbare Vorhersagen, die weiter in die Zukunft reichen.

Das musste auch der staatliche Deutsche Wetterdienst erfahren, der vor einigen Jahren verkündet hatte, er könne künftig die Lufttemperatur und die Niederschlagsmenge für sechs Monate im Voraus prognostizieren und somit beispielsweise den Landwirten, der Getränkeindustrie oder der Reisebranche zu mehr Planungssicherheit verhelfen. Das groß angekündigte Vorhaben scheiterte schmählich.

Der Grund dafür, dass Wettervorhersagen so unpräzise sind, liegt in der prinzipiellen Vorgehensweise der Meteorologen: Aus dem aktuellen Zustand der Atmosphäre berechnen sie deren künftige Zustände. Allerdings verlaufen die Vorgänge in der Lufthülle unseres Planeten ungeheuer komplex und zugleich auch chaotisch. Minimale Veränderungen an der einen Stelle können andernorts völlig überraschende und extreme Auswirkungen hervorrufen.

Deshalb bräuchten die Meteorologen nicht zuletzt deutlich mehr Messstationen zur Erfassung von kleinräumig wirksamen Wetterphänomenen. Für eine sichere Elf-Tage-Vorhersage wären das 100 Millionen solcher Stationen und für Prognosen über  30 Tage müsste ihre Zahl bereits in der Größenordnung von zehn hoch 20 liegen, was natürlich komplett unmöglich ist.

Dessen ungeachtet behaupten die meisten Klimaforscher, die Fähigkeit zu besitzen, über Jahrzehnte oder gar noch länger in die Zukunft zu schauen und Temperaturen, Niederschläge und so weiter vorherzuberechnen. Dabei gilt das Klima definitionsgemäß bloß als Abbild der wichtigsten, statistisch erfassten Wetterphänomene innerhalb eines Zeitraums von 30 Jahren.

Trotzdem wird inzwischen davon fabuliert, wie das Klima und damit auch das Wetter im Jahre 2100 – kein Schreibfehler! – aussehen könnte. So vermeldete das Hamburger Max-Planck-Institut für Meteorologie, in Deutschland werde es dann streckenweise um bis zu vier Grad wärmer sein.

Solche Prognosen sind freilich nicht nur deshalb hanebüchen, weil niemand in der Lage ist, die Entwicklung der Verhältnisse in der Atmosphäre auch nur für wenige Tage im Voraus fehlerfrei vorherzusagen. Vielmehr stellt das Klima auch noch deutlich mehr dar als bloß ein statistisches Konstrukt auf der Basis des Wetters. Neben dem, was sich in der Lufthülle abspielt, wird die Dynamik der Klimaprozesse ebenso von den Vorgängen in der Hydrosphäre (Ozeane und Gewässer), Kryosphäre (Eis und Schnee), Biosphäre (Tiere und Pflanzen) und Lithosphäre (Gesteinshülle) beeinflusst.

Dazu kommen die Sonnenaktivität, Variationen der Erdbahnparameter im Rahmen der sogenannten Milankovic-Zyklen und der Einfall hochenergetischer Partikel aus den Tiefen des Kosmos. Wobei die letzteren drei Faktoren das Klima wahrscheinlich sogar am stärksten prägen.

=================================================================

)*  Anmerkung der EIKE-Readktion :

=================================================================




Warum das Vorsorge-Prinzip schlechte Politik ist

Die meisten Ängste stellen sich jedoch ziemlich schnell als falsch heraus. Auf jede echte Gefahr kommen hunderte von falschen Gefahren. Über das Nichteintreffen einer Gefahr wird allgemein nichts berichtet, weil derartige Informationen einfach keinen Nachrichtenwert haben. Folge: Die meisten geschürten falschen Ängste bleiben irgendwo im öffentlichen Bewusstsein haften.

Beispiel: im Jahre 1981 hieß es, dass Kaffee ursächlich sein soll für 50% aller Fälle von Bauchspeicheldrüsenkrebs. Aber die Wissenschaftler, die diese Behauptung in Umlauf gebracht hatten, zogen dieselbe im Jahre 1986 wieder zurück. Dennoch dauerte es bis zum Jahr 2016, bis die International Agency for Research on Cancer die Behauptung zurückzog, dass Kaffee eine mögliche Ursache für Krebs sei. Wahrscheinlich dauert es noch sehr viel länger, bis diese Angst aus dem öffentlichen Bewusstsein verschwunden ist.

Das Problem bei diesen vermeintlichen Gefahren ist natürlich, dass wir nicht im Voraus wissen, welche dieser Gefahren echt und welche falsch ist. Aber in den meisten Fällen ist der von falschen Ängsten angerichtete Schaden gering. Vielleicht hören einige von uns auf, Kaffee zu trinken, aber das ist unerheblich.

Erst wenn Regierungen sich den [falschen] Ängsten annehmen, kann es unheilvoll werden. Riesige Mengen Steuergelder könnten dann verschwendet oder irrationale Verbote verhängt werden.

Wir wissen, wie schwierig es ist, Regierungen davon abzuhalten, sich in unser Leben einzumischen. Die Kosten-Nutzen-Analyse wurde besonders deswegen eingeführt, um Bürokratien davon abzuhalten, schon bei geringsten Gefahren gleich Amok zu laufen.

Die Kosten-Nutzen-Analyse kann oftmals verschlungen sein. Alle Bürokraten und Minister hassen sie, aber es ist wichtig, ihnen eine entscheidende Disziplin aufzuerlegen.

Die Kosten-Nutzen-Analyse ist besonders geeignet, um mit Ängsten umzugehen. Dessen Forderung nach eindeutigen Beweise für Schäden (oder zumindest der beste verfügbare Beweis für Schäden) sowie eine Analyse mit Szenarien unterschiedlicher Risiken können einen vernünftigen und umsichtigen Weg weisen.

Da sich die meisten Ängste ohnehin als falsch herausstellen (wie die AGW-Angst und die GM-Angst [GM = genmanipulierte Nahrungsmittel]), ist es sehr wichtig, die Regierungen nicht von der Leine zu lassen.

Unglücklicherweise wurde die hart errungene Verbesserung politischer Entscheidungsprozesse mittels des Kosten-Nutzen-Verfahrens nach der Einführung des Vorsorgeprinzips in den neunziger Jahren beiseite geschoben. Die vielleicht beste Formulierung hinsichtlich der Umwelt findet sich im Prinzip 15 der Rio-Deklaration aus dem Jahr 1992, die da lautet: „Um die Umwelt zu schützen, sollte das Vorsorgeprinzip in großem Umfang von den Staaten entsprechend ihren Möglichkeiten angewendet werden. Wo es Bedrohungen mit ernsten oder irreversiblen Schäden gibt, sollte das Fehlen voller wissenschaftlicher Sicherheit nicht angeführt werden, um kosteneffektive Maßnahmen zum Schutz der Umwelt zu verschieben“.

Dies mahnt die Regierungen (die „Staaten“) energisch vorzugehen, falls sie den Verdacht haben, dass etwas falsch laufen könnte – ein Verdacht reicht schon. Es verlangt von den Regierungen nicht, die Art der Schädigung zu verstehen oder auch nur zu überlegen, ob der Schaden überhaupt eintreten wird.

Es mahnt die Regierungen nicht dazu, eine bessere Szenarien-Analyse durchzuführen und die Option zu wählen, welche für die Gesellschaft am vorteilhaftesten ist. Stattdessen ist es im Endeffekt ein Appell, das Kosten-Nutzen-Verfahren zu übergehen und einen Blanko-Scheck für starke Maßnahmen auszustellen.

Auf diese Weise verleiht das Vorsorgeprinzip den Bürokraten die Freiheit, nur die Vorteile anzusprechen (z. B. die vermeintlichen Vorteile erneuerbarer Energie) und dabei die Kosten zu ignorieren – oder nur die imaginären Kosten anzuführen (z. B. bei genmanipulierten Nahrungsmitteln) und die Vorteile zu ignorieren.

Dieser Grundsatz kehrt die Beweislast für Schäden bei behördlichen Eingriffen um. Er unterminiert die Vernunft und Aufklärung selbst, was uns in die Dark Ages zurückführt. Es ist unmöglich, über das Vorsorgeprinzip zu streiten, weil es besonders den Gebrauch von Logik ausschließt.

Wäre dieses Prinzip in der Vergangenheit angewendet worden, wäre es Wissenschaftlern nicht gestattet gewesen, Impfstoffe oder Antibiotika zu entwickeln, welche unvermeidlich ein paar Nebenwirkungen haben und in sehr seltenen Fällen sogar tödlich wirken können.

Während die Anwendung des Vorsorgeprinzips einige wenige Nebenwirkungen verhindert hätte, wäre es aber auch nicht zum Hauptnutzen gekommen – nämlich zur Rettung hunderter Millionen Menschenleben. Nur eine soziale Kosten-Nutzen-Analyse kann uns dabei helfen, die Gesamtheit aller Kosten und den Nutzen gegeneinander abzuwägen.

Gleichermaßen hätte das Vorsorgeprinzip es den Wissenschaftlern nicht gestattet, Kernforschung zu betreiben, gab es doch da das Risiko des Baus einer Atombombe. Aber Kernforschung hat uns nicht nur die Atombombe beschert, sondern auch die Kernkraft, den Flug eines mit Kernkraft betriebenen Raumfahrzeugs zum Mars, Nuklear-Medizin, Röntgenbilder und Strahlungs-Therapien.

Mittels der Ausbeutung unserer Ängste verleiht das Vorsorgeprinzip die Macht über unsere Präferenzen und Entscheidungen nicht nur den nationalen machthungrigen Regierungen, sondern auch globalen Mega-Bürokratien. Das IPCC ist nur ein Beispiel hierfür.

Dieses Prinzip war ein Gottesgeschenk für die Linken nach dem Zusammenbruch des Kommunismus‘. Die Schönheit des Vorsorgeprinzips liegt für die Sozialisten darin, dass es ihnen ermöglicht wird, moralische Überlegenheit zu kapern, während sie die vollständige Kontrolle über die Gesellschaft fordern. Der Green New Deal der Sozialisten in den USA ist bis heute eines der unverschämtesten Beispiele dafür. Und er basiert vollständig auf dem Vorsorgeprinzip.

—————————

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/why-the-precautionary-principle-is-bad-policy/




Der Treibhaus-Effekt – das wissen­schaftliche Verfahren

Heute behauptet das IPCC, dass wir uns in einer „Klima-Krise“ befinden, welche zum Aussterben von einer Million Spezies führen wird und die eine große Gefahr für die Menschheit ist. Im jüngsten Sonderbericht vom Oktober 2018 des IPCC heißt es:

Prophezeiungen zufolge wird ein Anstieg der Temperatur Extremwetter-Ereignisse hervorrufen, steigenden Meeresspiegel, das Aussterben von Spezies und eine reduzierte Kapazität zur Erzeugung von Nahrungsmitteln.

Im 4. Nationalen Klimazustands-Bericht der USA finden sich ähnliche Behauptungen, darunter:

Gesundheit: Auswirkungen durch den Klimawandel bzgl. Extremwetter und Ereignissen mit Klimabezug, Luftqualität und die Übertragung von Krankheiten durch Insekten und Schädlinge, auf Nahrung und Wasser bedrohen immer stärker die Gesundheit und das Wohlergehen der amerikanischen Bevölkerung, besonders Populationen, die schon jetzt verwundbar sind.

Und: Landwirtschaft: steigende Temperatur, extreme Hitze, Dürre und Buschbrände auf Weideflächen sowie schwere Wolkenbrüche werden die landwirtschaftliche Produktivität in den USA zunehmend beeinträchtigen. Erwartete Zunahmen der Schwierigkeiten für Nutzvieh, abnehmende Ernteerträge und -qualität sowie Änderungen bzgl. Extremereignissen in den USA und anderswo bedrohen ländliche Landschaften, eine nachhaltige Versorgung mit Nahrungsmitteln und die Preisstabilität.

Die Alarme wurden inzwischen so intensiv, dass es in einem Artikel in Kaiser Health News heißt:

Therapeut Andrew Bryant sagt, dass der grundlegende Klimareport der UN aus dem vorigen Oktober neue mentale Gesundheitsprobleme bei Patienten auslöste.

Ich erinnere mich an Sitzungen mit Leuten am nächsten Tag. Sie hatten Klimawandel niemals zuvor erwähnt, und es war wie ,ich höre immer wieder von diesem Report’“, sagte Bryant. „Einige Patienten brachten ängstliche Gefühle zum Ausdruck, und auch während der Folgesitzungen sprachen wir über das Thema“.

Obwohl es sich nicht um eine offizielle klinische Diagnose handelt, haben die psychiatrischen und psychologischen Gemeinschaften Bezeichnungen für das Phänomen: „Klima-Stress“, „Klima-Kummer“, „Klima-Angst“ oder „Öko-Angst“.

Eine entscheidende Frage ist: Wie sehr wenden das IPCC und das USGCRP das wissenschaftliche Verfahren an? Die Antwort lautet: „überhaupt nicht!“. Man stützt sich auf Spekulationen und nicht auf physikalische Beweise durch Experimente und rigorose Beobachtungen. Im TWTW [= The Week That Was, eine Rubrik, die in der im WUWT erscheinenden wöchentlichen Rubrik von SEPP „Weekly Climate and Energy News Roundup“ jeweils am Anfang steht. Anm. d. Übers.] vom 15. Juni 2019 diskutierte das Right Climate Stuff Research Team (TRCS), bestehend aus „pensionierten Veteranen der Apollo-Mission und anderen frühen bemannten Raumflügen, die sich freiwillig trafen, um ihre wissenschaftlichen und Ingenieur-Erfahrungen anzubieten, um eine objektive, unabhängige Abschätzung des AGW-Alarms und die Wahrscheinlichkeit einer tatsächlichen Bedrohung durchzuführen“.

Unter Ausnutzung ihrer nachweislichen Erfahrungen bei der Problem-Identifizierung und -Spezifizierung, bei Grundlagen-Analysen und dem Treffen von Entscheidungen durchforsteten sie hunderte von Berichten und technischen Studien mit Relevanz zu diesem Thema, und sie diskutierten darüber mit Experten auf allen Seiten der Kontroverse. Auf der Grundlage der Prinzipien der Energie-Einsparung entwarfen sie ihr eigenes Modell bzgl. AGW, in welches Treibhausgas-Daten und die Temperatur der Erde von 1850 bis 2017 eingingen. Anders als das IPCC und deren Folge-Institutionen haben sie ihr Modell validiert.

In einem Video auf der unten verlinkten Website des TCRS erklärt Hal Doiron die Ergebnisse und die Defizite in den Ergebnissen von IPCC und USGCRP. Doiron schrieb:

Das primäre Problem, das wir bzgl. der Klimaforschung und dessen alarmierender Prophezeiungen einer globalen Erwärmung sehen ist, dass man sich viel zu sehr auf nicht validierte Modelle in den Schlussfolgerungen und Veröffentlichungen beruft. Wir, die NASA-Weltraum-Veteranen, ignorieren automatisch derartige nicht validierte Modelle und konzentrieren uns ausschließlich auf verfügbare physikalische Daten, denn das ist genau das, was man uns antrainiert hat und was die Erfahrungen des Unbekannten bzgl. der bemannten Raumfahrt uns lehrten.

Die NASA hat seine Politik im [Sonderbericht] NASA-STD-7009 festgeschrieben. Sie verbietet die Verwendung der Ergebnisse von nicht validierten Modellen bei allen Entscheidungen bzgl. der bemannten Raumfahrt, wenn die Sicherheit der Menschen auf dem Spiel steht.

Das Problem scheint darin zu bestehen, die Führung der NASA dazu zu bringen, das wissenschaftliche Verfahren auf alle seine Publikationen anzuwenden. Siehe die diesbezüglichen Links hier.

————————————

Autor Ken Haapala ist Präsident des Science and Environmental Policy Project SEPP

Link: https://wattsupwiththat.com/2019/07/22/weekly-climate-and-energy-news-roundup-368/, erster Beitrag.

Übersetzt von Chris Frey EIKE




Die klimareligiöse Transfer-Union

Zitat mit Hervorhebungen aus diesem BILD-Artikel:

Die EU-Kommission fordert von Deutschland Nachbesserungen bei der Düngeverordnung binnen zwei Monaten! Wie der Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, am Donnerstag sagte, hat die Bundesregierung ein Mahnschreiben aus Brüssel erhalten, in dem die Kommission mit einem Zwangsgeldverfahren droht.
Sollte die Regierung die Kommission nicht innerhalb der Frist von ihren Vorschlägen zur Nitrat-Belastung des Grundwassers überzeugen können, drohen Deutschland Zwangsgelder von bis zu rund 850 000 Euro pro Tag.“

Inzwischen ist diese Meldung über alle Medien gelaufen. Aber was sind die Hintergründe dafür?

Der Autor hatte bereits am 14. August 2017 hier auf EIKE den Artikel „Die ökologische Korrektheit hat offenbar sehr kurze Beine“ veröffentlicht und dort auf die deutliche Reduzierung des deutschen Nitratmessnetzes auf überwiegend belastete Meßstellen hingewiesen:

EU-Berichtszeitraum 2004-2007       EU-Berichtszeitraum 2008-2011

Die nachfolgenden Ausschnittvergrößerungen verdeutlichen den spontanen Verlust von deutschen Meßstellen durch höhere Gewalt innerhalb von zwei direkt aufeinander folgenden EU-Berichtsperioden:

EU-Berichtszeitraum 2004-2007                       EU-Berichtszeitraum 2008-2011

(Ironie an:) Bei der Betrachtung dieser beiden Abbildungen könnte man dem Eindruck erliegen, als seien die fehlenden deutschen Brunnen ins umliegende Ausland geflüchtet (Ironie aus).

Abschließend hatte der Autor in seinem Artikel aus 2017 einige Fragen gestellt und Befürchtungen geäußert, Zitate:

„Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?“

„Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?“

„Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.“

„Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…“

Die Fragen von 2017 sind bisher nicht beantwortet, aber eine der dort geäußerten Befürchtungen ist jetzt also auf bestem Wege. Man könnte einen solchen Vorgang auch als eine langfristig erarbeitete Grundlage zum Transfer von zusätzlichen deutschen Steuergeldern in Form von selbstverursachten „Strafgeldern“ an die EU verstehen. Und damit behält der letzte Satz im Artikel von 2017 weiterhin seine volle Gültigkeit, Zitat:

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Berner Klimastudie und „nature Wissenschaft“: Klimahysterie-Kreationismus: Das Ende ist nah

Die Ritter der Apokalypse sind in der Schweiz eingetroffen. Nicht mehr lange und die Erde wird im Fegefeuer des menschengemachten Klimawandels schmelzen. Wer nicht zur Beichte war, wird in den ewigen Flammen untergehen. Macht Euch auf, Ihr CO2-Sünder. Geht den Weg der Buße, den Pfad der Reue, die Chaussee des Ablasshandels: Zahlt Steuern auf CO2, hört auf zu fliegen, geht zu Fuß, bleibt zuhause, wartet … und betet, denn das Ende ist nahe.

„Schweizer Forscher entkräften Argument von Klimwandel-Leugnern“, behauptet der Spiegel. Eine kühne Behauptung. Das öffentlich-rechtliche Plagiat der ARD hat die Behauptung übernommenund zum alten Hut weiterentwickelt: „Die Erkenntnisse der Berner Wissenschaftler sind nicht grundlegend neu“. Neu sei, dass die Studie von „Raphael Neukom und sein[em] Team“, die ganze Erde, also Land und Meer, abdecke, so darf Mojib Latif in der ARD ausführen, um dem Leser den Eindruck zu vermitteln, die neue Studie von „Raphael Neukom und sein[em] Team“, sei quasi schon als richtig erkannt, bevor sie veröffentlicht wurde, denn: „Es gab beispielsweise bereits kontinentale Rekonstruktionen, die ebenfalls zeigten, dass die Phasen nicht gleichzeitig waren“. Dieser Satz, von Stefan Brönnimann, den die ARD als „Bonner Wissenschaftler“ präsentiert, ist das, was Stewart Hall „high context language“ genannt hat, ein sprachlicher Niederschlag, den nur verstehen kann, wer das kleine Haus des Bonner Wissenschaftlers bewohnt.

Was uns die ARD und die anderen deutschen Qualitätsmedien heute weismachen wollen ist, dass „Raphael Neukom und sein Team“ etwas bestätigt haben, was es schon als Erkenntnis gab, so dass es keinen Sinn mehr macht, nicht an den menschengemachten Klimawandel zu glauben.

Bekennet Eure Sünden, ihr Ungläubigen, die ihr nicht an den menschengemachten Klimawandels glaubt, tut öffentlich Buße und beantragt die Aufnahme in die Sekte der Kreationisten, die denkt, die Erde sei vom Klima-Gott vor 2000 Jahren geschaffen worden.

Denn, die Datenreihe, auf deren Grundlage „Raphael Neukom und sein Team“ gezeigt haben, dass „sich Warm- oder Kaltzeiten … nie auf der ganzen Welt gleichzeitig“ (Spiegel) entwickelt haben, dass „in früheren Zeiten … Klimaschwankungen vor allem regional und zu unterschiedlichen Zeiten“, nie aber gleichzeitig aufgetreten sind (Tagesschau), sie ist 2000 Jahre lang. Dass die „globale Erwärmung … beispiellos“ ist (Tagesschau) bzw. „Warm- oder Kaltzeiten“ mit Ausnahme von heute „nie auf der ganzen Erde gleichzeitig“ aufgetreten sind, diese umfassenden Behauptungen, sie beruhen auf einer Stichprobe von 0,00004% Erdgeschichte.

Das ist etwas wenig, um dem Ergebnis dieser Studie zu vertrauen.

Aber es gibt noch mehr Gründe, um den Humbug aus der Schweiz nicht zu glauben. Es beginnt damit, dass „Raphael Neukom und sein Team“ gegenüber der Tagesschau und in ihrem Text allen Ernstes ihr Ergebnis damit feiern, dass es „mit sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“ errechnet wurde. Normalerweise ist die Verwendung mehrerer statistischer Methoden entweder ein Indiz dafür, dass ein vermeintlicher Forscher nach der Methode sucht, die ihm das beste Ergebnis für seine Zwecke liefert, oder es ist ein Indiz dafür, dass der Gaul mit einem Datenfuzzi durchgegangen ist. Wenn man weiß, was man untersuchen will, weiß man auch, welche statistische Methode für die Untersuchung am besten geeignet ist.

Die Ergebnisse der Studie von „Rapahel Neukom und sein[em] Team“, die in Nature Letter unter dem Titel „No evidence for globally coherent warm and cold periods over the preindustrial Commen Era“ veröffentlicht wurden, basieren auf den Daten der Pages 2K Datenbank, in der Ergebnisse unterschiedlicher Methoden, das vergangene Klima zu bestimmen, abgelegt sind, also die Ergebnisse aus der Untersuchung von Eisbohrkernen, aus der Analyse von Bäumen, Fluss- und See-Sedimenten, Gletschern und Korallenriffen. Der Datensatz ist ein Patchwork unterschiedlicher Erhebungsmethoden und somit auch unterschiedlicher Validität.

Als weiteren Datensatz benutzen „Raphael Neukom und sein Team“ den britischen HadCrut4-Datensatz, um eine globales Netz von Temperaturzellen errechnen zu können, simulieren zu können, dem sie die historischen Daten zuspielen. Wir haben vor einigen Tagen beschrieben, was es mit HadCrut4 und anderen Datensätzen, die die Erd-Temperatur abbilden sollen, auf sich hat.

Wenn man nun als Mensch, der mit normalem Verstand ausgestattet ist, von einer Analyse wie der hört, die „Raphael Neukom und sein Team“ durchgeführt haben, dann fällt als eine der ersten Fragen die folgende ein: In welchem zahlenmäßigen Verhältnis stehen Daten von vor 2000 Jahren zu Daten von heute? Es ist offenkundig, dass die Anzahl der Messdaten für die letzten 30 Jahre ein Vielfaches der Anzahl von Messdaten darstellt, die es für das 19. Jahrhundert gibt, geschweige denn für die Mittelalterliche Warmzeit oder die römische Warmzeit. Es ist darüber hinaus leicht einsichtig, dass die Menge der Daten, die für einen Zeitraum zur Verfügung stehen, das Vertrauen erhöht, das man in das hat, was zu dem entsprechenden Zeitraum gemessen wurde. Und für diejenigen, die den HadCrut4-Datensatz kennen, ist es spannend danach zu fragen, wie die Autoren damit umgegangen sind, dass es im HadCrut4-Datensatz viele leere Zellen gibt, für die keine Daten vorliegen, geschweige denn, historische Daten.

Zur Erläuterung: HadCrut4 teilt die Erde in Zellen von je fünf Längen- und Breitgraden Ausdehnung ein. Die Idee ist, für jede dieser Zellen mindestens eine verlässliche Messung zu haben, um die Gesamttemperatur der Erde dann aus der Kombination aller Zellen errechnen zu können. Die Wirklichkeit ist: Viele der Zellen sind schlicht leer, ein Problem, das auch „Raphael Neukom und sein Team“ nicht gelöst haben, wie die folgende Abbildung zeigt:

Oben sieht man in einem stark verzerrten Maßstab, die historischen Messdaten von „Raphael Neukom und sein[em] Team“. Die lustigen Punkte in lila, orange, hellblau, schwarz, dunkelblau und grün stellen die Daten dar, die 2000 Jahre Erdgeschichte abdecken sollen. Das machen sie ganz offenkundig nur für die nördliche Hemisphäre, während die südliche Hemisphäre weitgehend unerschlossen ist. Wenn die Ergebnisse von „Raphael Neukom und sein[em] Team“ verallgemeinerbar wären, dann sicher nicht für die südliche Hemisphäre. Eine weitere Nettigkeit, die aus HadCrut4 resultiert, versteckt sich in den unterschiedlichen „Blauschattierungen“, die die Entfernung der entsprechenden Zelle zum nächsten Messdatum angeben. Wie man sieht, sind die Ozeane nicht nur vom Weltall aus betrachtet blau, sondern auch im Modell von „Raphael Neukom und seine[em] Team“: Es handelt sich um leere Zellen, für die keinerlei Messwerte vorliegen. Die nächsten Zellen, die mit gemessenen Werten gefüllt sind, liegen in der Regel mehr als 3000 Kilometer entfernt.

Aber die Aussagen, die „Raphael Neukom und sein Team“ machen, sie sollen dennoch für die ganze Erde gelten. Die untere der beiden Abbildungen macht noch deutlicher, dass dieser Anspruch an Größenwahnsinn grenzt, denn die Verteilung der Messdaten ist, wie man es erwartet hätte: Je weiter zurück in der Zeit die Autoren gehen, desto spärlicher werden ihre Daten. Nicht wirklich das, was man eine verlässliche Datengrundlage nennt.

Ein Umstand, der auch „Raphael Neukom und sein[em] Team“ bewusst ist, denn sie schreiben:“

„An important caveat of our results is that the spatiotemporal distribution of high-resolution proxy data is inherently unequal and often sparse” (52).

Eine andere Art zu sagen: Die Daten sind Müll, die noch davon abgerundet wird, dass im ganzen Text keine Angaben dazu gemacht werden, wie verlässlich, valide, reliabel denn die Ergebnisse sind, die mit „sechs unterschiedlichen statistischen Methoden … so vielen wie noch nie“, errechnet wurden.

Was das schlechte Gefühl, das man mit Blick auf die Daten hat, zu einem mulmigen Gefühl mit Blick auf die Lauterkeit der Autoren und Peer Reviewer macht, ist das hier:

Die Datenreihe von „Raphael Neukom und sein[em] Team“ beginnt just zu einem Zeitpunkt, zu dem die Erde eine lange Phase der Abkühlung von rund 60 Millionen Jahren durchlaufen hat. Zufall oder bewusste Irreführung?

Für bewusste Irreführung spricht, was „Raphael Neukom und sein Team“ am Ende ihres Beitrags schreiben:

„Moreover, the spatial consistency seen in model simulations over the twentieth Century suggest that anthropogenic global warming is the cause of increased spatial temperature coherence relative to prior eras” (52).

Das ist Junk Science.

Denn „Raphael Neukom und sein Team“ haben keinerlei Maß für den menschlichen Einfluss in ihren Simulationen berücksichtigt. Sie werfen diese politisch-korrekte und wahrscheinlich für die Forschungsförderung relevante Behauptung in den Ring, um denen, die in Redaktionen nur darauf warten, ihr Klimahysterie-Garn weiterzuspinnen, Nahrung zu geben. Und natürlich wird in ARD und Spiegel sofort die CO2-Karte gespielt und behauptet, dass „Raphael Neukom und sein Team“ in ihrer „Studie“ gezeigt hätten, dass menschlicher Einfluss globale Erwärmung zum Ergebnis hat. Das haben Sie nicht. Wenn „Raphael Neukom und sein Team“ überhaupt etwas gezeigt haben, dann ihre Fähigkeit aus Datenlücken und spärlich in Zeit und Raum verteilten Messergebnissen eine konsistent Erzählung zu zimmern, die dem Zeitgeist, der in Redaktionen wütet, entspricht und den CO2-Ablasshandel ankurbelt.

Denn wisset, wer nicht seine Seele vom CO2-Fußabdruck freikauft, der wird im globalen Fegefeuer der Erde schmoren, auf ewig!

Der Beitrag erschien zuerst auf Science-Files hier