Hubert Lamb, ein Bericht über sein Leben und Wirken, und was man daraus über den Stand der heutigen Klimaforschung lernt
Das CRU, gegründet zur Untersuchung von historischen Aufzeichnungen und Messungen, mit der Hoffnung, hierin regelmäßige Muster zu finden, die Voraussagen ermöglichen würden, änderte aber seine Forschungsrichtung unter seinen Nachfolgern. Die Arbeiten konzentrieren sich bis heute auf den Versuch, den angeblichen Einfluss von CO2 auf das Erdklima nachzuweisen. Diese Änderung der Forschungsrichtung ist nachvollziehbar. Während unter Lamb die Finanzierung der Einrichtung auf Dauer problematisch war, ergab sich mit dem Schwenk eine stabile komfortable Finanzsituation. Das CRU wurde als eine von zwei Zentralstellen ausersehen, welche die weltweiten Klimadaten sammeln und zur Verfügung stellen ( Die andere Zentralstelle ist das GISS ). Diese beiden liefern auch dem IPCC ( Klimarat ) die Daten. Negative Schlagzeilen ergaben sich für das CRU 2009 als nach Aufdeckung des Emailverkehrs des Institutes das ganze Maß an Datenfälschungen, Zensur und Kontrolle der wissenschaftlichen Zeitschriften des Faches, sowie die Absprachen der Fälschungen unter den relevanten Instituten öffentlich wurde.
Der Bericht über Lamb’s Wirken ist wesentlich eine Beleuchtung der allgemeinen Entwicklung der Klimatologie nach 1950 bis zum Tode Lamb’s. Er gibt einen interessanten Einblick in die innere Entwicklung des Gebiets und die jeweils vorherrschenden Vorstellungen und Paradigmata. Historisch stellte sich die Haupttätigkeit der Klimatologie als möglichst breite Sammlung von weltweiten Klimadaten dar. Die Wissenschaft blieb dabei aber weitgehend deskriptiv, zum Ziel einer Vorhersage auf der Basis verlässlicher historischer Messungen und Daten gab es kaum Fortschritte
Mit dem Aufkommen der Informationstechnik löste sich die Arbeit mehr und mehr von realen Messungen. Es bildete sich die Vorstellung, mittels großer Rechenleistung ließe sich die Gesamtheit der Klimavorgänge abbilden, und das Klima sich sozusagen „ab initio“ berechnen und voraussagen, auch ohne Bezug zu Messdaten. Diese Vorstellung gewann in naiver Fehleinschätzung von Computerleistungen viele Anhänger, so dass die Untersuchung von historischen Klimadaten verdrängt wurde.
Warnen hätte sollen das historische Beispiel von Laplace. Dieser vertrat ja die Vorstellung, das gesamte Universum lasse sich, zumindest prinzipiell, mittels ausreichend hoher Rechenleistung in seiner gesamten Entwicklung berechnen ( die Einsicht „chaotischen“ ( d.h. zufallsgesteuerten ) Verhaltens vieler Systeme widerlegte ihn dann bekanntlich ) . Auch die ähnlichen Modellrechnungen des Club of Rome, die sich als kompletter Reinfall erwiesen, hätten nachdenklich stimmen sollen.
In der Folge wurde und wird der aussichtslose Versuch unternommen, durch immer größere Systeme von Differentialgleichungen das gesamte Klimageschehen von Atmosphäre, Ozeanen und Kontinenten zu simulieren. Die Ergebnisse der Versuche werden mit Hilfe einflussreicher Gruppen / 1 / als zuverlässige Voraussage verkauft , aus geopolitischen Gründen mit ihr zerstörerische planwirtschaftliche Maßnahmen begründet, und die Öffentlichkeit auf den Transfer von 10000 ( in Worten: zehntausend ) Milliarden Euro zu diesen Gruppen eingestimmt.
Das Grundparadigma dieser Versuche ist die Vorstellung eines an sich konstanten Weltklimas, welches nur durch Zufallsereignisse, etwa Vulkanismus oder eben menschliche CO2 Emission „gestört“ wird. In Wirklichkeit hat das Klimasystem Eigendynamik, bewirkt durch den Energieeintrag seitens der Sonne.
Dies Paradigma wird offiziell vom IPCC als Tatsache verkündet: „Alle natürlichen Einflüsse sind kleine Störungen, die gegen den menschlichen Einfluss vernachlässigbar sind.“
Die Misserfolge dieser Aktivitäten offenbaren sich täglich in immer neuen Befunden, dass die Modellrechnungen in keiner Weise mit den Messungen übereinstimmen oder je übereingestimmt haben.
Als Physiker stockt einem der Atem ob dieses aberwitzigen Vorhabens und der Naivität, das ganze Klimageschehen der Welt in allen Einzelheiten modellieren zu wollen. Man weiß doch dass nur Modelle von bis zu 3, 4 partiellen Differentialgleichungen vernünftiges mathematisches Verhalten zeigen. Darüber hinaus sind sie gewöhnlich „chaotisch“, d.h. bei jedem Wiederholen der Rechnung bekommt man ein anderes Ergebnis. Wie sollen dann wohl Klimamodelle mit vielen tausend gekoppelten Differentialgleichungen verlässliche Ergebnisse liefern?
Dies von allen guten Geistern verlassene, naive Unterfangen sowie auch die völlig blauäugigen Parametrisierungen nicht verstandener Prozesse erschienen mir zunächst als Propaganda: die Öffentlichkeit sollte mittels riesiger Gleichungssysteme sowie mit „Klima-Supercomputern“ beeindruckt werden und die Ergebnisse dadurch glaubwürdig erscheinen.
Nach dem Bericht über Lamb’s Leben und Wirken erscheint der Sachverhalt aber auch anders. Die Klimatologie ist eben unterteilt in den datensammelnden Teil, der aus den beschriebenen Gründen deskriptiv geblieben ist, und dem jetzt völlig dominierenden ( von jungen Wissenschaftlern sicher auch als lieber bearbeiteten ) Bereich der Computermodelle, in welchem, offenbar mit Grundprinzipien der Physik und der Mathematik Unvertraute, ihren Computerspielereien nachgehen.
Kurz, der Stand ist, dass offenbar die Klimaforschung mit ihren Methoden und Einsichten derzeit weit entfernt davon ist, eine exakte Naturwissenschaft zu sein, welche verlässliche Voraussagen machen kann.
Es würde hilfreich sein, wenn sich dieses Bereichs, mit Modellierung erfahrene Wissenschaftler, annehmen würden. Daneben ist die Arbeit mit verlässlichen Daten statt luftiger „Computermodelle“ heute sicher ergiebiger als noch zu Lamb’s Zeiten.
/1/ United States Senate Committee on Environment and Public Works Report:
“The Chain of Environmental Command: How a Club of Billionaires and their Foundations Control the Environmental Movement and Obama’s EPA“
30. Juli 2014
Prof. Dr. Carl-Otto Weiß ist Physiker mit dem Schwerpunkt Spektralphysik, Autor vieler Fachartikel auch zum Klima und pensionierter Abteilungsdirektor der PTB in Braunschweig