Beispielsweise ist es, bei großzügigem Vertrauen in die Messgenauigkeiten, zutreffend, für die 47 Jahre von 1951 bis 1998 von einer Phase –moderater- Klimaerwärmung zu sprechen. In dieser Periode hat sich die weltweit gemessene und auf Jahres-Durchschnittswerte geglättete Temperatur der boden- bzw. meeresnahen Luft um 0,12 Grad Celsius pro Jahrzehnt, insgesamt also um etwa 0,6 Grad Celsius erhöht.

Auf diesem gegenüber der Mitte des letzten Jahrhunderts leicht erhöhten Niveau ist nun seit 1998, also seit 15 Jahren kein anhaltender Erwärmungstrend mehr erkennbar. Sollte dieser Stillstand noch weitere fünf Jahre andauern, ist davon zu sprechen, dass die vorangehende Phase einer moderaten weltweiten Klimaerwärmung etwa seit der Jahrtausendwende abgelöst wurde von der aktuellen Phase eines weitgehend konstanten weltweiten Durchschnittsklimas. (1.)

Einflüsse und wechselseitige Abhängigkeiten

Die für den Menschen und das menschliche Leben wichtigsten Wettermerkmale sind Temperatur, Niederschlag und Wind. Diese „finalen“ Wettermerkmale stehen zueinander in komplexen wechselseitigen Zusammenhängen.

Hinzu kommen die „kausalen“ Wettermerkmale wie beispielsweise Sonneneinfall, Luftdruck, relative Luftfeuchtigkeit und Wolkenbildung. Diese kausalen Wettermerkmale sind ebenfalls wechselseitig verflochten, also „interdependent“; und zwar sowohl mit den finalen wie mit den übrigen kausalen Wettermerkmalen.

(1.) Der SPIEGEL, Nr. 25 / 17. Juni 2013: “ Wenn das so weitergehen sollte,müssten wir uns spätestens in fünf Jahren   eingestehen, dass mit den Klimamodellen etwas fundamental nicht stimmt. Aber bereits heute passt der reale Temperaturtrend nur noch schwer zu unseren Erwartungen.“

      GESPRÄCH mit Hans von STORCH: "Wir stehen vor einem Rätsel“

  

Schließlich gibt es die dritte, für das Wetter und damit für das Klima wichtige Gruppe der „Infrastrukturgrößen“. Zu diesen infrastrukturellen Wetter- und Klimabedingungen zählen zum Beispiel der Wärme- bzw. Energiegehalt der Luft, die Einstrahlung von der Sonne hin zur Erde, die Rückstrahlung und die Reflektion von der Erde in Richtung Orbit, die –ebenfalls beidseitige- Isolationswirkung von Wasserdampf bzw. Wolken oder der Wärme-, Energie- und Strahlungsaustausch zwischen Wasser, Eis, Luft, Biosphäre und Lithosspähre.

Wie leicht einzusehen ist, befinden sich auch die infrastrukturellen Wetter- bzw. Klimagrößen sowohl zueinander als auch zu den Größen der beiden erstgenannten Gruppen in komplexen und gleichzeitigen Wechselbeziehungen. Sie weisen also wiederum nicht-lineare und simultane Interdependenzen auf.

Modelle: Instabil bis zur „Explosion“

Mit der derart grob skizzierten „Ausgangslage“ ist die Aufgabe der Autoren von Klimamodellen umrissen:

Sie müssen das Funktions- oder Gleichungssystem der miteinander verknüpften Wettergrößen bilden und mit den Parametern für die vielfältigen Verflechtungen dieser Größen derart bestücken, dass die vergangene wie vor allem die künftige vieljährige Wetter- und damit die Klimawirklichkeit zutreffend wiedergegeben werden.

Diese Aufgabe trägt den Grund dafür in sich, dass die Klimaprognostik zum Scheitern verurteilt ist. Er ist mathematischer Natur:

Nicht-lineare, nur simultan lösbare Gleichungssysteme mit achtzig, neunzig, oder sogar mit über einhundert Größen (Variablen) und Verknüpfungsfaktoren (Parametern) sind in höchstem Maße instabil. Sie neigen zur „Explosion“ bzw. zur „Implosition“.

Besonders dann, wenn sie über mehrere Jahre (Perioden) Jahr für Jahr sukzessive fortgerechnet werden, zeigen „freie“, also ausschließlich dem mathematischen Kalkül überlassene Modelle unvorhersehbare extreme und in sich widersprüchliche Ausschläge in den Rechenergebnissen für zentrale Größen.

Beispielsweise kann ein- und dasselbe Modell in ein- und demselben Rechenlauf stark sinkende Meeresspiegel bei gleichzeitig stark abschmelzenden Polarkappen „berechnen“.

Zurück auf Null: Einbau der „Intuition“

Um derartige „Explosionen“ der ansonsten wegen ihrer enormen Komplexität und Datenmassen völlig unbeherrschbaren Modelle zu verhindern, hilft den Modellautoren nur der Rückgriff auf die „a priorische Intuition“ – oder, wenn es noch schlimmer kommt: „a priorische Intention“.

Dazu werden so lange und so viele Ergebnisschranken eingebaut und Parameteränderungen vorgenommen, bis die Rechenergebnisse im „plausiblen“ oder gar „gewünschten“ Rahmen liegen. Die mit enormem Aufwand gebildeten Modelle, die eigentlich die unwissenschaftliche Intuition durch ein wissenschaftliches Gleichungssystem ersetzen sollen, werden eben nicht von der Intuition abgekoppelt. Im Gegenteil: Sie werden bereits im Enstehungsprozess „intuitiv kastriert“.

Das Vertrauen in die eigene Modellkonstruktion wird überlagert von völlig modellfremden „Überlegungen“, „Plausibilitäten“, „Intuitionen“ oder „Intentionen“ dazu, welche Ergebnisse „akzeptabel“ sind und welche Ergebnisse eine Modellkorrektur erfordern.

„Ja, zwei Grad oder mehr werden wir wohl kriegen – bis Ende des Jahrhunderts wohlgemerkt. Das sagt mir mein Instinkt, weil ich ja nicht weiß, wie sich die Emissionen entwickeln werden. Andere Klimaforscher haben möglicherweise einen anderen Instinkt. In unsere Modelle gehen nun einmal viele Annahmen ein, die höchst subjektiv sind. Mehr als Laien sich das vorstellen, ist Naturwissenschaft auch ein sozialer, vom Zeitgeist geprägter Prozess. Rechnen Sie also ruhig mit weiteren Überraschungen." (2)

Der Schwanz (Intuition/Intention/Zielvorstellung/Zielvorgabe) wackelt so lange mit dem Hund (Modell), bis die Modellergebnisse „passen“. Vor die Wahl gestellt, ob sie Vertrauen haben sollten auch in unerwartete, schwer erklärbare, unerwünschte oder extreme Prognoseergebnis ihres sorgsamst erbauten, mit ungeheuren Datenmengen gefütterten und aufwändig an die Vergangenheitsentwicklung angepassten Klima-Modells, oder doch lieber ihrer Intuition, ihren groben Erwartungen, ihren Plausibilitäten folgen sollten, ob sie gar politische Erwartungen antizipieren, politische Vorgaben erfüllen sollten, werden die Modellautoren stets Letzteres tun. Sie werden daModell „anpassen“, sie werden nach dem Motto arbeiten:

 „Read input, write output.“

Wissenschaftliches Instrument – Politische Wunderwaffe

Die enormen mathematischen Anstrengungen und die immense Datenhuberei, die zwischen Input und Output liegen, haben eben nicht den Zweck, von der Intuition oder Intention unabhängige wissenschaftliche Ergebnisse zu liefern.

Sie haben einzig den Zweck, den a priorischen Intuitionen oder gar Intentionen, also den Ergebnisvorgaben in einer den Modellen hilflos ausgesetzten „Alltagswelt“ möglichst großes Gewicht zu verleihen.

Diese „Mutation“ der Klimamodelle vom wissenschaftlichen Instrument zur politischen Waffe wird überdeutlich am jüngsten Bericht des „International Panel on Climate Change“ (IPCC) der Vereinten Nationen.

Im Widerspruch zu den tatsächlich gemessenen Werten und entgegen den zwingenden wissenschaftlichen Vorgaben der statistischen Methodenlehre wird „aus Gründen der Plausibilität“ an einer engen Korrelation zwischen menschenverursachtem CO2 einerseits sowie künftiger durchschnittlicher Lufttemperatur (Klima) andererseits festgehalten. Statt die nunmehr 15-jährige „Null-Korrelation“ zwischen menschenverursachter CO2-Emission (steigt kontinuierlich) und durchschnittlicher Lufttemperatur (bleibt konstant) zur Kenntnis zu nehmen und in die Modelle zu integrieren, wird die These vom „anthropogenen Klimawandel“ aufrechterhalten.

(2) DER SPIEGEL, Nr. 25 vom 17. Juni 2013, GESPRÄCH mit Hans von STORCH ;

 "Wir stehen vor einem Rätsel“  

In den Modellen wird eben nicht der Koeffizient für das Maß der Abhängigkeit der Lufttemperatur vom –menschenverursachten- CO2-Gehalt der Luft verändert. Vielmehr wird über einen „wissenschaftlichen Taschenspielertrick“  ein „Plausibilitäts-Ausweg“ konstruiert:

Während der letzten Jahre haben laut IPCC „vermutlich die Ozeane der Luft größere als die bisher angenommenen Wärmemengen entzogen und in großen Tiefen gespeichert.“

Modell-Katastrophen wider jede Vernunft

Aber dieser „rettende“ Entzugseffekt wird bald sein Ende haben.

Und dann endlich wird die Klimaerwärmung –mit 95-prozentiger Sicherheit!- wieder einsetzen.

Und dann endlich wird sie ganz schlimme Ausmaße annehmen.

Und dann endlich wird die zwar schon lange vorhergesagte, aber bisher von der Realität widerlegte endgültige Abschmelze des Arktiseises einsetzen; von dem auf Rekord-Niveau gestiegenen Antarktis-Eis ganz zu schweigen! 

Und dann endlich wird der bisher überaus moderate und über Jahrhunderte kaum veränderte Anstieg der Ozeane in Höhe von etwa 1,7 cm pro Jahrzehnt einer dramatischen Meeresflut weichen.

Und dann endlich werden sich schlimmste Extremwetterereignisse wie Stürme, Dürren oder Regenfluten in bisher unbekanntem Ausmaß häufen und große Teile der Erde verwüsten.

So sagen es die Modelle.

Und sie sagen es so, weil sie es nach den Vorgaben der katastrophensüchtigen Modellautoren so sagen müssen.

Dr. Dirk Beckerhoff 

Über den Autor

Dirk Beckerhoff (Jahrgang 1942, ist promovierter Dipl. Volkswirt (Wirtschftswachstum durch Ausbildung und Forschung, Bonn 1969)) ist Freier Publizist und hat gearbeitet als  Wissenschaftler (Ökonometrie), Leiter des Planungsstabes im Bundesministerium für Bildung und Wissenschaft, Mittelständischer Unternehmer (Maschinen- u. Anlagenbau) und Politik- sowie Unternehmensberater. 

 Weiterführender Link: 

ZAMG Temperatur-Hiatus: Klimamodelle erfassen Temperaturverlauf unzureichend

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken