Klimawandel-Modelle sind Ramsch
Modelle, die etwas vorhersagen sollen, basieren auf einer Vielzahl von Annahmen über Zusammenhänge. Diese Annahmen können entweder auf Basis von vergangenen Beobachtungen aufgestellt werden. Oder sie können das Ergebnis dessen sein, was Wissenschaftler gemeinhin „Tuning“ nennen, das Anpassen eines eigenen Modells, so dass das berechnete Ergebnis aktuellen Daten entspricht. Mit diesem Tuning verbindet sich dann die Hoffnung, wir würden sagen: der induktive Fehlschluss, dass auf der Grundlage des so formulierten Modells auch die Zukunft berechnet werden kann.
Damit sind wir bei den Modellen angekommen, die die Zukunft der Erde berechnen wollen, die angeblich in der Lage sind, die Erwärmung der Erde auf das zehntel Grad Celsius genau zu berechnen und den höheren Wasserstand der Meere auf zwei Stellen hinter dem Komma genau.
Das alles ist natürlich Humbug, eine große Verdummungsaktion, und zwar aus den Gründen, die wir nunmehr zusammenstellen. Wir stützen uns dabei u.a. auf die folgenden Arbeiten:
- Frank, Patrick (2015). Negligence, Non-Science, and Consensus Climatology. Energy & Environment 22(4): 407-424.
- Frank, Patrick (2011). A Climate of Belief.
- Michael Limburg (2014) Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur
- Henderson, David R & Hooper, Charles L. (2017). Flawed Climate Models. Defining Ideas.
- Michaels, Patrick J., Lindzen, Richard & Knappenberger, Paul C. (2015). Is there no „Hiatus“ in Global Warming After All?
- Semenov, Vitaly & Bengtsson, Lennart (2002). Secular Trends in Daily Precipitation Characteristics: Greenhouse Gas Simulation with a Coupled AOGCM. Climate Dynamics 19(2): 123-140.
- Soon, Willie, Baliunas, Sallie, Idso, Sherwood B., Kondratyev, Kirill Ya & Posmentier, Eric S. (2001). Modeling Climate Effect of Anthropogenic Carbon Dioxide Emissions. Unknowns and Uncertainties. Climate Research 18(2): 259-275.
- Voosen, Paul (2016). Climate Scientists Open-up Their Black Boxes to Scrutiny. Science 354(6311): 401-402.
Stellen wir ein Beispiel voran (mit Dank an David R. Henderson und Charles L. Hooper)
Stellen Sie sich vor, Sie seien Trainer eines 400-Meter-Läufers. Zu Beginn des Trainings läuft ihr Schützling die 400 Meter in 56 Sekunden. Am Ende einer Trainings-Session von 30 Wochen ist ihr Schützling schneller, nunmehr stoppen Sie die beste Zeit mit 53 Sekunden. Die Stoppuhr, die Sie nutzen, hat einen Fehlerbereich von ±0,1 Sekunden. Ihr eigener Fehler aufgrund ihrer Reaktionszeit beträgt ±0,2 Sekunden. Der Fehler ist somit geringer als die Zeitverbesserung von 3 Sekunden. Daraus kann man schließen, dass sich ihr Schützling tatsächlich verbessert hat. Nunmehr wollen Sie die Verbesserung zur Grundlage einer Prognose machen und darüber hinaus die tägliche Verbesserungsrate berechnen. In sechs Monaten hat sich Ihr Schützling um 3 Sekunden verbessert, was einer wöchentliche Verbesserung von 0,1 Sekunden entspricht (3 Sekunden in 30 Wochen). Damit wird die wöchentliche Verbesserung unmessbar, denn sie wird durch den Fehlerbereich der Stoppuhr (±0,1 Sekunden) und ihre Reaktionszeit (±0,2 Sekunden) vollständig aufgezehrt.
Was hat das mit Klimawandelmodellen zu tun? Nun, die Meister der Klimamodelle wollen uns, um im Bild zu bleiben, nicht nur erzählen, sie wären in der Lage, die wöchentliche Verbesserung zu messen, sie wollen uns erzählen, sie seien in der Lage eine tägliche Verbesserung von 0,00005 Sekunden zu messen, obwohl bereits der Fehler durch die Reaktionszeit ±0,2 Sekunden beträgt.
Klimawandel-Modelle sind eben Junk. Die ausführliche Begründung folgt nun:
Messfehler
Patrick Frank und Michael Limburg haben in ihren Beiträgen aus dem Jahre 2011 bzw. 2014 gezeigt, dass die Temperaturangaben, die Grundlage der Klimamodelle sind, fehlerhaft sind, da sie keinerlei Messfehler berücksichtigen. Frank hat dieses Versäumnis für einige Fehlerarten nachgeholt und für die Zeit von 1856 bis 2004 errechnet, dass allein diese Messfehler bereits mit einer Irrtumswahrscheinlichkeit von weniger als 5% innerhalb von 0,8 Grad Celsius ± 0,98 Grad Celsius liegt [Wissenschaftler, richtige Wissenschaftler geben die Qualität ihrer Modelle als Vertrauensbereich an]: Für die Zeit von 1856 bis 2004 wurde ein Anstieg der Temperatur der Erdatmosphäre von 0,8 Grad Celsius berechnet. Damit liegt der berechnete Anstieg innerhalb des Messfehlers. Ein Wissenschaftler muss daraus schließen, dass wir keine Grundlage haben, um überhaupt einen Anstieg der Erdtemperatur zwischen 1856 bis 2004 anzunehmen.
Dieser angenommene Anstieg der Temperatur in der Erdatmosphäre und der gleichzeitig erfolgende Anstieg der Konzentration von CO2 in der Atmosphäre um 40% hat dazu geführt, dass zwischen beiden eine Zusammenhangshypothese formuliert wurde. Bereits der oben dargestellte Messfehler, der schlicht nicht zu vermeiden ist, falsifiziert diese Hypothese, aber damit nicht genug, dann gibt es noch die Sonne.
Sonnenenergie
Pro Tag füttert die Sonne die Atmosphäre der Erde mit im Durchschnitt 342 Watt pro Quadratmeter an Energie. Patrick Frank hat den Energiebeitrag der Menschen durch die Freisetzung von CO2 mit 0,036 Watt pro Quadratmeter berechnet, das sind knapp 0,01% der durchschnittlichen Sonnenenergie. Wenn die Schätzung der Energie, die die Sonne täglich auf die Erde überträgt, auch nur um 0,01% falsch wäre, also 342,04 anstelle von 342 Wm-2 oder 341,96 Wm-2 auf der Erde aufkommen würden, dann wäre damit der gesamte anthropogene Klimaeinfluss vom Tisch gewischt. Klimawandel-Propheten wollen uns erzählen, ihre Modelle seien in der Lage, die Energie der Sonne auf einen Fehler von weniger als 0,01% genau zu berechnen. Dass dem so ist, ist unwahrscheinlicher als ein Lottogewinn für Sie am nächsten Samstag.
Wolkige Modelle
Für die Frage, wie viel Sonnenenergie auf die Erde auftrifft, sind Wolken von besonderer Bedeutung. Wolken blocken die Energie, die auf die Erde trifft und sie verhindern, dass Energie von der Erde ins Weltall entkommt. Die Frage, wie sich Wolken auf das Klima auswirken, eine grundlegende, wenn nicht die grundlegende Frage, die ein Klimamodell beantworten muss, ist indes vollkommen ungeklärt, was selbst das IPCC zugibt, ohne daraus jedoch eine Konsequenz zu ziehen.
Viele Wolken sorgen für eine kühlere Atmosphäre, wenige Wolken haben den gegenteiligen Effekt. Weil sich Wolken in unterschiedlichen Höhen bilden und in Schichten vorkommen, ist es sehr schwierig ihren Effekt auf das Klima zu berechnen, so schwierig, dass der mit der Berechnung einhergehende Fehler allgemein auf ±4,0 Wm-2 geschätzt wird. Das bedeutet, da der anthropogene Beitrag zur Gesamtenergie 0,036 Wm-2 beträgt, dass dann, wenn die Klimapropheten in ihren Modellen auch nur um einen Fehlerfaktor von 0,9% daneben lägen, 0,9% von ±4,0 Wm-2 sind 0,036 Wm-2, der gesamte anthropogene Effekt vom Tisch wäre. Klimamodell-Sophisten behaupten, sie wären in der Lage, so akkurate Modelle zu berechnen, dass sie nicht einmal einen Fehler von 0.9% begehen würden.
Kombiniert man alle Fehlerquellen, die sich mit Klimamodellen verbinden, dann ergibt sich eine Fehlerschätzung von 150 Wm-2, das ist das 4000fache des Energiebeitrags von anthropogenem C02. Übertragen auf das Eingangsbeispiel des 400-Meter-Läufers entspricht die Behauptung, man sei in der Lage, akkurate Vorhersagen der Entwicklung des Klimas zu machen, der Behauptung, man sei in der Lage, bei einem Messfehler von ±0,2 Sekunden die Leistungsentwicklung eines 400-Meter-Läufers auf 0,00005 Sekunden genau zu berechnen.
Das ist lächerlich, aber nicht lächerlich genug, als dass es Politiker glauben würden.
Damit nicht genug.
Willie Soon, Sallie Baliunas, Sherwood B. Idso, Kirill Ya Kondratyev und Eric S. Posmentier (2001) haben gezeigt, dass die Erwärmung, die für die Zeit von 1856 bis 2004 gemessen worden sein soll, hauptsächlich in einer Phase niedriger CO2-Konzentration in der Atmosphäre stattgefunden hat. Die höchste Erwärmung erfolgte, als die CO2-Konzentration ein Viertel der heutigen Konzentration betragen hat. Die oben formulierte Zusammenhangshypothese von Erderwärmung und CO2-Konzentration ist damit nicht vereinbar.
Patrick Frank (2015) hat am Beispiel von British Columbia gezeigt, dass dort in den ersten 20 Jahren des 20. Jahrhunderts eine Erwärmung um ein Grad Celsius stattgefunden hat. Im Verlauf der nächsten 40 Jahre hat sich die durchschnittliche Temperatur in British Columbia jedoch um 2 Grad Celsius reduziert, so dass British Columbia wieder beim Ausgangspunkt angekommen ist. Kein Klimawandel-Model ist auch nur ansatzweise in der Lage, diese Entwicklung zu replizieren.
Vitaly Semenov und Lennart Bengtsson (2002) haben untersucht, wie akkurat Klimamodelle Niederschlagsmengen vorhersagen können und sind zu dem Ergebnis gekommen, dass sie es überhaupt nicht können, offenkundig, weil Klimamodelle nicht in der Lage sind, den Effekt, den Wolken auf das Klima haben, richtig zu bestimmen.
Der Coup de Grace kommt mit der Frage, wie gut Klimamodelle bislang in der Lage waren, die Entwicklung des Klimas vorherzusagen. Die Antwort: miserabel. Fast alle Modelle haben mehr Erwärmung vorhergesagt als tatsächlich eingetreten ist. Für die Vorhersagen, die die Zeit von 1998 bis 2014 zum Gegenstand hatten, haben Patrick Michaels, Richard Lindzen und Paul Knappenberger (2015) gezeigt, dass die prognostizierte Erwärmung um das 2,2fache über der tatsächlichen Erwärmung lag. Dies wäre kein Problem für Klimamodelle, wenn die Modelle sich zufällig in ihren Vorhersagen verteilen würden. Das ist aber nicht der Fall. Vielmehr gibt es eine Systematik, denn 97,6% der Klimamodelle haben die Erwärmung überschätzt, lediglich 2,4% haben sie unterschätzt.
Die Modelle sind Müll (Junk) und in keinem Fall geeignet, um einen Einfluss von CO2 auf das Klima der Erde auch nur entfernt zu belegen.
Dass es dennoch eine breite Bewegung von Gläubigen gibt, dass man die Klimareligion als die erfolgreichste Sekte in moderner Zeit ansehen muss, ist somit erklärungsbedürftig und da die Erklärung nicht auf Rationalität, auf aktuelle Kenntnisse oder Wissen der Sektenmitglieder zurückgreifen kann, bleiben nur psychologische, vielleicht auch psychotherapeutische Ansätze, um diese Massenhysterie zu erklären.
[Oder (evolutions-)psychologische – Anmerkung d.Red., ARG]
Mit freundlicher Genehmingung von Sciencefiles.org .
Die Soziologen Michael Klein und Heike Diefenbach von Sciencefiles haben noch eine solide quantitative Statistik-Ausbildung von der Pike auf, mit Matrizenrechnung, linerarer Programmierung… Insofern ist es für altgediente messende Soziologen kein Problem, die primitiven Klima-Modelle, die zumeist auf recht einfachen Gleichungen basieren, zu bewerten.
Qualitative Soziologen, die häufig nur eine oberflächliche Statistik-Ausbildung haben, können das nicht mehr. Die sehen wir dann freitags beim Demonstrieren….