1) Aus:
“Und sie erwärmt sich doch – Was steckt hinter der Debatte um den Klimawandel?”
http://www.umweltdaten.de/publikationen/fpdf-l/4419.pdf
Die Kernaussage aus obigem Link:
Zum besseren Verständnis dieser Thematik gehen wir auf einen wesentlichen Unterschied zwischen Wettervorhersage und Klimamodellierung ein. Bei der modellgestützten Wettervorhersage wird von einem Anfangszustand mit Hilfe eines physikalischen Gleichungssystems schrittweise in die Zukunft gerechnet. Dabei müssen die meteorologischen Größen (wie beispielsweise Druck, Wind und Temperatur) zum Anfangszeitpunkt der Simulation sehr genau bestimmt werden. Denn bereits kleine Änderungen in diesem Anfangszustand der Atmosphäre können große Änderungen in der Vorhersage bewirken (Anmerkung: Das ist „deterministisches Chaos“).
…
Bei der Klimamodellierung ist die Herangehensweise anders:
Das Ergebnis von Klimasimulationen hängt weniger vom Anfangszustand der Atmosphäre, sondern vielmehr von den Randbedingungen im Simulationszeitraum ab. Zu den Randbedingungen zählen die zeitliche Entwicklung der atmosphärischen Konzentrationen von Treibhausgasen, die zeitliche Änderung der Solarstrahlung, die zeitliche Änderung der Beschaffenheit der Erdoberfläche und weiteren Faktoren. Diese Einflussfaktoren sind für die Zukunft meist nicht genau bekannt, aber sie können im Rahmen von Szenarien vorgegeben werden. Fachleute nutzen derartige Szenarien und rechnen dann mit den Klimamodellen verschiedene Fälle durch.
Ende des Zitats.
Zu dem eine kurze Erläuterung:
Wie kann man nun Chaos unter anderem definieren?
Man gibt einen Anfangszustand, im einfachsten Fall eine Zahl, z.B. einen Temperaturwert, in eine Formel ein und berechnet aus diesem Anfangszustand den nächsten.
Diesen nächsten gibt man nun in dieselbe Formel ein und berechnet den übernächsten, das nennt sich Iteration und das Ergebnis nennen wir Trajektorie. Und so iterieren wir weiter und generieren so eine Zahlenreihe, solange wir wollen. Meist macht man das mit einem gewissen Sinn unterlegt, wie die Berechnung von Temperaturreihen und obige Formel ist eben so gestrickt, dass sie das widerspiegelt.
Nun muss dabei nichts Schlimmes passieren, kann aber. Hier kommen die sensiblen Anfangsbedingungen ins Spiel, die Chaos kennzeichnen.
Ändert man obigen Startwert ein bisschen, sagen wir ein Millionstel ab, und iteriert ein zweites Mal, so laufen die Zahlen ein paar Iterationen ähnlich zum ersten Versuch, beginnen dann aber sehr schnell voneinander abzuweichen, bis die zwei Reihen nichts ähnliches mehr gemeinsam haben. Auf dem Rechner lassen sie beide Reihen wieder reproduzieren, sind also deterministisch, aber untereinander bleiben die zwei Zahlenreihen nach ein paar Iterationen nicht mehr vergleichbar. Übrigens, lässt man beide Zahlenreihen auf einem anderen Prozessor mit einer anderen internen Zahlenrepräsentation laufen, passt schon wieder nichts mehr.
Beim Wetter müssen wir nun diese eindimensionale Zahlenreihe auf drei Dimensionen erweitern, dargestellt durch ein dreidimensionales Gitter, das Raumelemente definiert. Und man schaut sich auf diesen nicht nur die Temperatur an sondern alles was beim Wetter eine Rolle spielt, wie Vektoren, die den Wind repräsentieren, usw., usw.
Doch der Einfachheit halber wieder zum eindimensionalen Fall: Kleinste Differenzen der Eingangswerte beginnen also plötzlich bei der Iteration auseinanderzulaufen und zwar tun sie das exponentiell, also maximal schnell. Genau diese „exponentielle Divergenz der Trajektorien“ definiert Chaos.
Für das Wetter heißt das, man kann es nur ein paar Tage vorausberechnen, dann ist Schluss und zwar total Schluss.
Übrigens, will man berechnete Werte und Messwerte anpassen, ist es oft gut möglich, die Parameter obiger Formel so zu fitten, dass Messwerte und berechnete Trajektorie passen … zurück in die Vergangenheit. Um ab heute in die Zukunft zu rechnen hilft das, natürlich unter der Annahme, dass das Model perfekt ist, genau … nix. Es hat sich nichts zu oben geändert.
Im Gegensatz tu einer weiteren Aussage aus obigem Link, Zitat: „Um die Wettervorhersage wesentlich präziser zu gestalten, bräuchten die Fachleute ein dichteres Beobachtungsnetz mit geringeren Abständen zwischen den Stationen“ hilft so eine Präzisierung der Eingangswerte auf Grund der exponentiellen Divergenz der Trajektorien nur minimal. Das heißt, macht man das Netz zehn Mal präziser, das heißt man hat 1000 mal mehr Raumelemente und auch 1000 mal mehr Messstationen und macht man auch die Messwerte zehn Mal präziser, so kann man in keinster Weise zehn Mal weiter in die Zukunft rechnen sonder sagen wir mal anstelle von fünf Tagen fünf Tage und ein paar Stunden.
Nun kann man sich noch überlegen: Wie schnell exponentiell laufen Trajektorien auseinander, oder wie groß ist der Exponent der exponentiellen Divergenz? Das kann man heraus rechnen durch Mittelung über eine begrenzte und vernünftige Anzahl der Iterationen, das ist der Lyapunov Exponent. Ist der positiv, explodiert die Divergenz exponentiell und es gibt Chaos.
Aus „Und sie erwärmt sich doch“ entnehmen wir nun, dass Wetter auf kurzen Zeitskalen (paar Tage) chaotisch ist, beim Klima macht das aber nichts, weil sich Chaos auf der Skala von Jahrhunderten bis Jahrhunderttausenden heraus mittelt, z.B. genauso wie man Mitteln kann oder Rauschen abschneiden kann, wie beim Rausch (oder noise) Knopf beim alten Analogradio. Darum kann man mit Randbedingungen arbeiten. Das ist nun nicht einsichtig.
Dazu:
2) Aus:
Weather, Chaos, and Climate Change
http://www.drroyspencer.com/2009/03/weather-chaos-and-climate-change/
Zitiert und übersetzt in Teilen aus obigem Link:
… es kann jedes auf kleinsten Raumskalen nicht durch Messung erfasste Wetter große Unterschiede in der Vorhersage des Wetters verursachen. Das ist das klassische Beispiel chaotischer, nicht-linearer Variabilität, die atmosphärischer Dynamik inhärent ist. …
Mathematisch gesagt ist das die sensitive Abhängigkeit von Anfangsbedingungen (sensitive dependence on initial conditions).
Im Gegensatz dazu sei die Vorhersage einer globalen Erwärmung möglich, da sie auf kleinen Änderungen der Regeln beruht, nach denen die Atmosphäre sich verhält. Das zusätzliche Kohlendioxid, das wir in die Atmosphäre abgeben, ändert den Treibhauseffekt etwas, was wiederum den Mittelwert des Wetters oder das Klima mehr oder weniger ändert. Mathematisch betrachtet ist das eine Änderung der Randbedingungen (change in boundary conditions).
…
Bei näherer Betrachtung musste ich erkennen, dass die zwei Arten der Variabilität – Wetter und Klima – überhaupt nicht so unterschiedlich sind. Der einzige wesentliche Unterschied zwischen beiden ist nur die Zeitskala.
So mag mancher argumentieren, dass die Variabilität der Klimas ein ebenfalls so gutes Beispiel für Chaos wie die Variabilität des Wetters ist. Mathematisch gesagt, die „sensitive Abhängigkeit von Anfangsbedingungen“ was wir mit Chaos assoziieren kann man genauso „sensitive Abhängigkeit von sich kontinuierlich ändernden Randbedingungen“ nennen. In der Tat unterscheidet die Natur nicht zwischen der Änderung von Anfangsbedingungen und Randbedingungen … es ist alles Wandel.
… Z.B. wird eine chaotische Änderung von Niederschlagsmustern im Pazifik dessen Salzgehalt ändern. Dies wird im Laufe der Zeit dann wiederum die Zirkulation des Wassers in die Tiefsee ändern, was wiederum über hundert Jahre als eine Änderung des Oberflächenwassers auftauchen wird und wiederum das Wetter beeinflussen wird.
Sind das Änderungen von Anfangsbedingungen oder Randbedingungen?
…
Die Klimaleute nehmen an, so etwas (Chaos) gibt es nicht in der Variabilität des Klimas … zumindest nicht auf Zeitskalen jenseits von zehn Jahren. In der Tat glauben sie, Chaos existiert nur beim Wetter, nicht beim Klima. Aber diese Sicht ist total willkürlich und es gibt eine Fülle an Hinweisen, dass dieses einfach falsch ist. Chaos existiert auf allen Zeitskalen.
3) Aus:
The Chaos theoretic argument that undermines Climate Change modelling
http://wattsupwiththat.com/2011/06/13/the-chaos-theoretic-argument-that-undermines-climate-change-modelling/
Zitiert und übersetzt in Teilen aus obigem Link:
Das Argument, welches Gläubige in den Klimawandel benutzen ist, dass wir das Chaos (des Wetters) wie Rauschen (noise) behandeln können, also raus mitteln können.
…
Es gibt hierzu viele Beispiele aus der Elektronik und anderen Bereichen. Es ist verständlich, dass Klimamodellierer hoffen, dass das auch für Chaos gilt. In der Tat, sie behaupten, dass das geht so.
…
Also, kann man Chaos heraus mitteln? Wenn ja, dann müssten wir erwarten, dass Langzeitmessungen des Wetters kein Chaos zeigen.
…
Als ein Team italienischer Forscher mich fragte, meine Chaosanalysis-Software auf eine Zeitreihe von über 500 Jahre gemittelter Wintertemperaturen anzuwenden ergab sich die Möglichkeit, dieses zu testen.
…
(Das Ergebnis ist) um es umgangssprachlich auszudrücken, der gemessene Lyapunov Exponent war 2.28 Bits pro Jahr. Der Fehler einer Temperaturvorhersage vervierfacht sich jährlich. Was bedeutet das? Chaos mittelt sich nicht raus. Wetter ist auch auf der Skala von hunderten von Jahren chaotisch.
…
So, um zusammenzufassen, Klimaforscher haben Modelle auf der Basis ihres Verständnisses von Klima konstruiert, die man anpassen, kalibrieren kann; sie bestätigen ihre Modelle indem sie auf sehr lange Zeitskalen schauen, aber wir wissen, dass auch das Klima (nicht nur das Wetter) chaotisch ist. Sie wissen nicht, sind ihre Modelle zu einfach, zu komplex, oder genau richtig, denn auch wenn sie perfekt wären, wenn das Wetter auch auf diesen Zeitskalen chaotisch ist, können sie ihre Modelle nicht der echten Welt anpassen, denn der kleinste Fehler in den Anfangsbedingungen würde total andere Ergebnisse liefern.
Alles was sie sagen können ist:“Wir haben Modelle gebaut, welche wir bestens versucht haben an die reale Welt anzupassen (an die Vergangenheit mit den vielen Parametern gut anzufitten, die Vergangenheit gut zu reproduzieren), aber wir können nicht beweisen, dass sie richtig sind. Wir erkennen an, dass kleine Fehler in unseren Modellen wesentlich unterschiedliche Vorhersagen (im Unterschied zu oben jetzt in die Zukunft) machen und wir können nicht sagen ob wir Fehler haben oder nicht.“ In unseren Modellen“ scheinen die Verhältnisse, wie wir sie publiziert haben, richtig“.
Es ist meine Ansicht, dass Regierungspolitiker nicht auf der Basis dieser Modelle handeln sollen. Es besteht die Wahrscheinlichkeit, dass sie so viel Ähnlichkeit mit der echten Welt gemein haben wie The Sims, oder Half-life.
Eine abschließende Bemerkung, es gibt andere Wettervorhersagen, dass das Klima von der Variabilität der Sonnenstrahlung abhängt. (Das kann natürlich sein, aber) nichts bestätigt oder verneint diese Hypothese, denn Langzeitbeobachtungen der Sonnenflecken haben gezeigt, dass die Sonnenaktivität auch chaotisch ist.
4)
Zum prinzipiellen der Klimamodelle à la „Anpassen an die Vergangenheit ja, Prognose vorwärts nein“: Für diejenigen, die lesen können, Text hier:
http://www.drroyspencer.com/2013/04/global-warming-slowdown-the-view-from-space/
ansonsten Bild (s. oben rechts) hier:
http://www.drroyspencer.com/wp-content/uploads/CMIP5-global-LT-vs-UAH-and-RSS.png
Dr. Rupert Reiger arbeitet da in einem Forschungszentrum der Luft- und Raumfahrtindustrie an Software und Algorihmen.
Zuerst erschienen bei ACHGUT hier
Sehr geehrter Herr Baecker,
ich habe Ihren Rat befolgt und mich in der wissenschaftlichen Literatur umgesehen. Für die Datensätze, von denen Sie sprachen, habe ich aber nirgendwo eindeutige Nachweise gefunden. Und die „robusten Modelloutputs“ liegen halt einfach seit 15 Jahren zu hoch, so ist das nun mal.
Vielleicht können Sie mir auf die Sprünge helfen und mir ein Paper nennen, daß den eindeutigen Nachweis dafür erbringt, daß das „forcing“ des Kohlendioxids in der Atmosphäre wirklich zur Erhöhung der Globaltemperatur von 2 – 8 Grad innerhalb von 35 bis 80 Jahren führt, wie in vielen dieser Veröffentlichungen angegeben. Ich habe einen solchen Nachweis nämlich auch nach langem Suchen nicht gefunden. Eher ist es so, daß es eine Vielzahl von möglichen Erklärungen für den Verlauf der Globaltemperatur gibt, die nicht weniger plausibel sind als die Kohlendioxidkonzentration, und dem gegenwärtigen Verlauf wesentlich besser entsprechen.
Mit freundlichen Grüßen,
M. Stock
#97: Dr.Paul sagt am Freitag, 02.08.2013, 16:50
„Peter Georgiev (#4), Paul und andere sollten mal erklären, …“
Sie unterschlagen wieder das Wesentliche:
@ #85: Ebel sagt am Freitag, 12.07.2013, 08:59
„Die Bewegungsgleichungen der Gasteilchen sind gut bekannt – aber trotzdem sind die Bewegungen chaotisch.“
Die Chaoserscheinungen werden doch immer als Begründung vorgeschoben, warum das Klima nicht berechenbar ist – wieso gibt es dann Gasgesetze, wo doch die Molekülbewegegungen (analog Wetter) chaotisch sind.
Das Sie das nicht beaantworten können, wußte ich schon vorher:
@ #85: Ebel sagt am Freitag, 12.07.2013, 08:59
„Ich vermute, da kommen keine Erklärungen oder neuer Unsinn – weil nämlich Gasgesetze und Klima ähnliche Zusammenhänge mit dem Chaos haben.“
Und genau diese Vermutung haben Sie mit Ihrem Unsinn bestaätigt:
#97: Dr.Paul sagt am Freitag, 02.08.2013, 16:50
„Damit Treibhauskünstlern die Möglichkeit genommen wird,
von „isothermer Atmosphäre“ ohne sog. „Treibhausgase“ zu schwafeln.“
Paul ist eben schlauer als hervorragende Physiker – die eine Atmosphäre ohne Treibhausgase als isotherm erkennen.
MfG
#85: Ebel fragt:
„Peter Georgiev (#4), Paul und andere sollten mal erklären, wieso es Gasgesetze gibt (pV = mRT).“
Antwort:
Damit Treibhauskünstlern die Möglichkeit genommen wird,
von „isothermer Atmosphäre“ ohne sog. „Treibhausgase“ zu schwafeln.
mfG
@#95: Ebel,
Sie werden es wohl nie kapieren!
Hinsichtlich der Berechnung des Treibhauseffekts legt auch der IPCC ein „Schicht- oder Kaskadenmodell“ zugrunde. Nach diesem Modell findet innerhalb der Atmosphäre eine ständige Absorption (Minderung von I gemäß dem Lambert-Beer-Gesetz und eine Emission (L) statt. Diesem fiktiven Strahlungstransport liegt die Schwarzschild-Gleichung zugrunde, die ursprünglich entwickelt wurde, um das Verhalten von Atomen in einer Sternenatmosphäre zu beschreiben.
Die weit überzogene strahlungsfixierte Treibhausgashypothese setzt eine nahezu „100%ige Molekülfluoreszenz“ voraus, die so nicht existiert – auch nicht im IR-Bereich. Während angeregte Atome nur unter Emission von Strahlung in den Grundzustand zurückkehren können, erfolgt die Relaxation bei Molekülen wegen der Rotations- und Schwingungsfreiheitsgrade meist strahlungslos gemäß den Prinzipien des Jablonski-Diagramms. Deshalb kann man ihre gesamte Argumentation in die Tonne treten.
Sie haben halt einfach keine Ahnung und plappern unverstandene Dinge nach die versuchen alles mit Strahlung zu erklären. Das funzt aber nicht.
#94: D. Glatting sagt am Donnerstag, 01.08.2013, 10:17
„Wenn der Ansatz, so wie das Strahlungs- Schalenmodell des IPCC, dass sich überhaupt nicht auf Planetenatmosphären anwenden lässt, vollkommen falsch ist, kann auch hinten nur Mist raus kommen. “
Schwarzschild war bestimmt nicht Mitglied des IPCC, denn er ist schon 1916 gestorben. Er schreibt http://tinyurl.com/schwara „Im Vordergrunde der Betrachtung stand bisher allgemein das sog. adiabatische Gleichgewicht, wie es in unsrer Atmosphäre herrscht, wenn sie von auf- und absteigenden Strömungen gründlich durchmischt ist.“
Mit unserer Atmosphäre ist die Atmosphäre der Erde gemeint. Heute heißt der Bereich mit adiabatischen Gleichgewicht „Troposphäre“. Über der Troposphäre ist eine Schicht mit Strahlungsgleichgewicht – heute Stratosphäre genannt. Die Gründe für den Übergang von der Stratosphäre in die Troposphäre hat Schwarzschild dargelegt. Die Schichtung der Atmosphäre in Troposphäre und Stratosphäre wurde gerade um diese Zeit entdeckt, wie bei Gold http://tinyurl.com/GoldTro zu lesen ist.
Aber das Verstehen von wissenschaftlichen Papern (Schwarz und Gold) scheint Ihnen schwer zu fallen, da ich schon oft auf diese Paper aufmerksam gemacht habe – aber Ihre Kenntnisse sind noch nicht besser geworden.
Nach den Ausführungen von Schwarzschild ist bei zunehmender Treibhausgaskonzentration das Ansteigen der Tropopause zu erwarten – und das wird auch gemessen.
MfG
@#91: M. Stock,
das ist immer das Gleiche. Die Treibhauskünstler stellen aufgrund des CO2 Antriebes Modelle auf, die aufgrund des höheren Antriebes (Forcings)höhere Temperaturen liefern. Doch sobald sie genötigt werden diese CO2 Antriebe zu rechtfertigen kommt es zur postnormalen Physik der Herren Kiehl und Trenberth oder noch schlimmer zur dialektischen Physik eines Herrn Ebel.
Wenn der Ansatz, so wie das Strahlungs- Schalenmodell des IPCC, dass sich überhaupt nicht auf Planetenatmosphären anwenden lässt, vollkommen falsch ist, kann auch hinten nur Mist raus kommen.
Der Antrieb ist Falsch und damit auch alle Modelle, die darauf aufbauen auch falsch.
Lieber Herr Stock, #91
Wenn Sie sich mal in der wissenschaftlichen Literatur umsehen würden, so würden Sie merken, daß die Annahmen in dem paper nicht willkürlich sind, sondern auf Datensätzen beruhen, die nur in Details vor einander abweichen. Die Zeitverläufe der forcings sind im paper ja abgebildet. Sie werden wohl kaum behaupten können, daß diese Verläufe physikalisch willkürliche Annahmen seien. Die „estimates“und „assume“ sind also nicht willkürlich, sondern greifen auf verifizierte Datensätze zurück.
„Trotzdem paßt das dann für die letzten 10-15 Jahre nicht mehr zusammen, und obwohl das Papier aus dem Jahr 2012 ist, wird das Ganze nur bis 2008 betrachtet, wahrscheinlich damit es nicht zu peinlich wird.“
Nun, eine exakte Lösung wäre auch zu viel verlangt und im Hinblick auf die Untersuchung offensichtlich auch nicht nötig, wie Sie sehen, denn eine Grossteil des Temperaturverlaufs wird ja physikalisch richtig modelliert.
„Schließlch wird dann mit großem Brimborium dargestellt, warum die Diskrepanz der letzten Jahre durch Oszillationen und statistisches Rauschen verursacht werden, die den nicht in Frage zu stellenden menschlichen Einfluß nur kurzfristig überdecken.“
Das stimmt so nicht. Sie sehen, daß die QPO (signifikantes Rauschen) und das stochastic noise (nicht signifikant) in jedem Zeitintervall für einen Anteil des Temperaturtrends verantwortlich ist. Je länger das Zeitintervall desto geringer, denn es handelt sich ja um quasi-Perioden. Die letzten Jahre fallen da nicht besonders ins Auge. Ich habe Ihnen den link gegeben, weil Sie nicht verstanden haben, was interne Klimavariabilität ist. Das im paper benutzte SCM ist immerhin so komplex (mit Ozeanstruktur etc.), daß es das chaotische Rauschen im realen Klimasystem zumindest auf der hier relevanten Zeitskala hinreichend genau widergeben kann und zeigt, daß die in den letzten Jahren zu beobachtende Stagnation zumindest nicht ungewöhnlich ist, wenn man eben auch das Rauschen mit berücksichtigt.
„Das kann so sein, aber die zugrundeliegenden Berechnungen basieren auf so vielen ungesicherten Annahmen, daß es eben auch genauso ganz anders sein kann.“
Ja, eben nicht! Ein Teil des papers beschreibt doch gerade, wie „robust“ der Modelloutput auf Streuung in den Eingangsdaten ist. Und welche der Annahmen sind da nun Ihrer Meinung nach nicht hinreichend gesichert, und woran machen Sie das fest?
#91: „Da ist dann viel von „assume“ und „estimate“ die Rede, und darüber hinaus werden aus dem mittlerweile wohl unendlichen Fundus von Papieren, die dieselbe Richtung vertreten, einzelne herausgegriffen.“
Sehr geehrter Herr Stock, ich würde mich jetzt nicht sehr an dem estimate(=schätzen) festbeißen. In der Statistik spricht man sehr häufig von Schätzungen, selbst wenn man den Mittelwert einer Stichprobe berechnen will.
Sehr geehrter Herr Baecker,
herzlichen Dank für Ihren Link, ich habe mir das mal durchgelesen. Ich weiß natürlich nicht, ob Stil und Inhalt dieses Papiers typisch für die heutige Klimaforschung sind. Wenn das so sein sollte, dann werde ich dadurch in meiner Skepsis nur bestärkt.
Das erste, was auffällt, ist die Tatsache, daß im „Abstract“ und der „Introduction“ eine Unmenge politischer Bewertungen enthalten sind. Das ist für eine wissenschaftliche Veröffentlichung im Bereich der Physik ein Unding und läßt den Verdacht zu, daß die Autoren bei Ihrer Forschung keinen ergebnisoffenen Ansatz verfolgen, sondern ein ganz bestimmtes Ergebnis wissenschaftlich verbrämen wollen. Mir ist nicht klar, warum die Autoren auf diese Weise selbst ihre Glaubwürdigkeit in Frage stellen.
Im weiteren Verauf kommt dann eine Erklärung, auf welchen Annahmen die Eingangswerte basieren, mit denen die Autoren ihr vereinfachtes Klimamodell füttern. Da ist dann viel von „assume“ und „estimate“ die Rede, und darüber hinaus werden aus dem mittlerweile wohl unendlichen Fundus von Papieren, die dieselbe Richtung vertreten, einzelne herausgegriffen. Wenn man versucht, diesem Literaturverzeichnis nachzugehen, stellt sich das als russische Puppe dar, in dem eine „assumption“ auf den nächsten „estimate“ aufbaut, und es ist mit endlchem Zeitaufwand nicht mehr herauszufinden, was da wirklich gesichert ist und was eben nicht.
Schließlich wird umfangreich auf die „radiative forcings“ eingegangen, wobei die dann überwiegend als vorgegeben („prescribed“) bezeichnet werden. Mit diesen „forcings“ und gewählten Anfangsbedingungen wird dann das Modell gefüttert, welches man für verschiedene Szenarien (hier wohl richtigerweise als „guesses“, also Vermutungen oder geratene Werte bezeichnet) so lange iterieren läßt, bis die virtuellen zu den gemessenen Temperaturen passen. Dabei vergleichen die Autoren dann interessanterweise alte, geratene Werte mit neuen, geratenen Werten („comparing the RMSE values obtained for the new guess to those for the old guesses“).
Trotzdem paßt das dann für die letzten 10-15 Jahre nicht mehr zusammen, und obwohl das Papier aus dem Jahr 2012 ist, wird das Ganze nur bis 2008 betrachtet, wahrscheinlich damit es nicht zu peinlich wird. Schließlch wird dann mit großem Brimborium dargestellt, warum die Diskrepanz der letzten Jahre durch Oszillationen und statistisches Rauschen verursacht werden, die den nicht in Frage zu stellenden menschlichen Einfluß nur kurzfristig überdecken. Das kann so sein, aber die zugrundeliegenden Berechnungen basieren auf so vielen ungesicherten Annahmen, daß es eben auch genauso ganz anders sein kann. Die Zusammnefassung des Papiers ist dann wieder eine politische Stellungnahme, in der die auf völlig ungesicherten Vermutungen basierenden Rechenspiele als „Erkenntnisse“ verkauft werden.
Ich kann mich irren, aber meine Vermutung ist, daß wir zum Ende dieses Jahrzehnts Probleme haben werden, Mülleimer zu finden die groß genug sind um die Unmengen von „wissenschaftlichen“ Papieren dieser Art aufzunehmen. Es mag vielleicht „erkenntnistheoretisch irrelevant“ sein, aber ich bin da eher der Meinung von Herrn Estermeier ….
Mit freundlichen Grüßen,
M. Stock
Herr Estermeier,
wenn Sie meinen, dass Modelle in den Naturwissenschaften nur Spielerei sind, bitte. Fuer Atomphysiker z.? sind Atommodelle ungemein hilfreich, um Beobachtungen mit theoretischen Berechnungen in Einklang zu bringen und mithin ueberhaupt erst naturwissenschaftlich Denken zu koennen. Aber Leute, die damit nichts am Hut haben, mag das anderes erscheinen. allerdings ist letzteres erkenntnistheoretisch voellig
irrelevant, was der Laien davon haelt.
PS was hat Ihr Theme eigentlich mit meinem link zu tun?? M.E. nichts!
Hallo M.Stock
Mir scheint, wir haben beide eine falsche(?) Vorstellung zu Modellanwendungen. Laut Herrn Baecker braucht man sowas nicht, um brauchbare Ergebnisse für praktische Anwendungen zu simulieren. Vielmehr handelt es sich hier sozusagen um eine Spielwiese für Theoretiker die verzweifelt nach einer Weltformel suchen.
Lieber Herr Stock,
Das Verhaeltnis von Klimavariabilitaet und Treibhausgastrend wird in diesem paper verstaendlich geklaert
http://tinyurl.com/RingSchlesinger2012
Lieber Herr Stock,
„Der von Ihnen hier eingeführte Begriff „Szenarien“ beschreibt ja wohl bestimmte Anfangsbedingungen und deren Veränderungen für die Eingangsgrößen eines Modells.“
ich habe nach wie vor den Eindruck, dass Sie trotz mehrmaliger Erklaerung immer noch die gleichen fehlerhaften Vorstellungen wie am Anfang wiederholen und immer noch nicht verstanden haben, worauf ein Klimamodell ueberhaupt basiert und was eigentlich zu klaeren ist, wenn man den Einfluss des CO2 aufs Klima ermitteln will.
Nochmal: Die Szenarien spielen fuer die Modellgenauigkeit gar keine Rolle, weil man damit das Modell nicht validiert. Das macht man nur mit den realen Daten der Vergangenheit. Die Modellgenauigkeit haengt daher nicht von den Szenarien ab. Szearien werden alleine fuer moeglichen Zustaende in der Zukunft betrachtet, indem man das da realen Daten validierte Modell einfach mit den Szenariendaten fuettert. Das Ergebnis beschreibt natuerlich auch bestenfalls nur ein Klima der Zukunft und nicht das messbare Also bitte, versuchen Sie es nochmal zu verstehen auf Basis der bisherigen Erklaerungen.
„Wenn Sie sagen „Den Einfluß des anthropogenen Treibhausgasanstiegs wurde wie gesagt ermittelt, indem man den Anstieg unrealistisch auf Null setze, dann weicht das Modell signifikant von der Realität ab.“ dann wäre natürlich die Frage, in welche Richtung. Liegen die Modellausgabewerte dann unterhalb statt oberhalb der Meßwerte?“
Unterhalb, die Modellergebnisse ohne diesen Klimafaktor zeigen nur den Einfluss der restlichen ueberlagert von der immer auftretenden natuerlichen Variabilitaet, die ja durch die interne chaotische WW zustande kommt. Die Ergebnisse finden Sie u.a. in den IPCC reports oder der wissenschaftlichen Literatur, aus der auch die Regensburger Graphik stammt. Im uebrigen gibt es weitere und signfikantere Methoden zum Nachweis des anthropogenen Einflusses.
Sehr geehrter Herr Baecker,
also wenn schon mein Unverständnis nicht mehr glaubwürdig ist, dann ist bei mir wohl Hopfen und Malz verloren 😉
Ich nehme Sie nicht auf den Arm, sondern habe eben nur ein anderes Verständnis davon, was ein Modell leisten können sollte und sehe es aufgrund meiner Erfahrungen als sehr problematisch an, wenn dessen Ausgaben auf der Zeitachse zunehmend von der Realität abweichen. Der von Ihnen hier eingeführte Begriff „Szenarien“ beschreibt ja wohl bestimmte Anfangsbedingungen und deren Veränderungen für die Eingangsgrößen eines Modells. Wenn diese Eingangswerte realistisch gewählt sind, dann ist das (zumindest für die Modelle mit denen ich zu tun habe) durchaus ein zielführender Weg, die Qualität eines Modells zu bestimmen.
Nichts anderes wurde offenbar von diesem John Christy für 44 Klimamodelle gemacht, und die Ergebnisse sind eben so, wie sie sind. Die Aussage von Roy Spencer („the few models which support weaker warming through 2012 are usually those with lower climate sensitivity“) erinnert mich eben an das von mir beschriebene Fehlverhalten von Modellen, welches zu einer sich progressiv vergrößernden Divergenz zwischen Modell und Realität führt.
Wenn Sie sagen „Den Einfluß des anthropogenen Treibhausgasanstiegs wurde wie gesagt ermittelt, indem man den Anstieg unrealistisch auf Null setze, dann weicht das Modell signifikant von der Realität ab.“ dann wäre natürlich die Frage, in welche Richtung. Liegen die Modellausgabewerte dann unterhalb statt oberhalb der Meßwerte?
Ich will Ihnen aber auch nicht zumuten, sich noch länger mit mir rumzuärgern. Da es Ihnen wie ich vermute wichtig ist, das letzte Wort zu haben, dürfen Sie mir jetzt gerne noch einmal alles unterstellen, was Sie für zielführend halten, um andere Leser endgültig von meiner Unfähigkeit zu überzeugen.
Mit freundlichen Grüßen,
M. Stock
Peter Georgiev (#4), Paul und andere sollten mal erklären, wieso es Gasgesetze gibt (pV = mRT). Die Bewgungsgleichungen der Gasteilchen sind gut bekannt – aber trotzdem sind die Bewegungen chaotisch. Geringe Änderungen in den Anfangsorten und Anfangsgeschwindigkeiten ergeben nach kurzer Zeit völlig andere Verteilungen in den Orten und Geschwindigkeiten – und trotzdem gelten die Gasgesetze.
Vielleicht erklären Georgiev, Paul und andere mal diesen scheinbaren Widerspruch bzw. warum treffen Eure Erklärungen zum Chaos nicht für die Molekülbewegung zu?
Ich vermute, da kommen keine Erklärungen oder neuer Unsinn – weil nämlich Gasgesetze und Klima ähnliche Zusammenhänge mit dem Chaos haben.
MfG
Lieber Herr Stock,
ich sehe, Sie haben immer noch jcht verstanden, dass die Szenarien ueberhaupt nichts mit der Physik zu tun haben. Die Modellqualitaet wird ohne Szenarien bestimmt. Ausserdem werden Sie sehr wohl eine quantiative Abschaetzung machen werden muessen, um die Modellqualitaet objektiv beurteilen zu koennen. Unabhaengig davon machen das die Modellierer auch. Aber das scheint Sie ja nicht zu interessieren. Wenn Sie sich aber ein eineges Bild machen wollen ohne, dass Sie dieses nach objektiven Kriterien bewerten wollen, so koennen Sie das fuer sich ruhig machen. dafuer waere ich eher noch ein Stoerfaktor, wenn ich Ihnen reinrede, was man alles fuer ein objektives Bild braeuchte, was Sie aber gar nicht haben wollen.
Wenn Sie mich auf den Arm nehmen wollen, so sagen Sie es doch bitte gleich. Ihr Unverstaendnis ist nicht mehr glaubwuerdig.
Sehr geehrter Herr Baecker,
Ihre Rechnungen sind nicht falsch, aber Statistik hilft bei der Modellierung ja nicht weiter. Worauf es ankommt, haben Sie im letzten Absatz geschrieben:
„Die Herausforderung ist nun, zu bestimmen, ob die Modellierung der Klimafaktoren und insbesondere des durch die Treibhausgase physikalisch hinreichend genau ist.“
Dem ist nichts hinzuzufügen ….
Mit freundlichen Grüßen,
M. Stock
Sehr geehrter Herr Baecker,
was Ihre Annahmen und Vermutungen betrifft, meine ich beispielsweise „Szenarien einer plausiblen Fortsetzung“, mit Abschätzungen beziehe ich mich z.B. auf „kann man quantitativ aufgrund der Physik abschätzen“. Das klingt sehr spekulativ und ist vielleicht so, vielleicht aber auch ganz anders. Es gibt ja eine ganze Reihe von Wissenschaftlern, die Ihre Überzeugung, daß die „primäre Strahlungswirkung des CO2“ zwangsläufig zu einer Erhöhung der Globaltemperatur von mehreren Grad innerhalb der nächsten 50 Jahre führen wird eben nicht teilen, und ganz andere Hypothesen vertreten.
Ansonsten bedanke ich mich für Ihre Arbeitsanweisung 😉 Ich habe aber gar nicht vor, „das Verhältnis in % zwischen Abweichung und durch das Modell simulierten Beobachtungen nach einem mathematischen Verfahren meiner Wahl zu quantifizieren“. Das ist Aufgabe der Modellierer, ich schaue mir das Ergebnis der Modelläufe auf der Basis unterschiedlicher „Szenarien“ an, und spiegele das was ich sehe an meinen Erfahrungen. Nach diesen Erfahrungen hatten Sie mich ja gefragt, aber ich dachte mir schon, daß Ihnen die Antwort nicht gefällt.
Meine Analogie mit dem Modellfehler in der Gier/Rollkopplung sollte darauf hinweisen, daß schon kleine Fehler in einer Modellierung zu extremen Abweichungen führen können, die sich nicht wieder „wegmitteln“. Dies gilt umso mehr, je stärker das zu modellierende System von Nichtlinearitäten bestimmt wird, von chaotischen Anteilen gar nicht zu reden. Daher ist eine äußerst kritische Betrachtung der Modellergebnisse absolut unabdingbar, wenn man nicht Gefahr laufen will, völligen Unsinn zu produzieren. Sie können das solange hin und her drehen, wie Sie wollen: Ein nicht zusammenpassender Trend zwischen Fiktion (Modell) und Realität (Meßwert) ist ein Alarmsignal erster Ordnung, und keine Nebensächlichkeit, die sich dann schon irgendwann von selbst wieder „richtet“. Wenn man die Ursache dafür nicht eindeutig und nachvollziehbar erklären kann, dann ist das Modell eben nichts wert, so einfach ist das.
Zumindest in der realen Welt. In welcher Welt die Klimamodellierung stattfindet, ist mir noch nicht so ganz klar.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock,
gucken Sie sich nochmal die Abb. 7 in Ihrem link http://tinyurl.com/llsge7l an.
Den gemessenen globalen mittleren Temperaturverlauf kann man mal grob als linearen Anstieg über 100 Jahre um 1 Grad (erwartete Physik des anthropogenen Treibhausgasanstieg auf die Temperatur) + Überlagerung von jährlichen Schwankungen (internes Rauschen des Klimasystems) um 0,3 Grad nachbilden, um mal was einfach rechnen zu können.
Die Schwankungen erzeuge ich durch die Funktion 0.3*2*[ZUFALLSZAHL()-0.5] in Excel, den linearen Anstieg durch 0.01*x, x= Jahr (1…100). Die Temperatur ist dann also T(x) = 0.01*x + 0.3*2*[ZUFALLSZAHL()-0.5].
Zu jedem x wird mit dem Zufallsgenerator eine Zufallszahl (Rechteckverteilung) aus dem Intervall [-0,3,+0,3] erzeugt. Wenn man das n-mal macht, bekommt man Scharen i=1,…,n von unterschiedlichen Temperaturreihen Ti (x), unterschiedlich, weil bei jedem i an der Stelle x eine neue Zufallszahl aus [-0,3,+0,3] gewürfelt wird. Die Ti (x) sind also unterschiedlich und die Differenz der jährlichen Temperaturwerte zweier Ti hat ein Sigma von 0,26. Nehmen wir T1 als Temperaturreihe der realen, gemessenen Temperatur. Die anderen Temperatureihen können als Modellierungen von T1 aufgefaßt werden. Der Fehler zwischen T1 und Ti ist nicht Null, jährlich streut die Differenz auch mit einem Sigma von 0,26. Aber der Korrelationskoeffizient zwischen T1 und Ti beträgt 56% und die beiden Reihen sind über 99% signifikant korreliert. Das liegt einfach daran, daß die Steigung gegenüber der Schwankung über die 100 Jahre so dominiert, daß alle Kurven einen gleichsinnigen langfristigen Verlauf haben. Ein solches Modell wäre also sehr gut. Nun gucken Sie einfach mal auf die Regensburger Graphik. Da sehen Sie wie gut das Modell die Realität wiedergibt. Ich sehe nicht, daß dies schlecht wäre. Den Einfluß des anthropogenen Treibhausgasanstiegs wurde wie gesagt ermittelt, indem man den Anstieg unrealistisch auf Null setze, dann weicht das Modell signifikant von der Realität ab. Der Rest an Einflußfaktoren, die ebenfalls natürlich ihre Trends zeigen, reicht nicht aus, um die beobachtete Kurven zu erklären.
Die Herausforderung ist nun, zu bestimmen, ob die Modellierung der Klimafaktoren und insbesondere des durch die Treibhausgase physikalisch hinreichend genau ist. Daß dies nicht trivial ist, erkennen Sie daran, wenn Sie die Steigung der „Modellrealisationen“ mit i größer 1 von 0.01 abweichen lassen. Man erkennt in den verrauschten Ti erst dann einen signifikanten Unterschied, wenn die Steigung arg von 0.01 abweicht. Sie sehen aber auch, daß es dabei ankommt, daß die Temperaturreihen möglichst lang sind, die man miteinander vergleicht. Alleine einen Zeitabschnitt zu vergleichen, ist Unsinn.
Lieber Herr Stock,
„Ihre Ausführungen, warum die Globaltemperatur doch aufgrund des steigenden CO2-Partialdrucks in der Atmosphäre immer weiter steigen muß […], basieren mir auf zu vielen Annahmen, Vermutungen und Abschätzungen von Größenordnungen, die nicht unbedingt richtig sein müssen.“
Welche meinen Sie, ich habe bislang noch gar keine Annahmen, Vermutungen und Abschätzungen konkret benannt und Sie haben nicht danach gefragt?
„(obwohl das nun schon seit vielen Jahren nicht der Fall ist)“
Ich habe Sie schon mehrmals aufgefordert einfach mal das Verhältnis in % zwischen Abweichung und durch das Modell simulierten Beobachtungen nach einem mathematischen Verfahren Ihrer Wahl zu quantifizieren. Daß eine Abweichung immer besteht, ist klar, aber um die Relevanz zu bewerten, muß man Zahlen liefern.
„Wenn ein Flugmechanikmodell (Klimamodell) einen Fehler bezüglich der Zeitkonstanten oder der Verstärkungsfaktoren der Gier/Rollkopplung (CO2-Antrieb) enthält, dann wird der Hängewinkel des Flugzeugs (Globaltemperatur) nach einem geflogenen Manöver von der Realität (Temperaturmeßwert) abweichen, und da mittelt sich gar nichts raus.“
Wie kommen Sie darauf, daß Ihre Analogie Aussagen über die physikalischen Vorgänge beim Klima liefern kann?
Das erscheint mir recht willkürlich. Mehr CO2 führt primär erstmal einfach nur zu einer Reduktion der Energieabgabe der Erde ins All. Das ist kein Verstärkungsprozeß oder eine Rückkopplung oder was immer Sie da per Analogie verknüpfen wollen.
Wenn Sie aber eine Analogie haben wollen, so vielleicht damit: das CO2 wirkt wie eine zeitlich festgelegte Gewichtszunahme des Flugzeugs (wie auch immer das technisch umgesetzt werden kann).
„Wenn die Abweichungen von Modellausgaben und Meßwerten größer werden, nachdem man eine neue Rück- oder Gegenkopplung eingebaut hat (und da denke ich an das CO2, denn vor 1980 war das wohl in keinem Klimodell drin)“
Das CO2 ist kein „Korrekturglied“ im Klimamodell. Man passt da auch überhaupt nichts an oder erfindet unphysikalische Rückkopplungen. Die Wirkung des CO2 ist im Modell ziemlich einfach darzustellen. Die Schwächen der Modelle liegen – ich wiederhole mich erneut – nicht bei der primären Strahlungswirkung des CO2, denn diesen Effekt kann man in Feldstudien sehr gut überprüfen.
Wenn man ein Klimamodell für die Vergangenheit rechnen, so wird dort diejenige CO2-Menge als Parameter vorgegeben, die in dem zu berechnenden Zeitraum de facto (gemessen) vorlag. Das ist keine „Spielschraube“, an der man tuned. Das habe ich Ihnen aber schon mehrmals erklärt. Sie scheinen etwas in Ihren Analogien verstrickt zu sein? Lösen Sie sich mal davon und betrachten die Klimaphysik alleine.
Sehr geehrter Herr Baecker,
ich rechne selbst keine Modelle, sondern liefere Datengrundlagen dazu und validiere sie anschließend. Es handelt sich dabei um Flugmechanikmodelle für Flächenflugzeuge für die Verwendung in der Flugsimulation. Die Modelle basieren auf bekannten Gesetzmäßigkeiten der Aerodynamik, den Ergebnissen einer Parameteridentifikation im Flug sowie den ermittelten oder errechneten Massenträgheiten. Diese Modelle haben einen linearen/gemäßigt nichtlinearen Bereich (normale Flugzustände), einen hoch nichtlinearen Bereich (teilweise oder ganz abgelöste Strömung) sowie einen chaotischen Bereich (Flattereffekte). Die beiden letzteren Bereiche sind nur mit extremen Aufwand bzw. im chaotischen Fall gar nicht mehr modellierbar.
Ihre Ausführungen, warum die Globaltemperatur doch aufgrund des steigenden CO2-Partialdrucks in der Atmosphäre immer weiter steigen muß (obwohl das nun schon seit vielen Jahren nicht der Fall ist), basieren mir auf zu vielen Annahmen, Vermutungen und Abschätzungen von Größenordnungen, die nicht unbedingt richtig sein müssen. Mal ein Beispiel, das nur auf einer schlechten Modellierung einer Nichtlinearität basiert, da brauchen wir die Chaostheorie gar nicht erst zu bemühen:
Wenn ein Flugmechanikmodell (Klimamodell) einen Fehler bezüglich der Zeitkonstanten oder der Verstärkungsfaktoren der Gier/Rollkopplung (CO2-Antrieb) enthält, dann wird der Hängewinkel des Flugzeugs (Globaltemperatur) nach einem geflogenen Manöver von der Realität (Temperaturmeßwert) abweichen, und da mittelt sich gar nichts raus. Mit jedem gleich geflogenen Manöver wird die Abweichung größer. Ab einem bestimmten Hängewinkel fliegt Ihr Flugmechanikmodell (Klimamodell) dann ohne zusätzliche Steuereingaben (evt. sogar perfekt gerechnet) zügig dem Erdboden (dem Hitzetod) entgegen. Auf das Glück, daß ein solcher Fehler nur in einem Bereich eintritt, in dem die statische und dynamische Stabilität des Luftfahrzeugs (Gegenkopplungseffekte des Klimas) den Fehler auf längere Sicht wieder zu Null machen, können Sie sich dabei nicht verlassen. Das wird nur in den seltensten Fällen so sein.
Wenn die Abweichungen von Modellausgaben und Meßwerten größer werden, nachdem man eine neue Rück- oder Gegenkopplung eingebaut hat (und da denke ich an das CO2, denn vor 1980 war das wohl in keinem Klimodell drin), dann muß man als Modellierer schon dialektisch geschult sein, um das auf völlig andere Ursachen zu schieben. Der natürliche Feind des Modellierers ist der Meßwert 😉
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock, #77
„wenn es bei der Abweichung zwischen den Modellen und der Realität von 0,3 Grad bis zum Jahr 2050 (oder von mir aus bis 2100) bleibt, könnte man das im Vergleich zu 4 Grad in der Tat vernachlässigen. Allerdings haben Sie mir ja als Fehler angekreidet, den eindeutig flachen bis negativen Trend der gemessenen Temperaturen in die Zukunft fortzuschreiben, während Sie jetzt dasselbe machen.“
Der Unterschied ist: Sie haben einen Trend fortgeschrieben, ich hingegen das Spektrum der Schwankungsbreite der natürlichen Klimavariabilität. In der Tat kann man letzteres nicht so ohne weiteres. Aber man hat eben nachgeprüft, wie sich die interne Klimavariabilität in der Vergangenheit verhalten hat und in welchen Grenzen sich diese aufgrund physikalischer Restriktionen überhaupt bewegen kann. Aus der Klimaphysik und dem check in der Vergangenheit sieht man, daß es keinen klimainternen Prozeß gab, der die von außen eingeprägt Ursache, die zu einer Temperaturerhöhung von einigen Grad in 100 Jahren führt, kompensieren könnte. Die internen Klimaschwankungen auf der gleichen Zeitskala sind zu klein.
„Allerdings tun Sie das mit einem ansteigenden Trend“
Vorsicht: Der Trend für die Zukunft folgt wie schon mehrmals erklärt aus der Modellphysik + CO2-Szenario mit weiterer Akkumulation von Treibhausgasen in der Atmosphäre und NICHT einer Extrapolation in die Zukunft!
Die 4 Grad plus (bleiben wir mal bei diesem Wert als Beispiel) resultieren aus dem Modell wenn es mit den Randbedingungen gefüttert wird, die bis dorthin das Klima determinieren. Sagen wir mal das Modell wurde 2010 zu Ende entwickelt und berechnet das Klima von 1900 bis 2100. Dann stammen die Randbedingungen bis 2010 (oder ein paar Jahre weniger) aus den Messungen, die Randbedingungen ab 2010 (oder ein paar Jahre vorher) aus Szenarien einer plausiblen Fortsetzung derselben in die Zukunft. Wenn dasselbe Modell mit den Randbedingungen gefüttert wird, die bis heute das Klima determinieren, so folgt daraus natürlich wie beobachtet ein kleinerer Temperaturanstieg. Nichts sehen sie ja auf der Regensburger Graphik.
„müssten sich die gemessene Globaltemperatur ja nunmehr zügig nach oben entwickeln. Tut sie aber gegenwärtig nicht.“
„Müsste“, aber nicht „ungestört“ monoton! Ihre Behauptung, man müsse diesen Anstieg auch auf Zeitskalen von 10-20 Jahren aus dem Rauschen filtern können, ist eben nur Ihre Behauptung, wobei Sie bislang überhaupt keine physikalischen Gründe für Ihre Behauptung vorgebracht haben. Die Klimawissenschaft sieht dies aus bereits beschriebenen Gründen anders und differenziert.
„Und das „Durchrutschen der feinen Effekte“ sind selbstverständlich Fehler in den Modellen, was denn sonst.“
Ich habe nichts anderes behauptet! Aber wie gesagt, diese Fehler kann man quantitativ aufgrund der Physik abschätzen und sind auf der Zeitskala von 50-100 Jahren gegenüber dem Signal zu vernachlässigen. Die Fehler dadurch können keine Abweichung von ein paar Grad pro 100 Jahre hervorrufen und das Signal kompensieren. Anderes sieht es wie gesagt auf der Zeitskala von 1- 20 Jahren aus.
„Zudem haben diese bei der Modellierung eines teils chaotischen Systems wie dem Klima ggf. dramatische Auswirkungen.“
Meinen Sie die chaotische Dynamik der Atmosphäre beim Wetter? Das wird ja per Definition beim Klima weggemittelt. Das Klima ist in Realität ja auch nicht auf einer Zeitskala von einigen Jahrzehnten chaotisch, sondern stabil. Allerdings diskutiert man, ab welchen Randbedingungen das Klima aus der gegenwärtig und die letzten paar Jahrtausenden dynamisch stabilen Lage kippt und chaotisch werden kann (tipping points).
„Wenn eine Quantifizierung der möglichen Fehler im Rahmen einer Modellvalidierung möglich ist, dann haben die Modelle eine definierte Schwankungsbreite bezüglich der Ausgabewerte aufgrund dieser Fehler. Diese Schwankungsbreiten (gern auch für verschiedene Szenarien) müßten seriöserweise mit angegeben werden, damit man sich ein Bild über die Eintrittswahrscheinlichkeit der Modellausgaben machen kann. Solche Angaben habe ich aber bisher nicht gefunden.“
Ich gebe Ihren völlig recht. Die Auswirkungen von Fehlern oder Vereinfachungen der Modellphysik oder Grenzen der Numerik in Modellen müssen ermittelt worden sein. Wenn Sie nichts gefunden habe, so liegt das wohl daran, daß Sie nicht intensiv genug recherchiert haben. In der Regensburger Referenz werden diese nicht angegeben, weil das die Graphik überfrachten würde. Aber jedes Modell ist dokumentiert, Sie müssen dort nachgucken. Teilweise wurden diese Ergebnisse auch publiziert.
Herr Stock,
ich habe Ihnen nun schon viele Erklärungen geliefert. Ich habe aber immer noch den Eindruck, daß Sie überhaupt keine realistische Vorstellung von den Modellen entwickeln können. Können Sie mir mal anders herum erklären, wie die Modelle funktionieren, die Sie rechnen? Mir scheint, Sie übertragen da blindlings zu viel aus Ihren Erfahrungen
Sehr geehrter Herr Baecker,
wenn es bei der Abweichung zwischen den Modellen und der Realität von 0,3 Grad bis zum Jahr 2050 (oder von mir aus bis 2100) bleibt, könnte man das im Vergleich zu 4 Grad in der Tat vernachlässigen. Allerdings haben Sie mir ja als Fehler angekreidet, den eindeutig flachen bis negativen Trend der gemessenen Temperaturen in die Zukunft fortzuschreiben, während Sie jetzt dasselbe machen. Allerdings tun Sie das mit einem ansteigenden Trend, der momentan nachweislich gar nicht existiert, denn damit sich der Abstand zwischen den Modellen und der Realität bis zum Jahr 2100 nicht weiter vergrößert, müssten sich die gemessene Globaltemperatur ja nunmehr zügig nach oben entwickeln. Tut sie aber gegenwärtig nicht.
Und das „Durchrutschen der feinen Effekte“ sind selbstverständlich Fehler in den Modellen, was denn sonst. Zudem haben diese bei der Modellierung eines teils chaotischen Systems wie dem Klima ggf. dramatische Auswirkungen. Wenn eine Quantifizierung der möglichen Fehler im Rahmen einer Modellvalidierung möglich ist, dann haben die Modelle eine definierte Schwankungsbreite bezüglich der Ausgabewerte aufgrund dieser Fehler. Diese Schwankungsbreiten (gern auch für verschiedene Szenarien) müßten seriöserweise mit angegeben werden, damit man sich ein Bild über die Eintrittswahrscheinlichkeit der Modellausgaben machen kann. Solche Angaben habe ich aber bisher nicht gefunden.
Diese Modelle beeindrucken mich daher nach wie vor nicht. Daß der CO2-Anstieg „keinen Nulleffekt aufs Klima hat“, kann man erst einmal so stehen lassen. Bei der Beantwortung der Frage, wie groß dieser Einfluß ist, und vor allem ob er im Verhältnis zu anderen Einflußgrößen relevant ist, helfen die Modell aber aufgrund ihrer mangelnden Genauigkeit meiner Meinung nach nicht weiter. Genau auf diese Modelle stützt sich aber die These vom menschengemachten Klimawandel. Wenn die Entwicklung noch ein paar Jahre so weitergeht wie momentan, dann wird diese These in der Öffentichkeit aber nicht mehr haltbar sein.
Wenn ich ein Entwickler für Klimamodelle wäre, dann würde ich sehr schnell versuchen, die gegenwärtige Diskrepanz schlüssig und nachvollziehbar zu erklären und mein Modell der Wirklichkeit anzupassen. Wenn das nicht geschieht, dann werden die Erklärungen für das Auseinanderdriften von Modellen und Realität eben von Leuten wie Roy Spencer geliefert 😉
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock, #75
„Was nun die Klimamodelle betrifft: Ich kenne keine definierten Qualitätskriterien dafür, und das ist wohl schon Teil des Problems. Wenn die Erde mit einer Temperaturerhöhung von 4 Grad in der Katastrophe versinken soll, dann sollten Modelle, welche die von mir genannten billionenschweren Ausgabenprogramme und den Umbau der Gesellschaft rechtfertigen sollen, die zukünftige Temperaturentwicklung schon mit hinreichender Genauigkeit vorhersagen können“
Die Situation ist doch eine ganz andere.
Die Modelle sollen nicht bestätigen, daß die Erde in Zukunft wärmer wird (wozu dann noch, wenn man es eh schon wüßte?), sondern das Resultat der Modelle ist, daß sich das Klima der Erde bei nicht unplausiblen Szenarien der zukünftigen Treibhausgasentwicklung dann so entwickeln wird. Grundlage dafür ist, daß die Modelle die Klimazustände eines weiten Spektrums von Randbedingungen hinreichnd genug reproduzieren.
Wie Sie an der Regensburger Graphik sehen können, geben die Modelle den beobachtbaren Temperaturanstieg bis auf Abweichungen von plus minus 0,3 ° in etwa wieder. Wenn bis 2100 das CO2 exponentiell folgend auf 1000 ppm weiter steigen würde (Szenario!), so folgt aus den Modellen, daß die Temperatur um rund 2-4 °C steigen würde. Da machen die 0,3°C Abweichungen grundlegend nichts aus.
„und da halte ich +/- 2% wie bei technischen Systemen für einen guten Wert.“
Kann ja sein, daß Sie auf diese Genauigkeit Ihres Modell angewiesen sind. Aber in unserem Fall mit dem Klima ist für die Politik doch in erster Näherung nur entscheidend, ob sich das Klima bei einer solchen CO2-Entwicklung in einen kritischen Bereich bewegt oder nicht. Und dies ist nach Einschätzung der Experten eben bei 2-4 °C plus/minus 0,3°C anscheinend zumindest so riskant, daß man sich zu Maßnahmen zur Ursachenvermeidung entschlossen hat.
Die Wissenschaft hätte es natürlich noch genauer, und dafür forscht man ja auch weiter.
„Was die Fehlerhaftigkeit der Modelle betrifft, widersprechen Sie sich zudem: Zum einen sprechen Sie von „Computerbedingte limitierung der Modellphysik: Man kann nicht die Bildung jedes Regentropfens durchrechnen, sondern muss vereinfachen, und damit rutschen feine Effekte eben durch.“, andererseits sagen Sie „ich verstehe nicht, was daran offensichtlich fehlerbehaftet sein soll“.“
Wo soll da ein Widerspruch sein? Die Fehler durch „Durchrutschen der feinen Effekte“ quantifiziert man ja bei der Modellvalidierung. Außerdem läßt sich auch auf Basis der Physik und Feldforschung im realen Klimasystem abschätzen, wie groß ein Fehler durch eine Vereinfachung eines physikalischen Prozesses ist.
„und das Nullsetzen des anthropogen bedingten Treibhausgasanstiegs dazu führt, daß „das so modellierte Klima auch nicht zum beobachteten passt“, dann gibt es mit diesen Modellen insgesamt ein größeres Problem, meinen Sie nicht auch?“
Wieso? Auch ohne Modell erwartet man doch schon mit einfachen physikalischen Abschätzungen, daß der anthropogen bedingte Treibhausgasanstieg keinen Nulleffekt aufs Klima hat.
„Wenn das nicht mit endlichem Aufwand behebbar ist“
Der Aufwand, das Klima auch kurzfristiger und genauer als plus minus 0,3 °C pro Jahr vorhersagen zu können, ist definitiv sehr aufwändig, denn gerade die interne Klimavariabilität ist wie gesagt computerresourcen-fressend. Die Klimawirkungen der treibhausgas-bedingten physikalischen Prozesse zu berechnen, sind dagegen vergleichsweise einfach.
Sehr geehrter Herr Baecker,
was meine einleitenden Sätze betrifft, so bezog ich mich auf keine „Passage“, sondern darauf, daß Sie Ihren Diskussionspartnern durch die Wortwahl in jedem dritten Satz Unwissenheit, Unverstand oder Unfähigkeit unterstellen und diese wie kleine Kinder behandeln. Das nimmt sich natürlich jeder zu Herzen, und das ist von Ihnen ja auch beabsichtigt. Je nach Temperament läßt sich das Gegenüber dann durch die andauernden Provokationen früher oder später zu unfreundlichen Reaktionen hinreißen, was Sie dann postwendend zur Bestätigung Ihrer Geringschätzung umdeuten können 😉 Das ist ein bekanntes psychologisches Spielchen, welches aber nur solange funktioniert, bis das Opfer es erkennt.
Was nun die Klimamodelle betrifft: Ich kenne keine definierten Qualitätskriterien dafür, und das ist wohl schon Teil des Problems. Wenn die Erde mit einer Temperaturerhöhung von 4 Grad in der Katastrophe versinken soll, dann sollten Modelle, welche die von mir genannten billionenschweren Ausgabenprogramme und den Umbau der Gesellschaft rechtfertigen sollen, die zukünftige Temperaturentwicklung schon mit hinreichender Genauigkeit vorhersagen können, und da halte ich +/- 2% wie bei technischen Systemen für einen guten Wert. Das kann man Verneinen, aber dann frage ich mich, was mit den hohen Summen für die Klimaforschung (allein für Deutschland: http://tinyurl.com/p649jqn) denn eigentlich so gemacht wird.
Was die Fehlerhaftigkeit der Modelle betrifft, widersprechen Sie sich zudem: Zum einen sprechen Sie von „Computerbedingte limitierung der Modellphysik: Man kann nicht die Bildung jedes Regentropfens durchrechnen, sondern muss vereinfachen, und damit rutschen feine Effekte eben durch.“, andererseits sagen Sie „ich verstehe nicht, was daran offensichtlich fehlerbehaftet sein soll“.
Vereinfacht gesagt ist daran wahrscheinlich genau das fehlerhaft, was Sie einen Satz vorher gesagt haben 😉 Wenn das nicht mit endlichem Aufwand behebbar ist und das Nullsetzen des anthropogen bedingten Treibhausgasanstiegs dazu führt, daß „das so modellierte Klima auch nicht zum beobachteten passt“, dann gibt es mit diesen Modellen insgesamt ein größeres Problem, meinen Sie nicht auch?
Und wenn schließlich die Ausgabewerte der Modelle für die Globaltemperatur so abweichen wie in der Spencer-Grafik beschrieben, dann stellen diese Modelle für mich eben keine brauchbare Grundlage dafür dar, eine Klimakatastrophe zu verkünden.
Mit freundlichen Grüßen,
M. Stock
P.S.: Captcha: „schnee“ 😉
#72: Hallo Herr M. Stock, ich bewundere Ihre Geduld, wie oft Sie Herrn Baecker nun vorgeführt haben bei seinem Versuch, die Quadratur des Kreises zu erfinden.
Herr Baecker versteht nichts von Physik
und der Informatiker Hader nichts von Statistik und Chaostheorie.
Trotzdem bestehen beide auf der Fortführung der billionenschwerden Ausgabenprogramme, wie Sie richtig mehrfach betonen.
Es ist also keine akademische Frage,
dieses sachlich unbegründbare Verhalten muss noch deutlicher an den Pranger gestellt werden!
mfG
Lieber Herr Stock,
„funktioniert natürlich ganz gut, ist aber auch nicht völlig undurchschaubar ….“
ich darf Sie daran erinnern, dass Sie diese Passage einem anderen Beitrag von mir entnahmen und ich keine Kenntnis davon hatten konnte, dass Sie sich das zu Herzen nehmen.
„Was die Klimamodelle betrifft, so hatte mir schon gedacht, daß ich mich gar nicht unmißverständlich genug ausdrücken kann. Das „Verstärkungsfaktoren innerhalb des Modells zu Null setzen“ war natürlich nicht als „Flickschusterei“ gedacht, sondern lediglich als Testfall zur Lokalisierung eines fehlerhaften Modellverhaltens.“
Nun, man hat den beobachtbaren anthropogen bedingten Treibhausgasanstieg zu Null gemacht und das Modell nochmal unter diesen nicht realisierten Randbedingungen laufen lassen mit dem Ergebnis, dass das so modellierte Klima auch nicht zum beobachteten passt.
„Nach Ihrer Aussage habe ich jetzt aber verstanden, daß sich die „Szenarien“ auf die Modelleingangsgrößen beziehen, das war mir bisher noch nicht klar.“
Habe ich aber schon mehrmals erklaert…macht aber nichts, besser spaeter als nie (auch in der Hinsicht sind Sie anderen Teilnehmern hin voraus ‚-)
„Das Resultat ist dann wohl das, was sich in der Grafik von Spencer ausdrückt. Damit erfüllen diese Modelle (angesichts der weitreichenden Entscheidungen, die darauf basieren) eindeutig nicht die Qualitätskriterien, die an Modelle für technische Systeme gestellt werden.“
Wo haben Sie definierte Qualitaetskriterien fuer Klimamodelle gesehen? Vergleichen Sie das mit den 2% Ihrer Systeme? Das gilt doch nur fuer Ihre Systeme.
“ Die Ursache dafür ließe sich aber durch das Verändern der Verstärkungsfaktoren wie von mir beschrieben quantifizieren,“
dazu hatte ich eigentlich schon etwas geschrieben. Es gibt keine Verstaerkungsfaktoren, an denen man nach belieben drehen kann und das waere auch nicht physikalisch sinnvoll. Der Weg zu genaueren Modelle ist prinzipiell bekannt.
“ Ist Ihnen bekannt, ob eine solche Quantifizierung (d.h. welche Eingangsgrößen sind für welches Ausmaß der Abweichung der Globaltemperatur verantwortlich) für diese Modelle stattfindet?“
Sie haben das immer noch nicht verstanden, die Eingangsgroessen sind nicht dominant fuer die Abweichung verantwortlich, sondern die Computerbedingte limitierung der Modellphysik: Man kann nicht die Bildung jedes Regentropfens durchrechnen, sondern muss vereinfachen, und damit rutschen feine Effekte eben durch.
„Ich vermag nämlich immer noch nicht zu erkennen, wie man auf der Basis offensichtlich fehlerbehafteter Modelle billionenschwere Ausgabenprogramme und den Umbau der Gesellschaft rechtfertigen kann.“
ich verstehe nicht, was daran offensichtlich fehlerbehaftet sein soll, denn das Klima laesst sich ja weitgehend bis auf die Einige Zehntelgrad Abweichungen auf und ab modellieren. Geben Sie doch einfach mal die Varianz an, die Das Modell gegenueber der Realitaet nicht erklaert und nennen Fakten. Bislang auessern Sie sich nur auf subjektive Basis.
Sehr geehrter Herr Baecker,
na, immerhin habe ich das Glück, daß für Sie meine Fähigkeit zu gemäßigten Reaktionen auf Ihre unterschwelligen Botschaften vor meinen fachlichen Fähigkeiten rangiert 😉 Also dazu nur soviel: Die Masche, persönliche Geringschätzung in vordergründig sachliche Informationen zu verpacken und die dadurch bewußt provozierten Reaktionen dann voller Entrüstung zu beklagen, funktioniert natürlich ganz gut, ist aber auch nicht völlig undurchschaubar ….
Was die Klimamodelle betrifft, so hatte mir schon gedacht, daß ich mich gar nicht unmißverständlich genug ausdrücken kann. Das „Verstärkungsfaktoren innerhalb des Modells zu Null setzen“ war natürlich nicht als „Flickschusterei“ gedacht, sondern lediglich als Testfall zur Lokalisierung eines fehlerhaften Modellverhaltens. Welche Maßnahmen im Anschluß an eine solche Analyse ergriffen werden, steht auf einem ganz anderen Blatt.
Nach Ihrer Aussage habe ich jetzt aber verstanden, daß sich die „Szenarien“ auf die Modelleingangsgrößen beziehen, das war mir bisher noch nicht klar. Also wird der Verlauf der anthropogenen Emissionen und der natürlichen Klimafaktoren so verändert, wie man das für die Zukunft erwartet. Das ist erst einmal OK, mit den langen Meßreihen aus der Vergangenheit sollte das ja mit hinreichender Wahrscheinlichkeit möglich sein. Die diesbezüglichen Annahmen lassen sich variieren, und dann schaut man sich das Ergebnis an.
Das Resultat ist dann wohl das, was sich in der Grafik von Spencer ausdrückt. Damit erfüllen diese Modelle (angesichts der weitreichenden Entscheidungen, die darauf basieren) eindeutig nicht die Qualitätskriterien, die an Modelle für technische Systeme gestellt werden. Die Ursache dafür ließe sich aber durch das Verändern der Verstärkungsfaktoren wie von mir beschrieben quantifizieren, zudem die Klimamodelle nach Ihrer Aussage keine unübersehbare Zahl von Eingangsvariablen haben. Ist Ihnen bekannt, ob eine solche Quantifizierung (d.h. welche Eingangsgrößen sind für welches Ausmaß der Abweichung der Globaltemperatur verantwortlich) für diese Modelle stattfindet?
Ich vermag nämlich immer noch nicht zu erkennen, wie man auf der Basis offensichtlich fehlerbehafteter Modelle billionenschwere Ausgabenprogramme und den Umbau der Gesellschaft rechtfertigen kann.
Mit freundlichen Grüßen,
M. Stock
zu #70 Baecker, Nico:
„Im übrigen halte ich Klimawissenschaftler nicht für Koryphäen, das sind ganz normale Wissenschaftler, und die Klimawissenschaft ist so normal ist wie jede andere Wissenschaft,“
mein Kommentar:
also „ganz normal“ würde ich die nicht nennen,
denn dazu müssten Sie doch etwas mehr von Physik verstehen und auch ganz normal rechnen können.
Sie als Experte werden sicher sofort auf dem ersten Blick erkennen,
was in diesem bekannten Strahlungschema von Kiel und Trendberth völlig falsch ist,
also physikalisch unmöglich in der Realität:
http://tinyurl.com/lrvupp
Tipp:
es sind gleich mehrere Fehler
mfG
Lieber Herr Stock, #69
„Ansonsten vergleichen wir jede Ausgabe des Modells aufgrund von Variationen der Eingangsgrößen einfach mit der Realität. Damit können wir das Systemverhalten über einen definierten Zeitraum tatsächlich vorhersagen, und das ist der Sinn eines Modells.“
So macht man es ja auch mit dem Klimamodellen. Aber da kann man die Eingangsgrößen nun mal leider nicht frei variieren, sondern ist auf die Variationen angewiesen, die uns die Natur in der Vergangenheit lieferte.
„Nur noch kurz zu den „Szenarien“: In einem technischen System, dessen Reaktion auf die Änderung der Eingangsgrößen meßbar ist, ist das, was Sie „Szenarien“ nennen, höchstens für die Beurteilung der Stabilität von Bedeutung. „
Nun, wie gesagt die Szenarien der Eingangsgrößen haben mit dem Modell nichts zu tun.
Das Szenario höherer Treibhausgasmengen resultiert daraus, daß man davon ausgehen kann, daß diese in Zukunft weiter steigen werden. und dies wird einfach als Eingangsgröße ins Modell für die zukünftige Klimaentwicklung einspeist.
„Wir benutzen den Begriff „Szenario“ daher gar nicht, und ich habe den Eindruck, daß er bei den Klimamodellen dazu mißbraucht wird, die falschen Modellergebnisse aufgrund eines nicht in der Wirklichkeit überprüfbarem Modellverhaltens zu beschönigen.“
Ich verstehe nicht. Die Szenarien haben wie schon erklärt überhaupt nichts mit der Modellvalidierung zu tun. Denn dafür vergleicht man ja die Modellergebnisse mit den Beobachtungsdaten, wenn das Modell mit Eingangsgrößen gefüttert wurde, die tatsächlich auch auftraten. Das sind dann natürlich keine Szenarien, sondern real eingetroffene. Wenn man das Klimamodell lang genug zurück in die Klimavergangenheit betreibt, so kann man auch Eingangsgrößen finden, die nahe an den Szenarien für die nahe Zukunft sind, denn erhöhte Treibhausgasmengen gab es ja auch schon natürlich bedingt in der Erdvergangenheit. Somit kann man das Modell auch für die Eingangsgrößen der Szenarien näherungsweise validieren, obwohl das Szenario in der Realität (noch) nicht eingetreten ist.
Wie Sie auf „beschönigen“ kommen, kann ich nicht nachvollziehen. Die Szenarien haben gar keine Auswirkung auf den Aufbau des Modells.
„Daß das Klima die Vergleichsmöglichkeit mit der Realität erst im Nachhinein erlaubt, ist natürlich klar. Wenn aber dann eine Divergenz zwischen Modellergebnis und Messungen festgestellt wird, würde ich (als technische Amöbe) einzelne Verstärkungsfaktoren innerhalb des Modells zu Null setzen und dadurch quantifizieren, wie die Abweichung zu erklären ist.“
So ein Klimamodell wird aber nicht nach try-and-error optimiert. Ich kenne viele Simulanten, die eine Simulationssoftware physikalisch nicht verstehen und daher versuchen, an irgendwelchen tune-Parametern so lange herumzudrehen, bis das Ergebnis paßt. Und dabei kann es passieren, daß die Schräubchen zum Schluß an physikalisch völlig unsinnigen Positionen stehen, aber die Kurven übereinstimmen. Das ist offensichtlich Unsinn.
Bei der Klimamodellierung gibt es keine tune-Parameter für die Temperatur. Diese resultiert deterministisch aus der prognostischen Gleichung für die Temperatur und da fließen nur die Energieströme und ein paar physikalische Konstanten ein. Die Energieflüsse resultieren wiederum aus Bilanzgleichungen. Da läßt sich auch nicht viel tunen, denn es bestehen natürlich Erhaltungssätze (Energieerhaltung etc.). Tunen lassen sich aber Teilprozesse, die gesondert modelliert und validiert werden, z.B. Wolkenbildung oder der Energietransport durch Treibhausgase. Wenn diese Teilmodelle funktionieren, werden sie ins Gesamtmodell implementiert und liefern Parameter, die wieder Eingangsgrößen für andere Teilmodelle sind.
„Sollte sich dann ein bestimmter Parameter als für die Abweichung überwiegend verantwortlich herausstellen, dann würde ich hoffen, daß mir Jemand den Arbeitsauftrag erteilt, den Grund dafür herauszufinden.“
Solche „Flickschusterei“ ist nicht zielführend. Wie gesagt, im Prinzip ist die beobachtbare Abweichung im Klimamodell ja klein im Vergleich zu dem, wie das Modell das reale Klima wiedergibt (siehe Regensburger Graphik). Und außerdem vermutet man schon die Ecke, wo die Ursachen davon zu finden sind, nämlich in Schwächen der Modellierung der internen Klimavariabilität, denn diese erfordert ins Besondere eine hohe Raum- und Zeitauflösung der Prozesse, was bekanntlich der begrenzende Faktor bei Klimamodellen ist.
Und wie schon gesagt, aus den Schwächen in der Modellierung der internen Klimavariabilität läßt sich natürlich nicht schlußfolgern, wie das Modell auf ein Szenario mit höheren Treibhausgasmengen reagiert. Denn die Physik der Treibhausgase erfährt dadurch im Modell ja keine Änderung.
„hierbei ist es erst einmal egal, ob es sich um ein Verstärkungs- oder ein Stabilitätsproblem handelt (Langzeit/Kurzzeit).“
Das Modell ist natürlich nicht numerisch instabil. Und Verstärkungsfaktoren, an denen man einfach so ohne Sinn und Verstand herumdrehen kann, um einen passenden output zu bekommen, gibt es nicht. Und wenn es die gäbe, so sollte man das Herumspielen daran tunlichst nur tun, wenn es physikalische Gründe dafür gibt.
„da ich mir ziemlich sicher bin, daß Sie mich nicht zu den „Ausnahmen“ unter den Technikern zählen, will ich Ihre kostbare Zeit nun wirklich nicht mehr länger in Anspruch nehmen. Diese können Sie ja sinnvoller im technischen Diskurs mit Koryphäen ihresgleichen verbringen.“
Bislang habe ich die Diskussion mit Ihnen nicht als Zeitverschwendung gesehen. Sie haben immerhin die Fähigkeit, weitgehend sachlich bleiben. Und damit haben Sie schon mal eine Fähigkeit, die Voraussetzung für eine Diskussion ist, die noch vor den fachlichen Fähigkeiten rangiert. Im übrigen halte ich Klimawissenschaftler nicht für Koryphäen, das sind ganz normale Wissenschaftler, und die Klimawissenschaft ist so normal ist wie jede andere Wissenschaft, wenn man mal hinter die Kulissen guckt und sich nicht vom populistischen Gequarke ablenken läßt. Sie müssen freilich noch lernen, daß Klimamodellierer nicht blinde Anwender einer Simulationssoftware sind, sondern der Sinn des Modelle ist, ein in Details physikalisch konsistentes Abbild des realen Klimas zu liefern und nicht nur eine einzige Meßkurve nachzubilden.
Sehr geehrter Herr Baecker,
da ich mir ziemlich sicher bin, daß Sie mich nicht zu den „Ausnahmen“ unter den Technikern zählen, will ich Ihre kostbare Zeit nun wirklich nicht mehr länger in Anspruch nehmen. Diese können Sie ja sinnvoller im technischen Diskurs mit Koryphäen ihresgleichen verbringen.
Nur noch kurz zu den „Szenarien“: In einem technischen System, dessen Reaktion auf die Änderung der Eingangsgrößen meßbar ist, ist das, was Sie „Szenarien“ nennen, höchstens für die Beurteilung der Stabilität von Bedeutung. Ansonsten vergleichen wir jede Ausgabe des Modells aufgrund von Variationen der Eingangsgrößen einfach mit der Realität. Damit können wir das Systemverhalten über einen definierten Zeitraum tatsächlich vorhersagen, und das ist der Sinn eines Modells.
Wir benutzen den Begriff „Szenario“ daher gar nicht, und ich habe den Eindruck, daß er bei den Klimamodellen dazu mißbraucht wird, die falschen Modellergebnisse aufgrund eines nicht in der Wirklichkeit überprüfbarem Modellverhaltens zu beschönigen. Daß das Klima die Vergleichsmöglichkeit mit der Realität erst im Nachhinein erlaubt, ist natürlich klar. Wenn aber dann eine Divergenz zwischen Modellergebnis und Messungen festgestellt wird, würde ich (als technische Amöbe) einzelne Verstärkungsfaktoren innerhalb des Modells zu Null setzen und dadurch quantifizieren, wie die Abweichung zu erklären ist. Sollte sich dann ein bestimmter Parameter als für die Abweichung überwiegend verantwortlich herausstellen, dann würde ich hoffen, daß mir Jemand den Arbeitsauftrag erteilt, den Grund dafür herauszufinden. hierbei ist es erst einmal egal, ob es sich um ein Verstärkungs- oder ein Stabilitätsproblem handelt (Langzeit/Kurzzeit).
Bis dieser Grund gefunden und das Problem behoben ist, würde das Modell von uns als nicht relevant betrachtet werden. Mit Sicherheit würden keine darauf basierenden Entscheidungen getroffen. Genau da ist der Unterschied zu Klimamodellen, für die ein solches Problem nachweislich besteht, diese Tatsache aber seitens der von „Klimawissenschaftlern“ manipulierten Politik nicht erkannt wird.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock, #67
Danke für Ihre Ausführungen.
„Ich nehme an, daß Klimamodelle grundsätzlich auch so funktionieren“
Ja, so ist es.
„Wie die Klimamodellierer ihre Modelle mit der Wirklichkeit vergleichen, weiß ich natürlich nicht.“
Den Test kann man natürlich nur mit Klimaten der Vergangenheit machen, denn nur dafür gibt es bestenfalls Meßdaten. Und darauf basiert auch die Modellvalidierung der Klimamodellierer, indem sie die outputs mit den beobachteten Meßdaten bei gleichen Randbedingungen vergleichen.
„Offensichtlich ist es aber so, daß verschiedenste Modelle unter (ab einem definierten Zeitpunkt) festgelegten Anfangsbedingungen bezüglich eines bestimmten Ausgabewertes, nämlich der Globaltemperatur, zunehmend in die gleiche Richtung abweichen.“
Das ist richtig. Und den diskutierten Grund habe ich Ihnen ja genannt. Es kann sein, daß die Modelle die dekadische Klimavariabilität auf der Zeitskala nicht richtig hinbekommen. Dennoch können Sie selber anhand der Regensburger Graphik sehen, wie genau die Modelle das Klima hinbekommen. Die von Ihnen kritisierte Abweichung ist klein gegenüber der erreichten Genauigkeit.
„Daß es nicht sinnvoll ist, aus den verschiedenen Kurven dann einen statistischen Mittelwert bilden zu wollen, habe ich herausgefunden.“
Ja, richtig. Der Emsemblemittelwert muß nicht der optimale Schätzwert sein.
„Falls die Klimamodelle, wie Sie sagen, „durch Fortschreibung der Entwicklungen der Vergangenheit“ (was klar ist) auch durch „Szenarien für ihre zukünftige Entwicklung“ kontinuierlich angepaßt werden müssen“
Sie haben das immer noch nicht verstanden. Die Modelle werden verbessert, indem man physikalische Teilprozesse genauer modellieren kann. Dies überprüft man jedoch stets durch den Vergleich mit den Meßdaten, die natürlich nur für die Vergangenheit vorliegen.
Mit den Szenarien der Randbedingungen für die Zukunft hat dies gar nichts zu tun. Die Szenarien sind das Ergebnis der Abschätzung der zukünftigen Entwicklung von anthropogenen Emissionen und der Fortsetzung der natürlichen Klimafaktoren.
„ „Szenarien“ in ein Modell einzubauen, klingt schon nach Voodoo. Kann es sein, daß diese „Szenarien“ besagen, daß es in jedem Fall wärmer werden muß?“
Wieso Voodoo? Sie spielen mit Ihrem Modell doch wohl auch Szenarien durch, indem Sie das Modell mit verschiedenen Randbedingungen betreiben und die Reaktion des outputs darauf betrachten. Nichts anderes macht man mit den Klimamodellen auch. Der Unterschied ist nur, daß man nur die Szenarien von Randbedingungen auch mit Beobachtungsdaten vergleichen kann, die auch in der Vergangenheit real eingetroffen waren. Denn leider lassen sich mit dem realen Klima keine Experimente anstellen.
Wärmer wird es nur, weil die Szenarien von mehr Treibhausgasen in der atmosphäre
„Wie auch immer – Meiner Ansicht nach produzieren die Klimamodelle kein hinreichend genaues Ergebnis und sind damit nach meinem Verständnis keine Grundlage, auf der überhaupt eine Vorhersage möglich ist.“
Wir hatten aber schon geklärt, daß es sich dabei nicht um Vorhersagen handelt, sondern um Szenarien. Eine Vorhersage wäre es dann, wenn Sie sicher angeben könnten, welches Szenarien in Zukunft auch wirklich eintrifft. Was man heute weiß, ist jedoch jedes Anstiegsszenario der Emissionen von der ökonomischen Entwicklung her wahrscheinlicher als ein Szenario, welches eine abrupte Reduktion der Treibhausgase in der Atmosphäre vorsieht.
„Ach so, nur nebenbei: Wie Sie erkennen können, bin ich kein Klimawissenschaftler. Da Sie an anderer Stelle in diesem Forum schrieben, Sie hielten Techniker hinsichtlich ingenieurswissenschaftlicher Themen für inkompetent, und würden diesen nur Arbeitsanweisungen geben, hätte ich natürlich vollstes Verständnis dafür, wenn Sie die Diskussion mit mir an dieser Stelle beenden. Ich möchte Sie keinesfalls dazu verleiten, gegen Ihre Grundüberzeugungen zu handeln ;-)“
Eine Ergänzung meiner Überzeugung war es leider nicht wert, freigeschaltet zu werden, ich schrieb noch sinngemäß: es gibt auch Techniker, die über tiefergehendes Grundwissen verfügen und deren Fähigkeiten und Wissen ich schätze. Meine Aussage gilt nur für die Mehrheit und resultiert aus meinen Erfahrungen. Zu meinen Erfahrungen zählen aber auch die Ausnahmen, und daher handele ich nicht nach einer generellen Grundüberzeugung, sondern nach der Lage im Einzelfall.
Sehr geehrter Herr Baecker,
die Modelle, mit denen ich manchmal zu tun habe, sind (vermutlich) wesentlich einfacher aufgebaut als Klimamodelle und haben auch eine recht begrenzte Zahl von Ein/Ausgangsvariablen. Diese Modelle können aufgrund vorgegebener Anfangsbedingungen einen Systemzustand abbilden und reagieren auf Änderung der Eingangsvariablen entsprechend. Es gibt innerhalb der Modelle Nichtlinearitäten und Begrenzungen, und natürlich wird auch das Zeitverhalten modelliert. Läßt man die die Eingangsvariablen ab einem bestimmten Zeitpunkt konstant, so kann man das Zeitverhalten des Modells beobachten. Da diese Modelle das Verhalten existierender Systeme beschreiben, können wir die Modellqualität durch Messungen mit identischen Anfangsbedingungen und Änderungen in der Wirklichkeit verifizieren. Wenn die Ausgabewerte des Modells von der Realität um mehr als +/- 2% abweichen, ist das Modell nicht tauglich und muß überarbeitet werden.
Ich nehme an, daß Klimamodelle grundsätzlich auch so funktionieren, allerdings wesentlich komplexer sind. Wie die Klimamodellierer ihre Modelle mit der Wirklichkeit vergleichen, weiß ich natürlich nicht. Offensichtlich ist es aber so, daß verschiedenste Modelle unter (ab einem definierten Zeitpunkt) festgelegten Anfangsbedingungen bezüglich eines bestimmten Ausgabewertes, nämlich der Globaltemperatur, zunehmend in die gleiche Richtung abweichen. Daß es nicht sinnvoll ist, aus den verschiedenen Kurven dann einen statistischen Mittelwert bilden zu wollen, habe ich herausgefunden. Am grundsätzlichen Problem der sich vergrößernden Abweichung ändert sich aber dadurch nichts. Falls die Klimamodelle, wie Sie sagen, „durch Fortschreibung der Entwicklungen der Vergangenheit“ (was klar ist) auch durch „Szenarien für ihre zukünftige Entwicklung“ kontinuierlich angepaßt werden müssen, so liegt das Problem wohl in Letzterem. „Szenarien“ in ein Modell einzubauen, klingt schon nach Voodoo. Kann es sein, daß diese „Szenarien“ besagen, daß es in jedem Fall wärmer werden muß?
Wie auch immer – Meiner Ansicht nach produzieren die Klimamodelle kein hinreichend genaues Ergebnis und sind damit nach meinem Verständnis keine Grundlage, auf der überhaupt eine Vorhersage möglich ist. Eigentlich wäre mir das egal, aber genau zu solchen Vorhersagen werden die Klimamodelle ja benutzt.
Ach so, nur nebenbei: Wie Sie erkennen können, bin ich kein Klimawissenschaftler. Da Sie an anderer Stelle in diesem Forum schrieben, Sie hielten Techniker hinsichtlich ingenieurswissenschaftlicher Themen für inkompetent, und würden diesen nur Arbeitsanweisungen geben, hätte ich natürlich vollstes Verständnis dafür, wenn Sie die Diskussion mit mir an dieser Stelle beenden. Ich möchte Sie keinesfalls dazu verleiten, gegen Ihre Grundüberzeugungen zu handeln 😉
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock,
„nein, ich habe nicht behauptet, Klimamodelle würden die Temperatur aus dem Temperaturverlauf der Vergangenheit in die Zukunft „extrapolieren“.“
Koennen Sie mir trotzdem erklaeren, wie Se urspruenglich glaubten, wie Klimamodelle das Klima der Zukunft berechnen, mich wuerde mal Ihre Vorstellung interessieren?
„Nach Ihrer Darstellung sind diese Modelle aber grundsätzlich gar nicht dazu geeignet, Voraussagen für die Zukunft zu treffen, denn Sie sagen ja, es wäre „allgemein falsch“, aus dem gegenwärtigen Trend eines Globaltemperaturverlaufs einen Trend für die Zukunft abzuleiten.“
Und haben Sie nun nach meinen Erklaerungen verstanden, wie Szenarien fuer das Klima der Zukunft berechnet werden? Der obige Satz verwundert mich naemlich. Denn Ihre obige Schlussfolgerung folgt mitnichten aus meinen Erklaerungen, denn das „allgemein falsch“ bezog sich ja explizit auf die Extrapolation und nicht auf die Methode der Klkmamodelle, wie Sie in meinen Auffuehrungen nachlesen koennen.
Sehr geehrter Herr Baecker,
nein, ich habe nicht behauptet, Klimamodelle würden die Temperatur aus dem Temperaturverlauf der Vergangenheit in die Zukunft „extrapolieren“. Diesen Begriff haben Sie hier eingeführt, aus welchem Grund auch immer. Vielleicht lesen Sie nochmal nach, bevor das zu einer fixen Idee bei Ihnen wird.
Was die Abweichungen betrifft, so ist deren Größenordnung tatsächlich für die letzten 15 Jahre noch nicht so signifikant, daß man die Klimamodelle deswegen verwerfen müßte. Nach Ihrer Darstellung sind diese Modelle aber grundsätzlich gar nicht dazu geeignet, Voraussagen für die Zukunft zu treffen, denn Sie sagen ja, es wäre „allgemein falsch“, aus dem gegenwärtigen Trend eines Globaltemperaturverlaufs einen Trend für die Zukunft abzuleiten.
Nach dem was ich so nachgelesen habe deutet Einiges darauf hin, daß Sie diesbezüglich Recht haben. Insofern haben die Prognosen (oder was immer das sein soll) des Weltklimarates über eine stetig steigende Erwärmung für die Zukunft kein brauchbares Fundament.
Die Regensburger Grafik ist für mich deshalb etwas seltsam, weil sie beispielsweise für das Jahr 2010 eine Temperaturanomalie von +0,78 Grad zeigt, was durch keine einzige Messung, die ich finden konnte, bestätigt wird. Wenn man diesen Wert auf das realistische Mittel der Meßwerte von ca. 0,5 Grad reduziert, dann fallen die Modellwerte auch dort ebenfalls in Kürze nach unten heraus. Das hat es zwar früher auch schon gegeben, aber da hat sich offenbar noch noch niemand die Mühe gemacht, die Grafiken in dieser Art zu verändern.
Mit freundliche Grüßen,
M. Stock
Lieber Herr Stock, #63
„um mich mal Ihrer Wortwahl zu bedienen: Sie haben offenbar immer noch nicht verstanden, daß ich nicht behaupte, „Klimamodelle würden die Temperatur aus dem Temperaturverlauf der Vergangenheit in die Zukunft extrapolieren““
Hm, aber Sie haben diese Vorgehensweise aber doch über die Modellierer behauptet, oder?
„Ich schaue mir an, was Klimamodellierer auf der Basis ihrer Modelle für die Zukunft vorhersagen, und vergleiche dies mit der Realität. „
Ja, und ich sehe, daß die Abweichungen nicht viel größer sind als die, die man auch schon fürs Klima der Vergangenheit gesehen hatte. Wenn Sie das anders sehen, so liefern Sie doch einfach mal Zahlen zum Vergleich heute gegen Vergangenheit.
„Ob Sie diese Vorgehensweise der Modellierer (oder wer immer diese Vorhersagen auf der Basis der Modelle macht) als Extrapolation bezeichnen oder nicht, überlasse ich Ihnen.“
Eine Extrapolation ist ein mathematisch wohldefinierter Begriff. Ich ging davon aus, daß Sie den kennen. Bei der Extrapolation setzt man einfach bekannte Daten in unbekannte Gebiete (hier zukünftige Zeiten) nach bestimmten mathematischen Verfahren fort. Dies machen Klimamodelle oder die Modellierer hier jedoch nicht!
Die Modellberechnung für die Zukunft unterscheidet sich vom Verfahren her nicht von der für die Vergangenheit.
„Aus Ihren Erläuterungen über Klimamodelle entnehme ich, daß die Klimamodelle tatsächlich nicht dazu geeignet sind, Aussagen über den zukünftigen Verlauf der Globaltemperatur zu machen.“
Ob die Genauigkeit, die man aus dem Vergleich mit den Klimaverlauf der Vergangenheit ableiten konnte, nach wie vor erreicht wird, ist noch in Diskussion. Aber eine höhere Genauigkeit als in der Vergangenheit kann man wohl nicht erwarten.
Wenn Sie nun die natürliche Klimavariabilität genauer abgebildet haben wollen, so ist das z.Zt. (noch) nicht möglich. Aber hier geht es ja nur um ein paar Zehntelgrad pro Dekade. Im Vergleich zu den Temperaturänderungen, die die Klimaphysik bei Verdopplung des CO2 erwarten läßt, ist das marginal.
Ich glaube aber immer noch, daß Sie nicht so recht wissen, was eigentlich die Genauigkeit eines Klimamodells ausmacht.
Sie scheinen dazu nur die Daten ab 1978 in Spencers Graphik zu nehmen. Wenn man nur das macht, fällt aber schon ein großer Teil der Modell-Fähigkeit weg. Wenn man die Genauigkeit quantifizieren will, muß nämlich den gesamten Zeitverlauf, den das Modell berechnet hat, mit den Daten vergleichen und nicht nur den Bereich, der abweicht. Sonst macht man sich etwas vor. Außerdem könnte man so immer eine Abweichung finden – „zum Nörgeln findet sich immer was“. Die Frage alleine ist: ist die Größe der Abweichung relevant oder nicht für die Fragestellung.
Was die Modelle können und was nicht, sieht man in der Regensburger Graphik. Dort sieht man, daß die Modellphysik den Temperaturverlauf aus der Vergangenheit rein aus der modellierten Klimadynamik mit einigen Zehntelgrad über den Verlauf der letzten 100 Jahre wiedergeben kann. Wenn dies mit einer bestimmten Genauigkeit stimmt, so kann man diese Genauigkeit auch bei Randbedingungen mit erhöhtem CO2-Gehalt annehmen, denn physikalisch passiert ja nichts weiter, als daß primär das Modellklima auf einen modifizierten vertikalen Energiefluß reagiert, welche in den Gleichungen der Dynamik quantitativ eingeht.
Sehr geehrter Herr Baecker,
um mich mal Ihrer Wortwahl zu bedienen: Sie haben offenbar immer noch nicht verstanden, daß ich nicht behaupte, „Klimamodelle würden die Temperatur aus dem Temperaturverlauf der Vergangenheit in die Zukunft extrapolieren“ 😉 Ich schaue mir an, was Klimamodellierer auf der Basis ihrer Modelle für die Zukunft vorhersagen, und vergleiche dies mit der Realität. Ob Sie diese Vorgehensweise der Modellierer (oder wer immer diese Vorhersagen auf der Basis der Modelle macht) als Extrapolation bezeichnen oder nicht, überlasse ich Ihnen.
Aus Ihren Erläuterungen über Klimamodelle entnehme ich, daß die Klimamodelle tatsächlich nicht dazu geeignet sind, Aussagen über den zukünftigen Verlauf der Globaltemperatur zu machen. Ungeachtet dessen werden diese Modellvorhersagen aber gemacht und seitens des „Weltklimarates“ dazu benutzt, eine durch den Menschen verursachte Erhöhung der Globaltemperatur auch für die Zukunft zu prognostizieren. Daß das methodisch falsch ist, dürfte dann wohl auf der Hand liegen.
Mit freundlichen Grüßen,
M. Stock
#61 joo Herr Nico Baecker
fein fabuliert. Und wenn’s weiterhin arg daneben liegt, werden uns irgend welche Banalitäten als „die neueste wissenschaftliche Erkenntnis“ verkauft. Das Scheunentor für Ausflüchte haben Sie ja schon geöffnet.
mfg
Lieber Herr Stock, #60
„Unabhängig davon veröffentlichen die Klimamodellierer Vorhersagen über die Entwicklung der Globaltemperatur bis 2025, deren Verläufe sich im Mittel immer weiter von den realen Meßwerten entfernen.“
…aus den von mir bereits mehrmals genannten Gründen der internen Klimavariabilität. Es ist davon auszugehen, daß die Messwerte langfristig im Modellband liegen und Ausreißer wie jetzt oder in der Vergangenheit auch in Zukunft vorkommen werden, sofern die Entwicklung der Treibhausgase und der anderen im Modell implementierten Klimafaktoren in Zukunft nicht ganz abseitig der Szenarien der Modelle liegen und keine unvorhersehbare große Klimaereignisse eintreffen, die man bislang nicht kannte (Vulkanausbrüche, Meteoriteneinschlag, bislang unbekannte oder nicht wirksame anthropogene Einflüsse…) und die in den Szenarien für die Entwicklung der Randbedingungen nicht abgebildet sind.
„ Zusätzlich hat die Steigung dieser Mittelwertkurve inzwischen ein anderes Vorzeichen als die der realen Meßwerte.“
Extrapolation hat wenig Sinn! Probieren Sie es mal an der historischen Kurve mit Ihrem Verfahren aus und gucken sie, wieviel Abweichung Sie zwischen Ihrer Extrapolation und dem historischen Verlauf haben, wenn Sie irgendwo in der Vergangenheit mit der Extrapolation starten und in „vergangener Zukunft“ enden.
„Nachdem Sie sagen, es wäre „allgemein falsch“, aus dem gegenwärtigen Trend eines Globaltemperaturverlaufs einen Trend für die Zukunft abzuleiten, frage ich mich natürlich: Warum machen die Klimamodellierer das dann?“
Hm, ich habe Ihnen doch schon erklärt, daß Klimamodelle nicht die Temperatur aus dem Temperaturverlauf der Vergangenheit extrapolieren. Wo ist Ihr Problem, warum behaupten Sie das immer noch?
Sehr geehrter Herr Baecker,
herzlichen Dank für die Erklärung, was ein Klimamodell ist. Unabhängig davon veröffentlichen die Klimamodellierer Vorhersagen über die Entwicklung der Globaltemperatur bis 2025, deren Verläufe sich im Mittel immer weiter von den realen Meßwerten entfernen. Zusätzlich hat die Steigung dieser Mittelwertkurve inzwischen ein anderes Vorzeichen als die der realen Meßwerte.
Nachdem Sie sagen, es wäre „allgemein falsch“, aus dem gegenwärtigen Trend eines Globaltemperaturverlaufs einen Trend für die Zukunft abzuleiten, frage ich mich natürlich: Warum machen die Klimamodellierer das dann?
Mit freundlichen Grüßen.
M. Stock
Lieber Herr Stock, #58
„Ihre Aussage, „auf dieser Basis wird nicht in die Zukunft extrapoliert“, sehen die Klimamodellierer offensichtlich anders, denn die haben jetzt als Ergebnis ihrer Rechnungen schon die Globaltemperaturen bis zum Jahr 2025 ermittelt. Oder habe ich mich da bei der Beschriftung der Zeitachse verlesen?“
Herr Stock, Sie haben also tatsächlich nicht verstanden, was ein Klimamodell ist. Alle Temperaturen (und alle anderen Klimaparameter, die das Modell auswirft) werden aus den implementierten Randbedingungen und der Modellphysik berechnet. Die Randbedingungen der Vergangenheit werden durch Beobachtungen ermittelt, die der Zukunft werden in Szenarien durch Fortschreibung der Entwicklungen der Vergangenheit und Szenarien für ihre zukünftige Entwicklung vorgegeben.
Das Klima der Zukunft wird jedoch im Modell nach den exakt gleichen Gleichungen berechnet wie das der Vergangenheit und ergibt sich durch gleitende Mittelung über die vom Modell berechneten Wettersequenzen über den gesamten Zeitraum (Vergangenheit wie Zukunft).
Die Temperaturen des Modell aus der Vergangenheit werden durch die Modellierer nicht in die Zukunft extrapoliert, auch wenn Sie das den Klimamodellierern fälschlich unterstellen. Das Klima zu einem Zeitpunkt x ist alleine von dem Zeitverlauf Der Randbedingungen vom Startpunkt bis zum Zeitpunkt x abhängig. Dabei ist es für das Klimamodell prinzipiell egal, ob dieser Zeitpunkt in der Zukunft oder Vergangenheit von heute liegt.
„Mir ist nicht klar, wieso es falsch sein soll, aus einem Trend von realen Meßwerten „einen Trend für die Zukunft abzuleiten“, während dies bei fiktiven Modellergebnissen offensichtlich als völlig normal angesehen wird (abgesehen davon, daß man nicht weiß, welcher Trend richtiger ist).“
Wie gesagt, es ist allgemein falsch. Und im Falle der Klimaforschung macht man weder mit den Modellwerten noch mit den Meßwerten eine Extrapolation in die Zukunft, die Werte werden unabhängig vom Zeitpunkt relativ zu heute immer nach dem gleichen Verfahren berechnet!
Sehr geehrter Herr Baecker,
Ihre Aussage, „auf dieser Basis wird nicht in die Zukunft extrapoliert“, sehen die Klimamodellierer offensichtlich anders, denn die haben jetzt als Ergebnis ihrer Rechnungen schon die Globaltemperaturen bis zum Jahr 2025 ermittelt. Oder habe ich mich da bei der Beschriftung der Zeitachse verlesen?
Mir ist nicht klar, wieso es falsch sein soll, aus einem Trend von realen Meßwerten „einen Trend für die Zukunft abzuleiten“, während dies bei fiktiven Modellergebnissen offensichtlich als völlig normal angesehen wird (abgesehen davon, daß man nicht weiß, welcher Trend richtiger ist).
Für die Rechtfertigung der ganzen Maßnahmen, die mit dem menschengemachten Klimawandel begründet werden, bieten die Klimamodelle aus meiner Sicht zumindest momentan keine brauchbare Grundlage.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock,
„ich habe Ihre Erklärungen schon verstanden. Die Klimamodelle geben aber für jedes Jahr einen Temperaturwert heraus, und den kann man mit tatsächlichen Meßwerten des gleichen Jahres vergleichen. Ich kann nicht erkennen, was daran „methodisch falsch“ sein soll, aus Sicht der Modellierer ist es aber möglicherweise „methodisch unerwünscht““
Sie meinen, was falsch sein soll, die Jahreswerte zu vergleichen? Daran ist nichts falsch. Die Berechnung der Genauigkeit z.B. in Form der erklaerten Varianz basiert ja auch darauf. Falsch ist nur, wenn Sie aus den Daten einen Trend fuer die Zukunft ableiten.
„Auf der Basis der betreffenden Klimamodelle werden nun einmal gegenwärtig weitreichendste politische und wirtschaftliche Entscheidungen getroffen, und da sollten die Ergebnisse das schon hergeben.“
Tun Sie ja mit einer ausreichenden Genauigkeit.
„Wenn die Modelle aber über einen Zeitraum von 15 Jahren den falschen Trend zeigen und mittlerweile wohl schon die Steigung ein anderes Vorzeichen hat, ist es meiner Ansicht nach nicht ausreichend, die Validierung eines Temperaturverlaufs durch Tiefpaßfilterung oder andere Glättungsmethoden in eine Zukunft zu verschieben, die wir alle nicht mehr erleben werden.“
Sie haben immer noch nicht verstanden, was ein Klimamodell ist. Es wird auf dieser Basis nicht in die Zukunft extrapoliert. Die Zukunft ergibt sich nur auf Basis der Randbedingungen, die in der Zukunft aufs Klima wirken.
“ Wenn der genaue Grund für diese Abweichungen nicht bekannt ist, kann es ja ebenso sein, daß Spencer Recht hat.“
Wie gesagt, die Abweichungen in dem betrachteten Zeitraum sind innerhalb der Genauigkeiten heutiger Modelle. Das wollen Sie doch nun verstanden haben, oder doch nicht…?
„Wie Sie zu der Einschätzung kommen, dieser Roy Spencer wäre ein „Laie“, ist mir übrigens nicht klar. “
Anhand der wissenschaftlichen Soliditaet seiner Argumente.
„Nach dem, was ich gefunden habe, hat er sich bei der NASA mit der Messung der Globaltemperatur mittels Satelliten beschäftigt, und hat in dieser Hinsicht offenbar eine gute Reputation.“
Auf dem Gebiet ja. Ob er sich mit Atmosphaerenphysik hinreichnd auskennt, bezweifle ich jedoch.
Sehr geehrter Herr Baecker,
ich habe Ihre Erklärungen schon verstanden. Die Klimamodelle geben aber für jedes Jahr einen Temperaturwert heraus, und den kann man mit tatsächlichen Meßwerten des gleichen Jahres vergleichen. Ich kann nicht erkennen, was daran „methodisch falsch“ sein soll, aus Sicht der Modellierer ist es aber möglicherweise „methodisch unerwünscht“ 😉
Auf der Basis der betreffenden Klimamodelle werden nun einmal gegenwärtig weitreichendste politische und wirtschaftliche Entscheidungen getroffen, und da sollten die Ergebnisse das schon hergeben. Wenn die Modelle aber über einen Zeitraum von 15 Jahren den falschen Trend zeigen und mittlerweile wohl schon die Steigung ein anderes Vorzeichen hat, ist es meiner Ansicht nach nicht ausreichend, die Validierung eines Temperaturverlaufs durch Tiefpaßfilterung oder andere Glättungsmethoden in eine Zukunft zu verschieben, die wir alle nicht mehr erleben werden. Wenn der genaue Grund für diese Abweichungen nicht bekannt ist, kann es ja ebenso sein, daß Spencer Recht hat.
Wie Sie zu der Einschätzung kommen, dieser Roy Spencer wäre ein „Laie“, ist mir übrigens nicht klar. Nach dem, was ich gefunden habe, hat er sich bei der NASA mit der Messung der Globaltemperatur mittels Satelliten beschäftigt, und hat in dieser Hinsicht offenbar eine gute Reputation. Im Internet wird er zwar auch als eine Art Häretiker dargestellt, aber das werden ja andere (auch renommierte) Wissenschaftler ebenfalls.
Ich bin allerdings keineswegs ein „Spencer-Fan“, sondern halte Meßwerte einfach für aussagekräftiger als Modellergebnisse, wenn diese die Realität ganz offensichtlich falsch wiedergeben (egal ob auf der Kurzzeit- oder Langzeitachse).
Mit freundlichen Grüßen,
M. Stock
Lieber Stock,
die Diskussion dreht sich etwas im Kreis.Ich hatte Ihnen schon erklaert, dass die Modelle bislang nur das Langzeitverhalten des Klimas auf der Zeitskala von einigen Jahrzehnten physikalisch erklaeren koennen. Also muss man auch die Entwicklung in die Zukunft nur auf dieser Zeitskala sehen. Es ist also Unsinn, den Langzeittrend mit kurzzeitigen Schwankungen zu vergleichen, wie es Spencer und andere Laien tun. Das ist methodisch falsch. Das Kurzzeitverhalten wird zumindest in der Amplitude von den Modellen plausibel wiedergegeben, aber die Phasen stimmen nicht, m.a.W. die interne Klimavariabilitaet der Modelle laeuft nicht synchron mit der des echten Klimas ab. Man vermutet aber schon laenger, und die Beobachtungen z.Zt. geben weitere Hinweise, dass die Modelle die Amplitude des Kurzzeitverhaltens des Klimas unterschaetzen, dies liegt wie gesagt an der Komplexitaet des internen Klimarauschens.
#53: Hans Jung :
„Hier werden ja Klimawissenschaftler gerne als absolute Volltrottel dargestellt, welche alle bekannten Einflußgrößen ignorieren.“
Irgendwie haben Sie nicht Unrecht, zu den Einflüssen rechne ich auch die Schwerkraft, stellen Sie sich mal vor, die wird wirklich von vielen ignoriert.
Nun ich denke das ist so eine Art „negative Rückkopplung“,
jetzt red ich auch schon so,
ich meine, alle sind sicher keine Idioten,
aber wenn man mal mit den Lügen angefangen hat,
wie dieser Mann, ich rechne auch Trendberth mit seinen Kindergarten-Strahlungsmodell dazu,
dann ist das wie ein Dammbruch.
Wenn dann ein anderer irgend einen Blödsinn erzählt,
kann man nicht mehr nein sagen, weil man ja selber dann seinen eigenen Blödsinn erst zurücknehmen müsste,
es herrscht sozusagen Narrenfreiheit in Blödsinn erzählen.
Der Gordische Knoten,
hier wieder normale Verhältnisse herzustellen, wäre imho
das Einverständnis,
he, es gibt gar keinen CO2-Treibhauseffekt.
Dieser FCKW-Quatsch ist ja vielleicht ein schüchterner Versuch, vom CO2 endlich wegzukommen.
Das passt nur leider nicht,
da man das vor 1970 gar nicht gemessen hat.
Außerdem bestimmt die Antarktis gerade NICHT die globale Temperatur, was immer das ist.
Eine „mittlere Temperatur“ ist völlig unwichtig.
Man müsste da also ganz anders aufräumen.
mfG
#50 „Die dort erwaehnten Oszillationen sind aber in den Klimamodellen drin.“
Herr Baecker,
danke für den Hinweis.
Hätte mich auch schwer gewundert, wenn dem nicht so wäre.
Hier werden ja Klimawissenschaftler gerne als absolute Volltrottel dargestellt, welche alle bekannten Einflußgrößen ignorieren.
Gruß
Jung
Sehr geehrter Herr Baecker,
wie weit die Modellergebnisse gegenwärtig genau von der Realität entfernt sind, läßt sich wirklich nicht so einfach sagen, da haben Sie Recht. Ich habe mir mal die Temperaturmessungen der verschiedenen Organisationen (UAH, RSS, HadCRUT, GISS) angeschaut und festgestellt, daß der Absolutwert der Globaltemperaturanomalie für 2012 zwischen 0,2 Grad und 0,6 Grad variiert (http://tinyurl.com/o9ucyjy). Wenn man der Einfachheit halber das arithmetische Mittel hernimmt, dann liegen die mittleren Modellwerte nicht um 0,5, sondern nur um ca. 0,3 Grad zu hoch, und das ist mit den Abweichungen des letzten Jahrhunderts vergleichbar. Über die tatsächliche Größe ließe sich wohl lange und ergebnislos streiten 😉
Einigkeit besteht aber offenbar darüber, daß die Erwärmung über etwa 15 Jahre stagniert und in jüngster Zeit einen negativen Trend hat. Ich bin eigentlich erst durch das hier: http://tinyurl.com/a28vmmc auf die Idee gekommen, mir das etwas genauer anzuschauen, denn da wird dieser Temperaturverlauf der letzten Jahre einfach als Rauschen bezeichnet und dann „weggerechnet“. Der Trend in der Grafik wird dann einfach mit derselben Steigung weitergezeichnet, als ob nichts wäre. Das ist natürlich für Jeden erkennbar nicht korrekt, denn die Meßwerte über 15 Jahre würden selbst bei einer Betrachtung von 1880 bis 2012 eine Änderung der Steigung der Trendlinie hervorrufen (wie man an den anderen Kurvenabschnitten sieht).
Wie auch immer – Die Glaubwürdigkeit der These vom menschengemachten Klimawandel hängt daran, ob sich die Vorhersagen der Modelle in den nächsten Jahren weiter von der Wirklichkeit entfernen oder nicht. Bis ins Jahr 2025 ist die Temperaturentwicklung seitens der Modelle ja bereits knallhart vorgegeben, und die CO2-Kurve wird vermutlich so weiter verlaufen wie bisher.
Nochmals danke für Ihre Erläuterungen und die Zeit, die Sie dafür aufgewendet haben. Ich werde mich in der Sache auf dem Laufenden halten.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock,
ich habe mir die Daten von Regensburg nochmal genauer angeschaut. Die Beobachtungsdaten sind gegenüber UAH geglättet oder einen Mittelwert von Beobachtungsdaten. Daher liegen sie weiterhin im gelben Band. Ich kann daher nicht bestätigen, daß der Unterschied (in dieser Abbildung) zwischen Modellen und Beobachtungen der letzten Jahrzehnte grundlegend größer wäre als in der Vergangenheit.
Lieber Herr Stock,
„Die Graphen aus dem Dokument der Uni Regensburg und die von Roy Spencer passen auch gut zusammen.“
Ich meine, sie waeren in der Ordinaten verschoben, und damit waeren die Differenzen zwischen Modell und Beonpbachtung nicht vergleichbar.
„Unabhängig davon, die früher und heute die Modelle ausgesehen haben: Die mittlere Differenz zwischen Modellen und Realität war in den letzten 112 Jahren wirklich noch nie so groß wie heute, oder?“
Ich will das nicht abstreiten, aber per Augenmass kann man sich taeuschen. Ich haette das gerne exakter. Wie gesagt, es kann sein und erklaerte die intensivierte Erforschung natuerlicher Klimaschwankungen. Nur klar ist, dass daraus kein Trend abgeleitet werden kann, dem zufolge die Abweichungn in Zukunft noch groesser werden. Das gibt das Klimasystem nicht her.
“ Bei „Die Kalte Sonne“ habe ich dann auch noch etwas über eine 60-Jahre-Oszillation gelesen, was recht plausibel klingt und besagt, daß nach dem Jahr 1940 das Jahr 2000 ein Temperaturmaximum markiert und die Temperaturen jetzt folgerichtig rückläufig sind.“
Die dort erwaehnten Oszillationen sind aber in den Klimamodellen drin. Nur zeigen sie (weder in Beobchtung & Modellen) nicht so reine 60Jahres Periodik, wie Kalte Sonne behauptet. Ausserdem koennen diese ja nicht den C02 Trend kompensieren (auch nicht in Kalte Sonne, den CO2 Trend vermindert man dort ja durch Ignoranz der Treibhausphysik).
„Die heutigen Klimamodelle zeigen so etwas aber nicht, da ist der Trend ungebrochen aufwärts, was aber ganz offenbar mit der Realität nicht übereinstimmt.“
Wie Sie aus der Vergangenheit sehen koennen, ist es nicht zulaessig, einen Trend aus mehreren Jahrzehnten einfach in die Zukunft zu extrapolieren, da machen die letzten Jahrzehnte auch keine Ausnahme. Ich habe Ihnen schon geraten, sich nicht durch Spencers Schere bluffen zu lassen, aber Sie scheinen gerne einfach spencer Graphik gegenueber anderen Graphiken zu bevorzugen. Bei der Regensburger Graphik kaeme man nicht so leicht auf die Idee, Trends aus Jahrzehntenabschnitten in die Zukunft fortzusetzten, denn da sieht man, dass das Klima der Vergangenheit nicht auf einer Skala von einige Zehntelgradtrends pro Jhrzehnt fortsetzen lassen. Der Klima laesst sich nur bestimmen, wenn man seine Physik versteht.
„Auch die „Klimalounge“ sieht sowohl vor wie auch nach dem Jahr 2000 einen steilen Aufwärtstrend, der von den Meßdaten eindeutig widerlegt wird“
Solche Trends sind ueblicherweise zeitlich stark gefiltert, so dass die Klimavariabiliaet weg ist. Sie koennen diese daher nicht mit den Beobachtungen vergleichen. Dazu muessten Sie direkt die jaehrlichen Modelltemperaturen (und nicht ihre Glaeetungswerten) mit den Jahresmitteln vergleichen. Wann ein Modell widerlegt ist, haengt ausserdem davon ab, was es koennen soll. Da ich Ihnen schrieb, dass heutige Modelle noch Schwaechen in der internen Klimavariabilitaet haben, und die Abweichungen dadurch kommen, so koennen Sie diese Schwaeche nicht als Widerlegkriterium nehmen. Man muss den Vergleich auf der Skala machen, die das Modell prinzipiell modellieren soll. Und diese Skala sind nicht die letzten Jahrzehnte alleine, sondern der groessere Zeitraum bis ins 19 Jhdt. zurueck.
Sehr geehrter Herr Baecker,
ich habe mir die Graphen noch einmal genau angeschaut und verglichen. Man kann es drehen und wenden wie man will, die größte Abweichung der gemittelten Modellwerte von der tatsächlichen Temperatur war im letzten Jahrhundert maximal 0,3 Grad (ca. 1940), während es 2012 schon 0,5 Grad sind (eher noch etwas mehr). Die Graphen aus dem Dokument der Uni Regensburg und die von Roy Spencer passen auch gut zusammen. Der mittlere Wert der Modelle für das Jahr 2005 liegt in beiden Graphen bei + 0,7 Grad. Unabhängig davon, die früher und heute die Modelle ausgesehen haben: Die mittlere Differenz zwischen Modellen und Realität war in den letzten 112 Jahren wirklich noch nie so groß wie heute, oder?
Ich habe mir dann auch noch Temperaturverläufe von „Klimalounge“ und von „Climate4you“ angeschaut, und da gibt es auch keine wesentlichen Unterschiede, abgesehen davon, daß die Ordinaten offensichtlich unterschiedliche Offsets aufweisen und auch verschieden skaliert sind. Bei „Die Kalte Sonne“ habe ich dann auch noch etwas über eine 60-Jahre-Oszillation gelesen, was recht plausibel klingt und besagt, daß nach dem Jahr 1940 das Jahr 2000 ein Temperaturmaximum markiert und die Temperaturen jetzt folgerichtig rückläufig sind. Die heutigen Klimamodelle zeigen so etwas aber nicht, da ist der Trend ungebrochen aufwärts, was aber ganz offenbar mit der Realität nicht übereinstimmt. Auch die „Klimalounge“ sieht sowohl vor wie auch nach dem Jahr 2000 einen steilen Aufwärtstrend, der von den Meßdaten eindeutig widerlegt wird (die „UAH“-Daten kann man sich ja herunterladen und plotten).
Ich bin da vielleicht etwas hartnäckig, aber diese Modelle sind ja meines Wissens nach die wesentliche Grundlage für die vorhergesagte Klimakatastrophe, die ja mittlerweile von 2020 (oder so) auf eine fernere Zukunft verschoben wurde. Daher würde ich das ganz gerne etwas besser verstehen.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock,
Spielen Sie mal die letzten Jahre (2005 bis jetzt) Messdaten aus Spencer und die Modellergebnisse in die Regensburger Abb. 7 ein. Ergibt sich dann auch die „Spencer-Schere“? Bei mir liegen die Messwerte weiterhin auch bis 2012 im Bereich der Modelle, aber am unteren Ende. Solche Auslenkungen und Gradienten gab es auch schon vorher, wie man in der Abb. sehen kann. Z.B. in den Vierzigern nach oben.
Lieber Herr Stock, #46
„Ich hoffe, ich bin nicht zu lästig, aber ich versuche nur, das zu verstehen.“
Nein, überhaupt nicht.
Verstehen ist das A&O hier. Leider zeichnen sich typische Klimaskeptiker dadurch aus, daß sie kategorisch nicht verstehen wollen. Sie scheinen da wohl eher der normal interessierte offene Bürger zu sein, der sich hier hin „verirrt“ hat.
„Wenn die Werte für die „radiative forcings“ seit Jahrzehnten fast unverändert sind, wie Sie sagen, was ist denn dann von dieser Abweichung zu halten?“
Das hatte ich leider missverständlich geschrieben. Das radiative forcing durch Treibhausgasgase ändert sich gemäß den Treibhausgasmengen und nimmt zu, nur die physikalischen Stoffeigenschaften zur seiner Berechnung ändern sich nicht.
„Also wenn ich die Abbildung 7 genau anschaue, dann war die Abweichung der gemittelten Modellwerte von der tatsächlichen Temperatur um 1940 ca. 0,25 Grad, während es heute schon 0,5 Grad sind. Die mittlere Differenz zwischen Modellen und Realität war (wenn die Diagramme richtig sind) tatsächlich in den letzten 112 Jahren noch nie so groß wie heute, oder habe ich mich da vermessen?“
Ja, denn Sie sehen ja, daß zwischen Spencer und Regensburg Unterschiede bestehen. Außerdem sind es offensichtlich andere Modelle/Modellrechnungen, die bei Spencer und Regensburg abgebildet sind.
„Wenn ich Sie richtig verstanden habe, dann führen Sie die Abweichungen der letzten 15 Jahre im Wesentlichen auf den zu geringen Beobachtungszeitraum zurück.“
Nein, die Schwankungen sehen Sie ja auch in den anderen Zeiträumen. Vergleichen Sie mal die Abb. von Spencer und die Regensburger Abb. 7. (die wohl bis 2005 geht). Stimmen die überein oder nicht? Und wenn nicht, warum nicht?
„daß Modelle heute offenbar weniger können als im letzten Jahrhundert …..“
Das kann man nach der Regensburger Abb. 7 offensichtlich nicht schließen.
Sehr geehrter Herr Baecker,
hmmmmm. Also wenn ich die Abbildung 7 genau anschaue, dann war die Abweichung der gemittelten Modellwerte von der tatsächlichen Temperatur um 1940 ca. 0,25 Grad, während es heute schon 0,5 Grad sind. Die mittlere Differenz zwischen Modellen und Realität war (wenn die Diagramme richtig sind) tatsächlich in den letzten 112 Jahren noch nie so groß wie heute, oder habe ich mich da vermessen?
Wenn ich Sie richtig verstanden habe, dann führen Sie die Abweichungen der letzten 15 Jahre im Wesentlichen auf den zu geringen Beobachtungszeitraum zurück. Daraufhin hatten Sie mir doch empfohlen, Modellergebnisse und Beobachtungen über längere Zeit zu vergleichen, um mir klarzumachen, „was Modelle heute können und was (noch) nicht“. Das habe ich getan, mit dem überraschenden Ergebnis, daß Modelle heute offenbar weniger können als im letzten Jahrhundert …..
Wenn die Werte für die „radiative forcings“ seit Jahrzehnten fast unverändert sind, wie Sie sagen, was ist denn dann von dieser Abweichung zu halten?
Ich hoffe, ich bin nicht zu lästig, aber ich versuche nur, das zu verstehen.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock,
die Abb 7 ( Abb 6 ist eine Tabelle) in Ihrem link zur Seminararebit Regensburg zeigt, dass die gegenwaertigen Abweichungen nichts besonderes sind, in den Vierzigern wichen Modelle und Beobachtung staerker ab.
Lieber Herr Stock,
„Dies ist angesichts der Geschichte der Klimamodellierung eigentlich nur dadurch zu erklären, daß die Modelle seit eineigen Jahren in einer Art und Weise verändert wurden, die die Einflußfaktoren falsch wichtet. In Anbetracht der ungleichen besseren Möglichkeiten der Modellierung gegenüber dem letzten Jahrhundert gibt es dafür eigentlich keine andere Erklärung, oder haben Sie eine?“
Die in der Wissenschaft diskutierte Erklaerung
habe ich ja genannt, ebenfalls wird diskutiert, ob weitere anthropogene Faktoren wie Aerosole unzureichend modelliert werden und sozusagen ein ungewollter anthropogener Kompensationsprozess wie in den Siebzigern wirkt.
Die bekannten Klimafaktoren werden eigentlich nicht veraendert. Die verwendeten Strahlungscodes fuer die Treibhauswirkung werden zwar auch fortlaufend optimiert, aber die Werte fuer deren radiative forcings sind ja seit Jahrzehnten fast unveraendert, wie man in den reports sehen kann. Um nun die Feinheiten der Schwankungen richitg abzubilden bedarf es noch etwas. Einen Trend koennen Sie wie gesagt nicht aus der augenblicklichen Abweichung ableiten, das sehen Sie hoffentlich auch an den frueheren Daten.
Lieber Dr.Kuhnle, halte ich mal nach Ihrem längeren Schweigen fest, Sie können nicht sagen, was an #6 fachlich verkehrt ist und genauso wenig können Sie angebliche lineare Rückkoppelungen oder brauchbare Definition von „nicht vorhersagbar“ benennen.
Sehr geehrter Herr Baecker,
kein Problem, danke für die weiteren Erläuterungen. Ich habe Ihren Rat befolgt und mir mal das hier durchgelesen: http://tinyurl.com/llsge7l. Wenn man sich darin Abbildung 6 anschaut, dann fällt auf, daß die Klimamodelle von 1900 bis ca. 1998 eine Schwankungsbreite von ca. +/- 0.25 Grad hatten und die tatsächlich gemessene Globaltemperatur diesen Korridor nur zweimal kurz zwischen 1900 und 1920 verlassen hat. In der Abbildung hier: http://tinyurl.com/btvldqc zeigen dagegen die Klimamodelle für den Zeitraum von 1998 bis heute einen starken Anstieg, der in der Realität nicht stattfindet und dessen Mittel bis heute schon 0,5 Grad ausmacht. Insofern ist die Grafik von Roy Spencer kein „Bluff“, sondern eine gute Darstellung der tatsächlichen Verhältnisse.
Mir ist schon klar, daß sich der flache Gradient der wirklichen (gemessenen) Globaltemperatur auch wieder verändern kann. Es ist aber schon auffällig, daß die mittlere Differenz zwischen Modellen und Realität in den letzten 112 Jahren noch nie so groß war wie heute, und die Modelle ausnahmslos höhere Temperaturen erzeugen als die, welche tatsächlich gemessen werden.
Dies ist angesichts der Geschichte der Klimamodellierung eigentlich nur dadurch zu erklären, daß die Modelle seit eineigen Jahren in einer Art und Weise verändert wurden, die die Einflußfaktoren falsch wichtet. In Anbetracht der ungleichen besseren Möglichkeiten der Modellierung gegenüber dem letzten Jahrhundert gibt es dafür eigentlich keine andere Erklärung, oder haben Sie eine?
Mit freundlichen Grüßen,
M. Stock
#38: NicoBaecker hat etwas ja schon erklärt:
„Das habe ich bereits erklärt. Da die Temperaturkurve durch viele Faktoren bestimmt wird, kann die Korrelation zu einem einzelnen Faktor (hier: CO2) beliebig schlecht werden, wenn Sie die betrachtete Zeitskala nur kurz genug machen.“
beliebig schlecht?
nur kurz genug?
Da sollte man sich vielleicht an dem Vorbild IPCC orientieren:
Nach einer längeren Abkühlungsphase (>30Jahre), man fürchtete schon eine neue Eiszeit
begann bekanntlich 1978 ein leichter, aber kontinuierlicher Temperaturanstieg
und was meinen Sie denn als Oberspezialist wie schnell man von einer Korrelation mit CO2 gesprochen hat, mehr noch, speziell der antropogene Teil davon und nicht nur von Korrelation,
sogar von unbestreitbarer KAUSALITÄT !!!
30 Jahre? das hat doch der Informatiker Dr.rer.nat Hder immer als Minimum für einen Klimawandel genannt.
Ja das wäre dann 2008 gewesen,
hm, etwas zu spät, da stimmte ja dann das mit der Korrelation schon nicht mehr,
also früher,
nach 5 Jahren vielleicht? kurz genug?
Bekanntlich wurde die IPCC bereits nach 10 Jahren, also 1988 gegründet, da bestand also mschon Gewissheit, also Kausalität,
nachdem es vorher schon über 30 Jahre kälter geworden war!!!
und nun zu Ihrem „beliebig schlecht“?
Sie meinen wenn nun eine inverse Korrelation bestehen würde,
also erst Temperatur hoch und dann zeitlich verzögert, dann wäre das immer noch „ein Beweis“
für was genau, Herr Baecker, Sie sind ja Spezialist,
also ein Beweis, dass es in der wirkliche Wirklichkeit, also natürlich jetzt nicht in der Wirklichkeit, sonder in der Wirklichen Wirklichkeit eigentlich genau umgekehrt ist,
wenn,
ja nur wenn man jetzt genau wüsste,
welche fiesen Faktoren da genau das machen, dass man die wirkliche Wirklichkeit in Wirklichkeit nicht erleben kann.
Nun ein Spezialist weis das natürlich,
Becker, dann mal raus mit der Sprache.
Mann könnte das doch vielleicht den
doppelt so starken gemeinen Anti-CO2-Wirkungsfaktor nennen.
Also wer ist dieser Schweinehund der die ganze IPCC und alle Forentrolls zur verzweiflung bringt?
Nun nur ein wirklicher Spezialist weis das natürlich,
Becker, dann mal raus mit der Sprache.
mfG
@M.Stock #37
Ich gebe mal den Hader:
Zitat
—–
…dann müßten diese Unterschiede ja geringer werden, meinen Sie nicht?
—–
Woraus schließen Sie, dass sie das nicht werden ?
Wenn sie das nicht durch irgendwelche Belege nachweisen können blah und doppel blah
Ist schon irre, was der für Kommentare abgibt.
Erinnert mich irgendwie an Radio Eriwan…..
Lieber Herr Hader, #34
“ Warum ist das jetzt für Sie eine Überraschung, dass es neben CO2 noch anderer solcher Faktoren gibt? Ich habe immer öfters den Eindruck, dass so mancher Klimaskeptizismus auf einen Mangel an Informationen beruht.“
Bildungsmangel wäre ja noch behebbar. Aber es liegt an neurotischer Ablehnung der Realität und krampfhaftem Beharren auf eigenen Vorstellungen.
Lieber Herr Stock, #31
Nochmals Entschuldigung. Ja, ich meinte die Y-Achse und habe die Begriffe Abszisse und Ordinate vertauscht. Möglicherweise hat Spencer die Temperaturkurven relativ zueinander im Temperaturwert längs der Y-Achse verschoben.
„Aber egal wie man das rumschiebt: Der Unterschied im Gradienten bleibt, und das ist das Wesentliche.“
Das stimmt. Ist aber wie ich erklärt habe nichts Ungewöhnliches. Haben Sie jetzt mal Modellergebnisse und Beobachtungen über längere zeit verglichen? Das sollten Sie mal, um sich klarzumachen, was Modelle heute können und was (noch) nicht.
„Da es offenbar zu den stagnierenden (gemessenen) Temperaturen auch noch einen kontinuierlich steigende Kurve des CO2-Gehalts in der Atmosphäre gibt, erhebt sich wohl unweigerlich die Frage, warum eine Vielzahl von Modellen einen (zumindest gegenwärtig) von der Realität stark abweichenden Trend zeigen.“
Das habe ich bereits erklärt. Da die Temperaturkurve durch viele Faktoren bestimmt wird, kann die Korrelation zu einem einzelnen Faktor (hier: CO2) beliebig schlecht werden, wenn Sie die betrachtete Zeitskala nur kurz genug machen.
„Wenn es an der mangelhaften „Atmosphären-Ozean-Interaktion“ liegt, wie Sie schreiben, dann ist mir nicht klar, wieso die geballte Fachkompetenz diebezüglich nicht schon löngst eine Lösung gesucht und gefunden hat.“
Im wesentlichen liegt das an der begrenzten räumlichen und zeitlichen Auflösungsfähigkeit der Modelle, und dies liegt wiederum an der Rechenkapazität.
„„Denn wenn die Modellrechnungen auch in Zukunft so weit neben den Meßwerten liegen wie in den letzten Jahren, dann wird das mit den vier Grad Temperaturerhöhung wohl nix werden.“
Sie machen den Fehler, die Gradienten als fix zu sehen und in die Zukunft zu extrapolieren. Das ist natürlich eine generell fatale Interpretation von Graphen. Beziehen Sie einfach mal die Daten aus der Zeit vor 1975 ein und versuchen Sie, meine Erklärungen oben inhaltlich auch wirklich zu verstehen – dazu sind sie ja da – und ggf. nachzufragen, wenn Sie sie nicht verstehen, klar?
Dann wird Ihnen vielleicht klarer, wie die Diskrepanzen zwischen Modellen und Beobachtungen einzuschätzen sind. Und lassen Sie sich nicht durch die Spencer-Graphik bluffen.
Sehr geehrter Herr Hader,
woraus meine Annahme resultiert, sollte eigentlich klar sein: Die Divergenz zwischen Modellen und Realität ist offensichtlich schon seit einer ganzen Reihe von Jahren zu beobachten. Wenn die Spezialisten ihre Modelle „anpassen und verbessern“ würden, dann müßten diese Unterschiede ja geringer werden, meinen Sie nicht?
Mit freundlichen Grüßen,
M. Stock
#30
„alle einer riesigen Verschwörung von Klimaforschern und Programmierern auf, die einfach nur WOLLEN, dass eine Klimaerwärmung eintritt und uns das so erzählen, aber in Wirklichkeit ist alles ganz anders“
Nein Hader, „Klimaforscher“ und Programmierer haben Programme entwickelt, die eine von CO2 abhängende Erwärmung anzeigen. Die Wirklichkeit ist in der Tat anders, die Natur schert sich nicht um Ihre Modelle.
Sie mögen Informatik studiert haben Hader, aber Informatiker sind Sie nicht, eher ein Forentroll. Ein echter Informatiker hat werder Zeit noch Lust, ununterbrochen seitenweise zu posten.
Im Übrigen, bei den Informatiker, mit denen ich zusammenarbeite, machen die PCs immer genau das, was ihnen befohlen wurde.
#34: S.Hader:
„was lässt Sie zur Annahme bringen, dass Klimamodellierer in ihrer täglichen Arbeit nicht ihre Modelle anpassen und verbessern? “
als fleißiger EIKE-Leser sollten Sie das doch wissen.
1)In diesen Modellen ist doch immer CO2 eingebaut,
das muss doch schief gehen, da CO2 wie man sieht NICHT erwärmt.
2) Und zweitens ist aus den Modellen der chaotische Charakter herausgenommen, Sie wissen doch dieser positive Ljapunow Exponent des legändären russischen Mathematikers, den Sie als Informatiker noch gar nicht kannten, sonst könnte man wie beim Wetter auf längere Sicht überhaupt nichts vorhersagen.
Na ja, ich will nicht so streng sein,
sagen wir zwischen plus 100°C und minus 200°C,
die Eiszeiten kann ja immer noch keiner so ganz genau erklären und warum es früher viel wärmer war obwohl die Sonneneinstrahlung geringer war.
Also sind diese Modelle ein großer gut organisierter Schwindel für einige „Eliten“, die davon leben möchten.
mfG
#32: „Wenn ich Klimamodellierer wäre, dann würde ich (schon seit Jahren) Tag und Nacht versuchen, den Fehler zu finden und eine hieb- und stichfeste Lösung zu präsentieren. Nachdem eine solche Lösung immer noch nicht zu existieren scheint: Vielleicht gibt es keine?“
Sehr geehrter Herr Stock, was lässt Sie zur Annahme bringen, dass Klimamodellierer in ihrer täglichen Arbeit nicht ihre Modelle anpassen und verbessern?
@Michael Weber: „Anders kann ich mir diese Aussage nicht erklären, in der Treibhausgase nur noch am Rand vorkommen.“
Kann es sein, dass Sie sich über den Stand der Klimawissenschaften auch nur in den Medien informieren? Die diversen klimabeeinflussenden Faktoren sind seit Jahrzehnten Gegenstand der Forschung und kann man selbst in Nachschlagewerken nachlesen. Warum ist das jetzt für Sie eine Überraschung, dass es neben CO2 noch anderer solcher Faktoren gibt? Ich habe immer öfters den Eindruck, dass so mancher Klimaskeptizismus auf einen Mangel an Informationen beruht.
Was ist denn das? „Schwankungen der Temperatur aufgrund chaotischer Prozesse in der Atmosphäre können sich alleine jedoch nicht über Jahrzehnte auf mehrere Grad aufschaukeln. Schwankungen oder Trends in der Größenordnungen einiger Grad pro Jahrhundert erfordern Änderungen in den treibenden Klimafaktoren außerhalb der Atmosphäre, entweder in den trägeren Klimasubsystemen (Ozeane, Kryosphäre,…) oder aufgrund äußerer Klimafaktoren (Sonneneinstrahlung, Vulkane, Treibhausgase,…).“ Ein Widerruf der CO-2-Theorie? Anders kann ich mir diese Aussage nicht erklären, in der Treibhausgase nur noch am Rand vorkommen. Die Nichterwärmung scheint bei dem ersten Avatar angekommen zu sein. Wenn das so weitergeht gibt es bald kein PIK mehr.
Michael Weber
Sehr geehrter Herr Hader,
Ihr Wunsch ist doch gegenwärtig Realität. Vielleicht schafft es die Globaltemperatur ja noch, die Modellwerte zu erreichen, aber momentan schaut es nicht danach aus.
Wenn ich Klimamodellierer wäre, dann würde ich (schon seit Jahren) Tag und Nacht versuchen, den Fehler zu finden und eine hieb- und stichfeste Lösung zu präsentieren. Nachdem eine solche Lösung immer noch nicht zu existieren scheint: Vielleicht gibt es keine?
Wenn die Gradienten der gemessenen Temperaturen mit denen der Modelle noch fünf Jahre so bleiben, wird sich das dahinterstehende Gedankenmodell nicht mehr aufrecht erhalten lassen.
Mit freundlichen Grüßen,
M. Stock
Sehr geehrter Herr Baecker,
nochmal danke für Ihre Erläuterungen. Was die Absolutwerte betrifft ist mir ist schon klar, daß die Kurven der Meßdaten und der Modelldaten auf der Ordinate verschoben sein könnten, um eine Übereinstimmung am Anfang herzustellen. Auf der Abszisse scheint das aber nicht der Fall zu sein, denn die Jahreszahlen sind im dazugehörenden Text angegeben. Auch der „Pinatobu“-Einbruch ist ja an derselben Stelle.
Aber egal wie man das rumschiebt: Der Unterschied im Gradienten bleibt, und das ist das Wesentliche. Da es offenbar zu den stagnierenden (gemessenen) Temperaturen auch noch einen kontinuierlich steigende Kurve des CO2-Gehalts in der Atmosphäre gibt, erhebt sich wohl unweigerlich die Frage, warum eine Vielzahl von Modellen einen (zumindest gegenwärtig) von der Realität stark abweichenden Trend zeigen. Wenn es an der mangelhaften „Atmosphären-Ozean-Interaktion“ liegt, wie Sie schreiben, dann ist mir nicht klar, wieso die geballte Fachkompetenz diebezüglich nicht schon löngst eine Lösung gesucht und gefunden hat. Denn wenn die Modellrechnungen auch in Zukunft so weit neben den Meßwerten liegen wie in den letzten Jahren, dann wird das mit den vier Grad Temperaturerhöhung wohl nix werden. Ich bin kein Hardcore-Klimaskeptiker, aber die Realität holt ja früher oder später jeden ein ….
Nix für ungut,
M. Stock
#28: „“Da ein Computer nicht denkt, liefert er das, was man möchte (eingegeben hat).“ (Detlev Symietz)“
Schön Herr Georgiev, wenn der Satz tatsächlich stimmen würde, hätte ich als Informatiker ein echt leichtes Leben. Denn in der Regel macht der Rechner eben nicht (immer) das was ich will und bei meinen Berufskollegen ist es genauso ;(. Und Kunden sind da meist noch viel schlechter dran, wenn sie versuchen, Computern ihren Willen aufzudrücken. Aber mal Spaß beiseite, was möchten Sie eigentlich mit solchen Allgemeinsätzen ausdrücken, Herr Georgiev? Meinen Sie tatsächlich, wir sitzen alle einer riesigen Verschwörung von Klimaforschern und Programmierern auf, die einfach nur WOLLEN, dass eine Klimaerwärmung eintritt und uns das so erzählen, aber in Wirklichkeit ist alles ganz anders?
Lieber Herr Stock, #25
„Die abgebildeten UAH/RSS-Meßreihen umfassen doch 34 Jahre (von ca. 1978 bis 2012) und nicht 24 Jahre, ist das richtig? Damit ist der Vergleich mit „früheren Jahren“ doch gegeben, ich kann da keinen „Bluff“ erkennen.“
Entschuldigung. Ja, Sie haben recht. Es sind 34 Jahre.
Ich meinte jedoch einen Vergleich über den Zeitraum von verfügbaren Meßdaten. Die Modellsimulationen reichen ja üblicherweise noch weiter zurück.
„Wenn dem so ist, dann wird das „hochfrequente Rauschen“ in sämtlichen Modellen auch nach 2 x 17 Jahren wohl noch immer völlig falsch abgebildet.“
Ja, wenn Sie in die Vergangenheit gucken, so sind Abweichungen von +/- 0,3 Grad über dekadische Zeiträume möglich. Möglich, daß die natürliche Klimavariabilität auf dekadische Skala unterschätzt wurde, aber frühere Vergleiche zwischen Modelle und Meßwerten haben dies nicht gezeigt. Lassen Sie sich jedoch nicht durch die bei Spencer durchgeführte Verschiebung der Temperaturkurven von Beobachtungen und Modellen auf gleichen Anfangswert um 1978 bluffen.
„Und das, obwohl die Meßdaten etwa ab dem Jahr 1978 für die Modellentwicklung doch bereits zur Verfügung gestanden haben, um die Ergebnisse der Modellrechnungen mit der Realität zu vergleichen.“
Die Temperaturen und die anderen meteorologischen Beobachtungsgrößen im Modell werden aus der Modellphysik berechnet. Das ist doch der Witz bei Zirkulationsmodellen…Sie scheinen etwas anderes zu glauben. Aber Spencer hat die Werte auf der Abzisse wohl verschoben, um die Temperaturen von Modellen und Beobachtungen am gleichen Temperaturwert am Startpunkt 1978 starten zu lassen.
„Wäre es angesichts der, ungeachtet dessen ab dem Jahr 2000 einsetzenden erheblichen Divergenz denkbar, daß die chaotischen Eigenschaften des Wettergeschehens eine Vorhersage der globalen Mitteltemperatur tatsächlich nicht erlauben?“
Nun, die Auswirkungen des chaotischen Wettergeschehens hatte ich ja schon oben erklärt. Es gibt eben bekanntlich die Modellschwächen auf dekadischer Zeitskala zur Simulation der internen Klimavariabilität der Atmosphären-Ozean-Interaktion. Auf längerfristiger Zeitskala, wenn man das oszillatorische Rauschen um einige Zehntelgrad glättet und nur nach Klimaänderungen in der Größenordnungen von einigen Grad guckt, ist aber nicht das chaotische Verhalten der Atmosphäre entscheidend, sondern das der trägen Klimakomponenten Ozean (und auf der Zeitskala Jahrhunderte bis -tausende Kryosphäre). Schwankungen der Temperatur aufgrund chaotischer Prozesse in der Atmosphäre können sich alleine jedoch nicht über Jahrzehnte auf mehrere Grad aufschaukeln. Schwankungen oder Trends in der Größenordnungen einiger Grad pro Jahrhundert erfordern Änderungen in den treibenden Klimafaktoren außerhalb der Atmosphäre, entweder in den trägeren Klimasubsystemen (Ozeane, Kryosphäre,…) oder aufgrund äußerer Klimafaktoren (Sonneneinstrahlung, Vulkane, Treibhausgase,…).
# 26 Hader
Die Antwort aller Ihrer Fragen finden Sie im folgenden Zitat :
„Da ein Computer nicht denkt, liefert er das, was man möchte (eingegeben hat).“ (Detlev Symietz)
Falls Sie in der Lage sind, den Sinn zu begriefen.
Mit besten Dank an Herrn Erich Richter, bei Ihnen gefunden!
MfG
PG
#23: „die extreme Divergenz sehe ich darin, daß der sehr flache Gradient der Meßwerte und der steile Gradient der Modellwerte in völlig verschiedene Richtungen laufen. Offensichtlich sind die Klimamodelle also wohl nicht in der Lage, den Temperaturverlauf auch nur näherungsweise richtig abzubilden. Oder sind Sie auf der Basis Ihres fundamentalen Wissens über diese Modelle anderer Ansicht?“
Falls die Darstellung stimmt, Herr Stock, dann heisst das erstmal, dass die reale Temperaturkurve für den Zeitraum 2000 bis 2012 am unteren Rand des Prognose-Ensemble liegt. Man erkennt auch eine hohe Streuung der verschiedenen Vorsagen bis 2025, die von schätzungsweise +0,7°C bis +1,8°C gehen. Das so eine hohe Unsicherheit bei den bisherigen Modellen besteht, ist bekannt. Doch selbst wenn real die Temperatur bis 2100 um +1,5°C bis 2°C ist das auch kein Spaß und letztlich hängt es auch davon ab, was wir als globale Gesellschaft tun.
Kurzum, den bisherigen realen Verlauf halte ich bei solchen Zeitreihen für nicht ungewöhnlich. Vielleicht werden neuere Projektionen ein Stück nach unten gehen, ich hätte da wirklich nichts dagegen, wenn alles nicht so schlimm kommt, wie befürchtet. Nur versuche ich im Gegensatz zu anderen meinen Wunsch nicht als Realität zu verkaufen.
Sehr geehrter Herr Dr.Kuhnle, Sie sind hier in diesem Thread so still. Ich wiederhole gerne an Sie gerichtet meine drei Hauptfragen:
1.) Können Sie konkret sagen, was an #6 falsch ist?
2.) Können Sie eine konkrete lineare Rückkopplung nennen, die Bestandteil von Klimamodellen ist?
3.) Wie definieren Sie „nicht vorhersagbar“?
Sehr geehrter Herr Baecker,
danke für die Erläuterungen, aber ich muß doch noch einmal nachfragen:
Die abgebildeten UAH/RSS-Meßreihen umfassen doch 34 Jahre (von ca. 1978 bis 2012) und nicht 24 Jahre, ist das richtig? Damit ist der Vergleich mit „früheren Jahren“ doch gegeben, ich kann da keinen „Bluff“ erkennen.
Wenn dem so ist, dann wird das „hochfrequente Rauschen“ in sämtlichen Modellen auch nach 2 x 17 Jahren wohl noch immer völlig falsch abgebildet. Und das, obwohl die Meßdaten etwa ab dem Jahr 1978 für die Modellentwicklung doch bereits zur Verfügung gestanden haben, um die Ergebnisse der Modellrechnungen mit der Realität zu vergleichen.
Wäre es angesichts der, ungeachtet dessen ab dem Jahr 2000 einsetzenden erheblichen Divergenz denkbar, daß die chaotischen Eigenschaften des Wettergeschehens eine Vorhersage der globalen Mitteltemperatur tatsächlich nicht erlauben? Für den vorurteilsfreien Betrachter sieht das nämlich genauso aus.
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock, #23
„die extreme Divergenz sehe ich darin, daß der sehr flache Gradient der Meßwerte und der steile Gradient der Modellwerte in völlig verschiedene Richtungen laufen. Offensichtlich sind die Klimamodelle also wohl nicht in der Lage, den Temperaturverlauf auch nur näherungsweise richtig abzubilden. Oder sind Sie auf der Basis Ihres fundamentalen Wissens über diese Modelle anderer Ansicht?“
1. Fehlt tatsächlich etwas in den Modellen, nämlich eine gute Modellierbarkeit der dekadischen Klimavariabilität. Das ist in der Wissenschaft bekannt und daran wird gearbeitet. So muß man nach z.B. B. Santer et at. 2011 z.Zt. auch mindestens (!) 17 Jahre betrachten, um einen anthropogenen Effekt Trend aus dem Rauschen der heutigen Modelle herauslesen zu können. Anscheinend macht uns die Natur aber momentan nicht den Gefallen und ist so minimal rauscharm und läßt gleich nach Verstreichen dieses minimalen Zeitraum den Trend sichtbar machen, den die Modelle zeigen, die das die Abweichung verursachende hochfrequente Rauschen (noch) nicht modellieren können. Wenn Sie längere Zeiträume vergleichen ist dies jedoch der Fall. Aber diese „alten“ wissenschaftlichen Erkenntnisse werden „komischerweise“ von Klimaskeptiker verschwiegen.
Ihr Ansatz, den von Spencer abgebildeten 24 Jahre Trend der Meßdaten mit den Trends der Modelle zu vergleichen, ist viel zu optimistisch.
2. Lassen Sie sich von Spencers Graphik oben nicht bluffen und vergleichen Sie die Daten zu früheren Jahren. Denn diese Modellschwäche muß ja auch schon zu früheren Jahren zu vergleichbaren Abweichungen führen.
Sehr geehrter Herr Baecker,
die extreme Divergenz sehe ich darin, daß der sehr flache Gradient der Meßwerte und der steile Gradient der Modellwerte in völlig verschiedene Richtungen laufen. Offensichtlich sind die Klimamodelle also wohl nicht in der Lage, den Temperaturverlauf auch nur näherungsweise richtig abzubilden. Oder sind Sie auf der Basis Ihres fundamentalen Wissens über diese Modelle anderer Ansicht?
Mit freundlichen Grüßen,
M. Stock
Lieber Herr Stock, #18
Sie wissen offensichtlich auch nichts über Klimamodelle. Woher nehmen Sie die Behauptung, diese Divergenz wäre extrem?
Lieber Herr Paul, #19
„#17: NicoBaecker jedermann versteht, dass in diesen berüchtigten Klimamodellen IMMER dieses CO2 als Ursache für eine Erwärmung eingebaut ist,
oder irre ich mich da?“
es ist wohl kaum erstaunlich, daß in Klimamodellen die chemische Zusammensetzung der Atmosphäre hinterlegt ist.
Ob nun CO2 EINE (evtl. auch dominierende) der Ursachen für eine bodennahe Erwärmung des Modellklimas ist oder nicht, hängt davon ab, ob im Modell nun die CO2-Konzentration konstant ist oder mit der Zeit ansteigt. wenn Sie konstant ist, so fällt CO2 als Ursache für eine erwärmung auss, fehlt es, zeigt das Modellklima eine tiefe Eiszeit.
„Im übrigen danke ich für die Bestätigung, dass man den chaotischen Charakter von Klima rausgelassen hat in diesen Modellen.“
Das von Ihnen postulierte indeterministische Chaos und ebenso Ihr anderer physikalischen Schwachsinn existiert wissenschaftlich nicht. Daher kümmert man sich auch nicht drum.
Das aufgrund der Nichtlinearität der fürs Klimasystem relevanten dynamischen Gleichungen resultierende deterministische Chaos ist hingegen – wie bereits mehrmals erwähnt – in den Klimamodellen implementiert.
Lieber Herr Ehlig,
vielen Dank, dass Sie so ehrlich die Ihrer Meinung zugrundeliegende Stimmungslage ausdruecken. Wenn Klimaskeptiker mal so waeren und zugeben wuerden, dass sie bewusst Bloedsinn verbreiten.
Lieber Herr Paul, dann dürfte es Sie wohl überraschen, dass unter Determinismus (im kausalen oder physikalischem Sinne) nicht die Berechenbarkeit verstanden wird, sondern dass die Zukunft durch die Vorbedingung eindeutig festgelegt ist. Selbst wenn dieser Determinismus real existiert, heißt das eben nicht, dass man alles ohne Abweichung berechnen kann. Es ist im übrigen auch wenig praxisnah, wenn man schon die geringste Abweichung von der Wirklichkeit schon als „nicht vorhersagbar“ bezeichnet. Deshalb ist eine Festlegung, was man noch als brauchbare Vorhersage ansieht, ratsam.
#17: NicoBaecker jedermann versteht, dass in diesen berüchtigten Klimamodellen IMMER dieses CO2 als Ursache für eine Erwärmung eingebaut ist,
oder irre ich mich da?
In der Regel, na ja dieses Spurengas ist ja wirklich nur eine Spur,
braucht man ja noch einen zusätzlichen Erwärmer und hat sich dafür ausgerechnet das Wasser ausgesucht, wo doch jeder Blödmann weis, dass Wasser kühlt.
Also das reicht doch,
wenn CO2 das aus physikalischen Gründen nicht bringen kann, müssen diese Modelle falsche Ergebnisse bringen wie geschehen.
Im übrigen danke ich für die Bestätigung, dass man den chaotischen Charakter von Klima rausgelassen hat in diesen Modellen.
Hab ich ja in #8 gesagt, haben sie wohl aber nicht verstanden, ebenso wie ihr Freund Dr.rer.nat. Ebel, ne, pardon Hader, auch noch Informatiker oder sowas ähnliches, der Ljapunov gar nicht kennt.
mfG
Sehr geehrter Herr Baecker,
es ist schon erstaunlich, wer alles nach Ihrer Ansicht „offensichtlich nicht verstanden“ hat oder „Schwachsinn zusammenspinnt“. Wenn die Klimamodelle so gut funktionieren, wie Sie offenbar annehmen, wie erklären Sie uns dann die extreme Divergenz zwischen den Modellen und den Messungen (http://tinyurl.com/btvldqc) ?
Mit freundlichen Grüßen,
M. Stock
Der Autor oben hat offensichtlich nicht verstanden, dass Klimamodelle nicht auf der Iteration einer Gleichung fuer die Temperatur beruhen.
Es gibt einfache Einfuehrungen, was Klimamodelle sind, die Jedermann verstehen kann. Warum spinnt sich ein Informatiker so einen Schwachsinn wie im Artikel zusammen?
#12: S.Hader:
„Lieber Dr.Paul, so etwas sollten Sie besser nicht in Gegenwart eines Mathematikers sagen. Es sei denn, Sie haben sich schon an die verständnislosen Gesichtsausdrücke Ihrer Mitmenschen gewöhnt, dann dürfte Ihnen auch dessen Reaktion nicht mehr viel ausmachen. „widerspruchsfreie Indeterminiertheit“, schaffen Sie gerade wieder neue Fachausdrücke? Im übrigen scheint Herr Reiger im Gegensatz zu Ihnen das Konzept des deterministischen Chaos zu kennen, vermutlich auch deshalb, weil er weiß, was Determinismus bedeutet.“
Dass viele heute noch an den Determinismus glauben, lieber Herr Hader, habe ich doch selbst erwähnt, ich schäme mich ja fast über einige „Neurophysiologen“, freilich extreme Außenseiter, die dem Mensch den „freien Willen“ ein etwas unglücklicher Ausdruck absprechen wollen.
Die Natur ist allerdings eine Mischung von determinierten und indeterminierten Abläufen, wobei die Mischung logischerweise indeterminiert sein muss.
Zufällig war Herr Ljapunov ein wirklich brillanter Mathematiker und Physiker
http://tinyurl.com/6eubuw
Bahnbrechend für die Chaostheorie ist seine Arbeit:
„Ein allgemeines Problem der Stabilität einer Bewegung“ 1892 !!!
@#11: NicoBaecker
ich moechte bewußt böswillig vorsätzlich falsch unterstellen, dass die von Ihnen verteidigten Klimamodelle thermodynamischen Unsinn darstellen.
Vielleicht sollten Sie besser Wechselkurse oder Aktienkurse prognostizieren. Dort gibt es doch viel weniger Unbekannte.
#13: S.Hader stellt eine wichtige Frage:
„Sagen Sie doch mal ganz konkret, was Sie unter „nicht vorhersagbar“ überhaupt verstehen, damit zumindest mal eine gemeinsame Diskussionsgrundlage besteht.“
Antwort (Wiederholung):
physikalisch nicht determiniert
(= positiver Ljapunov-Exponent,
bekannt seit 1892)
Gruß
#10: „Applaus! Genau so ist es. Es bedarf eines gewissen mathematischen Verständnisses und man muss davon ausgehen, dass den meisten Menschen dazu die Begabung einfach fehlt. Herr Hader wird es vermutlich niemals verstehen.“
Lieber Herr Dr.Kuhnle, sagen Sie ganz einfach, was an meinen Aussagen in #6 fachlich verkehrt war und Sie brauchen nicht mehr mit Pauschalkritiken zu hantieren.
„Um das Klima vorherzusagen haben die Klimamodellierer bewusst das in der Realität existierende Chaos im Klimasystem „abgeschaltet“ und statt dessen fragwürdige einfache lineare Treibhausverstärkungsrückkopplungsphantasien eingebaut.“
Wenn Sie glauben zu wissen, was in den Klimamodellen alles eingebaut wurde, dann nennen Sie doch mal eine konkrete lineare Rückkopplung, die dort Bestandteil ist. Das dürfte Ihnen doch nicht schwer fallen.
„Das Klima ist nicht vorhersagbar.“
Diese Aussage ist pauschal gesehen genauso richtig oder falsch wie „Die Zukunft ist nicht vorhersagbar“. Sagen Sie doch mal ganz konkret, was Sie unter „nicht vorhersagbar“ überhaupt verstehen, damit zumindest mal eine gemeinsame Diskussionsgrundlage besteht.
#8: „Mathematisch widerspruchsfreie Indeterminiertheit einer dynamischen (zeitabhängigen) Funktion ist auch ein philosophisches Problem, das wohl noch immer nicht alle mitbekommen haben. Das wurde hier alles schon besser ausgeführt.“
Lieber Dr.Paul, so etwas sollten Sie besser nicht in Gegenwart eines Mathematikers sagen. Es sei denn, Sie haben sich schon an die verständnislosen Gesichtsausdrücke Ihrer Mitmenschen gewöhnt, dann dürfte Ihnen auch dessen Reaktion nicht mehr viel ausmachen. „widerspruchsfreie Indeterminiertheit“, schaffen Sie gerade wieder neue Fachausdrücke? Im übrigen scheint Herr Reiger im Gegensatz zu Ihnen das Konzept des deterministischen Chaos zu kennen, vermutlich auch deshalb, weil er weiß, was Determinismus bedeutet.
„Diese bekannte Graphik der beiden Paleontologen Scotese und Bemer zeigen z.B. ein stabiles Temperaturniveau bei etwa 22°Celsius über viele zig-Millionen Jahre bestanden hat, das offensichtlich einer stabilen autoregulativen chaotischen Ordnung entspricht, beim Wetter z.B. einem sehr stabilen Hochdruckgebiet entsprechend, um dann immer wieder in offenbar unregelmäßigen Abständen rel. plötzlich und massiv zusammenzubrechen auf ein ganz erheblich tieferes Temperaturniveau. Also immer wieder so etwas wie Ordnung im Chaos aber trotzdem unberechenbar.“
Lieber Herr Paul, nicht alle Prozesse in der Natur beruhen auf Chaos.
„Das was Hader darüber schreibt geht völlig am Thema vorbei, Chaos ist nicht Statistik und Wahrscheinlichkeit.“
Eines kann man bei Ihnen mit Sicherheit sagen, in puncto Textverständnis liegen sie wieder mal gekonnt daneben. 🙂
Liebver HErr Kuhnle,#10
„Um das Klima vorherzusagen haben die Klimamodellierer bewusst das in der Realität existierende Chaos im Klimasystem „abgeschaltet“ und statt dessen fragwürdige einfache lineare Treibhausverstärkungsrückkopplungsphantasien eingabaut. “
Ihre Behauptung entbehrt jeder Realität und ist entweder eine bewußt böswillig vorsätzlich falsche Unterstellung oder erfolgt aufgrund blanker Unwissenheit übers Thema.
Die Temperaturszenarien obiger Klimamodelle haben selbstverständlich die deterministische nicht-lineare Dynamik eingebaut. Es handelt sich übrigens auch nicht um Prognosen, wie es erneut falsch beschrieben ist.
@#8 Dr. Paul
Applaus! Genau so ist es. Es bedarf eines gewissen mathematischen Verständnisses und man muss davon ausgehen, dass den meisten Menschen dazu die Begabung einfach fehlt. Herr Hader wird es vermutlich niemals verstehen. Man muss es akzeptieren, jeder hat seine Stärken und Schwächen, es ist überhaupt kein Problem. Was ich nicht akzeptieren kann ist, dass Leute die es wissen müssten (z.B. Prof. Schellnhuber) Thesen von sich geben, die ganz offensichtlich gewollt irreführend sind.
Um das Klima vorherzusagen haben die Klimamodellierer bewusst das in der Realität existierende Chaos im Klimasystem „abgeschaltet“ und statt dessen fragwürdige einfache lineare Treibhausverstärkungsrückkopplungsphantasien eingabaut. Für mich nicht unarwart erweist sich jetzt das Klima als mittelfristig stabil (in Deutschland seit 26 Jahren, global seit 16 Jahren und möglicherweise bleiben diese Zustände noch lange erhalten). Nun suchen die Klimawahnsinnigen verzweifelt die ausbleibende globale Erwärmung in 1000m tiefen Ozeanschichten oder behaupten die Erwärmung würde sich in Extremwetterereignissen verstecken (deren behauptete Zunahme nachweislich falsch ist). Es ist mitlerweile eine Komödie. Leider eine sehr kostspielige.
Das Klima ist nicht vorhersagbar. Irgendwann wird es sich ändern und wir müssen es so hinnehmen wie es kommt. Möglicherweise bekommen wir demnächst eine 40-jährige Kaltperiode, auch wenn das thermodynamische Gleichgewicht eine Temperaturerhöhung verlangen würde. Natürlich ist dies blanke Spekulation, es ist aber gar nicht besonders unwahrscheinlich. Es ist wie beim Wetter, nur viel harmloser (weil es nur um Zehhntelgard anstatt um 10 Grad geht). An Weihnachten war es in München wärmer als an Pfingsten, ganz gegen den Trend. Wenn man die Natur akzeptiert, ist es einfach nur phaszinierend. Kein Grund 68 Billionen Dollar auszugeben um solche Ereignisse künftig vielleicht zu verhindern. Wann kehrt endlich Vernunft ein?
#7: S.Hader sagt:
am Freitag, 31.05.2013, 19:14
„im Voraus die Simulation nichts wert war“ Wie kommen Sie auf so was? Wäre sie nichts Wert, wären Wettervorhersagen sinnlos.
Antwort:
Eine Wettervorhersage am 01.06.2013 für den 05.08.2013 ist sinnlos. Oder sehen Sie das anders?
Leider hat es der Autor NICHT verstanden den indeterministischen Charakter von Chaos klarzustellen.
Der hat eigentlich nichts mit der hohen „Sensibilität“ für „Anfangszustände“ zu tun.
Immerhin hat er den Lyapunov Exponent erwähnt:
http://tinyurl.com/cwpesd
Der Link ist in der Tat bearbeitungsbedürftig,
sagt aber immerhin, was ein positiver Lyapunov Exponent ist und bedeutet,
nämlich berechenbare Instabilität bis zum Indeterminismus.
Der Inderminismus bedeutet mathematisch, dass die Differenzialgleichung nach so und so vielen Iterationsschritten keine Lösung mehr hat, bzw. mehrere „gleichberechtigte“, was auf das gleiche hinausläuft.
Das wissen sogar Schelmhuber und Co die von „Kipp-Punkten“ reden.
Mathematisch widerspruchsfreie Indeterminiertheit einer dynamischen (zeitabhängigen) Funktion
ist auch ein philosophisches Problem, das wohl noch immer nicht alle mitbekommen haben.
Das wurde hier alles schon besser ausgeführt.
Der Lyapunov Exponent gibt zudem an, nach welcher Zeit das System instabil wird und „kippt“.
Im Klartext heißt das, weil Klima nichts anderes ist als eine Abfolge von Wetter, welches unbestreitbar chaotisch abläuft, dass die Modellbauer das wissen
und für ihre langfristigen Prognosen BEWUSST keinen positiven Lyapunov Exponent einbauen, denn sonst würden ihnen das Modell regelmäßig um die Ohren fliegen.
Die Realität wird also BEWUSST gefälscht.
Gerade in einem physikalischen System wie der Erde, dem kontinuierlich von außen Energie zugeführt wird, können sich zeitlich lange stabile Zustände entwickeln, die weit außerhalb des thermodynamischen Gleichgewichts liegen.
http://tinyurl.com/cpcjspk
Diese bekannte Graphik der beiden Paleontologen Scotese und Bemer zeigen z.B. ein stabiles Temperaturniveau bei etwa 22°Celsius über viele zig-Millionen Jahre bestanden hat, das offensichtlich einer stabilen autoregulativen chaotischen Ordnung entspricht, beim Wetter z.B. einem sehr stabilen Hochdruckgebiet entsprechend, um dann immer wieder in offenbar unregelmäßigen Abständen rel. plötzlich und massiv zusammenzubrechen auf ein ganz erheblich tieferes Temperaturniveau. Also immer wieder so etwas wie Ordnung im Chaos aber trotzdem unberechenbar.
Das was Hader darüber schreibt geht völlig am Thema vorbei,
Chaos ist nicht Statistik und Wahrscheinlichkeit.
mfG
#4: „Natürlich passen Vergangenheit und Modell zusammen, dass ist der Sinn des Modells, die Aussagekraft für die Zukunft ist aber gleich Null.“
Herr Georgiev, eine schöne Pauschalaussage, die natürlich falsch ist. Wenn wir keine Aussagekraft über Ereignisse in der Zukunft hätten, könnten wir keine vernünftigen Entscheidungen treffen. Jede Entscheidung beruht darauf, dass wir Aussagen über die Zukunft treffen können und welche Auswirkung unsere Entscheidung auf sie hat.
„Zum Thema zurück: die heutige Wettervorhersage für den August anhand der Simulation ist „praktisch komplett Fantasie“. Je näher wir an den z.B. 5.8. herankommen, um so mehr vorausberechnete Details werden durch echte Wetterdaten ersetzt, um am 4.8. wird für den 5.8. eine letztlich zutreffende Prognose erstellt. Fantasiedaten wurden durch echte Daten über die Schnittstelle ersetzt, daraus ergibt sich Ähnlichkeit zwischen der Simulation und die Wirklichkeit. Ändert aber nichts daran, dass im Voraus die Simulation nichts wert war.“
Ihre Interpretationen sind wieder mal sagenhaft: „im Voraus die Simulation nichts wert war“ Wie kommen Sie auf so was? Wäre sie nichts Wert, wären Wettervorhersagen sinnlos.
Hallo,
wenn die berufliche Tätigkeit als Software- und Algorithmenentwickler ausreicht, um etwas über die Numerik von Klimamodellen zu schreiben, so ist hoffentlich selbiges auch hinreichend, um es zu kommentieren. 😉
Der Autor hat darauf hingewiesen, dass es bei Iterationsgleichungen passieren kann, dass leicht unterschiedliche Startwerte zum Abdriften der Zwischenwerte untereinander kommen kann. Vollkommen richtig. Aber das eigentlich Spannende bei Klimamodellen ist ja nicht die Durchschnittstemperatur für einen Tag oder kürzere Zeitabschnitte, sondern über einen langen Zeitraum gemittelt. Und darüber kann man ohne genauere Angabe der Iterationsgleichung erstmal keine Aussage treffen, ob auch die Mittelwerte auseinanderdriften und wie stark. Es gibt Beispiele, da gehen auch die Mittelwerte nach einer gewissen Zeit auseinander, es gibt aber auch Gegenbeispiele. Eines, welches der Autor durch seine berufliche Erfahrung sicherlich kennt, sind computergenerierte Zufallszahlen. Diese werden meist durch eine Iterationsgleichung und einem Startwert erzeugt. Leicht unterschiedliche Startwerte werden nach einigen Iterationsschritten zu stark unterschiedlichen Zufallszahlen führen. Aber der Mittelwert? Der Mittelwert der Zufallszahlen wird unabhängig vom Startwert in der Nähe des Erwartungswertes der Verteilungsfunktion der Zufallsgröße liegen. Je mehr Iterationsgrößen man bei der Mittelung hinzunimmt, umso näher liegt es am theoretischen Erwartungswert. Es wäre nämlich schlimm, wenn unterschiedliche Startwerte beim Zufallszahlengenerator zu ganz anderen Verteilungsfunktionen führen würden.
„Bei näherer Betrachtung musste ich erkennen, dass die zwei Arten der Variabilität – Wetter und Klima – überhaupt nicht so unterschiedlich sind. Der einzige wesentliche Unterschied zwischen beiden ist nur die Zeitskala.“
Ja, „nur“! Aber dieses nur ist ziemlich gravierend. Das ist zum Beispiel der Grund, warum wir den Wurf eines Würfels nie genauer als +/- 2,5 vorhersagen können, aber wenn es um den Mittelwert von hundert oder tausenden Würfen geht, wir nur noch Unsicherheiten von wenigen Zehnteln haben.
„Die Klimaleute nehmen an, so etwas (Chaos) gibt es nicht in der Variabilität des Klimas … zumindest nicht auf Zeitskalen jenseits von zehn Jahren. In der Tat glauben sie, Chaos existiert nur beim Wetter, nicht beim Klima.“
Falsch, Klimaforscher gehen genauso vom Chaos beim Klima aus, nur ist dieser wesentlich geringer als beim Wetter. Es besteht ein quantitativer Unterschied.
„Chaos existiert auf allen Zeitskalen.“
Richtig, auch durch die Mittelung geht der chaotische Charakter der Temperaturreihe nicht völlig verloren. Ich kenne da auch niemanden, der etwas anderes diesbezüglich behauptet. Nur ist die Aussage im Artikel, dass das Klima chaotisch sei, vollkommen irrelevant, wenn man es nicht quantifizieren kann. Welche Unterscheide im 30-Jahres-Mittel kann das Klima aufgrund des Chaos aufweisen? 0,1°C, 1°C, 10°C? Oder anders gefragt, kann das chaotische Wetterverhalten (dessen Eigenschaft niemand abstreitet) von sich aus in eine Eis- oder Warmzeit schlittern, ohne das sich etwas an den Randbedingungen geändert hat?
„Also, kann man Chaos heraus mitteln? Wenn ja, dann müssten wir erwarten, dass Langzeitmessungen des Wetters kein Chaos zeigen.“
Nein, nicht „kein Chaos“ sondern weniger Chaos. Chaos ist kein binärer Zustand „vorhanden“/“nicht vorhanden“, sondern es existieren quantitative Unterschiede.
„Als ein Team italienischer Forscher mich fragte, meine Chaosanalysis-Software auf eine Zeitreihe von über 500 Jahre gemittelter Wintertemperaturen anzuwenden ergab sich die Möglichkeit, dieses zu testen.“
In welcher Zeitskala wurden die Wintertemperaturen gemittelt?
Also mit einer sehr großen Unsicherheit kann man das Klima oder das Wetter langfristig schon vorhersagen wenn man sich die Zyklen der Vergangenheit anschaut. Z.B. kann ich vorhersagen dass im Januar 2014 hier die Temperaturen irgendwo zwischen -35 und +20° schwanken werden und der Monat im Durchschnitt zwischen +10 und -10° kalt sein wird, mit der höchsten Wahrscheinlichkeit zwischen -3 und +3°. Genauso kann man vorhersagen dass in ein paar tausend Jahren wahrscheinlich die nächste Eiszeit kommt, aber genau kann man das natürlich nicht wissen.
Danke an Herrn Dr. Reiger für diese ausführliche Darstellung der prinzipiellen Möglichkeiten von computergestützten Klimamodellberechnungen.
„…um zusammenzufassen, Klimaforscher haben Modelle auf der Basis ihres Verständnisses von Klima konstruiert, die man anpassen, kalibrieren kann; sie bestätigen ihre Modelle indem sie auf sehr lange Zeitskalen…“ Dies entspricht genau meiner Meinung, die ich ansatzweise in verschiedenen Runden hier zum Ausdruck gebracht habe, wobei die Diskussionen immer in die Richtung von Softwarefehler ging…
Es geht aber um die Frage, ob ein Computermodell ein „vereinfachtes“ Abbild der Natur sein könnte? Kann man ein Computermodell wie ein Landschaftsfoto betrachten? Im Sinne von, dass das, was auf dem Foto zu sehen ist definitiv existiert, und das Foto praktisch ein echtes Abbild der Natur ist, wobei die größere oder geringere Ähnlichkeit mit dem Original vom Können des Fotografen und der Technik abhängt (die Verfälschungsmöglichkeiten der digitalen Technik mal weggelassen). Oder ist das Computermodell eher wie eine Landschaftsmalerei zu betrachten, bei der es 3 Möglichkeiten gibt:
1. Die gemalte Landschaft existiert wirklich und die Ähnlichkeit zwischen dem Abbild der Natur und Original vom Können des Malers abhängig ist.
2. Die gemalte Landschaft entspringt komplett der Fantasie des Malers.
3. Eine Mischung aus 2. und 3., dass Bild enthält Details, die es wirklich in der Natur gibt und reine Fantasiedetails.
Nun, die meisten betrachten mangels naturwissenschaftlichen Denkweise oder Informatikwissen Computermodelle und dessen Schlussfolgerungen wie „Fotos“, also Abbilder der Natur, die bei sorgfältiger Programmierung stimmen müssten… Ist mir unbegreiflich, es reicht eigentlich der gesunde Menschenverstand um darauf zu kommen, dass das fehlende Wissen (z.B. ein exaktes Wissen über alle Einflussfaktoren auf das Klima) einfach durch den Willen und der Fantasie des Programmerschaffers ersetzt wird. Natürlich passen Vergangenheit und Modell zusammen, dass ist der Sinn des Modells, die Aussagekraft für die Zukunft ist aber gleich Null. Einerseits, wie beschrieben, weil sich Chaos nicht modellieren lässt, aber auch weil es sich um die Virtuelle und nicht um die Reelle Welt handelt.
Ein entscheidender Unterschied zu Computermodelle für die Wettervorhersage: die Schnittstelle zu Natur! Es ist ein ungeschriebenes Gesetz der Informatik, dass die gleichen Daten in 2 verschiedenen Datenbanken ohne Schnittstelle früher oder später unterschiedliche Werte einnehmen. Man kann noch so diszipliniert ein Telefonbuch an 2 Stellen führen, wenn man nicht regelmäßig abgleicht, sind die Daten bald komplett unterschiedlich. Zum Thema zurück: die heutige Wettervorhersage für den August anhand der Simulation ist „praktisch komplett Fantasie“. Je näher wir an den z.B. 5.8. herankommen, um so mehr vorausberechnete Details werden durch echte Wetterdaten ersetzt, um am 4.8. wird für den 5.8. eine letztlich zutreffende Prognose erstellt. Fantasiedaten wurden durch echte Daten über die Schnittstelle ersetzt, daraus ergibt sich Ähnlichkeit zwischen der Simulation und die Wirklichkeit. Ändert aber nichts daran, dass im Voraus die Simulation nichts wert war.
Im Grunde beklage ich die mangelnde Differenzierung zwischen Reelle und Virtuelle Welt, wie bei halbstarken, die genau die Fahreigenschaften eines jeden Autos kennen, sind ja unzählige male mit jedem Modell Rennen gefahren…
Wer das Klima einigermaßen verstehen will, der MUSS sich mit der Sonnenphysik beschäftigen und mit der Physik unseres Sonnensystem. Wer aber ständig sich am CO2 aufreibt und dieses CO2 mit 0,039% in den Mittelpunkt der Klimaforschung und damit der Klimasteuerung zuspricht, der hat weder Vernunft noch Verstand in sich. CO2 ist reinste grünsozialistische (kommunistische) Propaganda. Sonst nichts!
Außer das CO2 lebenswichtig für unser Erdenleben ist und somit würde es das Leben ohne CO2 (Kohlenstoff) überhaupt nicht geben!
#1: Rüdiger Kuth
Alles kein Problem! Wenn es anders kommt als prophezeit, hat man Herrn Latif nur nicht richtig wiedergegeben; so geschehen mit seinem SPIEGEL Interview von 2000, wo er das Ende des Winters in Deutschland vorhersagte.
Schon entlarvend, dass ein Sender wie der WDR solchen Scharlatanen ein Sprachrohr bietet…
Passend dazu gab es eben auf WDR 2 wieder Klimakirchenrundfunk. Herr Latif durfte wieder seine Thesen zu den Regenfällen der letzten Wochen verbreiten: Sowas gab’s früher alles nicht! In meinem Elternhaus haben wir vor 35 Jahren schon den Keller nach Unwetter ausschöpfen müssen – seitdem übrigens nicht mehr.
War das nicht der Prediger der uns angedroht hat, dass man in 15 Jahren (gerechnet ab 2000) in den Alpen kein Skifahren mehr möglich sein wird?