Was ist Chaos? Ich benutze diesen Ausdruck hier in seiner mathematischen Bedeutung. So, wie in den vergangenen Jahren die Naturwissenschaftler weitere Aggregatzustände der Materie entdeckten (neben fest, flüssig, gasförmig, nun auch plasma), so wurden von der Wissenschaft neue Zustände entdeckt, die Systeme annehmen können.
Systeme von Kräften, Gleichungen, Photonen oder des Finanzhandels können effektiv in zwei Zuständen existieren:
Einer davon ist mathematisch zugänglich, die zukünftigen Zustandsformen können leicht vorhergesagt werden; im anderen aber passiert scheinbar Zufälliges.
Diesen zweiten Zustand nennen wir “Chaos”. Es kann gelegentlich in vielen Systemen eintreten.
Wenn Sie z. B. das Pech haben, einen Herzanfall zu erleiden, geht der normalerweise vorhersehbare Herzschlag in einen chaotischen Zustand über, wo der Muskel scheinbar zufällig schlägt. Nur ein Schock kann ihn in den Normalzustand zurücksetzen. Wenn Sie jemals ein Motorrad auf einer eisigen Fahrbahn scharf abgebremst haben, mussten Sie ein unkontrollierbares Schlagen des Lenkrads befürchten, eine chaotische Bewegung, die meist zu einem Sturz führte. Es gibt Umstände, wo sich die Meereswogen chaotisch bewegen und unerklärlich hohe Wellen erzeugen.
Die Chaos-Theorie ist das Studium des Chaos und weiterer analytischer Methoden und Messungen und von Erkenntnissen, die während der vergangenen 30 Jahre gesammelt worden sind.
Im Allgemeinen ist Chaos ein ungewöhnliches Ereignis. Wenn die Ingenieure die Werkzeuge dafür haben, werden sie versuchen, es aus ihrem Entwurf „heraus zu entwerfen“, d. h. den Eintritt von Chaos unmöglich zu machen.
Es gibt aber Systeme, wo das Chaos nicht selten, sondern die Regel ist. So eines ist das Wetter. Es gibt weitere, die Finanzmärkte zum Beispiel, und – das ist überraschend – die Natur. Die Erforschung der Raubtierpopulationen und ihrer Beutetierpopulationen zeigt z. B. das sich diese zeitweilig chaotisch verhalten. Der Autor hat an Arbeiten teilgenommen, die demonstrierten, dass sogar einzellige Organismen Populationschaos mit hoher Dichte zeigen können.
Was heißt es also, wenn wir sagen, dass sich ein System anscheinend zufällig verhalten kann? Wenn ein System mit dem zufälligen Verhalten anfängt, wird dann das Gesetz von Ursache und Wirkung ungültig?
Vor etwas mehr als hundert Jahren waren die Wissenschaftler zuversichtlich, dass jedes Ding in der Welt der Analyse zugänglich wäre, dass alles vorhersagbar wäre, vorausgesetzt man hätte die Werkzeuge und die Zeit dazu. Diese gemütliche Sicherheit ist zuerst von Heisenbergs Unschärfeprinzip zerstört worden, dann durch Kurt Gödels Arbeiten, schließlich durch Edward Lorenz, der als Erster das Chaos entdeckte. Wo? natürlich bei Wetter-Simulationen.
Chaotische Systeme sind nicht gänzlich unvorhersagbar, wie wirklich Zufälliges. Sie zeigen abnehmende Vorhersagbarkeit mit zunehmender Dauer, und diese Abnahme wird durch immer größer werdende Rechenleistung verursacht, wenn der nächste Satz von Vorhersagen errechnet werden soll. Die Anforderungen an Rechnerleistung zur Vorhersage von chaotischen Systemen wächst exponentiell. Daher wird mit den verfügbaren begrenzten Möglichkeiten die Genauigkeit der Vorhersagen rapide abfallen, je weiter man in die Zukunft prognostizieren will. Das Chaos tötet die Ursache-Wirkungs-Beziehung nicht, es verwundet sie nur.
Jetzt kommt ein schönes Beispiel.
Jedermann hat ein Tabellenkalkulationsprogramm. Das nachfolgende Beispiel kann jeder selbst ganz einfach ausprobieren.
Die einfachste vom Menschen aufgestellte Gleichung zur Erzeugung von Chaos ist die „Logistische Karte“ (logistic map).
In einfachster Form: Xn+1 = 4Xn(1-Xn)
Das bedeutet: der nächste Schritt in Folge gleicht 4 mal dem vorhergehenden Schritt mal (1 – vorhergehender Schritt). Wir öffnen nun ein Blatt in unserer Tabellenkalkulation und bilden zwei Spalten mit Werten:
Jede Spalte A und B wird erzeugt, indem wir in Zelle A2 eingeben [=A1*4* (1-A1)], und wir kopieren das nach unten in so viele Zellen, wie wir möchten. Das gleiche tun wir für Spalte B2, wir schreiben [=B1*4* (1-B1)]. Für A1 und B1 geben wir die Eingangszustände ein. A1 erhält 0.3 und B1 eine ganz gering verschiedene Zahl: 0.30000001.
Der Graph zeigt die beiden Kopien der Serien. Anfänglich sind sie synchron, dann beginnen sie bei etwa Schritt 22, auseinander zulaufen, von Schritt 28 an verhalten sie sich völlig unterschiedlich.
Dieser Effekt stellt sich bei einer großen Spannweite von Eingangszuständen her. Es macht Spaß, sein Tabellenkalkulationsprogramm laufen zu lassen und zu experimentieren. Je größer der Unterschied zwischen den Eingangszuständen ist, desto rascher laufen die Folgen auseinander.
Der Unterschied zwischen den Eingangszuständen ist winzig, aber die Serien laufen allein deswegen auseinander. Das illustriert etwas ganz Wichtiges über das Chaos. Es ist die hohe Empfindlichkeit für Unterschiede in den Eingangszuständen.
In umgekehrter Betrachtung nehmen wir nun an, dass wir nur die Serien hätten; wir machen es uns leicht mit der Annahme, wir wüssten die Form der Gleichung, aber nicht die Eingangszustände. Wenn wir nun Vorhersagen von unserem Modell her treffen wollen, wird jede noch so geringe Ungenauigkeit in unserer Schätzung der Eingangszustände sich auf das Vorhersage-Ergebnis auswirken und das in dramatisch unterschiedlichen Ergebnissen. Der Unterschied wächst exponentiell. Eine Möglichkeit zur Messung gibt uns der sogenannte Lyapunov-Exponent. Er misst in Bits pro Zeitschritt, wie rasch die Werte auseinanderlaufen – als Durchschnitt über eine große Zahl von Samples. Ein positiver Lyapunov-Exponent gilt als Beweis für Chaos. Er nennt uns auch die Grenze für die Qualität der Vorhersage beim Versuch der Modellierung eines chaotischen Systems.
Diese grundlegenden Charakteristiken gelten für alle chaotischen Systeme.
Und nun kommt etwas zum Nachdenken. Die Werte unseres einfachen Chaos-Generators im Kalkulationsblatt bewegen sich zwischen 0 and 1. Wenn wir 0.5 subtrahieren, sodass wir positive and negative Werte haben, und dann summieren, erhalten wir diesen Graphen. Der ist jetzt auf tausend Punkte ausgedehnt.
Wenn ich nun ohne Beachtung der Skalen erzählt hätte, das wäre der Kurs im vergangenen Jahr für eine bestimmten Aktie, oder der jährliche Meerestemperaturverlauf gewesen, hätten Sie mir vermutlich geglaubt. Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.
Wie steht es also mit dem Wetter?
Edward Lorenz (1917 – 2008) ist der Vater der Chaosforschung. Er war auch Wetterforscher. Er schuf eine frühe Wetter-Simulation, indem er drei verkoppelte Gleichungen benutzte und er war erstaunt, dass die Simulationswerte mit dem Fortschritt der Simulation über der Zeit unvorhersehbar wurden.
Dann suchte er nach Beweisen, ob sich das tatsächliche Wetter in der gleichen unvorhersehbaren Weise verhielt. Er fand sie, bevor er noch mehr über die Natur des Chaos entdeckte.
Kein Klimatologe bezweifelt seine Erkenntnis vom chaotischen Charakter des Wetters.
Edward Lorenz schätzte, dass das globale Wetter einen Lyapunov-Exponenten gleich einem Bit von Information alle 4 Tage zeigt. Das ist ein Durchschnitt über die Zeit und über die globale Oberfläche. Zuweilen und an gewissen Stellen ist das Wetter chaotischer, das kann jedermann in England bezeugen. Das bedeutet aber auch, dass, falls man das Wetter mit einer Genauigkeit von 1 Grad C für morgen vorhersagen kann, die beste Vorhersage für das Wetter für den 5. Folgetag bei +/- 2 Grad liegen wird, für den 9. Tag bei +/-4 Grad und den 13. Tag bei +/- 8 Grad. Auf jeden Fall wird die Vorhersage für den 9-10. Tag nutzlos sein. Wenn Sie aber das Wetter für Morgen mit einer Treffsicherheit von +/- 0.1 Grad vorhersagen könnten, dann würde die Zunahme des Fehlers verlangsamt. Weil sie aber exponentiell steigt, wird auch diese Vorhersage bereits nach wenigen weiteren Tagen nutzlos sein.
Interessanterweise fällt die Treffsicherheit der Wettervorhersagen von Institutionen, wie z. B. dem englischen Wetterdienst, genau in dieser Weise ab. Das beweist einen positiven Lyapunov-Exponenten und damit, dass das Wetter chaotisch ist, wenn es noch eines Beweises bedurft hätte.
Soviel zur Wettervorhersage. Wie steht es mit der Langzeit-Modellierung?
Zuerst zur wissenschaftlichen Methode. Das Grundprinzip ist, dass die Wissenschaft sich so entwickelt, dass jemand eine Hypothese formuliert, diese Hypothese durch ein Experiment erprobt und sie modifiziert, sie beweist oder verwirft, indem er die Ergebnisse des Experiments auswertet.Ein Modell, ob nun eine Gleichung oder ein Computer-Modell, ist nur eine große Hypothese. Wenn man die mit der Hypothesenbildung betroffene Sache nicht durch ein Experiment modifizieren kann, dann muss man Vorhersagen mit dem Modell machen und am System selbst beobachten, ob die Vorhersagen damit zu bestätigen oder zu verwerfen sind.##Ein klassisches Beispiel ist die Herausbildung unseres Wissens über das Sonnensystem. Bei den ersten Modellen standen wir im Mittelpunkt, dann die Sonne, dann kam die Entdeckung der elliptischen Umläufe und viele Beobachtungen, um die exakte Natur dieser Umläufe zu erkennen. Klar, dass wir niemals hoffen konnten, die Bewegungen der Planeten zu beeinflussen, Experimente waren unmöglich. Aber unsere Modelle erwiesen sich als richtig, weil Schlüsselereignisse zu Schlüsselzeiten stattfanden: Sonnenfinsternisse, Venusdurchgänge usw. Als die Modelle sehr verfeinert waren konnten Abweichungen zwischen Modell und Wirklichkeit benutzt werden, um neue Eigenschaften vorherzusagen. Auf diese Art konnten die äußeren Planeten Neptun und Pluto entdeckt werden. Wenn man heute auf die Sekunde genau wissen will, wo die Planeten in zehn Jahren stehen, gibt es im Netz Software, die exakt Auskunft gibt.Die Klimatologen würden nur allzu gerne nach dieser Arbeitsweise verfahren. Ein Problem ist aber, dass sie aufgrund des chaotischen Charakters des Wetters nicht die geringste Hoffnung hegen können, jemals Modellvorhersagen mit der Wirklichkeit in Einklang bringen zu können. Sie können das Modell auch nicht mit kurzfristigen Ereignissen zur Deckung bringen, sagen wir für 6 Monate, weil das Wetter in 6 Monaten völlig unvorhersagbar ist, es sei denn in sehr allgemeinen Worten.Das bedeutet Schlimmes für die ModellierbarkeitNun möchte ich noch etwas in dieses Durcheinander einwerfen. Das stammt aus meiner anderen Spezialisierung, der Welt des Computer-Modellierens von selbst-lernenden Systemen.Das ist das Gebiet der „Künstlichen Intelligenz“, wo Wissenschaftler meist versuchen, Computer- Programme zu erstellen, die sich intelligent verhalten und lernfähig sind. Wie in jedem Forschungsfeld ruft das Konzept Mengen von allgemeiner Theorie hervor, und eine davon hat mit der Natur der Stück-um-Stück zunehmenden Erfahrung (Inkrementelle Erfahrung) zu tun.Inkrementelle Erfahrung findet statt, wenn ein lernender Prozess versucht, etwas Einfaches zu modellieren, indem er vom Einfachen ausgeht und Komplexität zufügt, dabei die Güte des Modells beim Fortgang testet.Beispiele sind Neuronale Netzwerke, wo die Stärke der Verbindungen zwischen simulierten Hirnzellen mit dem Prozess des Lernens angepasst wird. Oder genetische Programme, wo Bits von Computerprogrammen modifiziert werden und bearbeitet werden, um das Modell immer mehr anzupassen.Am Beispiel der Theorien über das Sonnensystem können Sie sehen, dass die wissenschaftliche Methode selbst eine Form des inkrementellen Lernens ist.Es gibt einen universellen Graphen über das Inkrementelle Lernen. Er zeigt die Leistung eines beliebigen inkrementellen Lern-Algorithmus bei zwei Datensätzen, ganz gleich bei welchem.Voraussetzung ist, dass die beiden Datensätze aus der gleichen Quelle stammen müssen, aber sie sind zufällig in zwei Datensätze aufgespaltet, in den Trainingsdatensatz für die Trainierung des Modells und in einen Testdatensatz, der immer wieder für das Überprüfen gebraucht wird. Normalerweise ist der Trainingsdatensatz größer als der Testdatensatz, aber wenn es viele Daten gibt, macht das nichts aus. Mit der Zunahme des Wissens im Trainingsmodell benutzt das lernende System die Trainingsdaten, um sich selbst anzupassen, nicht die Testdaten, die zum Testen des Systems benutzt und sofort wieder vergessen werden.
Wie zu sehen ist, wird die Leistung mit dem Trainingsdatensatz immer besser, je mehr Komplexität dem Modell zugefügt wird, auch die Leistung des Testdatensatzes wird besser, beginnt aber dann, schlechter zu werden.
Um es deutlich zu sagen: der Testsatz ist das Einzige, was zählt. Wenn wir das Modell für Vorhersagen benutzen wollen, werden wir es mit neuen Daten füttern, wie mit unserem Testdatensatz. Die Leistung des Trainingsmodells ist irrelevant.
Über dieses Beispiel wird diskutiert, seit Wilhelm von Ockham den Satz geschrieben hat: “Entia non sunt multiplicanda praeter necessitatem“, besser bekannt als „Ockhams Rasiermesser“ und am besten so übersetzt: “Die Entitäten dürfen nicht ohne Not vermehrt werden”. Mit Entitäten meinte er unnötige Verzierungen und Schnörkel einer Theorie. Die logische Folge daraus ist, dass die am einfachsten die Fakten erklärende Theorie wahrscheinlich stimmt. Es gibt Beweise für die Allgemeingültigkeit dieses Satzes aus dem Gebiet der Bayesianischen Statistik und der Informationstheorie.
Das heißt also, dass unsere kühnen Wettermodellierer von beiden Seiten her in Schwierigkeiten stecken: wenn die Modelle für die Wettererklärung nicht ausreichend komplex sind, sind ihre Modelle nutzlos, wenn sie allzu komplex sind, auch.
Wer möchte da noch Wettermodellierer sein?
Unter der Voraussetzung, dass sie ihre Modelle nicht anhand der Wirklichkeit kalibrieren können, wie entwickeln und prüfen die Wettermodellierer ihre Modelle?Wie wir wissen, verhalten sich auch Wettermodelle chaotisch. Sie zeigen die gleiche Empfindlichkeit auf die Eingangsbedingungen. Das Mittel der Wahl für die Evaluierung (von Lorenz entwickelt) ist, Tausende von Läufen durchzuführen mit jeweils geringfügig anderen Eingangsbedingungen. Die Datensätze heißen „Ensembles”.Jedes Beispiel beschreibt einem möglichen Wetter-Pfad, und durch die Zusammenstellung des Satzes wird eine Verteilung möglicher Zielentwicklungen erzeugt. Für Wettervorhersagen zeigen sie mit dem Spitzenwert ihre Vorhersage an. Interessanterweise gibt es bei dieser Art von Modell-Auswertung wahrscheinlich mehr als nur eine Antwort, also mehr als einen Spitzenwert, aber über die anderen, auch möglichen Entwicklungen, wird nicht gesprochen. In der Statistik heißt dieses Verfahren „Monte Carlo Methode“.Beim Klimawandel wird das Modell so modifiziert, dass mehr CO2 simuliert wird, mehr Sonneneinstrahlung oder andere Parameter von Interesse. Und dann wird ein neues Ensemble gerechnet. Die Ergebnisse stellen eine Serie von Verteilungen über der Zeit dar, keine Einzelwerte, obwohl die von den Modellierern gegebenen Informationen die alternativen Lösungen nicht angeben, nur den Spitzenwert.Die Modelle werden nach der Beobachtung der Erde geschrieben. Landmassen, Luftströmungen, Baumbedeckung, Eisdecken, usw. werden modelliert. Sie sind eine große intellektuelle Errungenschaft, stecken aber noch immer voller Annahmen. Und wie man erwarten kann, sind die Modellierer stets bemüht, das Modell zu verfeinern und neue Lieblingsfunktionen zu implementieren. In der Praxis gibt es aber nur ein wirkliches Modell, weil alle Veränderungen rasch in alle eingebaut werden.Schlüsselfragen der Debatte sind die Interaktionen zwischen den Funktionen. So beruht die Hypothese vom Durchgehen der Temperaturen nach oben infolge von erhöhtem CO2 darauf, dass die Permafrostböden in Sibirien durch erhöhte Temperaturen auftauen würden und dadurch noch mehr CO2 freigesetzt würde. Der daraus resultierende Feedback würde uns alle braten. Das ist eine Annahme. Die Permafrostböden mögen auftauen oder auch nicht, die Auftaugeschwindigkeit und die CO2-Freisetzung sind keine harten wissenschaftlichen Fakten, sondern Schätzungen. So gibt es Tausende von ähnlichen „besten Abschätzungen“ in den Modellen.Wie wir bei den inkrementell lernenden Systemen gesehen haben, ist allzu viel Komplexität genau so fatal, wie zu wenig. Niemand weiß, wo sich die derzeitigen Modelle auf der Graphik oben befinden, weil die Modelle nicht direkt getestet werden.Jedoch macht die chaotische Natur des Wetters alle diese Argumente über die Parameter zunichte. Wir wissen natürlich, dass Chaos nicht die ganze Wahrheit ist. Es ist in den ferner vom Äquator gelegenen Regionen im Sommer im Durchschnitt wärmer als im Winter geworden. Monsune und Eisregen kommen regelmäßig jedes Jahr vor und daher ist die Sichtweise verführerisch, dass das Chaos wie das Rauschen in anderen Systemen aussieht.
Das von den Klimawandel-Anhängern benutzte Argument geht so: Chaos können wir wie Rauschen behandeln, daher kann das Chaos „herausgemittelt“ werden.
Um ein wenig auszuholen: Diese Idee des “Ausmittelns” von Fehlern/Rauschen hat eine lange Geschichte. Nehmen wir das Beispiel von der Höhenmessung des Mount Everest vor der Erfindung von GPS und Radar-Satelliten. Die Methode der Höhenermittlung war, auf Meereshöhe mit einem Theodoliten zu beginnen und die lokalen Landmarken auszumessen, indem man deren Abstand und Winkel über dem Horizont maß, um die Höhe zu schätzen. Dann wurde von den vermessenen Punkten aus das Gleiche mit weiteren Landmarken gemacht. So bewegte man sich langsam im Binnenland vor. Zum Zeitpunkt der Ankunft der Landvermesser am Fuße des Himalaja beruhten ihre Messungen auf Tausenden vorhergehenden Messungen. Alle mit Messfehlern. Im Endeffekt lag die Schätzung der Vermesser von der Höhe des Everest nur um einige zig Meter daneben.Das kam, weil die Messfehler selbst eine Tendenz zum Ausmitteln hatten. Wenn ein systemischer Fehler drin gewesen wäre, etwa von der Art, dass jeder Theodolit um 5 Grad zu hoch gemessen hätte, dann wären die Fehler enorm groß geworden. Der Punkt dabei ist, dass die Fehler dann keinen Bezug zum vermessenen Objekt gehabt hätten. Es gibt viele Beispiele dafür in der Elektronik, in der Radio-Astronomie und auf anderen Gebieten.Sie verstehen nun, dass die Klimamodellierer hoffen, dass das auch für das Chaos gilt. Sie behaupten ja tatsächlich, dass es so wäre. Bedenken Sie aber, dass die Theodolitenfehler nichts mit der tatsächlichen Höhe des Everest zu tun haben, wie auch das Rauschen in Radioteleskopverstärkern nichts mit den Signalen von weit entfernten Sternen zu tun hat. Das Chaos dagegen ist Bestandteil des Wetters. Daher gibt es keinerlei Grund, warum sich das „ausmitteln“ würde. Es ist nicht Bestandteil der Messung, es ist Bestandteil des gemessenen Systems selbst.Kann Chaos überhaupt „ausgemittelt“ werden? Falls ja, dann müssten wir bei Langzeitmessungen des Wetters kein Chaos erkennen. Als eine italienische Forschergruppe um meine Chaos-Analyse-Software bat, um eine Zeitreihe von 500 Jahren gemittelter süditalienischer Wintertemperaturen auszuwerten, ergab sich die Gelegenheit zur Überprüfung. Das folgende Bild ist die Ausgabe der Zeitreihe mittels meines Chaos-Analyse-Programms „ChaosKit“.
Ergebnis: Ein Haufen Chaos. Der Lyapunov-Exponent wurde mit 2.28 Bits pro Jahr gemessen.
Auf gut Deutsch: Die Treffsicherheit der Temperaturvorhersage vermindert sich um den Faktor 4 für jedes weitere Jahr, für welches eine Vorhersage gemacht werden soll, oder anders herum: die Fehler vervierfachen sich.
Was heißt das? Chaos mittelt sich nicht aus. Das Wetter bleibt auch über Hunderte von Jahren chaotisch.
Wenn wir einen laufenden Durchschnitt über die Daten bilden würden, wie es die Wettermodellierer tun, um die unerwünschten Spitzen zu verbergen, können wir eine leichten Buckel rechts sehen, und viele Buckel links. Wäre es gerechtfertigt, dass der Buckel rechts ein Beweis für den Klimawandel ist? Wirklich nicht! Man könnte nicht entscheiden, ob der Buckel rechts das Ergebnis des Chaos und der angezeigten Verschiebungen wäre, oder ob da ein grundlegender Wandel wäre, wie zunehmendes CO2.
Fassen wir zusammen: die Klimaforscher haben Modelle konstruiert auf der Grundlage ihres Verständnisses des Klimas, derzeitigen Theorien und einer Reihe von Annahmen. Sie können ihre Modelle wegen der chaotischen Natur des Wetters nicht über kurze Zeiträume testen, das geben sie zu.
Sie hofften aber, dass sie kalibrieren könnten, ihre Modelle bestätigen oder reparieren, indem sie Langzeitdaten auswerteten. Aber wir wissen jetzt, dass auch dort das Chaos herrscht. Sie wissen nicht, und sie werden niemals wissen, ob ihre Modelle zu einfach, zu komplex oder richtig sind, weil – selbst wenn sie perfekt wären – angesichts der chaotischen Natur des Wetters keine Hoffnung besteht, die Modelle an die wirkliche Welt anpassen zu können. Die kleinsten Fehler bei den Anfangsbedingungen würden völlig unterschiedliche Ergebnisse hervorbringen.
Alles, was sie ehrlich sagen können, ist: “Wir haben Modelle geschaffen, wir haben unser Bestes getan, um mit der wirklichen Welt im Einklang zu sein, aber wir können keinen Beweis für die Richtigkeit liefern. Wir nehmen zur Kenntnis, dass kleine Fehler in unseren Modellen dramatisch andere Vorhersagen liefern können, und wir wissen nicht, ob wir Fehler in unseren Modellen haben. Die aus unseren Modellen herrührenden veröffentlichten Abhängigkeiten scheinen haltbar zu sein.“
Meiner Ansicht nach dürfen regierungsamtliche Entscheider nicht auf der Grundlage dieser Modelle handeln. Es ist wahrscheinlich, dass die Modelle so viel Ähnlichkeit mit der wirklichen Welt haben wie Computerspiele.
Zu guter Letzt, es gibt eine andere Denkrichtung in der Wettervorhersage. Dort herrscht die Meinung, dass das Langzeitwetter großenteils von Veränderungen der Sonnenstrahlung bestimmt wird. Nichts in diesem Beitrag bestätigt oder verwirft diese Hypothese, weil Langzeit-Aufzeichnungen der Sonnenflecken enthüllen, dass die Sonnenaktivität ebenfalls chaotisch ist.
Dr. Andy Edmonds
Übesetzt von Helmut Jäger EIKE
Anmerkung von Antony Watts: Nur damit wir uns gleich verstehen: Chaos beim Wetter ist NICHT dasselbe wie der oben beschrieben Klimazusammenbruch – Anthony
Den Originalbeitrag finden Sie hier
Kurzbiografie
Dr. Andrew Edmonds ist Wissenschaftler und schreibt Computer Software. Er hat viele frühe Computer Software Pakete auf dem Gebiet der „Künstlichen Intelligenz“ entworfen und er war möglicherweise der Autor des ersten kommerziellen „Data Mining“ Systems. Er war Vorstandssprecher einer amerikanischen Aktiengesellschaft und bei mehreren erfolgreichen Firmen-Neugründungen tätig. Seine Doktorarbeit behandelte die Vorhersagen von Zeitreihen in chaotischen Reihen. Daraus entstand sein Produkt ChaosKit, des einzigen abgeschlossenen kommerziellen Produkts für die Analyse von Chaos in Zeitreihen. Er hat Papiere über Neuronale Netze veröffentlicht und über genetisches Programmieren von „fuzzy logic“ Systemen, „künstlicher Intelligenz“ für den Handel mit Finanzprodukten. Er war beitragender Autor von Papieren auf den Gebieten der Biotechnologie, des Marketings und des Klimas.
Seine Webseite: http://scientio.blogspot.com/2011/06/chaos-theoretic-argument-that.html
Sehr geehrter Herr Klasen,
ich finde es traurig bis entsetzlich, dass 85% bis 99% meiner Landsleute Opfer einer massiven Propaganda geworden sind, so wie ich es vor Jahrzehnten in einer anderen Richtung war. Mit meinen Beiträgen versuche ich in der Regel, ohne wissenschaftliche Abschweifungen die Logik und den gesunden Menschenverstand anzuregen. In der Hoffnung, dass offensichtliche Widersprüche leise Zweifel hervorrufen, die das Fundament der ideologischen Gedankensperre langsam bröckeln lassen.
Mit NB und NF sind gegenseitig bereichernde Diskussionen nicht möglich, da sie die Argumentation und Fakten nicht folgen, sondern Stichpunkte aus dem Zusammenhang reißen und mit physikalischen Oberwissen oder scheinbare Nachweise wie Computerspiele dann zerpflücken.
Ob sie Betonköpfe sind oder im fremden Auftrag handeln ist mir gleich. Ich erwarte von niemanden, meine Meinung unkritisch zu übernehmen, aber von jedem Diskussionspartner, dass er zumindest zuhört.
Seitdem ich EIKE entdeckt habe, habe ich nicht mehr das Gefühl, dass ich allein in einer von allen guten Geistern verlassenen Welt geblieben bin.
Schönes Wochenende
PG
Sehr geehrter Hr. Georgiew,
Hr. Baecker und Hr. Fischer können mich nicht ärgern. Ich lese lange genug in diesem Forum, als dass ich diese beiden Synonyme mehr als genug kenne, auch bereits als NF und NB.
Es ist traurig mitanzusehen, dass zwei, angeblich Naturwissenschaftlich ausgebildete Menschen, sich hinter Synonymen verstecken, anstatt sich offen zu den Thesen, welche sie hier vertreten (müssen?!) zu bekennen. Insofern sollten wir ein wenig Rücksicht nehmen auf zwei, vielleicht zu tiefst frustrierte, Opfer ihrer eigenen Gesinnung.
Lieber Herr Klasen,
eine sinngemäß ähnliche Disskussion habe ich vor Monaten mit Fischer und Baecker (damals NF und NB)geführt, es hat keinen Sinn, es hilft nur ignorieren.
Genau so, wie mein Sohn sich stark fühlt, weil er in 30 Minuten 60 Monster besiegt hat, fühlen sich NB und NF schlau, weil eine Computersimulation Ihnen einen „Nachweis“ geliefert hat. Alle 3 haben zumindest temporär Probleme damit, Realität und virtuelle Welt exakt auseinanderzuhalten.
NB und NF wollen oder können nicht verstehen, dass ein jeder Computer ausschließlich nur das anzeigt, wass der Programmentwickler und der sapiens an der Tastatur befohlen haben. Dass bei komplexen Programmen das Ergebnis nicht immer 100% vorhersehbar ist und manchmal überrascht, widerspricht dem Grundgedanken nicht. Auf die Klimamodelierung bezogen: Wenn die Modelle bei einem CO2 Anstieg um x% einen Temperaturanstieg von y anzeigen, dann hat man keine neue Erkenntnis oder Nachweis gewonnen, sondern der Programmentwickler und der Bediener haben es im Computerprogramm im Voraus so festgelegt.
Mein Sohn merkt es manchmal, dass er doch nicht so stark ist, NF und NB nicht.
Lassen Sie sich nicht ärgern.
PG
Regionale Klimamodelle (STAR, REMO, CLM) und Tipping Points: Die Öffentlichkeit wird betrogen.
Zum Beispiel: dem STAR Modell des PIK wurde offenbar ein Temperaturtrend von +1.5 Grad bis 2050 zugrunde gelegt (gemäss Publikationen PIK), ohne aufzuzeigen, auf welcher Basis diese Annahme getroffen wurde (wahrscheinlich wieder von vergangenen „frisierten“ Temperaturmessungen stammend).
Ferner fehlen glaubhaft korrekte Abbildungen der Wolkenbedeckung Deutschlands in den nächsten 40 Jahren, die ohnehin jede Prognose lächerlich machen.
Angeblich werden auch Tipping Points in den Klimamodellen abgebildet. Das Problem ist ja nur, dass niemand weiss, was Tipping Points wirklich sind (wahrscheinich PIK’sche Hirngespinste).
Da kann man wieder nur lachen, über die tolle Qualität dieser Klimasysteme.
Herr Klasen, #131
ich nehme Ihnen nicht übel, dass Sie das Thema nicht klären wollen. Wenn Sie dies nicht gestoppt hätten, hätte es es getan. Denn es ist ja völlig offenkundig, dass Sie die wissenschaftliche Sichtweise nicht nachvollziehen können und da irgendwo einen unlösbaren Knoten im Hirn haben, der wohl noch mehr grundlegende Vorarbeit (in mathematischer Statistik, Begriff des stochastischen Prozesses, physikalische Modellbildung, etc. ) erfordert, was in einem solchen blog ohne minimale Vorbildung der blog-Teilnehmer nicht zu leisten ist.
Hr. Baecker,
nehmen sie es bitte nicht übel, aber besser wir beenden die Diskussion über Statistik / Prognosen / Szenarien. Auch mit ihrer Erklärung in #130 komme ich wieder zu meinen Rückschlüssen aus #125, ich denke, wir würden uns Argumentativ im „Kreise“ drehen wenn wir hier weiter machen würden.
Entgegen ihrer Vermutung in #126 habe ich ihre Erklärungen durchaus „kapiert“, weshalb ich hier die Diskussion beende.
Herr Klasen, #129
Nein, auch allgemein sind sie nicht zutreffend:
Sie in #125: „Statistiken lassen sich nur auf ermittelten Daten aufbauen, d.h. sie sind nur gültig für Vergangenes.“
Nicht jede Statistik basiert auf Daten, die zeitlich erhoben werden. Denken Sie mal an die Statistik über Qualitätsparameter von Produkten, die in verschiedenen nominell gleichartigen Maschinen zum gleichen Termin gefertigt wurden (Scharstatistik).
Sie in #125: „Prognosen und Szenarien lassen sich auf Basis dieser Daten in einer fast unendlichen Anzahl errechnen“
Das wäre im allgemeinen sinnlos, da sich die Randbedingungen der Einflußfaktoren der statistischen Gesamtheit für den Prognosezeitraum ändern und vor allem wenn man nicht sicher ist, dass alle relevanten Einflußfaktoren überhaupt erfasst sind. Da das Klima prinzipiell in naher Zukunft auch durch einen Meteroiteneinschlag stark geändert werden kann, man aber nicht weiß, ob und wann dieser eintrifft, ist eine Prognose ohne erhebliches „Restrisiko“ nicht möglich.
Daher macht man „nur“ Szenarien. Diese zeigen auf, was passiert, wenn man Einflußfaktoren ändert.
Diese dienen zu einer Risikoabschätzung durch die quantifizierten Einflußfaktoren. So weiß man zwar nicht, wann ein Meteorit einschlägt oder die CO2-Zunahme tatsächlich so eintrifft (das liegt ja im wesentlich nur an uns), man kann aber ein Szenerium machen, was passieren würde, wenn dies einträfe.
Dazu ist jedoch noch ein weiterer Schritt nötig, und dies haben Sie wohl nicht verstanden.
Szenarien und Prognosen kann man nur machen, wenn man weiß, wie die Statistik durch die Randbedingungen der Einflußfaktoren determiniert wird. Um dies herauszufinden, entwickelt man -wie immer in der Physik- quantitative Modelle.
Wenn nun die Einflußfaktoren in physikalisch hinreichend korrekter Modellierung mit den empirischen Daten aus der Vergangenheit befriedigend übereinstimmen (man quantifiziert den Einfluß einzelner Einflußgrößen indem man in den Daten nach spezifischen Mustern, die charakteristisch für diesen Faktor sind, sucht), kann man es auch wagen, Szenarien für die gezielte Auslenkung eines oder einer Kombination von Einflußfaktoren zu machen. Das Szenarium bzw. die Validierung anhand des inputs der gemessenen Einflußfaktoren des Validierungszeitraums berechnet denselben Typus Daten für die Klimastatistik wie die empirischen Messdaten liefern, nämlich eine Sequenz von Wetterzuständen, aber eben aus dem physikalischen Modell berechnete.
Sie in #125: „sind somit also bestenfalls als Darstellung der eigenen Rechenleistung zu gebrauchen, keinesfalls aber zur Abbildung langfristiger, zukünftiger Entwicklungen.“
Daher macht man es ja auch nicht. Klimaprognosen/szenarien basieren nicht auf der Extrapolationen der Daten der Vergangenheit! Das geht nicht! Siehe meine Erklärungen.
Hr. Baecker,
also sind die Aussagen von mir in #125, mit Aussnahme des Klimas, zutreffend?
Herr Klasen,
weil ich in #119, #121, #122, #124 offensichtlich etwas anderes geschrieben habe als Sie in #125.
Hr. Baecker,
„schade, dass Ise es nach so vielen Versuchen immer noch nicht kapiert haben. Sonst haetten Sie gelernt, dass Ihre Zusammenfassung weder im allgemeinen noch im konkreten Fall des Klimas zutreffend ist.“
Warum?
Herr Klasen,
schade, dass Ise es nach so vielen Versuchen immer noch nicht kapiert haben. Sonst haetten Sie gelernt, dass Ihre Zusammenfassung weder im allgemeinen noch im konkreten Fall des Klimas zutreffend ist.
Sie scheinen mit mathematischer Statistik und Modellbildung nicht viel am Hut zu haben.
Hr. Baecker,
ich fasse mal zusammen:
Statistiken lassen sich nur auf ermittelten Daten aufbauen, d.h. sie sind nur gültig für Vergangenes.
Prognosen und Szenarien lassen sich auf Basis dieser Daten in einer fast unendlichen Anzahl errechnen, sind somit also bestenfalls als Darstellung der eigenen Rechenleistung zu gebrauchen, keinesfalls aber zur Abbildung langfristiger, zukünftiger Entwicklungen.
Herr Klasen, #123
„Das, Hr. Baecker, ergibt doch keinen Sinn. Ich kann doch kein Modell kreieren, mit, wie sie selbst schrieben, unterschiedlichen Randbedingungen, da die restlichen Daten zu unbestimmt sind, um dann darauß eine Statistik für eine zukünftige Prognose zu erstellen.“
Inzwischen sollte es sich rumgesprochen haben, dass man zwischen Prognosen und Szenarien unterscheiden muß. Alles, was Sie je für das Klima der Zukunft gesehen haben, sind Szenarien, die auf Variation der Randbedingungen der modellierten Prozesse beruhen. Da niemand weiß, ob in 50 Jahren ein Meteorit auf der Erde einschlägt und das Klima drastisch ändert, sind Klimaprognosen nicht möglich.
„Mit Verlaub, da kommt lediglich heraus, was der Ersteller dieser Statistik möchte, d.h. mit welchem Ziel wird diese Statistik erstellt.
Dies ist nicht objektiv!“
Das wäre Betrug. Wenn Sie das meinen, so meinen Sie das eben.
Aber Betrug müßte man nicht hinten aufwändigen physikalischen Prozessen verstecken.
„Ich vermutet, sie möchten mir erläutern, dass, durch die gewissenhafte Messung von Daten über einen langen Zeitraum, eine recht sichere Prognose im weitesten Sinne möglich ist.“
Nein, das sollten Sie eigentlich inzwischen verstanden haben! Es gibt keine Prognosen, wenn man nicht die Entwicklung aller relevanten Randbedingungen kennt. Man macht Szenarien im Sinne, was passiert mit dem Klima, wenn z.B. das CO2 in der Atmosphäre verdoppelt wird, die Sonnenenergie sich um 5% erhöht oder Aerosolmengen zunehmen (= Änderung von Randbedingungen). Der geschilderte Fall der Blindprognose fürs Wetter ist nur möglich, wenn man weiß, dass die Randbedingungen konstant sind oder sich nur langsam über den Prognosezeitraum ändern, sodass man von einem stationären Klima ausgehen kann. Dies ist über ein bis 3 Dekaden etwa erfüllt, wenn dazwischen keine drastische Änderungen der Randbedingungen auftreten (Meteoriteneinschlag, z.B.). Man weiß aber, dass eine CO2-Verdopplung eine so große Änderung der Randbedingungen ist, dass das Klima signifikante Änderungen darauf erfahren wird. Aber auch dies ist ein Prozeß, der langsam über Jahrzehnte abläuft.
Hr. Baecker,
Zitat:
„Die Statistik ist Ergebnis des Klimamodells und kann natürlich nur darauf basieren, welche Prozesse das Klimamodell berücksichtigt.“
Das, Hr. Baecker, ergibt doch keinen Sinn. Ich kann doch kein Modell kreieren, mit, wie sie selbst schrieben, unterschiedlichen Randbedingungen, da die restlichen Daten zu unbestimmt sind, um dann darauß eine Statistik für eine zukünftige Prognose zu erstellen.
Mit Verlaub, da kommt lediglich heraus, was der Ersteller dieser Statistik möchte, d.h. mit welchem Ziel wird diese Statistik erstellt.
Dies ist nicht objektiv!
Ich vermutet, sie möchten mir erläutern, dass, durch die gewissenhafte Messung von Daten über einen langen Zeitraum, eine recht sichere Prognose im weitesten Sinne möglich ist. Dem stimmte ich bereits zu, unter #120 machte ich sie Aufmerksam auf die Jahreszeiten mit ihren jeweiligen Wetter. Genauer ist es nicht möglich, zumindest nicht Global, vielleicht noch sehr eng örtlich Begrenzt (einzelne Städte z.B.).
Herr Klasen, #120
Ergänzung zu #121
„“Eine Statistik aus so vielen Unbekannten kann nicht für eine zukünftige Prognose herangezogen werden.“
„Wird sie ja auch nicht! Siehe meine Erläuterungen oben.“
Nochmal klarer: Die Statistik ist Ergebnis des Klimamodells und kann natürlich nur darauf basieren, welche Prozesse das Klimamodell berücksichtigt.
Wenn das Klimamodell nun die Klimazustände der Vergangenheit bei anderen Randbedingungen wie heute und für die Gegenwart richtig (= mit verträglicher Genauigkeit) mit den empirisich ermittelten Klimazuständen für diese Zeiträume liefert, so ist es nicht ganz unberechtigt, dies auch für die Zukunft zu erwarten, sofern man davon ausgehen kann, dass sich dieselben Prozesse aber nur bei evtl. anderen Randbedingungen abspielen.
Und die Statistik der Wetterzustände bei veränderten Randbedingungen eine vergleichbar gut zutreffende Blindprognose für das Wetter liefern als die unter heutigen Randbedingungen.
D.h. das Klima unter gegenüber heute veränderten Randbedingungen in gewissen Genauigkeitsgrenzen genauso determiniert wird ist, wie das heutige
Klima unter den heutigen Randbedingungen oder das der Vergangenheit unter den entsprechenden damaligen Randbedingungen.
Herr Klasen, #120
„danke für ihre Erklärung. “
Bitte.
„Aber selbst mit ihrer Erklärung, kommen wir über einen engen örtlichen Bereich nicht hinaus“
Brauchen wir auch nicht.
„, hinzu kommen weitere Unwägbarkeiten. “
Wofür?
„Letztlich gibt ihre Erklärung nicht mehr aus, als das was jeder Wissen sollte, die Jahreszeiten mit ihrer unterschiedlichen Wetterabfolge.“
Ich schrieb schon, die eintreffende Wettterabfolge ist nur kurzfristig vorhersagbar (wegen der Sensitivität auf die Anfangswertbedingungen) aber dennoch nicht ganz chaotisch, wie sich an dem jährlich wiederholenden Ausbilden charakterischer Wetterzustände im Lauf des Jahres zeigt, eben dies zeichnet ein stationäres oder quasistationäres Klima aus.
Dies setzt jedoch voraus, dass eben die Randbedingungen konstant bleiben!
Bei veränderten Randbedingungen verändern sich i.a. die charakteristischen Wetterzuständen, d.h. das Klima dort verändert sich.
„Eine Statistik aus so vielen Unbekannten kann nicht für eine zukünftige Prognose herangezogen werden.“
Wird sie ja auch nicht! Siehe meine Erläuterungen oben.
Hr. Baecker,
danke für ihre Erklärung.
Aber selbst mit ihrer Erklärung, kommen wir über einen engen örtlichen Bereich nicht hinaus, hinzu kommen weitere Unwägbarkeiten. Letztlich gibt ihre Erklärung nicht mehr aus, als das was jeder Wissen sollte, die Jahreszeiten mit ihrer unterschiedlichen Wetterabfolge. Eine Statistik aus so vielen Unbekannten kann nicht für eine zukünftige Prognose herangezogen werden.
Herr Klasen, #118
„dann sollten sie ihre Aussage präzisieren.“
gerne. Das war tatsächlich zu unpräziese ausgedrückt.
Ich schrieb, das Wetter in einem Zeitraum jenseits von 10 Tagen sei unbestimmt. Dies ist natürlich nicht ganz richtig. Denn ist ist nicht völlig unbestimmt, denn gröbere Aussagen lassen sich ja immer noch machen. So ist es zwar heute nicht klar, ob es am 31. Juli in Berlin Alexanderplatz 1 mm regnen wird oder nicht. Aber man kann mit ziemlicher Sicherheit sagen, dass es nicht schneien wird, die Wahrscheinlichkeit für Regen mit größer-gleich 1mm bei ca. 50% liegt, die Tageshöchsttemperatur mit 90% Wahrscheinlichkeit zwischen 15°C und 30°C liegen wird und mit 99% Wahrscheinlichkeit unter 34°C etc. Das ist wenig im Vergleich zu einer Wettervorhersage aber eben auch nicht Nichts!. Diese Daten sind eine Blindprognose (also ohne Berücksichtigung aktueller Wetterdaten) basierend auf der Klimastatistik. Diese Statistik ist von den Anfangswertbedingungen des Wetterzustandes unabhängig, sondern hängt von den Randwertbedingungen für das Wetter an diesem Ort ab. Wenn diese konstant sind oder sich langsam genug (quasistationär) ändern, kann man die Unbestimmheit des Wetterzustandes zumindest auf seine klimatischen Grenzen eingrenzen.
Klimamodelle berechnen nun Wetterzustände. Diese geben das Wetter nicht korrekt an, da das Chaos auf leicht unterschiedliche Anfangswerte im Laufe weinger Tage zu einem falschen Wetterzustand auslaufen. Dies ist jedoch für den Klimazustand egal, sofern die modellierten Wetterzustände Ensemblemitglieder der Statistik sein können, also zum Klimazustand passen. Mit solchen Tests verifiziert man Klimamodelle. Bei Klimaszenarien spielt man dann durch, wie sich die Wetterstatistik auf Änderungen der Randbedingungen ändert.
Alles klar nun?
Hr. Baecker,
dann sollten sie ihre Aussage präzisieren. Das Klima ist anhand ihrer Aussage unbestimmbar (also für die Zukunft nicht vorhersagbar)!
Lediglich für einen engen örtlichen Bereich, kann eine Statistik des vergangenen Wetters (über 30 Jahre ausgewertet das Klima) erstellt werden. Damit sind aber keinerlei Zukunftsprognosen möglich.
Herr Klasen,
eben nicht. Ist das so schwer zu verstehen?
#110 NB
Das ist ja ein gravierender Unterschied zu den in den technischen Rechenmodellen verwendeten probabilistischen Methoden!
Per Landesrecht sind über die „eingeführten technischen Bestimmungen“ probalilistische Methoden für sicherheitsrelevante technische Rechenmodelle gesetzlich vorgeschrieben. Hier wird mit dem Quantil von (chaotisch) streuenden Parametern gearbeitet. Zusätzliche werden diese mit probabilistisch zu ermittelnden, bzw. semiprobabilistisch genormten Sicherheitsfaktoren beaufschlagt. Als Ergebnis erhält man lediglich eine Grenzwertbetrachtung, welche das gewünschte Sicherheitsniveau mit einer Wahrscheinlichkeit von z. B. 1:1 Million nicht unterschreiet.
Sobald es ein wenig komplexer wird, sind seriös nur Schranken der möglichen Ergebnisse mit Rechenmodellen zu ermitteln.
Man kann also nur vorausberechnen: „Mit einer Wahrscheinlichkeit von X liegt das Ergebnis in einem Bereich von Y bis Z. Genaueres lässt sich leider nicht berechnen.“
Es ist toll, das die Menschheit mittlerweile über solche Berechnungsmethoden verfügt. Aber durch die große Streubreite der Ergebnisse, z. B. bei realen Versuchen, stellt sich sofort wieder Frustration und Demut ein.
Hr. Baecker,
Zitat in #114:
„D.h. das Wetter nach ein paar Tagen unbestimmt ist. Das Klima ist die Statistik des Wetters und die ist für beide Kurven aber gleich!“
Also ist Klima genauso unbestimmbar wie das Wetter, oder was möchten sie mit ihrer Aussage darstellen?
hier ein weiteres Beispiel für berechenbares Chaos.
x(n+1) = r*x(n)*{1-x(n)}
http://en.wikipedia.org/wiki/Logistic_map
„At r approximately 3.57 is the onset of chaos, at the end of the period-doubling cascade. From almost all initial conditions we can no longer see any oscillations of finite period. Slight variations in the initial population yield dramatically different results over time, a prime characteristic of chaos. “
Um die Analogie zum Klima herzustellen: man möge die x(n) als Wetterzustände über die Zeit ansehen. Eine kleine Änderung in x(1) führen im chaotischen r-Regime dazu, dass ab ungefähr x(20) die beide Kurven weit auseinandergehen. D.h. das Wetter nach ein paar Tagen unbestimmt ist. Das Klima ist die Statistik des Wetters und die ist für beide Kurven aber gleich!
„Denken Sie doch an einen der Pioniere des Chaosforschung, den Metereologen Edward N. Lorenz
und seinen „Schmetterlingseffekt“.
= Nichtberechenbarkeit!“
Was soll an den Lorenzgleichungen nichtberechenbar sein? Haben Sie noch nie die Lösungen graphisch abgebildet gesehen?
Der Schlußsatz meiner Ausführungen war:
@ #103: Jochen Ebel, 27.06.2011, 11:22
„Obwohl diese Vergleiche Ihre Ausführungen die Richtigkeit des Treibhauseffekts nahelegen werden sie ihn wahrscheinlich wieder bestreiten.“
– und Sie haben meine Prognose bestätigt:
@ #111: Dr.Paul, 28.06.2011, 19:52
„… die Richtigkeit des Treibhauseffekts …
richtig wäre:
… die Unrichtigkeit des Treibhauseffekts …“
@ #111: Dr.Paul, 28.06.2011, 19:52
„seinen „Schmetterlingseffekt“ = Nichtberechenbarkeit!“
des Wetters über längere Zeit.
Aber das Thema des Threads ist nicht das Wetter, sondern das Klima:
@ #111: Dr.Paul, 28.06.2011, 19:52
„Das war doch hier das Thema“
MfG
#103: Herzlichen Dank Herr Jochen Ebel,
für die sinnvollen Ergänzungen,
allerdings ist Ihnen im Schlusssatz eine kleiner Tippfehler unterlaufen,
den ich hiermit korrigieren möchte:
„Obwohl diese Vergleiche Ihre Ausführungen die Richtigkeit des Treibhauseffekts …“
richtig wäre:
Obwohl diese Vergleiche Ihre Ausführungen die Unrichtigkeit des Treibhauseffekts …
Denken Sie doch an einen der Pioniere des Chaosforschung, den Metereologen Edward N. Lorenz
und seinen „Schmetterlingseffekt“.
= Nichtberechenbarkeit!
Das war doch hier das Thema 🙂
Gruß
Herr Statiker, #105
„Um den (chaotisch) streuenden Parametern zu begegnen wird bei technischen Rechenmodellen mit probabilistischen bzw. semiprobabilistischen Methoden gearbeitet.“
Bei Ensemblerechnungen der operativen Wettermodelle oder die wenigen durchgeführten bei Klimamodellen werden nur die Anfangsbedingungen probabilistisch in plausiblen Grenzen variiert, die Zeitentwicklung des Klimasystems wird aus dem Gleichungssatz deterministisch numerisch integriert.
Man setzt also zum Rechnungsstartzeitpunkt des Klimamodells, dieser liegt in der Vergangenheit, z.B. 1980, nicht nur die zu dem Datum gemessenen Wetterdaten und die Daten der externen forcings (Sonne, Vegetation, Meeresströmungen, Treibhausgase) als Anfangswerte zur Integration der dynamischen Gleichungen an, sondern variiert den Wetter- (und evtl. Ozean-) -zustand innerhalb klimatologisch plausibler Grenzen des Startpunktes.
#107: NicoBaecker sagt:
„Aber lassen Sie doch der Fairness wegen wenigstens das ständige Anfeinden mit ad hominem Argumenten.“
Herr Baecker, ich hatte Sie bislang für humorlos gehalten, ich hab mich ja sowas von geirrt ;-). Sehr pointiert, wirklich, und dies Selbstironie, einfach nur gut. Weiter so!
@ #107
O-Ton Baecker: “ Aber lassen Sie doch der Fairness wegen wenigstens das ständige Anfeinden mit ad hominem Argumenten.“ Da barmt der Richtige! Ich lade jeden ein an Hand seiner Beiträge nachzuprüfen, ob er sich an seine eigene Regel hält. Beiträge gibt es ja genug.
Michael Weber
Herr Weiss,
wenn Sie meine Beiträge nicht verstehen und glauben, besser zu wissen, was Wissenschaft ist als Lehrbücher, Uniangestellte und Veröffentlichungen, so lasse ich Sie in dem Glauben. Ich habe festgestellt, dass es sinnlos ist, Menschen, die schon so weit abgedriftet sind, noch zum Nachdenken zu bringen.
Aber lassen Sie doch der Fainess wegen wenigstes das ständige Anfeinden mit ad hominem Argumenten.
@104 Bäcker:
Ich wage hier die Prognose, dass Sie wahrscheinlich niemals KAPIEREN werden, wie weit Sie und die Ihrigen (IPCC, die von Ihnen als „populäre Klimagurus“ bezeichneten Schellnhuber und Rahmsdorf, etc.) von wahrer Wissenschaftlichkeit entfernt sind. Ihre Auslassungen über Klimamodelle sind ein beredtes Beispiel dafür: dass diese mit Wissenschaft nicht das Geringste zu tun haben, entgeht Ihnen dabei – selbstredend – vollkommen.
Dafür, dass Ihre pseudo-wissenschaftliche Basis dermassen dürftig ist, nehmen Sie den Mund ungebührlich voll (zum Beispiel gegenüber Herrn Schneider). Ich haben Ihnen schon x-mal gesagt, dass Sie sich nur schon durch die Art und Weise Ihrer Ausdrucksweise (zum Beispiel in Form penetranter Besserwisserei, die notabene durch nichts begründet ist, durch verlächerlichende Verhöhnung Ihrer Diskussionspartner hier, und weitere sehr negative Ausdrucksformen im Sinne von Zynismen, Sarkasmen, etc.) sich den üblichen Umgangsformen von wahren Wissenschaftlern weit entfernt zeigen, und Ihrer Sache, Ihrem quasi-religiösen CO2-Glauben, der wissenschaftlich von einer beispiellosen Primitivität und Verwahrlosung wissenschaftlicher Prinzipen zeugt (Behauptungen, Spekulationen, Prophezeiungen der Öffentlichkeit als Wahrheit auszugeben), nicht den geringsten Dienst tun (Gott sei Dank). Dadurch wird ja für alle, die Ihre Texte hier lesen, überdeutlich klar, wes Geistes Kind Sie sind und durch welches Weltbild Sie geführt sind. Mit wissenschaftlichen Prinzipien der unbedingten Vorurteilsfreiheit der untersuchten Sache gegenüber hat Ihr geistiges Korsett nicht das Geringste gemein, weswegen Sie auch niemals für einen wahren Wissenschaftler gehalten werden können.
Wenn es endlich gelänge, die Öffentlichkeit von der Unsinnigkeit einer „Globaltemperatur“ gründlich zu überzeugen, zerfällt Ihre ganze CO2 Welt sofort vollkommen: Sie haben dann kein Spielzeug mehr für Ihre Computerspiele alias Klimamodelle und es wird Ihnen niemand mehr zuhören, wenn Sie etwas vom drohenden Ertrinkungstod vieler Millionen Menschen in 500 Jahren daherfaseln …
Um den (chaotisch) streuenden Parametern zu begegnen wird bei technischen Rechenmodellen mit probabilistischen bzw. semiprobabilistischen Methoden gearbeitet.
Seriöse Berechnungen „auf den Punkt“ sind leider nur bei sehr einfachen Systemen machbar, wenn ein analytischer Lösungsansatz vorliegt.
So ist es z. B. nicht möglich, das Schwingungs- und Dämpfungsverhalten einer Fußgängerbrücke halbwegs brauchbar (richtig!) vorher zu berechnen. Für erforderliche Schwingungstilger und Schwingungsdämpfer erfolgt die Auslegung durch Messungen am gebauten Objekt.
Es sei auf die diesbezügliche umfangreiche technische Fachliteratur und z. B. DIN 1055-100 verwiesen.
Lieber Herr Schneider, #89
„und halten grundsätzlich alle andern Leute für dämlich.“
So würde ich das nicht formulieren, es hängt von den Leuten ab.
„Und lesen können Leute wie Sie auch nie“
Nun, das trifft für Sie offensichtlich nicht weniger zu!
Herr Schneider,
ich mußte ja schon über Sie lachen. Sie haben meinen Beitrag #91 auch nicht richtig gelesen oder zumindest nicht verstanden, wie kämen Sie sonst auf diese dumme Frage:
„Was glauben Sie, warum alle Klimaforscher, die mit der Erstellung von Klima- Simulations- Software befasst sind, sich die Mühe machen alle möglichen physikalischen Vorgänge die ich genannt habe, bis hin zum Einfluss der Sonne zu integrieren, wenn die Sache so einfach wäre wie Sie tun, dass alles nur eine Frage der Statistik ist?“
Es steht doch eindeutig dort, dass die Ausgangsdaten für die Angabe des Klimazustandes Wetterdaten sind.
Ich schrieb in #91, dass ein Klimamodell Wetterzustände entsprechend der relevanten physikalischen Prozesse inkl. externer wie der Sonnenaktivität und der Wechselwirkung mit anderen Geobiosphären modelliert, und dies die Daten für die Ermittlung des Klimazustandes sind, der mitnichten alleine den mittleren Wetterdaten entspricht, sondern die Kennzahlen der statistischen Verteilung der Wetterzustände!
Also nochmal für jeden Halbgebildeten unmissverständlich: ein Klimamodell modelliert Wetterzustände, die Statistik davon ist das Modellklima, genauso wie man aus realen Wettermessdaten den realen Klimazustand bestimmt!
Dr.Paul ich bin verblüfft von Ihnen mal etwas fast Richtiges zu lesen:
@ #101: Dr.Paul, 26.06.2011, 22:18
„Entropie ist eine extensive Größe in der Thermodynamik … und zwar definiert als Anzahl der Möglichkeiten.“
Ihren folgenden Satz, würde ich umstellen:
@ #101: Dr.Paul, 26.06.2011, 22:18
„In einem geschlossenen System verlangt der 2.HS immer die maximale Entropie,“
und zwar so:
„Ein geschlossenes System strebt immer dem Zustand maximaler Entropie zu, was der 2.HS beschreibt.“
In ihren folgenden Satz gehört auch noch „und Energieabfuhr mit Entropieabfuhr“, also statt
@ #101: Dr.Paul, 26.06.2011, 22:18
„in dem sich durch die beständige Energiezufuhr „stabile“ Zustände weit ausserhalb des thermodynamischen Gleichgewichts einstellen können,“
besser:
„in dem sich durch die beständige Energiezufuhr und Energieabfuhr mit Entropieabfuhr „stabile“ Zustände weit ausserhalb des thermodynamischen Gleichgewichts einstellen können,“
das beweisen z.B. die Lebewesen, die mit ständiger Energiezufuhr (Nahrung) und Energieabfuhr mit Entropieabfuhr (Wärmeabgabe des Lebewesens) stabil über lange Zeit leben (analog Klima). Dabei laufen gleichzeitig chaotische Vorgänge ab (z.B. Arbeit des Darmsystems usw.) (analog Wetter).
Obwohl diese Vergleiche Ihre Ausführungen die Richtigkeit des Treibhauseffekts nahelegen werden sie ihn wahrscheinlich wieder bestreiten.
MfG
@89 M. Schneider
Eine der grössten Unzulänglichkeiten in vielen Debatten – allgemein – ist das gleiche Verständnis der Debattanten der Definition wichtiger Begriffe, in Ihrem Wortwechsel mit Herrn Bäcker hier des Begriffs „Klima“. Da stellt sich schon gleich mal die Frage, wer den Inhalt eines bestimmten Begriffs allgemeingültig definiert. Wörterbücher, Nachschlagewerke, etc. gelten da ja im Allgemeinen als verbindliche Referenzwerke. Ich denke, dass die von Ihnen angeführte Definition von „Klima“ aus Wikipedia dem Anspruch eines, von der Allgemeinheit der Bürger und Spezialisten (besonders Meteorologen) des deutschen Sprachraums verstandenen und akeptierten, Inhalts des Begriffs gerecht wird.
Die Definition des Begriffs „Klima“ durch die sogenannte „Klimawissenschaft“ als eine statistische Grösse weicht eindeutig von der von Ihnen zitierten Definition ab. Um also Missverständnissen und Verwechslungen vorzubeugen wäre von der Klimawissenschaft zu fordern, ihren Begriff „Klima“ anders zu nennen, zum Beispiel „Amilk“.
Wenn Herr Bäcker dann von „Amilk“ spricht, wüsste man genau, dass er vom 30-jährigen Durchschnitt als „global“ berechneter Werte zum Beispiel der Temperatur 1.5 Meter über der Erdoberfläche spricht.
Die dem Geiste des IPCC nahestehende Klimawissenschaft arbeitet aber systematisch mit der Usurpation umgangssprachlicher, daher der Durchschnittsbevölkerung wohlgeläufiger, Begriffe, wie zum Beispiel „Treibhausgas“, „Klima“, „Globaltemperatur“, „globaler Meeresspiegel“, etc. Jeder dieser Begriffe ist für einen Durchschnittsbürger aber missverständlich und es werden völlig falsche Assoziationen geweckt, mit Absicht. Diese Absicht ist unwissenschaftlich und schäbig, da das Publikum vorsätzlich in die Irre geführt wird. Man will aber ja alarmieren und Aufmerksamkeit erregen, und Al Gore will ja viel Geld verdienen und wichig sein ….
Entropie ist eine extensive Größe in der Thermodynamik
wenn man sich auf die Physik beschränkt (was zunächst sinnvoll ist)
und zwar definiert als Anzahl der Möglichkeiten.
In einem geschlossenen System verlangt der 2.HS immer die maximale Entropie,
das heist hier verteilt sich „Molekülbewegung“ überall gleichmäßig, man kann es auch als maximale Unordnung bezeichnen, was aber möglicherweise zu Fehlschlüssen führt.
Eine Tablette Süßstoff hat sich also in einer Tasse Kaffee nach einer gewissen Zeit völlig gleichmäßig im Kaffee verteilt, auch ohne Umrühren. Mit Rühren geht es nur etwas schneller.
Entropie ist also nicht Energie oder Wärme selbst sondern ein Maß der Gleichmäßigkeit oder Ungleichmäßigkeit der Verteilung in einem dynamischen System.
Dabei ist die „Gleichmäßigkeit“ gemeint als größtmögliche (Bewegungs)freiheit.
Damit steigt die Entropie z.B. wenn ein Gasvolumen sich ausdehnen kann
und umgekehrt muss man nach dem 2.HS (äußere) Energie aufwenden (Druck) um das Gasvolumen wieder zu verkleinern und damit die Anzahl der Möglichkeiten für die Elemente wieder zu verringern.
Was die Relevanz für die Berechenbarkeit von Wetter und Klima anbelangt, ist sie deshalb nicht entscheidend,
weil die Erde thermodynamisch alles andere als ein geschlossenes System darstellt.
Sie liegt zwischen der heißen Sonne und dem kalten Weltall als dissipatives System,
in dem sich durch die beständige Energiezufuhr „stabile“ Zustände weit ausserhalb des thermodynamischen Gleichgewichts einstellen können,
worüber auch die Chaostheorie etwas aussagen kann.
Das sind Zustände die nach der Thermodynamik extrem unwahrscheinlich sind und auch statistisch nicht berechenbar sind.
Es ist eine (zeitlich begrenzte) Stabilität in der Bewegung, nicht in der Ruhe, die der kontinuierlichen Energiezufuhr bedarf.
Neben den bekannten Wetterkapriolen ist die unwahrscheinlichste Erscheinung im Sinne der Entropie die Entstehung von Leben (maximale chaotische Ordnung).
Nach Alt (Aachen) könnten die Pflanzen durch ihre Photosynthese den gesamten CO2 Vorrat der Atmosphäre in nur 6 Jahren verbrauchen.
#87
Lieber Herr Pual
Ich: „Chaostheorie ist Bestandteil der Mathematik. Mathematik ist keine Naturwissenschaft“
Sie: „Falsch!
Chaostheorie ist spätestens seit den 70ger Jahren ein anerkannter Zweig der Naturwissenschaft. Anwendungsbeispiele habe ich genannt!“
Es bleibt dabei, Chaos_theorie_ ist Bestandteil der Mathematik. Auch wenn sie von Naturwissenschaftlern henutzt wird, bleibt sie Mathematik. Wollen Naturwissenschaftler mit ihr etwas beschreiben, erstellen sie Modelle. Solange sie nur mit dem Modell arbeiten, ist es Mathematik. Naturwissenschaft wird es erst, wenn die Güte des Modell durch Experimente geprüft wird. Das sollten die AGWler erkennen, denn bei ihnen fehlen Experimente. Aber auch Sie sollten nicht stets den gleichen Fehler wie die AGWler machen: Ein mathematisches Modell ist nicht die Realität.
Lieber Herr Bäcker,
ich bin trotzdem anderer Meinung. Das Ensemblemittel nehmen heißt in einem nichtlinearen Modell, auch wenn es im Verifikationszeitraum geklappt hat meines Erachtens nur, dass man hoffen kann, dass es auch im Vorhersagezeitraum funktionieren könnte.
Weiter sind wir im Moment noch nicht. Zumindestens was ich bisher gelesen habe, aber vielleicht haben sie ja ein Zitat.
Zunächst mit der jetzigen Computerkapazität, dem jetzigen Verständnis zur Parametrisierung der Fundamentalprozess bereitet meines Erachtens auch noch eine assagekräftige Verifikation und die Vorhersage Schwierigkeiten.
Das erscheint mir aber normal für ein komplexes System.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Kinder,
sie können sich gerne ihre eigene Physik zusammenbasteln, aber die Thermodynamik ist so präzise wie immer. Zugegeben man muss sich sehr genau an die Definitionen halten, sonst kommt Unfug heraus. Ich persönlich habe festgestellt, dass es moderngeworden ist, die klassische Thermodynamik als Schrott zu bezeichnen. Diese Ausrede war zu meinen Unizeiten schon immer bei Nebenfächlern beliebt, die Schwierigkeiten damit hatten.
Ich bin allerdings nachwievor ein Fan von klassischer, irreversibler und statistischer Thermodynamik.
Und glauben sie mir so wie ich Ihnen den Zusammenhang zwischen Zustandsgrößen, Zustandsvariablen, totalem Differential , Entropie und Wärme beschrieben habe, kann man die Thermodynamik sehr gut benutzen und wird sie auch in allen Naturwissenschaften zum Erkenntnisgewinnbenutzt.
Und das ist ja letztendlich das Entscheidende.
Immerhin muss jedes physikalische Modell der Natur nach wie vor thermodynamisch konsistent sein, sonst muss es verworfen werden.
Zugegeben es wird viel Schrott über die Entropie gesagt und geschrieben, ihr synonymer Gebrauch von Entropie und Wärme gehört dazu.
Thermodynamik, Herr Kinder, ist kein Schrott, sondern das Fundament unserer Naturwissenschaft.
Mit freundlichen Grüßen
Günter Heß
Werter Herr Heß (#90),
„Entropie ist eine Zustandsfunktion und Wärme nicht. Die Entropie hat ein totales Differential, die Wärme nicht.“
Sie wollen mir bestimmt damit sagen, dass die momemtane Thermodynamik ein Haufen Schrott ist. Damit haben Sie nicht mal Unrecht. Die momentane Thermodynamik hat halt einige Krücken, mit denen sie durch die Wissenschaft humpelt.
Es gibt drei Größen, die Temperatur T, die Entropie S und die einer Arbeit gleichwertige Größe Q – „auf die der Name Wärme paßt“.
Temperatur T -> Wärme(-stärke)
Entropie S -> Wärme(-menge)
Arbeit/Energie Q -> Wärme(-arbeit/energie) -> Wärme(-menge)
Indem man der energetischen Größe Q die Bezeichnung „Wärmemenge“ gab und damit die ganzen Assoziationen, die mit diesem Wort verbunden sind, an diesem Begriff knüpfte, konnte man die Größe S nicht mehr anschaulich deuten; sie konnte nur formal eingeführt werden und mußte abstrakt bleiben. In dieser Lage wurde die Theorie noch dadurch fixiert, daß man die Gleichwertigkeit von Wärme und Arbeit zum ersten Hauptsatz der Wärmelehre erklärte und diesen Satz zu einem Eckpfeifer des ganzen Lehrgebaudes machte. Dies führte zu einem unlösbaren Widerspruch zwischen Theorie und Anschauung sowie zu einer Flut von abstrakten Begriffen.
Deshalb müssen dann Zwischen-Zustandsfunktionen (Krücken) wie Enthalpie (Wärmeinhalt) und Freie Energie definiert werden, um das Thermodynamik-Gebäude so einigermaßen im Lot zu halten. Dann wird eine Wärmekapazität definiert, die es eigentlich laut „momentaner Thermodynamik“ nicht geben drüfte, denn diese „Wärmekapazität“ ist in der Realität eine Entropiekapazität.
Mfg.
W. Kinder
@ #88: W. Kinder, 26.06.2011, 03:50
„Tatsächlich ist die Entropie aber eine der am leichtesten zu messenden Größen überhaupt.“
Unzutreffend. Entropie kann man gar nicht messen. Messen kann man z.B. Temperatur, Masse und einiges mehr, z.B. Energie, von der eine bestimmte Teilmenge die Wärme ist. Außer Energie in Form von Wärme gibt es z.B.
kinetische Energie,
potentielle Energie,
chemische Energie usw.
Entropie ist allein ein mathematisches Konstrukt, wobei man bei TdS = dQ in Wirklichkeit von dem anderen Zusammenhang dS = dQ/T ausgeht, weil dQ und T wirklich meßbare Größen sind. Dabei geht man davon aus, das sich in den Körper, der die Energie dQ erhält sich die Wärme zu einem Zustand maximaler Entropie verteilt. Bei einem Sytem mit vielen (in bestimmten Maße unabhängigen) Teilchen kann man das annehmen – aber in mit einer gewissen (geringen) Wahrscheinlichkeit ist sogar das nicht erfüllt.
Und die Entropie der Vakuumstrahlung können Sie schon deswegen nicht messen, weil der Faktor 4/3, den man der Vakuumstrahlung zuordnen muß, bei jedem Meßvorgang wieder verschwindet.
MfG
Lieber Herr Kinder #88,
noch eine Ergänzung : die Gibbsche Fundamentalform
dE = u*dQ + T*dS + µ*dn + p*dV + F*dr + v*dp + w*dL + gh*dm + M*da + s*dA + … .
ist das totale Differential der Zustandsfunktion E oder Zustandsgröße E. Das Differential gibt in der Tat an, auf welche Arten das System mit seiner Umgebung Energie austauschen kann. Beschreibt also zunächst eine differentielle Energieänderung. Die Zustandsgröße E hängt nun von einem Satz Zustandsvariablen ab, die das System im Zustand X charakterisieren.
Das Integral über dieses Differential gibt nun an um wie viel sich die Energie bei dem betrachteten Prozess ändert. Es ist also eine Änderung einer Zustandsgröße, die nicht mit der Zustandsgröße E selbst verwechselt werden kann und darf.
Das gleiche gilt für die differentielle Entropieänderung dS. Das Integral darüber ergibt eine Entropieänderung und darf auch nicht mit der Zustandsgröße Entropie verwechselt werden.
In meiner, sie bezeichnen das als orthodox, Definition von Wärme kann deshalb die Entropie nicht mit Wärme verwechselt werden.
Die physikalische Realität für einen Zustand ist immer die Zustandsgröße. Ein physikalischer Prozess wird beschrieben durch die Änderungen der Zustandsgrößen also dem Integral der Gibbschen Fundamentalform und damit dem Austausch von Materie und Energie mit der Umgebung.
Den Begriff „Wärme“ können sie natürlich nun in diesem Kontext wegen mir definieren wie sie wollen, sollten aber das dann immer dazu sagen.
Ich bevorzuge die orthodoxe thermodynamische Definition, die Wärme lediglich als Energietransportform zu betrachten.
Übrigens widersprechen sie sich ja auch, da sie in #88 schreiben:
„Die Zuordnung des Wortes Wärme zu der Energieform TdS schlechthin darf nicht darüber hinwegtäuschen, daß die Energieform TdS, ebenso wenig wie irgendeine andere Energieform, eine Variable eines physikalischen Systems ist.“
Denn die Entropie ist selbstverständlich ebenso wie die Temperatur eine Zustandsvariable oder die Zustandsgröße eines Systems. Entropie darf man auch nicht mit TdS verwechseln.
Das ist es ja genau, die Wärme in der schönen alten thermodynamischen Definition ist weder eine Zustandsfunktion noch eine Zustandsvariable. Die Entropie schon. Und damit wird klar, dass es gut ist Entropie und Wärme nicht synonym zu gebrauchen
Mit freundlichen Grüßen
Günter Heß
@91 Bäcker: Ihre ‚Globaltemperatur‘ ist wissenschaftlicher Unsinn, um nicht zu sagen wissenschaftlicher Mist. Alles, was Sie daran aufhängen (Klimamodelle, IPPC Berichte) ist wissenschaftlicher Mist.
Es besteht die Pflicht, die Öffentlichkeit darüber aufzuklären und finanziellen Schaden abzuwenden.
Wir werden nicht ertrinken oder verbrennen, wie IHRE geliebten Klimamodelle uns das prophezeien!
#82: Klima und Statistik (nicobaecker)
Chaos im mathematischen Sinne und statistische Aussagen sind inhaltlich NICHT identisch;
auch wenn chaotische „Ordnungsstrukturen“ ähnlich wie die Quantentheorie gelegentlich nur statistische Zustandsbeschreibungen zulässt.
Das war der tiefere Sinn des Artikels.
Man kann aber „das Klima“ nicht mit Hilfe von Statistik (reduktiv) einer chaotischen Gesetzmäßigkeit entziehen, wenn man damit irgend etwas physikalisches meint.
Insbesondere fragwürdig ist dieser Reduktionismus für den Begriff „Globalklima“ (Weltklima).
Man „rechnet“ hier sozusagen mit einer real nicht existierenden Fiktion.
Küstenklima, Kontinentalklima, Wüstenklima, Hochgebirgsklima sind jeweils Beschreibungen von real existierenden Wetterperioden, die ein Metereologe (physikalisch) „erklären“ kann (mit den bekannten Grenzen).
„Weltklima“ ist dagegen eine abstrakte „Definition“ für etwas, dessen realer Hintergrund eigentlich etwas im Dunklen bleibt um es vorsichtig auszudrücken.
Hier nun eine lineare Kausalität für einen einzigen Faktor, noch dazu ein so lächerlich winzigen (antropogener CO2-Anteil) berechnen zu wollen und entgegen aller bisher schon dazu erfolgten (negativen) Teste Prognosen für die ferne Zukunft zu erstellen,
ist schlimmer als Astrologie!
Es ist nicht nur unseriös,
sondern imho vorsätzlicher Betrug.
Im übrigen, wenn Sie trotz dieser Kritik an dem GLOBAL festhalten wollen, müssen Sie selbstverständlich gerade auch Vulkanausbrüche etc. „mitteln“, sie finden nun mal statt.
Freundliche Grüße
Herr Kinder,
wenn Sie unbedingt den physikalischen Begriff „Wärme“ als Zustandsgröße haben wollen und daher mit der Zustandsgröße Entropie äquivalent setzen, können Sie das ja für sich machen. Da dies jedoch nicht mit der Definition in der Thermodynamik übereinstimmt, müssen Sie notwendigerweise Ihre eigentümliche Konvention bei der Kommunikation in die übliche übersetzen, sonst sind masslos sinnlose Missverständnisse vorprogrammiert.
Lieber Herr Fischer, #79
in der Diskussion und auch in Edmonds Artikel geht einiges durcheinander.
Ein chaotischer Prozeß setzt die Naturgesetze nicht außer Kraft. Wenn ein System abgeschlossen ist und eine definierte Energiemenge hat, so bleibt diese konstant. Die Dynamik des Systems ist somit nur auf diejenigen Phasenraumzuständen beschränkt, die die Systemenergie haben und keine anderen. Das mögliche Chaos beschränkt sich also nur auf eine kleine Teilmenge aller Zustände des gesamten Phasenraumes.
Ein Klimazustand ist definiert als Zustand des Klimasystems, welche mit vorgegebenen Randbedingungen (Energieflüsse von und nach außen, Treibhausgasmengen, …) konform sind, d.h. es sind die Zustände des Klimasystems, die als Lösungen der physikalischen Prozesse bei diesen Randbedingungen eingenommen werden können. In der Regel sind dies mehrere mögliche Zustände, davon wird jedoch in Natur natürlich nur einer realisiert. Welcher das ist, hängt von der Vorgeschichte der Randbedingungen ab. An kritischen Punkten (Bifurkationen) ist ein Verzweigen auseinanderdriftender Klimazustände möglich.
Bei der Diskussion wird aber übersehen und bei der Klimaskeptikern wird dieses Missverständnis als vermeintliche wissenschaftsinterne Konfusion postuliert, dass ein Klimazustand KEIN bestimmter Wetterzustand ist oder eine bestimmte Sequenz von Wetterzuständen bedeutet, sondern einem ganzen Bündel von Wetterzuständen äquivalent ist! Diese Wetterzustände genügen alle den Randbedingungen!
Der Klimazustand wird durch die Statistik dieser Wetterzustände definiert. Also etwa die statistische Verteilung der Temperaturen an einem Ort. Der Klimazustand wird also nicht durch die Angabe der langfristig gemittelten Temperatur an diesem Ort definiert, sondern die statistische Verteilung der Temperaturen ist Teil der Zustandsbeschreibung des Klimas dort (dabei ist der Mittelwert nur eine von vielen Kennzahlen).
Wenn man also den Klimazustand empirisch ermitteln will, so muss man die Wetterzustände statistisch analysieren. Die Genauigkeit des Klimazustandes hängt vom Umfang der Statistik ab und diese wiederum (neben anderen Restriktionen) von der Dauer der Stationarität des Klimazustandes, was ebenfalls statistisch zu ermitteln ist.
Dieses Prinzip wendet man sowohl zur Klimabeschreibung der Vergangenheit an, wie auch für die Szenarien der Zukunft. Klimamodelle liefern als output eine Sequenz von Wetterzuständen, die viel gröber als heutige Wettervorhersagen sind und deren Sequenz wegen der fehlenden Anfangsbedingungen nicht mit der eingetroffenen Sequenz übereinstimmen, aber zumindest das empirische Klima näherungsweise wiedergeben.
Nun kann man also dasselbe Klimamodell mehrmals z.B. am 1.1.1900 starten lassen und bis 2100 durchlaufen lassen. Dabei werden bis heute die gemessenen resp. rekonstruierten zeitlichen Verläufe der Randbedingungen einsetzten und für die Zukunft Szenarien davon konstant gehalten. Variiert man die Anfangswerte am Startpunkt, so driften die Wettersequenzen der modellierten Ensemble mit der Zeit auseinander, einmal regnet es am 26.6.2011 über Berlin, einmal nicht.
Die Verifikation des Klimamodells kann nun so passieren, dass man das Klima jedes Ensembles entsprechend wie bei der empirischen Klimaermittlung aus den Ensemble-Wetterzuständen ermittelt (Zeitstatistik) oder auch die Statistik über die Ensembles macht (Scharstatistik). Die Abweichung der Zeitstatistiken der Ensembles gegenüber der empirischen Messdaten ist ein Maß für die Güte des Klimamodells. Wenn die Zeitstatistiken des Ensembles untereinander weniger abweichen als von den empirischen Daten, so hat das Modell einen systematischen Fehler. Wenn nicht, so beschreibt das Modell das empirische Klima über den Verifikationszeitraum hinreichend gut. In diesem Fall lohnt es sich die Scharstatistik des Modells zur genaueren Erfassung des Klimas heranzuziehen, denn empirisch liegt ja nur eine Realisation mit begrenzter Signifikanz vor.
Die Klimaszenarien und –modelle basieren also IMMER auf Wettersequenzen jenseits der deterministischen Vorhersagbarkeit des Wettermodells!
In Edmonds Artikel wird leider (absichtlich oder aus Unfähigkeit) nicht sauber differenziert:
Die Abbildung, die er aus einem random walk zufallsverteilter Größen generiert hat und beschrieben ist mit:
„Wenn ich nun ohne Beachtung der Skalen erzählt hätte, das wäre der Kurs im vergangenen Jahr für eine bestimmte Aktie, oder der jährliche Meerestemperaturverlauf gewesen, hätten Sie mir vermutlich geglaubt. Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.“
suggeriert Ähnlichkeit mit der globalen Mitteltemperatur, und Edmonds will suggerieren, dass man bei den Ergebnissen von Klimamodellen nur die Spitzenwerte sieht. Das ist so einfach nicht! Es werden nämlich von den komplexen Klimamodellen nur wenige Ensembles gerechnet (wegen des Rechenaufwandes), wenn Klimaoutputs verglichen werden, so sieht man in der Regel die Zeitmittel der Modelle, Ensemble-Spitzenwerte eines Modells existieren gar nicht, weil man für dasselbe Modell nur ein 1 bis 3 Ensembles hat. Wenn Edmonds suggerieren will, dass auch Modellergebnisse existieren, die einen grotesk anderen Verlauf des globalen Temperaturmittels zeigen, dies aber geheim gehalten wird, so ist dies eine Behauptung, die er mal klar formulieren soll und beweisen soll! Ein grotesk anderer Verlauf würde bedeuten, dass das Modell unbrauchbar ist, denn es ist leicht nachrechenbar, dass ein anderer Temperaturverlauf einen Verlauf der Energieflüsse benötigte, deren physikalische Gründe unerklärbar wären und daher auch nicht im Modell existieren! Ein grob anderer Temperaturverlauf wäre mit den Randbedingungen nicht konform – soviel Chaos ist nicht drin!
Lieber Herr Kinder #88,
sie schreiben:
„Mit Wärme (= Entropie) kann man Energie übertragen.“
Und gebrauchen damit in der Tat Entropie und Wärme synonym.
Das ist falsch.
Entropie ist eine Zustandsfunktion und Wärme nicht. Die Entropie hat ein totales Differential, die Wärme nicht.
Mit jedem Wärmetransport ist allerdings ein Entropietransport verknüpft.
Herr Ebel hatte sie leider doch richtig verstanden.
Mit freundlichen Grüßen
Günter Heß
82: nicobaecker sagt:
„Herr Schneider,
die Definition des Klimas in Wiki findet sich hier und deckt sich mit meinen Angaben, die ich vor kurzem bei Eike gemacht habe, suchen sie im archiv
http://de.wikipedia.org/wiki/Klima
Der Klimazustand ergibt sich aus der Statistik der Wetterzustaende. Herr Schneider, wenn sie alles als Bloedsinn bezeichen, was Sie nicht verstehen, leben Sie in einer reichlich beschraenken Gedankenwelt.“
Hallo Herr Baecker
Es ist wirklich lästig mit Leuten wie Ihnen. Sie leiden grundsätzlich an maßloser Selbst-überschätzung, glauben grundsätzlich selber alles zu verstehen und halten grundsätzlich alle andern Leute für dämlich.
Und lesen können Leute wie Sie auch nie, was ist das, irgendeine Art Reflex gleich immer Leute beleidigen zu wollen die Leuten wie Ihnen nicht zustimmen, schon dann wenn man das was diese sagen gar nicht richtig gelesen hat?
Damit werden Sie wohl nicht weit kommen und beeindrucken werden Sie damit niemanden.
Wenn Sie schon selber diesen link angeben, den ich ja selber benannt hatte, dann suchen Sie sich nicht irgend eine Zeile am Ende raus, sondern lesen Sie die Definition gleich am Anfang. Genau diese Definition am Anfang gibt real wieder worüber wir reden.
„Das Klima steht als Begriff für die Gesamtheit aller meteorologischen Vorgänge, die für den durchschnittlichen Zustand der Erdatmosphäre an einem Ort verantwortlich sind. Oder anders ausgedrückt: Klima ist die Gesamtheit aller an einem Ort möglichen Wetterzustände, einschließlich ihrer typischen Aufeinanderfolge sowie ihrer tages- und jahreszeitlichen Schwankungen. Das Klima wird dabei jedoch nicht nur von Prozessen innerhalb der Atmosphäre, sondern vielmehr durch das Wechselspiel aller Sphären der Erde (Kontinente, Meere, Atmosphäre) sowie der Sonnenaktivität geprägt. Es umfasst zudem unterschiedlichste Größenordnungen, wobei vor allem die zeitliche und räumliche Dimension des Klimabegriffs von entscheidender Bedeutung für dessen Verständnis ist.“
So, was gibt es wohl daran noch zu ergänzen. Sehen Sie sich diesen Satz genau an:
„Das Klima wird dabei jedoch nicht nur von Prozessen innerhalb der Atmosphäre, sondern vielmehr durch das Wechselspiel aller Sphären der Erde (Kontinente, Meere, Atmosphäre) sowie der Sonnenaktivität geprägt.“
Er beinhaltet alles das, was ich Ihnen gesagt habe. Und von Statistik steht da gar nichts.
Und ich frage Sie noch mal, nachdem sie mir beim ersten Mal schon nicht geantwortet haben:
Was glauben Sie, warum alle Klimaforscher, die mit der Erstellung von Klima- Simulations- Software befasst sind, sich die Mühe machen alle möglichen physikalischen Vorgänge die ich genannt habe, bis hin zum Einfluss der Sonne zu integrieren, wenn die Sache so einfach wäre wie Sie tun, dass alles nur eine Frage der Statistik ist?
Die sind nach Ihrem Verständnis alle blöd und haben alles nicht verstanden, hätten mal lieber Herrn Nico Baecker fragen sollen.
Ihre Statistik Herr Baecker können Sie sich an den Hut stecken, dafür gibt es nur das alte Wort von Churchill „ich glaube nur der Statistik die ich selber gefälscht habe.“
Bei Klimaprognosen spielen wir hier nicht mit Förmchen im Statistik- Sandkasten, sondern wir versuchen Klima in der Realität zu verstehen, eine Realität, von der Leute wie Sie glauben, dass Sie sie verstanden haben, per Statistik.
Das ist einfach nur lachhaft.
Anstatt sich an der Hauptdefinition des Begriffes Klima zu orientieren, haben Sie sich einen Teilaspekt der Ihnen genehm ist rausgepickt, die Statistik.
Die Statistik hat dabei aber nur eine Aufgabe, man versucht für einen Ort eine Glättung der Wetterspitzen, um kurzfristige Schwankungen des Wetters zu filtern und charakteristische Werte für verschiedene meteorologische Größen zu erhalten, welche in ihrer Gesamtheit wiederum das Klima eines Ortes beschreiben.
Man versucht Langzeittrends zu ermitteln.
Je wechselhaft aber das Wetter ist, je größer diese Schwankungen sind, desto weniger repräsentativ ist eine statistische Auswertung der Daten eines Referenzzeitraumes.
Selbst Langzeitauswertungen verlieren durch diese Schwankungen teilweise ihren Aussagegehalt.
Betrachtet man das Klima eines Ortes mit einem Referenzzeitraum von 1000 Jahren, so hat man sicher alle Extremereignisse gefiltert, jedoch gilt dies bei einem solch langen Zeitraum auch für alle kurzfristigen Schwankungen. Selbst wesentliche Trends, wie der der Kleinen Eiszeit, könnten durch die Wahl eines solchen Zeitraums schlicht übersehen werden.
Das ist wohlgemerkt alles eine rückwärtslaufende Statistik.
Wir reden aber über Klimaprognosen in der Zukunft. Da können Sie mit Ihrer Statistik gar nichts werden. Erst recht nicht, wenn ein vorher nicht dagewesener Faktor eintritt.
Dabei rede ich nicht mal von Vulkanen oder Meteoriten, die kommen noch zusätzlich dazu.
Ökofanatiker behaupten doch dauernd, der Anstieg des CO2 würde das Klima verändern.
Dann erzählen Sie mir doch mal bitte, wo die Auswirkungen des CO2 in Ihrer Statistik auftaucht, wenn der Anstieg bisher angeblich nie da war?
Herr Baecker, Sie haben sich mit Ihrer Statistik gerade selber ins Bein geschossen.
Sie machen sich die Welt zu einfach, Sie haben Klima nicht verstanden, das ist keine Schande, niemand weiß wie Klima funktioniert, aber anstatt das zuzugeben, wollen Sie aus Statistikdaten der Vergangenheit (und die sind auch schon mehr als begrenzt) das fehlende Wissen wie Klima funktioniert durch Statistik ersetzen.
Ein Gärtner der Kräuter anbaut und vermarktet ist deshalb noch kein Koch Herr Baecker.
Werter Herr Heß (#83)
„Die Entropie ist eben vor allem eine Zustandsfunktion eines Systems“
Warum wird ausgerechnet bei der Entropie betont, sie sei eine Funktion? Die Entropie ist zunächst eine physikalische Größe. Zur Funktion wird sie erst, wenn man sie in Abhängigkeit von anderen Größen darstellt. Je nachdem, welche anderen Größen man wählt, ist der funktionale Zusammenhang natürlich ein anderer.
Und warum wird betont, sie sei eine Zustandsfunktion oder Zustandsgröße? Alle extensiven physikalischen Größen sind Zustandsgrößen (und noch viele andere mehr), aber diese Tatsache ist so selbstverständlich, daß man sie normalerweise nicht erwähnt.
Tatsächlich ist die Entropie aber eine der am leichtesten zu messenden Größen überhaupt. Man kann Entropiewerte mit recht guter Genauigkeit mit Hilfe von Geräten bestimmen, die man in jeder Küche findet.
Zur Frage, was Wärme (Entropie) eigentlich ist oder wie man sie auffassen sollte, gibt es ein buntes Spektrum von Lehrmeinungen. Diese Vielfalt der Auffassungen über einen zentralen Begriff erinnert mehr an den Meinungspluralismus in den Geisteswissenschaften als an den sonst vorherrschenden Meinungskonformismus in den Naturwissenschaften.
Beispiele der Meinungsvielfalt:
+ Wärme ist die durch thermische Kontakte einem System zugeführte Energie.
(orthodox: Unter Thermodynamikern die verbreiteteste Auffassung)
+ Wärme ist die in der Molekularbewegung steckende Energie.
(mechanistisch: Die herrschende Meinung in einführenden Büchern)
+ Wärme ist ungeordnete Bewegung.
(Verallgemeinerung der zu engen mechanistischen Auffassung)
+ Wärme ist die zur Entropiezufuhr oder Entropieerzeugung erforderliche Energie.
(Erweiterung der restrikten orthodoxen Auffassung)
Mal ganz einfach ausgedrückt:
+ Die Temperatur charakterisiert den Zustand des „Warmseins“ eines Körpers, unabhängig von dessen Größe, Masse, Material, etc.
+ Die Wärme (= Entropie) ist etwas, das in dem Körper enthalten ist, abhängig von dessen Größe, Masse, Material, Temperatur, …
+ Die Energie ist etwas, das in allem enthalten ist. Alles ist Energie und für alles braucht man Energie. Mit Wärme (= Entropie) kann man Energie übertragen.
+ Es kostet Energie, die Entropie eines Systems zu verringern.
Physikalisch interessant ist weniger der Energieinhalt, sondern es sind vielmehr die Energieströme, weil die Energieströme Vorgänge und Prozesse charakterisieren.
Energie strömt nie allein, sondern braucht einen Energieträger. Energieströmung ohne Energieträger gibt es nicht. Diese Energieträger sind die bekannten physikalische Größen: Impuls p, Drehimpuls L, elektrische Ladung Q, Stoffmenge n, … und Entropie S. Der Zusammenhang zwischen dem Energiestrom und dem Energieträgerstrom ist sehr einfach, nämlich proportional.
Jede Energieänderung (Energieströmung, Energiefluss, Energietransport) dE eines Systems ist verbunden mit der Änderung, Strömung, dem Fluss, Transport, … mindestens einer anderen mengenartigen Größe dX, und dE lässt sich schreiben als Summe: dE = u*dQ + T*dS + µ*dn + p*dV + F*dr + v*dp + w*dL + gh*dm + M*da + s*dA + … . Diese Form nennt man Gibbssche Fundamentalform.
Die Zuordnung des Wortes Wärme zu der Energieform TdS schlechthin darf nicht darüber hinwegtäuschen, daß die Energieform TdS, ebenso wenig wie irgendeine andere Energieform, eine Variable eines physikalischen Systems ist. Eine Energieform ist ja nur Zustandsänderungen zugeordnet, aber nicht den Zuständen des Systems selbst. Anstatt also von Wärmeaustausch/-erzeugung oder Entwärmung eines Systems zu sprechen, ist es unmißverständlicher und an das Begriffsschema von physikalischen Größen oder Variablen besser angepaßt, von Entropieänderungen zu sprechen, wobei zusätzlich die Temperatur anzugeben ist, bei der die Entropieänderung erfolgt.
Um eine physikalische Größe zu definieren, muß eine Skala festgelegt werden, indem eine Einheit und eine Vorschrift für die Konstruktion von Vielfachen der Einheit festgelegt wird. Die Einheit der Energie 1 J ist als abgeleitete Größe über die SI-Basiseinheiten 1J = 1 kg*m^2/s^2 festgelegt. Die Vielfachen der Energie und Entropie ergeben sich trivialerweise aus der Mengenartigkeit der beiden Größen. Die Vielfachen der Temperatur und die Einheit der Entropie sind über die Gleichung P=T*I(s) oder dE=T*dS mit [S]=1 J/K festgelegt. Es ist diejenige Entropiemenge, mit der man bei Normaldruck 0,893 cm^3 Eis schmilzt. Der „krumme“ Wert bei der Festlegung der Temperatureinheit ergab sich aus der Forderung, die Temperaturdifferenz 1 K mit der früher festgelegten Celsius-Skala in Übereinstimmung zu bringen.
Mfg.
W. Kinder
#86: N. Koksch
„Chaostheorie ist Bestandteil der Mathematik. Mathematik ist keine Naturwissenschaft“
Falsch!
Chaostheorie ist spätestens seit den 70ger Jahren ein anerkannter Zweig der Naturwissenschaft. Anwendungsbeispiele habe ich genannt!
Sie ist insbesondere den AGW´lern ein Dorn im Auge!
Sie argumentieren also wie ein solcher.
Der Kern der Theorie ist die Irreversibilität und die PRINZIPIELLE Unberechenbarkeit von chaotischen Prozessen, TROTZ bekannter streng naturgesetzlicher Abhängigkeit.
Es ist nicht meine Theorie! Und nicht nur für mich ist sie die logische Begründung eines Sytemindeterminismus und positiv ausgedrückt die Selbstorganisationspotenz für prinzipiell neues (Emergenz).
Machen Sie sich damit vertraut!
Freundlichen Gruß
Lieber Herr Kinder,
meine „altmodische“ Definition unterscheidet lediglich Energietransportformen wie Arbeit und Wärme von den Energieformen wie chemische Energie, elektrische Energie, kinetische Energie oder potentielle Energie.
In der Thermodynamik benutz man typischerweise eine „ Energie“ des Systems als thermodynamisches Potential geschrieben. Zum Beispiel die freie Energie oder die innere Energie.
Arbeit und Wärme sind vom Prinzip her direkt Eins-formen, also Differentiale, aber keine vollständigen Differentiale. Ihr Integral ist wegabhängig. Man spricht zwar oft von historisch gesehen von „Wärmeinhalt“ aber das ist üblicherweise ein thermodynamisches Potential , die Enthalpie.
Jedes thermodynamische Potential („Energie“ wie innere Energie, Enthalpie) kann immer als vollständige Eins-Form(totales Differential) geschrieben werden.
Welches Potential verwendet wird hängt aus praktischen Gründen von der betrachteten Zustandsänderung ab.
Wenn sie das nun so schreiben:
„Die Entropie (Wärme) ist der Kapazitätsfaktor der thermischen Energie (Wärmeenergie).“
Ist es meines Erachtens zu stark verkürzt, um die Entropie zu verstehen und man wäre auf „Wärmeaustauschprozesse“ beschränkt, wie in der Definition von Clausius.
Die Entropie ist die Quantitätsgröße die zur Intensitätsgröße Temperatur gehört. S und T sind als Zustandsvariablen zueinander konjugiert und kommen als Paar in den verschiedensten thermodynamischen Potentialen vor. Aber diese Konjugation ist eine nützliche Merkregel und mitnichten eine vollständige Definition oder Betrachtungsweise der Entropie
Die Entropie ist eben vor allem eine Zustandsfunktion eines Systems und hängt von der inneren Energie U, dem Volumen V und den Stoffmengen Ni ab. Mikroskopisch gesehen ist sie mit der Zustandszahl verknüpft. In dieser umfassenderen Sichtweise von Boltzmann kann man die Entropie auch für allgemeinere Prozess berechnen, sofern die Zustandszahl bekannt ist.
Mit freundlichen Grüßen
Günter Heß
Herr Schneider,
die Definition des Klimas in Wiki findet sich hier und deckt sich mit meinen Angaben, die ich vor kurzem bei Eike gemacht habe, suchen sie im archiv
http://de.wikipedia.org/wiki/Klima
Der Klimazustand ergibt sich aus der Statistik
der Wetterzustaende.
Herr Schneider, wenn sie alles als Bloedsinn bezeichen, was Sie nicht verstehen, leben Sie in einer reichlich beschraenken Gedankenwelt.
Lieber Herr Fischer,
meines Erachtens ist die Vorhersagbarkeitszeit für Modelle deutlich kürzer, deshalb setzt man Ensemblemittel meines Wissens ja schon in der saisonalen Vorschau ein. Das 2100 hat wohl damit nichts zu tun.
Mit freundlichen Grüßen
Günter Heß
#72
Lieber Herr Paul, sie Schreiben:
„Sie bestehen auf Determinismus und halten bereits den Begriff des determinierten Chaos für den Beleg von Determinismus.“
Falsch, ich schrieb, dass die mathematischen Modelle entgegen Ihrer Auffassung deterministisch sind. Sie meinen, dass die Natur nicht deterministisch ist.
Sie schreiben:
„Eines ist dabei ohne Zweifel naturwissenschaftlich widerlegt:
DIE BERECHENBARKEIT (Vorhersagbarkeit) bestimmter deterministisch (eindeutig) formulierter (nicht linearer) Funktionen, gerade in der Natur (Wachstumskurven).“
In der Natur gibt es keine mathematischen Funktionen. Berechenbarkeit und Eindeutigkeigt sind verschiedene Eigenschaften von Funktionen
Sie schreiben: „Ich verstehe hier nicht ihr Gelabere zwischen Theorie und Praxis.“
Ich schrieb schon mehrmals, dass Sie — wie auch viele AGWler– Schwierigkeiten haben, zwischen Modell und Realität zu unterscheiden.
Sie schreiben: „Dass die Natur und das Wetter nicht berechenbar sind scheint ja konsensfähig zu sein. Die Chaostheorie beschreibt mit mathematischer Logik WARUM!“
Chaostheorie ist Bestandteil der Mathematik. Mathematik ist keine Naturwissenschaft. Mathematik beantwortet keine naturwissenschaftlichen Fragen, insbesondere auch nicht nach Warum.
Sie schreiben: „Natürliches Chaos wie das Wetter, ein Erdbeben oder der Herzschlag eins Menschen (Herzfrequenzvariabilität) können durch nichtlineare Gleichungen formal korrekt dargestellt werden, diese „deterministischen“ Gleichungen erlauben aber prinzipiell keinesfalls eine Aussage, wann das nächste Beben oder ein plötzlicher Herztod (ca. 100000 /Jahr in Deutschland) eintritt. Ein „geordnetes“ System kann also plötzlich umkippen im Sinne einer radikalen Änderung um dann vielleicht ein völlig anderes „Ordnungsgleichgewicht“ zu finden.“
Eben das ist falsch. Es gibt nur mehr oder weniger gute Modelle. Diese Modelle sind zwar deterministisch. Sie beschreiben den realen Vorgang aber nicht völlig exakt. Die Modell sind eben nicht formal korrekt. Außerdem sind die eingehenden Parameter nicht exakt bestimmbar. Modellfehler und Instabilität führen dazu, dass die Modellvorhersagen sehr schnell immmer schlechter werden.
Die Differentialgleichung zur Modellierung von Wetter sind völlig determistisch, deren Lösungen könnten für beliebig lange Zeit theoretisch beliebig genau berechnet werden, es ist nur eine Frage der Numerik, der Rechentechnik und des Aufwandes. Aber dies nützt nichts: Das Modell ist nur eine schwache Beschreibung der Realität. Die Eingangsdaten können nicht vollständig bestimmt werden. Die Instabilität des Modells bewirkt, dass die Modellvorhersagen sehr schnell unbrauchbar sind.
Nochmal: Das Modell ist deterministisch. Aber es ist nur ein Modell und nicht die Realität.
Die AGWler verwechseln Modell mit Realität und glauben, was der Computer berechnet hat, habe was mit der Realität zu tun.
Herr Schneider,
in 70 haben Sie einige richtige Dinge geschrieben, aber unterliegen einem grundlegendem Missverstaendnis, was die Klimaentwicklung der Zukunft anbelangt. Natuerlich weiss man nicht, ob ein gewaltiger Vulkanausbruch die Erde in einigen Jahrzehnten abkuehlen wird. Aber deswegen spricht man ja auch von Szenarien, die Aussagen machen, wie sich das Klima entwickeln wird, wenn die bekannten Faktoren vorgegebene szenarien durchlaufen.
Diese Ergebnisse mit der Begruendung zu ignorieren, dass man den ins Gegenteil fuehrenden Vulkanausbruch oder Meteoreinschlag nicht voerhersehen kann, halte ich ich fuer masslos duemmlich. Wenn Sie sich auf diese Position zurueckziehen, so auf Wiedersehen.
//// #66: nicobaecker sagt:
am Freitag, 24.06.2011, 17:30
Herr Schneider, #38
Da Klima die statistische Beschreibung des Wetters ist,“ ////
Das ist aber ziemlich absurd schon aus rein logischer Sicht. Wenn es für eine Woche keine Statistik des Wetters gibt, dann haben wir kein Klima für diese Woche? Und das ist die wissenschaftliche Definition?
Erstaunlich, dass die Klimawissenschaft nicht in der Lage ist, den Gegenstand ihrer Forschung vernünftig zu definieren.
Hallo Herr Günter Heß (#77),
fast korrekt und soweit richtig erkannt.
„Ich dagegen finde, dass dieses „altmodische“ benutzen des Begriffes „Wärme“ das Verständnis fördert und die wissenschaftliche Präzision erhöht.“
Da bin ich völlig anderer Meinung, dieses „altmodische“ benutzen fördert in keinem Fall die wissenschaftliche Präzision und das Verständnis.
Wie wir gerade an dieser Diskussion sehen.
Wärmelehre ohne Entropie und Entropieströme ist wie Elektrizitätslehre ohne elektrische Ladung und elektrischen Strom.
„Sie meinen das Gleiche. – NEIN“
„Laut Herrn Ebel: Entropie ist eine Qualität der Wärme, um so höher die Entropie ist, um so geringer ist die Qualität der Wärme.“
Jede Form der potentiellen Energie (mechanische, elektrische, chemische, strahlende und thermische Energie) läßt sich als Produkt zweier Faktoren darstellen. Dies sind der Kapazitätsfaktor, der ein Ausdruck für die Quantität ist, und der Intensitätsfaktor, der Aussagen über die Qualität macht. Die Entropie (Wärme) ist der Kapazitätsfaktor der thermischen Energie (Wärmeenergie).
Mfg.
W. Kinder
Lieber Herr Heß,
ich denke, Sie haben in #76 ein exzellentes Schlusswort unserer Diskussion gefunden. Edmonds Anliegen war doch etwas komplexer, als es auf den ersten Blick aussah.
Ein kurzer Nachtrag noch:
Liegt es nicht gerade an diesen benannten Problemen, dass die IPCC-Vorhersagen im Jahr 2100 enden und nicht weitergeführt werden?
„dann hofft man, dass man nachdem die Vorhersagbarkeit des deterministischen Systems auf Null abgefallen ist,…“
Bin auch kein Experte dieser Thematik, ich würde aber vermuten, dass die Mittelung über Ensembles gerade vorher einsetzt. Herr Bäcker, wissen Sie Bescheid?
#75: nicobacker sagt:
„Herr Schneider,
halten sie sich bitte an das, was in Lehrbuechern steht und versuchen Sie hier nicht, den Leuten ihre eigentuemlichen Vorstellungen zu verkaufen. Sie koennen in Lehrbuechern, dem Internet und im Eike archiv unter meinen Beitraegen nachlesen, dass Klima die Statistik des Wetter ist. Wer das nicht kapiert, disqualifiziert sich fuer jede Diskussion.“
Dann Herr Baecker sollten Sie ausscheiden, Sie haben die Definition dann eben selber nicht nachgelesen, ich habe nicht meine Vorstellung genannt, sondern habe die Definition Klima aus Wiki kopiert, um eine neutrale Basis zu haben.- Aber die großen Reden kennen wir ja alle von Ihnen.
Ich frage mich eines Herr Baecker, fällt Ihnen eigentlich nicht auf, was Sie für einen Blödsinn reden. Klima ist bei Ihnen nur Statistik.
Warum können Sie dann eigentlich nicht das Klima für die nächsten 50 Jahre vorhersehen, warum müssen sich denn Ihre grünen Klimaforscher mit Hölzchen und Stöckchen in ihren Modellen abmühen, wo es doch nur Statistik ist?
Lieber Herr Kinder, Herr Ebel,
Sie meinen das Gleiche.
Vielleicht sollte man deshalb noch zu ihren Ausführungen noch ergänzen, dass die Emission von Schwarzkörperstrahlung ins Vakuum irreversibel ist und mit Entropieproduktion einhergeht, die von der Strahlung exportiert wird. Im thermodynamischen Gleichgewicht zwischen zwei Körpern wird dieser Export vom anderen Körper exakt ausgeglichen.
Die Erde ist aber eh nicht im thermodynamischen Gleichgewicht mit der Sonne und auch nicht mit dem Weltall.
Deshalb ist die Entropieproduktion bei der „Absorption“ von Sonnenstrahlung deutlich größer, als bei der „Emission“ von Wärmestrahlung der Erde. Diese bei der „Absorption“ produzierte Entropie wird durch die Wärmestrahlung der Erde exportiert zusammen mit der ebenfalls bei der „Emission“ der Erde auftretenden Entropieproduktion.
Die Erde ist also fernab vom thermodynamischen Gleichgewicht und produziert fortwährend Entropie.
Das „Strahlungsgleichgewicht“ ist nur ein hypothetischer stationärer Zustand bzgl. des Energieinhaltes damit man rechnen kann. Er ist höchstens näherungsweise erfüllt, wenn man über längere Zeiträume integriert. Es ist aber ein nützliches Konzept Stationarität anzunehmen, um Gedankenmodelle aufzustellen. Aus ihren Ausführungen entnehme ich aber, dass sie das alles wissen.
Im Grunde habe ich das nur geschrieben, um Herrn Ebel zu zeigen, dass man Herrn Kinder im Kontext hätte verstehen können und Herr Kinder gezeigt hat, dass der synonyme Gebrauch von Wärme und Energie falsch ist. Einige behaupten ja immer das wäre altmodisch. Ich dagegen finde, dass dieses „altmodische“ benutzen des Begriffes „Wärme“ das Verständnis fördert und die wissenschaftliche Präzision erhöht. QED könnte man sagen.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Fischer,
man sollte trotzdem nochmal klar festhalten, dass Edmonds einen wichtigen Aspekt der Modellierung des Klimasystems beschrieben hat.
Ich glaube man muss verschiedene Fälle unterscheiden.
Ein deterministisches chaotisches System wird nur über eine bestimmten Zeitraum vorhersagbar sein. Nach einem bestimmten Zeitpunkt sinkt die Vorhersagbarkeit auf Null.
Ein deterministisches System, das vollständig von äußeren Einflüssen bestimmt ist wird vom Prinzip her vorhersagbar sein, solange man die externen Einflüsse genau vorhersagen kann und interne nichtlineare Effekte klein sind.
Nun ist unser Klimasystem sicherlich eine Mischung von Beidem.
Wenn ich nun die Ensemblemethode richtig verstanden habe, dann hofft man, dass man nachdem die Vorhersagbarkeit des deterministischen Systems auf Null abgefallen ist, man mit einem „stochastischen Modell“ plus „externe Forcings“ auf niedrigerem Niveau eine endliche Vorhersagbarkeit behalten kann.
Insofern mag Edmonds zu schwarz gemalt haben, was die Vorhersagbarkeit betrifft, aber Taminos Kritik springt deutlich zu kurz.
Nun ja. Meines Erachtens müssen die Modelle immer noch zeigen, dass sie eine Vorhersagefähigkeit besitzen.
Mit freundlichen Grüßen
Günter Heß
Herr Schneider,
halten sie sich bitte an das, was in Lehrbuechern steht und versuchen Sie hier nicht, den Leuten ihre eigentuemlichen Vorstellungen zu verkaufen. Sie koennen in Lehrbuechern, dem Internet und im Eike archiv unter meinen Beitraegen nachlesen, dass Klima die Statistik des Wetter ist. Wer das nicht kapiert, disqualifiziert sich fuer jede Diskussion.
Herr Ohle,
Sie koennen fuer sich als Klima definieren, was Sie wollen. in der Wissenschaft ist Klima als Statistik des Wetters definiert. Wenn Sie das nicht akzeptieren, ist das Ihr Problem.
#66: nicobaecker
das ist prinzipiell richtig,
Statistik ist allerdings kein Ersatz für physikalische Kausalität.
Der Chaosbeitrag soll aber doch klarstellen, dass die Beschränkung auf ganz wenige Faktoren falsch sein muss (Reduktionismus)
Die AGW- Modelle behaupten allerdings kausale Zusammenhänge berechnen zu können.
Das müssten sie aber dann auch beim „Wetter“ schaffen.
Beschränkt man sich auf Statistik,
so ist für die Frage des Einflusses eines einzigen Faktors (CO2) eine Korrelation zu fordern, die leicht mit der Klimavergangenheit zu überprüfen ist.
Diese Korrelation besteht NICHT.
Peinlich wird es für die AGW,
wenn man mit Datenmanipulation (Hokeystick) versucht, eine solche Korrelation vorzutäuschen.
Gruß
#64: N. Koksch
Lernen Sie erst mal argumentativ zu diskutieren,
persönliche Wertungen zeigen lediglich das Fehlen von Argumenten. Das Thema Chaos ist doch nun wirklich höchst interessant!
Was trennt uns bei der Beurteilung der Chaostheorie?
Sie bestehen auf Determinismus und halten bereits den Begriff des determinierten Chaos für den Beleg von Determinismus.
Was ist denn Determinismus?
Es ist möglicherweise die Vorstellung der klassischen Newtonschen Mechanik, „die Welt“ berechnen (vorhersagen) zu können, wenn nur alle „Ausgangsbedingungen“ bekannt wären. Herausragender Vertreter war bekanntlich Laplace, der die Stabilität der Planetenbewegungen des Sonnensystems durch mathematische Anwendungen der Newtonschen Bewegungsgesetze nachwies.
Er meinte wie viele seiner Zeitgenossen, dass durch logische Anwendung einfacher physikalischer Gesetze letztlich „alles“ berechenbar wäre, was auch die Philosophie (und Psychologie) nachhaltig bis heute beeinflusst hat im Sinne des „prinzipiellen“ Determinismus bis zum Fehlen des „freien Willens“ des Menschen(besser Entscheidungsfreiheit).
Eines ist dabei ohne Zweifel naturwissenschaftlich widerlegt:
DIE BERECHENBARKEIT (Vorhersagbarkeit) bestimmter deterministisch (eindeutig) formulierter (nicht linearer) Funktionen, gerade in der Natur (Wachstumskurven).
Ich verstehe hier nicht ihr Gelabere zwischen Theorie und Praxis.
Dass die Natur und das Wetter nicht berechenbar sind scheint ja konsensfähig zu sein.
Die Chaostheorie beschreibt mit mathematischer Logik WARUM!
Natürliches Chaos wie das Wetter, ein Erdbeben oder der Herzschlag eins Menschen (Herzfrequenzvariabilität) können durch nichtlineare Gleichungen formal korrekt dargestellt werden, diese „deterministischen“ Gleichungen erlauben aber prinzipiell keinesfalls eine Aussage, wann das nächste Beben oder ein plötzlicher Herztod (ca. 100000 /Jahr in Deutschland) eintritt. Ein „geordnetes“ System kann also plötzlich umkippen im Sinne einer radikalen Änderung um dann vielleicht ein völlig anderes „Ordnungsgleichgewicht“ zu finden.
Nichtlinearität ist also der Albtraum der „Reduktionisten“ wie Laplace, der bereits beim 3-Köpermodell (Sonne, Erde, Saturn) mit seiner Berechnungskunst am Ende war.
Reduktionisten nennt man die analytische Denkrichtung, die Systeme nur mit der Summe ihrer Teile definiert. Schon Aristoteles, der Begründer der Logik als Denkprinzip wusste es besser:
„Das Ganze ist mehr als die Summe seiner Teile“.
Chaostheorie kennt dafür sowohl für den einfachen mathematischen Fall: das Rückkopplungsprinzip nicht-linearer Funktionen (Autonomie), als auch die „ganzheitliche“ Betrachtungsweise, dass alles mit allem zusammenhängt und sich dabei Harmonie- und Ordnungsstrukturen ergeben, die überraschen, nicht berechenbar und neu sind, jedenfalls in den „Bausteinen“, aus denen sie hervorgehen, nicht enthalten sind.
Der Mensch mag ja gerne mit linearem Denken arbeiten, wenn er z.B. ein Auto konstruiert (davon verstehe ich weniger), die Natur arbeitet ganz sicher ganz überwiegend chaotisch.
Ich nenne diese nicht Berechenbarkeit Indeterminismus.
Besteht unsere Zukunft aus einer Mischung von determinierten und nicht determinierten Ereignissen, so bleibt die Summe von beidem zwangsläufig nicht berechenbar, zweifellos in gewissen Grenzen beeinflussbar.
„Wenn der Hahn kräht auf dem Mist, ändert sich´s Wetter oder bleibts wie´s ist.“
Gruß
Hallo Herr Jochen Ebel (#50),
„Wenn Entropie Wärme wäre, dann würde Energie aus dem Nichts entstehen (Perpetuum Mobile). Entropie ist eine Qualität der Wärme, um so höher die Entropie ist, um so geringer ist die Qualität der Wärme.“
Ich nehme mal an, sie verstehen den Begriff „wärme“ und „Entropie“ nicht ganz richtig.
Die Energieänderung dE = T*dS wird Wärme genannt.
Das Wort „Wärme“ bezieht sich damit auf den Vorgang der Änderung und nicht auf den Inhalt selbst, und auch nicht etwa auf die Differenz zwischen vorher und nachher. Wenn die Energie eines Systems in Form von Wärme zunimmt, so bedeutet das nicht, dass das System anschließend entsprechend mehr Wärme enthält. Das hört sich paradox an, liegt aber einfach daran, dass TdS nicht eine physikalische Größe im üblichen Sinn, sondern eine so genannte Differentialform ist. Diese merkwürdige Eigenschaft hat die Wärme gemeinsam mit anderen analogen Bildungen, nämlich der mechanischen Arbeit Fds, der elektrischen Energie oder Arbeit UdQ und der chemischen Energie oder Arbeit udn.
Manchmal wird die Wärmestrahlung mit Infrarotstrahlung identifiziert. Diese Festlegung hat historische Ursachen und ist aus heutiger Sicht sehr ungeschickt gewählt, denn sie legt ja nahe, nur Infrarotstrahlung transportiere Wärme, oder Infrarotstrahlung transportiere besonders viel Wärme, also zum Beispiel mehr als sichtbares Licht und mehr als Mikrowellenstrahlung. Um die Sache nicht unnötig kompliziert zu machen, nehmen wir an, dass es sich bei den drei Strahlungen um Schwarzkörperstrahlung handelt. Wir vergleichen also Strahlung von jeweils 100 W Mikrowellenstrahlung, Infrarotstrahlung und sichtbarem Licht.
Welche Strahlung transportiert die meiste Wärme?
Nimmt man als Wärmemaß die Energie, so kommt trivialerweise heraus, dass alle drei Strahlungen gleich viel Wärme transportieren. Nimmt man die Entropie als Wärmemaß, so transportiert wegen der Gleichung P = (3/4)*T*I(s) die Strahlung mit der niedrigsten Temperatur, also die Mikrowellenstrahlung, die meiste Wärme. In keinem Fall zeichnet sich also die Infrarotstrahlung aus.
Der Energiestrom P durch einen Wärmeleiter hängt mit dem Entropiestrom I(s) zusammen gemäß P = T*I(s). Für den Gesamtenergiestrom eines schwarzen Strahlers, also mit Schwarzkörperstrahlung transportierte Energie gilt eine ähnliche Beziehung P = (3/4)*T*I(s).
Was haben nun diese beiden Gleichungen miteinander zu tun?
Es kann gezeigt werden, dass es sich um Extremfälle handelt. Die erste Beziehung gilt für den Energiefluss zwischen zwei Körpern, die sich fast im Strahlungsgleichgewicht befinden, die zweite gilt, wenn das Strahlungsgleichgewicht maximal gestört ist.
Mfg.
W. Kinder
#66: nicobaecker sagt:
“Sie irren. Da Klima die statistische Beschreibung des Wetters ist, ist der Datensatz zu einer Beschreibung des klimas Vom Informationsgehalt kleiner und nicht groesser als des entsprechenden Wetters des betrachteten Raumes und Zeitraums.
Eine Klimaprognose ist somit informationsaermer als die entsprechende Wetterprognose, da erstere nur statistische Kenngroessen liefert.“
Hallo Herr Baecker
Das diese Aussage völlig falsch ist sieht man schon an der Definition von Wetter und Klima, ich hab sie ja gelistet.
Schon die Behauptung „statistische Beschreibung“ ist völlig falsch. Es werden keine Sandkastenspiele gemacht, sondern man will ganz real das Klima voraus sagen, nicht statistisch sondern real. (In meinen Augen völliger Unsinn, der Anspruch ist genauso, als wolle man die Zukunft voraus sehen)
Beim Wetter haben Sie vielleicht eine Handvoll bestimmender Parameter. Sie machen hier nämlich einen entscheidenden Denkfehler.
Die Meteorologen legen über das Gebiet des Atlantik beziehungsweise Europa ein Gitternetz mit, ich weiß nicht, vielleicht 200 km Kantenlänge und hangeln sich dann Mess- und Rechnungstechnisch von ihrem Azoren -Hoch Stückchen für Stückchen bis Mitteleuropa vor.
Das Verfahren ist genau das gleiche, das Dr. Andy Edmonds beschrieb bezüglich der Höhenmessung des Mount Everest vor der Erfindung von GPS und Radar-Satelliten. Die Methode der Höhenermittlung war, auf Meereshöhe mit einem Theodoliten zu beginnen und die lokalen Landmarken auszumessen, indem man deren Abstand und Winkel über dem Horizont maß, um die Höhe zu schätzen. Dann wurde von den vermessenen Punkten aus das Gleiche mit weiteren Landmarken gemacht. So bewegte man sich langsam im Binnenland vor.
Genauso hangeln sich die Meteorologen heute ebenfalls vor. Dabei entsteht zwar ein ungeheures Zahlenwerk von Stützstellen und Hilfswerten, die Zahl der Grundparameter wird deshalb aber nicht größer.
Genau das ist aber beim Klima völlig anders.
Beim Klima kriegen Sie eine ungeheure Zahl von völlig verschiedenen und unabhängigen Parametern.
Hier fließt alles ein, was in irgendeiner Weise eine physikalische Rolle spielt.
Sie müssen die Meeresströmungen berücksichtigen, Wirkungen von Golfstrom, Humboldtstrom, Nordatlantikstrom, Labradorstrom, Benguelastrom, um nur wenige zu nennen, kurz Sie müssen das globale Förderband berücksichtigen.
Sie müssen die Plattentektonik mit einbeziehen.
Sie müssen das Reflexionsverhalten des feinen Saharastaubs in der Atmosphäre berücksichtigen, ja sogar das Reflexionsverhalten der Meeresoberfläche je nach Größe der Wellen.
Sie haben es mit dem Reflexionsverhalten über Schneeflächen zu tun, Sie haben es mit Anormalitäten wie El Niño zu tun.
Sie haben es mit den verschiedenen Auswirkungen der Sonneneinstrahlung zu tun, Stichwort Sonnenflecken.
Wahrscheinlich spielt das Plankton in den Meeren eine Rolle, und ich weiß nicht was sonst noch alles, ich bin kein Klimaforscher, aber je mehr ich drüber nachdenke um so mehr fällt mir ein, was eine Rolle spielen kann.
Und wenn Sie das dann alles in einer Klimasimulationssoftware integriert haben, was Ihnen ohnehin nicht gelingt, weil niemand weiß wie Klima funktioniert, dann geht ihre ganze Simulation dennoch den Bach runter, nur weil irgendwo auf der Erde ein größerer Vulkan ausgebrochen ist und mit seinem Ascheeintrag in die Atmosphäre Ihre gesamte Simulation erledigt hat.
Kurz gesagt die Zahl der bestimmenden Parameter ist schier unendlich groß und das dann auch noch über Jahre und Jahrzehnte hochgerechnet.
#66 nicobaecker
„Da Klima die statistische Beschreibung des Wetters ist…“
Herr Becker, sind Sie noch zu retten. Haben Sie denn gar nichts begriffen. Wann wird Ihnen denn endlich klar das Wetter Struktur im Chaos ist.
Den Firlefanz können Sie sich sparen. Trotzdem mit MfG Christian Ohle
Herr Schneider, #38
Sie irren. Da Klima die statistische Beschreibung des Wetters ist, ist der Datensatz zu einer Beschreibung des klimas Vom Informationsgehalt kleiner und nicht groesser als des entsprechenden Wetters des betrachteten Raumes und Zeitraums.
Eine Klimaprognose ist somit informationsaermer als die entsprechende Wetterprognose, da erstere nur statistische Kenngroessen liefert.
#65: nicoBaecker sagt:
„geben Sie einem Physiker mal bitte einen ingenieurswissenschaftlich akzeptierten Grund, warum die allgemeine Gasgleichung in einem offenen System von Gas ihre hinreichdn gute Naeherung verlieren sollte“
Hallo Herr Baecker
Sie müssen schon mal richtig lesen bitte und zwar auch das, was vorher gesagt wurde!
Ich habe nicht gesagt, dass die Gasgleichung nicht mehr gilt, sondern es ging bei Herrn Ebel um die Messung der Temperatur in einem chaotischen, offenen System und dort wird T= f(x) und dann können Sie alleine mit der allgemeinen Gasgleichung nicht mehr arbeiten.
#60 Dr.Paul
Sie verstehen 🙂 Nicht unterkriegen lassen!
Hochachtungsvoll
Christian Ohle
Herr Schneider,
geben Sie einem Physiker mal bitte einen ingenieurswissenschaftlich akzeptierten Grund, warum die allgemeine Gasgleichung in einem offenen System von Gas ihre hinreichdn gute Naeherung verlieren sollte. Denken Sie mal an die kinetische Gastheorie…
ich denke nicht, dass verfahrendtechnische Prozesse, die in der reinen Gasphase aber in einem offenen System ablaufen, eine Modifikation der allgemeine Gasgleichung benoetigen.
Zur Erinnerung, die allgemeine Gasgleichung lautet
pV = nRT
#59
Lieber Herr Paul,
ihnen ist anscheidend genauso wenig zu helfen wie einigen AGWlern.
#2: Jochen Ebel sagt:
„Ein Beispiel für ein ganz chaotisches System ist ein Gasvolumen. Die Positionen und Geschwindigkeiten der vielen Moleküle sind kaum zu irgendeinem Zeitpunkt zu bestimmen – und selbst wenn sie bestimmt werden könnten, dann würden nach kurzer Zeit die vorhergesagten Positionen der Moleküle erheblich von den realen Positionen abweichen.
Und trotzdem gelten die allgemeinen Gasgleichungen mit geringen Toleranzen. Also ist Chaos und Vorhersagbarkeit kein Widerspruch. Auch bei dem Excel-Beispiel scheint der Mittelwert konstant zu sein.“
#30: D. Schulze sagt:
„Gelegentlich wird hier argumentiert, dass CO2 nur ein Spurengas ist und deshalb kaum Einfluss auf das Klima haben kann. Im Artikel wird jetzt aber gesagt, dass das Klima hoch chaotisch ist und eine kleine Parameteraenderung grosse Auswirkungen haben kann. – Das verwirrt mich und ich waere fuer eine Erklaerung dankbar.“
Hallo Herr Schulze, hallo Herr Ebel
Ich habe mir nun noch mal nicht nur den Artikel von Herrn Dr. Andy Edmonds genau durchgelesen, sondern mich auch noch mal etwas mit der Theorie Heisenberg, Lorenz, Chaos, Schmetterlingseffekt, Lorenz- Attraktor, Trajektorien usw. befasst.
Ich halte den Artikel von Herrn Edmonds für sehr gut und sehr anschaulich.
Zu Ihrer Frage Herr Schulze.
Ich denke Sie haben einen Denkfehler gemacht.
Im Chaos kann eine kleine Änderung der Anfangsbedingungen zu einem völlig anderem Verlauf der Vorgänge führen.
Diese Aussage ist aber nicht identisch mit dem was Sie jetzt impliziert haben, nämlich „Kleine Ursache große Wirkung“.
Außerdem liegt die Betonung auch noch auf dem Wort „kann“.
Zu Ihrer Aussage Herr Ebel.
Sie haben den Unterschied Ihrer Aussage zu dem großen „Atmosphäre – Gas Geschehen“ selber benannt. Sie sprechen von „Gasvolumen“.
Damit verwenden Sie aber die typische Thermodynamik und gehen von einem begrenzten Gasvolumen aus, quasi von einem Behälter.
Die Thermodynamik macht aber bei der Berechnung von Zuständen immer genaue Annahmen(Vorgaben) z.B
adiabat
Isochor
isobar
usw.
Das bedeutet, Sie begrenzen die Einflussgrößen, bzw. legen fest, welche Größe einen Einfluss haben soll oder nicht. Dann gilt die allgemeine Gasgleichung mit guter Nährung, das stimmt.
Das ist aber in einem offenen Atmosphärensystem nicht gegeben.
Schon wenn Ihr Behälter groß wird, werden Sie Probleme mit Ihrer Temperaturmessung bekommen, weil T= f(x) wird, also die Temperatur eine Funktion des Ortes wird.
Es kommen übergeordnete Vorgänge wie Wärmeleitung, Strahlung, Konvektion usw. ins Spiel.
Sie laufen dann sehr schnell auf die Navier- Stokes’schen Differentialgleichungen zu.
Ein System aus nichtlinearen partiellen Differentialgleichungen zweiter Ordnung, das die Impulsgleichung, die Kontinuitätsgleichung und die Energiegleichung vereint.
Lösen können Sie das System geschlossen nur noch für ganz einfache Fälle.
Lieber Herr Heß,
Mir zuckten schon die Finger und dann schrieben Sie:
„Allerdings zeigen meine Versuche, dass Tamino viel zu oberflächlich über das Argument von Edmonds hinweggegangen ist. Schon eher läge ein Argument in den fehlenden Randbedingungen bei der logistischen Gleichung von Edmonds. Das Klimasystem braucht ja die Kontinuitätsgleichungen, sowie Energieerhaltung als Randbedingungen.“
Ich denke, genau das ist der Kern, der Simulationen z.B. mit der logistischen Gleichung von der realen Wetterentwicklung unterscheidet.
Und dazu schreiben Edmonds und Tamino leider nichts (ich kann’s übrigens auch nicht).
Schöne Grüße
Lieber Herr Fischer,
sie schreiben:
„Ich würde jetzt meinen, wenn man diese Ursache (das unbekannte forcing in ihrem Beispiel) und ihre Auswirkungen verstanden hat, dann wäre es auch möglich, dieses in ein neues oder überarbeitetes Klimasimulationsprogramm zu implementieren und sinnvolle Prognosen zur Entwicklung z.B. der künfigen Wolkenbedeckung zu erhalten.“
Ich glaube da erwarten sie zuviel von den Computermodellen. Wir haben ein dynamisches nichtlineares System zu simulieren. Dass sinnvolle Prognosen herauskommen kann ich nicht erkennen. Sie sind ja auch zu vage, unterscheiden sich nur marginal von der schon beobachteten Variabilität und sind üblicherweise im Konjunktiv geschrieben. Das sagt eigentlich Alles.
Meiner Meinung nach kann man durch Computersimulationen viel lernen über einzelne Prozesse, wenn man andere Parameter konstant hält. Für das Verständnis des Klimasystems hilft das kolossal.
Aber nur begleitend. Man muss vor Allem messen, messen und messen. Aber das ist zeitintensiv und bringt weniger Veröffentlichungen.
Deshalb ist es ein wichtiger erster Schritt die Energieflüsse über die Systemgrenze lokal so genau wie möglich zu messen und dazu braucht es vor Allem die Messung der Wolkenbedeckung und der wolkenarten lokal über den gesamten Globus.
Sie schreiben auch:
Die Kernfrage laut Edmonds ist doch:
„Simulationsprogramme schreiben mit jedem Iterationsschritt chaotisches Wetter fort, selbst Läufe mit nahezu identischen Anfangsbedingungen führem bei Verwendung desselben Programms zu verschiedenen Läufen.
Kann die Mittelung über diese Läufe und verschiedene Programme überhaupt ein brauchbares Ergebnis zur Abschätzung bestimmter Klimaparameter erbringen?“
Na ja. Meine „Mathematica“-Versuche mit der diskreten logistischen Gleichung und 201 CUSUM-Plots ala Edmond mit Anfangswerten zwischen 0.29 und 0.31, typische Albedowerte zeigen, ca. 50% der Kurven zeigten fallenden Verlauf, ca. 50% steigenden Verlauf, so dass ich eher zu einem „funktioniert nicht“ tendiere, sollte die diskrete logistische Gleichung ein brauchbares Modell für so etwas sein.
Das muss ich mir allerdings noch überlegen. Scheint mir fast zu einfach.
Allerdings zeigen meine Versuche, dass Tamino viel zu oberflächlich über das Argument von Edmonds hinweggegangen ist. Schon eher läge ein Argument in den fehlenden Randbedingungen bei der logistischen Gleichung von Edmonds. Das Klimasystem braucht ja die Kontinuitätsgleichungen, sowie Energieerhaltung als Randbedingungen. Aber da muss ich erst noch weiter über nichtlineare Dynamik lesen.
Mit freundlichen Grüßen
Günter Heß
#46: Zitat Christian Ohl:
„Sollte sich im Klimasystem jemals ein stabiler Zustand einstellen wäre dies das Ende der Welt.“
Ein stabiles Hochdruckgebiet würde ich im Moment sehr begrüßen 🙂
#40: N. Koksch wiederholt:
„Ich schrieb ja schon, Sie verwechseln Modell (mathematisches dynamisches System / Differentialgleichungen) mit Realität. “
Sie scheine mich zu verwechseln!
Ich bin kein Freund der Treibhausmodelle, weil ich sie für falsch halte
Offenbar können Sie meine Beiträge nicht lesen.
MfG
#57: Jochen Ebel sagt:
“Kennen Sie das Doppelspaltexperiment mit einzelnen Photonen? Wo man mal keinen, einen oder den anderen Spalt verschließt?“
Sie meinen, dass Objekte aus der Quantenwelt sich in manchen Fällen nur als Wellen, in anderen als Teilchen beschreiben lassen.
Also Welle-Teilchen-Dualismus?
Ja, aber ich darf mal daran erinnern, wir reden nicht über Quantenphysik, sondern über Klima und Wetter und ich sehe hier einfach keinen Zusammenhang?
#51: M.Schneider, 23.06.2011, 09:45
„Das hat nichts mit verborgenen Parametern zu tun, sondern schon ein einzelnes Photon verändert das energetische System und wie wollen Sie bitte messen, ohne derartige Beeinflussungen?“
Kennen Sie das Doppelspaltexperiment mit einzelnen Photonen? Wo man mal keinen, einen oder den anderen Spalt verschließt?
MfG
Lieber Herr Heß,
entschuldigung für das falsche „Hess“ zuletzt, war ein Versehen.
Ich habe das Gefühl, Sie diskutieren eher die Frage der Richtigkeit der Modell und die daraus resultierende Frage nach der Höhe des anthropogenen Anteils.
Wenn ich Edmonds und Tamino richtig verstanden habe, geht es Edmonds aber eher um die prinzipielle Möglichkeit von Klimasimulationsprogrammen und er verneint dies mit Hinweis auf chaotische Prozesse.
Bleiben wir bei ihrem hypothetischen Beispiel der Wolkenbedeckungsänderung:
„Es könnte aber auch sein, dass ein unbekanntes „Forcing“ das 300 Jahre zurückliegt diesen Anstieg ausgelöst hat und die Zeitskalen der simultanen nichtlinearen Prozesses eben so wirken.
Mit dieser Unsicherheit müssen wir leben. Deshalb ist ihre Frage, ob ich es für Möglich halte, dass Chaos die Ursache für einen längerfristigen Trend ist, nur mit „kommt darauf“ an was Sie mit Ursache meinen beantworten kann.“
Ich würde jetzt meinen, wenn man diese Ursache (das unbekannte forcing in ihrem Beispiel) und ihre Auswirkungen verstanden hat, dann wäre es auch möglich, dieses in ein neues oder überarbeitetes Klimasimulationsprogramm zu implementieren und sinnvolle Prognosen zur Entwicklung z.B. der künfigen Wolkenbedeckung zu erhalten.
Natürlich ist damit nicht gemeint, dass man zufällige zukünftige Ursachen vorhersagen könnte, aber darum geht es auch nicht. Beim Vulkanismus kann kein Programm den Grad der Vulkanaktivität vorhersagen, diese Unsicherheiten des Zufalls sind von Chaos zu unterscheiden.
Die Kernfrage laut Edmonds ist doch:
Simulationsprogramme schreiben mit jedem Iterationsschritt chaotisches Wetter fort, selbst Läufe mit nahezu identischen Anfangsbedingungen führem bei Verwendung desselben Programms zu verschiedenen Läufen.
Kann die Mittelung über diese Läufe und verschiedene Programme überhaupt ein brauchbares Ergebnis zur Abschätzung bestimmter Klimaparameter erbringen?
Diese Frage hat Tamino nicht beantwortet, er beschränkt sich auf ein Gegenbeispiel mathematischer Natur.
Ich kann es nicht mathematisch oder physikalisch begründen (geht dies?), bin aber überzeugt davon, weil die Tests anhand vergangener Daten sehr vielversprechend sind.
MfG
Lieber Herr Fischer,
sie schreiben:
„Ich habe ihre Interpretation von Edmonds mit Interesse gelesen. Allerdings hat er dann sehr unscharf formuliert, er ist ja z.B. hier dann von fast allen in beiden Lagern falsch verstanden worden.“
Na ich habe nur versucht das anzuwenden, was Herr Ebel mir gesagt hat, als ich darauf hingewiesen habe, dass man Wärme und Energie nicht synonym gebrauchen darf oder mindestens sollte. Ich versuche die Argumente im Kontext zu verstehen. Tamino zum Beispiel versucht das meiner Beobachtung nach nicht. Er kritisiert bei Edmonds, dass dieser Mathematik mit Physik verwechselt, verwechselt aber meines Erachtens selbst ständig Statistik mit Physik.
Mit freundlichen Grüßen
Günter Heß
Lieber Herr Fischer,
sie schreiben:
„Aber ist das nicht genau das, was Tamino meines Erachtens zu Recht kritisiert? Das Chaos kann keine Entwicklung antreiben, das geht vielleicht in mathematischen Modellen, die Realität und ihre physikalischen Gesetze setzen einer Entwicklung durchaus Grenzen.“
Das gilt natürlich auch für die „anthropogenen Forcings“ des IPCC und die Feedbacks. In der Tat: „Math without physics is not physics“. Menschliche Konstrukte, also mathematische Beschreibungen, die in der Natur keine Entwicklungen antreiben. Wenn Tamino oder Sie schon mit diesem Argument kommen.
Wir beobachten ein Verhalten der Natur und beschreiben es mit „als ob“ Konstruktionen. Das „als ob“ wird häufig weggelassen ist eigentlich aber immer von Nöten.
Zum Beispiel. Im 20. Jahrhundert beobachten wir einen Anstieg der „Anomalie“ der globalen Mitteltemperatur. Übrigens eine rein anthropozentrische mathematisch-statistische Größe, um Beobachtungen zu beschreiben. Die Natur reagiert nur auf absolute Temperaturen.
Dieser Anstieg der Anomalie zeigt einen Verlauf „als ob“ ein externes „Forcing“ von X W/m2 den Energieinhalt des Erdsystems erhöht hätte.
Beobachtet man nun einen begrenzten Zeitraum, kann in einem nichtlinearen System dieses anscheinende externe „Forcing“ das ich während dieses Zeitraums schließe, immer auch durch eine Kombination von internen Freiheitsgraden und „Forcings“ aus früheren Zeiträumen verursacht worden sein. Im Grunde muss man die Zeitskalen aller Prozesse und aller internen Freiheitsgarde berücksichtigen. Eine Trivialität, die aber immer wieder in Erinnerung gerufen werden muss.
Nehmen wir die letzten 30 Jahre. Eine mögliche Erklärung des Anstiegs der „Temperaturanomalie“ wäre die Zunahme eines externen Forcings in diesen 30 Jahren.
Aber eben auch eine interne Variation der Wolkenbedeckung, die ein externes Forcing triggert, das sich dann in diesem begrenzten Zeitraum ausgewirkt hat.
Es könnte aber auch sein, dass ein unbekanntes „Forcing“ das 300 Jahre zurückliegt diesen Anstieg ausgelöst hat und die Zeitskalen der simultanen nichtlinearen Prozesses eben so wirken.
Mit dieser Unsicherheit müssen wir leben. Deshalb ist ihre Frage, ob ich es für Möglich halte, dass Chaos die Ursache für einen längerfristigen Trend ist, nur mit „kommt darauf“ an was Sie mit Ursache meinen beantworten kann.
Die Ursache dafür, dass wir einen Anstieg beobachten, oder die tatsächliche physikalische Ursache?
Der Begriff „Chaos“ beschreibt ja zunächst das aperiodische Verhalten eines nichtlinearen Systems, das uns Menschen zufällig oder verrauscht erscheint, aber nicht zufällig oder verrauscht ist. Chaos ist damit per Definition keine Ursache im physikalischen Sinne, sondern nur ein Begriff für eine Beobachtung.
Das chaotische Verhalten des beobachteten Systems im Zusammenspiel mit anderen konstanten oder sich ändernden externen Faktoren, kann aber dazu führen, dass wir einen Trend beobachten, den wir fälschlicherweise auf eine andere externe Ursache zurückführen. Denn die Wolkenbedeckung ändert die Albedo und damit die im System absorbierte Energie. Raum-zeitlich chaotisches Verhalten der Wolkenbedeckung führt also dazu, dass sich der Energiefluß über die Systemgrenze und damit der Energieinhalt des Systems ändern. Was wiederum alle „Feedbackprozesse“ mit ihren Zeitskalen auf den Plan ruft, die die Klimaforschung so anführt. Damit ist aus einer internen Änderung eine externe physikalische Ursache geworden, obwohl sich die Sonneneinstrahlung „total solar irradiance“ gar nicht geändert hat. Und wir Menschen beobachten einen Trend, den wir fälschlicherweise auf eine andere Ursache zurückführen, da wir ja die Wolkenbedeckung entweder gar nicht oder falsch oder nur unsicher bestimmt haben.
Als Naturwissenschaftler muss ich diese Möglichkeit immer berücksichtigen. Deshalb bin ich auch der Meinung, dass das wichtigste Projekt der Klimaforschung die räumlich-zeitlich aufgelöste Messung der Wolkenbedeckung ist, inklusive Wolkenarten. Schwierig zugegeben. Mich wundert es dennoch immer wieder, dass es kein internationales Großprojekt wie in der Teilchenforschung gibt, dass sich damit beschäftigt endlich Messdaten ran zubringen und zu veröffentlichen. Die Klimaforschung scheint mir mehr an Computersimulationen interessiert zu sein, als an Messdaten. Ist aber nur ein subjektiver Eindruck.
Mit freundlichen Grüßen
Günter Heß
P.S. Wie schließt denn die Klimaforschung eigentlich aus, dass nicht genau vor 378 Jahren ein Tipping Point erreicht wurde, der jetzt dazu führt, dass es wärmer wird?
Herr Ohle,
„Es wurde hier doch bereits hinreichend diskutiert, und selbst Herr Bäcker musste einräumen, dass insbesondere unter Berücksichtigung der Erkenntnisse der Quantenphysik das Verhalten in komplexen dynamischen Systemen prinzipiell nicht determiniert ist.“
Auch hier: Genauer lesen!
Um wessen Verhalten ging es? Von einem Gasmolekül oder der Temperatur des Gases?
Herr Ebel hat diesen Zusammenhang hier in #2 beschrieben, und Sie sollten sich hüten, Herrn Bäcker lächerliche Aussagen unterzuschieben.
Experiment:
Einem Gas wird eine Energie Delta_E zugeführt. Die Bewegung der Gasmoleküle ist und bleibt chaotisch, trotzdem kann die neue Temperatur problemlos und eindeutig berechnet werde.
PS:
Mein Beitrag, auf den Sie sich beziehen, war bewusst und absichtlich an Herrn Hess gerichtet.
Herr Hess versteht meine Texte und kann argumentativ darauf eingehen. Auf Beiträge wie diesen hier von mir habe ich ehrlich gesagt keine Lust mehr.
#48: Norbert Fischer
„Ein Erwärmungstrend … Deterministisch, d.h.: eine Ursache mit berechenbarer, eindeutiger Wirkung.“
Es wurde hier doch bereits hinreichend diskutiert, und selbst Herr Bäcker musste einräumen, dass insbesondere unter Berücksichtigung der Erkenntnisse der Quantenphysik das Verhalten in komplexen dynamischen Systemen prinzipiell nicht determiniert ist.
Wie kommen Sie dazu hier einfach das Gegenteil zu behaupten?
#42: Jochen Ebel sagt:
„Das man nicht gleichzeitig Ort und Geschwindigkeit bestimmen kann hat nichts mit Unsicherheiten in der Messung zu tun, sondern damit, dass sie bei jeder Messungen aktiv in das energetische System Molekül eingreifen. Kurz gesagt, durch die Messung selber prägen sie einen Impuls auf, der alles verändert.
Schon wieder falsch. Diese Erklärung hört man zwar oft, sie ist aber trotzdem falsch. Diese Erklärung impliziert eine Quantentheorie mit verborgenen Parametern – und die verborgenen Parameter sind längst ad acta gelegt.“
Sehr geehrter Herr Ebel
Es ist einfach nur lächerlich mit Ihnen, wenn Sie es schon nicht wissen, dann sollten Sie es wenigstens nachlesen.
Das hat nichts mit verborgenen Parametern zu tun, sondern schon ein einzelnes Photon verändert das energetische System und wie wollen Sie bitte messen, ohne derartige Beeinflussungen?
Diese Erklärung stammt übrigens von Heisenberg selber.
Man weiß lediglich heute, dass man die Unmöglichkeit gleichzeitig Ort und Impuls genau zu messen selbst dann nicht umgehen kann, wenn man erst den Ort genau misst und dann versucht den Impuls an einer Kopie des Systems zu messen.
Die Unbestimmtheitsrelation bleibt auch dann.
@ #49: W. Kinder, 23.06.2011, 04:16
„Aufgrund der Energie-Entwertung kann es auch niemals ein Strahlungsgleichgewicht in der Atmosphäre geben, weil bei der Emission als auch bei der Absorption von Strahlung Entropie (Wärme) erzeugt wird.“
Das ist falsch. Wenn Entropie Wärme wäre, dann würde Energie aus dem Nichts entstehen (Perpetuum Mobile). Entropie ist eine Qualität der Wärme, um so höher die Entropie ist, um so geringer ist die Qualität der Wärme.
Bei der Emission ändert sich die Entropie praktisch nicht (abgesehen von einem rechnerischen Vakuumfaktor von 4/3, der bei der Absorption wieder verschwindet). Bei der Absorption steigt die Entropie – aber diese gestiegene Entropie wird bei der Emission mit abgestrahlt. Deswegen ist die Entropie kein Argument gegen das Strahlungsgleichgewicht.
MfG
Hallo Herr Norbert Fischer (#45), Herr Christian Ohle (#47)
Die entscheidende Idee der Chaos-Theorie/Forschung, ist die Betrachtung der Gesamtheit im Zustandsraum.
Das Ziel der Chaos-Theorie/Forschung ist die Entschlüsselung der Strukturen/Ordnungen im Chaos.
Zum Beispiel: 4Münzen-Metapher (4 Münzen hochwerfen -> KKKK, KKKZ, KKZZ, KZZZ, ZZZZ)
+ Lokal unvorhersagbar (1 Wurf)
+ Global vorhersagbar (50 Würfe -> höchste Wahrscheinlichkeit bei KKZZ)
+ Der Zufall wird kalkulierbar/abschätzbar durch Blick aufs Ganze
„Die Natur kann auch selbst im Chaos nicht anders als regelmäßig und ordentlich verfahren (Immanuel Kant).“
Das Chaos wird bestimmt von der „Strukturbildung durch Symmetriebruch“, dem „Prinzip der Rückkopplung“, der „Zirkulären Kausalität“ und der „Ordnungs/Symmetrie-Sensitivität“.
Chaos in der Natur beruht auf Nichtgleichgewichtsstrukturen durch Energie-Entwertung (Materie+Energie -> Materie+Wärme).
Aus der Nichtlinearität folgt das „Prinzip der Rückkopplung“ mit der gegenseitigen Begrenzung zwischen den Antrieben und Dämpfungen. Das System erreicht dadurch eine dynamische Stabilität.
Ebenso ist die „Zirkuläre Kausalität“ auf die Nichtlinearität zurückzuführen, dabei wird die lineare Kausalität in der primitiven Form der Verkettung von Ursache und Wirkung durchbrochen (Schleifenbildung).
Aufgrund der Energie-Entwertung kann es auch niemals ein Strahlungsgleichgewicht in der Atmosphäre geben, weil bei der Emission als auch bei der Absorption von Strahlung Entropie (Wärme) erzeugt wird.
Diese Störung kann man zum Beispiel am Jahresgang der thermischen Struktur in der polaren Mesopausenregion (ca. 90-100 km) erkennen. Hier ist es im Sommer um bis zu 70 Grad (!) kälter als im Winter, obwohl die Sonne im Sommer bis zu 24 Stunden scheint, während es im Winter permanent dunkel ist. Diese drastische Abweichung vom Strahlungsgleichgewicht lassen sich auf den Einfluss von Schwerewellen aus den unteren Sphären und der Turbulenz zurückzuführen.
Mfg.
W. Kinder
Herr Ohle,
Sie tun keine Meinung kund, haben aber leider ein Argument vergessen.
Haben Sie das Wort „langfristig“ in meiner Aussage beachtet? Ich rede nicht von Variabilitäten in Zeiträumen eines Jahrzehnts, sondern von längerfristigen Trends.
Beispiel:
Ein Erwärmungstrend über einen langen Zeitraum hinweg muss eine Ursache haben, die Energie muss schließlich von irgendwo herkommen. Für diesen Zeitraum muss die Erde mehr Energie empfangen als sie selbst abstrahlt. Mögliche Gründe gibt es zuhauf in der Klimageschichte:
Änderungen der solaren Aktivität, der Konzentration der Treibhausgase, der Albedo uvm.
Wie gesagt: Deterministisch, d.h.: eine Ursache mit berechenbarer, eindeutiger Wirkung.
PS:
Zu ihrem #46
„Sollte sich im Klimasystem jemals ein stabiler Zustand einstellen wäre dies das Ende der Welt.“
Es mag Sie überraschen, aber im Vergleich zur Erdgeschichte waren die letzten 10.000 Jahre geprägt von einem ungewöhnlich stabilen Klima, was für die Entwicklung der menschlichen Zivilisation bedeutsam gewesen sein könnte. Dass in diesem ungewöhnlich stabilem Klima chaotisch ablaufende Wetterereignisse stattfinden, ist kein Widerspruch, warum auch?
Sehen Sie nun wenigstens, dass man auch kommunizieren kann ohne Rüpeleien wie „Sind sie denn von allen guten Geistern verlassen?“?
War mir ein Vergnügen.
#45: Norbert Fischer
Und Sie haben wieder mal gar nichts begriffen:
„Meines Erachtens verhalten sich Klimaparameter wie Wolkenbedeckung und globale Mitteltemperatur langfristig deterministisch“
Sind sie denn von allen guten Geistern verlassen?
#34: Dr. Paul
„na klar macht Wetter das Klima!!!!“
Sie gehen doch sicher mit: Klima ist das komplexe dynamische System.
In komplexen dynamischen Systemen bilden sich Strukturen wie Wirbel, Wirbelstürme,…
Diese Wirbel bestimmen/sind das Wetter, Wetter also als Struktur im Chaos.
Es ist die Folge und nicht die Ursache. Also doch „anders herum“ oder nicht?
MfG Christian
PS. „…dass sich immer wieder „stabile Systeme“ einstellen können“
Sollte sich im Klimasystem jemals ein stabiler Zustand einstellen wäre dies das Ende der Welt.
Lieber Herr Hess,
Sie zitieren Edmonds mit
„Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.“
Aber ist das nicht genau das, was Tamino meines Erachtens zu Recht kritisiert? Das Chaos kann keine Entwicklung antreiben, das geht vielleicht in mathematischen Modellen, die Realität und ihre physikalischen Gesetze setzen einer Entwicklung durchaus Grenzen.
Tamino formuliert prägnant: „Math without physics, is not physics.“
Das gilt meines Erachtens auch für ihr Beispiel der Wolkenbedeckung: Halten Sie es für möglich, dass das Chaos Ursache eines längerfristigen Trends sein kann? Dass infinitesimale Änderungen der heutigen Wolkenbedeckung zu völlig anderen Bedeckungsgraden in der Zukunft führen?
Meines Erachtens verhalten sich Klimaparameter wie Wolkenbedeckung und globale Mitteltemperatur langfristig deterministisch. Wenn es einen Trend in der Wolkenbedeckung gibt, dann bin ich sehr zuversichtlich, dass man auch eine Ursache benennen und die weitere Entwicklung prognostizieren wird. Einflüsse, die zufällig einwirken, z.B. Vulkanausbrüchen, sind auch kein Argument für Chaos, sondern für Zufall eben.
PS:
Ich habe ihre Interpetation von Edmonds mit Interesse gelesen. Allerdings hat er dann sehr unscharf formuliert, er ist ja z.B. hier dann von fast allen in beiden Lagern falsch verstanden worden.
#40 admin
„bitte Regeln lesen und befolgen.
N ist kein Klarname.
Ausnahmsweise freigeschaltet.
admin“
Muss man das verstehen? Wenn ich mir die Kommentare darüber ansehe kürzen etwa 50% der Schreiber ihren Vornamen ab, unser geschätzte Herr Paul nichtmal das?
Lieber Admin,
ich bin „N“ in #40. Da sollte eigentlich schon „N. Koksch“ stehen. Bei Ausfüllen des Formulars ist „N“ automatisch ergänzt angezeigt, dann aber wohl nicht übernommen worden. Vielleicht können Sie #40 dahingehend korrigieren.
#31 Dr. Paul
Sie schreiben: „Mir ist der Unterschied zwischen einer analytischen Formel und und einer numerischen Lösung (Wertetabelle, „Phasenraum“)bekannt.
Sie haben Probleme mit der Chaostheorie,
wenn Sie nicht akzeptieren, dass diese INDETERMINISTISCHE dynamische Systeme beschreibt!“
Lieber Herr Paul, ein (semi-)dynamisches System ist ein Tripel (T,X,F) aus einer Zeitmenge T, einer Zustandsmenge X und einer Operation F:TxX->X, welche unter anderem die (Halb-)Gruppeneingenschaft hat. Da ist nichts indeterministisch. Nicht umsonst wird bei Chaos von deterministischen Chaos gesprochen. Man kann auch stochastische Systeme betrachten. Da gibt es aber zusätzlich eine stochastische Störung. Das interessante am Chaos ist ja gerade, dass es einer deterministisch ist, wegen der hohen Sensitivität aber praktisch zu einer Nichtvorhersagbarkeit für lange Zeiten führt.
Sie: „Prinzipieller naturwissenschaftlicher Determinismus ist ein widerlegter Standpunkt der klassischen Physik (Newton).“
Ich schrieb ja schon, Sie verwechseln Modell (mathematisches dynamisches System / Differentialgleichungen) mit Realität. Was hat naturwissenschaftlicher Determinismus mit dem mathematischen Modell zu tun?
#39: M.Schneider, 22.06.2011, 11:04
„Das man nicht gleichzeitig Ort und Geschwindigkeit bestimmen kann hat nichts mit Unsicherheiten in der Messung zu tun, sondern damit, dass sie bei jeder Messungen aktiv in das energetische System Molekül eingreifen. Kurz gesagt, durch die Messung selber prägen sie einen Impuls auf, der alles verändert.“
Schon wieder falsch. Diese Erklärung hört man zwar oft, sie ist aber trotzdem falsch. Diese Erklärung impliziert eine Quantentheorie mit verborgenen Parametern – und die verborgenen Parameter sind längst ad acta gelegt.
@ #36: U. Langer, 22.06.2011, 10:41
„Wir kennen weder eine Gleichung, mit der man es erzeugen kann, noch die genauen Eingangsdaten.“
Die Eingangsdaten sind zwar nur in beschränkten Umfang bekannt – aber die Gleichungen kennen wir sehr genau. Die Physik hat heute einen hohen Stand erreicht.
MfG
Herr Ebel
„…Alles andere sind untergeordnete Parameter, die aber natürlich großen Einfluß auf die durchschnittliche Oberflächentemperatur haben…“
Darum geht es hier wohl doch am Ende.
#29: Jochen Ebel sagt:
„Das man Position und Geschwindigkeit von Molekülen nicht gleichzeitig bestimmen kann, geht auf die Heisenberg’sche Unschärferelation zurück.“
“Sie haben zwar mal etwas von der Heisenberg’schen Unschärferelation gehört – aber offensichtlich nicht verstanden. Natürlich kann man Position und Geschwindigkeit von Molekülen gleichzeitig bestimmen. Aber jede reale Messung hat eine bestimmte Unsicherheit“
Sehr geehrter Herr Ebel
Mal wieder so ein großspuriger Vertreter der Ökobewegung, der alle anderen für blöde hält.
Derjenige der hier etwas nicht verstanden hat sind Sie.
Das man nicht gleichzeitig Ort und Geschwindigkeit bestimmen kann hat nichts mit Unsicherheiten in der Messung zu tun, sondern damit, dass sie bei jeder Messungen aktiv in das energetische System Molekül eingreifen. Kurz gesagt, durch die Messung selber prägen sie einen Impuls auf, der alles verändert.
Die Messung der Position eines Quantenobjektes ist zwangsläufig mit einer Störung seines Impulses verbunden, und umgekehrt.
#30: D. Schulze sagt:
„Ebensowenig muss man das Wetter fuer die naechsten 14 Tage exakt berechnen koennen, um Vorhersagen ueber das Weltklima fuer die naechsten 100 Jahre zu machen.“
Also Herr Schulze
soll das ein Witz sein?
Definition Klima und Wetter:
Das Klima steht als Begriff für die Gesamtheit aller meteorologischen Vorgänge, die für den durchschnittlichen Zustand der Erdatmosphäre an einem Ort verantwortlich sind. Oder anders ausgedrückt: Klima ist die Gesamtheit aller an einem Ort möglichen Wetterzustände, einschließlich ihrer typischen Aufeinanderfolge sowie ihrer tages- und jahreszeitlichen Schwankungen. Das Klima wird dabei jedoch nicht nur von Prozessen innerhalb der Atmosphäre, sondern vielmehr durch das Wechselspiel aller Sphären der Erde (Kontinente, Meere, Atmosphäre) sowie der Sonnenaktivität geprägt. Es umfasst zudem unterschiedlichste Größenordnungen, wobei vor allem die zeitliche und räumliche Dimension des Klimabegriffs von entscheidender Bedeutung für dessen Verständnis ist.
Als Wetter bezeichnet man den spürbaren, kurzfristigen Zustand der Atmosphäre (auch: messbarer Zustand der Troposphäre) an einem bestimmten Ort der Erdoberfläche, der unter anderem als Sonnenschein, Bewölkung, Regen, Wind, Hitze oder Kälte in Erscheinung tritt.
Das heißt also, Wetter ist eine verschwindend kleine Untermenge vom Klima.
Wenn ich die Untermenge nicht bestimmen kann, kann ich die Obermenge erst Recht nicht bestimmen.
# 34 Dr. Paul
Lieber Dr. Paul,
logisch macht das Wetter das Klima, letztlich ist Klima Wetter mal Zeit, als Zeitrahmen sind von der WMO 30 Jahre mind. vorgegeben.
Ich habe schon interessante Reaktionen erlebt wenn ich glühenden AGW-Vertretern folgendes gesagt habe: „Wenn Ihr das Klima der Zukunft ändern wollt dann müsst Ihr das Wetter der Gegenwart ändern. Wie macht Ihr das eigentlich?“
Probieren Sie diese Argumentation mal aus, die Antworten und Reaktionen sind köstlich!
Sehr geehrter Herr Ebel,
der Verfasser des Artikels konnte nicht wissen, dass Sie Probleme haben, Modell und Realität zu unterscheiden. Dann dürfen Sie ihm nun nicht vorwerfen, dass er sein Beispiel nicht dementsprechend „idiotensicher“ formuliert hat. Bei jeder Erklärung muss man von einem bestimmten Ausgangsniveau ausgehen. Für Jemanden, der um die Unterschiede zwischen Modell und Realität weiß, ist die Formulierung des Autors völlig ausreichend. Dass Sie dieses Wissen hier nicht haben, ist nicht Schuld des Autors!
Also versuche ich es mal ganz einfach:
Bei dem Beispiel für ein chaotisches System aus obigem Artikel ist die Gleichung bekannt, mit der das System erzeugt wird und auch die genauen Eingangsdaten. So erstellt der Autor das System, dass er graphisch dargestellt hat. Nun ist das in einem realen chaotischen System ein wenig anders. Wir kennen weder eine Gleichung, mit der man es erzeugen kann, noch die genauen Eingangsdaten. Bei Ihrer Analogie „Klima“ wissen wir ja noch nicht mal, wie viele Eingangsdaten es gibt. Wir kennen nur das bisherige Ergebnis. Also beim Beispiel aus dem Artikel wäre das etwa die Grafik 2. Wir kennen also das Ergebnis für die Punkte 1 bis 1000. Da wir aber die Gleichung nicht kennen und die Ausgangsdaten bestenfalls in einem bestimmten Intervall eingrenzen können, schreiben wir ein schönes Computerprogramm, um diese Grafik nachzuvollziehen. Das gelingt uns bald annehmbar gut. Mit diesem Computerprogramm könnte man nun ein Szenarium für die nächsten 1000 Punkte erstellen. Die Frage ist, in wie weit dieses Szenarium richtig wäre? Schon bei diesem einfachen Beispiel wäre das nicht zu erwarten, denn das Programm gibt nicht die genaue Gleichung wieder, mit der das System erzeugt wurde und die Eingangsdaten sind auch nicht ganz genau die Selben! Und wie könnte man dieses Szenarium kontrollieren? Die einzige Chance bestände darin, die Ergebnisse der Vorhersage mit den mit der Ausgangsgleichung berechneten „realen“ Größen zu vergleichen. Also erst, wenn wir die „realen“ Punkte 1001 bis 2000 mit der Gleichung berechnen, können wir wissen, ob unser Szenarium das richtig gemacht hat. Aber auch dann können wir nicht sagen, ob wir mit diesem Programm auch die Punkte 2001 bis 3000 richtig bestimmen können! Vielleicht läuft ja unser Programm im Punkt 2500 von den „realen“ Werten weg und wird völlig chaotisch (siehe Grafik 1 im Artikel)!
Vielleicht haben Sie nun eine Ahnung, welche Unterschiede es zwischen Modell und Realität gibt.
MfG
PS: Auch meine Erklärung ist ja nur ein Modell! Auch dieses Modell hat 1-2 Haken, die in der Realität anders sind. Wenn Sie diese Haken finden, haben Sie das Problem begriffen.
Lieber Herr Fischer #13,
Tamino schreibt:
“His “drift” has nothing to do with chaos, I could get the same behavior by accumulating truly random numbers in a random walk.”
Das ist richtig, auch das könnte sein. Alles Zufall.Ist aber keine Widerlegung.
Edmonds schreibt:
„Wenn ich nun ohne Beachtung der Skalen erzählt hätte, das wäre der Kurs im vergangenen Jahr für eine bestimmten Aktie, oder der jährliche Meerestemperaturverlauf gewesen, hätten Sie mir vermutlich geglaubt. Was ich damit sagen will: Das Chaos selbst kann ein System völlig antreiben und Zustände erzeugen, die so aussehen, als ob das System von einem äußeren Antrieb gesteuert wäre. Wenn sich ein System so verhält, wie in diesem Beispiel, kann es wegen einer äußeren Kraft sein, oder ganz einfach nur wegen des Chaos.“
Edmonds schreibt meines Erachtens bewußt, dass er sein Beispiel eher didaktisch gemeint hat.
Man könnte jetzt streiten darüber, ob die Wortwahl, dass Chaos ein System „antreibt“ korrekt ist, aber das Beispiel von Edmonds zeigt, dass für menschliche Beobachter über kurze Zeiträume, und das sind 100 Jahre nunmal, ein chaotisches System erscheinen kann, als ob ein „Forcing“ das System angetrieben hätte.
Nehmen sie nur mal an, die Wolkenbedeckung im 20. Jahrhundert zeigt räumlich-zeitlich chaotisches Verhalten und dieses chaotische Verhalten überlagert einen natürlichem Zyklus. Im gleichen Zeitraum ist die Intensität der Sonneneinstrahlung von 1900 bis etwa 1960 angestiegen mit einem Plateau bis 2000. Dann können Sie den Beitrag des räumlich-zeitlichen chaotischen Verhaltens plus natürliche Variabailität plus „Forcing“ durch die Sonne von einem „anthropogenen Forcing“ experimentell nicht unterscheiden.
Darauf weist Edmonds meines Erachtens mit Recht hin. Tamino hat nur das übliche Bla für seine Jünger geliefert und etwas angeblich „widerlegt“, was Edmond nur beispielhaft gemeint hat.
Das nenne ich Ablenkungsmanöver, da Edmonds seine Kurve als Beispiel beschrieben hat, das selbstverständlich hinken kann..
Mit freundlichen Grüßen
Günter Heß
#14: Christian Ohle
na klar macht Wetter das Klima!!!!
Wer etwas anderes behauptet,
will, wie wir ja hier gut sehen können,
prinzipielle Chaosstrukturen verleugnen,
nach dem Motto:
ich kann das Wetter (heute) nicht erklären,
aber das Klima.
Das ist schlicht unlogisch.
Es gibt kein „anders herum“.
Verständnisprobleme mit Determinismus und Indeterminismus sind allerdings weit verbreitet.
Die praktische „Beobachtung“ z.B. hier von #24: M.Schneider wiedergegeben,
zeigen doch, dass auch längeres Wetter- bzw. Klimaperioden (bisher) in ihrem Verlauf nicht erklärbar sind.
Es gibt nun zwei Lager, die einen sagen, uns fehlen noch Daten, dann können wir das erklären (Komplexizität),
die anderen sagen, das Wetter UND das Klima sind prinzipiell indeterminiert (Chaostheorie).
Die „Zwischenlösung“ das Wetter sei indeterminiert, das Klima aber determiniert,
ist schlicht unlogisch, nicht nur aus geschichtlicher Betrachtung.
Dem widerspricht nicht, das macht ja geraden den Reiz des Chaos aus,
dass sich immer wieder „stabile Systeme“ einstellen können, wobei „stabil“ in der Realität immer zeitlich begrenzt bleibt.
Gruß
#26 Jochen Ebel:
„Beim Klima gibt es nur einen wesentlichen Parameter: Die Erde muß genau so viel abstrahlen, wie sie von der Sonne empfängt. Alles andere sind untergeordnete Parameter, die aber natürlich großen Einfluß auf die durchschnittliche Oberflächentemperatur haben – Albedo und Ausbreitungswiderstand zwischen Erdoberfläche und Weltall“
Eine Forderung „sie muss“ ist noch kein Parameter, Herr Ebel, aber sagen Sie das doch mal ihren Treibhausvertretern, damit sie ihre Modelle korrigieren !
Und Ihr zweiter Satz widerspricht dem ersten!
Gruß
20: N. Koksch
„den Skeptikern ist nicht gedient, wenn unwissenschaftlich argumentiert wird.“
dem stimme ich zu!
ich verwechsle jedoch nichts!
Mir ist der Unterschied zwischen einer analytischen Formel und und einer numerischen Lösung (Wertetabelle, „Phasenraum“)bekannt.
Sie haben Probleme mit der Chaostheorie,
wenn Sie nicht akzeptieren, dass diese INDETERMINISTISCHE dynamische Systeme beschreibt!
Prinzipieller naturwissenschaftlicher Determinismus ist ein widerlegter Standpunkt der klassischen Physik (Newton).
Das bedeutet keineswegs, das alles indeterministisch verläuft.
Realität ist daher eine Mischung aus deterministischen und indeterministischen Abläufen.
Dabei ist der deterministische Ablauf der Sonderfall.
Das hat philosophische erkenntnistheoretische Qualität.
Auf das Wetter übertragen bedeutet das,
auch wenn alle Ausgangsbedingungen bekannt wären,
ist der Wetterverlauf trotzdem nur für eine (sehr) begrenzte Zeit vorherzusagen, wobei sich bekanntermaßen stabilere Zustände mit instabileren abwechseln.
Über diese Zeit der Vorhersagbarkeit sagt der Ljapunov-Exponent etwas aus.
Besonders interessant ist die „berechenbare“ und beobachtbare Möglichkeit „stabiler Systeme“ weit ausserhalb des thermodynamischen Gleichgewichts.
LEBEN ist physikalisch gesehen ein solches dissipatives System weit außerhalb des thermodynamischen Gleichgewichts, seine Existenz ist von permanenter Energiezufuhr abhängig.
Geht man nur mit statistischen Überlegungen an solche Zustände heran,
könnte es z.B. kein Leben geben,
es ist schlicht zu unwahrscheinlich 🙂
Gruß
Ist die Klimageschichte der letzten 500.000 Jahre nicht ein schönes Beispiel dafür, wie deterministisch die globale mittlere Temperatur den Forcings folgt? Von Chaos keine Spur.
@ jochen ebel
Nennen Sie in Zukunft Rahmstorf oder Schellnhuber „Schwachköpfe“, dann gibt’s keine Probleme.
#28: M.Schneider sagt:
„Die allgemeine Zustandsgleichung […]. Sie hat überhaupt nichts mit der Thematik Unschärferelation, bzw. chaotisches System zu tun.“
Genau, dass wollte uns Herr Ebel sagen. Selbst in einem chaotischen System (die Molekuele eines Gases), kann man sehr praezise Vorhersagen machen, wenn man sich auf statistische Groessen (T,p) beschraenkt und ueber ein grosses Ensemble mittelt. Man muss ueberhaupt nicht den Zustand eines jeden Molekueles kennen und den Druck zu berechnen.
Ebensowenig muss man das Wetter fuer die naechsten 14 Tage exakt berechnen koennen, um Vorhersagen ueber das Weltklima fuer die naechsten 100 Jahre zu machen. Allerdings wuerde sicher niemand ernsthaft behaupten das die Klimamodelle aehnlich praezisse sind, wie die Gastheorie.
Gelegentlich wird hier argumentiert, dass CO2 nur ein Spurengas ist und deshalb kaum Einfluss auf das Klima haben kann. Im Artikel wird jetzt aber gesagt, dass das Klima hoch chaotisch ist und eine kleine Parameteraenderung grosse Auswirkungen haben kann. – Das verwirrt mich und ich waere fuer eine Erklaerung dankbar.
Gruss,
Schulzi
@ #28: M.Schneider, 21.06.2011, 15:01
„Das man Position und Geschwindigkeit von Molekülen nicht gleichzeitig bestimmen kann, geht auf die Heisenberg’sche Unschärferelation zurück.“
Sie haben zwar mal etwas von der Heisenberg’schen Unschärferelation gehört – aber offensichtlich nicht verstanden. Natürlich kann man Position und Geschwindigkeit von Molekülen gleichzeitig bestimmen. Aber jede reale Messung hat eine bestimmte Unsicherheit. Die Heisenberg’sche Unschärferelation sagt nur aus, daß das Produkt der Unsicherheiten von Position und Geschwindigkeit einen bestimmten Grenzwert nicht unterschreiten kann. Aber selbst wenn die Heisenberg’sche Grenze nicht existieren würde, würde dieses Produkt doch nie Null werden.
Und da es nie Null wäre, kann die Entwicklung nach kürzerer oder längerer Zeit nicht vorausgesagt werden. Wobei bei jeder Kollission die mechanischen Gesetze gelten – aber wegen der Unsicherheit der Daten der zusammenstoßenden Teilchen und der Heisenberg_schen Unschärferelation haben die Daten der Teilchen nach der Kollision eine bestimmte Unschärfe.
@ #28: M.Schneider, 21.06.2011, 15:01
„Die allgemeine Zustandsgleichung beschreibt den Zustand des idealen Gases bezüglich der Zustandsgrößen Druck p, Volumen V, Temperatur T und Stoffmenge n.
Sie hat überhaupt nichts mit der Thematik Unschärferelation, bzw. chaotisches System zu tun.“
Aber sicher sind die Zustandsgrößen Druck p, Volumen V, Temperatur T bei gegebener Stoffmenge n Auswirkungen der chaotischen Bewegung der Moleküle.
Auch die Druckmessung ist mit einem Fehler behaftet. Der Druck resultiert aus den Molekülstößen auf die Gefäßwand – und kann deshalb nicht konstant sein. Je kürzer die Meßzeit (= Mittelungszeit über die Stöße) um so größer ist die Druckschwankung.
MfG
#2: Jochen Ebel sagt:
„Der Artikel ist schwachsinnig.
Ein Beispiel für ein ganz chaotisches System ist ein Gasvolumen. Die Positionen und Geschwindigkeiten der vielen Moleküle sind kaum zu irgendeinem Zeitpunkt zu bestimmen – und selbst wenn sie bestimmt werden könnten, dann würden nach kurzer Zeit die vorhergesagten Positionen der Moleküle erheblich von den realen Positionen abweichen.
Und trotzdem gelten die allgemeinen Gasgleichungen mit geringen Toleranzen.“
Hallo Herr Ebel
Was ist das denn für eine Behauptung.
Das man Position und Geschwindigkeit von Molekülen nicht gleichzeitig bestimmen kann, geht auf die Heisenberg’sche Unschärferelation zurück.
Das ist Quantenmechanik, das ist Mikrokosmos.
Die allgemeine Gasgleichung (ich weiß nicht welche Gleichungen Sie meinen wenn Sie im Plural sprechen) ist die thermische Zustandsgleichung idealer Gase.
Die allgemeine Zustandsgleichung beschreibt den Zustand des idealen Gases bezüglich der Zustandsgrößen Druck p, Volumen V, Temperatur T und Stoffmenge n.
Sie hat überhaupt nichts mit der Thematik Unschärferelation, bzw. chaotisches System zu tun.
@#22
Klasse Antwort, ich als absoluter Laie stimme Ihnen zu.
@ #19: Ben Goldberg, 21.06.2011, 09:41
„Hier handelte es sich um genau einen Parameter. Wie viele Parameter bestimmen das Wetter? Wie viele Parameter bestimmen das Klima?“
Beim Klima gibt es nur einen wesentlichen Parameter: Die Erde muß genau so viel abstrahlen, wie sie von der Sonne empfängt. Alles andere sind untergeordnete Parameter, die aber natürlich großen Einfluß auf die durchschnittliche Oberflächentemperatur haben – Albedo und Ausbreitungswiderstand zwischen Erdoberfläche und Weltall.
#22: U. Langer, 21.06.2011, 11:13
„Sie haben ja noch nicht einmal erkannt, dass das Excel-Beispiel aus dem Artikel nicht wirklich ein chaotisches System ist.“
Sie bestätigen, was ich über die Qualität des Papers gesagt habe, denn in dem Artikel steht:
„Die einfachste vom Menschen aufgestellte Gleichung zur Erzeugung von Chaos …“
Also versteht nicht mal der Schreiber des Papers zum Chaos, was Chaos ist!
MfG
@20: Koksch
Sie sprechen mir aus dem Herzen: Bestätigung durch das Experiment.
Was meinen Sie, wie oft ich schon versucht, diesen an sich völlig selbstverständlichen Sachverhalt den Eponenten des AGW Glaubens (vor allem den Herren Schellnhuber, Rahmstorf, Fischer und Bäcker) klar zu machen: Bis dato ohne jeden Erfolg.
Das ist für mich auch praktisch ein Beweis, dass die genannten Herren entweder einfachste Prinzipen des wissenschaftlichen Arbeitens entweder nicht kennen, oder bewusst ignorieren. Und beides wäre unverzeihlich.
Liebe Leser
Ich verfolge ja nun selber schon einige Jahre die ganzen Diskussionen um die Klimaveränderungen.
Komplizierteste Theorien, Strahlungsflüsse, Gegenstrahlung, Bethe-Weizsäcker-Zyklus, Wasserdampfrückkoppelung, anthropogenes CO2, Lösungsgleichgewicht Erdatmosphäre-Ozeane, ein exponentieller CO2 Sättigungseffekt, Hot-Spots usw. usw.
Und wozu? – Alles um das Klima in den nächsten 50 oder sogar 100 Jahren vorauszusagen. Alleine das ist schon kompletter Blödsinn.
Wir sind heute nicht mal in der Lage das Wetter für 14 Tage sicher vorauszusagen.
Ich vermisse hier den ganz normalen wissenschaftlichen, gesunden Menschenverstand.
Fakt ist, und ich glaube, das wird niemand bestreiten, zur Zeit weiß absolut niemand wie Klima funktioniert.
Die logische Schlussfolgerung ist also, niemand ist auch nur annähernd in der Lage eine Aussage darüber zu treffen, wie sich das Klima in den nächsten Jahrzehnten verhält, egal was er glaubt berechnen zu können oder welchen komplizierten Ansatz er verwendet.
Ohne zu wissen wie Klima funktioniert kann man nichts berechnen, man kennt weder die ganzen Einflussfaktoren noch die Randbedingungen.
An diesem Punkt angekommen stellt sich die Frage, wie können wir uns einer Abschätzung nähern?
Meine Antwort ist, nicht mit simulierenden Computermodellen, sondern mit der Vergan-genheit.
Wir haben heute schon einen recht guten Überblick über das Klimageschehen der letzten 500.000 Jahre. Es gibt dazu auch umfangreiche Informationen im Internet.
z.B hier, TU Berlin
http://tinyurl.com/3p94mzg
Allein in den letzten 500.000 Jahren gab es eine Vielzahl inzwischen sehr gut untersuchter Warm- und Kaltzeiten:
Ø ab etwa 450.000 Jahren: Waal-Warmzeit
Ø ab etwa 400.000 Jahren: Günz-Kaltzeit
Ø ab etwa 350.000 Jahren: Cromer-Warmzeit
Ø ab etwa 320.000 Jahren: Mindel-Kaltzeit
Ø ab etwa 270.000 Jahren: Saale-Warmzeit
Ø ab etwa 200.000 Jahren: Riß-Kaltzeit
Ø ab etwa 125.000 Jahren: Eem-Warmzeit
Ø ab etwa 70.000 Jahren: Würm-Kaltzeit
Ø seit etwa 11.000 Jahren: Neo-Warmzeit
Dies sind wohlgemerkt nur die größeren Schwankungen, innerhalb dieser Zeitzonen gibt es wiederum eine Menge kleinerer Schwankungen.
Wir hatten in der jüngsten Geschichte eine ganze Reihe Temperaturschwankungen von erheblichem Ausmaß.
Zum Beispiel:
(Before Present = BP, engl. vor heute)
ca. 9.200 BP:
Periode des Atlantikum als wärmster Abschnitt des Holozän, Temp. in der nördlichen Hemisphäre etwa 1 bis 2 K höher als heute, jedoch ähnlich feucht wie heute (nach Berner & Streif 2000: 135);
ca. 7.000 – ca. 6.000 BP:
Optimum (1. Temp. – Max. im Atlantikum nach Schönwiese) mit wesentlich höheren Durchschnittstemperaturen (um 2 bis 4 K in Europa und N-Amerika, Wintertemperatu-ren jedoch niedriger als heute), einer weitaus geringeren Vergletscherung als heute und einer Waldgrenze in den Alpen, die etwa 200 – 300 Meter höher lag, humide Phase an den äquatorseitigen Rändern der Sahara mit Ausdehnung der Savannenvegetation nach Norden.
ca. 5.300 – ca. 4.200 BP:
Optimum (2. Temp.-Max. im Atlantikum nach Schönwiese / bzw. Übergang zum Subboreal) mit wesentlich höheren Durchschnittstemperaturen und geringerer Vergletscherung als heute und einer Waldgrenze in den Alpen, die et-wa 200 – 300 Meter höher lag, im 2. Optimum Entwicklung der ägyptischen Hochkultur;
ab ca. 3.100 BP:
Optimum (3. Temp.-Max. im Atlantikum nach Schönwiese / im Subboreal) relativ kurze Phase mit höheren Durchschnittstemperaturen und geringerer Vergletscherung als heute, wird verschiedentlich auch „Klimaoptimum der Bronzezeit“ genannt.
ca. 2.900 – ca. 2.300 BP:
Klimapessimum am Ende der Bronzezeit bis in die Eisenzeit (mit den bisher niedrigsten holozänen Temperaturen, evtl. nur Europa). Häufig wird diese Phase auch „Klimapessimum der Bronzezeit“ genannt, vgl. u.a. Prof. Wolf-Dieter Blümel (2002)
ca. 2.300 – ca. 1.600 BP:
Römisches Optimum (innerhalb): Globale Erwärmung um ca. 4K, nach Sediment-Untersuchungen eines israelisch-schwedischen Wissenschaftlerteams in Ost-Afrika (Bergsee Mt. Kenia, Klimageschichte von 4.550 – 1.250 BP), vgl. Rietti-Shati et al. (1998) Science, Bd. 281 [Issue 5379], S.980-982;
Bergbau in den Alpen, wo heute Dauerfrost herrscht – starker Rückgang der Vergletscherung; Hannibal gelingt es, die Alpen zu überqueren.
ca. 1.300 – ca. 700 BP:
Mittelalterliches Wärmeoptimum, Wikinger besiedeln Grönland und treiben Ackerbau, in England entstehen zahlreiche Weinanbaugebiete, die Temperaturen lagen weltweit etwa 1.5 bis 2 K über den heutigen Temperaturen.
ca. 700 – 100 BP:
Klimapessimum (Kleine Eiszeit), in Mittelamerika lange Periode geringer Niederschläge, Wikinger verlassen im 15. Jahrh. Grönland, Missernten und Hungersnöte treten in Europa auf (kühl und regenreich), Sturmfluten und Überschwemmungen sind häufig, die Getreidepreise steigen zum Ende der Kleinen Eiszeit in unermessliche Höhen – um 1805 herum, gleichzeitig sogenanntes Dalton – Minimum (Maunder – Minimum 400 – 330 BP), die Temperaturen lagen weltweit ca. 2 K unter den heutigen.
Wenn man sich das ansieht, dann ist ganz klar, es gab immer einen Wirkmechanismus, der über Hunderttausende von Jahren aktiv war und ist und der für erhebliche Klimaschwankungen gesorgt hat. Alleine in dem skizzierten Zeitabschnitt von nur etwa 10.000 Jahre lagen Temperaturschwankungen von dT 5-6 Grd.
Dieser Wirkmechanismus war zu allen Zeiten vorhanden, sorgte für erhebliche Temperaturschwankungen und hatte nicht das Geringste mit anthropogenem CO2 zu tun.
Es ist also völlig unlogisch heute zu behaupten, dieser uralte Wirkmechanismus existiere nicht mehr, heute sei eine Klimaveränderung, so wir sie derzeit haben, plötzlich durch einen neuen Mechanismus ausgelöst.
Nein, wenn wir eine Klimaveränderung haben, dann ist es genau dieser uralte Wirkmecha-nismus der schon seit Hundertausenden von Jahren (bzw. noch länger) arbeitet.
Es bedurfte also nie des anthropogenen CO2 um Temperaturschwankungen von 5-6 Grd. zu verursachen.
Was nun die Abschätzung angeht, wohin sich die Temperaturen entwickeln, kann man nur sagen, das ist derzeit noch nicht klar.
Meine Meinung:
Fakt ist, dass es eine Reihe von Indizien gibt, die eher dafür sprechen, dass die Temperaturen fallen werden.
Seit etwa 10 Jahren fallen die globalen Temperaturen.
Die Sonnenflecken haben ein absolutes Minimum erreicht, sinnigerweise wie zu Zeiten der kleinen Eiszeit, dem sogenanntes Dalton – Minimum (Maunder – Minimum).
Wenn man in den letzten Jahren in Deutschland aber auch Mitteleuropa die Sommer und Winter verfolgt hat, dann war auch hier zu beobachten, dass die Sommer eher kühl waren, die Winter eher hart und lang.
Nun ist Deutschland kein Maßstab für das Weltklima, dennoch ist eben auch diese Beobachtung ein Puzzelsteinchen in der Abschätzung.
Man kann auch feststellen, das die Ernten schlechter wurden, nicht nur in Deutschland, wo z.B. die Weinernte 2010 bis zu 60% Rückgang verzeichnete.
Ebenso Getreideernten in Osteuropa.
Wer wie ich gerne extrem scharfe Chilisaucen isst, hat festgestellt, dass in den letzten 2 Jahren die Schärfe deutlich zurückgegangen ist. Diese Ernten kommen aber aus ganz verschiedenen Regionen der Welt, aus den USA genauso wie aus Fernost.
Alles für sich sicher kein Beweis, aber in Summe ein warnendes Indiz.
Dipl. Ing.(TU) M. Schneider
Energie und Verfahrenstechnik
haben Sie jetzt schon wieder meinen Kommentar zensiert? hier nochmal, falls Ihre Software den gefressen hat:
admin # 18: dann sollten sie Herrn Ohle’s »bezahltem Schwachköpfe« aber auch anmahnen. Oder sind Beleidigungen nur einseitig erlaubt? Dann sollte man das in den Regeln anmerken, um Missverständnisse von vornherein zu vermeiden.
Peter Hartmann
Sehr geehrter Herr Ebel,
Sie haben ja noch nicht einmal erkannt, dass das Excel-Beispiel aus dem Artikel nicht wirklich ein chaotisches System ist. Es ist nur ein Modell eines chaotischen Systems, an dem man bestimmte Eigenschaften veranschaulichen kann wie z.B. den Einfluss der Eingangswerte. Wenn Sie den Durchschnitt dieses Beispiels berechnen und dann eine Analogie zum Klima ziehen, haben Sie den gesamten Artikel nicht begriffen!
MfG
Sehr geehrter Dr. Paul,
Ihre Hinweise an bessokeks sind m.E. überflüssig. Bessokeks hat mit diesem kurzen Kommentar eindeutig ausgedrückt, was von PS2 von Herrn Fischer zu halten ist. Wer solche Aussagen trifft wie PS2 outet sich als völlig unwissend auf diesem Gebiet. Auf welcher Basis soll man dann über die Chaostheorie diskutieren – Dreisatz?
MfG
#11 Dr. Paul
Lieber Herr Paul,
den Skeptikern ist nicht gedient, wenn unwissenschaftlich argumentiert wird.
Sie schreiben: „Trotzdem ist unter bestimmter exponentieller Größe von Einflussfaktoren, der Systemverlauf GESETZMÄßIG unberechenbar.“
Das ist falsch bzw. zumindest unklar formuliert. Der „Systemverlauf“ ist völlig determiniert. Sie verwechseln numerische Rechnung mit der Lösung der Differentialgleichungen.
Sie schreiben: „Da es sich um Differenzialgleichungssysteme handelt, die iterativ immer auf den vorausgehenden Wert aufbauen, …“
Auch hier unterliegen Sie der Verwechslung von numerischem Verfahren und der Differentialgleichung.
Schreiben: “ … lässt man dieses Model mit einem positiven Ljapunov-Exponent mehrmals „durchlaufen“,
kommt jedes mal ein anderes Ergebnis heraus.“
Auch hier liegt die Verwechslung zwischen Numerik und Differentialgleichungen vor. Durch die Anfangsbedingung ist unter üblichen Voraussetzungen die Eindeutigkeit der (nicht-fortsetzbaren) Lösung gesichert. Ein mehrmaliges Durchlaufen gibt es nicht. Was Sie meinen, ist ein mehrmaliges Durchlaufen des numerischen Programmes. Aber auch hier müsste bei gleichen Anfangsbedingungen stets das gleiche Ergebnis herauskommen, es sei denn, die Rechnung des Computers unterliegt zufälligen Einflüssen.
Im Prinzip begehen Sie einen ähnlichen Fehler wie diejenigen, die Sie kritisieren: Die Numerik ist nicht das mathematische Modell. Das mathematische Modell ist nicht die Realität.
Aussagen der numerischen Rechnung haben daher erstmal nichts mit der Realität zu tun. Es müssten experimentelle Bestätigungen vorgelegt werden, dass das Modell die Realität (ausreichend) gut beschreibt und es müssten theoretische Untersuchungen vorgelegt werden, die sichern, dass die numerischen Rechnungen ausreichend gut das Verhalten des Modells beschreibt. Würde so vorgegangen, könnten mittels eines experimentell gesicherten Modells und anschließender numerischer Rechnung wissenschaftliche Aussagen getroffen werden.
Alternativ könnte man auch versuchen, die numerischen Rechnungen selber experimentell zu bestätigen, was aber bei der hier diskutierten Problematik noch schwieriger ist.
Ohne Experiment, ohne Untersuchung der Güte des Modells und der Numerik ist alles nur Kaffeesatzleserei.
#18 Herr Ebel
Darum war der Artikel ja auch so gut. An einem einfachen Beispiel wurde demonstriert zu welchen dramatischen Abweichungen es in einem scheinbar überschaubaren System kommen kann.
Hier handelte es sich um genau einen Parameter. Wie viele Parameter bestimmen das Wetter? Wie viele Parameter bestimmen das Klima?
Wenn man jetzt noch davon ausgeht, dass sich bei Wetter und Klima Parameter gegenseitig beeinflussen, weist dies auf die enorme Komplexität des Systems hin.
Man darf bezweifeln, ob man jemals überhaupt alle Parameter kennen wird, die das Wetter bestimmen. Um so mehr sind Zweifel an Modellen, die sich auf nur einen Parameter konzentrieren wohl mehr als angebracht.
#2: Montag, 20.06.2011, 13:30
„Kommentar:
Regeln beachten. Sonst sperren wir Sie.
admin“
Gegen welche Regel hätte ich denn verstoßen?
Die Beurteilung eines Artikels ist nach Ihren Regeln nicht verboten. Und dafür, daß die Beurteilung „grottenschlecht“ lauten muß, kann ich nichts. Und ich habe nicht geschrieben der Autor ist „schwachsinnig“, sondern „Der Artikel ist schwachsinnig“ – und das anschließend begründet:
Z.B. schwanken die Werte des Excel-Beispiels zwar chaotisch zwischen 0 und 1 – aber der gleitende Mittelwert über 200 Schritte (analog Klima 30 Jahre) ist sehr stabil nahe bei 0,5 und die Abweichung ist kleiner als 1/20 des Schwankungsbereichs.
Also ist meine Begründung richtig und damit auch die Einschätzung der Qualität des Artikels.
MfG
Man gibt doch üblicherweise zu Hypothesen und Messqualitäten auch Vertrauensbereiche in Sigma an, um die Übereinstimmung mit empirischen Daten zu bewerten. Wo würden das für die CO2-Sensitivität der globalen Temperatur wohl liegen?
#8: hallo bessokeks,
das Kassino ist ein sehr schlechtes Chaosmodell, sondern eher eine Verwechslung mit Statistik,
da jeder neue Wurf unabhängig vom vorherigen Wurf ist, es besteht keine kausale physikalische Beziehung zwischen zwei Würfen.
Aber Treibhausvertreter werden immer böse, wenn ihnen „gefährliche“ Argumente entgegengehalten werden, wie etwa die fehlende Korrelation, oder der 2 HS der Thermodynamik, oder real existierende chaotische Prozessabläufe wie das Wetter.
Gruß
//// #12: Dr.Paul sagt:
am Montag, 20.06.2011, 22:43
„…dann frage ich Sie zum Beispiel zum real existierenden statistischen Objekt Mensch,
wie Sie etwa den Unterschied zwischen Mann und Frau „mitteln“ wollen.“ ////
Meinen Unterschied lasse ich auf keinen Fall mitteln. 🙂
@12 Hallo Herr Dr. Paul
„Das Wetter macht nun mal das Klima.“
So können wir das nicht sagen wenn wir gegen die bezahltem Schwachköpfe ankommen wollen.
Klima ist das System und Wetter bzw. Wettererscheinungen sind Strukturen im Chaos dieses Systems,… also anders herum.
MfG Chritian
Lieber Herr Heß,
könnten Sie bitte erläutern, warum Sie Taminos Beitrag für ein Ablenkungsmanöver halten? Ich habe den Fehler nämlich noch nicht entdeckt und werde aus ihrem Beitrag noch nicht so ganz schlau.
„Insofern könnte ebensogut ein Großteil der Erwärmung im 20. Jahrhundert auf die Kombination natürlicher Ursachen wie Wolken, ENSO und Sonne zurückzuführen sein.“
Wollte Tamino nicht etwas ganz anderes zeigen?
Ich denke, wir sind uns einig, dass wenn man die Änderung der Wolkenbedeckung oder/und die Änderung der solaren Aktivität oder/und die Änderung der CO2-Konzentration usw. kennt, dass es prinzipiell sehr wohl möglich ist, ohne extrem aufwändige Klimasimulationsprogramme die neue Gleichgewichtstemperatur zu bestimmen.
Insofern ist die manchmal gehörte Ansicht, man könne keine langfristigen Prognosen abgeben, weil das Wetter chaotischer Natur ist, Unsinn.
Gegen diese falsche Auffassung waren die ersten Beiträge hier im thread gerichtet, auch meiner.
Edmonds meint aber etwas weiterführenderes (was wohl noch nicht jeder hier sofort bemerkt hat):
GCMs produzieren in jedem Iterationsschritt ein Wetterbild und Edmonds zweifelt an, dass man durch Aneinanderreihung und Mittelungsprozesse dieser Iterationsschritte sinnvolle Aussagen gewinnen kann.
Und daher fand ich Taminos Beispiel als Gegenbeispiel ganz geeignet.
Ich habe als Gegenbeispiel eine Hindcast-Simulation zu verlinken versucht (warum gesperrt?), die beginnend von 1900 die globale Temperatur bis 2000 ganz überzeugend reproduzieren konnte. Ja, jeder Simulationslauf sah etwas anders aus, das ist eben die chaotische Natur. Die Mittelung über viele Läufe ergab dennoch ein überzeugendes Ergebnis, etwas, was laut Edmonds nicht möglich sein soll.
@ all
Jemand verglich die Temperaturreihen mit Aktienkursen. Meiner Ansicht nach sieht das zwar optisch ähnlich aus, es wird dabei aber vergessen, dass im Unterschied zu Aktionkursen die Entwicklung des Systems Klima an physikalische Gesetze geknüpft ist, Der Energieerhaltungssatz ist beispielsweise eine dieser eisernen Klammern, die verhindern, dass die Zwischenwerte von GCMs aus dem Ruder laufen können.
#6: Norbert Fischer
Sie liegen falsch!
Sie wollen sich hier doch nicht blamieren und die Existenz der Chaostheorie in Frage stellen???
Das Wetter macht nun mal das Klima.
Wenn irgend ein Theoretiker (den Sie zitiert haben) anderer Meinung ist,
hat er die Chaos-Theorie schlicht nicht verstanden, von Widerlegung keine Spur!!!
Dies gilt nicht nur für das Wetter, die Aktienkurse sind ein gutes Beispiel.
Wenn Sie mir hier mit glatt bügelnder Statistik kommen, dann frage ich Sie zum Beispiel zum real existierenden statistischen Objekt Mensch,
wie Sie etwa den Unterschied zwischen Mann und Frau „mitteln“ wollen.
Ich weiss, politisch ist das wohl ähnlich verbissen gewünscht, wie die menschen – gemachte Klimakatastrophe 🙂 aber unrealistisch,
eines Wissenschaftlers schlicht unwürdig.
Freundlich Grüße
#2 Herr Ebel meint:
„Also ist Chaos und Vorhersagbarkeit kein Widerspruch“
Das ist falsch, Herr Ebel,
und wie falsch, sagt ihnen exakt der Ljapunov-Exponent ?, benannt nach dem russischen Mathematiker Ljapunov (1857-1918),
das gehört inzwischen eigentlich zur Allgemeinbildung.
Wir haben es hier nicht nur mit Naturbeobachtung zu tun,
sondern mit einem völlig widerspruchsfreien puristischen (vereinfachten) logisch- mathematischen System,
dessen Komponenten durch EINDEUTIGE Gesetze beherrscht werden.
Trotzdem ist unter bestimmter exponentieller Größe von Einflussfaktoren, der Systemverlauf GESETZMÄßIG unberechenbar.
Da es sich um Differenzialgleichungssysteme handelt, die iterativ immer auf den vorausgehenden Wert aufbauen, haben erst die modernen Rechner die Schönheit des Chaos sichtbar gemacht.
Man kann exakt formuliert eigentlich gar nicht mehr „berechnen“ im herkömmlichen Sinne,
man muss so ein „dynamisches System“ einfach mit einem Rechner „durchlaufen“ lassen.
Und, was in dem Artikel nicht so glasklar hervorging,
um den Newtonanhängern die letzte Hoffnung der Berechenbarkeit zu nehmen,
lässt man dieses Model mit einem positiven Ljapunov-Exponent mehrmals „durchlaufen“,
kommt jedes mal ein anderes Ergebnis heraus.
Herzliche Grüße
an einen bezahlten Nein-Sager 🙂
@6 Fischer
„Oder liegt’s einfach daran, dass ich die Strukturen im Chaos erkenne?“
Das Problem, dass Sie nicht erkennen das sie selbst eine Struktur im Chaos sind, eine Wettererscheinung. Als Klimafaktor taugen sie allerdings nicht viel.
Liebes Eike Team, Super Artikel!
Lieber Herr Hartmann,
ich weiß nicht was sie wollen, aber Taminos Ablenkungsmanöver schießt meines Erachtens am Ziel vorbei.
Tsonis et al. schreiben in
A new dynamical mechanism for major 1 climate shifts.
Anastasios A. Tsonis, Kyle Swanson, & Sergey Kravtsov:
“The latest such event is known as the great climate shift of the 1970s.
We also find the evidence for such type of behavior in two climate simulations using a state-of-the-art model. This is the first time that this mechanism, which is consistent with the theory of synchronized chaos, is discovered in a physical system of the size and complexity of the climate system.”
Insofern könnte ebensogut ein Großteil der Erwärmung im 20. Jahrhundert auf die Kombination natürlicher Ursachen wie Wolken, ENSO und Sonne zurückzuführen sein.
Mit freundlichen Grüßen
Günter Heß
@#5: Norbert Fischer sagt:
„PS2:
Die Bewegung einer Roulettekugel ist absolut chaotisch und unvorhersagbar. Trotzdem kann jede Spielbank ihre zu erwartenden Gewinne berechnen.“
Himmel, hilf…
Herr Fischer,
„Oder liegt’s einfach daran, dass ich die Strukturen im Chaos erkenne?“
ich tippe, Sie haben zu lange ins Rauschen der globalen Welttemperatur geschaut;-)
Wen meint Edmonds nun mit „we“?
„Alles, was sie ehrlich sagen können, ist: “Wir haben Modelle geschaffen, wir haben unser Bestes getan, um mit der wirklichen Welt im Einklang zu sein, aber wir können keinen Beweis für die Richtigkeit liefern. Wir nehmen zur Kenntnis, dass kleine Fehler in unseren Modellen dramatisch andere Vorhersagen liefern können, und wir wissen nicht, ob wir Fehler in unseren Modellen haben. Die aus unseren Modellen herrührenden veröffentlichten Abhängigkeiten scheinen haltbar zu sein.“ “
– oder haben Sie einen Beweis für die Richtigkeit?
Prof. Malberg ?? meinen Sie die Daten aus der Vergangenheit ändern sich noch immer chaotisch?
Edmonds:
„Zu guter Letzt, es gibt eine andere Denkrichtung in der Wettervorhersage. Dort herrscht die Meinung, dass das Langzeitwetter großenteils von Veränderungen der Sonnenstrahlung bestimmt wird. Nichts in diesem Beitrag bestätigt oder verwirft diese Hypothese, weil Langzeit-Aufzeichnungen der Sonnenflecken enthüllen, dass die Sonnenaktivität ebenfalls chaotisch ist.“
Ich staune langsam selbst über meine prophetischen Fähigkeiten, siehe http://tinyurl.com/6atnvut .
Oder liegt’s einfach daran, dass ich die Strukturen im Chaos erkenne?
@ admin
Frage an das EIKE-Team:
Drei Artikel davor lese ich den Beitrag von Prof. Malberg „Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680…“ und wundere mich etwas.
Herr Malberg stellt im wesentlichen den altbekannten Zusammenhang her, dass vor der Industrialisierung die Änderungen der solaren Aktivität maßgeblich für die globalen Temperaturen waren.
Warum ist das möglich, wo doch das Wetter so chaotisch ist und Klimaparameter angeblich deshalb nicht berechnet werden können? Oder gilt das „Chaos-Argument“ nur, wenn die Erwärmung von CO2 kommt?
PS1:
Chaos kann alles mögliche, aber keine Energie erzeugen. Langfristige Erwärmungstrends resultieren aus den Differenzen zwischen ein- und abgestrahlter Energie und nicht aus chaotischem Verhalten und sind daher natürlich auch langfristig vorhersagbar.
PS2:
Die Bewegung einer Roulettekugel ist absolut chaotisch und unvorhersagbar. Trotzdem kann jede Spielbank ihre zu erwartenden Gewinne berechnen.
Ok, dann hier zweiter Versuch.
Der Artikel wurde schon vor knapp einer Woche von Tamino auseinandergenommen. Es wäre freundlich von Herrn Jäger, wenn er diesen Artikel auch übersetzen und damit der deutschsprachigen Klimainteressierten-Gemeinde zur fairen Diskussion zur Verfügung stellen könnte.
http://tinyurl.com/edmondschaos
Peter Hartmann
Mein kurzer Kommentar erscheint nicht, wohl aber der danach. Der erste erscheinende Kommentar hat jedoch die Nummer 2. Kann einer der Admins vielleicht eine Erklärung dafür liefern? Danke!
Peter Hartmann
Der Artikel ist schwachsinnig.
Ein Beispiel für ein ganz chaotisches System ist ein Gasvolumen. Die Positionen und Geschwindigkeiten der vielen Moleküle sind kaum zu irgendeinem Zeitpunkt zu bestimmen – und selbst wenn sie bestimmt werden könnten, dann würden nach kurzer Zeit die vorhergesagten Positionen der Moleküle erheblich von den realen Positionen abweichen.
Und trotzdem gelten die allgemeinen Gasgleichungen mit geringen Toleranzen. Also ist Chaos und Vorhersagbarkeit kein Widerspruch. Auch bei dem Excel-Beispiel scheint der Mittelwert konstant zu sein.
Die Chaostheorie hat viele Facetten. Es gibt Chaos mit Fixpunkt und ohne Fixpunkt. Es gibt Attraktoren und Repelloren. Die Höhe und Breite der Attraktoren und Repelloren ist unterschiedlich usw.
Wenn man sich zu Wetter und Chaos äußern will, muß das schon etwas konkreter sein – und das kommt nicht, weil dann klar würde, was ich als Eingang geschrieben habe.
MfG
Ausgezeichneter Beitrag.