So werden wir beispielsweise – obgleich es überzeugende Anzeichen dafür zu geben scheint – nicht von anpasserischen Politikern, sich selbst bedienenden Lobbyisten, fanatischen Umweltaktivisten und gierigen Wallstreet-Manipulatoren geführt. Das ist eine Illusion.
Doch es gibt einen noch stärkeren (aber kaum sichtbaren) Antreiber hinter dem Anschein. Dieser Unsichtbare ist der Computer-Programmierer. Und wie im Märchen vom „Zauberer von Oz“ soll niemand diesem wirklichen Schicksalslenker auf die Finger schauen.
Als Computer-Programmierer will ich hier alles über den „Zauberer“ ausplaudern. Auch wenn mich das vermutlich meine Mitgliedschaft im Club (auch als Physiker und Umweltaktivist) kosten wird.
Der erste Hinweis auf Probleme wird schon deutlich in der Wikipedia-Erklärung über Computer-Programmierer gegeben:
Dieses Fach unterscheidet sich von vielen anderen technischen Berufen darin, daß Programmierer im allgemeinen weder Zulassungsprüfungen bestehen noch irgendwelche anderen standardisierten (oder amtlichen) Befähigungsnachweise erbringen müssen, um sich „Programmierer“ oder sogar „Software-Ingenieur“ nennen zu können.
Hmmm.
Als Laie kann ich mir das nur so erklären, dass die ganze Computer-Programmiererei darin besteht, Annahmen zu treffen und diese in mathematische Gleichungen umzusetzen.
Die ganz große Frage lautet: Kann man wirklich komplexe Lagen aus der wirklichen Welt genau in Einsen und Nullen übersetzen? HAL [Anm. d. Ü.: die Computerstimme aus dem Film „Odyssee im Weltraum“] mag das glauben, doch höher verarbeitende Gehirne sagen Nein. Trotzdem wird es immer wieder mit sehr begrenztem Erfolg versucht. Schauen wir ein wenig genauer hin.
Fangen wir mit einem Beispiel an, wie Annahmen in einem Modell getroffen werden.
Ich habe ein Computer-Programm für Schuldeneintreiber geschrieben. Eine typischer Hergang war, dass dem Schuldner ein Termin für eine Zahlung genannt worden wäre und die Inkasso-Gesellschaft diese nicht rechtzeitig erhalten hätte. Welche Reaktion ist daraufhin angemessen?
In dieser Situation kontaktiert das Computer-Programm automatisch den Schuldner. (Man bedenke, dass es bei den Inkasso-Firmen Tausende von Schuldnern gibt und dass es aus Zeitgründen einfach unmöglich ist, durch persönliche Intervention jeden einzelnen Fall zu prüfen und zu verfolgen.)
Was soll also im Computerbrief an den Schuldner stehen? Nun, es hängt von den Annahmen des Computer-Programmierers ab.
Solche Situationen versucht der Programmierer auf mathematische Optionen zu vereinfachen.
Wie entscheidet der Programmierer (im Modell) über „Ja“ oder „Nein“? Also, da werden andere Hinweise benutzt (z. B. ob frühere Zahlungen rechtzeitig geleistet wurden), um eine statistische Wahrscheinlichkeit zu erzeugen.
In einer komplexen Lage (z. B. Schuldeneintreibung, Klimawandel, Finanz-Derivate) kann leicht ein ganzes Hundert solcher Wahlmöglichkeiten entstehen, das zu behandeln ist.
Um die Implikationen zu verstehen, soll nur der Fall betrachtet werden, wo es zehn derartige Entscheidungspunkte gibt – jeder mit einer möglichen „Ja-“ oder „Nein-“ Entscheidung. Am Ende des Ablaufs stehen 210 (d. h. 1024) mögliche Antworten. Das bedeutet eine ganze Menge von möglichen Schlussfolgerungen.
Leider gibt es aber noch viel mehr Möglichkeiten! Die Annahme, dass diese Schuldner-Situation auf eine „Ja“ oder „Nein“-Antwort verdichtet werden könnte, trifft nicht zu. Denn es gibt viele weitere reale Lagen, die sich einem „Ja“ oder „Nein“ entziehen.
Zum Beispiel: Was ist, wenn der Schuldner niemals zu Anfang eine Nachricht erhalten hätte, dass die Zahlung zu dem Termin fällig war, den das Inkasso-Unternehmen überwachte? Oder: Was, wenn der Schuldner das Geld überwiesen hätte und die Zahlung fehlgeleitet wurde? Oder: Was, wenn der Schuldner die Zahlung an den ursprünglichen Gläubiger geleistet hätte, anstelle an das Inkasso-Unternehmen? Oder: Was, wenn der Schuldner das Geld rechtzeitig überwiesen und das Inkasso-Unternehmen fälschlicherweise die Gutschrift nicht rechtzeitig bewirkt hätte? Usw., usw.
In einem korrekten Computer-Modell müssen alle derartigen Lagen richtig behandelt werden (gesetzlich, zeitlich usw.). Erkennen Sie nun die Komplexität anhand dieses ganz einfachen Beispiels einer nicht fristgerechten Zahlung?
Aber da gibt es noch einen bisher nicht erwähnten weiteren wichtigen Faktor (jetzt schon Nr. 4). Was ist, wenn der Schuldner nicht bezahlt hat, dies aber darauf zurückzuführen ist, dass sein Kind multiple Sklerose hat und er nicht krankenversichert ist? Wie schreibt ein Computer-Programmierer den Code für so abstrakte Vorstellungen wie „Fairness“? Anders gesagt, können „Einsen“ und „Nullen“ so angeordnet werden, dass sie Nicht-Anfassbares darstellen? Ich denke nein.
Daher steht unter dem Strich die Frage: Kann ein Computer-Programm überhaupt alle Möglichkeiten der realen Welt richtig behandeln – bereits schon in diesem einfachen Fall der Schuldeneintreibung? Die Antwort ist Nein.
Wir haben schon beachtliche Schwierigkeiten beim Übersetzen einer relativ einfachen Sache wie der Sprache – z. B. von griechischen biblischen Texten ins Englische. Wie viele Versionen der Bibel gibt es? Warum nicht nur eine?
Können wir möglicherweise hoffen, einen Vorgang zu übersetzen, der viel komplizierter als Wörter ist? Wir können es versuchen, aber die klare Antwort ist, dass beim Übersetzen jeder komplexen Lage (Schuldner, Energie-Leistung usw.) in mathematische Gleichungen und Computer-Code eine ganze Menge verloren geht.
Manche uninformierte Gruppen glauben, dass der Computernutzer alle Variablen beherrscht und dass er von Hand (und mit Genauigkeit) die Lagen ändern kann. Das stimmt nicht, weil die vom Computernutzer beherrschten Elemente nur einen kleinen Bruchteil der tatsächlichen Faktoren ausmachen, die in ein Computer-Modell eingebaut sind.
Ein ähnlicher Fehler ist, etwa so zu denken: „wir kennen die Annahmen, die die Programmierer trafen, und wir berücksichtigen sie“. Das ist falsch.
Beim Schreiben eines Computer-Programms mit Komplexität werden buchstäblich Hunderte von Annahmen getroffen. Der Computer-Programmierer enthüllt seinem Kunden diese nicht alle, aus dem gleichen Grund, aus dem ein Steuerberater seinem Kunden nicht alle Annahmen bei der Erstellung einer Steuererklärung mitteilt. Er erwähnt nur einige Grundannahmen und sagt dann: „Unterschreiben Sie hier“.
Ja, dieses Beispiel bringt mich auf eine weitere Hauptvariable (Nr. 7): auf die Daten, die der Programmierer als Grundlage bei der Programmerstellung benutzt.
So, wie auch die Erstellung einer Steuererklärung auf der Zusammenarbeit zweier Parteien beruht, so ist auch das Schreiben eines Computer-Modells eine Zusammenarbeit zwischen Wissenschaftler und Programmierer. Wenn der Steuerpflichtige dem Steuerberater unvollständige oder unrichtige Angaben macht, wird das Ergebnis falsch. Das Beunruhigende ist, dass in vielen Fällen keine der Parteien erkennt, dass die Ergebnisse falsch sind.
Gleichermaßen wird das Ergebnis falsch sein, wenn ein Wissenschaftler (unabsichtlich) unvollständige oder ungenaue Daten dem Programmierer für dessen Arbeit gibt. Und keine Partei wird es merken.
Es gibt eine noch bedeutendere Variable (Nr. 8) zu berücksichtigen. Nach der Fertigstellung eines Computer-Modells wird ein „Dolmetscher“ (z. B. das IPCC) die „Ergebnisse“ für Politiker und die Öffentlichkeit (z. B. die Medien) übersetzen.
Und da erleben wir eine Überraschung: Diese Übersetzungen werden von politischen, religiösen, umweltbezogenen, finanziellen und wissenschaftlichen Meinungen beeinflusst. Erklären die Dolmetscher in ihren öffentlichen Äußerungen alle ihre unterschwelligen Vorurteile? Man weiß jetzt die Antwort: ganz gewiss nicht.
Wenn alle diese Faktoren in die Gleichungen eingeführt werden, sind wir offensichtlich schon so weit von den wissenschaftlichen Tatsachen abgewichen, dass diese gar nicht mehr sichtbar sind.
Daher müssen wir sehr sorgfältig nachdenken, bevor wir große Aktionen starten, die fast ausschließlich auf Computer-Modellen beruhen (z. B. viele Billionen Dollar ausgeben wegen der Klimaprognosen, für die Nutzung der Windenergie usw.)
Was ist zu tun? Alle Computer-Modelle einfach müllen?
Nein, da würden wir ins andere Extrem verfallen. Computer-Modelle haben ihre Verdienste – doch der Schwanz sollte nicht mit dem Hund wedeln.
Wir sollten realistischerweise Computer-Modelle als das sehen, was sie sind: Hilfsmittel beim Ordnen unserer Gedanken und Erzeuger von sehr subjektiven Ergebnissen, die am Anfang von wirklich wissenschaftlicher Analyse stehen sollten.
Alle Computer-Modelle sollten mit einem sehr gesunden Grad von Skepsis betrachtet werden wegen ihrer innewohnenden Begrenzungen (die ich hier nur angerissen habe).
Und um die angemessene Integrität zu gewährleisten, sollten alle Computer-Modelle für wichtige Angelegenheiten der strengen wissenschaftlichen Methodologie unterworfen werden.
Wenn sie nicht genau und ständig die Beobachtungen aus der wirklichen Welt reproduzieren können, dann sollten sie verworfen werden.
Unglücklicherweise geschieht das nicht.
Wir sind derart süchtig nach der Illusion geworden, dass diese Programme stimmen – und einige Leute lassen sich von politischen Zielen antreiben. Und wir passen schon die Beobachtungen aus der wirklichen Welt an oder stellen sie gar in Abrede, wenn sie nicht mit dem Modell übereinstimmen. Das ist verrückt.
Wenn ein Modell nicht an der vollen Abbildung der Wirklichkeit erprobt worden ist, dann hat es nur sehr begrenzten Nutzen und sollte mit dem gleichen Grad von Berücksichtigung bedacht werden, wie man sie vielleicht einem Horoskop zuerkennt.
John Droz, Jr. ist Naturwissenschaftler und Anwalt.
Den Originalartikel finden Sie hier:
Die Übersetzung besorgte Helmut Jäger für EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
Ja, verehrter Herr Georgiew, es hat Spaß gemacht!
Lieber NF,
nach meiner Meinug haben Klimamodelle überhaupt keine Aussagekraft, da die physikalischen Ursachen für die natürlichen Klimaschwankungen nicht ansatzweise bekannt sind. Sie gehen davon aus, dass Modelle uns die Ursachen näherbringen… Bei so gegensätzlichen Ansätze werden sich die weiteren Meinungen nicht nähern, bei dem sachlichen Ton nicht weiter schlimm.
Rein wissenschaftlich kann ich z.Z. nicht richtig mitreden, müsste mich einlesen. Meine Zweifel an der Wichtigkeit von CO2 fürs Klima beziehe ich in 1. Linie aus dem Massenerhaltungssatz: Die 21% O2 sind im Laufe von ca. 3 Mrd Jahre auf Kosten des Abbaus von C02 entstanden, von 17% auf den heutigen Wert von 0,035-0,04%. Beim linearen Abbau wurde es nicht linear kälter, sondern es gab immer die natürliche Schwankungen zwischen warm und kalt. Da kann CO2 nur eine untergeordnete oder keine Rolle spielen.
Zum Glück sind unterschiedliche Meinungen zulässig
Laut Wikipedia, der Artikel macht einen guten Eindruck zuletzt 6% im Jahrhundert. Mir sidn zwar etwas höhere Zahlen als mir noch aus den 80iger Jahren bekannt, damals wurde 1%/Jahrzehnt festgestellt, ich bin aber nicht fündig geworden, wo ich das her habe. Generell nimmt das Erdmagnetfeld seit es quanititaiv erfasst wird, ab. Das passt auch zur Erwartung eines statistisch längst überfälligen Polsprungs
Um wieviel Prozent im letzten Jahrzehnt?
@NF #30
Das Magnetfeld de Erde schwächt sich ab, das hat nichts mit Svensmark zu tun
Herr Georgiew,
Ich verlasse nun mal die wissenschaftliche Basis und werde sehr subjektiv:
Es mag Sie überraschen, aber ich bin selbst auch erstaunt, dass man bei diesem Ausmaß an Komplexität überhaupt Aussagen gewinnen kann (ich staune sogar, dass ein A380 fliegen kann, obwohl ich es als Physiker doch eigentlich begründen kann). Ich zolle den Forschern und Programmierern an dieser Stelle einfach mal großen Respekt. Bisher passen die Daten ja ganz gut, was aber nicht bedeutet, dass sie auch bis 2100 richtig sein werden. Natürlich hoffe ich auch, dass die Klimaforschung weitere Zusammenhänge entdecken wird, die die Erwärmung niedriger ausfallen lassen werden. Es wäre aber verantwortungslos, auf Basis einer vagen Hoffnung heute auf Klimaschutzmaßnahmen zu verzichten.
PS:
„Mit dem Quellcode kann niemand etwas anfangen, ein Informatiker müsste sich jahrelang mit Hilfe des Ersthellers zum erlangen des spezifischen Know-hows einarbeiten.“
Mir ging es primär darum aufzuzeigen, dass es jeder IM PRINZIP kann und dass der häufig gehörte Vorwurf der Verschleierung nicht stimmt. Ich konnte es selbst natürlich auch nicht, fand es aber interessant, anhand der Überschriften der Module zu ersehen, welche Effekte alles eingearbeitet sind. Die Überprüfung wird wohl eher durch konkurrierende Arbeitsgruppen möglich sein, die schauen, was das „gegnerische“ Programm mit ihren Daten so alles anstellt, wer hat auch schon ein Hochleistungsrechenzentrum zur Verfügung.
Hallo Herr NF,
damit kein Missverständnis aufkommt: Wenn Klimawissenschaftler im stillen Kämmerchen sitzen und mit Modellen arbeiten um ihr (sehr begrenztes) Wissen zu prüfen und zu erweitern ist das wunderbar. Einverstanden.
Problematisch wird es doch nur dadurch, dass Leute wie Schnellhuber die Öffentlichkeit verrückt machen mit den Science Fiction Temperaturen ihrer Modellrechnungen und dem, was die Politik daraus macht.
Lieber NF,
viele Ihrer Beiträge waren erstaunlich sachlich (u.a. 8.), dafür Respekt.
Ich erlaube mir trotzdem anzumerken, dass aus meiner Sicht im Fundament Ihrer Denkweise 2 Grundsatzfehler liegen, die Ihre weitere Schlussfolgerungen behindern.
1. Ein jedes Modell ist niemals ein Abbild der Natur, sondern immer nur EIN ABBILD DER VORSTELLUNG DES MODELLERSTELLERS ÜBER DIE NATUR. Das Modell der flachen Erde und der darum rotierenden Sonne entsprach den visuellen Wahrnehmungen und wurde lange kaum in Frage gestellt, heute aber werden andere Modelle des Sonnensystems in der Schule gezeigt. Sie werden mir Recht geben, dass sich seit dem Mittelalter das Sonnensystem nicht radikal verändert hat, sondern nur die Vorstellungen der Menschheit und die darauf basierenden Modelle. Sie müssen in Betracht ziehen, dass die Wissenschaft 2100 mitleidig über „Ihre“ Klimamodelle lächeln könnte.
2. Ein Computerprogramm kann niemals die Komplexität der Natur beinhalten, sondern ist immer nur ein Extrakt des mickrigen Wissens der Menschheit über die Natur. Auf Befehl können Teile dieses Wissens mit ungewissen Wahrheitsgehalt (wg. 1.) abgerufen werden. Im Prinzip kommt es auf das Gleiche, ob ich ein Programm schreibe, dass eine Erderwärmung von 2 Grad voraussagt, oder ein Mechanismus konstruiere, dass auf Zuruf einen Schriftzug ausfaltet „Die Erde wird sich um 2 Grad erwärmen“. In beiden Fällen hat eine elektrotechnische Maschine exakt die von ihrem Konstrukteur vorgesehene Funktion erfüllt. Das bei den Simulationsprogrammen dies nicht so auffällig ist und einige physikalische Grundgesetze hinterlegt sind, ändert nicht die Grundaussage. Fehlendes Grundwissen wird durch Fantasie des Programmierers, Festlegung von Werten von unbekannten Variablen und Vorgaben des Auftragsgebers für die Entwicklung der Software (ein Informatiker hat von Klima keine Ahnung, der Auftraggeber schreibt die zu hinterlegenden Algorithmen vor), ersetzt. Das Ergebnis ist immer von einem Mensachen mit seinem beschränktem Wissen (im Vergleich zur Komplexität der Natur) vorgegeben.
Einfach gesagt: wenn die Natur beschließt, dass eine neue Eiszeit kommt oder es wieder so warm wird wie im Mesozoikum (viel wärmer als alle Weltuntergangsmeldungen), dann wird sie sich von „Ihren“ Simulationen nicht beirren lassen. Die auslösenden Mechanismen sind der Menschheit unbekannt und daher in den Simulationen nicht enthalten. Selbst wenn viel mehr bekannt wäre: wenn man z.B. genau wüsste, welche Rolle die Sonne spielt, wer könnte schon garantieren, wann und in welche Richtung sich Intensität der Sonnenstrahlung verändert? Denken Sie an die Vorhersagen des Wetters von übermorgen, wobei die Grundlagen des Wetterveränderungen hinreichen bekannt und in Computern hinterlegt sind.
P.S. Mit dem Quellcode kann niemand etwas anfangen, ein Informatiker müsste sich jahrelang mit Hilfe des Ersthellers zum erlangen des spezifischen Know-hows einarbeiten.
Nachtrag:
Wenn Sie an seriösen Quellen zur Diskussion der Unsicherheiten von Klimamodellen interessiert sind, dann können Sie hier die Meinung verschiedener involvierter Fachleute erkunden:
http://tinyurl.com/yh4umf8
Die Erläuterungen dort sind um Welten fachkundiger, als ich es darzustellen vermag, damit verabschiede ich mich endgültig.
Herr Wanniger,
ich ahnte fast, dass Sie die Veränderung des Erdmagnetfeldes durch „Sonnenwinde“ meinen.
Sie sprechen Svensmark an und wissen dann wohl, dass demnächst ein Experiment geplant ist, das klären soll, OB ÜBERHAUPT kosmische Strahlung zur Wolkenbildung beiträgt. Eine quantitative Theorie dazu existiert nicht.
Verlangen Sie ernsthaft, dass man den Einfluss einer Hypothese, zu der (noch) keine quantitative Theorie erfunden worden ist, in eine IPPC-Prognose einfließen lassen soll? Haben Sie in den bisherigen Beiträgen nicht stets dafür plädiert, die Simulationsprogramme sollten auf solider naturwissenschaftlicher Basis aufgebaut sein? Auf einmal sollen neue Parameter einfließen, deren Werte man nicht berechnen oder abschätzen kann, sondern raten muss.
@Herr Gans, haben Sie „in den letzten Jahrzehnten“ in meinem Beitrag überlesen??
Änderungen des Magnetfeldes fallen einem nicht so auf. Das liegt vielleicht daran, dass Menschen für gewöhnlich kein Sinnesorgan zur Magnetfelderfassung. Und richtig, die Magnetnadel zeigt immer nach Nord. Und zwar nach magnetisch Nord. Das ist aber selten da, wo geographisch Nord ist. Und die Magnetfeldstärke ist natürlich auch nicht konstant. Beides hat aber entscheidenen Einfluss auf den Schutz der Erde vor Sonnenwind und kosmischer Strahlung (van Allen Gürtel). Damit verlagern sich sowohl Ort als auch Stärke der Partikelstrahlung in der Erdatmosphäre.
Aber das wissen Sie ja selbstverständlich.
Viele Forschungansätze (vor allem Svensmark) deuten nun auf eine Korrelation kosmischer Strahlung und Wolkenbildung hin. Diese werden vom IPCC jedoch ignoriert, ist ja kein CO2.
Aber das wissen (und begrüßen) Sie sicher auch.
Das nur noch als kleinen Hinweis von jemandem, der nichts von Klimaforschung versteht. Aber gerade deshalb sind meine Prognosen für die mittlere Erdtemperatur in 40 Jahren damit genauso glaubhaft, wie die der Klimamodelle im AR4.
@NF #27
Na doll, der Kompass zeigt nach Norden, ist ja ein starkes Stück.
Daß das Magnetfeld schwächelt ist ihnen in der Literaur entgangen, daß dann weniger CO2 im Wasser aufgenommen wird ist Ihnen in der Literatur entgangen, daß der Norpol wandert, ist Ihnen in der Literatur entgangen.
Daß das Feedback von CO2 schwächer als angenommen ist ist Ihnen in der aktuellen Literatur entgangen, daß man gerade jetzt darauf kam, daß Wasserdampf in der Atmosphäre zunahm als die Temperaturen stiegen und abnahm als die Temperaturen sanken ist Ihnen in der aktuelleren Literatur ebenfalls entgangen,
aber Sie haben gemerkt, Ihr Kompass zeigt (noch) nach Norden – klasse.
Ist Ihnen aufgefallen, daß die andere Seite des selben Teils nach Süden zeigt ?
Ah ja, schön…
Ja, Herr Wanniger, lassen wir es dabei.
Sie haben sich offenbar noch nicht vertieft mit den Klimasimulationen beschäftigt, sonst würden Sie nicht behaupten:
„Lassen wir wesentliche Antriebe des Klimasystems wie die Sonne, Erdmagnetismus, Wolkendynamik u.a. einfach weg, besitzt das Modell KEINE BRAUCHBARE PROGNOSEQUALITÄT!“
Dass solare Aktivität und Wolkendynamik enthalten sind, scheint Ihnen unbekannt zu sein, zu Veränderungen des Erdmagnetismus ist mir in den letzten Jahrzehnten nichts aufgefallen, die Nadel zeigt immer noch nach Norden.
Und dann:
„Im übrigen ist mir natürlich bewusst, dass es ein Leichtes ist, für jeden x-beliegen Datenverlauf der Vergangenheit per numerischer Analyse eine Abbildungsfunktion zu finden. Dass diese dann auch in die Zukunft brauchbare Ergebnisse liefert, würde aber eine Periodizität des analysierten Zeitraums bedingen, q.e.d.“
Wollen Sie etwa behaupten, die Prognose wäre NACHTRÄGLICH an die Daten angepasst worden??
Dann schauen Sie doch einfach in die älteren IPCC-Berichte. Bestimmt werden auch dort die Kurven monatlich nachjustiert 😉
„Mir sind mehrere öffentliche Interviews namhafter Klimaforscher von Schnellnhuber, Latif und anderen bekannt, in denen klar zum Ausdruck kommt, dass die seit geraumer Zeit wieder rückläufigen globalen Mitteltemperaturen so nicht prognostiziert wurden und derzeit ’nicht erklärt‘ werden können. Herr Latif (Lobbyist in eigener Sache) bemüht dann natürlich gleich wieder seine ozeanografischen Oszillationen, wo eigentlich noch gar nichts verstanden ist.“ Obwohl ich es schon mehrfach erklärt habe, haben Sie immer noch nicht begriffen, dass die Kurve des IPCC ein Langzeittrend ist, der AUSDRÜCKLICH nicht zyklische Effekte wie Meeresströmungen etc. erfassen kann. Diese Effekte werden durch die Bandbreite der sogenannten „internal variability“ berücksichtigt. Um einem Missverständnis vorzubeugen: In jedem Single-Run eines Klimasimulationsprogramms sind diese Effekte enthalten, es kann aber nicht vorausgesagt werden, in welchem kommenden Jahrzehnt z.B. die solare Aktivität ein Minimum besitzt.
Kurz: Natürlich kein keine Klimasimulation Jahrestemperaturen vorhersagen, deshalb ist doch klar, dass es auch nicht „prognostizierbar“ ist. Erklärt werden können diese, mögliche Erklärungsansätze zitieren Sie ja selbst.
Aber beenden wir es wirklich.
Sie verstehen zu wenig von der Materie (das ist menschlich), aber leider weigern Sie sich auch, dazuzulernen bzw. sich zu informieren (und das finde ich ignorant).
Da ich gerade drüber gestolpert bin … Hier http://preview.tinyurl.com/yh4umf8 gibts mal eine Sicht auf Klimamodelle von Klimawissenschaftlern.
Und noch etwas, Herr NF:
Nehmen wir einfach einmal an, der durch CO2 menschengemachte Klimawandel wäre nicht real. Einfach mal angenommen.
Wie würden diese ganzen Figuren dann morgen dastehen, wenn sich damit herausstellt, dass der auf den Erkenntnissen der Spitzen-Klimatologen aufgebaute ganze Ablasshandel mit CO2-Zertifikaten ein einziger Blödsinn (bzw. künstliche Steuererhöhung) war. Für diese mit inzwischen weltweit gigantischem Umfang angewachsene Steuer bestünde kein Grund mehr. Wie will man die überhauopt wieder abschaffen?
Sein Sie doch nicht so naiv und glauben an die Unschuld der Wissenschaft. Der Mensch ist ein Egoist. Schauen Sie einmal, ob es auch andere Gründe geben könnte, an der CO2-These UM JEDEN PREIS festhalten zu MÜSSEN. Wem wem nützt’s denn?
Hallo (ich vermute mal) Herr NF,
Sie schreiben ‚…Meines Erachtens zeigt dies glasklar, dass das Modell bislang erstaunlich gut funktioniert…‘
Tut es das?
Mir sind mehrere öffentliche Interviews namhafter Klimaforscher von Schnellnhuber, Latif und anderen bekannt, in denen klar zum Ausdruck kommt, dass die seit geraumer Zeit wieder rückläufigen globalen Mitteltemperaturen so nicht prognostiziert wurden und derzeit ’nicht erklärt‘ werden können. Herr Latif (Lobbyist in eigener Sache) bemüht dann natürlich gleich wieder seine ozeanografischen Oszillationen, wo eigentlich noch gar nichts verstanden ist.
Wie passt nun Ihre Aussage mit den öffentlichen Interviews dieser Herren zusammen?
Völlig unbetrachtet ist dabei, das ganz offensichtlich Temperaturdaten manipuliert wurden und werden!
Und dann noch einmal zur Vereinfachung von Modellen: Lassen wir wesentliche Antriebe des Klimasystems wie die Sonne, Erdmagnetismus, Wolkendynamik u.a. einfach weg, besitzt das Modell KEINE BRAUCHBARE PROGNOSEQUALITÄT! Auch dann nicht, wenn ZUFÄLLIG ein prognostizierter Trend mit der Beobachtung für kurze Zeit übereinstimmen würde!
Im übrigen ist mir natürlich bewusst, dass es ein Leichtes ist, für jeden x-beliegen Datenverlauf der Vergangenheit per numerischer Analyse eine Abbildungsfunktion zu finden. Dass diese dann auch in die Zukunft brauchbare Ergebnisse liefert, würde aber eine Periodizität des analysierten Zeitraums bedingen, q.e.d.
Belassen wir es doch dabei. Wir bewegen uns längst in philosophischen oder religiösen Bereichen. Wir wissen es nicht! Ich kann Sie nicht überzeugen und Sie mich nicht. Dennoch unterscheiden wir uns: Die Leute, die Sie für die Wahrheit halten, wollen mein Geld, weil ich damit ja das angeblich klimaschädliche Grundnahrungsmittel der Pflanzen (CO2) verbreite. Die konträre Gruppe will aber von Ihnen nichts. Und das viele Geld könnten wir verwenden, um die WIRKLICHEN Probleme dieser Welt in Angriff zu nehmen, statt das Land mit schwachsinnigen PV-Anlagen vollzuflastern. Diese liefern praktisch keine Energie (nach 10 Jahren mit nahezu 50 Milliarden investierten Euros noch immer deutlich unter 1% des deutschen Strombedarfs). Und das im Namen von CO2 Vermeidung! Genausogut könnte man fürs gleiche Geld Infrtastruktur in der Dritten Welt schaffen.
Sehr geehrter Herr Wanniger,
wir stimmen, was die Voraussetzungen der Klimamodelle angeht, in vielem überein, nur in der Schlussfolgerung unterscheiden wir uns fundamental.
Sie schreiben:
„Und seit 10 Jahren versagen die Vorhersagen immer mehr.“
Für mich ist das Gegenteil richtig, ich kann nur wiederum auf die Graphik im Rahmstorf-Artikel hinweisen. Nicht ein einziger Wert hat seit dem Startjahr 1980 der Simulation bisher die Bandbreite der „internal variability“ verlassen. Meines Erachtens zeigt dies glasklar, dass das Modell bislang erstaunlich gut funktioniert, auch wenn dies keinerlei Hinweis darauf erlaubt, ob dies auch für die Zukunft gilt.
Mölgicherweise liegt folgender Zirkelschluss vor:
a) Sie meinen, die Natur ist zu komplex, um ein perfekt funktionierendes Modell erhalten zu können.
(Antwort: Richtig, deshalb sind Vereinfachungen nötig, deshalb die Bandbreiten).
b) Dann argumentieren sie, die Programme seien widerlegt, weil in den letzten Jahren die Temperaturen nicht wiedergegeben wurden. (Antwort: Jetzt schließt sich der Kreis: Kein Programm kann Jahrestemperaturen vorhersagen, nur Langzeittrends. Sie verlangen etwas, was laut Aussage a) überhaupt nicht geht.
Noch einmal für alle, die glauben, dass ein Computer das fehlende Grundwissen der Menschheit ersetzen kann:
Ich zeichne täglich für die Fehlerfreiheit komplexer Software verantwortlich und kann Ihnen versichern, dass ein Entwicklerteam überwiegend damit beschäftigt ist, die hinterlegten Algorithmen in unzähligen Tests dahingehend zu überprüfen, dass diese immer das vorher bekannte Ergebnis liefern. Wenn das nicht so wäre, könnte das teure Programm gleich durch paar Würfel ersetzt werden. Noch komplexere Software (Klimamodelle) wird nicht anders entwickelt und kann immer nur das Wissen des Programmierers wiedergeben, nicht aber neues Wissen generieren.
Sind die klimabeeinflussenden Faktoren (Sonne, Meeresströmungen, CO2? und und und alles was wir noch nicht wissen) mathematisch exakt bekannt und richtig im Programm hinterlegt, dann können realistische wenn/dann Szenarien durchgespielt werden, wie sich bei einer Veränderung der äußeren Faktoren das Klima ändern könne. Da diese Zusammenhänge mathematisch exakt nicht bekannt sind (genauer genommen weis die Menschheit nicht einmal, wie viel Faktoren das Klima überhaupt beeinflussen), sind diese Modelle Zeitverschwendung. Das ganze auf den Kopf zu stellen und zu erwarten, dass uns der Computer das fehlende Grundlagenwissen zuflüstert ist absurd. Der wissenschaftliche Wert der Klimasimulationen ist nicht Null sondern negativ, da sie von der eigentlichen Grundlagenforschung ablenken. Niemand stellt sich die Frage, was die globale Vereisungen und deren plötzlichen verschwinden (z.B. vor 10.000 Jahren) auslöst, es wird überwiegend mit dem Computer gespielt, wobei fehlendes Wissen durch Beliebigkeit ersetzt wird.
Ich erkenne beim IPCC/PIK bekannte Verhaltensmuster „Gib mir Geld für neue Computerspiele oder ich werd böse! (werd böse Voraussagen machen!)“.
Wers glaubt…
@NF
ich meinte das in vollem Ernst, weder zynisch noch sarkastisch. Wir diskutieren hier und sonstwo, wo es um den ‚menschengemachten Klimawandel‘ und insbesondere die politisch gewollten Prognosen des IPCC geht, letztendlich um eine Glaubensfrage.
Macht man Beobachtungen in der Natur, die man für erklärungsbedürftig hält, werden Theorien erstellt. Versagen die Lösungen der Theorien an der folgenden Beobachtung, verwirft man die Theorien oder verändert bzw. erweitert sie.
In diesem Prozess befinden wir uns. Das IPCC verändert ständig seine Prognosen, weil die Modelle ‚besser‘ werden. Die Prognosen des AR4 mögen (aus Sicht des IPCC) die bestmöglichen Prognosen sein. Was aber, wenn die Theorie (der quantitative Anteil von CO2 am Treibhauseffekt ist nach wie vor umstritten) dahinter nicht stimmt? Bemerkenswerterweise ist ja auch die Theorie (eben welchen Anteil CO2 trägt) nur empirisch aus dem Modell fragwürdiger Genauigkeit abgeleitet. Und seit 10 Jahren versagen die Vorhersagen immer mehr. Dieser Winter ist nordhalbkugelweit(!) ein weiteres widersprechendes Indiz.
Ich denke, oben (#16) deutlich gezeigt zu haben, dass man statt der Computer-Modelle aufgrund der Komplexität des Problems genausogut hätte Glaskugeln verwenden können. Die seit Jahren stagnierende Erwärmung zeigt, dass die Klimamodelle (und die Theorie) nicht stimmen können. Es MUSS weitere Ursachen geben.
Und jetzt hören wir über Climategate auch noch, dass Temperaturdaten zum Stützen der baufälligen Theorie auch noch manipuliert wurden. Gerdezu unglaublich ist doch dieser Bericht im finnischen Fernsehen http://vimeo.com/8815829. Wann erscheint das im deutschen TV?
Was haben führende Leute, die solche Mails schreiben, noch mit wertfreier Wissenschaft zu tun.
Was mich grundsätzlich empört, ist, dass zumindest vordergründig, Flopenhagen ist ja gottseidank gescheitert, weiterhin an einer Politik festgehalten wird, deren sachliche Basis fragwürdig bis widerlegt ist. Warum verwendet man nicht alle Anstrengungen darauf, zu forschen, ob es nicht vielleicht andere, viel einflussreichere Faktoren gibt, warum die globale Mitteltemeperatur immer wieder schwankte und auch heute schwankt. Wertfrei – ideologiefrei. Das wäre wahre Wissenschaft. Stattdessen wird jede abweichende Meinung als Teufelszeug bekämpft. Wie in der Inquisition. Und dort wo Glaube und Inquisition freies Denken eingrenzen, sind wir mitten in den Religionen. Welch wunderbareer Beitrag in 3SAT: http://vimeo.com/8863658
Herr Wanninger,
lassen wir die Kirche im Dorf (#17 😉 und bleiben wir sachlich.
Wenn ich ihren Beitrag #16 lese, dann sehe ich in den meisten Punkten Übereinstimmung mit Ihnen (nur „Weshalb also sollte der Sinn eines Modells in naturferner Modellierung bestehen?“ habe ich jetzt nicht verstanden, wieso naturfern?). Ja, die Rolle der Ozeane ist z.B. noch nicht genügend erforscht.
Ja, es erscheint unglaublich, aber trotz aller Komplexität scheinen die Klimaprogramme gut zu funktionieren, sehen Sie z.B. das Diagramm im EIKE-Beitrag zum Rahmstorf-Blog.
Mir ist übrigens keine Religion bekannt, die glasklar ihre „Schlüsselunsicherheiten“ schriftlich fixiert. Ich zitiere aus IPCC-AR4 (Synthesereport 6.2):
„Key uncertainties
Climate data coverage remains limited in some regions and there is a notable lack of geographic balance in data and literature on observed changes in natural and managed systems, with marked scarcity in developing countries. {WGI SPM; WGII 1.3, SPM}
Analysing and monitoring changes in extreme events, including drought, tropical cyclones, extreme temperatures and the frequency and intensity of precipitation, is more difficult than for climatic averages as longer data time-series of higher spatial and temporal resolutions are required. {WGI 3.8, SPM}
Effects of climate changes on human and some natural systems are difficult to detect due to adaptation and non-climatic drivers. {WGII 1.3}
Difficulties remain in reliably simulating and attributing observed temperature changes to natural or human causes at smaller than continental scales. At these smaller scales, factors such as land-use change and pollution also complicate the detection of anthropogenic warming influence on physical and biological systems. {WGI 8.3, 9.4, SPM; WGII 1.4, SPM}
The magnitude of CO2 emissions from land-use change and CH4 emissions from individual sources remain as key uncertainties. {WGI 2.3, 7.3, 7.4; WGIII 1.3, TS.14}“
Überraschend, wie viele der Sorgen unserer EIKE-Leser schon im Zentrum der wissenschaftlichen Arbeit stehen, oder?
Vertreiben wir also die Händler (Medien) aus dem Tempel der Wissenschaft (Ironie!) und halten nüchtern fest:
Der AR4 ist nicht „die Wahrheit“, er ist lediglich die zur Zeit bestmögliche Prognose.
@ Herr Gans schreibt:
„Ich glaube, selbst das IPCC ist nicht so vermessen von Prognosen zu reden, die bleiben (noch) bei Szenarien.“
Welche Teile des AR4 haben Sie schon im Original gelesen? Ich fürchte, recht wenig, sonst könnten sie mit „Szenario“ mehr anfangen.
Sie brauchen nicht „glauben“, wenn sie durch Lesen „wissen“.
Habe gerade aus bestinformierten Kreisen eine inoffizielle Nachricht erhalten : das IPCC hat letzte Woche bei einem brasilianischen Wahrsager ca.100 Glaskugel bestellt.Daß soll die Prognosen um 100% verbessern
@NB #15
Ich glaube, selbst das IPCC ist nicht so vermessen von Prognosen zu reden, die bleiben (noch) bei Szenarien.
Und jetzt auch noch #15,
Also ob Sie das nun Szenario oder Prognose mit Feedback oder sonstwie nennen ist mir gleich. Ich nenne es aus den ioben ausgeführten Gründen Kaffeesatzleserei den Bürgern Temperaturen vorzugaukeln, die aus Computerspielerei enttstanden sind.
Ich denke es macht auch keinen Sinn, weiterreden zu wollen. Gehe jeder doch wieder in seine Glaubenskirche (mit und ohne AGW), denn um Glauben handelt es sich schließlich. Treffen wir uns also hier wieder am 01.01.2030 – Sie in Badehose – ich wähle den Wintermantel.
Au, da kam was durcheinander, also #14 bezieht sich auf #12.
Auf #13 würde ich auch noch gerne antworten, denn:
Ich kann Ihnen nicht ganz folgen. Soll das nun ein Widerspruch sein, denn so fasse ich Ihre Formulierung auf?
Ein Modell benötige ich, weil ich damit Vorhersagen für die Zukunft treffen möchte. Im einfachsten Fall habe ich eine einfache Zustandsgleichung. Die Vorhersagen sind exakt und analytisch (oder numerisch) exakt lösbar.
Wird das System komplexer fällt die Qualität meiner Systembeschreibung und damit die Qualität meiner Vorhersagen. Ok? Eine größtmögliche Genauigkeit des Modells sollte doch also wünschenswert sein. Weshalb also sollte der Sinn eines Modells in naturferner Modellierung bestehen?
Ein Beispiel dazu: Wenn Sie mal ein Physikpraktikum gemacht haben, durften Sie vielleich auch mit gekoppelten Pendeln spielen. Ein wunderbares Experiment zum Einsatz numerischer Methoden und zur Beobachtung des chaotischem Verhaltens komplexer Systeme. Wenn Sie alle Parameter höchst genau erfasst haben, liefert Ihnen ein numerisches Integral per PC gelöst exakte Ergenisse des chaotischen Systemverhaltens über eine beachtliche Zeitspanne. So – und jetzt varrieren Sie die zweite Masse im Computer um nur 0,1%. Schon nach kurzer Zeit DIVERGIEREN Natur (das Pendel) und Modell (die numerisch gelöste Zustandsgleichung) völlig ! Wir haben nur einen einzigen Parameter um eine Winzigkeit verändert!
Das Verhalten der Ozeane ist heute noch längst nicht verstanden, ihr Einfluss aufs Klima aber gigantisch. Gleiches gilt zur Wolkenbildung und einem Dutzend anderer Größen. Erdmagnetismus und Sonneneinstrahlung werden in den Modellen überhaupt nicht berücksichtigt. Und da soll eine brauchbare Klimaprognose herauskommen? Lächerlich. Ich glaube sogar, es hat schon etwas mit Größenwahn zu tun, an die Resultate irgendwelcher Modelle zu glauben.
#14: Jürgen Wanninger sagt:
„Oder ist es fürs Modellieren des Klimas wurscht, wenn wir morgen den Schwarzwald abholzen?“
Herrn Wanniger dämmert es so langsam, was der Unterschied zwischen einem Szenario und einer Prognose mit feedback ist.
Bravo, Sie sind zwar noch weit davon entfernt, bei dem Thema mitreden zu können, aber immerhin ein kleiner Hoffnungsschimmer
Wie ist dies nun zu verstehen?
Klima ist doch wohl das Integral des Wetters über die Zeit. Um beides zu prognostizieren muss man denke ich die Landschaft kennen, in der beides stattfindet. Oder ist es fürs Modellieren des Klimas wurscht, wenn wir morgen den Schwarzwald abholzen?
Sehr geehrter Herr Wanniger,
ich stimme Ihnen voll zu, die Kernthese ist in der Diskussion etwas verloren gegangen:
„Was John Droz eigentlich fein ausgearbeitet hat, geht im Nachhinein hier im Blog leider unter:
Um ein vernünftiges Klimamodell bekommen zu wollen, muss man
a) muss man die Natur komplett verstehen und gesetzmäßigen Zusammenhänge kennen, um sie in einem programmierbaren Rechenmodell beschreiben zu können.
b) braucht man praktisch unendlich viele Daten, damit das Modell dann auch funktioniert.“
Mir ist besonders These a) beim ersten Lesen aufgestoßen, weil sie so ziemlich allem widerspricht, was man unter „Modell“ versteht.
Würde man die Natur komplett verstehen, dann bräuchte man kein Modell mehr, denn dann könnte man auf die Nachkommastelle genau die Temperaturentwicklung vorhersagen. Zu Modellen greift man genau dann, wenn eben nicht alles bekannt ist.
Beispiel:
Ich denke mir ein Elektron immer noch gerne als geladenes Kügelchen, das nach dem Bohrschen Atommodell auf Bahnen hüpft. Das hat mit der wirklichen Natur nichts mehr zu tun, denn es gelten die Gesetze der Quantenphysik und selbst diese sind weit von einem Verständnis der Natur entfernt. Trotzdem liefert das Atommodell für viele Anwendungen vernünftige Ergebnisse.
zu b)
Wieviele Daten man braucht, hängt entscheidend davon ab, welchen Präzisionsgrad man erreichen möchte und beim Klimamodell sogar noch mehr von den Kapazitäten des Rechners.
Könnte das oben gesagte nicht zu einer hübschen Definition für den Unterschied zwischen Klima und Wetter führen?
„Wetter wird mit Instrumenten gemessen, Klima mit numerischen Modellen.“
(Wer Sarkasmus findet, darf ihn behalten.)
Ab und zu gibt es Politiker, welche es kapiert haben, was es mit „mathematischen Modellen“ auf sich hat, zum Beispiel Caspar Weinberger, US Secretary of Defense Anfang der 80 er Jahre:
>>I will not become a prisoner to abstract models, nor will I try to quantify the unquantifiable. Those analysts on my staff will not serve as advocates or initiators.
Was John Droz eigentlich fein ausgearbeitet hat, geht im Nachhinein hier im Blog leider unter:
Um ein vernünftiges Klimamodell bekommen zu wollen, muss man
a) muss man die Natur komplett verstehen und gesetzmäßigen Zusammenhänge kennen, um sie in einem programmierbaren Rechenmodell beschreiben zu können.
b) braucht man praktisch unendlich viele Daten, damit das Modell dann auch funktioniert.
Beides ist nicht gegeben.
a) Viele Klimavorgaänge sind nur sehr unvollständig verstanden. Habe ich aber mehrere Vorgänge, die jeder einzeln nur theoretisch einigermaßen verstanden zu sein scheinen, ergibt sich in ihrer Zusammenwirkung kein vorhersagbares Modell mehr. Die Zahl der Lösungen ist der gesamte Lösungsbereich. Es gibt unendlich viele Lösungen.
Zu b) selbst wenn die natur komplett verstanden und über Zustandsgleichungen beschreibbar wäre, würde ich immer noch eine unendlich große Datenmenge benötigen, um Zukunftsentwicklungen einigermaßen prognostizieren zu können. Das Modell müsste eine Beschreibung von jedem kleinen Wäldchen, jedem Fluß, jeder größeren Siedlung usw. usw. enthalten. Zudem müssten Temperatur, Feuchte, Druck, Windgeschwindigkeit usw. als Anfangswert an unendlich vielen Mess-Stellen bekannt sein.
Es ist geradezu lächerlich zu glauben, das Erdklima modellieren zu können.
Vor einiger Zeit habe ich versucht, einige Texte aus der englischen Literatur ins Deutsche zu übersetzen. Fazit: Es geht. Sowie: es geht nicht. Ja, man kann einen Sachverhalt wörtlich übersetzen. Nein, man bekommt die Bedeutung nicht exakt rüber. Das hat mit dem Kontext zu tun. Der Kontext ist an der Bedeutung direkt beteiligt. Aber das Lustigste … und Faszinierendste: Auch der Kontext ist noch nicht die Bedeutung. Diese ergibt sich erst durch die Interpretation des Übersetzers. Ein zweiter Übersetzer eröffnet eine weitere Interpretation. Beide Interpretationen sind nicht eigentlich „falsch“ – sie sind lediglich subjektiv. Genau das passiert, wenn Wissenschaft nicht zum exakten Ergebnis führt oder führen kann; dann muss eine Interpretation her, die über das subjektive Element zu einer vermeintlichen Exaktheit führt. Meint: Soll es ein Hockeystick sein, wird es ein Hockeystick sein. Aber auch: Will man aussterbende Eisbären glaubhaft machen, muss man Eisbären beim Sterben zeigen. Die Subjektivität Einzelner in die Öffentlichkeit gebracht nennt sich kurz Manipulation. Insofern hat wissenschaftliche Arbeit mit Moral zu tun. Für mich die interessanteste Schlagzeile der letzten Zeit aus dem Mainstream „WIR GLAUBEN EUCH NICHT MEHR.“ Mein Laienvorschlag an die klimaforschenden Klimaforscher zur Ermittlung der klimaerforschten Globaltemperaturen: Mehr Bodenstationen in Afrika, weniger Bodenstationen in Sibirien. Wird schon gemacht? Ach so…
Herr Georgiew schreibt:
„Die Wirklichkeit umzudrehen, d.h. aus Simulationen den Zusammenhang zu erkennen und nachzuweisen ist völliger Unfug, bedeutet dem Computer analytische Fähigkeiten und komplexe Denkweise zu unterstellen.“
Bitte beachten Sie, dass man physikalische Gesetze und gegebene Zusammenhänge in ein Programm eingearbeitet hat. Ich bezweifle nicht, dass man 1+1=4 programmieren kann, wenn aber mathematische und physikalische Gesetze beachtet werden müssen, dann geht das wohl nicht mehr. Überprüfbar ist es im Prinzip auch, ich habe in meinem Beitrag zuvor ja einen Quellcode verlinkt.
@ Herr Giandomenico.
„Ein weiteres wichtiges Argument sind die Unbestimmtheit der Computer und der Computermodelle selbst. Zwei identische Rechner mit identischen Programmen liefern nach wenigen Zyklen in Chaosmodellen bereits unterschiedliche Ergebnisse. Wie sollen da Aussagen in die Zukunft möglich sein, die nicht ideologisch berichtigt sind?“
Wenn aber alle Läufe denselben Trend widerspiegeln und sich alle Läufe innerhalb einer gewissen Bandbreite bewegen, dann lässt sich doch eine gewisse Aussage belegen.
Liebe Herrn Georgiew und Giandomenico,
glauben Sie Ihre absurden Äußerungen eigentlich selber oder liegt das nur daran, dass Sie nicht wissen, was ein Klimamodellprogramm eigentlich ist? Mit naturwissenschaftlichen Kenntnissen sollte das zumindest ansatzweise möglich sein, oder vernebelt die Hysterie, die EIKE und ihre Autoren hier mit diesen albernen Artikeln schürt, den Verstand?
Computerprogramme können prinzipiell keine neue Grundsatzerkenntnisse liefern, da das Ergebnis einer Computerberechnung(-simulation) immer ausschließlich den im Programm hinterlegten Formeln und Werten entspricht. Bekannte mathematische Zusammenhänge können dargestellt werden, nicht aber neue Zusammenhänge nachgewiesen werden. Ich könnte selbst ein kleines Programm schreiben, dass bei der Rechenoperation 1+1 das Ergebnis 3 liefert. Ich kann dann nicht behaupten, ich habe einen neuen mathematischen Zusammenhang gefunden. Richtig wäre, die Zusammenhänge waren mir vorher nicht klar, das Ergebnis könnte zufällig stimmen, ist aber sehr unwahrscheinlich.
Ist der Zusammenhang zwischen CO2-Gehalt und Temperatur der Erde thermodynamisch/physikalisch/mathematisch exakt bekannt (über Mehrfachmessreihen bei von kosmischen Einflüssen isolierten Erde, also absolut unmöglich), dann könnte dieser Zusammenhang in einem Programm hinterlegt werden und für Simulationen verwendet werden.
Die Wirklichkeit umzudrehen, d.h. aus Simulationen den Zusammenhang zu erkennen und nachzuweisen ist völliger Unfug, bedeutet dem Computer analytische Fähigkeiten und komplexe Denkweise zu unterstellen.
Die Simulationen des IPCC und ähnliche sind zu betrachten wie beliebige Rechenoperationen im Sinne 1+1=4 oder 1+1=5, nur auf wesentlich höheren (nicht überprüfbaren) Niveau. Die Zusammenhänge sind im Voraus nicht bekannt, also ein riesiges teures Computerspiel, dass das für die Propaganda gewünschte Ergebnis durch das anpassen der mathematisch unbekannten Variablen liefert.
Viel Spaß beim spielen NB und NF!
Ein weiteres wichtiges Argument sind die Unbestimmtheit der Computer und der Computermodelle selbst. Zwei identische Rechner mit identischen Programmen liefern nach wenigen Zyklen in Chaosmodellen bereits unterschiedliche Ergebnisse. Wie sollen da Aussagen in die Zukunft möglich sein, die nicht ideologisch berichtigt sind?
Lieber Anonymous,
Ihnen kann geholfen werden. Die Klimawissenschaft ist gläserner als Sie vermuten.
Hier ist ein Link zum Quellcode von GISS-ModelE:
http://tinyurl.com/yfc3btq
Weiter Quellcodes nach Ihrer Wahl finden Sie
hier: http://tinyurl.com/ycockov
Ich finde Ihre Einwände völlig berechtigt und unterstreiche die Wichtigkeit, dass die Simulationsergebniss für jedermann überprüfbar und nachvollziehbar sind.
Leider wird dies wohl in der Praxis nur wenigen Spezialisten möglich sein, die inhärente Physik ist doch recht komplex. Ich persönlich muss leider passen.
Als Diplom Informatiker kann ich nur noch hinzufügen, das keine komplexe Software fehlerfrei ist. Aber obwohl dies jedem klar ist der schon mal Anwender einer Software war, werden die Klimamodelle als bare Münze genommen, bzw. eine öffentliche Prüfung wird nicht vorgenommen.
Nur weil ein Programm nicht offensichtlich mit einer Fehlermeldung abstürzt bedeutet es nicht das es fehlerfrei ist, wie man ja gerade bei den EC-Karten festgestellt hat. Jahrelang lief alles gut und auf einmal geht garnichts mehr.
Aber jahrelange „Erziehung“ des Anwenders durch sogenannte Spezialisten die im Fehlerfalle sagen „Ja, aber diese Eingabe hätten sie ja garnicht machen dürfen“ haben beim Anwender den Eindruck hinterlassen er selbst wäre schuld. Ich kenne viele Kollegen die immer noch so denken.
Aber Fakt ist, wenn eine Software nicht richtig funktioniert, liegt es IMMER an einem Softwareentwickler, nie an einem Anwender. Wenn ein Datumsfeld nicht negativ sein darf, muss der Softwareentwickler das erkennen und entsprechend reagireren.
Natürlich gibt es immer Fälle, an die auch ein Softwareentwickler nicht denkt aber gerne werden Prüfungen einfach weggelassen mit der Begründung „Wie oft kommt so etwas denn vor?“. Denn jede Formel macht das Programm komplexer und mit der Komplexität steigen die Entwicklungskosten.
Da es aber normal ist, das Entwickler auch nicht an alles denken, wäre es sinnvoll, die Software der Klimamodelle und auch alle daten als „Open Source“ zur Verfügung zu stellen, damit auch andere den Quelltext zumindest auf Fehler überprüfen können.
Genau beschriebenes Problem der Computerprogrammierer mit den / oder auch gegen die Anwender(n).
In der Industrie gibt es komplexe Produktionssysteme (der Automatisierungstechnik) die vollautomatisch Ausweichstrategien fahren sollen – Beispiele: Automobilproduktion, Armaturenhersteller, die Koffertransportsysteme am Flughafen und die vollautomatische U-Bahn.
Wer neu im Fach ist meint, damit lässt sich doch die Zukunft genau berechnen. Mit Erfahrung ist man dann froh, wenn bei den meisten der Ereignisse der Automatismus nicht ganz falsch reagiert hat.
Hinzu kommt ein weiteres Phänomen: Wenn etwas gedruckt ist, wird es eher geglaubt, als wenn es eine handgeschriebene Notiz ist. Der Computer kann sich nicht irren, nur der Mensch irrt – Warum: Weil vergessen wird, der Computer folgt nur dem Programm, was ein Mensch eingegeben hat und ist auch noch von korrekten Eingaben abhängig.
Deshalb ist es umso trauriger (oder bezeichnender?) wenn behauptet wird, die Rohdaten, Eingaben sind verloren gegangen (Phil Jones).
Jedes Medikament muss seine behauptete Wirksamkeit mindestens dreifach beweisen.
1) Im Laborversuch, 2)In Feldversuchen, 3)in der klinisch erprobten Anwendung.
Wo sind die Beweise einer C02-Erwärmung?
1) Alle Versuche sind misslungen, kein einziger Versuch zeigt eine Erwärmung bei Verdopplung der C02-Konzentration 2) Nirgendwo kann man in der Natur örtliche Erwärmungen auf C02 zurückführen. 3)Auch C02-Füllungen in Fenstern oder C02 in Treibhäusern führen führen zu keinerlei Erwärmung gegenüber Normalluft. Nirgendwo wird durch C02 irgendwas erwärmt.
Das wissen die Treibhäusler genau, deshalb drohen sie mit dem Fegefeuer Hitzetod. Und was steckt dahinter?: Die einzig ergiebige Energiequelle ist nicht die Sonne, sondern der Steuerzahler. Mein Paßwort war nämlich „zahlt“