Computer sind erstaunlich, bemerkenswert und unglaublich nützlich, aber sie können nicht zaubern. Als ein IT-Experte mit über 25 Jahren kommerzieller Erfahrung; als jemand, der einen großen Teil fast jeden Tages meines Lebens mit Computer-Software gearbeitet hat, möchte ich einige meiner Einsichten bzgl. dieses bemerkenswerten Werkzeuges beschreiben – und ich werde erklären, warum mich meine Erfahrung mit Computern skeptisch gemacht hat hinsichtlich Behauptungen über die Genauigkeit und Effizienz der Klima-Modellierung.
Zuallererst und am Wichtigsten: Computermodelle werden zutiefst beeinflusst durch die Hypothesen des Software-Entwicklers. Die Kreation von Software ist ein artistisches Unterfangen; es fühlt sich an wie die Einbettung eines Teils von sich selber in eine Maschine. [Das gilt mit anderen Assoziationen genauso für einen Schriftsteller! Anm. d. Übersetzers]. Deine Überlegungen, deine Gedanken, verstärkt durch die Macht einer Maschine, die zur Befriedigung deiner Bedürfnisse gebaut worden ist – es ist eine unheimliche Sensation, seine intellektuelle Reichweite sich entfalten zu fühlen mit Hilfe einer Maschine.
Aber dieser Akt der Kreation ist auch eine Restriktion – es ist sehr schwierig, eine Software zu kreieren, die ein vollkommen unerwartetes Ergebnis zeitigt. Mehr als alles andere ist Software ein Spiegel der Meinungen des Kreierenden. Es kann dabei helfen, ein paar Details zu klären, aber solange man nicht freiwillig und mit viel Erfahrung eine Maschine kreiert, die echt innovieren kann, werden Computer selten mit Überraschungen aufwarten. Sie tun einfach das, was man ihnen sagt, das sie tun sollen.
Wenn ich also Wissenschaftler und Politiker behaupten höre, dass ihre Argumente gültig sind infolge eines von ihnen kreierten Computermodells, lässt es mich erschauern. In meinen Experten-Ohren ist alles, was sie sagen, dass sie ihre Meinung in eine Maschine eingebettet haben, welche dann die Antwort lieferte, die sie haben wollten. Sie können genauso gut sagen, sie hätten ihre Meinung in ein Word-Dokument geschrieben und dann gedruckt – sehen Sie, hier ist der Beweis, ein bedrucktes Blatt Papier…
Mein zweiter Gedanke ist, dass es sehr leicht ist, von seiner eigenen Illusion gekapert zu werden; dass eine Reflektion von einem selbst mehr bedeutet als es tut.
Falls die Leute die Grenzen von Computern nicht verstehen; falls sie nicht verstehen, dass das, was sie wirklich sehen, nichts weiter ist als eine Reflektion von ihnen selbst, können sie einen übertriebenen Sinn des Wertes gewinnen, den der Computer für ihre Bemühungen darstellt. Mehr als einmal habe ich dies erlebt beim Aufbau eines Unternehmens. Der Computer widerspricht fast niemals den Forschern, die die Software entwickeln – oder anderen, die damit beauftragt worden sind, die Software zu schreiben nach den Spezifikationen der Forscher. Falls man immer eine positive Bestärkung seiner Ansichten erfährt, ist das wie ein Schmeicheln – es ist sehr, sehr verführerisch, Schmeichelei für echte Unterstützung zu halten. Dies ist meiner Vermutung nach zumindest teilweise das, was den Klimaforschern passiert ist, die sich auf Computer verlassen. Die Computer sagen ihnen fast immer, dass sie recht haben – weil sie den Computern gesagt haben, was diese sagen sollen. Aber man vergisst nur allzu leicht, dass all jene positive Bestärkungen nichts weiter sind als eine Reflektion ihrer eigenen Ansichten.
[Ist es aber hier nicht viel mehr die Vorgabe einer politischen Ideologie, die hier maßgeblich war? Anm. d. Übers.]
Bill McKibben erhält andauernd Versicherungen von Personen, die absolut davon überzeugt sind, dass ihre Theorien richtig sind – aber falls meine Theorie richtig ist, dass das, was falsch gelaufen korrekt ist, wurde diesen Personen, die diese Versicherungen abgaben, durch das ultimative Echo vor Augen geführt, wie sehr sie sich getäuscht haben. Ihre Computer-Simulationen weichen kaum einmal von ihren vorgefassten Schlussfolgerungen ab – weil das Ergebnis ihrer Simulationen einfach eine Reflektion ihrer vorgefassten Meinungen ist.
Eines Tages, vielleicht schon eines baldigen Tages, werden Computer die Grenzen, die wir setzen, überwinden. Forscher wie Kenneth Stanley oder Alex Wissner-Gross investieren ihre bedeutenden intellektuellen Bemühungen in das Auffinden von Wegen, die Grenzen zu schlagen, die Software-Entwickler ihren Kreationen auferlegen.
Sie werden Erfolg haben. Selbst nach 50 Jahren wachsen die Hardware-Möglichkeiten von Computern exponentiell und verdoppeln sich alle 18 Monate. Damit setzen sie einen geometrischen Anstieg von Computer-Macht frei – Macht, um sogar noch ambitioniertere Versuche durchzuführen, um eine echte künstliche Intelligenz zu erzeugen. Die technologische Singularität – eine Vorhersage der zufolge Computer bald die menschliche Intelligenz ausstechen und die Gesellschaft auf eine Weise transformieren, die ultimativ jenseits unserer derzeitigen Fähigkeit liegen, was wir verstehen – könnte lediglich wenige Jahrzehnte in der Zukunft liegen. Während der kommenden Jahre dürften wir geblendet sein von einer Reihe sogar noch eindrucksvollerer technologischer Wunder. Probleme, die heute noch unüberwindlich scheinen – Verlängerung der menschlichen Lebensdauer, die Konstruktion von Robotern, die simple Haushaltstätigkeiten ausführen können, die Heilung gegenwärtig unheilbarer Krankheiten, vielleicht sogar die Erzeugung eines zuverlässigen Klimamodells [aber nur, wenn man wirklich ALLE relevanten natürlichen Klimabeiträge einbringt, womit wieder die Ideologie ins Spiel kommt; Anm. d. Übers.] – werden während der nächsten paar Jahrzehnte wie Kegel vor unsere Füße zu fallen beginnen.
Aber jener Tag, jenes Zeitalter der Wunder; das Zeitalter, in dem Computer einfach aufhören, nur Maschinen zu sein und unsere Freunde und Partner werden, vielleicht sogar ein Teils von uns selbst werden durch neurale Implantate – perfektes Gedächtnis, sofortiges Verständnis jeder ausländischen Sprache, sofortige Nennung des Namens eines jeden, mit dem man spricht – jener Tag ist noch nicht gekommen. Derzeit sind Computer einfach Maschinen, die genau das tun, was man ihnen sagt – nichts weiter. Darum bin ich zutiefst skeptisch gegenüber Behauptungen, dass Computermodelle, entwickelt von Menschen, die glauben die Antwort schon zu wissen; die starke vorgefasste Ansichten hinsichtlich des Ergebnisses haben, dass sie sehen wollen (hier), das Klima wirklich genau modellieren zu können.
Link: http://wattsupwiththat.com/2015/06/07/an-it-experts-view-on-computer-modelling/
Übersetzt von Chris Frey EIKE
Anmerkung des Übersetzers: Hier werden ausschließlich die Grenzen von Computern und Modellen angesprochen. Jedes einzelne Wort kann man wohl unterstreichen. ABER – wie schon hier und da in der Übersetzung angemerkt: Es wird völlig außer acht gelassen, dass die Modellierung hier ABSICHTLICH nur einer Ideologie folgen darf, bei der die Möglichkeiten, die Computer heute schon bieten, nicht einmal ansatzweise ausgeschöpft werden DÜRFEN!
#15:Herr P. Egberts, seit 1963 wissen wir vom METEOROLOGEN Edward Lorenz, dass ein digitaler Rechner bestimmte physikalische Prozesse zeitabhängig NICHT mehr berechnen kann.
Das ist keine Frage der Rechenkapazität, oder der Genauigkeit, oder der „Komplexizität“, denn das Lorenzmodell hatte nur 3 Variablen,
sondern eine grundsätzlich mathemathisch-logische Erkenntnis,
die der geniale russische Mathematiker Ljapunow schon 1892 veröffentlicht hat. Bei Planetenbahnen ist das noch länger bekannt (3-Planeten-Modell)
Viele verstehen das heute noch nicht.
Was EDV selbstverständlich kann, nicht erst seit gestern, ist die Berechnung von Korrelationen von real existierenden numerischen Faktoren.
Das beinhaltet natürlich auch die Frage ob überhaupt eine Korrelation besteht,
die condition sine qua non für eine (vermutete) Kausalität.
Rel. einfach für 2 Faktoren wie die atmosphärische CO2-Konzentration und die Temperatur der Erdoberfläche.
Das hat man selbstverständlich längst gemacht, für die Vergangenheit, mit dem Ergebnis:
Es existiert KEINE Korrelation.
CO2 beeinflusst die Temperatur NICHT,
umgekehrt
beeinflusst die Temperatur (Ozeane, Wasser) den CO2-Gehalt in der Luft.
Damit ist der CO2-Treibhauseffekt empirisch widerlegt.
mfG
10# Dr Paul.
Das hab ich mich schon öfter gefragt.
Die Sonne strahlt also langfristig kontinuierlich stärker und die Erde ist ihr nicht gefolgt.
Wie hätte der Mars bei einer schwächer strahlenden Sonne damals flüssiges Wasser haben sollen 50 Millionen km weiter von der Sonne entfernt.
Mfg
@#15: P. Egberts, zu „… die Möglichkeiten, die Computer heute schon bieten, nicht einmal ansatzweise ausgeschöpft werden …“
M.E. liegt das auf der Hand. Im Vergleich zu computerisierten Experten-systemen greift Klima Modellierung viel zu kurz.
Korrigieren Sie mich bitte, aber wir haben bestenfalls ein manuelles Klima Experten-system welches dem Alltagsexperten (das sind die Meterologen) zur Verfügung steht. Aber ein Computerprogramm welches Menschen bei der Lösung von komplexeren Problemen wie ein Experte unterstützen kann, das ist etwas anderes: es setzt verbindliche Knowledge Representation (und Reasoning, und und und, und Validatation!) voraus. Es hat aber auch Nachteile (sowohl in manuellen als auch automatisierten Experten-systemen), cf. wiki-Pravda [de] unter „Expertensystem“ und dort „Nachteile in der Anwendung“.
Wenn wir das emotionale um die Aussage herum „nicht einmal ansatzweise ausgeschöpft werden“ einmal weglassen, dann treffen viele der genannten „Nachteile in der Anwendung“ auf das manuelle Experten-system der Klima Modellierung zu, das lässt sich doch nicht abstreiten, oder.
Sicher kann man im 21. Jahrhundert von der bisherigen Erfahrung (seit etwa 50er Jahre) mit Experten-systemen profitieren und die meisten Nachteile aufdecken und abstellen.
Auf meine Hauptsächliche Frage:
Woher wissen Sie …dass die Modellierung hier ABSICHTLICH nur einer Ideologie folgen darf, bei der die Möglichkeiten, die Computer heute schon bieten, nicht einmal ansatzweise ausgeschöpft werden DÜRFEN!…? welche Beweise haben Sie dafür?
hat meines erachtens bisher niemand geantwortet. Die Antwort von Herrn Bruno scheint nur eine genauerer Erklärung über die Möglichkeiten von Computern (und die diskrepanz zur Werbung darzustellen)…ähm…danke für den Hinweis, aber das (noch) keine Maschiene etwas alleine unternimmt war mir bewusst. Den Film hab ich nicht gesehen (hol ich nach). Herr Kowatsch geht nur auf meinen Nachsatz ein. Vor allem hätte ich gadacht das derjenige der diese Behauptung hier aufstellt sich dazu äussert. Also gibt es Beweise???
zu Herrn Kowatsch: Kein Klimaforscher behauptet das die Temperatur und Ihre entwicklung im Durchschnitt nur vom co2 gehalt abhängt. Einer der Hauptfaktoren die zu Ausreißern führen sind El Nino Ereignisse die 1998 zu einem sehr hohen Wert geführt haben. wenn man jetzt bei der Statistik mit diesem Jahr beginnt ergibt sich (inzwischen nur noch) eine stagnation (vor ein paar jahren war es noch ein abstieg). Ich halte das für eine ziemlich plausible Erklärung und wir werden in den nächsten zwei Jahren feststellen ob sie weiterhin von einer Pause sprechen können. Spätestens dann wenn es zum nächsten El Nino kommt, was dann zweifellos der Startpunkt für die nächste Pause ist, wenn man das so sehen möchte…
@#13: Dietmar Fürste, zu „peinlich“:
Selbstverständlich ist das peinlich, Ben Goertzel is Chief Scientist of f i n a n c i a l prediction firm Aidyia Holdings [wiki.Pravda en], und er hat soviel €Narrenfreiheit$ wie er €Geld$ auftreiben kann.
Ben Goertzel [opencog.org]: The h y p o t h e s i s is that IF (i f) this design is fully implemented and tested on a reasonably-sized distributed network, the result will be an AGI system with general intelligence at the human level and ultimately beyond.
Und, vieviel €$ haben Sie bereits dem Ben Goertzel gegeben damit er Sie auch unendlich reich macht?
@ #12 Alwin Bruno
Und in den Tutorials der AGI-2015 (agi-conf.org/2015/schedule) erscheint dann ausgerechnet das Thema:
„Tutorial on Combining Program Learning
and Probabilistic Reasoning in OpenCog“
ausgerechnet dann, wenn Sie einem Programm die Lernfähigkeit abgesprochen haben! Irgendwie peinlich, finden Sie nicht?
@#11: Markus Estermeier, zu „das Wesentliche“:
Sie kritisieren meine Kritik am „Selbstlernen“ der Programme indem Sie meine Kritik wiederholen? Is‘ ja ’n Ding.
Zu Ihrem „ausführlich“, „allgemein verständlich“, „vollständig“: das ist Ansichtssache, meine Ansicht ist dass bei solchen Behauptungen immer jemand noch einen Punkt findet der fehlt und sei es nur die Computer-wissenschaft (siehe auch Anmerkung vom Übersetzer) welche bei den Geiste[S|R]wissenschaften noch nicht angekommen ist.
Wo wir gerade bei unzutreffenden Behauptungen und dem Mangel an Lernfähigkeit sind:
– http://bit.ly/1fpyGHo
Die theoretischen Berechnungen haben beim Wesentlichen versagt.
@ Herrn Alwin Bruno
Was wollen Sie uns mit dem Contra an Herrn Fürste darlegen?
Herr Fürste hat in #4 die Problematik der Programmierung für Klimamodelle ausführlich und allgemein verständlich dargestellt. Das ist mal das Eine.
Nun hängen Sie sich an dem Nebensatz der sogenannten „künstlichen Intelligenz“ auf. KI ist nun mal ein interessantes Forschungsfeld für Programmierer. Hier wird versucht, alle erdenklichen Eventualitäten durch das Programm abfangen und verwerten zu können. Das angeführte Beispiel von Herrn Fürste zeigt ja nur, wie geschickt man bereits an solche Problemstellungen herangeht. Mit Intelligenz (Selbstlernprozess) der Computer oder deren Programme hat das nichts zu tun. Auch wenn der Name „KI“ dies suggeriert.
Wäre schön, wenn Sie sich auf das Wesentliche konzentrieren würden. Das gilt auch für einige andere Kommentatoren.
Mit freundlichen Grüßen
Markus Estermeier
Hallo Herr #4: Dietmar Fürste, es gibt solche „numerische Wettermodelle“ schon lange für einen Vorhersagehorizont bis zu 3 Tage. Hier gibt es ja angeblich Meteorologen, die das wissen müssen.
CO2 ist da natürlich NICHT drin.
Das taucht erst bei „Klimamodellen“ auf, die deshalb falsch sind. 🙂
Nicht nur deshalb.
Schon kurzfristig gibt es das Problem des „chaotischen Indeterminismus“, nicht lineare zeitabhängige Differenziale MÜSSEN aus dem Ruder laufen.
Mich konnte noch keiner so richtig überzeugen,
warum das langfristig nicht so sein soll.
Wir haben doch das bekannte „Paradoxon der schwachen jungen Sonne“
http://tinyurl.com/ozyr84c
„Das Standardsonnenmodell ergibt für die Zeit vor 4,4 Milliarden Jahren eine 25 bis 30 % geringere Strahlungsleistung.“
Die Sonne strahlt also langfristig kontinuierlich stärker und die Erde ist ihr nicht gefolgt.
mfG
@#8: Dietmar Fürste, zu „schulmeisterlich“.
Sie informieren sich nicht über Foristen? Steht doch schon in diversen Kommentaren hier auf EIKE. Na ja, herbeivermutete Unterstellungen sind ja nicht neu hier im Forum, Telepathie über unbekannte Foristen scheint ja soo in … und was sagt das über Ihre Aussagen?
Sie werden keine lernende Maschine bringen weil Sie keine haben und in der abgetippten Propaganda nur Humbug erzählt wird. Ausser Search nach vorher ausgedachten Mustern ist nichts ‚drin, nochmal: herbeigewollter Output = vorher ausgedachter Input und das ist kein Lernen — schon garnicht selbstständig denn Sie haben a l l e s schon vorher hineingesteckt (so wie im Beispiel Newton-Raphson-Verfahren, sagt Ihnen das nichts?).
Mit Debatten über Behauptungen der Fachgebiete (Theorie) und deren Marketingtricks (äh, Zauber-worte als „Ersatz“ für Belege sobald insistiert wird) habe ich nichts am Hut.
@ #4 Alwin Bruno
Für ihre schulmeisterliche Reaktion nutzen sie eine vermutlich auf schulischem Lernen bzw. wissenschaftlichem Forschen fussende Deutung des Begriffs „Lernen“, die mit dem, was ich als Ingenieur und Softwareentwickler beschreiben wollte, wenig zu tun hat.
Gemeint war mit „selbstlernend“ die Selbst-Anpassung eines Software-Programms an veränderte Bedingungen in der Außenwelt, mit der es kommuniziert, indem es ohne weiteres menschliches Zutun als ein Automat zunächst äußere Gegebenheiten ‚erkundet‘ und als Parameter intern abspeichert.
Später werden z.B. alte Bezüge zu früher existierenden Gegebenheiten verworfen, wenn sie nicht mehr gelten und durch neue Informationen (Parameter) ersetzt, womit das Programm die eigene konforme Abbildung dieser Außenwelt ständig aktualisiert und sich anpasst.
Weil das von mir (im Beispiel) dafür geschriebene Programm seit Jahren stabil läuft, was ohne diese Selbstanpassung nicht möglich wäre, und weil in der Praxis unzählige ähnliche Prozessrechner existieren, die ohne solche Selbstanpassung ebenfalls nicht möglich wären, habe ich mir den Vergleich mit einem „Lern“-Prozess erlaubt, auf dessen Begrenztheit ich aber im letzten Absatz hinweise.
Zu K1: „…Im übrigen denke ich das programme sehr wohl zu unerwarteten Ergebinissen führen können da es im Kern darum geht Datenmengen zu kombinieren, die Daten als solche sind aber messbare Werte die durchaus zu unerwarteten Ergebnissen führen können….“
Ich antworte: Mit dieser Meinung sind sie nicht allein, wir alle vertreten diese Meinung. Aber darum geht es nicht, es geht vielmehr um die bewussten Falscheinsatz und der Daten, mit Halbwahrheiten könnte jede Software beweisen, dass die eigene Glaubensrichtung stimmt..Bsp. Die Temperaturen stagnieren weltweit und auch in Deutschland seit 18 Jahren. Welche Klimasoftware der gläubigen Erwärmungsforscher hat das richtig vorhergesagt? Keine, die Erwärmungsvorhersagen betrugen zwischen 0,3 bis 0,4 K. Da es keine gibt, waren alle Vorhersagen unbrauchbar. Das Schlimme ist, dass in den deutschen Medien mehrheitlich die falschen Vorhersagen als richtig gelten und so auch immer noch verbreitet werden.
@#1
Volle Zustimmung zu den Behauptungen zu Klimamodellen. Vielleicht wird die Auflösung der Fragestellung zu #1 noch deutlicher, wenn Sie sich dieses Video anschauen:
https://youtu.be/dByxvxQ5Tv4
Es wird in diesem Video anhand einer Excel-Tabelle m.e. anschaulich beschrieben, warum die Klimamodelle auf Willkür des Programmiers (bzw. seines „Auftraggebers“) aufgebaut sind.
Nullsatz der Woche: „Man kann sehr wohl selbstlernende Programme schreiben. Man muss jedoch auch dabei … die Reaktionen des Programms … festlegen.“ — Autor Dietmar Fürste in #4.
Herbeigewollter Output = vorher ausgedachter Input, das hat mit Lernen nix zu tun sondern mit abgetipptem Mumpitz aus $Werbetricks$ auf dem Forschungsmittelantrag.
Was Sie so gerne beschreiben wollen wird Search genannt und setzt voraus dass Sie wissen was die Maschine suchen soll (eg. Langzeit-Muster im Wetter aka. Klima). Nehmen Sie sich ein Beispiel am Newton-Verfahren (Newton-Raphson-Verfahren), mehr ist nicht ‚drin.
Kommen Sie doch ‚mal auf eine der Konferenzen http://agi-conference.org/ und machen sich bei den Fachleuten lächerlich mit abgetippten unbeweisbaren Behauptungen. Ach übrigens, wenn Sie eine angeblich lernende Maschine bringen dann bestimme ich das Thema was die niemals lernt (ist ganz leicht).
Wenn die fragliche Modellierung von unbewiesenen Annahmen und/oder unzulässigen Vereinfachungen ausgeht, liefert sie sehr wahrscheinlich auch die erwarteten (gewünschten) Ergebnisse.
Den „subjektiven Faktor“ bei der Programmierung vollständig zu eliminieren, würde erfordern, sämtliche maßgebenden Parameter für ein Modell des Wetters (und als dessen Langzeit-Ergebnis des Klimas) einer Region und deren ständige Veränderung zu erkennen und zu berücksichtigen, was schlicht unmöglich ist, Beispiele: Wolkenbildung. Wasserkreislauf, Naturkatastrophen etc.
Dazu kämen dann neben den kosmischen Einflüssen (Sonne, Erdbahn) die oft noch nicht einmal verstandenen Wechselwirkungen zwischen all diesen Parametern sowohl im räumlichen, als auch im zeitlichen Verlauf, die eine halbwegs wahrscheinliche Vorhersage vielleicht für einige Tage ermöglichen, aber keinesfalls für Jahrzehnte und/oder die ganze Erde.
Man kann sehr wohl selbstlernende Programme schreiben. Man muss jedoch auch dabei nach der Methode die Reaktionen des Programms für alle zu erwartenden Events festlegen, muss dabei die Stabilität des Programmlaufs trotz äußerer Störeinflüsse (mit geeigneter Hardware „watchdog“ und Software „timeout-counter“) gewährleisten, muss die Methodik (State-Maschine oder Event-Maschine) festlegen usw.
Soll das Programm z.B. mit einen Cluster externer Clients kommunizieren, (EC-Karten-Terminals einer Reihe von Supermarkt-Kassen), muss es deren Status permanent durch einen Dialog in einer Matrix abbilden, und auf jede gegebene oder ausgebliebene Antwort der Clients in einer Endlosschleife reagieren, defekte Teilnehmer suspendieren, Ersatz-Geräte als „Neuankömmlinge“ im Cluster einordnen usw. usw.
Aber von schöpferischen resp. kognitiven Prozessen im Sinne echter KI ist das alles immer noch sehr weit entfernt. Insofern ist den Aussagen des Artikels meines Erachtens unbedingt zuzustimmen.
@#1: P. Egberts, zu „… die Möglichkeiten, die Computer heute schon bieten …“
Alle Möglichkeiten der Computer sind von trivial-Arithmetik vollständig abgedeckt. Deswegen müssen ja auch wir Software-Entwickler dem Ding beibringen was es machen soll. Es macht nichts, aber auch garnichts von allein, aber das was wir hinkriegen macht es mit bezahlbarer Geschwindigkeit.
Die Werbung sieht das anders denn ohne Irreführung und uneinlösbare Versprechen verkaufen die garnix sondern fegen sich selbst vom Markt
Vielen vielen dank für diesen Artikel!
Für diese Sätze:
„Mehr als alles andere ist Software ein Spiegel der Meinungen des Kreierenden“
„Sie tun einfach das, was man ihnen sagt, das sie tun sollen“
“ Die Computer sagen ihnen fast immer, dass sie recht haben – weil sie den Computern gesagt haben, was diese sagen sollen. Aber man vergisst nur allzu leicht, dass all jene positive Bestärkungen nichts weiter sind als eine Reflektion ihrer eigenen Ansichten.“
„Sie können genauso gut sagen, sie hätten ihre Meinung in ein Word-Dokument geschrieben und dann gedruckt – sehen Sie, hier ist der Beweis, ein bedrucktes Blatt Papier… “
Mehrfach hatte ich immer wieder hier die gleichen Gedanken ähnlich formuliert, die Mehrheit ist aber geneigt über Fehler der Modelierungen zu schreiben, nicht die Anerkennung der Ergebnisse aus Modellierung als wirklichkeit an sich in Frage zu stellen.
Der Fehler liegt im Auge des Betrachters: Die fehlende Distanz zwischen reele und virtuelle Welt. Ein Beurteilungsfehler im Sinne „identisch Ergebnisse = identische Ursachen“. Wenn man im Film sieht, wie ein Gegenstand herunterfällt, weiß man, dass die Schwerkraft der Wirklichkeit wirkt. Im Zeichentrickfilm wirkt aber keine Schwerkraft, es ist allen nur Phantasie und man kann sich die Wirklichkeit schön oder schlecht malen.
Da in modernen Computersimulationen alles so echt wirken kann, glaubt das Auge, es wirken wie im Film die Gesetze der Natur, wenn amn alles richtig macht….
Es ist aber eigentlich alles bewußte Täuschung, basierend auf Nachahmung, wobei das nicht Bekannte eben nicht mehr nachgeahmt wird, sondern reien Fantasie ist…
Die Modelierung von exakt beschreibbaren Prozessen mit ständigen Vergleich und Anpassung mit der Wirklichkeit wird hiermit nicht in Frage gestellt.
Hallo,
ich hätte eine Frage zu den Anmerkungen des Übersetzers: Woher wissen Sie …dass die Modellierung hier ABSICHTLICH nur einer Ideologie folgen darf, bei der die Möglichkeiten, die Computer heute schon bieten, nicht einmal ansatzweise ausgeschöpft werden DÜRFEN!…? welche Beweise haben Sie dafür?
Im übrigen denke ich das programme sehr wohl zu unerwarteten Ergebinissen führen können da es im Kern darum geht Datenmengen zu kombinieren, die Daten als solche sind aber messbare Werte die durchaus zu unerwarteten Ergebnissen führen können.