Abschied von der Aufklärung
Wissensanmaßung oder Gnostizismus in den Simulationsmodellen
Edgar L. Gärtner
Wie sinnvoll ist es, die Verrücktheiten der Grünen aller Parteien mit dem Hinweis auf die europäische Aufklärung zurückzuweisen? Können sich die Grünen doch, wie es scheint, ebenso auf die Tradition der Aufklärung berufen wie ihre Kritiker. Besonders klar bekennen sich die Grünen zur Aufklärung, wenn sie sich als Musterschüler der US-Neocons gerieren. Deren Anliegen ist global governance, die Beherrschung der Welt durch die analyrische Ausschaltung des gesunden Menschenverstandes.
Warum war im Paradies das Naschen vom Baum der Erkenntnis (von Gut und Böse) verboten? Die Mehrzahl derer, die sich heute auf die Aufklärung berufen, stellen sich diese Frage wohl gar nicht. Es geht hier selbstredend nicht darum, dem menschlichen Erkenntnisdrang grundsätzliche Grenzen zu setzen, sondern die Menschen davor zu warnen, selbst Gott zu spielen. Es geht gleichzeitig darum, die Menschen vor dem „Verlust der Mitte“ und dem Ende der Kontemplation durch die Anhäufung zusammenhangslosen Wissens zu bewahren. Nach Auffassung der historischen und aktuellen Aufklärer kann und sollte es prinzipielle Grenzen der menschlichen Erkenntnisfähigkeit gar nicht geben. Die Begründung dafür lieferte das streng deterministische Weltbild des mechanischen Materialismus, das sich auf die Gravitationstheorie des englischen Mathematikers und Münzmeisters Sir Isaac Newton (1643 – 1727) stützte. Newton fand für die vom deutschen Astronomen Johannes Kepler (1571 – 1630) entdeckten elliptischen Umlaufbahnen der Planeten um die Sonne die heute noch gültige mathematische und physikalische Erklärung. Was Gravitation ist und wie sie zustande kommt, wissen wir bis heute nicht. Es gibt darüber nur mehr oder weniger gewagte Vermutungen.
Die viel zitierte newtonsche Formel für die exakte Berechnung der Gravitationskraft gilt allerdings nur für die Anziehung zwischen zwei Himmelskörpern. Schon die Wechselwirkung zwischen drei Körpern ist mit dem newtonschen Instrumentarium der Differential- und Integralrechnung, wie es sich später zeigte, nicht mehr analysierbar. Newtons Formel galt und gilt noch heute nur für ein stark vereinfachtes Modell mit nur zwei Himmelskörpern, nicht jedoch für die vielfältigen Wechselwirkungen zwischen Sonne, Planeten und Trabanten im realen Sonnensystem. Über die grundsätzliche Unlösbarkeit des „Dreikörperproblems“ informiert dieser Blog-Beitrag eines Physikers: Unlösbar und faszinierend: Das Dreikörperproblem – Astrodicticum Simplex (scienc2eblogs.de). Newton bestätigte insofern die vom italienischen Dominikaner-Mönch Thomas von Aquin (1225 – 1274) aus logischen Überlegungen abgeleitete Erkenntnis, dass die Welt für uns Menschen zwar grundsätzlich erkennbar, in ihrer Gänze jedoch unbegreifbar bleibt, weil auch der schärfste Menschenverstand nur Teilwahrheiten erkennen kann. Doch das wollten Newtons Bewunderer, die sich als „Aufklärer“ hochstilisierten und über die mittelalterliche Scholastik lästerten, nicht wahrhaben. Sie zogen es vor, sich über das finstere und abergläubische Mittelalter lustig zu machen und stattdessen weiterhin die Illusion zu pflegen, Newtons Formeln seien der Schlüssel für das Verständnis des ganzen Universums.
Kants verführerische Aufklärungs-Definition
Immanuel Kants viel zitierte Definition der Aufklärung von 1784 (in der Septemberausgabe der Berlinischen Monatsschrift) klingt schon auf den ersten Blick verführerisch, weil sie die emanzipatorischen Sehnsüchte des aufstrebenden deutschen (Bildungs-)Bürgertums auf den Begriff bringt, kann aber auch als Antithese zum alttestamentarischen Verbot, vom Baum der Erkenntnis zu essen, gelesen werden: „Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Muth, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“ „Sapere aude!“ (wörtlich: „Wage zu wissen!“) kann allerdings leicht zum Wahlspruch eines Régimes werden, in dem das sokratische Bekenntnis, nichts zu wissen, als verabscheuungswürdige und strafbare Sünde gilt. So zeugt schon Kants Definition der Aufklärung von der Versuchung, Modelle als Realität auszugeben, um das Eingeständnis von Zweifel und Unwissenheit angesichts einer unübersichtlichen Problemlage zu vermeiden.
Newton selbst war da offenbar vorsichtiger. Denn in seinen Schriften finden sich etliche Hinweise auf göttliche Eingriffe, die die Systeme kreisender Himmelskörper vor dem Kollaps bewahren. Erst lange nach Newtons Tod wurde einer breiteren Öffentlichkeit bekannt, dass er einen großen Teil seiner Zeit mystischen Betrachtungen und alchimistischen Experimenten widmete. Diese erscheinen heute weniger als Irrwege eines ansonsten streng vernunftgeleiteten Geistes, sondern als eine ganzheitlichen Sinn suchende Ergänzung der analytisch-mathematischen Herangehensweise. Newton kann also gewiss nicht als Urheber des mechanistischen Weltbildes der Aufklärung gelten.
Laplace und Napoleon Bonaparte
Mehr als auf Newton geht das mechanistische Weltbild im Kern auf den „Traité de Mécanique Céleste“ (deutscher Titel: „Abhandlung über die Himmelsmechanik“) zurück, ein fünfbändiges, für Laien schwer verständliches Werk, das der französische Mathematiker Pierre-Simon Laplace (1749 – 1827) zwischen 1799 und 1823 schrieb. Schon vor der nur Mathematikern verständlichen Himmelsmechanik hatte Laplace seine auch für Laien verständliche „Exposition du système du monde“ veröffentlicht, die er dem ihm persönlich gut bekannten Ersten Konsul Napoléon Bonaparte vorstellte. Der naturwissenschaftlich durchaus Interessierte und mit der Theorie Newtons vertraute Machthaber soll Laplace auf das Fehlen jeglicher Anspielung auf Gott hingewiesen haben. Worauf Laplace geantwortet habe, einer solchen Hypothese habe er nicht bedurft. Laplace gab sich dadurch wie sein Gegenüber als Gnostiker zu erkennen. Der Gnostizismus ist das, was die Aufklärung von der mittelalterlichen Scholastik unterscheidet. Der Begriff „Gnostizismus“ verweist auf die spätantike Gnosis, eine häretische Bewegung, die streckenweise dem Christentum Konkurrenz machte beziehungsweise dieses zu unterwandern versuchte. Wie der moderne Gnostizismus übte sich schon die antike Gnosis darin, die Welt als berechenbar und daher vorausschaubar darzustellen, d.h. etwas zu wissen vorzugeben, was Menschen nach aller Erfahrung gar nicht wissen können, und das dann autoritär festzulegen und, wenn nötig, mit physischer Gewalt durchzusetzen.
Alternative, von der Bibel inspirierte Sichtweisen, die die Bedeutung des Zufalls und den Einfluss des Geistes hervorhoben, galten fortan als rückschrittlich, wenn nicht als reaktionär. In Wirklichkeit gibt es Wunder jeden Tag. Man darf sie nur nicht, wie viele Aufklärer, wegdefinieren. Aktive geistige Gleichschaltung ist eine Erfindung beziehungsweise Errungenschaft der kontinentaleuropäischen Aufklärung. (Für die schottische und skandinavische Aufklärung gilt das nicht in gleichem Maße.) Dabei ist es durchaus nicht so, dass Laplace und seine Nachfolger die Rolle des Zufalls in der Entwicklung von Natur und Gesellschaft leugneten. Im Gegenteil verdanken wir wesentliche Grundlagen der Wahrscheinlichkeitsrechnung gerade Laplace. Deren Ziel war aber nicht die Anerkennung der Offenheit von Entwicklungen, sondern deren Berechenbarkeit.
Seinen pointierten Ausdruck fand das deterministische Weltbild im „Laplaceschen Dämon“ – ein Ausdruck, der gar nicht von Laplace selbst stammt. Laplace sprach im Vorwort zu seinem „Essai philosophique sur les probabilités“ (1814) von einer höheren Intelligenz, die in der Lage wäre, aus der Kenntnis aller Bewegungsgesetze der kleinsten Atome wie der größten Himmelskörper sowie deren Anfangsbedingungen auf den zukünftigen Systemzustand zu schließen, d.h. zu einer so gut wie alles erklärenden Weltformel zu gelangen, mit deren Hilfe die Zukunft berechnet werden kann.
Aufklärung und Gnostizismus
Die vorgeblich auf Schwarmintelligenz beruhende Online-Enzyklopädie Wikipedia stellt denn auch beim Stichwort „Aufklärung“ schon einleitend durchaus zutreffend fest, dass die Bewegung der europäischen Aufklärung etwas mit Gnostik zu tun hat: „Der Begriff Aufklärung ist eng verbunden mit der frühmodernen Verurteilung des Mittelalters als einer Epoche der Dunkelheit und des finsteren Aberglaubens, die im Vergleich zur Antike als rückständig galt. Die Neuzeit sollte der Dunkelheit des Mittelalters das Licht der Erkenntnis entgegensetzen. Die Lichtmetaphorik konnte von der Antike übernommen werden: Vom Licht der Erkenntnis wurde in der griechischen Philosophie (zuerst von Parmenides), in der spätantiken Gnostik sowie in der Bibel gesprochen. Der Ausdruck ist zugleich mit einer Bemühung um Klarheit der Begriffe (clare et distincte) als Maßstab der Wahrheit verbunden – etwa bei René Descartes, Gottfried Wilhelm Leibniz und Johann Heinrich Lambert. Der Gebrauch des englischen Verbs „to enlighten“ und des Partizips „enlightened“ war seit dem 17. Jahrhundert üblich. Sie bedeuten „Verständnis schaffen“ und „aufgeklärt“ im Sinne von „über eine Sache erhellend informiert“. Das Substantiv „Enlightenment“ wurde erst im 20. Jahrhundert als Epochenbegriff gängig.[1] Der deutsche Ausdruck Aufklärung wurde um 1770 üblich.“
So weit Wikipedia. Die meisten Historiker sehen einen direkten Zusammenhang zwischen dem gnostischen bzw. mechanistischen Weltbild und dem Terror der französischen Revolution von 1789 bis 1794. Es zeigte sich hier die Skrupellosigkeit von allen Zweifeln hinsichtlich einer ihnen angeblich leuchtenden Zukunft befreiter Menschenmassen. Die Rolle des allwissenden Dämons nahm zumindest in Frankreich und in weiteren Ländern, die sich an Frankreich orientierten, schon bald der moderne Nationalstaat ein (wobei für mich nicht die Nation, sondern der Staat das Problem ist).
Obwohl bereits Newton an der Lösung des Drei-Körper-Problems scheiterte, hielt sich bis gegen Ende des 19. Jahrhunderts der Glaube, mit irgendwelchen Rechentricks werde das vielleicht eines Tages doch noch gelingen. Im Jahre 1888 zeigte der französische Mathematiker Henri Poincaré (1854 – 1912) schließlich, dass Differentialgleichungssysteme für die Bewegung von drei Himmelskörpern grundsätzlich nicht durch Integration analytisch lösbar sind. Heute umgeht man dieses Problem durch die hilfsweise Einführung von (Pseudo-)Zufallszahlen und Wahrscheinlichkeitsrechnungen nach der Monte-Carlo-Methode o.ä. Diese Hilfskonstruktion wird in dem der MIT-Studie „Die Grenzen des Wachstums“ (1972) zugrunde liegenden „Weltmodell“ angewandt. Dieses vom neo-malthusianistischen Club of Rome in Auftrag gegebene Modell bleibt damit wie spätere Computersimulationen der Ausbreitung von Coronaviren durch Neil Ferguson vom Londoner Imperial College ganz dem mechanistischen Weltbild verhaftet. Diese Simulationsmodelle prophezeiten Hunderttausende, wenn nicht Millionen von COVID-Todesopfern und dienten der Rechtfertigung der Aussetzung von Grundrechten durch den „Lockdown“.
Die Quantenphysik überwindet die mechanistische Illusion
Ob und inwieweit Albert Einsteins Relativitätstheorie (1905) dem mechanistischen Weltbild widerspricht, bleibt dahingestellt. Von Einstein selbst stammt bekanntlich der Ausspruch: „Gott würfelt nicht.“ Er hing als Pantheist grundsätzlich dem Determinismus an. Andererseits würde die Lichtgeschwindigkeit, die nach Einsteins Formeln nicht überschritten werden kann, die Existenz des Laplaceschen Dämonen verunmöglichen, da dieser nicht über diese Grenze hinausblicken könnte. Der spätere Nachweis der zeitunabhängigen Verschränkung von Elementarteilchen machte diesen Einwand allerdings hinfällig. Wirklich überwunden wurde der Determinismus der Aufklärung erst in den 1920er Jahren durch die so genannte Kopenhagener Deutung der Quantenphysik. Dort gilt der Zufall auf Quantenebene als objektive Tatsache. Für den Aufenthaltsort von Elementarteilchen wie auch von Himmelskörpern lassen sich danach nur Wahrscheinlichkeiten angeben. Es gibt allerdings auch deterministische Interpretationen der Quantenphysik.
Berechenbar wird die Zukunft auch in deterministischen Ansätzen wie dem des theoretischen Physikers David Bohm (1917-1992) nicht. Alle stofflich-energetischen Bewegungen und Umwandlungen erscheinen in David Bohms „Holomovement“ als Projektionen aus einem unsere irdische Raumzeit umgebenden zeitlosen Hyperraum. Damit lassen sich Phänomene wie der „Spuk“ der Nichtlokalität und der verzögerungsfreien Verschränkung räumlich weit voneinander entfernter Elementarteilchen erklären, denn im zeitlosen Hyperraum gehören diese zusammen. Ohne die Annahme eines jenseitigen Hyperraums lässt sich nicht erklären, warum räumlich weit voneinander entfernte Elementarteilchen schneller als die Lichtgeschwindigkeit aufeinander reagieren können. Der Franzose Alain Aspect (geb. 1947), der Amerikaner John Clauser (geb. 1942) und der Österreicher Anton Zeilinger (geb. 1945) erhielten für ihre Arbeiten über das „Wunder“ der Raum und Zeit durchbrechenden Verschränkung von Elementarteilchen im Jahre 2022 den Nobelpreis für Physik. Der Schweizer Physiker Nicolas Gisin (geb. 1952), der auf der Basis der Theorie von Alain Aspect das erste erfolgreiche Quanten-Teleportations-Experiment durchführte, ging leer aus.
Durch Verschränkung und Teleportation wird auch dem Laien klar, dass es die Quantenphysik letzten Endes mehr mit geistigen als mit materiell-mechanistischen Prozessen zu hat. So zumindest die m.E. überzeugende Argumentation des gottgläubigen deutschen Quantenphysikers Thomas Görnitz (geb. 1943) und des ebenfalls gläubigen Nobelpreisträgers Anton Zeilinger. So musste auch der agnostische amerikanische Star-Philosoph Thomas Nagel (geb. 1937) in seinem 2013 auch auf Deutsch erschienen Buch „Geist und Kosmos. Warum die materialistische Konzeption der Natur falsch ist“ eingestehen, dass die Evolution der Organismenarten und des Bewusstseins sich einer naturalistischen Erklärung entzieht. Das hat dem alten Mann einigen Ärger eingebracht.
Quantenphysik ist keine Esoterik
Heute werden Erkenntnisse der Quantenphysik in zauberhaften technischen Werkzeugen wie dem Smartphone praktisch von jedermann tagtäglich genutzt. Doch einen spürbaren und nachhaltigen Einfluss auf das in den Köpfen unserer Zeitgenossen vorherrschende Weltbild hatte das nicht. So gelingt es modernen Scharlatanen, den Menschen mithilfe mechanistischer Modelle des Ressourcenverbrauchs, der Erderwärmung oder der Virusausbreitung Angst einzujagen. Heute überwiegt die Tendenz, alle mit der Quantenphysik zusammenhängenden weltanschaulichen Fragen in der Schublade „Esoterik“ verschwinden zu lassen. Die Enzyklopädie „Wikipedia“ geht auf den Inhalt der Bücher des Ehepaars Görnitz gar nicht erst ein und weist nur darauf hin, es gebe keine überzeugenden Hinweise auf relevante Quanteneffekte bei der Funktion des Verstandes. Deren Ansatz, die Entstehung des Bewusstseins und des Verstandes zu erklären, werde in der neurologischen und psychologischen Forschung folglich nicht weiterverfolgt. Das stimmt wohl insofern, als entsprechende Anträge auf Forschungsgelder zurzeit kaum Erfolgsaussichten haben. Doch war gerade der Begründer (wider Willen) der Quantenphysik, der praktizierende Katholik Max Planck (1858-1947), fest davon überzeugt, dass Naturwissenschaft und christlicher Glaube einander bedingen und ergänzen. Max Planck erkannte, warum die moderne Naturwissenschaft nur im christlichen Abendland aufkommen konnte: Gott gibt sich in der Bibel als Vernunftwesen zu erkennen. Er hat „diese Welt vernünftig und durch die Vernunft erkennbar geschaffen.“
Mein Freund Wolfgang Leisenberg (geb. 1942) knüpft daran in seinem 2019 erschienen Buch „Die verbo(r)gene Wirklichkeit“ an. Leisenberg war Professor für Regelungstechnik und Systemdynamik an der Technischen Hochschule Mittelhessen und leitete gleichzeitig erfolgreich ein preisgekröntes Unternehmen für energiesparende thermische Verfahrenstechnik. Er beruft sich in seinem Buch vor allem auf die Quanten-Feldtheorie des verkannten deutschen Physik-Genies Burkhard Heim (1925 – 2001). Dieser liegt ein zwölfdimensionaler Hyperraum zugrunde. Dessen erste vier Koordinaten (R3 und T1) beschreiben die Raumzeit, in der wir uns bewegen. Zum Diesseits gehören auch noch zwei Strukturkoordinaten (S2). Die übrigen sechs Koordinaten gehören zum Jenseits (Hyperraum). Zwei davon (I2) stehen für Informationen beziehungsweise Projektionen, die aus dem Hyperraum in unsere Raumzeit hineinwirken. Die in der Raumzeit experimentell nachweisbaren Felder und Teilchen erhalten dadurch ihre Eigenschaften. Die letzten vier zeitlosen Dimensionen (G4) bleiben für uns Menschen vollkommen rätselhaft. Nicht nur Heim sieht eine Steuerung unserer materiellen Welt aus dieser Dimension durch willentliche Veränderung der Wahrscheinlichkeiten, die wir wegen ihrer Unwahrscheinlichkeit als „Wunder“ wahrnehmen.
Burkhard Heim zeigte, dass das Universum nicht, wie einst von Demokrit postuliert, von Materieteilchen seinen Ausgang genommen haben kann, sondern von einer hochsymmetrischen zeitlosen Quanten-Informationsstruktur. Das führt zwingend zur Frage, welche prima causa diese Struktur geschaffen hat. Heim bestätigte so, obwohl er als Agnostiker auftrat, die Schöpfungslehre des Johannes-Evangeliums: „Im Anfang war das Wort, / und das Wort war bei Gott, / und das Wort war Gott. Alles ist durch das Wort geworden / und ohne das Wort wurde nichts, was geworden ist. In ihm war das Leben / und das Leben war das Licht der Menschen.“
Nach der Theorie des französischen Physikers Émile Charon (1920-1998) können Elektronen als elementare Träger des Bewusstseins angesehen werden. So verfügt jedes Elektron durch ein „schwarzes Mikro-Loch“ über eine „innere Raumzeit“, die gleichzeitig als Schnittstelle zum Hyperraum fungiert. Sie ist mit Photonen gefüllt, deren Muster ein individuelles Gedächtnis bilden, denn die Zeit läuft im Inneren von schwarzen Löchern rückwärts und kann so „erinnert“ werden. Mit der in schwarzen Löchern rückwärts laufenden Zeit lässt sich wohl auch das Rätsel erklären, vor dem der bekannte amerikanische Hirnphysiologe Benjamin Libet (1916-2007) stand, als er experimentell herausfand, dass unser Zentralnervensystem auf Signale reagiert, bevor diese gesendet werden.
Darwin’sche Evolutionstheorie als Dogma
Als Gipfel der europäischen Aufklärung gilt heute beinahe unumstritten die Theorie der Evolution der Organismenarten durch Natürliche Zuchtwahl von Charles Darwin (1809 – 1882) und dessen Ideengeber Thomas Robert Malthus (1766 – 1834). Gerade Malthus gilt noch heute mit seinen düsteren Prophezeiungen von Überbevölkerung und Hungersnöten auf der Grundlage eingängiger mathematischer Formeln als Urbild eines Aufklärers. Erstmals dargelegt hat Malthus seine dystopische Bevölkerungstheorie im „Essay on The Principles of Population“ im Jahre 1798. Im Jahre 1820 kam er im umfassenderen Werk „Principles of Economics“ darauf zurück, änderte aber substanziell nichts an seinen Aussagen. In der Zwischenzeit war Malthus, finanziert von der kolonialistischen East India Company, zum weltweit ersten Professor für Politische Ökonomie ernannt worden. Malthus‘ in mathematische Formeln gefasste Theorie lässt sich folgendermaßen zusammenfassen: Die Menschen vermehren sich naturgesetzlich in geometrischer Progression (exponentiell), während ihre Subsistenzmittel nur in arithmetischer Progression (linear) anwachsen.
Hier finden wir die für einen Teil der Aufklärer typische Wissensanmaßung. Malthus gab sich gar nicht erst die Mühe, seine These statistisch zu belegen. Sie schien seinen Lesern in der britischen Upper Class auch so einleuchtend, weil sie den Armen mit ihrem ungebremsten Vermehrungsdrang die Schuld an ihrer Misere zuschob. Der eindeutige Klassen-Bias war ein gefundenes Fressen für die Gegen-Aufklärer Friedrich Engels (1820 – 1895) und Karl Marx (1818 – 1883), die vor allem bemängelten, dass Malthus die Rolle des technischen Fortschritts weit unterschätzte. Man hätte mit der Kritik aber noch erheblich tiefergehen und darauf hinweisen können, dass Malthus zumindest in der ersten Fassung seiner Bevölkerungstheorie die Menschen als geistlose Massen-Wesen auffasst, nicht als genetisch und geistig einmalige Individuen mit einem freien Willen. Das heißt er machte keinen Unterschied zwischen Menschen und Tieren.
Genau das erlaubte es Charles Darwin, an Malthus anzuknüpfen. Darwin konnte zwar noch nichts von Genen und Mutationen wissen. Aber er nahm die große zufällige Variabilität zwischen den Individuen der ihm bekannten Organismenarten wahr. Da brachte ihn die Lektüre der Malthus-Theorie auf die Idee, in den unterschiedlichen Überlebenschancen individueller Varianten im Kampf um Nahrung und Lebensraum (struggle for life) den Schlüssel für die Veränderung der Arten zu sehen. (Der Ausdruck „Survival oft he fittest“ stammt allerdings nicht von Darwin, sondern vom liberalistischen Sozialphilosophen Herbert Spencer.) Charles Darwin sah also eine Parallele zwischen der Arbeit von Hunderassen-Züchtern und der natürlichen Selektion. Er wusste wohl, dass es den Züchtern noch nie gelungen war, eine neue Art hervorzubringen. Bei den Naturbedingungen mochte er das jedoch nicht ausschließen, da diesen viel längere Zeiträume zur Verfügung standen.
Darwin nahm also an, das (mechanistische) Wechselspiel zwischen zufälliger Variation und strenger natürlicher Selektion könne die Evolution der Organismen-Vielfalt im kleinen wie im großen erklären. Es gibt aber keinen Beleg für die Entstehung einer Neuen Art durch natürliche Selektion. Tatsächlich trug der Darwin’sche Ansatz nichts zum Verständnis der Makro-Evolution, dem Aufkommen neuer Arten mit neuen Bauplänen und einer entsprechenden Betriebs-Software, bei. Aber auch für die (materialistische) Erklärung der Mikroevolution, die Anpassung von Organismen an veränderte Umweltbedingungen durch die Bildung von Rassen bzw. Unterarten, taugt der Darwin’sche Ansatz nach Ansicht des mir persönlich bekannten DDR-Bürgerrechtlers und unabhängigen Evolutionsforschers Michael Beleites nicht unbedingt. Alle von Neodarwinisten angeführte Paradebeispiele für Selektionsprozesse nach dem Darwin’schen Muster lassen sich nach Beleites‘ Buch „Umweltresonanz – Grundzüge einer organismischen Biologie“ (2014) auch anders erklären. Doch das scheint kaum jemanden zu interessieren. Wie kaum eine Theorie oder vielmehr unbeweisbare Hypothese zuvor wurde der Erklärungsansatz von Malthus und Darwin in Europa für bare Münze genommen. Wer sie offen in Frage stellt, beendet damit seine akademische Karriere.
Der deutsche „Meisterdenker“ Friedrich Nietzsche (1844 – 1900) gründete darauf seine Diagnose: „Gott ist tot“. Ohne Gott steht der Mensch, der ohne Bezug auf seinen Schöpfer nicht definierbar ist, dann vor der Alternative, sich mithilfe technischer Manipulationen zum „Übermenschen“ weiterzuentwickeln oder in tierisches Sklavendasein abzusinken. Konsequenterweise kommen wirkliche zur Transzendenz befähigte Menschen bei Yuval Noah Harari (geb. 1976), dem Guru des Davoser Weltwirtschaftsforums (WEF), gar nicht vor. Es gibt dort nur mehr oder weniger intelligente Tiere: oben die kleine Minderheit der Alpha-Tiere, die sich dank eines optimierten Genoms und Hirn-Implantaten auf dem Weg zum Übermenschen wähnen, und unten eine breite Masse Zukurzgekommener, denen er nahelegt, sich die Langeweile ihres sinnlosen Daseins mit Computerspielen und Drogen zu vertreiben. Das Christentum bot demgegenüber Platz sowohl für hoch intelligente als auch für schlichte Gemüter.
Moral ist nicht wissenschaftlich begründbar
Wie ihr Urahn Malthus pflegen elitäre Vereinigungen wie staatliche Forschungsorganisationen, das WEF oder der Club of Rome die Illusion, Moral sei unter Hinweis auf Computersimulationen eines fiktiven „Treibhauseffekts“ wissenschaftlich begründbar. Eine Modell-Rechnung der amerikanischen Winter-Temperatur von Clara Deser, Laurent Terray und Adam S. Phillips, veröffentlicht 2015 in der Fachzeitschrift „Journal of Climate“ der American Meteorological Society (DOI: 10.1175/JCLI-D-15-0304.1), versucht, die Wintertemperaturen der letzten 50 Jahre (1963 bis 2012) zu modellieren, um Anhaltspunkte für die weitere Entwicklung bis zum Ende des 21. Jahrhunderts zu gewinnen. Dabei zeigt es sich, wie Systeme von Differentialgleichungen auch bei nur minimalen Unterschieden in den Anfangstemperaturen bis zum Ende dieses Jahrhunderts völlig außer Kontrolle geraten und 5°Kelvin voneinander abweichen können.
Nach christlicher Auffassung ist die Ableitung moralischer Forderungen von wissenschaftlichen Formeln immer verdächtig. Es kann grundsätzlich keine ehrliche und „nachhaltige“ Moral ohne die Liebe zu Jesus Christus geben. Sir Alexander King, ein Mitbegründer des Club of Rome, hat die antichristliche Stoßrichtung des Neo-Malthusianismus 1991 im autobiografisch gefärbten Bericht „The First Global Revolution“ bemerkenswert offenherzig formuliert: „Auf der Suche nach einem neuen Feind, der uns vereinen könnte, kamen wir auf die Idee, dass Umweltverschmutzung, die drohende globale Erderwärmung, Wasserknappheit, Hungersnöte und Ähnliches in die Rechnung passen würden.(…) Alle diese Gefahren werden durch menschliches Handeln verursacht und können nur durch veränderte Einstellungen und Verhaltensweisen überwunden werden. Der wahre Feind ist also die Menschheit selbst.“
Im Lichte einer vom Christentum und von der Quantenphysik erhellten Theorie der menschlichen Entwicklung hätte diese geistige Sackgasse vielleicht vermieden werden können. Denn wenn es stimmt, dass lebende Organismen ständig mit nicht lokal gespeicherten Informationen kommunizieren, dann ist die DNA wahrscheinlich gar nicht der primäre Träger der Erbinformation, sondern lediglich Empfänger nichtlokaler Information aus dem Hyperraum. Die Quanten-Muster aller Organismen waren nach dieser Vorstellung schon im Hyperraum beziehungsweise im kosmischen Bewusstsein in nicht manifester Form vorgebildet. Nach der Bibel folgt die Entwicklung des Universums und der lebenden Organismen einer Information, dem Wort Gottes. Nach der darwinistischen bzw. neodarwinistischen Theorie soll jedoch im Laufe der Zeit Information durch das Wechselspiel von Zufall und Selektion neu entstehen. Es gäbe dann also keinen zeitlosen Logos, an dem sich die Entwicklung ausrichtet.
Das Bewusstsein kommt vor dem Sein
Nicht das Sein bestimmt das Bewusstsein, wie Marx, Engels und Lenin lehrten, sondern das Bewusstsein kommt vor dem Sein. Die Entstehung neuer Arten als Projektionen aus dem Hyperraum in die irdische Raumzeit beruhte demnach auf einer Quantenauslese (Makroevolution), an die sich die irdische Auslese (Mikroevolution) anschließt. Das könnte erklären, warum große, zu neuen Bauplänen und Verhaltensmustern führende Gen-Mutationen nicht ziellos erfolgen und daher niemals funktionsuntüchtige „Übergangsformen“ erzeugt haben. Fossilien der von den Darwinisten postulierten zahlreichen „unfertigen“ Arten wurden denn auch nie gefunden. Zufällige, ungerichtete Klein-Mutationen werden hingegen zum allergrößten Teil mithilfe der darwinschen Selektion eliminiert, sofern sie nicht zufällig zu einem Überlebens-Vorteil führen. Nur durch zielgerichtete Mutationen konnte im Kambrium vor etwa 530 Millionen Jahren in geologisch sehr kurzer Zeit eine der heutigen vergleichbare Artenvielfalt entstehen. Die Paläontologen sprechen von der Kambrischen Explosion. Davor gab es praktisch nur einzellige Organismen.
Der Mensch ist das einzige Lebewesen, dem seine Endlichkeit bewusst wird. Die im Buch Genesis geschilderte Entstehung des Menschen kann so interpretiert werden, dass der Mensch als Gottes Ebenbild zunächst vollkommen war und sich frei im Hyperraum, das heißt in der Gegenwart Gottes bewegen konnte. Da er aber der Schlange, einem Geschöpf, mehr vertraute als seinem Schöpfer und selbst Gott sein wollte, landete er in der Endlichkeit der Raumzeit, behielt aber die Erinnerung an das verlorene Paradies. Der Mensch wird deshalb definiert als Brückenwesen zwischen Diesseits und Jenseits.
Nur Menschen sind transzendenzfähig
Der Mensch ist nicht lediglich ein besonders intelligentes Tier, wie Darwin annahm, sondern, wie die Strukturtheorie von Berthold Heim zeigt, als einzige Organismenart transzendenzfähig. Damit existiert zum ersten Mal ein wissenschaftlicher Ansatz, um die Sonderstellung des Menschen zu belegen. Diese Definition erlaubt es uns, zu entscheiden, ob wir dem ausgestorbenen Homo neanderthalensis die Eigenschaft des Menschseins zusprechen können oder nicht. Als eindeutiger Hinweis auf die Transzendenzfähigkeit der Neandertaler kann demnach die zum Teil aufwändige Bestattung ihrer Toten gelten. Ich würde Homo neanderthalensis aber trotzdem eher als Vormenschen bezeichnen, denn auch sein erfolgreicherer Konkurrent Homo sapiens sapiens ist nach dem Arzt und Philosophen Karl Jaspers (1883-1969) erst in der „Achsenzeit“ (800 – 200 v. Chr.), in der alle unsere aktuellen Gedankensysteme ihren Ursprung haben, zum heutigen Menschen geworden. Entscheidend war dabei die Verkündung der 10 Gebote durch Mose. Davor waren alle Menschen- bzw. Vormenschengemeinschaften, wie wir heute wissen, direkt oder indirekt dem Kannibalismus und der Sklaverei zugetan.
Fazit: Seit dem Durchbruch der Quantenphysik in den 1920er Jahren nähern wir uns wieder dem mittelalterlichen Weltbild, in dem die sichtbare Welt eingebettet war in eine überirdische Wirklichkeit, die der Wissenschaft verschlossen bleibt, aber den Gott Suchenden ein Stück weit offenbart werden kann. Es geht dabei weniger um die Wiederverzauberung der Welt, sondern um die Rücknahme ihrer Entzauberung durch die so genannte Aufklärung. So zeigt sich dem für die verborgene Wirklichkeit Aufgeschlossenen eine bemerkenswerte Komplementarität zwischen biblischer Offenbarung und naturwissenschaftlicher Forschung, was allerdings nicht als Gottesbeweis herhalten kann. Eines solchen bedürfen Menschen, die aufgrund individueller Begegnung mit der frohen Botschaft zum Glauben an den Mensch gewordenen, für uns am Kreuz gestorbenen und wiederauferstandenen Gottessohn gefunden haben, auch gar nicht.