Bürger für Technik (BfT) laden ein zur Energiekonferenz 2023 in Hannover

BfT Konferenz 2023 – Vorträge in Reihenfolge Stand 2.9.23

Ort der Veranstaltung:

Plaza Hotel Hannover, direkt am Hauptbahnhof, wo auch die Veranstaltung stattfindet, ist von den Teilnehmern selbst zu buchen. Wir haben hierfür ein Übernachtungskontingent zu ermäßigten Konditionen reserviert – Stichwort Bürger für Technik Tagungsteilnehmer

Montag 02.10.23

Vorträge Teil 1: Bildung! Innovationen? Energie!

9h00 Begrüßung / Einleitung durch den BfT-Vorstand – Lindner, Haussmann, Göring

9h30 Dr. Heinrich Lindner: Wasserstoffwirtschaft: Pläne, Mythos, Fakten

10h30 Dipl.-Ing. Robert Lechner-Schobel: Kernfusion – aktuelle Entwicklungen

11h30 Dr. Helmut Böttiger: Wer hat ein Interesse an knapper Energie. Wie und warum?

12h30 Mittagessen

Vorträge Teil 2: Wissenschaft: Messen und Freiheit, Industrie, Windenergie

13h30 Dipl.-Ing. Michael Limburg: Wer misst misst Mist – wie manche Messtechniker sagen oder Über die unverstandene Messtechnik bei der Erkennung der „größten Gefahr für die Menschheit“ (WEF)“  – Globale Mitteltemperatur – was ist das?

14h30 Vera Lengsfeld: Rettet die Freiheit der Wissenschaft!

15h30 Zwischendiskussion und kurze Kaffeepause

15h50 Dr.-Ing. Hans-Bernd Pillkahn: Zerstörte industrielle Wertschöpfung

16h50 Dr.-Ing. Roland Aßmann: Terrestrial Stilling – eine potentielle Ursache des menschengemachten Klimawandels? und die großen Missverständnisse bei der Beurteilung der Folgen der Windenergie

17h50 Allgemeine Aussprache / Diskussion zum Ausklang des 1. Konferenztages

18h30 Abendessen (optional)

20h00 Mitgliederversammlung BfT e.V.

22h00 Tagesausklang

Dienstag 03.10.

Vorträge Teil 3: Energiewende / -krise und Bildung / Wissenschaft: Strahlenwirkungen

9h00 Begrüßung / Einleitung durch den BfT-Vorstand

9h15 Prof. Wolfgang Merbach: Die deutsche Energiewende – Folgen und Herausforderungen

10h15 Dr. Lutz Niemann: Positive Strahlenwirkungen – Was sind Gifte – was bedeutet adaptive Antwort oder Hormesis

11h15 Dr. Heinrich Lindner: Wege aus der Energiekrise, frei nach F. Vahrenholt

12h15 Abschlussdiskussion

13h00 Ende der Veranstaltung

Bürger für Technik e.V.

Anmeldungen an Dr. Martin Lindner martin.lindner@buerger-fuer-technik.de

Siehe Anmeldungsformular unten und ggf. https://buerger-fuer-technik.de

VerbindlicheAnmeldungHannover2023_2

Sie sind ein an Naturwissenschaften und Technik und anderen gesellschaftlich relevanten Themen interessierter Bürger, wollen sachlich und wissenschaftlich fundiert, mit Fakten statt Ideologien, informiert sein und sind der Meinung, dass sich Bildung, Fortschritt / Innovationen, Freiheit, Natur und Naturwissenschaften, Technik, Umwelt und Wohlstand nicht ausschließen – dann sind Sie hier bei uns richtig!

Wir sind ein gemeinnütziger, überparteilicher Verein, schreiben eigene Beiträge oder leiten Beiträge anderer weiter, um über Sachverhalte real faktenbasiert zu informieren. Wir wenden uns an die Öffentlichkeit, um Missstände zu benennen, und geben unseren Forderungen auch durch Anschreiben und Aufrufe unmittelbar an Verantwortliche und Presse Ausdruck.

Wenn Sie sich von uns und unseren Beiträgen angesprochen fühlen, viel Lesenswertes für sich entdecken und vlt. sogar Lust bekommen, uns Ihre Beiträge zur Veröffentlichung zuzusenden, würde uns das freuen.

Kontakt: https://buerger-fuer-technik.de

 

 




Olafs „totes Pferd“ lebt jetzt in Ruanda weiter

Bundeskanzler Olaf Scholz erklärte die Kernenergie in Deutschland für ein „totes Pferd“. Ein von Deutschen entwickelter neuartiger Kernreaktor wird nun in Ruanda gebaut. 

Von Manfred Haferburg

Schlechte Nachrichten für Trittin, Habeck, Baerbock, Lang und wie sie alle heißen. Dienstfertig hatte der Bundeskanzler Olaf Scholz noch in der vergangenen Woche gekanzelt: Das Thema Kernkraft ist in Deutschland ein totes Pferd.“ An dem Kanzlersatz stimmt nur „in Deutschland“, weil andere Länder, wenn sie auch für unsere Außenministerin hunderttausende Kilometer von Deutschland entfernt liegen, nicht ganz so dumm sind, wie Ampel-Kernkraftgegner denken.

Die deutsch-kanadische Firma Dual Fluid, gegründet 2021, entwickelt einen völlig neuartigen Kernreaktor, der emissionsfreien Strom und Wasserstoff bereitstellt, heutige Energiekosten deutlich senkt und Atommüll als Brennstoff nutzen kann. Der nukleare Abfall, der in den deutschen Zwischenlagern steht, kann mit dieser Technologie Deutschland für mehr als 350 Jahre bei heutigem Verbrauch mit Strom versorgen. Ein Prototyp des Dual-Fluid-Reaktors soll noch innerhalb dieses Jahrzehnts in Betrieb gehen. Aber wohl nicht im Land der toten Pferde.

Kooperationsvertrag mit Ruanda zum Bau eines Dual-Fluid-Demonstrationsreaktors

Die Regierung Ruandas, vertreten durch die Ruandische Atomenergiebehörde (RAEB), hat am 12. September 2023 einen Kooperationsvertrag mit dem deutsch-kanadischen Kerntechnikunternehmen „Dual Fluid Energy Inc.“ über die Zusammenarbeit bei der Entwicklung eines Dual Fluid-Demonstrationsreaktors in Ruanda unterzeichnet (siehe Foto oben mit Dr. Armin Huke von Dual Fluid Energy Inc.). Der Demonstrationsreaktor soll bis 2026 betriebsbereit sein, die anschließende Erprobung der Dual-Fluid-Technologie soll bis 2028 abgeschlossen sein.

Die ruandische Regierung wird den Standort und die Infrastruktur für das Projekt zur Verfügung stellen, während Dual Fluid für die technische Umsetzung der Partnerschaft verantwortlich ist. Darüber hinaus erhalten ruandische Wissenschaftler im Rahmen der Partnerschaft eine praxisnahe Ausbildung im Bereich der Kerntechnik.

Dual Fluid will eine völlig neue Art der Kernspaltung auf der Basis von flüssigem Brennstoff und Bleikühlung realisieren, die die Leistung heutiger Kernkraft exponentiell steigern könnte. Die neuen Reaktoren könnten Strom, Wasserstoff und synthetische Brennstoffe zu Kosten produzieren, die unter denen fossiler Brennstoffe liegen.

RAEB-Geschäftsführer Fidel Ndahayo: „Um den wachsenden Energiebedarf der Bevölkerung zu decken, den Industriesektor weiterzuentwickeln und eine klimaresistente Wirtschaft aufzubauen, setzt Ruanda auf Kernenergie als Ergänzung zu seinem bestehenden Energiemix. Wir sind ein ´Proof-of-Concept´-Land und wollen die Integration innovativer Technologien beschleunigen. Deshalb geht Ruanda strategische Partnerschaften mit Start-ups ein, die sich mit der Konzeption und Entwicklung kleiner modularer Reaktoren befassen. Die Dual Fluid-Technologie hat Sicherheitseigenschaften, die sie unfallfrei machen. Die Technologie wird relativ geringe Mengen radioaktiver Abfälle erzeugen, die gemäß den bestehenden internationalen Standards für die Entsorgung radioaktiver Abfälle sicher entsorgt werden.

Götz Ruprecht, Geschäftsführer von Dual Fluid: „Zeit ist ein kritischer Faktor für uns. Nach Jahren der detaillierten Vorbereitung und Verbesserung des Konzepts sind wir nun überzeugt, den idealen Partner für die erste Umsetzung unserer völlig neuen Technologie gefunden zu haben. Dual Fluid hat sich für eine Investition in Ruanda entschieden, weil das Land ein sehr stabiles und positives Geschäftsumfeld bietet, das bereits große internationale Unternehmen angezogen hat. Unser Demonstrationsreaktor wird zeigen, dass eine bessere, wesentlich effizientere Art nuklearer Energiegewinnung möglich und schnell realisierbar ist.“

Über die ruandische Atomenergiebehörde

Die 2020 gegründete ruandische Atomenergiebehörde (Rwanda Atomic Energy Board, RAEB) fördert die friedliche Nutzung der Kernenergie für eine nachhaltige sozioökonomische Entwicklung Ruandas.

Zu den Aufgaben von RAEB gehören die Beratung der Regierung in Belangen der Atomenergie, die Förderung deren friedlicher Nutzung, der Aufbau von Partnerschaften mit nationalen, regionalen und internationalen Institutionen, die Förderung und Unterstützung des Baus und der Instandhaltung von Nuklearanlagen zur Erzeugung von elektrischer Energie und anderen Anwendungen, die Überwachung und Verwaltung der Beschaffung und Nutzung von Kernbrennstoffen sowie die Verwaltung von Nuklearabfällen, die Beratung bei der Forschung für die friedliche Nutzung von Kernmaterialien, die Beratung bei der Handhabung und dem Abbau radioaktiver Mineralien, die Zusammenarbeit mit Universitäten und Forschungsinstituten bei der Durchführung von Forschungsarbeiten im Zusammenhang mit der friedlichen Nutzung der Kernenergiewissenschaft und -technologie, sowie die Durchführung von Forschungs- und Entwicklungsarbeiten im Zusammenhang mit friedlicher Kernenergienutzung.

Ein Vorschlag zur Güte

Der Dual-Fluid-Reaktor eignet sich auf Grund seiner unschlagbar niedrigen Stromgestehungskosten und seiner hohen Austrittstemperatur vorzüglich zur kostengünstigen Herstellung von Wasserstoff. Wie ich bereits in einem Achse-Artikel 2021 schrieb, stellt er die einzige Möglichkeit dar, die vergurkte Energiewende doch noch zu retten.

Vielleicht können ja Kanzler Scholz, Vizekanzler Habeck und Finanzminister Lindner mal nach Kigali reisen und dort mit ein paar tiefen Bücklingen einen Milliardenscheck überreichen, um eine Kooperation von Wasserstofflieferungen nach Deutschland zu erbitten. Sonst wird es nichts mit der Energiewende.

 




Berlin schützt das Klima .. und verstößt damit vermutlich gegen die Verfassung. Eine Anhörung zu wirkungslosen aber sehr teuren Verarmungsgesetzen!

„Alle Parteien der Industriestaaten, ob rechts oder links, werden die CO2- Erderwärmungstheorie übernehmen. Dies ist eine einmalige Chance, die Luft zum Atmen zu besteuern. Weil sie damit angeblich die Welt vor dem Hitzetod bewahren, erhalten die Politiker dafür auch noch Beifall. Keine Partei wird dieser Versuchung widerstehen.“

Nigel Calder 1998 Herausgeber der berühmten Wissenschaftszeitung „New Scientist.

Von Michael Limburg

Berlin will das Klima schützen. Dazu macht es Gesetze, sehr teure Gesetze! Die überdies völlig wirkungslos sind. Deswegen dürften sie verfassungswidrig sein. Denn auch die Berliner Verfassung verlangt dem Gebot der Verhältnismäßigkeit zu folgen. Und das schreibt nicht nur den legitimen Zweck jeder Amtshandlung, jeder Vorschrift, jedem Gesetz vor, sondern ebenso bindend auch deren Geeignetheit, die Erforderlichkeit sowie deren Angemessenheit vor.  Keine der letztgenannten Voraussetzungen wird mit dem behandelten Entwurf erfüllt.

Berlin hat auch den Klimanotstand (noch unter Rot-Grün) im Jahr 2019 ausgerufen. Was das bedeutet, weiß niemand! Im Volk nicht, und auch in der Politik kaum jemand. Die aber, die ihn ausgerufen haben, wissen was das bedeutet: Macht. Macht um das Volk in eine Richtung zu treiben, die es in der überwiegenden Mehrheit nicht will. Jedenfalls seit es erkennt, dass es zwar gezwungen wird, schwerste, auch finanzielle Opfer zu bringen, um einen statistischen Mittelwert, was das Klima nun mal ist, zu „schützen“, aber dafür nichts anderes bekommt als Wohlstandsverlust bis hin zur Armut! Und das erkennte es derzeit mehr und mehr.

Ein Bild, das Im Haus, Kleidung, Mann, Person enthält. Automatisch generierte Beschreibung

Ausschuss für Umwelt- und Klimaschutz;  Sitzung vom 31.8.23 Bild. Abgeordnetenhaus von Berlin

Berlin ist auch, und das schon 2005, der Klimainitiative C40 beigetreten. C40 klingt sehr technisch, fast harmlos. Doch die C40 Initiative plant einen umfassenden Angriff auf unser alle Lebensstil. Sie will den individuellen Personenverkehr verbieten, sie will unsere Ernährung auf vegetarisch, besser noch vegan, umstellen, und sie will auf Null-Emissionen umstellen. D.h. die Nutzung sämtlicher fossiler Brennstoffe verbieten. Und tut fast alles, um diese Ziele zu Lasten und vor allem auf Kosten der Betroffenen zu erreichen. Dem dient auch das „hehre“ Berliner Klimaschutzgesetz. Ein Gesetz, dass alle Bundesländer inzwischen nach dem Vorbild des Bundes-Klimaschutzgesetzes, erlassen haben. Wie bei allen anderen, soll auch dieses Gesetz dafür sorgen, dass Berlin bis 2045 „klimaneutral“ sein soll. Dafür schreibt es minutiös vor, wie dies zu geschehen hat. Und damit das alles auch wirklich auf Spur bleibt, ist ein teurer Begleitprozess vorgeschrieben. Dem dient das Berliner Energie- und Klimaschutzprogramm. Es schreibt detailliert vor, was wann zu geschehen hat.

Im Text findet man unter dem Einführungstitel „Problem“ den folgenden Satz:

„Gemäß § 4 Abs. 1 des Berliner Klimaschutz- und Energiewendegesetzes (EWG Bln), das zuletzt durch Gesetz vom 27. August 2021 geändert worden ist, hat der Senat von Berlin ein Berliner Energie- und Klimaschutzprogramm, welches Strategien und Maßnahmen zur Erreichung der Berliner Klimaschutzziele enthält, zu erstellen bzw. regelmäßig weiterzuentwickeln. Dabei soll es Sektorziele zur Reduzierung der Kohlendioxidemissionen, insbesondere in den Sektoren Energieversorgung, Gebäude, Wirtschaft und Verkehr sowie eine Festlegung der Gesamtmenge an Kohlendioxidemissionen, die im Zeitraum der fünf auf die Beschlussfassung des Programms folgenden Kalenderjahre höchstens emittiert werden sollen, enthalten. „

Und behauptet das Folgende sei die Lösung:

„Die vorliegende Fassung für ein Berliner Energie- und Klimaschutzprogramm (BEK 2030) für den Umsetzungszeitraum 2022 bis 2026 wird vom Senat von Berlin beschlossen und an das Abgeordnetenhaus mit der Empfehlung vorgelegt, das Programm zu beschließen. Die Vorlage berücksichtigt dabei sowohl die Entwicklungen im Bereich der internationalen und nationalen Energie- und Klimaschutzpolitik als auch die geänderten Rahmenbedingungen gemäß dem Berliner Klimaschutz-und Energiewendegesetz Berlin (EWG Bln).
Grundlage für die Erstellung des hier vorgelegten BEK 2030 sind für den Klimaschutzteil die „Empfehlung zur Weiterentwicklung des Berliner Energie- und Klimaschutzprogramms 2030 – Umsetzungszeitraum 2022 bis 2026“ eines beauftragten Fachkonsortiums1 sowie eine Vielzahl von Maßnahmenvorschlägen aus den einzelnen Fachressorts, der Klimaanpassungsteil wurde durch die für Klimaschutz zuständige Senatsverwaltung in enger Abstimmung mit den jeweils zuständigen Fachressorts erstellt.

1 Fachkonsortiums aus Berliner Energieagentur (BEA), DIW Econ und Wuppertal Institut.

Beide Absätze sind jedoch nichts anderes als reine Anmaßung und dazu noch auch in ihrer Wirkung völlig belanglos, jedenfalls in Bezug auf das lokale, das nationale wie auch das Weltklima. Und das weiß auch ein jeder! Wirklich jeder. Oder muss es wissen. Denn um das zu erkennen, genügen die Grundkenntnisse im Lesen, Rechnen und ein wenig der Naturwissenschaften, die damals noch in der Volksschule vermittelt wurden.

Aber sie sind nicht belanglos in Bezug auf die Möglichkeit der Politik Geld mit vollen Händen auszugeben, ihre Klientel zu füttern, bspw. durch üppige Auftragsvergabe bspw. an das „Fachkonsortium“ welches in der Fußnote genannt wird, und den Rest der Bevölkerung sowohl abzukassieren, als auch zu drangsalieren. Und das in völliger Übereinstimmung mit der geltenden Gesetzeslage.

Und weil das so schön funktioniert und weil man das Geld mit vollen Händen ausgeben will, wird das Berliner Abgeordnetenhaus, wie das Stadtparlament in Berlin heißt, damit befasst. In Gestalt des dafür zuständigen Ausschusses für – sie ahnen es – für Umwelt- und Klimaschutz.  Behandelt und wichtigstes Thema war die

Vorlage – zur Beschlussfassung –
Drucksache 19/0778-1
Berliner Energie- und Klimaschutzprogramm, Umsetzungszeitraum 2022 bis 2026
– Austauschseiten zu den Seiten 66, 162 und 163 der Anlage – Drucksache 19/0778
Drucksache 19/0778-1

Wer sich die ganze Sitzung antun will, möge dies hier tun. Und hier kann das Wortprotokoll nachgelesen werden

Gegenüber rd. 22 Ausschussmitgliedern und der zuständigen Umweltsenatorin Dr. Manja Schreiner, die gerade erklären muss, wie es denn kommen könne, dass ca. 69 % ihrer Doktorarbeit unter Plagiatsverdacht stehen, und Ihrer Mitarbeiterin, durften 4 „Anzuhörende“, vulgo Experten, zu diesem Energie- und Klimaschutzprogramm Stellung nehmen. Ich war einer davon, und fühlte mich – wie anders- von Beginn an, als weißer Rabe. Während die anderen die Panik schürten, besonders der Vertreter des Instituts für „Ökologische Wirtschaftsforschung“ ÖWF ein Prof. Bernd Hirschl, sachkundig und professionell unterstützt von Tilmann Heuser Landesgeschäftsführer, des BUND Berlin e.V. beschränkten sich die andern beiden auf Sachvorträge zu den erhobenen Zahlen bzw. auf die schädlichen Auswirkungen der bereits beschlossenen und noch kommenden Gesetze auf die Wohnungswirtschaft, ohne jedoch den Sinn und Zweck dieser Maßnahmen auch nur im Ansatz in Frage zu stellen. Dies blieb allein mir vorbehalten.

Den Zusammenschnitt meiner Ausführungen können Sie hier sehen.

Den Text gibt es als pdf hier. Statement Berliner Abgeordnetenhaus . Entwurf 3-1

Krönender Abschluss meiner Ausführungen war dann das Statement der plagiatsverdächtigen Umweltsenatorin Dr. (wie lange noch) Manja Schreiner.

“Zu den Einlassungen des Anzuhörenden Limburg möchte ich stellvertretend für den gesamten Senat betonen an dieser Stelle, dass wir dezidiert bei jeder Ihrer Ausführungen andere Auffassungen sind.“

Auf meine Zwischenfrage, ob das auch auf die von mir genannten Fakten zuträfe, erfolgte keine Antwort mehr, obwohl sie diese ankündigte. Machen Sie sich Ihren eigenen Eindruck.

Beim Schreiben dieser Zeilen kommt mir immer wieder, als sehr passende Beschreibung der Situation in der sich die Politik, stellvertretend der Senat von Berlin und bis auf drei von der AfD, alle Mitglieder des Ausschusses befinden, das Bonmot von Mark Twain in den Sinn, der deren Situation wie folgt beschrieb:

„Als die Reisegesellschaft ihr Ziel aus den Augen verloren hatte, verdoppelte sie ihre Geschwindigkeit!“

Wenn es nicht dank der fürchterlichen Konsequenzen, die diese Handeln hat, so traurig, wäre, könnte man aus vollem Herzen lachen.

 




Abschied von der Aufklärung

Wissensanmaßung oder Gnostizismus in den Simulationsmodellen

Edgar L. Gärtner

Wie sinnvoll ist es, die Verrücktheiten der Grünen aller Parteien mit dem Hinweis auf die europäische Aufklärung zurückzuweisen? Können sich die Grünen doch, wie es scheint, ebenso auf die Tradition der Aufklärung berufen wie ihre Kritiker. Besonders klar bekennen sich die Grünen zur Aufklärung, wenn sie sich als Musterschüler der US-Neocons gerieren. Deren Anliegen ist global governance, die Beherrschung der Welt durch die analyrische Ausschaltung des gesunden Menschenverstandes.

Warum war im Paradies das Naschen vom Baum der Erkenntnis (von Gut und Böse) verboten? Die Mehrzahl derer, die sich heute auf die Aufklärung berufen, stellen sich diese Frage wohl gar nicht. Es geht hier selbstredend nicht darum, dem menschlichen Erkenntnisdrang grundsätzliche Grenzen zu setzen, sondern die Menschen davor zu warnen, selbst Gott zu spielen. Es geht gleichzeitig darum, die Menschen vor dem „Verlust der Mitte“ und dem Ende der Kontemplation durch die Anhäufung zusammenhangslosen Wissens zu bewahren. Nach Auffassung der historischen und aktuellen Aufklärer kann und sollte es prinzipielle Grenzen der menschlichen Erkenntnisfähigkeit gar nicht geben. Die Begründung dafür lieferte das streng deterministische Weltbild des mechanischen Materialismus, das sich auf die Gravitationstheorie des englischen Mathematikers und Münzmeisters Sir Isaac Newton (1643 – 1727) stützte. Newton fand für die vom deutschen Astronomen Johannes Kepler (1571 – 1630) entdeckten elliptischen Umlaufbahnen der Planeten um die Sonne die heute noch gültige mathematische und physikalische Erklärung. Was Gravitation ist und wie sie zustande kommt, wissen wir bis heute nicht. Es gibt darüber nur mehr oder weniger gewagte Vermutungen.

Die viel zitierte newtonsche Formel für die exakte Berechnung der Gravitationskraft gilt allerdings nur für die Anziehung zwischen zwei Himmelskörpern. Schon die Wechselwirkung zwischen drei Körpern ist mit dem newtonschen Instrumentarium der Differential- und Integralrechnung, wie es sich später zeigte, nicht mehr analysierbar. Newtons Formel galt und gilt noch heute nur für ein stark vereinfachtes Modell mit nur zwei Himmelskörpern, nicht jedoch für die vielfältigen Wechselwirkungen zwischen Sonne, Planeten und Trabanten im realen Sonnensystem. Über die grundsätzliche Unlösbarkeit des „Dreikörperproblems“ informiert dieser Blog-Beitrag eines Physikers: Unlösbar und faszinierend: Das Dreikörperproblem – Astrodicticum Simplex (scienc2eblogs.de). Newton bestätigte insofern die vom italienischen Dominikaner-Mönch Thomas von Aquin (1225 – 1274) aus logischen Überlegungen abgeleitete Erkenntnis, dass die Welt für uns Menschen zwar grundsätzlich erkennbar, in ihrer Gänze jedoch unbegreifbar bleibt, weil auch der schärfste Menschenverstand nur Teilwahrheiten erkennen kann. Doch das wollten Newtons Bewunderer, die sich als „Aufklärer“ hochstilisierten und über die mittelalterliche Scholastik lästerten, nicht wahrhaben. Sie zogen es vor, sich über das finstere und abergläubische Mittelalter lustig zu machen und stattdessen weiterhin die Illusion zu pflegen, Newtons Formeln seien der Schlüssel für das Verständnis des ganzen Universums.

Kants verführerische Aufklärungs-Definition

Immanuel Kants viel zitierte Definition der Aufklärung von 1784 (in der Septemberausgabe der Berlinischen Monatsschrift) klingt schon auf den ersten Blick verführerisch, weil sie die emanzipatorischen Sehnsüchte des aufstrebenden deutschen (Bildungs-)Bürgertums auf den Begriff bringt, kann aber auch als Antithese zum alttestamentarischen Verbot, vom Baum der Erkenntnis zu essen, gelesen werden: „Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Muth, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“ „Sapere aude!“ (wörtlich: „Wage zu wissen!“) kann allerdings leicht zum Wahlspruch eines Régimes werden, in dem das sokratische Bekenntnis, nichts zu wissen, als verabscheuungswürdige und strafbare Sünde gilt. So zeugt schon Kants Definition der Aufklärung von der Versuchung, Modelle als Realität auszugeben, um das Eingeständnis von Zweifel und Unwissenheit angesichts einer unübersichtlichen Problemlage zu vermeiden.

Newton selbst war da offenbar vorsichtiger. Denn in seinen Schriften finden sich etliche Hinweise auf göttliche Eingriffe, die die Systeme kreisender Himmelskörper vor dem Kollaps bewahren. Erst lange nach Newtons Tod wurde einer breiteren Öffentlichkeit bekannt, dass er einen großen Teil seiner Zeit mystischen Betrachtungen und alchimistischen Experimenten widmete. Diese erscheinen heute weniger als Irrwege eines ansonsten streng vernunftgeleiteten Geistes, sondern als eine ganzheitlichen Sinn suchende Ergänzung der analytisch-mathematischen Herangehensweise. Newton kann also gewiss nicht als Urheber des mechanistischen Weltbildes der Aufklärung gelten.

Laplace und Napoleon Bonaparte

Mehr als auf Newton geht das mechanistische Weltbild im Kern auf den „Traité de Mécanique Céleste“ (deutscher Titel: „Abhandlung über die Himmelsmechanik“) zurück, ein fünfbändiges, für Laien schwer verständliches Werk, das der französische Mathematiker Pierre-Simon Laplace (1749 – 1827) zwischen 1799 und 1823 schrieb. Schon vor der nur Mathematikern verständlichen Himmelsmechanik hatte Laplace seine auch für Laien verständliche „Exposition du système du monde“ veröffentlicht, die er dem ihm persönlich gut bekannten Ersten Konsul Napoléon Bonaparte vorstellte. Der naturwissenschaftlich durchaus Interessierte und mit der Theorie Newtons vertraute Machthaber soll Laplace auf das Fehlen jeglicher Anspielung auf Gott hingewiesen haben. Worauf Laplace geantwortet habe, einer solchen Hypothese habe er nicht bedurft. Laplace gab sich dadurch wie sein Gegenüber als Gnostiker zu erkennen. Der Gnostizismus ist das, was die Aufklärung von der mittelalterlichen Scholastik unterscheidet. Der Begriff „Gnostizismus“ verweist auf die spätantike Gnosis, eine häretische Bewegung, die streckenweise dem Christentum Konkurrenz machte beziehungsweise dieses zu unterwandern versuchte. Wie der moderne Gnostizismus übte sich schon die antike Gnosis darin, die Welt als berechenbar und daher vorausschaubar darzustellen, d.h. etwas zu wissen vorzugeben, was Menschen nach aller Erfahrung gar nicht wissen können, und das dann autoritär festzulegen und, wenn nötig, mit physischer Gewalt durchzusetzen.

Alternative, von der Bibel inspirierte Sichtweisen, die die Bedeutung des Zufalls und den Einfluss des Geistes hervorhoben, galten fortan als rückschrittlich, wenn nicht als reaktionär. In Wirklichkeit gibt es Wunder jeden Tag. Man darf sie nur nicht, wie viele Aufklärer, wegdefinieren. Aktive geistige Gleichschaltung ist eine Erfindung beziehungsweise Errungenschaft der kontinentaleuropäischen Aufklärung. (Für die schottische und skandinavische Aufklärung gilt das nicht in gleichem Maße.) Dabei ist es durchaus nicht so, dass Laplace und seine Nachfolger die Rolle des Zufalls in der Entwicklung von Natur und Gesellschaft leugneten. Im Gegenteil verdanken wir wesentliche Grundlagen der Wahrscheinlichkeitsrechnung gerade Laplace. Deren Ziel war aber nicht die Anerkennung der Offenheit von Entwicklungen, sondern deren Berechenbarkeit.

Seinen pointierten Ausdruck fand das deterministische Weltbild im „Laplaceschen Dämon“ – ein Ausdruck, der gar nicht von Laplace selbst stammt. Laplace sprach im Vorwort zu seinem „Essai philosophique sur les probabilités“ (1814) von einer höheren Intelligenz, die in der Lage wäre, aus der Kenntnis aller Bewegungsgesetze der kleinsten Atome wie der größten Himmelskörper sowie deren Anfangsbedingungen auf den zukünftigen Systemzustand zu schließen, d.h. zu einer so gut wie alles erklärenden Weltformel zu gelangen, mit deren Hilfe die Zukunft berechnet werden kann.

Aufklärung und Gnostizismus

Die vorgeblich auf Schwarmintelligenz beruhende Online-Enzyklopädie Wikipedia stellt denn auch beim Stichwort „Aufklärung“ schon einleitend durchaus zutreffend fest, dass die Bewegung der europäischen Aufklärung etwas mit Gnostik zu tun hat: „Der Begriff Aufklärung ist eng verbunden mit der frühmodernen Verurteilung des Mittelalters als einer Epoche der Dunkelheit und des finsteren Aberglaubens, die im Vergleich zur Antike als rückständig galt. Die Neuzeit sollte der Dunkelheit des Mittelalters das Licht der Erkenntnis entgegensetzen. Die Lichtmetaphorik konnte von der Antike übernommen werden: Vom Licht der Erkenntnis wurde in der griechischen Philosophie (zuerst von Parmenides), in der spätantiken Gnostik sowie in der Bibel gesprochen. Der Ausdruck ist zugleich mit einer Bemühung um Klarheit der Begriffe (clare et distincte) als Maßstab der Wahrheit verbunden – etwa bei René DescartesGottfried Wilhelm Leibniz und Johann Heinrich Lambert. Der Gebrauch des englischen Verbs „to enlighten“ und des Partizips „enlightened“ war seit dem 17. Jahrhundert üblich. Sie bedeuten „Verständnis schaffen“ und „aufgeklärt“ im Sinne von „über eine Sache erhellend informiert“. Das Substantiv „Enlightenment“ wurde erst im 20. Jahrhundert als Epochenbegriff gängig.[1] Der deutsche Ausdruck Aufklärung wurde um 1770 üblich.“

So weit Wikipedia. Die meisten Historiker sehen einen direkten Zusammenhang zwischen dem gnostischen bzw. mechanistischen Weltbild und dem Terror der französischen Revolution von 1789 bis 1794. Es zeigte sich hier die Skrupellosigkeit von allen Zweifeln hinsichtlich einer ihnen angeblich leuchtenden Zukunft befreiter Menschenmassen. Die Rolle des allwissenden Dämons nahm zumindest in Frankreich und in weiteren Ländern, die sich an Frankreich orientierten, schon bald der moderne Nationalstaat ein (wobei für mich nicht die Nation, sondern der Staat das Problem ist).

Obwohl bereits Newton an der Lösung des Drei-Körper-Problems scheiterte, hielt sich bis gegen Ende des 19. Jahrhunderts der Glaube, mit irgendwelchen Rechentricks werde das vielleicht eines Tages doch noch gelingen. Im Jahre 1888 zeigte der französische Mathematiker Henri Poincaré (1854 – 1912) schließlich, dass Differentialgleichungssysteme für die Bewegung von drei Himmelskörpern grundsätzlich nicht durch Integration analytisch lösbar sind. Heute umgeht man dieses Problem durch die hilfsweise Einführung von (Pseudo-)Zufallszahlen und Wahrscheinlichkeitsrechnungen nach der Monte-Carlo-Methode o.ä. Diese Hilfskonstruktion wird in dem der MIT-Studie „Die Grenzen des Wachstums“ (1972) zugrunde liegenden „Weltmodell“ angewandt. Dieses vom neo-malthusianistischen Club of Rome in Auftrag gegebene Modell bleibt damit wie spätere Computersimulationen der Ausbreitung von Coronaviren durch Neil Ferguson vom Londoner Imperial College ganz dem mechanistischen Weltbild verhaftet. Diese Simulationsmodelle prophezeiten Hunderttausende, wenn nicht Millionen von COVID-Todesopfern und dienten der Rechtfertigung der Aussetzung von Grundrechten durch den „Lockdown“.

Die Quantenphysik überwindet die mechanistische Illusion

Ob und inwieweit Albert Einsteins Relativitätstheorie (1905) dem mechanistischen Weltbild widerspricht, bleibt dahingestellt. Von Einstein selbst stammt bekanntlich der Ausspruch: „Gott würfelt nicht.“ Er hing als Pantheist grundsätzlich dem Determinismus an. Andererseits würde die Lichtgeschwindigkeit, die nach Einsteins Formeln nicht überschritten werden kann, die Existenz des Laplaceschen Dämonen verunmöglichen, da dieser nicht über diese Grenze hinausblicken könnte. Der spätere Nachweis der zeitunabhängigen Verschränkung von Elementarteilchen machte diesen Einwand allerdings hinfällig. Wirklich überwunden wurde der Determinismus der Aufklärung erst in den 1920er Jahren durch die so genannte Kopenhagener Deutung der Quantenphysik. Dort gilt der Zufall auf Quantenebene als objektive Tatsache. Für den Aufenthaltsort von Elementarteilchen wie auch von Himmelskörpern lassen sich danach nur Wahrscheinlichkeiten angeben. Es gibt allerdings auch deterministische Interpretationen der Quantenphysik.

Berechenbar wird die Zukunft auch in deterministischen Ansätzen wie dem des theoretischen Physikers David Bohm (1917-1992) nicht. Alle stofflich-energetischen Bewegungen und Umwandlungen erscheinen in David Bohms „Holomovement“ als Projektionen aus einem unsere irdische Raumzeit umgebenden zeitlosen Hyperraum. Damit lassen sich Phänomene wie der „Spuk“ der Nichtlokalität und der verzögerungsfreien Verschränkung räumlich weit voneinander entfernter Elementarteilchen erklären, denn im zeitlosen Hyperraum gehören diese zusammen. Ohne die Annahme eines jenseitigen Hyperraums lässt sich nicht erklären, warum räumlich weit voneinander entfernte Elementarteilchen schneller als die Lichtgeschwindigkeit aufeinander reagieren können. Der Franzose Alain Aspect (geb. 1947), der Amerikaner John Clauser (geb. 1942) und der Österreicher Anton Zeilinger (geb. 1945) erhielten für ihre Arbeiten über das „Wunder“ der Raum und Zeit durchbrechenden Verschränkung von Elementarteilchen im Jahre 2022 den Nobelpreis für Physik. Der Schweizer Physiker Nicolas Gisin (geb. 1952), der auf der Basis der Theorie von Alain Aspect das erste erfolgreiche Quanten-Teleportations-Experiment durchführte, ging leer aus.

Durch Verschränkung und Teleportation wird auch dem Laien klar, dass es die Quantenphysik letzten Endes mehr mit geistigen als mit materiell-mechanistischen Prozessen zu hat. So zumindest die m.E. überzeugende Argumentation des gottgläubigen deutschen Quantenphysikers Thomas Görnitz (geb. 1943) und des ebenfalls gläubigen Nobelpreisträgers Anton Zeilinger. So musste auch der agnostische amerikanische Star-Philosoph Thomas Nagel (geb. 1937) in seinem 2013 auch auf Deutsch erschienen Buch „Geist und Kosmos. Warum die materialistische Konzeption der Natur falsch ist“ eingestehen, dass die Evolution der Organismenarten und des Bewusstseins sich einer naturalistischen Erklärung entzieht. Das hat dem alten Mann einigen Ärger eingebracht.

Quantenphysik ist keine Esoterik

Heute werden Erkenntnisse der Quantenphysik in zauberhaften technischen Werkzeugen wie dem Smartphone praktisch von jedermann tagtäglich genutzt. Doch einen spürbaren und nachhaltigen Einfluss auf das in den Köpfen unserer Zeitgenossen vorherrschende Weltbild hatte das nicht. So gelingt es modernen Scharlatanen, den Menschen mithilfe mechanistischer Modelle des Ressourcenverbrauchs, der Erderwärmung oder der Virusausbreitung Angst einzujagen. Heute überwiegt die Tendenz, alle mit der Quantenphysik zusammenhängenden weltanschaulichen Fragen in der Schublade „Esoterik“ verschwinden zu lassen. Die Enzyklopädie „Wikipedia“ geht auf den Inhalt der Bücher des Ehepaars Görnitz gar nicht erst ein und weist nur darauf hin, es gebe keine überzeugenden Hinweise auf relevante Quanteneffekte bei der Funktion des Verstandes. Deren Ansatz, die Entstehung des Bewusstseins und des Verstandes zu erklären, werde in der neurologischen und psychologischen Forschung folglich nicht weiterverfolgt. Das stimmt wohl insofern, als entsprechende Anträge auf Forschungsgelder zurzeit kaum Erfolgsaussichten haben. Doch war gerade der Begründer (wider Willen) der Quantenphysik, der praktizierende Katholik Max Planck (1858-1947), fest davon überzeugt, dass Naturwissenschaft und christlicher Glaube einander bedingen und ergänzen. Max Planck erkannte, warum die moderne Naturwissenschaft nur im christlichen Abendland aufkommen konnte: Gott gibt sich in der Bibel als Vernunftwesen zu erkennen. Er hat „diese Welt vernünftig und durch die Vernunft erkennbar geschaffen.“

Mein Freund Wolfgang Leisenberg (geb. 1942) knüpft daran in seinem 2019 erschienen Buch „Die verbo(r)gene Wirklichkeit“ an. Leisenberg war Professor für Regelungstechnik und Systemdynamik an der Technischen Hochschule Mittelhessen und leitete gleichzeitig erfolgreich ein preisgekröntes Unternehmen für energiesparende thermische Verfahrenstechnik. Er beruft sich in seinem Buch vor allem auf die Quanten-Feldtheorie des verkannten deutschen Physik-Genies Burkhard Heim (1925 – 2001). Dieser liegt ein zwölfdimensionaler Hyperraum zugrunde. Dessen erste vier Koordinaten (R3 und T1) beschreiben die Raumzeit, in der wir uns bewegen. Zum Diesseits gehören auch noch zwei Strukturkoordinaten (S2). Die übrigen sechs Koordinaten gehören zum Jenseits (Hyperraum). Zwei davon (I2) stehen für Informationen beziehungsweise Projektionen, die aus dem Hyperraum in unsere Raumzeit hineinwirken. Die in der Raumzeit experimentell nachweisbaren Felder und Teilchen erhalten dadurch ihre Eigenschaften. Die letzten vier zeitlosen Dimensionen (G4) bleiben für uns Menschen vollkommen rätselhaft. Nicht nur Heim sieht eine Steuerung unserer materiellen Welt aus dieser Dimension durch willentliche Veränderung der Wahrscheinlichkeiten, die wir wegen ihrer Unwahrscheinlichkeit als „Wunder“ wahrnehmen.

Burkhard Heim zeigte, dass das Universum nicht, wie einst von Demokrit postuliert, von Materieteilchen seinen Ausgang genommen haben kann, sondern von einer hochsymmetrischen zeitlosen Quanten-Informationsstruktur. Das führt zwingend zur Frage, welche prima causa diese Struktur geschaffen hat. Heim bestätigte so, obwohl er als Agnostiker auftrat, die Schöpfungslehre des Johannes-Evangeliums: „Im Anfang war das Wort, / und das Wort war bei Gott, / und das Wort war Gott. Alles ist durch das Wort geworden / und ohne das Wort wurde nichts, was geworden ist. In ihm war das Leben / und das Leben war das Licht der Menschen.“

Nach der Theorie des französischen Physikers Émile Charon (1920-1998) können Elektronen als elementare Träger des Bewusstseins angesehen werden. So verfügt jedes Elektron durch ein „schwarzes Mikro-Loch“ über eine „innere Raumzeit“, die gleichzeitig als Schnittstelle zum Hyperraum fungiert. Sie ist mit Photonen gefüllt, deren Muster ein individuelles Gedächtnis bilden, denn die Zeit läuft im Inneren von schwarzen Löchern rückwärts und kann so „erinnert“ werden. Mit der in schwarzen Löchern rückwärts laufenden Zeit lässt sich wohl auch das Rätsel erklären, vor dem der bekannte amerikanische Hirnphysiologe Benjamin Libet (1916-2007) stand, als er experimentell herausfand, dass unser Zentralnervensystem auf Signale reagiert, bevor diese gesendet werden.

Darwin’sche Evolutionstheorie als Dogma

Als Gipfel der europäischen Aufklärung gilt heute beinahe unumstritten die Theorie der Evolution der Organismenarten durch Natürliche Zuchtwahl von Charles Darwin (1809 – 1882) und dessen Ideengeber Thomas Robert Malthus (1766 – 1834). Gerade Malthus gilt noch heute mit seinen düsteren Prophezeiungen von Überbevölkerung und Hungersnöten auf der Grundlage eingängiger mathematischer Formeln als Urbild eines Aufklärers. Erstmals dargelegt hat Malthus seine dystopische Bevölkerungstheorie im „Essay on The Principles of Population“ im Jahre 1798. Im Jahre 1820 kam er im umfassenderen Werk „Principles of Economics“ darauf zurück, änderte aber substanziell nichts an seinen Aussagen. In der Zwischenzeit war Malthus, finanziert von der kolonialistischen East India Company, zum weltweit ersten Professor für Politische Ökonomie ernannt worden. Malthus‘ in mathematische Formeln gefasste Theorie lässt sich folgendermaßen zusammenfassen: Die Menschen vermehren sich naturgesetzlich in geometrischer Progression (exponentiell), während ihre Subsistenzmittel nur in arithmetischer Progression (linear) anwachsen.

Hier finden wir die für einen Teil der Aufklärer typische Wissensanmaßung. Malthus gab sich gar nicht erst die Mühe, seine These statistisch zu belegen. Sie schien seinen Lesern in der britischen Upper Class auch so einleuchtend, weil sie den Armen mit ihrem ungebremsten Vermehrungsdrang die Schuld an ihrer Misere zuschob. Der eindeutige Klassen-Bias war ein gefundenes Fressen für die Gegen-Aufklärer Friedrich Engels (1820 – 1895) und Karl Marx (1818 – 1883), die vor allem bemängelten, dass Malthus die Rolle des technischen Fortschritts weit unterschätzte. Man hätte mit der Kritik aber noch erheblich tiefergehen und darauf hinweisen können, dass Malthus zumindest in der ersten Fassung seiner Bevölkerungstheorie die Menschen als geistlose Massen-Wesen auffasst, nicht als genetisch und geistig einmalige Individuen mit einem freien Willen. Das heißt er machte keinen Unterschied zwischen Menschen und Tieren.

Genau das erlaubte es Charles Darwin, an Malthus anzuknüpfen. Darwin konnte zwar noch nichts von Genen und Mutationen wissen. Aber er nahm die große zufällige Variabilität zwischen den Individuen der ihm bekannten Organismenarten wahr. Da brachte ihn die Lektüre der Malthus-Theorie auf die Idee, in den unterschiedlichen Überlebenschancen individueller Varianten im Kampf um Nahrung und Lebensraum (struggle for life) den Schlüssel für die Veränderung der Arten zu sehen. (Der Ausdruck „Survival oft he fittest“ stammt allerdings nicht von Darwin, sondern vom liberalistischen Sozialphilosophen Herbert Spencer.) Charles Darwin sah also eine Parallele zwischen der Arbeit von Hunderassen-Züchtern und der natürlichen Selektion. Er wusste wohl, dass es den Züchtern noch nie gelungen war, eine neue Art hervorzubringen. Bei den Naturbedingungen mochte er das jedoch nicht ausschließen, da diesen viel längere Zeiträume zur Verfügung standen.

Darwin nahm also an, das (mechanistische) Wechselspiel zwischen zufälliger Variation und strenger natürlicher Selektion könne die Evolution der Organismen-Vielfalt im kleinen wie im großen erklären. Es gibt aber keinen Beleg für die Entstehung einer Neuen Art durch natürliche Selektion. Tatsächlich trug der Darwin’sche Ansatz nichts zum Verständnis der Makro-Evolution, dem Aufkommen neuer Arten mit neuen Bauplänen und einer entsprechenden Betriebs-Software, bei. Aber auch für die (materialistische) Erklärung der Mikroevolution, die Anpassung von Organismen an veränderte Umweltbedingungen durch die Bildung von Rassen bzw. Unterarten, taugt der Darwin’sche Ansatz nach Ansicht des mir persönlich bekannten DDR-Bürgerrechtlers und unabhängigen Evolutionsforschers Michael Beleites nicht unbedingt. Alle von Neodarwinisten angeführte Paradebeispiele für Selektionsprozesse nach dem Darwin’schen Muster lassen sich nach Beleites‘ Buch „Umweltresonanz – Grundzüge einer organismischen Biologie“ (2014) auch anders erklären. Doch das scheint kaum jemanden zu interessieren. Wie kaum eine Theorie oder vielmehr unbeweisbare Hypothese zuvor wurde der Erklärungsansatz von Malthus und Darwin in Europa für bare Münze genommen. Wer sie offen in Frage stellt, beendet damit seine akademische Karriere.

Der deutsche „Meisterdenker“ Friedrich Nietzsche (1844 – 1900) gründete darauf seine Diagnose: „Gott ist tot“. Ohne Gott steht der Mensch, der ohne Bezug auf seinen Schöpfer nicht definierbar ist, dann vor der Alternative, sich mithilfe technischer Manipulationen zum „Übermenschen“ weiterzuentwickeln oder in tierisches Sklavendasein abzusinken. Konsequenterweise kommen wirkliche zur Transzendenz befähigte Menschen bei Yuval Noah Harari (geb. 1976), dem Guru des Davoser Weltwirtschaftsforums (WEF), gar nicht vor. Es gibt dort nur mehr oder weniger intelligente Tiere: oben die kleine Minderheit der Alpha-Tiere, die sich dank eines optimierten Genoms und Hirn-Implantaten auf dem Weg zum Übermenschen wähnen, und unten eine breite Masse Zukurzgekommener, denen er nahelegt, sich die Langeweile ihres sinnlosen Daseins mit Computerspielen und Drogen zu vertreiben. Das Christentum bot demgegenüber Platz sowohl für hoch intelligente als auch für schlichte Gemüter.

Moral ist nicht wissenschaftlich begründbar

Wie ihr Urahn Malthus pflegen elitäre Vereinigungen wie staatliche Forschungsorganisationen, das WEF oder der Club of Rome die Illusion, Moral sei unter Hinweis auf Computersimulationen eines fiktiven „Treibhauseffekts“ wissenschaftlich begründbar. Eine Modell-Rechnung der amerikanischen Winter-Temperatur von Clara Deser, Laurent Terray und Adam S. Phillips, veröffentlicht 2015 in der Fachzeitschrift „Journal of Climate“ der American Meteorological Society (DOI: 10.1175/JCLI-D-15-0304.1), versucht, die Wintertemperaturen der letzten 50 Jahre (1963 bis 2012) zu modellieren, um Anhaltspunkte für die weitere Entwicklung bis zum Ende des 21. Jahrhunderts zu gewinnen. Dabei zeigt es sich, wie Systeme von Differentialgleichungen auch bei nur minimalen Unterschieden in den Anfangstemperaturen bis zum Ende dieses Jahrhunderts völlig außer Kontrolle geraten und 5°Kelvin voneinander abweichen können.

Nach christlicher Auffassung ist die Ableitung moralischer Forderungen von wissenschaftlichen Formeln immer verdächtig. Es kann grundsätzlich keine ehrliche und „nachhaltige“ Moral ohne die Liebe zu Jesus Christus geben. Sir Alexander King, ein Mitbegründer des Club of Rome, hat die antichristliche Stoßrichtung des Neo-Malthusianismus 1991 im autobiografisch gefärbten Bericht „The First Global Revolution“ bemerkenswert offenherzig formuliert: „Auf der Suche nach einem neuen Feind, der uns vereinen könnte, kamen wir auf die Idee, dass Umweltverschmutzung, die drohende globale Erderwärmung, Wasserknappheit, Hungersnöte und Ähnliches in die Rechnung passen würden.(…) Alle diese Gefahren werden durch menschliches Handeln verursacht und können nur durch veränderte Einstellungen und Verhaltensweisen überwunden werden. Der wahre Feind ist also die Menschheit selbst.“

Im Lichte einer vom Christentum und von der Quantenphysik erhellten Theorie der menschlichen Entwicklung hätte diese geistige Sackgasse vielleicht vermieden werden können. Denn wenn es stimmt, dass lebende Organismen ständig mit nicht lokal gespeicherten Informationen kommunizieren, dann ist die DNA wahrscheinlich gar nicht der primäre Träger der Erbinformation, sondern lediglich Empfänger nichtlokaler Information aus dem Hyperraum. Die Quanten-Muster aller Organismen waren nach dieser Vorstellung schon im Hyperraum beziehungsweise im kosmischen Bewusstsein in nicht manifester Form vorgebildet. Nach der Bibel folgt die Entwicklung des Universums und der lebenden Organismen einer Information, dem Wort Gottes. Nach der darwinistischen bzw. neodarwinistischen Theorie soll jedoch im Laufe der Zeit Information durch das Wechselspiel von Zufall und Selektion neu entstehen. Es gäbe dann also keinen zeitlosen Logos, an dem sich die Entwicklung ausrichtet.

Das Bewusstsein kommt vor dem Sein

Nicht das Sein bestimmt das Bewusstsein, wie Marx, Engels und Lenin lehrten, sondern das Bewusstsein kommt vor dem Sein. Die Entstehung neuer Arten als Projektionen aus dem Hyperraum in die irdische Raumzeit beruhte demnach auf einer Quantenauslese (Makroevolution), an die sich die irdische Auslese (Mikroevolution) anschließt. Das könnte erklären, warum große, zu neuen Bauplänen und Verhaltensmustern führende Gen-Mutationen nicht ziellos erfolgen und daher niemals funktionsuntüchtige „Übergangsformen“ erzeugt haben. Fossilien der von den Darwinisten postulierten zahlreichen „unfertigen“ Arten wurden denn auch nie gefunden. Zufällige, ungerichtete Klein-Mutationen werden hingegen zum allergrößten Teil mithilfe der darwinschen Selektion eliminiert, sofern sie nicht zufällig zu einem Überlebens-Vorteil führen. Nur durch zielgerichtete Mutationen konnte im Kambrium vor etwa 530 Millionen Jahren in geologisch sehr kurzer Zeit eine der heutigen vergleichbare Artenvielfalt entstehen. Die Paläontologen sprechen von der Kambrischen Explosion. Davor gab es praktisch nur einzellige Organismen.

Der Mensch ist das einzige Lebewesen, dem seine Endlichkeit bewusst wird. Die im Buch Genesis geschilderte Entstehung des Menschen kann so interpretiert werden, dass der Mensch als Gottes Ebenbild zunächst vollkommen war und sich frei im Hyperraum, das heißt in der Gegenwart Gottes bewegen konnte. Da er aber der Schlange, einem Geschöpf, mehr vertraute als seinem Schöpfer und selbst Gott sein wollte, landete er in der Endlichkeit der Raumzeit, behielt aber die Erinnerung an das verlorene Paradies. Der Mensch wird deshalb definiert als Brückenwesen zwischen Diesseits und Jenseits.

Nur Menschen sind transzendenzfähig

Der Mensch ist nicht lediglich ein besonders intelligentes Tier, wie Darwin annahm, sondern, wie die Strukturtheorie von Berthold Heim zeigt, als einzige Organismenart transzendenzfähig. Damit existiert zum ersten Mal ein wissenschaftlicher Ansatz, um die Sonderstellung des Menschen zu belegen. Diese Definition erlaubt es uns, zu entscheiden, ob wir dem ausgestorbenen Homo neanderthalensis die Eigenschaft des Menschseins zusprechen können oder nicht. Als eindeutiger Hinweis auf die Transzendenzfähigkeit der Neandertaler kann demnach die zum Teil aufwändige Bestattung ihrer Toten gelten. Ich würde Homo neanderthalensis aber trotzdem eher als Vormenschen bezeichnen, denn auch sein erfolgreicherer Konkurrent Homo sapiens sapiens ist nach dem Arzt und Philosophen Karl Jaspers (1883-1969) erst in der „Achsenzeit“ (800 – 200 v. Chr.), in der alle unsere aktuellen Gedankensysteme ihren Ursprung haben, zum heutigen Menschen geworden. Entscheidend war dabei die Verkündung der 10 Gebote durch Mose. Davor waren alle Menschen- bzw. Vormenschengemeinschaften, wie wir heute wissen, direkt oder indirekt dem Kannibalismus und der Sklaverei zugetan.

Fazit: Seit dem Durchbruch der Quantenphysik in den 1920er Jahren nähern wir uns wieder dem mittelalterlichen Weltbild, in dem die sichtbare Welt eingebettet war in eine überirdische Wirklichkeit, die der Wissenschaft verschlossen bleibt, aber den Gott Suchenden ein Stück weit offenbart werden kann. Es geht dabei weniger um die Wiederverzauberung der Welt, sondern um die Rücknahme ihrer Entzauberung durch die so genannte Aufklärung. So zeigt sich dem für die verborgene Wirklichkeit Aufgeschlossenen eine bemerkenswerte Komplementarität zwischen biblischer Offenbarung und naturwissenschaftlicher Forschung, was allerdings nicht als Gottesbeweis herhalten kann. Eines solchen bedürfen Menschen, die aufgrund individueller Begegnung mit der frohen Botschaft zum Glauben an den Mensch gewordenen, für uns am Kreuz gestorbenen und wiederauferstandenen Gottessohn gefunden haben, auch gar nicht.

 




Jetzt wird der Pazifische Ozean radioaktiv „verseucht“

von Dr. Lutz Niemann

Die Kernenergie ist ein totes Pferd, so hat sich der deutsche Bundeskanzler Olaf Scholz geäußert. Damit hat sich der Kanzler auf Deutschland bezogen, und damit hat er leider recht. Aber in der restlichen Welt ist die Kernenergie etwas ganz anderes als ein totes Pferd, dort ist das Pferd quicklebendig, es entwickelt sich kräftig und überall vermehrt es sich.

In Deutschland wird seit langer Zeit in den Medien auf die Kernkraft eingeprügelt, indem die Strahlenangst geschürt wird. Dazu kommt jetzt ein Ereignis, denn es wird in Fukushima Kühlwasser in den Pazifischen Ozean geleitet, weil der Platz an Land nicht mehr ausreichend ist. Man hatte diesem Kühlwasser mit viel Aufwand etliche Radionuklide entzogen, nur bei Tritium (H-3) ist das nicht möglich. Jetzt wird dieses Wasser zusätzlich mit Meerwasser verdünnt und dann ins Meer geleitet. Zur Angstmache eignen sich große Zahlen wie „1,34 Millionen Tonnen belastetes Wasser“ und „22 Billionen Becquerel“, diese Zahlen kann der Bürger nicht einordnen. Es ist die bewährte Methode, zu Strahlung und Kernenergie Angst und Misstrauen zu schüren, Deutschlands Ausstieg gleichsam durch neuen Horrormeldungen zu rechtfertigen.

Zahlen zur radioaktiven „Belastung“ des Kühlwassers

Vor der Einleitung in den Ozean wird das Kühlwasser mit Meerwasser versetzt, so daß die Konzentration des Tritiums auf 1500 Becquerel pro Liter oder kleiner sinkt. Nun wissen wir aus der Diskussion um Dioxin aus den Jahren um 1990, daß in der Toxikologie bei Emissionen in die Luft mit Verdünnungsfaktoren von 1 zu 1 000 000 gerechnet wird. Diese Verdünnung ist auch bei Einleitung in Wasser anzusetzen, so daß wir bei einer Tritium-Konzentration um 0,001 Becquerel pro Liter ankommen.

Zum Vergleich:
Das Wasser der Wettinquelle im Radon-Heilbad Bad Brambach hat 25 000 Becquerel pro Liter, und dabei handelt es sich dort um alpha-Strahlung mit einer 20-fach höheren biologischen Wirksamkeit im Vergleich zur beta-Strahlung von Tritium. Diese Strahlung bewirkt die Heileffekte für die Patienten des Heilbades.
Trinkwasser in Urgesteins-Gegenden kann eine alpha-Aktivität von 1000 Becquerel erreichen (z.B. Helsinki).

Tritium ein schwacher beta-Strahler, die Reichweite der Strahlung beträgt etwa 0,05mm. Nur wenn Wasser mit Tritium getrunken wird, könnte es im Körper wirken. Zum Trinken ist Meerwasser ungeeignet.

Zur Umrechnung einer Aktivität in die Bestrahlungsdosis braucht man den Dosiskoeffizienten. Dieser Dosiskoeffizient liegt für Tritium bei einem Tausendstel von Jod-131 oder Cs-137, das sind die bedeutenden in Fukushima freigesetzten Nuklide, die weltweit in der Luft verteilt wurden. Wenn schon Jod und Cäsium nichts Schädliches bewirken konnten, dann kann es erst recht nicht durch das Tausendfach harmloserer Tritium geschehen.

Alles in unserer Welt ist radioaktiv, der Mensch und alle Lebewesen, alle Pflanzen, überall in Luft und Wasser befindet sich Radioaktivität. Das Meerwasser hat durch Kalium-40 eine Radioaktivität von 12 Becquerel pro Liter — darf man es daher „radioaktiv verseucht“ nennen? Und welche Bedeutung hat eine winzige Erhöhung dieses Wertes in der dritten Dezimale? — Einen aktuellen Bericht zu den Maßnahmen in Japan haben die Fachleute der GRS auf ihrer Startseite eingestellt (hier). Die derzeitigen Pressemeldungen bei uns dienen einzig politischen Zwecken.

Was waren die Folgen des Fukushima-Unfalls?

Es gab durch die frei gesetzten Radionuklide keine gesundheitlichen Schädigungen bei der Bevölkerung, dazu war die entwichene Menge an Radioaktivität viel zu gering. Noch bevor der Deutsche Bundestag den endgültigen Ausstieg aus der Kernkraft beschloss, wurde diese Tatsache durch die IAEA veröffentlicht. Auch in Deutschland gab es dazu eine Meldung (hier), aber in den öffentlichen Medien wie gewohnt nicht beachtet.

Erinnern wir uns: Eine Wasserstoffexplosion zerlegte die Reaktorgebäude, aber die Reaktoren selber bleiben heil. Heute will Deutschland seine Energieversorgung auf Wasserstoff umstellen, aber das gibt keinen Anlass zu irgendwelchen Bedenken. Vielleicht ist der „grüne“ Wasserstoff nicht explosiv?

Als Folge des Fukushima-Unfalls wurden in der Kraftwerksumgebung über 100 000 Menschen evakuiert, auch aus 8 Krankenhäusern und 17 Pflegeheimen, so verlangten es die Gesetze. Nach anfänglichem Zögern wurden auch die Intensiv-Patienten aus den Krankenhäusern abtransportiert und so deren Versorgung unterbrochen. Mit der Folge von 50 unmittelbaren Todesfällen. Über diese Toten wird nicht gern geredet. Sogar in der sonst exzellenten Darstellung der Ereignisse in Japan durch die Fachleute der GRS (hier) wird diese traurige Folge von unsinnigen Gesetzen erst auf Seite 68 erwähnt, nachdem auf den Seiten zuvor im Wesentlichen von Becquerel und Sievert geredet wird. Weitere Berichte dazu sind noch heute zu finden unter (hier), (hier), (hier), (hier), (hier).

Es gab in Japan keine Todesfälle durch die „Strahlengefahr“, der Atomtod schlug NICHT zu. Nur die Schutzmaßnahmen vor der „Strahlengefahr“ war für weit über 1000 Personen tödlich. — Wir befinden uns in einer verkehrten Welt, Deutschland steigt aus und erweitert nur die tödlichen Strahlen“SCHUTZ“maßnahmen (hier).

Die Strahlen“SCHUTZ“gesetze sind weltweit falsch, sie sollten korrigiert werden

Man weiß, eine hohe Strahlendosis in sehr kurzer Zeit ist schädlich für Lebewesen. Aus diesem Wissen heraus macht man bei Strahlung die Hypothese, daß der Schaden auch bei Verteilung einer Dosis über eine längere Zeit auftritt, aber nicht nachweisbar ist. Natürlich ist dieses unsinnig. Wir alle wissen aus dem Vergleich mit Ethanol, daß die Flasche Schnaps über lange Zeit konsumiert nicht schädlich ist. In 1934 hatte man den ersten Grenzwert bei einem Zehntel der letalen Dosis eingeführt, als man die Wirkung der Strahlung auf Lebewesen noch gar nicht kannte. Seither wurden die Grenzwerte immer weiter erniedrigt, und eine gigantische Industrie lebt von der Bekämpfung der nicht vorhandenen Gefahr.

Es gibt eine Rechenvorschrift, nach der man hypothetische Tote aus der Dosis ausrechnen kann. So wurden bei der internationalen Konferenz der IAEA in Wien 2006 „20 Jahre nach Tschernobyl“ einmalig 4000 Krebstote infolge der in Tschernobyl freigesetzten Radioaktivität berechnet. Wenn man dieselbe Rechnung auch für den Luftverkehr machen würden, so wären das Ergebnis jährliche 5000 Krebstote durch die erhöhte Ortsdosisleistung in Flughöhe. In der Medizin werden täglich millionenfach Strahlendosen in ca. 20 Minuten zum Nutzen der Patienten verabreicht, zu deren Vermeidung in der Kerntechnik Millionenbeträge ausgegeben werden. In der Fachwelt ist der Unsinn der Strahlen“SCHUTZ“gesetze bekannt, die ja nur im Bereich Kerntechnik gelten.

Die Gesetze werden von den Abgeordneten im Bundestag gemacht, und diese werden gut bezahlt, damit sie ihre Hand hochheben, wenn die eigene Partei ein Gesetz vorlegt. Durch Unkenntnis des Sachverhaltes kommt es zu falschen Gesetzen. Für den Bürger ist das Thema zu kompliziert. So ist die „Strahlengefahr“ inzwischen weltweit fest in den Gehirnen der Menschen einbetoniert. Ein ähnliches wird zur Zeit mit der nicht existierenden „CO2-Gefahr“ betrieben, die EU geht dabei voran.

Unsere Medien haben die Aufgabe einer umfassenden Berichterstattung. Aber auch dort fehlt es heute, obwohl seit den Jahren der Schröder / Fischer-Regierung genug Zeit vergangen ist, um sich zu informieren. Andere Meinungen – oder besser Tatsachen – werden nicht berichtet. Das Thema Kernkraft und Strahlung ist ein politisches Thema geworden. Nur einzelne private Internetaktionen wirken dem medialen Trommelfeuer entgegen und erlauben sachliche Berichte. Das tote Pferd Kernenergie ist längst nicht tot, das hat man weltweit erkannt (hier), (hier), (hier).