Der physikalische Unterschied zwischen Energie und Leistung in der politischen Klimawissenschaft

Uli Weber

Es wäre wirklich zu begrüßen, wenn sich die Klimarealisten in Deutschland auf das übergeordnete Ziel konzentrieren könnten, dem religiösen Klimawahn entgegenzutreten; denn dieser Klimawahn schreitet mit sehr schnellen Schritten voran, Siehe: https://report24.news/auch-wien-ueber-1-000-staedte-wollen-bis-2030-fleisch-milch-und-privatautos-verbieten/

Mein hemisphärisches Stefan-Boltzmann-Modell mit +15°C ohne THE ist nicht überall gut angekommen; sogar vorgebliche Klimarealisten fühlen sich dadurch heftig provoziert, wie die nachfolgende Abbildung beweist:

Abbildung 1: Das Faktor4-Tag=Nacht-Modell aus einer Dietze-Email vom 30.08.2023 08:38

Rechnen wir also mal das geozentrische Faktor4-Tag=Nacht-Weltbild nach:

Die Solarkonstante (So) beträgt 1.367 W/m².

Abzüglich Albedo bleiben ca. 940 W/m² temperaturwirksam.

Aufgeteilt auf 2 Sonnen ergibt das jeweils 470 W/m².

Die Projektion des ebenen solaren Strahlungsquerschnitts, auf die jeweilige Halbkugel der Erde projiziert, ergibt einen Flächenverhältnis von 1:2. Damit sind auf jeder der beiden solar beschienenen Halbkugeln durchschnittlich 235 W/m² für die Temperaturgenese verfügbar.

Nach dem Stefan-Boltzmann-Gesetz entsprechen 235 W/m² einer Temperatur von -19°C. Damit wurde der sogenannte „natürlichen atmosphärischen Treibhauseffekt“ auch im herkömmlichen Faktor4-Modell durch einen grafischen Widerspruchsbeweis widerlegt, weil für dessen Existenz zwei Sonnen mit der jeweils halben Solarkonstante erforderlich wären.

Die Glaubensbekenntnisse der Klimareligion sind voll von antiphysikalischen „Wunderwaffen“, die auf MINT-fernem Wunschdenken fußen und mit dauerhaften Subventionen gestützt werden müssen. Denn die Krux in der politischen Klimawissenschaft ist die Physik, namentlich der Unterschied zwischen Energie und Leistung sowie deren Zusammenhang über die Zeit:

Definition von „Energie“ (Wikipedia):Energie ist eine physikalische Größe, die in allen Teilgebieten der Physik sowie in der Technik, Chemie, Biologie und der Wirtschaft eine zentrale Rolle spielt. Ihre SI-Einheit ist das Joule. Die praktische Bedeutung der Energie liegt oft darin, dass ein physikalisches System in dem Maß Wärme abgeben, Arbeit leisten oder Strahlung aussenden kann, in dem seine Energie sich verringert. In einem gegenüber der Umgebung abgeschlossenen System ändert sich die Gesamtenergie nicht (Energieerhaltungssatz). Die Bedeutung der Energie in der theoretischen Physik liegt unter anderem darin, dass der Energieerhaltungssatz, ursprünglich eine Erfahrungstatsache, schon daraus gefolgert werden kann, dass die grundlegenden physikalischen Naturgesetze zeitlich unveränderlich sind.“

ENERGIE ist also gespeicherte physikalische Arbeit in Form von potentieller, kinetischer, elektrischer, chemischer und thermischer Energie, die Einheit ist Joule [J].

BEISPIEL: Der Wind besitzt kinetische Bewegungsenergie, und solange er auf kein Hindernis trifft, behält er sie auch.

Definition von „Leistung“ (Wikipedia): „Die Leistung als physikalische Größe bezeichnet die in einer Zeitspanne umgesetzte Energie dividiert durch diese Zeitspanne. Ihr Formelzeichen ist meist P (von englisch power), ihre SI-Einheit das Watt mit dem Einheitenzeichen W. Im physikalisch-technischen Zusammenhang wird der Begriff Leistung in verschiedenen Bedeutungen verwendet:

als installierte oder maximal mögliche Leistung (Kennzeichen eines Gerätes oder einer Anlage; auch Nennleistung genannt)

als tatsächliche Leistung in einer Anwendung

die zugeführte Leistung

die im Sinne der Aufgabenstellung abgegebene Leistung.

Die Leistungsaufnahme und die für eine bestimmte Anwendung nutzbringende Leistungsabgabe können je nach Wirkungsgrad bzw. Abwärme erheblich voneinander abweichen.“

LEISTUNG ist also die prinzipielle Fähigkeit, eine Energieform in eine andere Energieform umzuwandeln, die Einheit ist Watt [W].

BEISPIEL: Die WKAs auf dem Titelbild sind ein Hindernis für den Wind; sie wandeln dessen kinetische Energie in elektrische Energie um. Dabei hat eine WKA eine feste technische Nennleistung, während die tatsächlich geleistete Arbeit mit der 3. Potenz der Windgeschwindigkeit schwankt.

Der große Fehler der Klimawissenschaften liegt darin, Energie und Leistung als äquivalent zu betrachten, und beide über die Zeit beliebig ineinander überführen zu wollen. Nun kann man zwar aus einer Leistung und deren Wirkzeit eindeutig eine Energiemenge ermitteln, aber die umgekehte Rückrechnung einer Leistung aus einer Energiemenge bedarf der Kenntnis über die Wirkzeit und den tatsächlichen Leistungsverlauf, sonst ist das Ergebnis nicht eindeutig.

Beispiel: Sie bestellen auf der Kirmes eine Erbsensuppe; die Menge beträgt 0,5 Liter und dieTemperatur 80°C. Frage an die THE-Anhänger unter Ihnen: Mit welcher Leistung und über welche Zeit wurde diese Suppe von 15°C auf 80°C erhitzt?

Diese Frage ist nämlich gar nicht eindeutig lösbar. Trotzdem versucht das THE-Establishment, aus einem globalen Faktor4-Tag=Nacht-Mittel eine theoretische Globaltemperatur abzuleiten. In einer E-Mail* vom 26.08.2023 06:17 übermittelte mir ein Dr. Gerhard Kramm die nachfolgende Grafik* in Abbildung 2:

Abbildung 2: Tägliche mittlere solare Einstrahlung von 0°N-90°N geografischer Breite in W/m² für alle Tage des Jahres 2010 – Quelle: (Kramm 2023)*

Und ein Herr Eugen Ordowski hatte dazu passend am 18. August 2023 um 15:50 hier auf EIKE eine Aussage von Wilhelm von Bezold aus dem Jahr 1906 zitiert:

„Dabei fällt das Maximum der Einstrahlung, wie längst bekannt, auf den Pol der Sommerhalbkugel und zwar das absolute Maximum auf den Südpol.“

Aber was meinte Wilhelm von Bezold nun mit dem „Maximum der Einstrahlung“?

Es gibt dafür zwei Möglichkeiten, von denen nur eine richtig sein kann: Meinte von Bezold das tägliche Maximum der EINSTRAHLUNGSLEISTUNG, aus dem ich mein hemisphärisches S-B-Temperaturmodell herleite, oder meinte er das Maximum der täglichen 24h-EINSTRAHLUNGSMENGE (=ENERGIE), mit dem Kramm et al. (2017) eine terrestrische Anwendung seines lunaren Slab-Temperaturmodells berechnet hatten?

Schaunmermal: In Abbildung 3 sind die breitenabhängige maximale spezifische solare Strahlungsleistung und die aus der 24h-Einstrahlungsmenge hergeleitete breitenabhängige Durchschnittsleistung nach Kramm (2023) gemeinsam dargestellt:

Max. Leistung [W/m²]

Abbildung 3: Die maximale spezifische solare Strahlungsleistung (Skala 0-900 W/m²) von 0°N bis 80°N geografischer Breite vom 1. Januar bis zum 31. Dezember (Weber)

Overlay: Maßstäblich angepasste Abbildung 2 für die tägliche mittlere solare Einstrahlung von 0°N-90°N geografischer Breite in W/m² (Skala 0-600) für alle Tage des Jahres 2010 (Kramm 2023)*

In beiden Abbildungen ist die Ordinate mit [W/m²] bezeichnet, bei mir als das tägliche Maximum, bei Kramm als täglicher 24h-Durchschnittswert. Auffällig ist, dass diese Kurven bei ähnlichem Verlauf nahezu um den Faktor2 auseinanderliegen; lediglich im Bereich des Polartages bestehen Übereinstimmungen.

Mein tägliches Maximum ist physikalisch eindeutig definiert: Die temperaturwirksame spezifische solare Strahlungsleistung von 940 W/m² multipliziert mit dem Cosinus des örtlichen solaren Zenitwinkels bei höchstem Sonnenstand.

Was bedeutet nun der Tagesdurchschnitt bei Kramm (2023)? LEISTUNG hat die physikalische Einheit Watt und ENERGIE die physikalische Einheit Joule. Der Tag hat 24 Stunden oder 86.400 Sekunden. Eine solare Gesamteinstrahlung über den 24h-Tag würde also zunächst einmal in [Joule=Ws] ausgedrückt werden. Aus [Joule] wird dann durch eine Division mit der Tagesdauer in Sekunden [s] eine Durchschnittsleistung in [Watt] berechnet. Und da [m²] in der Abbildung im Nenner steht, handelt es sich damit um eine spezifische Leistung.

Kommen wir wieder zurück auf das von Bezold Zitat und dessen Formulierung „Maximum der Einstrahlung“. Da Wilhelm von Bezold ein hervorragender Physiker war, ist ihm sicherlich bekannt gewesen, dass die maximale temperaturwirksame spezifische solare Strahlungsleistung von 940 W/m² ausschließlich zwischen den beiden Wendekreisen auftritt. Also kann es sich bei seinem Zitat nur um die tägliche 24h-Gesamtmenge der eingestrahlten solaren Energie handeln, und nicht um eine maximale Leistung.

Die Bewertung des Tagesdurchschnitts ist daher ganz einfach:

Bis zur Berechnung einer solaren Gesamteinstrahlung über den 24h-Tag in Joule ist diese Berechnung physikalisch richtig. Die mathematische Durchschnittsbildung über 86.400 Sekunden und die geographischen Breiten entfernt sich dann aber von der physikalischen Aussage von Wilhelm von Bezold, der gar nichts von einem spezifischen Leistungsdurchschnitt gesagt sondern vielmehr absolute Angaben zur Energie gemacht hatte. Während im Polartag noch eine sinnstiftende physikalische Durchschnittsbildung möglich ist, fließen zu absteigenden geografischen Breiten hin dann zunehmend Nachtzeiten in diese Grafik ein und führen zu physikalisch unsinnigen Ergebnissen, wie Abbildung 3 anschaulich beweist. Dort ist deutlich zu erkennen, dass die maximale spezifische solare Strahlungsleistung aus Abb.2 mit zunehmender Nachtlänge vom Pol zu den Tropen entgegen dem tatsächlich beobachteten Verlauf sinkt, anstatt wie in Realitas und meinem hemisphärischen S-B-Modell anzusteigen. Es sei an dieser Stelle noch einmal an die eingangs zitierte Definition von „Leistung“ erinnert (mit Hervorhebungen):

Die Leistung als physikalische Größe bezeichnet die in einer Zeitspanne umgesetzte Energie dividiert durch diese Zeitspanne.“

Ein 24h-Durchschnitt über Nachtzeiten widerspricht also der Definition von physikalischer Leistung.

Schaunmernochmalweiter: Kramm et al. (2017) hatten aufgrund der polaren Tageslänge eine breitenabhängige Temperaturverteilung mit den Maxima am Pol der jeweiligen Sommerhemisphäre hergeleitet. In seiner E-Mail vom 29.01.2021 um 09:58 Uhr** an mich und den üblichen Skeptiker-Email-Verteiler hatte Dr. Gerhard Kramm ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (in der Folge „Kramm (2021)“) mit einem direkten Temperaturvergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphaere“ verschickt. Wie erwartet spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde den Verlauf der maximalen örtlichen solaren Strahlungsleistung und zeigen keinerlei Hotspot am Pol der Sommerhemisphäre. Diese Beleuchtungsklimazonen sind in der nachfolgenden Abbildung (hier finden Sie die Originaldarstellung) als Overlay über die beiden genannten Modelle projiziert worden:

https://eike-klima-energie.eu/wp-content/uploads/2022/07/word-image-94764-6.jpegAbbildung 4: Grafiken a** und b** aus Kramm (2021): Der Modellvergleich aus dem PDF-Dokument von Kramm (2021)** mit jeweils einem Overlay der Beleuchtungsklimazonen
(Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

(a** [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

(b** [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5)

Anmerkung: Die Overlays der Beleuchtungsklimazonen sind gegenüber den Modellen a** und b** nicht flächentreu

Bekanntermaßen ist die temperaturbestimmende spezifische solare Strahlungsleistung in den Tropen nun einmal am höchsten (Abbildung 4a**) und fällt dann zu den Polarregionen kontinuierlich ab, wie es auch die Overlays der Beleuchtungsklimazonen in den Abbildungen 4a** und 4b** prinzipiell zeigen. Es ist demnach unschwer zu erkennen, welche Grafik ein physikalisches Temperatur-Modell unserer realen Erde darstellt (mein hemisphärisches S-B-Modell) und welche Grafik mit einem Wärmepol auf der Sommerhemisphäre nicht auf unsere reale Erde zutrifft.

Halten wir also nochmal fest, dass am jeweiligen Sommerpol die tägliche solare ENERGIE (=Leistung*Zeit) am größten ist, während die tägliche solare MAXIMAL-LEISTUNG (die das S-B-Temperaturäquivalent bestimmt) auf den Bereich zwischen Äquator und dem sommerlichen Wendekreis beschränkt bleibt.

In der nachfolgenden Abbildung wird der Unterschied zwischen LEISTUNG und ENERGIE noch einmal grafisch dargestellt:

https://www.eike-klima-energie.eu/wp-content/uploads/2020/10/weber_03-640x202.pngAbbildung 5: Links: Jahresverlauf der maximalen solaren Strahlungsleistung mit den Beleuchtungsklimazonen Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel

Quelle: Niemand hat die Absicht, eine Ökodiktatur zu errichten

Anmerkungen zu den Overlays in der linken Abbildung: Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne MAX Si (rot=940W/m², schwarz=0W/m²) in Abhängigkeit von der geographischen Breite und der Jahreszeit. Für den Nordwinter (linke Seite) und den Nordsommer (rechte Seite) wurden darüber jeweils die Beleuchtungsklimazonen der Erde projiziert (von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne von 940W/m² erhält immer derjenige Breitenkreis zwischen den Wendekreisen, auf dem die Sonne mittags lotrecht steht. Dieses Maximum ist nicht zu verwechseln mit dem Maximum der 24h-Strahlungsenergie, das aufgrund der Länge des Polartages um die jeweilige Sommersonnenwende auf den Sommerpol fällt. Es lässt sich aus einem entsprechenden 24h-Durchschnitt (=Leistung x 24h/24h) allerdings kein entsprechendes S-B-Temperaturäquivalent ableiten, obwohl es immer wieder versucht wird. Halten wir also fest, dass am jeweiligen Sommerpol die tägliche solare ENERGIE (=LeistungxZeit) am größten ist, während die tägliche solare MAXIMAL-LEISTUNG (die das S-B-Temperaturäquivalent bestimmt) auf den Bereich zwischen Äquator und dem sommerlichen Wendekreis beschränkt bleibt. Die Erklärung der (mechanischen) Leistung von studyflix.de/ingenieurwissenschaften lässt sich auch hier anwenden, Zitat:

Die Definition der Arbeit in der Physik als „Kraft mal Weg“ beinhaltet nicht, in welchen Zeitintervall diese Arbeit verrichtet worden ist. Zwei Personen (A und B) können daher dieselbe Arbeit verrichten, aber Person A braucht dazu weniger Zeit als Person B. Umgangssprachlich würde man in dieser Situation sagen, dass Person A eine größere Leistung als Person B erbracht hat. 

Genau das ist die Kernidee hinter der Definition für die Leistung P

P = \frac{W}{t}.

Hier ist Wdie Arbeit in Joule (\mathsf{J}), die im Zeitintervall tin Sekunden (\mathsf{s}) erbracht wurde. Die Einheit der Leistung ist demnach \mathsf{\frac{J}{s}}, häufiger aber in \mathsf{W} für Watt angegeben. Die Leistung erlaubt es also in einer konkreten Zahl zu fassen, wie schnell eine gewisse Menge an Arbeit verrichtet wurde.“

Eine Durchschnittsbildung der solaren Einstrahlungsenergie über Nachtzeiten ist physikalisch also ebenso sinnvoll, wie beispielsweise eine Verbrauchsanalyse für ein Kraftfahrzeug inklusive dessen Stillstandzeiten. Aber es könnte auch viel schlimmer kommen, wenn man daraus dann noch eine Durchschnittsgeschwindigkeit, in diesem Vergleich also eine Temperatur, ableiten würde.

Damit kommen wir zur ZEIT „t“ als das große Menetekel der sogenannten „Energiewende“, denn ohne Zeit kann man die Energie nun mal nicht wenden. Man kann über fossile Energieträger verfügen, man kann über Strom-Generatoren verfügen, aber man nun mal nicht frei über die Zeit verfügen. Insbesondere kann man nicht über die Zeit verfügen in der die Sonne scheint und der Wind weht. Zwecks Stromerzeugung kann man lediglich Stromerzeuger bereitstellen, also Solarpanele oder Windmühlen, die Zeitpläne für Sonne und Wind werden aber von Petrus im Voraus nicht veröffentlicht; lediglich ist bekannt oder sollte vielmehr bekannt sein, dass die Sonne nachts nicht scheint, und der Wind weht, wann und wo er will:

Abbildung 6: DWD-Karten für die solare Einstrahlung und die Windgeschwindigkeit in Deutschland

Links: Auf SOLARWATT findet man eine solare Einstrahlungskarte des DWD

Beschreibung: „Um die Sonneneinstrahlung für eine Region abschätzen zu können, gibt es vom Deutschen Wetterdienst (DWD) eine Einstrahlungskarte. Betreiber von Solaranlagen können die genaue Sonneneinstrahlung für ganz Deutschland ablesen.“

Rechts: DWD Windkarte für Deutschland (Bezugszeitraum 1981-2000)
Beschreibung: „In Windkarten steckt umfangreiches Know-how. An 218 Stationen wurde jahrzehntelang die Windgeschwindigkeit registriert. Aus diesen Messwerten wurden mit dem Statistischen Windfeldmodell (SWM) des Deutschen Wetterdienstes Winddaten flächendeckend für ganz Deutschland im Abstand von 200 m berechnet. Dabei wurde die Höhe über dem Meeresspiegel ebenso berücksichtigt, wie die geographische Lage, die Geländeform und die Art der Landnutzung.“

Beide DWD-Karten, für Sonne und Wind, geben Jahresdurchschnitte an. Als kluger, aber MINT-ferner Geschwätzwissenschaftler oder Politiker könnte man deshalb auf die „geniale“ Idee kommen, man müsse nur den durchschnittlichen erzeugten Jahresbetrag (in kWh) pro installierte Leistung (in kW) kennen, um aus dem jährlichen Strombedarf eine grundlastfähige Versorgung unseres Landes über die Anzahl von WKAs und die Größe von Solarparks sicherzustellen. Ein solches Vorhaben scheitert diesmal aber bereits an der Mathematik, denn bei Dunkelflaute is‘ nunmal nix mit „Alternativer Energie“:

Installierte Leistung (Wind) x 0 Wind + installierte Leistung (Solar) x 0 Sonne = 0 kWh

Mit der sogenannten „Energiewende“ geht in unserem Lande also auch eine „MINT-marginalisierende Intelligenzwende“ einher, die uns mit an Sicherheit grenzender Wahrscheinlichkeit auf das technisch-naturwissenschaftliche Niveau der Schildbürger führen wird, die der Sage nach ihr fensterloses Rathaus mit Säcken voller Sonnenstrahlen zu beleuchten versucht hatten.

*) Erklärung: Diese Abbildung stammt aus einer E-Mail von Dr. Gerhard Kramm mit Datum 26. August 2023 um 06:17 Uhr. Kramms Vertraulichkeitshinweis lautet, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbarmherzige GOOGLE Übersetzer , mit Hervorhebungen:

VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und/oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterübertragung, Verbreitung oder sonstige Nutzung dieser Informationen oder das Ergreifen von Maßnahmen im Vertrauen auf diese Informationen durch andere Personen oder Organisationen als den vorgesehenen Empfänger ist untersagt. Sollten Sie diese fälschlicherweise erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von Ihrem Computer.

Und auf dem entsprechenden Mail-Verteiler bin ich der 3. An-Empfänger und damit ausdrücklich zur Nutzung dieser Grafik berechtigt.

**) Erklärung: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abbildungen a* und b* aus Kramm (2021)) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken, Zitat:

“CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.“

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.

PS: Ich erlaube mir nachfolgend, Ihnen mein neues Buch vorzustellen.
Aus der Einleitung: Mein hemisphärischer Stefan-Boltzmann-Ansatz geht auf eine Veröffentlichung von 2016 in den „Roten Blättern“ der Deutschen Geophysikalischen Gesellschaft zurück und beschreibt die Temperaturgenese auf unserer realen Erde. Ein populärwissenschaftlicher Artikel darüber erschien Anfang 2017 auf Tichys Einblick und wurde dann von EIKE übernommen. Seitdem konnte ich mein hemisphärisches Stefan-Boltzmann-Modell auf EIKE in mehr als 40 Artikeln unter ganz unterschiedlichen Aspekten mit Phänomenen der realen Erde abgleichen und präsentieren. Dafür bedanke ich mich bei der EIKE-Redaktion, insbesondere bei Herrn Dipl.-Ing. Michael Limburg, ganz herzlich.

Verbrannte Erde – Uli Weber

Herstellung und Verlag: BoD

ISBN: 978-3-75785-943-5

Taschenbuch 36 Seiten – 7,99€

E-Book – 4,99€

Beschreibung: Wir alle stehen aufgrund der fehlerhaften Anwendung eines physikalischen Gesetzes vor einer panischen Dekarbonisierung unseres fossil befeuerten Paradieses. Dieses Buch ist ein Versuch, mein hemisphärisches Stefan-Boltzmann-Modell für den interessierten und mündigen Staatsbürger in verständlicher Form darzustellen. Mein Modell beweist, dass es auf unserer Erde gar keinen „natürlichen atmosphärischen Treibhauseffekt“ geben kann, und eine globale Dekarbonisierung mit dem Ziel einer „Klimarettung“ deshalb völliger Unfug ist. Denn die Berechnung, auf der dieser ominöse Treibhauseffekt beruht, ist reine Mathematik und verletzt die Regeln und Bedingungen der zugrunde liegenden Physik.

Beweis: Versuchen Sie einmal, einen Fußball mit einer Taschenlampe so zu beleuchten, dass auch seine Rückseite einen Teil der Lichtmenge erhält; Sie werden grandios scheitern. Genau so berechnet nun aber die Klimawissenschaft ihre „theoretische Globaltemperatur von -18°C“ für unsere Erde und benötigt deshalb einen ominösen „natürlichen atmosphärischen Treibhauseffekt von 33°C“, um dieses fehlerhafte Klimamodell gegenüber der mit 15°C gemessenen Realität zu stützen.

Es wird höchste Zeit, unsere Welt vom menschengemachten Klimawahn zu befreien, damit auch unsere Kinder und Enkel später noch frei über Nahrung und Energie verfügen können.

 




Bürger für Technik (BfT) laden ein zur Energiekonferenz 2023 in Hannover

BfT Konferenz 2023 – Vorträge in Reihenfolge Stand 2.9.23

Ort der Veranstaltung:

Plaza Hotel Hannover, direkt am Hauptbahnhof, wo auch die Veranstaltung stattfindet, ist von den Teilnehmern selbst zu buchen. Wir haben hierfür ein Übernachtungskontingent zu ermäßigten Konditionen reserviert – Stichwort Bürger für Technik Tagungsteilnehmer

Montag 02.10.23

Vorträge Teil 1: Bildung! Innovationen? Energie!

9h00 Begrüßung / Einleitung durch den BfT-Vorstand – Lindner, Haussmann, Göring

9h30 Dr. Heinrich Lindner: Wasserstoffwirtschaft: Pläne, Mythos, Fakten

10h30 Dipl.-Ing. Robert Lechner-Schobel: Kernfusion – aktuelle Entwicklungen

11h30 Dr. Helmut Böttiger: Wer hat ein Interesse an knapper Energie. Wie und warum?

12h30 Mittagessen

Vorträge Teil 2: Wissenschaft: Messen und Freiheit, Industrie, Windenergie

13h30 Dipl.-Ing. Michael Limburg: Wer misst misst Mist – wie manche Messtechniker sagen oder Über die unverstandene Messtechnik bei der Erkennung der „größten Gefahr für die Menschheit“ (WEF)“  – Globale Mitteltemperatur – was ist das?

14h30 Vera Lengsfeld: Rettet die Freiheit der Wissenschaft!

15h30 Zwischendiskussion und kurze Kaffeepause

15h50 Dr.-Ing. Hans-Bernd Pillkahn: Zerstörte industrielle Wertschöpfung

16h50 Dr.-Ing. Roland Aßmann: Terrestrial Stilling – eine potentielle Ursache des menschengemachten Klimawandels? und die großen Missverständnisse bei der Beurteilung der Folgen der Windenergie

17h50 Allgemeine Aussprache / Diskussion zum Ausklang des 1. Konferenztages

18h30 Abendessen (optional)

20h00 Mitgliederversammlung BfT e.V.

22h00 Tagesausklang

Dienstag 03.10.

Vorträge Teil 3: Energiewende / -krise und Bildung / Wissenschaft: Strahlenwirkungen

9h00 Begrüßung / Einleitung durch den BfT-Vorstand

9h15 Prof. Wolfgang Merbach: Die deutsche Energiewende – Folgen und Herausforderungen

10h15 Dr. Lutz Niemann: Positive Strahlenwirkungen – Was sind Gifte – was bedeutet adaptive Antwort oder Hormesis

11h15 Dr. Heinrich Lindner: Wege aus der Energiekrise, frei nach F. Vahrenholt

12h15 Abschlussdiskussion

13h00 Ende der Veranstaltung

Bürger für Technik e.V.

Anmeldungen an Dr. Martin Lindner martin.lindner@buerger-fuer-technik.de

Siehe Anmeldungsformular unten und ggf. https://buerger-fuer-technik.de

VerbindlicheAnmeldungHannover2023_2

Sie sind ein an Naturwissenschaften und Technik und anderen gesellschaftlich relevanten Themen interessierter Bürger, wollen sachlich und wissenschaftlich fundiert, mit Fakten statt Ideologien, informiert sein und sind der Meinung, dass sich Bildung, Fortschritt / Innovationen, Freiheit, Natur und Naturwissenschaften, Technik, Umwelt und Wohlstand nicht ausschließen – dann sind Sie hier bei uns richtig!

Wir sind ein gemeinnütziger, überparteilicher Verein, schreiben eigene Beiträge oder leiten Beiträge anderer weiter, um über Sachverhalte real faktenbasiert zu informieren. Wir wenden uns an die Öffentlichkeit, um Missstände zu benennen, und geben unseren Forderungen auch durch Anschreiben und Aufrufe unmittelbar an Verantwortliche und Presse Ausdruck.

Wenn Sie sich von uns und unseren Beiträgen angesprochen fühlen, viel Lesenswertes für sich entdecken und vlt. sogar Lust bekommen, uns Ihre Beiträge zur Veröffentlichung zuzusenden, würde uns das freuen.

Kontakt: https://buerger-fuer-technik.de

 

 




Olafs „totes Pferd“ lebt jetzt in Ruanda weiter

Bundeskanzler Olaf Scholz erklärte die Kernenergie in Deutschland für ein „totes Pferd“. Ein von Deutschen entwickelter neuartiger Kernreaktor wird nun in Ruanda gebaut. 

Von Manfred Haferburg

Schlechte Nachrichten für Trittin, Habeck, Baerbock, Lang und wie sie alle heißen. Dienstfertig hatte der Bundeskanzler Olaf Scholz noch in der vergangenen Woche gekanzelt: Das Thema Kernkraft ist in Deutschland ein totes Pferd.“ An dem Kanzlersatz stimmt nur „in Deutschland“, weil andere Länder, wenn sie auch für unsere Außenministerin hunderttausende Kilometer von Deutschland entfernt liegen, nicht ganz so dumm sind, wie Ampel-Kernkraftgegner denken.

Die deutsch-kanadische Firma Dual Fluid, gegründet 2021, entwickelt einen völlig neuartigen Kernreaktor, der emissionsfreien Strom und Wasserstoff bereitstellt, heutige Energiekosten deutlich senkt und Atommüll als Brennstoff nutzen kann. Der nukleare Abfall, der in den deutschen Zwischenlagern steht, kann mit dieser Technologie Deutschland für mehr als 350 Jahre bei heutigem Verbrauch mit Strom versorgen. Ein Prototyp des Dual-Fluid-Reaktors soll noch innerhalb dieses Jahrzehnts in Betrieb gehen. Aber wohl nicht im Land der toten Pferde.

Kooperationsvertrag mit Ruanda zum Bau eines Dual-Fluid-Demonstrationsreaktors

Die Regierung Ruandas, vertreten durch die Ruandische Atomenergiebehörde (RAEB), hat am 12. September 2023 einen Kooperationsvertrag mit dem deutsch-kanadischen Kerntechnikunternehmen „Dual Fluid Energy Inc.“ über die Zusammenarbeit bei der Entwicklung eines Dual Fluid-Demonstrationsreaktors in Ruanda unterzeichnet (siehe Foto oben mit Dr. Armin Huke von Dual Fluid Energy Inc.). Der Demonstrationsreaktor soll bis 2026 betriebsbereit sein, die anschließende Erprobung der Dual-Fluid-Technologie soll bis 2028 abgeschlossen sein.

Die ruandische Regierung wird den Standort und die Infrastruktur für das Projekt zur Verfügung stellen, während Dual Fluid für die technische Umsetzung der Partnerschaft verantwortlich ist. Darüber hinaus erhalten ruandische Wissenschaftler im Rahmen der Partnerschaft eine praxisnahe Ausbildung im Bereich der Kerntechnik.

Dual Fluid will eine völlig neue Art der Kernspaltung auf der Basis von flüssigem Brennstoff und Bleikühlung realisieren, die die Leistung heutiger Kernkraft exponentiell steigern könnte. Die neuen Reaktoren könnten Strom, Wasserstoff und synthetische Brennstoffe zu Kosten produzieren, die unter denen fossiler Brennstoffe liegen.

RAEB-Geschäftsführer Fidel Ndahayo: „Um den wachsenden Energiebedarf der Bevölkerung zu decken, den Industriesektor weiterzuentwickeln und eine klimaresistente Wirtschaft aufzubauen, setzt Ruanda auf Kernenergie als Ergänzung zu seinem bestehenden Energiemix. Wir sind ein ´Proof-of-Concept´-Land und wollen die Integration innovativer Technologien beschleunigen. Deshalb geht Ruanda strategische Partnerschaften mit Start-ups ein, die sich mit der Konzeption und Entwicklung kleiner modularer Reaktoren befassen. Die Dual Fluid-Technologie hat Sicherheitseigenschaften, die sie unfallfrei machen. Die Technologie wird relativ geringe Mengen radioaktiver Abfälle erzeugen, die gemäß den bestehenden internationalen Standards für die Entsorgung radioaktiver Abfälle sicher entsorgt werden.

Götz Ruprecht, Geschäftsführer von Dual Fluid: „Zeit ist ein kritischer Faktor für uns. Nach Jahren der detaillierten Vorbereitung und Verbesserung des Konzepts sind wir nun überzeugt, den idealen Partner für die erste Umsetzung unserer völlig neuen Technologie gefunden zu haben. Dual Fluid hat sich für eine Investition in Ruanda entschieden, weil das Land ein sehr stabiles und positives Geschäftsumfeld bietet, das bereits große internationale Unternehmen angezogen hat. Unser Demonstrationsreaktor wird zeigen, dass eine bessere, wesentlich effizientere Art nuklearer Energiegewinnung möglich und schnell realisierbar ist.“

Über die ruandische Atomenergiebehörde

Die 2020 gegründete ruandische Atomenergiebehörde (Rwanda Atomic Energy Board, RAEB) fördert die friedliche Nutzung der Kernenergie für eine nachhaltige sozioökonomische Entwicklung Ruandas.

Zu den Aufgaben von RAEB gehören die Beratung der Regierung in Belangen der Atomenergie, die Förderung deren friedlicher Nutzung, der Aufbau von Partnerschaften mit nationalen, regionalen und internationalen Institutionen, die Förderung und Unterstützung des Baus und der Instandhaltung von Nuklearanlagen zur Erzeugung von elektrischer Energie und anderen Anwendungen, die Überwachung und Verwaltung der Beschaffung und Nutzung von Kernbrennstoffen sowie die Verwaltung von Nuklearabfällen, die Beratung bei der Forschung für die friedliche Nutzung von Kernmaterialien, die Beratung bei der Handhabung und dem Abbau radioaktiver Mineralien, die Zusammenarbeit mit Universitäten und Forschungsinstituten bei der Durchführung von Forschungsarbeiten im Zusammenhang mit der friedlichen Nutzung der Kernenergiewissenschaft und -technologie, sowie die Durchführung von Forschungs- und Entwicklungsarbeiten im Zusammenhang mit friedlicher Kernenergienutzung.

Ein Vorschlag zur Güte

Der Dual-Fluid-Reaktor eignet sich auf Grund seiner unschlagbar niedrigen Stromgestehungskosten und seiner hohen Austrittstemperatur vorzüglich zur kostengünstigen Herstellung von Wasserstoff. Wie ich bereits in einem Achse-Artikel 2021 schrieb, stellt er die einzige Möglichkeit dar, die vergurkte Energiewende doch noch zu retten.

Vielleicht können ja Kanzler Scholz, Vizekanzler Habeck und Finanzminister Lindner mal nach Kigali reisen und dort mit ein paar tiefen Bücklingen einen Milliardenscheck überreichen, um eine Kooperation von Wasserstofflieferungen nach Deutschland zu erbitten. Sonst wird es nichts mit der Energiewende.

 




Berlin schützt das Klima .. und verstößt damit vermutlich gegen die Verfassung. Eine Anhörung zu wirkungslosen aber sehr teuren Verarmungsgesetzen!

„Alle Parteien der Industriestaaten, ob rechts oder links, werden die CO2- Erderwärmungstheorie übernehmen. Dies ist eine einmalige Chance, die Luft zum Atmen zu besteuern. Weil sie damit angeblich die Welt vor dem Hitzetod bewahren, erhalten die Politiker dafür auch noch Beifall. Keine Partei wird dieser Versuchung widerstehen.“

Nigel Calder 1998 Herausgeber der berühmten Wissenschaftszeitung „New Scientist.

Von Michael Limburg

Berlin will das Klima schützen. Dazu macht es Gesetze, sehr teure Gesetze! Die überdies völlig wirkungslos sind. Deswegen dürften sie verfassungswidrig sein. Denn auch die Berliner Verfassung verlangt dem Gebot der Verhältnismäßigkeit zu folgen. Und das schreibt nicht nur den legitimen Zweck jeder Amtshandlung, jeder Vorschrift, jedem Gesetz vor, sondern ebenso bindend auch deren Geeignetheit, die Erforderlichkeit sowie deren Angemessenheit vor.  Keine der letztgenannten Voraussetzungen wird mit dem behandelten Entwurf erfüllt.

Berlin hat auch den Klimanotstand (noch unter Rot-Grün) im Jahr 2019 ausgerufen. Was das bedeutet, weiß niemand! Im Volk nicht, und auch in der Politik kaum jemand. Die aber, die ihn ausgerufen haben, wissen was das bedeutet: Macht. Macht um das Volk in eine Richtung zu treiben, die es in der überwiegenden Mehrheit nicht will. Jedenfalls seit es erkennt, dass es zwar gezwungen wird, schwerste, auch finanzielle Opfer zu bringen, um einen statistischen Mittelwert, was das Klima nun mal ist, zu „schützen“, aber dafür nichts anderes bekommt als Wohlstandsverlust bis hin zur Armut! Und das erkennte es derzeit mehr und mehr.

Ein Bild, das Im Haus, Kleidung, Mann, Person enthält. Automatisch generierte Beschreibung

Ausschuss für Umwelt- und Klimaschutz;  Sitzung vom 31.8.23 Bild. Abgeordnetenhaus von Berlin

Berlin ist auch, und das schon 2005, der Klimainitiative C40 beigetreten. C40 klingt sehr technisch, fast harmlos. Doch die C40 Initiative plant einen umfassenden Angriff auf unser alle Lebensstil. Sie will den individuellen Personenverkehr verbieten, sie will unsere Ernährung auf vegetarisch, besser noch vegan, umstellen, und sie will auf Null-Emissionen umstellen. D.h. die Nutzung sämtlicher fossiler Brennstoffe verbieten. Und tut fast alles, um diese Ziele zu Lasten und vor allem auf Kosten der Betroffenen zu erreichen. Dem dient auch das „hehre“ Berliner Klimaschutzgesetz. Ein Gesetz, dass alle Bundesländer inzwischen nach dem Vorbild des Bundes-Klimaschutzgesetzes, erlassen haben. Wie bei allen anderen, soll auch dieses Gesetz dafür sorgen, dass Berlin bis 2045 „klimaneutral“ sein soll. Dafür schreibt es minutiös vor, wie dies zu geschehen hat. Und damit das alles auch wirklich auf Spur bleibt, ist ein teurer Begleitprozess vorgeschrieben. Dem dient das Berliner Energie- und Klimaschutzprogramm. Es schreibt detailliert vor, was wann zu geschehen hat.

Im Text findet man unter dem Einführungstitel „Problem“ den folgenden Satz:

„Gemäß § 4 Abs. 1 des Berliner Klimaschutz- und Energiewendegesetzes (EWG Bln), das zuletzt durch Gesetz vom 27. August 2021 geändert worden ist, hat der Senat von Berlin ein Berliner Energie- und Klimaschutzprogramm, welches Strategien und Maßnahmen zur Erreichung der Berliner Klimaschutzziele enthält, zu erstellen bzw. regelmäßig weiterzuentwickeln. Dabei soll es Sektorziele zur Reduzierung der Kohlendioxidemissionen, insbesondere in den Sektoren Energieversorgung, Gebäude, Wirtschaft und Verkehr sowie eine Festlegung der Gesamtmenge an Kohlendioxidemissionen, die im Zeitraum der fünf auf die Beschlussfassung des Programms folgenden Kalenderjahre höchstens emittiert werden sollen, enthalten. „

Und behauptet das Folgende sei die Lösung:

„Die vorliegende Fassung für ein Berliner Energie- und Klimaschutzprogramm (BEK 2030) für den Umsetzungszeitraum 2022 bis 2026 wird vom Senat von Berlin beschlossen und an das Abgeordnetenhaus mit der Empfehlung vorgelegt, das Programm zu beschließen. Die Vorlage berücksichtigt dabei sowohl die Entwicklungen im Bereich der internationalen und nationalen Energie- und Klimaschutzpolitik als auch die geänderten Rahmenbedingungen gemäß dem Berliner Klimaschutz-und Energiewendegesetz Berlin (EWG Bln).
Grundlage für die Erstellung des hier vorgelegten BEK 2030 sind für den Klimaschutzteil die „Empfehlung zur Weiterentwicklung des Berliner Energie- und Klimaschutzprogramms 2030 – Umsetzungszeitraum 2022 bis 2026“ eines beauftragten Fachkonsortiums1 sowie eine Vielzahl von Maßnahmenvorschlägen aus den einzelnen Fachressorts, der Klimaanpassungsteil wurde durch die für Klimaschutz zuständige Senatsverwaltung in enger Abstimmung mit den jeweils zuständigen Fachressorts erstellt.

1 Fachkonsortiums aus Berliner Energieagentur (BEA), DIW Econ und Wuppertal Institut.

Beide Absätze sind jedoch nichts anderes als reine Anmaßung und dazu noch auch in ihrer Wirkung völlig belanglos, jedenfalls in Bezug auf das lokale, das nationale wie auch das Weltklima. Und das weiß auch ein jeder! Wirklich jeder. Oder muss es wissen. Denn um das zu erkennen, genügen die Grundkenntnisse im Lesen, Rechnen und ein wenig der Naturwissenschaften, die damals noch in der Volksschule vermittelt wurden.

Aber sie sind nicht belanglos in Bezug auf die Möglichkeit der Politik Geld mit vollen Händen auszugeben, ihre Klientel zu füttern, bspw. durch üppige Auftragsvergabe bspw. an das „Fachkonsortium“ welches in der Fußnote genannt wird, und den Rest der Bevölkerung sowohl abzukassieren, als auch zu drangsalieren. Und das in völliger Übereinstimmung mit der geltenden Gesetzeslage.

Und weil das so schön funktioniert und weil man das Geld mit vollen Händen ausgeben will, wird das Berliner Abgeordnetenhaus, wie das Stadtparlament in Berlin heißt, damit befasst. In Gestalt des dafür zuständigen Ausschusses für – sie ahnen es – für Umwelt- und Klimaschutz.  Behandelt und wichtigstes Thema war die

Vorlage – zur Beschlussfassung –
Drucksache 19/0778-1
Berliner Energie- und Klimaschutzprogramm, Umsetzungszeitraum 2022 bis 2026
– Austauschseiten zu den Seiten 66, 162 und 163 der Anlage – Drucksache 19/0778
Drucksache 19/0778-1

Wer sich die ganze Sitzung antun will, möge dies hier tun. Und hier kann das Wortprotokoll nachgelesen werden

Gegenüber rd. 22 Ausschussmitgliedern und der zuständigen Umweltsenatorin Dr. Manja Schreiner, die gerade erklären muss, wie es denn kommen könne, dass ca. 69 % ihrer Doktorarbeit unter Plagiatsverdacht stehen, und Ihrer Mitarbeiterin, durften 4 „Anzuhörende“, vulgo Experten, zu diesem Energie- und Klimaschutzprogramm Stellung nehmen. Ich war einer davon, und fühlte mich – wie anders- von Beginn an, als weißer Rabe. Während die anderen die Panik schürten, besonders der Vertreter des Instituts für „Ökologische Wirtschaftsforschung“ ÖWF ein Prof. Bernd Hirschl, sachkundig und professionell unterstützt von Tilmann Heuser Landesgeschäftsführer, des BUND Berlin e.V. beschränkten sich die andern beiden auf Sachvorträge zu den erhobenen Zahlen bzw. auf die schädlichen Auswirkungen der bereits beschlossenen und noch kommenden Gesetze auf die Wohnungswirtschaft, ohne jedoch den Sinn und Zweck dieser Maßnahmen auch nur im Ansatz in Frage zu stellen. Dies blieb allein mir vorbehalten.

Den Zusammenschnitt meiner Ausführungen können Sie hier sehen.

Den Text gibt es als pdf hier. Statement Berliner Abgeordnetenhaus . Entwurf 3-1

Krönender Abschluss meiner Ausführungen war dann das Statement der plagiatsverdächtigen Umweltsenatorin Dr. (wie lange noch) Manja Schreiner.

“Zu den Einlassungen des Anzuhörenden Limburg möchte ich stellvertretend für den gesamten Senat betonen an dieser Stelle, dass wir dezidiert bei jeder Ihrer Ausführungen andere Auffassungen sind.“

Auf meine Zwischenfrage, ob das auch auf die von mir genannten Fakten zuträfe, erfolgte keine Antwort mehr, obwohl sie diese ankündigte. Machen Sie sich Ihren eigenen Eindruck.

Beim Schreiben dieser Zeilen kommt mir immer wieder, als sehr passende Beschreibung der Situation in der sich die Politik, stellvertretend der Senat von Berlin und bis auf drei von der AfD, alle Mitglieder des Ausschusses befinden, das Bonmot von Mark Twain in den Sinn, der deren Situation wie folgt beschrieb:

„Als die Reisegesellschaft ihr Ziel aus den Augen verloren hatte, verdoppelte sie ihre Geschwindigkeit!“

Wenn es nicht dank der fürchterlichen Konsequenzen, die diese Handeln hat, so traurig, wäre, könnte man aus vollem Herzen lachen.

 




Abschied von der Aufklärung

Wissensanmaßung oder Gnostizismus in den Simulationsmodellen

Edgar L. Gärtner

Wie sinnvoll ist es, die Verrücktheiten der Grünen aller Parteien mit dem Hinweis auf die europäische Aufklärung zurückzuweisen? Können sich die Grünen doch, wie es scheint, ebenso auf die Tradition der Aufklärung berufen wie ihre Kritiker. Besonders klar bekennen sich die Grünen zur Aufklärung, wenn sie sich als Musterschüler der US-Neocons gerieren. Deren Anliegen ist global governance, die Beherrschung der Welt durch die analyrische Ausschaltung des gesunden Menschenverstandes.

Warum war im Paradies das Naschen vom Baum der Erkenntnis (von Gut und Böse) verboten? Die Mehrzahl derer, die sich heute auf die Aufklärung berufen, stellen sich diese Frage wohl gar nicht. Es geht hier selbstredend nicht darum, dem menschlichen Erkenntnisdrang grundsätzliche Grenzen zu setzen, sondern die Menschen davor zu warnen, selbst Gott zu spielen. Es geht gleichzeitig darum, die Menschen vor dem „Verlust der Mitte“ und dem Ende der Kontemplation durch die Anhäufung zusammenhangslosen Wissens zu bewahren. Nach Auffassung der historischen und aktuellen Aufklärer kann und sollte es prinzipielle Grenzen der menschlichen Erkenntnisfähigkeit gar nicht geben. Die Begründung dafür lieferte das streng deterministische Weltbild des mechanischen Materialismus, das sich auf die Gravitationstheorie des englischen Mathematikers und Münzmeisters Sir Isaac Newton (1643 – 1727) stützte. Newton fand für die vom deutschen Astronomen Johannes Kepler (1571 – 1630) entdeckten elliptischen Umlaufbahnen der Planeten um die Sonne die heute noch gültige mathematische und physikalische Erklärung. Was Gravitation ist und wie sie zustande kommt, wissen wir bis heute nicht. Es gibt darüber nur mehr oder weniger gewagte Vermutungen.

Die viel zitierte newtonsche Formel für die exakte Berechnung der Gravitationskraft gilt allerdings nur für die Anziehung zwischen zwei Himmelskörpern. Schon die Wechselwirkung zwischen drei Körpern ist mit dem newtonschen Instrumentarium der Differential- und Integralrechnung, wie es sich später zeigte, nicht mehr analysierbar. Newtons Formel galt und gilt noch heute nur für ein stark vereinfachtes Modell mit nur zwei Himmelskörpern, nicht jedoch für die vielfältigen Wechselwirkungen zwischen Sonne, Planeten und Trabanten im realen Sonnensystem. Über die grundsätzliche Unlösbarkeit des „Dreikörperproblems“ informiert dieser Blog-Beitrag eines Physikers: Unlösbar und faszinierend: Das Dreikörperproblem – Astrodicticum Simplex (scienc2eblogs.de). Newton bestätigte insofern die vom italienischen Dominikaner-Mönch Thomas von Aquin (1225 – 1274) aus logischen Überlegungen abgeleitete Erkenntnis, dass die Welt für uns Menschen zwar grundsätzlich erkennbar, in ihrer Gänze jedoch unbegreifbar bleibt, weil auch der schärfste Menschenverstand nur Teilwahrheiten erkennen kann. Doch das wollten Newtons Bewunderer, die sich als „Aufklärer“ hochstilisierten und über die mittelalterliche Scholastik lästerten, nicht wahrhaben. Sie zogen es vor, sich über das finstere und abergläubische Mittelalter lustig zu machen und stattdessen weiterhin die Illusion zu pflegen, Newtons Formeln seien der Schlüssel für das Verständnis des ganzen Universums.

Kants verführerische Aufklärungs-Definition

Immanuel Kants viel zitierte Definition der Aufklärung von 1784 (in der Septemberausgabe der Berlinischen Monatsschrift) klingt schon auf den ersten Blick verführerisch, weil sie die emanzipatorischen Sehnsüchte des aufstrebenden deutschen (Bildungs-)Bürgertums auf den Begriff bringt, kann aber auch als Antithese zum alttestamentarischen Verbot, vom Baum der Erkenntnis zu essen, gelesen werden: „Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Muth, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“ „Sapere aude!“ (wörtlich: „Wage zu wissen!“) kann allerdings leicht zum Wahlspruch eines Régimes werden, in dem das sokratische Bekenntnis, nichts zu wissen, als verabscheuungswürdige und strafbare Sünde gilt. So zeugt schon Kants Definition der Aufklärung von der Versuchung, Modelle als Realität auszugeben, um das Eingeständnis von Zweifel und Unwissenheit angesichts einer unübersichtlichen Problemlage zu vermeiden.

Newton selbst war da offenbar vorsichtiger. Denn in seinen Schriften finden sich etliche Hinweise auf göttliche Eingriffe, die die Systeme kreisender Himmelskörper vor dem Kollaps bewahren. Erst lange nach Newtons Tod wurde einer breiteren Öffentlichkeit bekannt, dass er einen großen Teil seiner Zeit mystischen Betrachtungen und alchimistischen Experimenten widmete. Diese erscheinen heute weniger als Irrwege eines ansonsten streng vernunftgeleiteten Geistes, sondern als eine ganzheitlichen Sinn suchende Ergänzung der analytisch-mathematischen Herangehensweise. Newton kann also gewiss nicht als Urheber des mechanistischen Weltbildes der Aufklärung gelten.

Laplace und Napoleon Bonaparte

Mehr als auf Newton geht das mechanistische Weltbild im Kern auf den „Traité de Mécanique Céleste“ (deutscher Titel: „Abhandlung über die Himmelsmechanik“) zurück, ein fünfbändiges, für Laien schwer verständliches Werk, das der französische Mathematiker Pierre-Simon Laplace (1749 – 1827) zwischen 1799 und 1823 schrieb. Schon vor der nur Mathematikern verständlichen Himmelsmechanik hatte Laplace seine auch für Laien verständliche „Exposition du système du monde“ veröffentlicht, die er dem ihm persönlich gut bekannten Ersten Konsul Napoléon Bonaparte vorstellte. Der naturwissenschaftlich durchaus Interessierte und mit der Theorie Newtons vertraute Machthaber soll Laplace auf das Fehlen jeglicher Anspielung auf Gott hingewiesen haben. Worauf Laplace geantwortet habe, einer solchen Hypothese habe er nicht bedurft. Laplace gab sich dadurch wie sein Gegenüber als Gnostiker zu erkennen. Der Gnostizismus ist das, was die Aufklärung von der mittelalterlichen Scholastik unterscheidet. Der Begriff „Gnostizismus“ verweist auf die spätantike Gnosis, eine häretische Bewegung, die streckenweise dem Christentum Konkurrenz machte beziehungsweise dieses zu unterwandern versuchte. Wie der moderne Gnostizismus übte sich schon die antike Gnosis darin, die Welt als berechenbar und daher vorausschaubar darzustellen, d.h. etwas zu wissen vorzugeben, was Menschen nach aller Erfahrung gar nicht wissen können, und das dann autoritär festzulegen und, wenn nötig, mit physischer Gewalt durchzusetzen.

Alternative, von der Bibel inspirierte Sichtweisen, die die Bedeutung des Zufalls und den Einfluss des Geistes hervorhoben, galten fortan als rückschrittlich, wenn nicht als reaktionär. In Wirklichkeit gibt es Wunder jeden Tag. Man darf sie nur nicht, wie viele Aufklärer, wegdefinieren. Aktive geistige Gleichschaltung ist eine Erfindung beziehungsweise Errungenschaft der kontinentaleuropäischen Aufklärung. (Für die schottische und skandinavische Aufklärung gilt das nicht in gleichem Maße.) Dabei ist es durchaus nicht so, dass Laplace und seine Nachfolger die Rolle des Zufalls in der Entwicklung von Natur und Gesellschaft leugneten. Im Gegenteil verdanken wir wesentliche Grundlagen der Wahrscheinlichkeitsrechnung gerade Laplace. Deren Ziel war aber nicht die Anerkennung der Offenheit von Entwicklungen, sondern deren Berechenbarkeit.

Seinen pointierten Ausdruck fand das deterministische Weltbild im „Laplaceschen Dämon“ – ein Ausdruck, der gar nicht von Laplace selbst stammt. Laplace sprach im Vorwort zu seinem „Essai philosophique sur les probabilités“ (1814) von einer höheren Intelligenz, die in der Lage wäre, aus der Kenntnis aller Bewegungsgesetze der kleinsten Atome wie der größten Himmelskörper sowie deren Anfangsbedingungen auf den zukünftigen Systemzustand zu schließen, d.h. zu einer so gut wie alles erklärenden Weltformel zu gelangen, mit deren Hilfe die Zukunft berechnet werden kann.

Aufklärung und Gnostizismus

Die vorgeblich auf Schwarmintelligenz beruhende Online-Enzyklopädie Wikipedia stellt denn auch beim Stichwort „Aufklärung“ schon einleitend durchaus zutreffend fest, dass die Bewegung der europäischen Aufklärung etwas mit Gnostik zu tun hat: „Der Begriff Aufklärung ist eng verbunden mit der frühmodernen Verurteilung des Mittelalters als einer Epoche der Dunkelheit und des finsteren Aberglaubens, die im Vergleich zur Antike als rückständig galt. Die Neuzeit sollte der Dunkelheit des Mittelalters das Licht der Erkenntnis entgegensetzen. Die Lichtmetaphorik konnte von der Antike übernommen werden: Vom Licht der Erkenntnis wurde in der griechischen Philosophie (zuerst von Parmenides), in der spätantiken Gnostik sowie in der Bibel gesprochen. Der Ausdruck ist zugleich mit einer Bemühung um Klarheit der Begriffe (clare et distincte) als Maßstab der Wahrheit verbunden – etwa bei René DescartesGottfried Wilhelm Leibniz und Johann Heinrich Lambert. Der Gebrauch des englischen Verbs „to enlighten“ und des Partizips „enlightened“ war seit dem 17. Jahrhundert üblich. Sie bedeuten „Verständnis schaffen“ und „aufgeklärt“ im Sinne von „über eine Sache erhellend informiert“. Das Substantiv „Enlightenment“ wurde erst im 20. Jahrhundert als Epochenbegriff gängig.[1] Der deutsche Ausdruck Aufklärung wurde um 1770 üblich.“

So weit Wikipedia. Die meisten Historiker sehen einen direkten Zusammenhang zwischen dem gnostischen bzw. mechanistischen Weltbild und dem Terror der französischen Revolution von 1789 bis 1794. Es zeigte sich hier die Skrupellosigkeit von allen Zweifeln hinsichtlich einer ihnen angeblich leuchtenden Zukunft befreiter Menschenmassen. Die Rolle des allwissenden Dämons nahm zumindest in Frankreich und in weiteren Ländern, die sich an Frankreich orientierten, schon bald der moderne Nationalstaat ein (wobei für mich nicht die Nation, sondern der Staat das Problem ist).

Obwohl bereits Newton an der Lösung des Drei-Körper-Problems scheiterte, hielt sich bis gegen Ende des 19. Jahrhunderts der Glaube, mit irgendwelchen Rechentricks werde das vielleicht eines Tages doch noch gelingen. Im Jahre 1888 zeigte der französische Mathematiker Henri Poincaré (1854 – 1912) schließlich, dass Differentialgleichungssysteme für die Bewegung von drei Himmelskörpern grundsätzlich nicht durch Integration analytisch lösbar sind. Heute umgeht man dieses Problem durch die hilfsweise Einführung von (Pseudo-)Zufallszahlen und Wahrscheinlichkeitsrechnungen nach der Monte-Carlo-Methode o.ä. Diese Hilfskonstruktion wird in dem der MIT-Studie „Die Grenzen des Wachstums“ (1972) zugrunde liegenden „Weltmodell“ angewandt. Dieses vom neo-malthusianistischen Club of Rome in Auftrag gegebene Modell bleibt damit wie spätere Computersimulationen der Ausbreitung von Coronaviren durch Neil Ferguson vom Londoner Imperial College ganz dem mechanistischen Weltbild verhaftet. Diese Simulationsmodelle prophezeiten Hunderttausende, wenn nicht Millionen von COVID-Todesopfern und dienten der Rechtfertigung der Aussetzung von Grundrechten durch den „Lockdown“.

Die Quantenphysik überwindet die mechanistische Illusion

Ob und inwieweit Albert Einsteins Relativitätstheorie (1905) dem mechanistischen Weltbild widerspricht, bleibt dahingestellt. Von Einstein selbst stammt bekanntlich der Ausspruch: „Gott würfelt nicht.“ Er hing als Pantheist grundsätzlich dem Determinismus an. Andererseits würde die Lichtgeschwindigkeit, die nach Einsteins Formeln nicht überschritten werden kann, die Existenz des Laplaceschen Dämonen verunmöglichen, da dieser nicht über diese Grenze hinausblicken könnte. Der spätere Nachweis der zeitunabhängigen Verschränkung von Elementarteilchen machte diesen Einwand allerdings hinfällig. Wirklich überwunden wurde der Determinismus der Aufklärung erst in den 1920er Jahren durch die so genannte Kopenhagener Deutung der Quantenphysik. Dort gilt der Zufall auf Quantenebene als objektive Tatsache. Für den Aufenthaltsort von Elementarteilchen wie auch von Himmelskörpern lassen sich danach nur Wahrscheinlichkeiten angeben. Es gibt allerdings auch deterministische Interpretationen der Quantenphysik.

Berechenbar wird die Zukunft auch in deterministischen Ansätzen wie dem des theoretischen Physikers David Bohm (1917-1992) nicht. Alle stofflich-energetischen Bewegungen und Umwandlungen erscheinen in David Bohms „Holomovement“ als Projektionen aus einem unsere irdische Raumzeit umgebenden zeitlosen Hyperraum. Damit lassen sich Phänomene wie der „Spuk“ der Nichtlokalität und der verzögerungsfreien Verschränkung räumlich weit voneinander entfernter Elementarteilchen erklären, denn im zeitlosen Hyperraum gehören diese zusammen. Ohne die Annahme eines jenseitigen Hyperraums lässt sich nicht erklären, warum räumlich weit voneinander entfernte Elementarteilchen schneller als die Lichtgeschwindigkeit aufeinander reagieren können. Der Franzose Alain Aspect (geb. 1947), der Amerikaner John Clauser (geb. 1942) und der Österreicher Anton Zeilinger (geb. 1945) erhielten für ihre Arbeiten über das „Wunder“ der Raum und Zeit durchbrechenden Verschränkung von Elementarteilchen im Jahre 2022 den Nobelpreis für Physik. Der Schweizer Physiker Nicolas Gisin (geb. 1952), der auf der Basis der Theorie von Alain Aspect das erste erfolgreiche Quanten-Teleportations-Experiment durchführte, ging leer aus.

Durch Verschränkung und Teleportation wird auch dem Laien klar, dass es die Quantenphysik letzten Endes mehr mit geistigen als mit materiell-mechanistischen Prozessen zu hat. So zumindest die m.E. überzeugende Argumentation des gottgläubigen deutschen Quantenphysikers Thomas Görnitz (geb. 1943) und des ebenfalls gläubigen Nobelpreisträgers Anton Zeilinger. So musste auch der agnostische amerikanische Star-Philosoph Thomas Nagel (geb. 1937) in seinem 2013 auch auf Deutsch erschienen Buch „Geist und Kosmos. Warum die materialistische Konzeption der Natur falsch ist“ eingestehen, dass die Evolution der Organismenarten und des Bewusstseins sich einer naturalistischen Erklärung entzieht. Das hat dem alten Mann einigen Ärger eingebracht.

Quantenphysik ist keine Esoterik

Heute werden Erkenntnisse der Quantenphysik in zauberhaften technischen Werkzeugen wie dem Smartphone praktisch von jedermann tagtäglich genutzt. Doch einen spürbaren und nachhaltigen Einfluss auf das in den Köpfen unserer Zeitgenossen vorherrschende Weltbild hatte das nicht. So gelingt es modernen Scharlatanen, den Menschen mithilfe mechanistischer Modelle des Ressourcenverbrauchs, der Erderwärmung oder der Virusausbreitung Angst einzujagen. Heute überwiegt die Tendenz, alle mit der Quantenphysik zusammenhängenden weltanschaulichen Fragen in der Schublade „Esoterik“ verschwinden zu lassen. Die Enzyklopädie „Wikipedia“ geht auf den Inhalt der Bücher des Ehepaars Görnitz gar nicht erst ein und weist nur darauf hin, es gebe keine überzeugenden Hinweise auf relevante Quanteneffekte bei der Funktion des Verstandes. Deren Ansatz, die Entstehung des Bewusstseins und des Verstandes zu erklären, werde in der neurologischen und psychologischen Forschung folglich nicht weiterverfolgt. Das stimmt wohl insofern, als entsprechende Anträge auf Forschungsgelder zurzeit kaum Erfolgsaussichten haben. Doch war gerade der Begründer (wider Willen) der Quantenphysik, der praktizierende Katholik Max Planck (1858-1947), fest davon überzeugt, dass Naturwissenschaft und christlicher Glaube einander bedingen und ergänzen. Max Planck erkannte, warum die moderne Naturwissenschaft nur im christlichen Abendland aufkommen konnte: Gott gibt sich in der Bibel als Vernunftwesen zu erkennen. Er hat „diese Welt vernünftig und durch die Vernunft erkennbar geschaffen.“

Mein Freund Wolfgang Leisenberg (geb. 1942) knüpft daran in seinem 2019 erschienen Buch „Die verbo(r)gene Wirklichkeit“ an. Leisenberg war Professor für Regelungstechnik und Systemdynamik an der Technischen Hochschule Mittelhessen und leitete gleichzeitig erfolgreich ein preisgekröntes Unternehmen für energiesparende thermische Verfahrenstechnik. Er beruft sich in seinem Buch vor allem auf die Quanten-Feldtheorie des verkannten deutschen Physik-Genies Burkhard Heim (1925 – 2001). Dieser liegt ein zwölfdimensionaler Hyperraum zugrunde. Dessen erste vier Koordinaten (R3 und T1) beschreiben die Raumzeit, in der wir uns bewegen. Zum Diesseits gehören auch noch zwei Strukturkoordinaten (S2). Die übrigen sechs Koordinaten gehören zum Jenseits (Hyperraum). Zwei davon (I2) stehen für Informationen beziehungsweise Projektionen, die aus dem Hyperraum in unsere Raumzeit hineinwirken. Die in der Raumzeit experimentell nachweisbaren Felder und Teilchen erhalten dadurch ihre Eigenschaften. Die letzten vier zeitlosen Dimensionen (G4) bleiben für uns Menschen vollkommen rätselhaft. Nicht nur Heim sieht eine Steuerung unserer materiellen Welt aus dieser Dimension durch willentliche Veränderung der Wahrscheinlichkeiten, die wir wegen ihrer Unwahrscheinlichkeit als „Wunder“ wahrnehmen.

Burkhard Heim zeigte, dass das Universum nicht, wie einst von Demokrit postuliert, von Materieteilchen seinen Ausgang genommen haben kann, sondern von einer hochsymmetrischen zeitlosen Quanten-Informationsstruktur. Das führt zwingend zur Frage, welche prima causa diese Struktur geschaffen hat. Heim bestätigte so, obwohl er als Agnostiker auftrat, die Schöpfungslehre des Johannes-Evangeliums: „Im Anfang war das Wort, / und das Wort war bei Gott, / und das Wort war Gott. Alles ist durch das Wort geworden / und ohne das Wort wurde nichts, was geworden ist. In ihm war das Leben / und das Leben war das Licht der Menschen.“

Nach der Theorie des französischen Physikers Émile Charon (1920-1998) können Elektronen als elementare Träger des Bewusstseins angesehen werden. So verfügt jedes Elektron durch ein „schwarzes Mikro-Loch“ über eine „innere Raumzeit“, die gleichzeitig als Schnittstelle zum Hyperraum fungiert. Sie ist mit Photonen gefüllt, deren Muster ein individuelles Gedächtnis bilden, denn die Zeit läuft im Inneren von schwarzen Löchern rückwärts und kann so „erinnert“ werden. Mit der in schwarzen Löchern rückwärts laufenden Zeit lässt sich wohl auch das Rätsel erklären, vor dem der bekannte amerikanische Hirnphysiologe Benjamin Libet (1916-2007) stand, als er experimentell herausfand, dass unser Zentralnervensystem auf Signale reagiert, bevor diese gesendet werden.

Darwin’sche Evolutionstheorie als Dogma

Als Gipfel der europäischen Aufklärung gilt heute beinahe unumstritten die Theorie der Evolution der Organismenarten durch Natürliche Zuchtwahl von Charles Darwin (1809 – 1882) und dessen Ideengeber Thomas Robert Malthus (1766 – 1834). Gerade Malthus gilt noch heute mit seinen düsteren Prophezeiungen von Überbevölkerung und Hungersnöten auf der Grundlage eingängiger mathematischer Formeln als Urbild eines Aufklärers. Erstmals dargelegt hat Malthus seine dystopische Bevölkerungstheorie im „Essay on The Principles of Population“ im Jahre 1798. Im Jahre 1820 kam er im umfassenderen Werk „Principles of Economics“ darauf zurück, änderte aber substanziell nichts an seinen Aussagen. In der Zwischenzeit war Malthus, finanziert von der kolonialistischen East India Company, zum weltweit ersten Professor für Politische Ökonomie ernannt worden. Malthus‘ in mathematische Formeln gefasste Theorie lässt sich folgendermaßen zusammenfassen: Die Menschen vermehren sich naturgesetzlich in geometrischer Progression (exponentiell), während ihre Subsistenzmittel nur in arithmetischer Progression (linear) anwachsen.

Hier finden wir die für einen Teil der Aufklärer typische Wissensanmaßung. Malthus gab sich gar nicht erst die Mühe, seine These statistisch zu belegen. Sie schien seinen Lesern in der britischen Upper Class auch so einleuchtend, weil sie den Armen mit ihrem ungebremsten Vermehrungsdrang die Schuld an ihrer Misere zuschob. Der eindeutige Klassen-Bias war ein gefundenes Fressen für die Gegen-Aufklärer Friedrich Engels (1820 – 1895) und Karl Marx (1818 – 1883), die vor allem bemängelten, dass Malthus die Rolle des technischen Fortschritts weit unterschätzte. Man hätte mit der Kritik aber noch erheblich tiefergehen und darauf hinweisen können, dass Malthus zumindest in der ersten Fassung seiner Bevölkerungstheorie die Menschen als geistlose Massen-Wesen auffasst, nicht als genetisch und geistig einmalige Individuen mit einem freien Willen. Das heißt er machte keinen Unterschied zwischen Menschen und Tieren.

Genau das erlaubte es Charles Darwin, an Malthus anzuknüpfen. Darwin konnte zwar noch nichts von Genen und Mutationen wissen. Aber er nahm die große zufällige Variabilität zwischen den Individuen der ihm bekannten Organismenarten wahr. Da brachte ihn die Lektüre der Malthus-Theorie auf die Idee, in den unterschiedlichen Überlebenschancen individueller Varianten im Kampf um Nahrung und Lebensraum (struggle for life) den Schlüssel für die Veränderung der Arten zu sehen. (Der Ausdruck „Survival oft he fittest“ stammt allerdings nicht von Darwin, sondern vom liberalistischen Sozialphilosophen Herbert Spencer.) Charles Darwin sah also eine Parallele zwischen der Arbeit von Hunderassen-Züchtern und der natürlichen Selektion. Er wusste wohl, dass es den Züchtern noch nie gelungen war, eine neue Art hervorzubringen. Bei den Naturbedingungen mochte er das jedoch nicht ausschließen, da diesen viel längere Zeiträume zur Verfügung standen.

Darwin nahm also an, das (mechanistische) Wechselspiel zwischen zufälliger Variation und strenger natürlicher Selektion könne die Evolution der Organismen-Vielfalt im kleinen wie im großen erklären. Es gibt aber keinen Beleg für die Entstehung einer Neuen Art durch natürliche Selektion. Tatsächlich trug der Darwin’sche Ansatz nichts zum Verständnis der Makro-Evolution, dem Aufkommen neuer Arten mit neuen Bauplänen und einer entsprechenden Betriebs-Software, bei. Aber auch für die (materialistische) Erklärung der Mikroevolution, die Anpassung von Organismen an veränderte Umweltbedingungen durch die Bildung von Rassen bzw. Unterarten, taugt der Darwin’sche Ansatz nach Ansicht des mir persönlich bekannten DDR-Bürgerrechtlers und unabhängigen Evolutionsforschers Michael Beleites nicht unbedingt. Alle von Neodarwinisten angeführte Paradebeispiele für Selektionsprozesse nach dem Darwin’schen Muster lassen sich nach Beleites‘ Buch „Umweltresonanz – Grundzüge einer organismischen Biologie“ (2014) auch anders erklären. Doch das scheint kaum jemanden zu interessieren. Wie kaum eine Theorie oder vielmehr unbeweisbare Hypothese zuvor wurde der Erklärungsansatz von Malthus und Darwin in Europa für bare Münze genommen. Wer sie offen in Frage stellt, beendet damit seine akademische Karriere.

Der deutsche „Meisterdenker“ Friedrich Nietzsche (1844 – 1900) gründete darauf seine Diagnose: „Gott ist tot“. Ohne Gott steht der Mensch, der ohne Bezug auf seinen Schöpfer nicht definierbar ist, dann vor der Alternative, sich mithilfe technischer Manipulationen zum „Übermenschen“ weiterzuentwickeln oder in tierisches Sklavendasein abzusinken. Konsequenterweise kommen wirkliche zur Transzendenz befähigte Menschen bei Yuval Noah Harari (geb. 1976), dem Guru des Davoser Weltwirtschaftsforums (WEF), gar nicht vor. Es gibt dort nur mehr oder weniger intelligente Tiere: oben die kleine Minderheit der Alpha-Tiere, die sich dank eines optimierten Genoms und Hirn-Implantaten auf dem Weg zum Übermenschen wähnen, und unten eine breite Masse Zukurzgekommener, denen er nahelegt, sich die Langeweile ihres sinnlosen Daseins mit Computerspielen und Drogen zu vertreiben. Das Christentum bot demgegenüber Platz sowohl für hoch intelligente als auch für schlichte Gemüter.

Moral ist nicht wissenschaftlich begründbar

Wie ihr Urahn Malthus pflegen elitäre Vereinigungen wie staatliche Forschungsorganisationen, das WEF oder der Club of Rome die Illusion, Moral sei unter Hinweis auf Computersimulationen eines fiktiven „Treibhauseffekts“ wissenschaftlich begründbar. Eine Modell-Rechnung der amerikanischen Winter-Temperatur von Clara Deser, Laurent Terray und Adam S. Phillips, veröffentlicht 2015 in der Fachzeitschrift „Journal of Climate“ der American Meteorological Society (DOI: 10.1175/JCLI-D-15-0304.1), versucht, die Wintertemperaturen der letzten 50 Jahre (1963 bis 2012) zu modellieren, um Anhaltspunkte für die weitere Entwicklung bis zum Ende des 21. Jahrhunderts zu gewinnen. Dabei zeigt es sich, wie Systeme von Differentialgleichungen auch bei nur minimalen Unterschieden in den Anfangstemperaturen bis zum Ende dieses Jahrhunderts völlig außer Kontrolle geraten und 5°Kelvin voneinander abweichen können.

Nach christlicher Auffassung ist die Ableitung moralischer Forderungen von wissenschaftlichen Formeln immer verdächtig. Es kann grundsätzlich keine ehrliche und „nachhaltige“ Moral ohne die Liebe zu Jesus Christus geben. Sir Alexander King, ein Mitbegründer des Club of Rome, hat die antichristliche Stoßrichtung des Neo-Malthusianismus 1991 im autobiografisch gefärbten Bericht „The First Global Revolution“ bemerkenswert offenherzig formuliert: „Auf der Suche nach einem neuen Feind, der uns vereinen könnte, kamen wir auf die Idee, dass Umweltverschmutzung, die drohende globale Erderwärmung, Wasserknappheit, Hungersnöte und Ähnliches in die Rechnung passen würden.(…) Alle diese Gefahren werden durch menschliches Handeln verursacht und können nur durch veränderte Einstellungen und Verhaltensweisen überwunden werden. Der wahre Feind ist also die Menschheit selbst.“

Im Lichte einer vom Christentum und von der Quantenphysik erhellten Theorie der menschlichen Entwicklung hätte diese geistige Sackgasse vielleicht vermieden werden können. Denn wenn es stimmt, dass lebende Organismen ständig mit nicht lokal gespeicherten Informationen kommunizieren, dann ist die DNA wahrscheinlich gar nicht der primäre Träger der Erbinformation, sondern lediglich Empfänger nichtlokaler Information aus dem Hyperraum. Die Quanten-Muster aller Organismen waren nach dieser Vorstellung schon im Hyperraum beziehungsweise im kosmischen Bewusstsein in nicht manifester Form vorgebildet. Nach der Bibel folgt die Entwicklung des Universums und der lebenden Organismen einer Information, dem Wort Gottes. Nach der darwinistischen bzw. neodarwinistischen Theorie soll jedoch im Laufe der Zeit Information durch das Wechselspiel von Zufall und Selektion neu entstehen. Es gäbe dann also keinen zeitlosen Logos, an dem sich die Entwicklung ausrichtet.

Das Bewusstsein kommt vor dem Sein

Nicht das Sein bestimmt das Bewusstsein, wie Marx, Engels und Lenin lehrten, sondern das Bewusstsein kommt vor dem Sein. Die Entstehung neuer Arten als Projektionen aus dem Hyperraum in die irdische Raumzeit beruhte demnach auf einer Quantenauslese (Makroevolution), an die sich die irdische Auslese (Mikroevolution) anschließt. Das könnte erklären, warum große, zu neuen Bauplänen und Verhaltensmustern führende Gen-Mutationen nicht ziellos erfolgen und daher niemals funktionsuntüchtige „Übergangsformen“ erzeugt haben. Fossilien der von den Darwinisten postulierten zahlreichen „unfertigen“ Arten wurden denn auch nie gefunden. Zufällige, ungerichtete Klein-Mutationen werden hingegen zum allergrößten Teil mithilfe der darwinschen Selektion eliminiert, sofern sie nicht zufällig zu einem Überlebens-Vorteil führen. Nur durch zielgerichtete Mutationen konnte im Kambrium vor etwa 530 Millionen Jahren in geologisch sehr kurzer Zeit eine der heutigen vergleichbare Artenvielfalt entstehen. Die Paläontologen sprechen von der Kambrischen Explosion. Davor gab es praktisch nur einzellige Organismen.

Der Mensch ist das einzige Lebewesen, dem seine Endlichkeit bewusst wird. Die im Buch Genesis geschilderte Entstehung des Menschen kann so interpretiert werden, dass der Mensch als Gottes Ebenbild zunächst vollkommen war und sich frei im Hyperraum, das heißt in der Gegenwart Gottes bewegen konnte. Da er aber der Schlange, einem Geschöpf, mehr vertraute als seinem Schöpfer und selbst Gott sein wollte, landete er in der Endlichkeit der Raumzeit, behielt aber die Erinnerung an das verlorene Paradies. Der Mensch wird deshalb definiert als Brückenwesen zwischen Diesseits und Jenseits.

Nur Menschen sind transzendenzfähig

Der Mensch ist nicht lediglich ein besonders intelligentes Tier, wie Darwin annahm, sondern, wie die Strukturtheorie von Berthold Heim zeigt, als einzige Organismenart transzendenzfähig. Damit existiert zum ersten Mal ein wissenschaftlicher Ansatz, um die Sonderstellung des Menschen zu belegen. Diese Definition erlaubt es uns, zu entscheiden, ob wir dem ausgestorbenen Homo neanderthalensis die Eigenschaft des Menschseins zusprechen können oder nicht. Als eindeutiger Hinweis auf die Transzendenzfähigkeit der Neandertaler kann demnach die zum Teil aufwändige Bestattung ihrer Toten gelten. Ich würde Homo neanderthalensis aber trotzdem eher als Vormenschen bezeichnen, denn auch sein erfolgreicherer Konkurrent Homo sapiens sapiens ist nach dem Arzt und Philosophen Karl Jaspers (1883-1969) erst in der „Achsenzeit“ (800 – 200 v. Chr.), in der alle unsere aktuellen Gedankensysteme ihren Ursprung haben, zum heutigen Menschen geworden. Entscheidend war dabei die Verkündung der 10 Gebote durch Mose. Davor waren alle Menschen- bzw. Vormenschengemeinschaften, wie wir heute wissen, direkt oder indirekt dem Kannibalismus und der Sklaverei zugetan.

Fazit: Seit dem Durchbruch der Quantenphysik in den 1920er Jahren nähern wir uns wieder dem mittelalterlichen Weltbild, in dem die sichtbare Welt eingebettet war in eine überirdische Wirklichkeit, die der Wissenschaft verschlossen bleibt, aber den Gott Suchenden ein Stück weit offenbart werden kann. Es geht dabei weniger um die Wiederverzauberung der Welt, sondern um die Rücknahme ihrer Entzauberung durch die so genannte Aufklärung. So zeigt sich dem für die verborgene Wirklichkeit Aufgeschlossenen eine bemerkenswerte Komplementarität zwischen biblischer Offenbarung und naturwissenschaftlicher Forschung, was allerdings nicht als Gottesbeweis herhalten kann. Eines solchen bedürfen Menschen, die aufgrund individueller Begegnung mit der frohen Botschaft zum Glauben an den Mensch gewordenen, für uns am Kreuz gestorbenen und wiederauferstandenen Gottessohn gefunden haben, auch gar nicht.