Sprechen wir mal über wissenschaftliche Paradigmen und deren Wechsel

von Uli Weber

Zunächst einmal müssen wir den Begriff „Paradigma“ klären, und dabei hilft uns die GOOGLE-KI des Browsers, Zitat:

Ein Paradigma ist ein allgemein anerkanntes Muster, Denkweise oder Modell, das als Grundlage zur Orientierung und Problemlösung in Wissenschaft, Gesellschaft oder Technik dient. Es prägt Überzeugungen, Methoden und Sichtweisen. Synonyme sind Modell, Vorbild, Denkmuster oder Leitbild. Bei einem grundlegenden Wandel dieser Sichtweise spricht man von einem Paradigmenwechsel.“

Ein Paradigma ist also ein allgemein anerkanntes Modell für irgendein Phänomen, und von dem kann es nach dem Highlander-Prinzip jeweils nur ein einziges geben. Ein Modell beschreibt üblicherweise ein solches Phänomen auf der Grundlage von gesicherten Lehrsätzen und stellt damit ein mehr oder minder zutreffendes Abbild der Realität dar:

Phänomen => Gesicherte Lehrsätze => Modell => Übereinstimmung mit der Realität

Festhalten können wir hier also schon einmal, dass ein Modell nicht die Realität ersetzt, sondern sich an dieser Realität beweisen muss. Und in die Zukunft gerichtete Modelle müssen dann zumindest die Vergangenheit durch ein historisches Backtesting korrekt darstellen können. Denn es kommt ausschließlich auf die Widerspruchsfreiheit eines Modells gegenüber den zugrunde liegenden gesicherten Lehrsätzen und der Realität an. Jedenfalls kann kein Modell ein konkurrierendes Modell aus sich selbst heraus wider­legen. Vielmehr ist eine solche Widerlegung nur durch die beiden Modellen zugrunde liegenden gesicherten Lehrsätze möglich.

Im besten Fall entsteht aus einem solchen Modell also ein allgemein anerkanntes Paradigma für das beschriebene Phänomen. Wenn wir nun ein gültiges Paradigma mit konkurrierenden wissenschaft­lichen Ansätzen für dasselbe zugrunde liegende Phänomen vergleichen wollen, dann müssen wir uns auf die Ebene der Modelle und deren Einzelschritte begeben. Und wenn es über irgendein Phänomen noch gar kein herrschendes Paradigma gibt, dann wehrt sich der wissenschaftliche Mainstream üblicherweise trotzdem. Denn schließlich existiert auch dann irgendeine Mehrheits­meinung, mit deren Hilfe bessere Erkenntnisse eingehegt werden können, um eine Veränderung des sicher geglaubten Weltbildes zu vermeiden. Dazu drei Beispiele aus unserem Kulturkreis:

Johann Carl Fuhlrott (1803 – 1877) https://de.wikipedia.org/wiki/Johann_Carl_Fuhlrott, Zitat:

Fuhlrott hatte die besonderen Merkmale der ihm von einem Steinbruchbesitzer übergebenen Knochen (Überaugenwülste, ungewöhnlich dicke Grate und Leisten als Ansatzpunkte überaus kräftiger Muskeln) auf Anhieb einem Individuum „aus der vorhistorischen Zeit“ zugeschrieben, zwei Jahre vor Darwins bedeutender Schrift Über die Entstehung der Arten. Als er seine Deutung 1857 auf einer Versammlung von Naturforschern zur Diskussion stellte, wurde er von den Gelehrten jedoch nicht ernstgenommen; mehr noch, deren Reaktion empfand Fuhlrott als extrem entmutigend. Seinen ersten schriftlichen Bericht versah er mit dem resignierten Schluss, dass er ‚auf jeden Versuch einer Propaganda für meine Überzeugung gern verzichte‘.“

Ignaz Philipp Semmelweis (1818- 1865) https://de.wikipedia.org/wiki/Ignaz_Semmelweis , Zitat:

Semmelweis führte das häufigere Auftreten von Kindbettfieber in öffentlichen Kliniken im Vergleich zur privaten Entbindung auf mangelnde Hygiene bei Ärzten und Krankenhauspersonal zurück und bemühte sich, Hygienevorschriften einzuführen. Später wurde er ‚Retter der Mütter‘ genannt. Seine Studie von 1847/48 gilt heute als erster praktischer Fall von evidenzbasierter Medizin (auf empirische Belege gestützte Heilkunde) in Österreich und als Musterbeispiel für eine methodisch korrekte Überprüfung wissenschaftlicher Hypothesen. Zu seinen Lebzeiten wurden seine Erkenntnisse, von ihm 1861 publiziert, nicht anerkannt und von Kollegen als ‚spekulativer Unfug‘ abgelehnt. Nur wenige Ärzte unterstützten ihn, da Hygiene als Zeitverschwendung und unvereinbar mit den damals geltenden Theorien über Krankheitsursachen angesehen wurde.“

Alfred Lothar Wegener (1880 – 1930) https://de.wikipedia.org/wiki/Alfred_Wegener, Zitat:

Wegeners Theorie von der Verschiebung der Kontinente blieb zu seinen Lebzeiten immer umstritten und geriet nach seinem Tod rasch in Vergessenheit. Nur wenige Wissenschaftler, wie der Paläogeograph Edgar Dacqué oder der Belgrader Astronom Milutin Milanković, unterstützten Wegener von Anfang an. Andere Kollegen sprachen eher von ‚Gedankenspielerei‘, ‚Phantasiegebilden‘ oder gar von ‚Fieberfantasien der von Krustendrehkrankheit und Polschubseuche schwer Befallenen‘. Max Semper schrieb eine Kritik an der Theorie, die in folgende Verspottung der Person Wegeners mündet: ‚[…] so kann man nur um Innehaltung der nötigen Distanz ersuchen und die Bitte daran anschließen, doch künftig die Geologie nicht weiter zu beehren, sondern Fachgebiete aufzusuchen, die bisher noch vergaßen, über ihr Tor zu schreiben: ‚O heiliger Sankt Florian, verschon’ dies Haus, zünd’ andere an!‘ – Max Semper: (1917)

Alle drei genannten Wissenschaftler haben den Triumph ihrer Erkenntnis nicht mehr erlebt. Es ist nämlich völlig gleichgültig, ob lediglich Lücken in Grundlagenwissen oder Phantasie des tonangebenden Mainstreams vorherrschen, oder ob die herrschende Lehrmeinung gar aus religiösen Glaubenssätzen besteht. Es kann jedenfalls Jahrzehnte dauern, bis ein alternatives Modell schließlich doch noch zum wissenschaftlichen Paradigma wird – und manchmal sogar noch viel länger, bis auch der verursachende Querdenker eine persönliche Rehabilitierung durch das inquisitorische Religionsgericht erfährt:

Galileo Galilei (1564 – 1641/1642) https://de.wikipedia.org/wiki/Galileo_Galilei

Galileo Galilei hatte einen bedeutenden Beitrag zur Kopernikanischen Wende vom Mittelalter zur Neuzeit – und damit zur Abendländischen Aufklärung – geleistet. Am 22. Juni 1633 fand sein Inquisitionsprozess statt, und am 2. November 1992 wurde Galilei von der Heiligen Römischen Kirche formal rehabilitiert – also: Liebet Eure Feinde!

Ein Endlosbeispiel für die Auseinandersetzung über Modelle ist der Dissens zwischen meinem hemisphärischen Konvektionsmodell und der selbst von Klimarealisten verteidigten IPCC- Sage vom sogenannten „natürlichen atmosphärischen THE“. Beide konkurrierenden physikalischen Modelle nehmen in Anspruch, die terrestrische Temperaturgenese abzubilden, also schaunmermal:

Phänomen: Die Sonne als Zentralgestirn des Sonnensystems beleuchtet die ihr zugekehrte Seite der um ihre eigene Achse rotierenden Erde und bestimmt deren Temperatur.

Gesicherte Lehrsätze: Für dieses Phänomen gibt es keinen einzeln umfassenden Lehrsatz. Vielmehr muss man den beschriebenen Prozess in physikalische Einzelschritte aufdröseln, die dann konkreten Lehrsätzen zugeordnet werden können.

Modell: Die lückenlose und widerspruchsfreie Abfolge der beweisbaren physikalischen Einzelschritte vom Phänomen zur Realität ergibt dann ein Modell.

Übereinstimmung mit der Realität: Das jeweilige Modell muss zwingend und nachvollziehbar die konkreten Einzelschritte vom Anfangszustand bis zum Endzustand in der Realität abbilden.

Schauen wir uns also beide konkurrierenden Modelle daraufhin noch einmal genauer an:

Das THE-Paradigma: Der auf der Erde einfallende solare HF-Strahlungsfluss (ΦS) wird mit dem abgestrahlten IR-Strahlungsfluss der Erde (ΦE) gleichgesetzt, also:

Φ(Sonne) = Φ(Erde)

Grundlage für das THE-Paradigma ist ein Flächenverhältnis von 1:4 zwischen den einfallenden Sonnenstrahlen auf einer Kreisfläche mit dem Erdradius und der Kugeloberfläche der Erde. Man benutzt nun dieses Flächenverhältnis tatsächlich, um mittels einer Inversion des Stefan-Boltzmann-Gesetzes aus einem Viertel der Solarkonstanten – abzüglich des Albedoanteils von 30% – eine „natürliche Temperatur“ von minus 18 Grad Celsius für unsere Erde zu berechnen.

WIDERSPRUCH: Die Gleichsetzung der Strahlungsflüsse eines aktiven Sterns und eines hemisphärisch beleuchteten passiven Planeten überspringt als physikalischer Apfel&Birnen-Vergleich die terrestri­sche Temperaturgenese [solare HF-Strahlung => Materie => terrestrische IR-Strahlung].

Dieses Ergebnis ist aber auch deshalb völlig falsch, weil das zur Berechnung missbrauchte physika­lische S-B-Gesetz, und somit auch seine Inversion, auf einer strengen Gleichzeitigkeit von Temperatur und Strahlung basieren. Eine global einheitliche solare Einstrahlungsleistung ist daher eine rein mathematische Chimäre und kann in der physikalischen Realität unserer immer hälftig bestrahlten Erde niemals beobachtet werden. Dabei können Sie anhand des S-B-Gesetzes selbst leicht feststellen, dass bei einer T^4-Funktion allein schon die Mittelwertbildung physikalischer Unfug ist:

Die „globale Durchschnittstemperatur“ von 288 Kelvin entspricht einer Abstrahlung von 390W/m².

Im absoluten Nullpunkt von 0 Kelvin beträgt die Abstrahlung 0 W/m².

Der Durchschnitt zwischen beiden Wertepaaren beträgt 144 Kelvin und 195 W/m².

WIDERSPRUCH: 144 K entspricht 25 W/m² Abstrahlung und 195 W/m² entsprechen 242 K Temperatur. Bei Gerlich und Tscheuschner (2009) heißt es dazu auf Seite 63, Zitat:

Such a calculation, though standard in global climatology, is plainly wrong. Namely, if one

wants to calculate the average temperature, one has to draw the fourth root first and then

determine the average, …“

Die aus dem THE-Paradigma hergeleitete „natürliche Temperatur“ unserer Erde von minus 18 °C ist 33 Kelvin niedriger als die sogenannte „gemessene globale Durchschnittstemperatur“, für die es allerdings kein physikalisch zwingendes Kochrezept gibt. Jedenfalls wird diese Differenz von 33 Kelvin einem „natürlichen atmosphärischen Treibhauseffekt“ zugeschrieben, der auf der Gleichsetzung der Strahlungsflüsse von Sonne (ΦS ) und Erde (ΦE) beruht, und auf dessen experimentellen Nachweis der allwissende Vatikan der Klimareligion seit mehr als 3 Jahrzehnten verzichtet.

WIDERSPRUCH: Wenn die zum sogenannten „natürlichen atmosphärischen Treibhauseffekt“ führende S-B-Inversion tatsächlich physikalisch korrekt und dieser THE exakt berechenbar wäre, dann könnte man damit die sogenannte „gemessene globale Durch­schnittstemperatur“ verifizieren. Bis heute existiert aber lediglich die ominöse global einheitliche Temperaturdifferenz von 33 Kelvin.

Das Treibhaus-Paradigma klammert also ausgerechnet den Einzelschritt der natürlichen Temperaturgenese auf unserer Erde als zentralen Prozess der solaren Einstrahlung aus. Stattdessen verspringt sie sofort zur terrestrischen Abstrahlung, die es ohne die solar induzierte Temperaturgenese gar nicht geben würde. Die Lücke von 33 Kelvin zwischen Model und Realität wird dann durch ein experimentell unbewiesenes Phänomen geschlossen, das auf der mathematischen Verschlimmbesserung eines physikalischen Gesetzes beruht.

Das hemisphärische: Konvektionsmodell: Die hemisphärische Temperaturberechnung für die Tagseite unserer Erde beruht auf dem S-B-Temperatur­äquivalent aus einer ortsgetreuen S-B-Inversion der hemisphärisch eingestrahlten spezifischen Strahlungsleistung der Sonne für konzentrische Kreissegmente um den Subsolarpunkt im Äquinoktium.

https://eike-klima-energie.eu/wp-content/uploads/2025/02/word-image-122361-2.jpeg

Abbildung: Das hemisphärische: Konvektionsmodell

Links: Geometrie der solaren Einstrahlung im Äquinoktium

Mitte: Berechnungsschema für das S-B-Temperaturäquivalent in 1° Segmenten

Rechts: Das S-B-Temperaturäquivalent in Abhängigkeit vom Zenitwinkel der Sonne.

Das flächennormierte Temperaturmittel aus dieser 1-Grad-Approximation beträgt 14,03°C und wird durch eine Verdoppelung der G&T-Integrallösung mit 288 Kelvin (15 °C) bestätigt. Dieses berechnete S-B-Temperaturäquivalent wird jedoch nirgendwo auf der Erde erreicht. Vielmehr finden mit der morgendlichen Erwärmung der Oberfläche sofort auch Verdunstung und Konvektion statt, durch die wesentliche Mengen der örtlich eingestrahlten Energie in die globalen Zirkulationen übergehen und global verfrachtet werden. Und die Nachttemperatur auf unserem Wasserplaneten wird durch die in den Meeren gespeicherte Energie gestützt, deren oberflächennahe Durchschnittstemperatur dauer­haft bei etwa 20 °Celsius liegt. Entgegen dem obigen Rechenschema, das auf 0 Kelvin für die Ausgangstemperatur aufsetzt, unterscheiden sich die Ortstemperaturen im Tagesverlauf üblicherweise nur um einige 10er-Grad.

Im hemisphärischen Konvektionsmodell wird die gesamte tagseitige Sonneneinstrahlung eben nicht zur Aufrechterhaltung der Tagestemperatur benötigt. Vielmehr kann die solare Einstrahlung deshalb auch noch die terrestrische Abstrahlung auf der Nachtseite kompensieren, die vom Wärmeinhalt der Ozeane getragen wird. Damit ist die Konstanz der sogenannten „globalen Durchschnittstemperatur“, die in der Klimakirche ja das Maß aller Dinge ist, im hemisphärischen Konvektionsmodell dauerhaft gewährleistet.

Modellvergleich zwischen dem hemisphärischen Konvektionsmodell und der THE Erzählung:

Postskriptum: Der „natürliche atmosphärische Treibhauseffekt“ ist sozusagen der Heilige Geist der Klimakirche. Denn die globaldämmerungsbeflissene Klimakirche scheitert nicht nur an der Inversion des Stefan-Boltzmann-Gesetzes und meinem hemisphärischen Konvektionsmodell. Es liegt vielmehr eine tiefe Ironie in der Tatsache, dass die CO2-Panik verbreitende Klimakirche mit ihrem globalen Faktor4-Tag=Nacht-Dämmerungsmodell weit hinter die vorschulischen Alltagskenntnisse ihrer antiken Vorgängerorganisation zurückfällt. Denn schon die frühen Autoren der Bibel stützten sich bei ihrer Erzählung ganz konkret auf den Unterschied zwischen Tag und Nacht, Zitat aus dem Buch Genesis 1,3 bis 1,5:

1,3: Gott sprach: Es werde Licht. Und es wurde Licht.

1,4: Gott sah, dass das Licht gut war. Und Gott schied das Licht von der Finsternis.

1,5: Und Gott nannte das Licht Tag und die Finsternis nannte er Nacht. Es wurde Abend und es wurde Morgen: erster Tag.

 




Kernfusion zwischen Narrativ und physikalischer Realität

Eine kritische Analyse der kontrollierten Fusionsenergie und des chinesischen Hybridreaktorkonzepts

Dirk Freyling*

* Die vorliegende Analyse entstand im Kontext einer interdisziplinären Diskussion über die physikalische Begründbarkeit von Energiewende-Narrativen.

Abstract

Seit Jahrzehnten wird die kontrollierte Kernfusion als saubere, quasi unerschöpfliche Energiequelle propagiert. Internationale Großprojekte wie ITER binden zweistellige Milliardenbeträge und nähren die Erwartung eines baldigen Durchbruchs. Diese Arbeit untersucht die physikalischen Grundlagen des Tokamak-Konzepts und legt dar, dass es sich bei den immer wieder diagnostizierten Hürden nicht um lösbare Ingenieurprobleme, sondern um unauflösliche Prinzipwidersprüche handelt. Im Anschluss an die fundamentale Kritik des Fusionsphysikers Daniel Jassby werden drei zentrale physikalische Showstopper herausgearbeitet: die Zerstörung der Magnetfeldhomogenität durch Neutronen-induzierte thermische Störungen, die irreversible Materialschädigung durch hochenergetische Fusionsneutronen sowie der prinzipielle Widerspruch zwischen kontinuierlicher Energieauskopplung und Plasmaeinschluss. Alle drei Phänomene zusammen machen einen dauerhaft betreibbaren, stromliefernden Fusionsreaktor physikalisch unmöglich. Vor diesem Hintergrund erscheint die chinesische Entscheidung, auf einen hybriden Fusions-Spaltungs-Reaktor zu setzen, als rationaler Paradigmenwechsel: Gepulste, lokal unkontrollierte Fusionsprozesse dienen dort lediglich als Neutronentreiber für eine unterkritische Spaltungszone. Der Westen hingegen hält an der Illusion der „reinen“ Fusion fest, was als Symptom eines tieferliegenden Problems gedeutet wird – eines wissenschaftspolitischen Narrativs, das physikalische Rationalität durch Wunschdenken ersetzt.

1. Einleitung

Seit den 1960er Jahren wiederholt sich ein Mantra: „Kommerziell nutzbare Kernfusion ist dreißig Jahre entfernt.“ Mit jeder technischen Generation wurden vermeintliche Fortschritte erzielt, und mit jeder neuen Anlage traten fundamentale Probleme hervor, die zuvor nicht antizipiert worden waren. Das gegenwärtige Flaggschiff, der internationale Tokamak ITER, wird mit über 20 Milliarden Euro öffentlicher Mittel finanziert. Die offizielle Rhetorik spricht von Verzögerungen und technischen Herausforderungen, nicht von prinzipiellen Unmöglichkeiten. Genau diesen Sprung – von temporären Schwierigkeiten zu unüberwindbaren physikalischen Widersprüchen – vollzieht die Kritik des US-amerikanischen Plasmaphysikers Daniel Jassby, der 25 Jahre am Princeton Plasma Physics Laboratory forschte und zu den profiliertesten internen Kritikern des Tokamak-Konzepts zählt [1].

Die vorliegende Arbeit nimmt Jassbys Argumentation zum Ausgangspunkt und verdichtet sie zu drei physikalischen Showstoppern, die jeden Versuch eines kontinuierlich arbeitenden, magnetisch eingeschlossenen Fusionsreaktors ad absurdum führen. Im zweiten Teil wird die chinesische Hybridreaktor-Strategie als rationaler Gegenentwurf skizziert. Abschließend wird die Frage aufgeworfen, warum der Westen – trotz klarer physikalischer Evidenz – an der Fusionsutopie festhält und welche Rolle wissenschaftspolitische Narrative dabei spielen.

2. Physikalische Prinzipwidersprüche des Tokamak-Konzepts

Die folgenden drei Problemkreise sind nicht durch bessere Materialien, höhere Magnetfelder oder optimierte Plasmageometrien lösbar; sie sind der Topologie eines Neutronen produzierenden Fusionsreaktors immanent.

Tabelle 1: Physikalische Showstopper des Tokamak-Fusionsreaktors nach Jassby

Problem Physikalische Konsequenz (nach Jassby u. a.) Rationaler Schluss
Magnetfeld-Anisotropie Die unvermeidliche lokale Erhitzung der ersten Wand und des Kühlmantels durch Neutronenbeschuss verursacht thermische Gradienten und Materialverformungen. Diese Störungen brechen die für den Plasmaeinschluss zwingend erforderliche Homogenität des Magnetfeldes auf. Ein kontinuierlich steuerbarer Prozess wird unmöglich. Es kommt zur lokalen Zerstörung des Einschlusses und zum abrupten Abbruch der Entladung – im schlimmsten Fall zur unkontrollierten Fusion mit Zerstörung der Apparatur.
Materialzerstörung Die 14,1-MeV-Neutronen der Deuterium-Tritium-Reaktion versetzen Atome im Kristallgitter der Strukturmaterialien und erzeugen Leerstellen und Versetzungskaskaden. Die spröde werdenden Komponenten, insbesondere die extrem teuren supraleitenden Magnetspulen, verlieren irreversibel ihre mechanischen und elektrischen Eigenschaften. Der Reaktor ist kein „wartbares Kraftwerk“, sondern ein Einweg-Forschungsgerät. Ein wirtschaftlicher Dauerbetrieb, bei dem Komponenten turnusmäßig getauscht werden können, scheitert an den physikalisch bedingten Zerstörungsraten und den immensen Kosten.
Energieabfuhr vs. Plasmaeinschluss Zur Stromerzeugung muss thermische Energie kontinuierlich aus dem Reaktorcore abgeführt werden. Jeder Wärmeaustausch zwischen dem heißen Plasma und der gekühlten Reaktorwand stört jedoch die fragile magnetische Konfiguration, die das Plasma isoliert. Der Reaktor kann nicht gleichzeitig Energie in nutzbare Wärme umwandeln und das dafür nötige Magnetfeld aufrechterhalten. Die eine Kernfunktion (Energieproduktion) zerstört die andere (Plasmaeinschluss).

Diese drei Kategorien beschreiben kein temporäres Optimierungsproblem, sondern eine prinzipielle Unverträglichkeit zwischen dem gewünschten Betriebszustand eines Kraftwerks und den inhärenten Eigenschaften des magnetischen Plasmaeinschlusses. Jassby selbst kommt zu dem Schluss, dass ITER vor allem „ein Schaufenster für die Nachteile der Fusionsenergie“ sei und dass die Hoffnung auf eine „saubere, unerschöpfliche Energiequelle“ auf einer grundlegenden Fehleinschätzung der Neutronenphysik beruhe [1].

3. Der chinesische Hybridreaktor: Ein rationaler Paradigmenwechsel

Während im Westen die politische und wissenschaftliche Elite an der Vision der „reinen“ Fusion festhält, zeichnet sich in China ein grundlegend anderer, physikalisch konsistenter Entwicklungspfad ab. Chinesische Wissenschaftler haben die von Jassby benannten Widersprüche nicht nur zur Kenntnis genommen, sondern in eine neue Reaktorphilosophie übersetzt [2]. Der hybride Fusions-Spaltungs-Reaktor, dessen Prototyp bis etwa 2035 in Betrieb gehen soll, setzt auf folgende Prinzipien:

  1. Gepulste, lokale Mikrofusion als Neutronentreiber. Anders als der Tokamak versucht der Hybridreaktor nicht, ein dauerhaft aktives Fusionsplasma einzuschließen. Stattdessen wird durch Trägheitseinschluss oder kurzzeitige Magneteinschlüsse eine kleine Menge Deuterium-Tritium gezündet – eine kurzzeitig unkontrollierte Fusion, deren Energiepuls einen Schauer hochenergetischer Neutronen freisetzt.
  2. Unterkritische Spaltungszone als Hauptenergiequelle. Diese Neutronen treffen auf eine umgebende Spaltzone aus Uran (auch abgereichertem Uran oder Atommüll), die in einem unterkritischen Zustand gehalten wird. Die durch die Fusionsneutronen getriggerte Kernspaltung setzt die eigentliche Nutzenergie frei, und zwar um das 10- bis 20-Fache der eingesetzten Fusionspulsenergie.
  3. Keine kontinuierliche Neutronenbelastung eines sensitiven Einschlusssystems. Da der Fusionsteil nur impulsweise arbeitet, entfallen die für den Tokamak tödliche Dauerbestrahlung und die thermischen Dauerstörungen. Die Spaltungszone ist technologisch beherrschbar, und die Fusionskomponente kann als austauschbarer „Zündkopf“ konstruiert werden.

Dieses Konzept umgeht elegant alle drei Showstopper aus Tabelle 1: Es gibt keinen fragilen magnetischen Dauereinschluss, der durch Dauerneutronen zerstört würde; der Fusionsanteil ist ein Opferbauteil ohne Anspruch auf Dauerbetrieb; und die Energieauskopplung geschieht in der konventionellen, gut verstandenen Spaltzone. Hinzu kommt die Möglichkeit, langlebigen Atommüll zu transmutieren. Physikalisch ist der Hybridreaktor daher kein gradueller Fortschritt, sondern eine radikale Abkehr vom Fusionskraftwerks-Mythos und eine Rückkehr zur physikalisch realistischen Nutzung von Fusionsprozessen als intensiver Neutronenquelle.

4. Fusionsnarrativ als Wissenschaftspathologie

Die Frage, warum sich der Westen so schwer tut, die geschilderten physikalischen Realitäten anzuerkennen, führt von der Physik zur Soziologie der Wissenschaft und zur politischen Ökonomie von Großforschungsprojekten. Der ITER-Verbund ist zu einem selbstreferenziellen System geworden, in dem jahrzehntelang Karrieren, politische Allianzen und industrielle Zuliefernetzwerke auf der Prämisse der Machbarkeit aufgebaut wurden. Ein öffentliches Eingeständnis der physikalischen Unmöglichkeit hätte nicht nur finanzielle Verluste, sondern auch einen massiven Legitimationsverlust der beteiligten wissenschaftlichen Institutionen zur Folge.

Parallel dazu dient das Narrativ der „sauberen Kernfusion“ als argumentativer Platzhalter in der Energiewendedebatte: Es erlaubt, die systemischen Lücken wetterabhängiger Erzeuger mit der Aussicht auf eine künftige, unbegrenzt verfügbare Grundlastquelle zu überdecken, ohne dass diese jemals realisiert werden muss. Genau diese Funktion teilt das Fusionsnarrativ mit vielen anderen Versprechungen der Energiewende, wie die Diskussion um Speichertechnologien und Rohstoffverfügbarkeiten zeigt. Dass insbesondere das weit verbreitete Sprachmodell: ChatGPT derlei Narrative bereitwillig reproduziert (ChatGPT ist eines der am weitesten verbreiteten Sprachmodelle in der westlichen Welt und weltweit überhaupt), ist – wie an anderer Stelle herausgearbeitet – kein Zufall, sondern Produkt eines auf Stabilität und Optimismus trainierten Sprachmodells, das fundamentale Widersprüche nicht auflösen kann und deshalb in das Muster ausweicht: „Die Herausforderungen sind groß, aber sie werden zu lösen sein.“

China hingegen, das weniger von historisch gewachsenen ideologischen Festlegungen und wissenschaftlichen Pfadabhängigkeiten belastet ist, kann sich einen nüchternen Blick auf die physikalische Realität leisten. Die Entscheidung für den Hybridreaktor ist nicht das Eingeständnis einer Niederlage, sondern die rationale Anwendung des wissenschaftlichen Darwinismus: Was physikalisch nicht funktionieren kann, wird nicht verfolgt.

5. Das Täuschungsparadoxon: Warum betreibt China dennoch alternativ reine Fusionsforschung?

Wenn – wie hier argumentiert – chinesische Wissenschaftler die von Jassby beschriebenen physikalischen Prinzipwidersprüche erkannt und in die Entwicklung des Hybridreaktors übersetzt haben, stellt sich unweigerlich die Frage: Warum forscht China dann parallel weiterhin an reinen Tokamak-Fusionsanlagen wie dem EAST und dem geplanten CFETR?

Die Antwort auf diesen scheinbaren Widerspruch lässt sich in zwei – einander ergänzenden – Deutungsrahmen geben: einer bewussten Täuschungsstrategie und einer strategischen Diversifikation.

5.1 Die Täuschungsthese: Historische Vorbilder

Die von US-Präsident Ronald Reagan 1983 angekündigte Strategic Defense Initiative (SDI, „Krieg der Sterne“). Aus heutiger Sicht gilt als gesichert, dass viele der darin versprochenen Technologien – etwa weltraumgestützte Laser zur Raketenabwehr – physikalisch und ingenieurstechnisch nie realisierbar waren. Dennoch trieben die USA das Programm öffentlichkeitswirksam voran. Der strategische Effekt: Die Sowjetunion investierte enorme Ressourcen in eigene, vermeintliche Gegenmaßnahmen und überforderte damit ihre ohnehin angespannte Ökonomie. Beispiel: „Missile Gap“ (1950er/60er) In den USA entstand die Angst, die Sowjetunion habe viel mehr Interkontinentalraketen. Tatsächlich war das stark übertrieben – führte aber zu massiven US-Aufrüstungsprogrammen. Die China-These folgt demselben Muster:

  • Ressourcenbindung des Westens: Solange sich die EU, die USA und private Investoren an der Chimäre der „reinen“ Fusionsenergie abarbeiten und Milliarden in Projekte wie ITER oder Helion stecken, hat China einen strategischen Wettbewerbsvorteil. Der Westen wird durch ein wissenschaftlich aussichtsloses Projekt finanziell und intellektuell beschäftigt.
  • Zeitgewinn für die eigene reale Entwicklung: Während der Westen im Narrativ gefangen bleibt, entwickelt China unbeirrt den tatsächlich funktionierenden Hybridreaktor. Jede neue Meldung über einen chinesischen „Fusionsrekord“ (längste Plasmadauer, höchste Temperatur) füttert das westliche Wunschdenken und rechtfertigt weitere westliche Investitionen in denselben Irrweg – während der chinesische Hybridreaktor kurz vor der Prototypreife steht.
  • Legitimation und Prestige: Die Teilnahme am internationalen Fusionswettlauf sichert China einen Platz in der globalen wissenschaftlichen Gemeinschaft und verschafft Zugang zu Forschungsergebnissen anderer. Es wäre irrational, diesen Zugang durch einen offenen Ausstieg aus der Tokamak-Forschung aufzugeben.

Die Vermutung, China täusche eine mögliche Anwendung vor, um andere in die Irre zu führen, findet in diesem realpolitischen Kalkül eine vollkommen rationale Grundlage. China hätte damit – ähnlich wie einst die USA mit SDI – die physikalische Erkenntnis (Fusionskraftwerk ist unmöglich) in einen strategischen Hebel übersetzt.

5.2 Alternative Deutung: Institutionelle Parallelität und strategische Diversifikation

Neben der bewussten Täuschung existiert eine weniger spektakuläre, aber ebenso rationale Erklärung, die ohne die Unterstellung eines einheitlichen Masterplans auskommt:

  • Keine monolithische Wissenschaftsgemeinschaft: Chinas Fusionsforschung ist nicht zentral durch eine einzige Denkschule gesteuert. Verschiedene Institute verfolgen parallel unterschiedliche Ansätze – das Institute of Plasma Physics (ASIPP) mit Tokamaks (EAST) und andere Gruppen mit dem Hybridkonzept. Dass manche Wissenschaftler die reine Fusion für aussichtslos halten, bedeutet nicht, dass sich diese Einschätzung sofort in allen Forschungslinien durchsetzt.
  • Risikostreuung: China könnte schlicht auf mehrere Pferde setzen. Der Hybridreaktor ist physikalisch vielversprechender, aber technologisch ebenfalls anspruchsvoll. Sollte er scheitern, stünde China ohne jede Fusionsperspektive da. Die parallele Forschung an Tokamaks hält eine Rückfalloption offen.
  • Prestige und Signalwirkung: Der Wettbewerb um die längste Fusionsdauer ist ein Symbol nationaler Technologieführerschaft. Diese Symbolik ist für die innenpolitische Legitimation und das internationale Standing so wertvoll, dass die reine Fusionsforschung auch dann fortgeführt wird, wenn die Kraftwerksperspektive zweifelhaft ist.

Beide Deutungen schließen einander nicht aus. Vielmehr dürfte eine Mischung vorliegen: Die institutionelle Diversifikation wird bewusst aufrechterhalten, und die nach außen getragene Fokussierung auf reine Fusionsrekorde wird billigend als Nebeneffekt genutzt, um die wahren Absichten zu verschleiern. In jedem Fall bleibt die grundlegende Erkenntnis bestehen, dass die reine Fusionsforschung als Kraftwerkskonzept physikalisch obsolet ist und dass China dies offenbar besser verstanden hat als der Westen – und diesen Wissensvorsprung nun strategisch nutzt.

6. Fazit

Die kontrollierte „reine“ Kernfusion auf Basis des Tokamak-Prinzips scheitert nicht an mangelnder Finanzierung oder unzureichender Ingenieurskunst, sondern an unauflösbaren physikalischen Prinzipwidersprüchen. Die Argumente Daniel Jassbys – zusammenfassbar als Zerstörung der Magnetfeldhomogenität, irreversible Materialschädigung durch Fusionsneutronen und der Widerspruch zwischen Energieabfuhr und Plasmaeinschluss – belegen, dass ein kontinuierlich arbeitendes Fusionskraftwerk eine physikalische Chimäre ist. Die chinesische Hinwendung zum Hybridreaktor ist die logische Konsequenz dieser Erkenntnis und stellt einen strategischen Vorteil dar, der innerhalb der nächsten Dekade zu einem massiven wissenschaftlichen und wirtschaftlichen Rückstand des Westens führen könnte.

Die eigentliche Herausforderung liegt nicht im Reaktordesign, sondern in der Fähigkeit des wissenschaftspolitischen Systems, liebgewonnene Narrative aufzugeben und physikalische Rationalität an die erste Stelle zu setzen. Solange dies nicht geschieht, werden weitere Milliarden in ein Projekt fließen, dessen einziges sicheres Produkt der Beweis seiner eigenen Undurchführbarkeit ist – und eine chinesische Vormachtstellung im Bereich der nuklearen Energieerzeugung.

Literaturverzeichnis

  1. Daniel Jassby. ITER is a showcase … for the drawbacks of fusion energy. Bulletin of the Atomic Scientists, 14. Februar 2018. Link (abgerufen am 25. April 2026).
  2. China National Nuclear Corporation (CNNC). China aims to have Xinghuo, world’s first fusion-fission power plant, running by 2030. NucNet, 28. März 2025. Link (abgerufen am 25. April 2026).
  3. Daniel Jassby. Fusion reactors: Not what they’re cracked up to be. Bulletin of the Atomic Scientists, 19. April 2017. Link (abgerufen am 25. April 2026).
  4. Institute of Plasma Physics, Chinese Academy of Sciences (ASIPP). Chinese „Artificial Sun“ Achieves New Record in a Significant Milestone Toward Fusion Power Generation. Pressemitteilung, Hefei, 21. Januar 2025. Link (abgerufen am 25. April 2026).

Methodologische Anmerkung

Die vorliegenden Betrachtungen haben zwar primär nichts mit dem anstehenden Paradigmenwechsel, gemäß dem Prinzip der Parsimonie, im Bereich der Theoretischen Denkmodellphysik zu tun, sind jedoch argumentativ-kombinatorisch aus einer methodischen Mustererkennung und Logik basierenden Minimalanalyse entstanden, so wie diese, im Rahmen der Masse-Raum-Kopplung (Elementarkörpertheorie von Dirk Freyling), übergeordnet, allgemein instrumenteller Standard ist. Siehe: https://www.dualismus.net/elementarybodytheory/website/.

 




IRRSINN ENERGIEWENDE: Strommarkt am 1. Mai 2026 – viel Photovoltaik, Feiertagslast, extreme Preisausschläge

Strommarkt am 1. Mai 2026 – viel Photovoltaik, Feiertagslast, extreme Preisausschläge

von Holger Douglas

Deutschland erzeugt mal zu wenig, mal zu viel Strom. Eine Folge des hemmungslosen Ausbaus der PV-Anlagen und Windräder. Die Energiewende ist nicht an der Menge der installierten Solarmodule zu bewerten, sondern daran, ob sie ein Industrieland sicher und bezahlbar versorgen kann. Nein, sie kann es nicht. Die Energiewende ist gescheitert.  PVA Anlagen von Horizont zu Horizont. Bild KI Bing

„Energiewende“ pervers: Der gestrige Feiertag zeigte Strom im Überfluss – und ein System am Anschlag. Am 1. Mai laufen Fabriken nur eingeschränkt, viele Büros sind geschlossen, die industrielle Last ist niedrig. Gleichzeitig scheint die Sonne kräftig auf ein Land, das in den vergangenen Jahren Photovoltaik wie von Sinnen ausgebaut hat, als könne man damit Physik, Speicher und Netze ersetzen.

Das Ergebnis ist ein Lehrstück über die deutsche Energiewende: Am Mittag gibt es Strom im Überfluss – so viel, dass diese Mengen keiner gebrauchen kann. Und am Abend drehen sich die Verhältnisse um, weil die Sonne verschwindet und das System dann plötzlich wieder auf steuerbare Leistung angewiesen ist.

Der Tag demonstrierte trotz vieler anderslautender Beiträge in sozialen Medien nicht den Triumph einer gelungenen Energieversorgung, sondern genau das Gegenteil: In Deutschland wurde zu bestimmten Stunden mehr Strom erzeugt, als das Land sinnvoll verbrauchen, speichern oder exportieren kann. Im regulierten Day-Ahead-Handel lag der Preis nach aktuellen Marktberichten von 12.45 Uhr bis 14.30 Uhr am unteren Limit von rund minus 500 Euro je Megawattstunde; im Intraday-Markt wurde um 14 Uhr sogar ein Wert von minus 855 Euro je Megawattstunde genannt. Ein Alarmsignal: Der Markt zahlt dafür, dass irgendjemand diesen Strom abnimmt.

Man muss sich diesen Irrsinn klarmachen. Ein Land schaltet funktionierende Kernkraftwerke ab, verteuert Kohle und Gas politisch, jagt die Industrie mit hohen Energiepreisen aus dem Land und produziert dann an einem sonnigen Feiertagsmittag Strom, der nicht etwa wertvoll ist, sondern zum Entsorgungsproblem wird. Nicht, weil Strom an sich wertlos wäre. Sondern, weil er im falschen Moment kommt. Strom ist eben keine Ware wie Zement, Getreide oder Kartoffeln, die man einfach auf Halde legt. Strom ist ein ganz besonderer Saft. In jeder Sekunde muss genau so viel Strom produziert werden, wie verbraucht wird. Nicht mehr und nicht weniger. Genau daran scheitert die deutsche Energiewende immer sichtbarer.

Die Nachfrage war wegen des Feiertages niedrig. Die Sonne liefert zur Mittagszeit viel Photovoltaik. Der Wind muss gar nicht besonders stark sein, um das System zusätzlich zu drücken. Die Folge: negative Preise. Netztransparenz, die Plattform der Übertragungsnetzbetreiber, beschreibt den Mechanismus nüchtern: Bei einem Überangebot an Strom kann der Spotmarktpreis stark sinken und sogar negativ werden; in solchen Zeiten kann nach EEG-Regeln auch der Vergütungsanspruch entfallen.

Politisch verkauft wurde jahrelang die einfache Gleichung: mehr Windräder, mehr Solaranlagen, mehr Klimaschutz, mehr Zukunft. Die Realität lautet heute: mehr Zufallsstrom ohne ausreichende Speicher, ohne ausreichende Steuerung, ohne ausreichende Nachfrageflexibilität und ohne ausreichend gesicherte Leistung für die Stunden danach. Mittags wird Strom zur Last. Abends, wenn Millionen Menschen kochen, Licht brauchen, Wärmepumpen laufen oder E-Autos geladen werden, ist die Sonne weg. Dann beginnt das andere Gesicht der Energiewende: hohe Preise, Importbedarf, Gas- und Kohlekraftwerke, Redispatch, Netzengpässe.

Besonders absurd ist die Preisspreizung innerhalb eines einzigen Tages. Cleanthinking verweist für den 1. Mai darauf, dass dynamische Stromkunden bei Octopus Energy zwischen 13 Uhr und 14.30 Uhr mehr als 42 Cent je Kilowattstunde gutgeschrieben bekommen konnten, während der Arbeitspreis um 19.45 Uhr bei plus 44 Cent lag. Das ergibt eine Spreizung von 87 Cent je Kilowattstunde an einem Tag. Ein Stromsystem, das mittags Geld verschenkt und abends wieder teuer einkauft, ist kein stabiles Industriestromsystem. Es ist ein Wettercasino mit Netzanschluss.

Die offiziellen Marktregeln machen diese Ausschläge inzwischen noch sichtbarer. Seit dem 1. Oktober 2025 wird der europäische Börsenstrompreis im 15-Minuten-Takt abgerechnet. Vattenfall beschreibt, dass der Strompreis an der EPEX Spot in 15-Minuten-Intervallen gehandelt wird und sich nach Angebot und Nachfrage richtet. Was früher im Stundenmittel geglättet wurde, erscheint nun schärfer: Viertelstunde für Viertelstunde zeigt der Markt, wann das System Überschuss und wann es Mangel hat.

Damit fällt auch eine beliebte Beschwichtigung weg. Früher hieß es: Negative Preise seien seltene Ausreißer. Das stimmt längst nicht mehr. Die Bundesnetzagentur-Plattform SMARD weist für 2025 bereits 573 Stunden mit negativen Großhandelspreisen aus; 2024 waren es 457 Stunden. SMARD nennt als Ursache ausdrücklich ein hohes und unflexibles Angebot bei niedriger Nachfrage, etwa an Wochenenden im Sommer oder an Feiertagen.

Gleichzeitig wächst die Photovoltaik weiter. Etwa fünf Millionen PV-Anlagen gibt es im Land, 2025 lag die PV-Einspeisung laut SMARD bei 74,1 Terawattstunden, ein Plus von 17,3 Prozent gegenüber dem Vorjahr; ausschlaggebend war unter anderem ein deutlicher Zubau von fast 10 Gigawatt Leistung. Das klingt zunächst nach Erfolg. Doch ohne Speicher, steuerbare Lasten und stabile Netze wird daraus ein Bumerang. Je mehr PV-Leistung installiert wird, desto stärker wird der Mittagsberg. Und je stärker der Mittagsberg wird, desto häufiger kippt der Preis ins Negative.

Speicher gibt es nicht in benötigten Kapazitäten. Und es sieht nicht danach aus, dass sie in nächster Zeit kommen. Energie speichert man – weiß der Physiker – am besten chemisch, nicht elektrisch in Form von Strom. Die Kohlehalden neben den Kraftwerken waren die effektiven Energiespeicher: lagerfähig, sehr preiswert und weltweit verfügbar.

Doch in Deutschland wird eine Stromerzeugung aufgebaut, die auch dann besonders viel liefert, wenn die industrielle Nachfrage an Feiertagen oder Wochenenden niedrig ist. Gleichzeitig zerstört dieselbe Energiepolitik jene energieintensive industrielle Basis, die Strom im großen Maßstab produktiv nutzen könnte. Erst vertreibt man Aluminium, Chemie, Glas, Stahl und Automobilzulieferer aus dem Hochpreisland – dann wundert man sich, dass mittags niemand den Solarstrom braucht.

Eine Volkswirtschaft kann nicht auf Zuruf der Meteorologen funktionieren. Der Bäcker, die Gießerei, das Krankenhaus, die Bahn, der Rechenzentrumsbetreiber und die Chemieanlage brauchen Strom nicht nur dann, wenn mittags die Sonne scheint. Sie brauchen ihn zuverlässig, planbar, bezahlbar – rund um die Uhr.

Der heutige Strommarkt ist deshalb ein politisches Dokument. Er zeigt, was geschieht, wenn Energiepolitik nicht vom System her gedacht wird, sondern von installierten Windrädern und PV-Anlagen. Netze, Speicher, Momentanreserve, Frequenzhaltung, Regelenergie und gesicherte Leistung lassen sich nicht durch Wunschdenken ersetzen.

Der 1. Mai 2026 zeigt: Deutschland hat nicht einfach zu wenig Strom. Es hat zur falschen Zeit zu viel und zur falschen Zeit zu wenig. Eine Folge des hemmungslosen Ausbaues der PV-Anlagen und Windräder. Die Energiewende ist nicht an der Menge der installierten Solarmodule zu messen, sondern daran, ob sie ein Industrieland sicher und bezahlbar versorgen kann. Nein, sie kann es nicht. Die sogenannte Energiewende ist gescheitert.+

Der Artikel erschien zuerst bei TE hier

 




Tschernobyl und die irre Strahlenangst in Deutschland

Vor 40 Jahren ereignete sich in der Ukraine das grösste Atomunglück in der Geschichte der Kernenergie. In Deutschland wurden danach erhöhte Radioaktivitätswerte gemessen. Die Panik, die das Land deswegen erfasste, hatte mit den realen Gefahren jedoch nichts zu tun.

Von Peter Panther

 

Im Mai 1986, einige Wochen nach dem Reaktorunfall in Tschernobyl, sah sich die damalige Bundesgesundheitsministerin Rita Süssmuth gezwungen, die Notbremse zu ziehen. Es war bekannt geworden, dass einige deutsche Ärzte schwangeren Frauen geraten hatten, vorsorglich abzutreiben. Ein solches Verhalten sei «weder mit der ärztlichen Ethik vereinbar, noch unter irgendeinem Gesichtspunkt zu rechtfertigen», stellte Süssmuth klar.

Der Vorgang zeigt, welche unsäglichen Folgen die Strahlenangst im Nachgang zu «Tschernobyl» in Deutschland hatte. Die Abtreibungsempfehlung erfolgte aus Angst vor möglichen Missbildungen, weil nach dem Atomunglück in der 1300 Kilometer weit entfernten Ukraine hierzulande eine leicht erhöhte Radioaktivität gemessen wurde.

Die Furcht vor Missbildungen war völlig überzogen. Nicht einmal in der Umgebung von Tschernobyl selbst, die ungleich stärker kontaminiert worden war, wurden in den Jahren danach vermehrt missgebildete Neugeborene registriert. Aber die Strahlenangst in Deutschland war eben irrational. Und sie wurde durch die Berichterstattung in den Medien und allerlei Anordnungen der Behörden nach Kräften geschürt.

Anti-AKW-Demo nur bei trockenem Wetter

Es gibt eine ganze Handvoll von Anekdoten, welche die damalige deutsche Atom-Hysterie untermalen: In München wurden drei Gemüsehändler von Konsumenten wegen fahrlässiger Körperverletzung angezeigt, weil sie angeblich zu stark strahlenden Salat angeboten hatten. Bei einem Fussballspiel der Marienfelder Mannschaft Blau Weiss wurden die angeblich verstrahlten Trikots der Spieler nach dem Abpfiff gesondert in Plastiksäcke verstaut und einer speziellen Reinigung unterzogen. Und vor einer Anti-AKW-Demonstration in Berlin wurde verkündet, dass diese nur bei trockenem Wetter stattfinde, da man die Teilnehmer nicht der erhöhten Strahlungsgefahr wegen Regen aussetzen wolle.

Was war aber wirklich passiert? Die Explosion des Reaktorblocks 4 in Tschernobyl am 26. April 1986 führte nicht nur zu einer erheblichen Kontamination der umliegenden Gebiete, sondern auch dazu, dass weite Teile Europas in den darauf folgenden Wochen erhöhte Radioaktivitätswerte registrierten.

EIKE Autor Dipl. Physiker Peter Würdig in Tschernobyl im „gesperrten“ Gebiet. Er schreibt dazu: „Hier ein Foto von mir auf dem Spielplatz. Einige von uns kletterten auch auf das Riesenrad, das war mir zu gefährlich, da konnte man ja runterfallen. Ich hatte einen Geiger-Zähler mitgenommen und Messungen gemacht, besondere Radioaktivität war fast nirgends mehr zu finden, das war richtig enttäuschend. Einige Menschen haben damals die Evakuierung nicht mitgemacht. „Ich konnte doch meine Tiere nicht allein lassen !“. Die haben das gut überlebt, wenn man einige einfache Regeln beachtet hat, und haben die Touristen begrüßt.

So war es auch in Deutschland. Am stärksten stiegen die Werte hierzulande im Voralpengebiet. Schon damals musste Fachleuten allerdings klar sein, dass die höheren Werte kaum ein gesundheitliches Risiko waren. Denn im Vergleich zur natürlich vorhandenen radioaktiven Hintergrundstrahlung fiel die Mehrbelastung bescheiden aus. Wie die deutsche Strahlenschutzkommission 1996 – zehn Jahr später – schätzte, mussten die Bewohner der Voralpengebiete mit einer totalen Mehrbelastung von gerade einmal 2,2 Millisievert klarkommen. Das war nur etwa ein Fünfzigstel der Dosis, die wegen der natürlichen Strahlung aus dem Weltall und dem Boden sowieso auf sie einwirkte.

Babys sollten nicht bei offenem Fenster schlafen

Dennoch waren die Reaktionen in Deutschland masslos. Die Medien schrieben von «radioaktiven Wolken», die über das Land hinwegziehen würden, und von «Fallouts», den sie verursachten. Die Behörden versicherten zwar einerseits, es bestehe keine Gefahr für die Bevölkerung, verfügten aber so viele Vorsichtsmassnahmen und gaben so viele Empfehlungen, dass die Menschen zum Schluss kommen mussten, dass das Gegenteil wahr ist.

So setzte die Strahlenschutzkommission Grenzwerte für Radioaktivität fest, etwa für Blattgemüse, Frischmilch und Gewürzkräuter. Daraus resultierten unzählige Verkaufsverbote. Auch die Bundesländer gaben eifrig eigene Grenzwerte heraus, die zum Teil absurd streng waren. Weiter schlossen die Behörden Kinderspielplätze und riegelten diese mit Sperrband ab, so dass jeder Passant die Botschaft «Achtung, Gefahr!» verstehen musste. Das deutsche Wetteramt warnte sogar davor, Babys nachts bei offenem Fenster schlafen zu lassen.

Überhaupt rieten die Behörden der Bevölkerung, bei Regenschauern nicht ins Freie zu gehen, sodass diese zum Schluss kommen mussten, dass der Begriff «Fallout» wohl zutreffend war. Bauern in Süddeutschland wurde gar verboten, ihren Kühen frisches Gras zu verfüttern. Die Behörden beschlagnahmten zudem zahlreiche Milchlieferungen aus der damaligen DDR und aus osteuropäischen Staaten.

Angst vor dem Strahlentod

All diese Massnahmen führten dazu, dass die Bevölkerung stark verunsichert war. Kaum jemand war sich darüber im Klaren, welche Risiken wirklich bestanden. In der Folge ging in den Supermärkten die haltbare Milch aus und Konserven waren beliebter als Frischware. Bauern forderten Entschädigungen für Ernteausfälle wegen der Strahlung. Flüge nach Australien oder den Kanarischen Inseln waren in dieser Zeit ausgebucht. Und besorgte Väter trugen den Sand aus den Buddelkisten ihrer Kinder und verfrachteten ihn in luftdichte Abfallsäcke.

2016 – 30 Jahre später – beschrieb die «Zeit» die damalige Panik vor der Radioaktivität mit treffenden Worten: «Die Vorfreude auf ein Picknick im Grünen am 1. Mai schlägt um in Angst vor Wiesen. Angst vor Regen. Angst vor dem Strahlentod.»

Die Wochen und Monate gingen vorbei und allmählich sank die gemessene Strahlung wieder auf normale, natürliche Werte. So weit bekannt, kam in Deutschland niemand wegen «Tschernobyl» zu Schaden. Dennoch hatte das Ereignis Folgen, die bis heute andauern: Die Meldungen über mögliche Zehntausende, ja sogar Hunderttausende Todesopfer wegen der Reaktorkatastrophe schreckte die Bevölkerung nachhaltig auf. Heute ist zwar klar, dass wegen der Kontamination im Umland des Havarie-Werks allenfalls einige Tausend Menschen zusätzlich ums Leben kamen. Doch bis heute werden haltlos hohe Opferzahlen bis zu einer Million herumgereicht.

Tschernobyl hatte politische Spätfolgen

Da viele Menschen überzeugt waren, dass auch in Deutschland erhebliche Strahlenrisiken drohten, erhielten die Organisationen der Atomgegner regen Zulauf. Das Land hatte der Kernenergie schon zuvor kritisch gegenübergestanden. Nach «Tschernobyl» gab es kein Halten mehr: Neue KKW zu bauen, war nun erst recht unmöglich. Jahre später wurde sogar der Ausstieg aus der Atomkraft beschlossen.

Deutschland ächzt heute unter hohen Strompreisen und leidet unter Deindustrialisierung. Massgeblich dafür verantwortlich ist der unselige und unnötige Ausstieg aus der Kernenergie, der vor drei Jahren abgeschlossen wurde. Man sieht, dass «Tschernobyl» doch Spätfolgen hatte – allerdings andere, als man 1986 dachte.

 




CO2-Messungen im 19. Jahrhundert: Was Chemiker fanden und warum es die Klimaforschung ignoriert

Das moderne Klimanarrativ ruht auf einem wackeligen Fundament: der Annahme, dass die atmosphärische CO2-Konzentration vor der Industrialisierung stabil bei etwa 280 ppm lag und erst durch den Menschen in die Höhe getrieben wurde. Doch wer in die wissenschaftliche Literatur des 19. und frühen 20. Jahrhunderts blickt, stößt auf eine Realität, die so gar nicht in das Weltbild von IPCC und Co. passen will.

von Dr. Peter F. Mayer

In der aktuellen Klimadebatte wird uns ständig erzählt, die vorindustrielle CO₂-Konzentration in der Atmosphäre habe stabil bei etwa 280 ppm gelegen. Erst durch den Menschen sei sie auf heutige Werte um die 420 ppm gestiegen. Das klingt dramatisch – und passt perfekt zur Narrative der Klimakrise. Doch was sagen die historischen Quellen aus dem 19. Jahrhundert selbst? Chemiker wie der Schweizer Nicolas Théodore de Saussure haben mit den damals besten Methoden gemessen. Und ihre Ergebnisse stehen schwarz auf weiß in den Standardwerken der Zeit: Meyers-Konversationslexikon und Fachliteratur wie dem Handwörterbuch der Chemie. Die Werte? Deutlich höher – und stark schwankend. Kein stabiler „vorindustrieller“ Pegel von 280 ppm.

Bereits Ende der 1820er Jahre führte de Saussure systematische Messungen durch. In seiner 1830 veröffentlichten Abhandlung „Ueber die Schwankungen des Kohlensäure-Gehalts der Atmosphäre“ dokumentierte er hunderte Analysen. Das Neues Conversations-Lexikon für alle Stände (1857) fasst es zusammen:

„10 000 Volumtheile Luft enthalten 4,15 Volumenth Kohlensäure, nach einem Mittel aus 104 Beobachtungen“.

Das entspricht exakt 415 ppm. Die Einzelwerte schwankten je nach Wetter, Standort und Jahreszeit zwischen etwa 315 und 574 ppm.

De Saussure erfasste sogar den realen jahreszeitlichen Zyklus – etwas, das moderne Modelle erst Jahrzehnte später „entdeckten“. (Quelle: de Saussure 1830, zitiert in zeitgenössischen Lexika und detailliert analysiert im EIKE-Dokument).

Genau diese Erkenntnisse finden sich auch im Meyers-Konversationslexikon (4. Auflage, 1888). Unter dem Stichwort „Kohlensäure“ steht unmissverständlich:

„CO₂ findet sich zu etwa 0,04 Proz. in der Atmosphäre“.

Das sind 400 ppm – kein Tippfehler, keine Schätzung aus dem Blauen, sondern die Zusammenfassung der besten damaligen Messungen.

Der Eintrag ist online in Wikisource nachlesbar.

Ähnlich verhält es sich im Handwörterbuch der Chemie (herausgegeben von Professor Albert Ladenburg). Auch dort werden de Saussures präzise chemische Methoden (Barytwasser-Methode mit Bariumhydroxid-Absorption) und die daraus resultierenden hohen atmosphärischen Werte dokumentiert. Die Lexika der damaligen Zeit waren keine Meinungsblätter, sondern Spiegel des wissenschaftlichen Konsenses unter den führenden Chemikern Europas.

Eine umfassende Zusammenstellung all dieser historischen chemischen Analysen liefert das Dokument „180 Jahre atmosphärischer CO₂-Gasanalyse mittels chemischer Methoden“ von Ernst-Georg Beck (EIKE, 2016).

Darin sind über 90.000 Messungen seit 1812 ausgewertet – darunter zahlreiche Serien mit der Pettenkofer-Methode ab 1857, die eine Genauigkeit von ±3 ppm erreichte. Die Werte zeigten Maxima um 1825, 1857 und sogar über 400 ppm in den 1940er Jahren. CO₂ folgte dabei natürlichen Temperaturschwankungen, nicht umgekehrt.

Die Selektion der Wahrheit

Warum haben wir diese Daten vergessen? Die Antwort liefert der Blick in die Geschichte der Klimamodelle. Callendar und Keeling, die architektonischen Väter der modernen Treibhaustheorie, haben ein bequemes Ausschlussverfahren angewandt: Alles, was nicht in ihre Hypothese eines „gleichmäßigen vorindustriellen Zustands“ passte, wurde als „ungenau“ oder „durch lokale Verschmutzung verfälscht“ abgetan.

Der IPCC und die moderne Klimaforschung berufen sich fast ausschließlich auf Eisbohrkerne, die angeblich einen stabilen Wert von 280 ppm vor 1850 zeigen. Historische chemische Messungen werden als „ungenau“ abgetan – obwohl sie mit den präzisesten Methoden der Zeit (titrimetrisch, gravimetrisch) durchgeführt wurden und von Kapazitäten wie de Saussure, Reiset, Schulze oder Farsky stammen. Chemiker wie Pettenkofer, deren Verfahren über ein Jahrhundert Standard waren, keineswegs ungenau; sie arbeiteten mit einer Präzision, die modernen Anforderungen standhalten würde.

Der Physiker und Chemiker Beck zeigt in seiner Arbeit, dass viele frühe Messungen sogar systematisch unterschätzt wurden (durch Schlauchabsorption oder Trocknungseffekte), was die realen Werte noch höher macht.

Die Konsequenz ist klar: Die These eines „stabilen vorindustriellen CO₂-Gleichgewichts“ bei 280 ppm ist eine nachträgliche Konstruktion. Die Realität des 19. Jahrhunderts war eine schwankende, oft deutlich höhere Konzentration – ohne dass die Welt unterging.

CO₂ ist kein „Treibhausgift“, sondern ein natürlicher Bestandteil der Atmosphäre, der Pflanzenwachstum antreibt und auf Temperaturveränderungen reagiert.

Wer sich die Mühe macht, die Originalquellen zu lesen – Meyers-Konversationslexikon, Handwörterbuch der Chemie oder Becks 180-Jahre-Auswertung – erkennt schnell: Die Klimahysterie basiert nicht auf der vollständigen historischen Evidenz, sondern auf einer selektiven Auswahl. Die Chemiker des 19. Jahrhunderts hatten keine politische Agenda. Sie maßen einfach, was da war. Und das war mehr CO₂, als uns heute erzählt wird.

Links zu früheren TKP-Beiträgen zum Thema finden Sie unterhalb 👇

Der Beitrag erschien zuerst bei TKP hier