Die terrestrische Temperaturgenese: Jede einzelne von 86.400 Sekunden des 24h-Tages zählt!

Uli Weber

Ein 24h-Tagesdurchschnitt für ein Feuerwerk macht wenig Sinn. Und der Ablauf von zeitabhängigen Vorgängen auf einem rotierenden dreidimensionalen Planeten, der sich zudem noch mit geneigter Rotationsachse um sein Zentralgestirn bewegt, ist weder leicht zu beschreiben noch einfach zu verstehen. Dieses Problem kann aber auch nicht dadurch gelöst werden, dass man einen solchen Ablauf hinter einem eindimensionalen Durchschnittswert versteckt und damit dann mutwillig eine globale Klimakatastrophe ausruft. Denn ein Modell von irgendetwas sollte dieses Irgendwas zumin­dest in seinen grundlegenden Prinzipien zutreffend abbilden und dabei dem Original möglichst nahe kommen. Ein vorgebliches Modell aber, das unter Verletzung der thermodynamischen Hauptsätze eine physikalisch nicht nachweis- und technisch nicht reproduzierbare Hilfskonstruktion benötigt, ohne sich dem zu beschreibenden Original auch nur ansatzweise nähern zu können, ist von vorn herein für die Tonne. Nun, der eingefleischte EIKE-Leser wird an Titel und Autor längst erkannt haben, dass es hier wieder einmal um die hemisphärische Sichtweise auf die terrestrische Temperaturgenese geht. Und die üblichen Verdächtigen können an dieser Stelle schon mal spontan ihre Tastaturen quälen und ihren Frust in die Kommentarfunktion einhacken. Denn selbstverständ­lich hat es der Autor auch diesmal nicht geschafft, sein hemisphärisches Konvektionsmodell mit ein paar wenigen Sätzen und einem eindimensionalen Durchschnittswert zu erklären. Vielmehr folgt hier ein erneuter Versuch, dem interessierten Leser die prinzipielle hemisphärische Betrachtung über das Stefan-Boltzmann-Gesetz – in dem bekanntermaßen die Zeit überhaupt nicht vorkommt, und das damit auch nicht auf einen zeitabhängigen Durchschnittswert aus [sek/sek] anwendbar ist – aus einem veränderten Blickwinkel erneut nahe zu bringen.

Fangen wir einmal mit den Ozeanen unserer Erde an, die gut zwei Drittel ihrer Oberfläche bedecken. Diese Ozeane sind niemals kalt gewesen, sondern sollen sich nach gängiger Theorie aus den Einschlägen von Eiskometen gebildet haben, die unsere Erde vor Milliarden von Jahren in ihrer „heißen“ Phase „aufgesammelt“ hatte. Mit Abkühlung der Erde von der Weißglut auf unter 100°C kondensierte dann auch zunehmend der Wasserdampf und bildete schließlich unsere Ozeane:

Abbildung 1: Entstehung der Weltmeere (aus dem Titelbild meines aktuellen Buches abgeleitet)

In den Ozeanen ist bis heute eine gewaltige Menge an Energie gespeichert, nach sehr vorsichtiger Schätzung ein Äquivalent von etwa 50.000 Tagen globaler Sonneneinstrahlung. Aus diesem Wärmereservoir wird der nächtliche – und winterliche – Temperaturabfall abgemildert, denn nur auf kontinentalen Landmassen unterscheiden sich Tag- und Nachttemperatur um zweistellige Celsiuswerte, während die durchschnittliche globale Temperatur der Ozeane dauerhaft um etwa 20°C liegt.

HINWEIS: Der Autor hatte sich in dem Artikel „Machen wir mal ein Gedankenexperiment: Es gibt gar keine Erde!“ einmal Gedanken über die Entwicklung einer tiefgekühlten „Laborerde“ hin zu ihrem aktuellen eingeschwungenen Ist-Zustand gemacht. Die Rolle der Ozeane für die Nachttemperatur wird in dem Artikel „Die sogenannte ‚gemessene globale Durchschnitts­temperatur‘ wird von den Ozeanen bestimmt“ beschrieben. Zusätzliche Informationen sind in den Artikeln „Sprechen wir mal über die Schneeball-Erde“ – Teil 1 und Teil 2 zu finden.

Wir haben jetzt also zunächst einmal den Warmwasserspeicher unserer Erde kennengelernt, der mit etwa 20°C deutlich wärmer ist, als es die ominöse „gemessene globale Durchschnittstemperatur“ von etwa 15°C vorgibt. Daraus lässt sich schon einmal ableiten, dass die Durchschnittstemperatur über alle Landmassen unserer Erde etwa 3°C betragen muss, um global wieder auf diese ominösen 15°C zu kommen. Der wesentliche Unterschied zwischen Landmassen und Ozeanen besteht in der unterschiedlichen Art des meridionalen Wärmetransports entlang der Längenkreise von warm nach kalt. Die Landmassen speichern relativ wenig Energie und der Abfluss von Wärme geschieht über atmosphärische Konvektion sowie Verdunstung. Die Ozeane nehmen dagegen relativ viel Energie auf und der Wärmetransport erfolgt über die globale thermohaline Zirkulation sowie ebenfalls über Verdunstung; eine atmosphärische Konvektion findet über den Ozeanen dagegen nicht statt. Generell erfolgt also auf den Landmassen ein schneller Wärmetransport, während die Ozeane durch einen langsamen Wärmetransport gekennzeichnet sind. Bis hier hin unterscheiden sich das hemisphärische Konvektionsmodell und das Faktor4-THE-Paradigma noch nicht, weil beide behaup­ten, die gegenwärtige Temperatur unserer Erde aus der eigenen Modellvorstellung heraus erklären zu können. Das Faktor4-THE-Paradigma kann allerdings unter Umgehung der thermody­namischen Hauptsätze lediglich einen ominösen Globaldurchschnitt darstellen, indem es dafür seinen eindimensionalen „natürlichen atmosphärischen Treibhauseffekt“ konstruiert. Das hemisphärische Konvektionsmodell kann dagegen, wie wir später noch sehen werden, aus sich heraus nicht nur ganz zwanglos eine tages- und jahreszeitliche Temperatur­verteilung über alle Breitenkreise unserer Erde herleiten, sondern auch deren sogenannte „gemessene globale Durchschnittstemperatur“: Abbildung 2: Geometrie und Rechenweg im Äquinoktium mit Sonnenstand über dem Äquator

Links: Die geometrischen Verhältnisse auf der sonnenbestrahlten Erde mit der sogenannten „gemessenen globalen NST“, die beim Faktor4-Modell einen sogenannten THE erfordert

Rechts: Summation von S-B-Inversionen für konzentrische Mantelringe von 1° geografischer Breite von 0°-90° als Grundlage für einen flächennormierten Temperaturdurchschnitt von 14°C

Vielfach wird jetzt argumentiert, im hemisphärischen Konvektionsmodell würde die Erde ja gar nicht rotieren und dieses Modell benötige zwei Sonnen, weil die Nachtseite ewig dunkel bliebe. Das ist natürlich völliger Bullfish, denn im Stefan-Boltzmann-Gesetz kommt die Zeit nun einmal gar nicht vor, und das muss natürlich genauso für eine Inversion dieses Gesetzes gelten.

HINWEIS: Die S-B-Inversion wird in dem EIKE-Artikel „Handreichung zum besseren Verständnis der Stefan-Boltzmann-Inversion“ ausführlich beschrieben.

Von daher stellt die obige Grafik lediglich eine Momentaufnahme für die rotierende Erde dar, und wenn Sie so wollen, dann können Sie diese Grafik auch als Schnappschuss aus der Abfolge von 86.400 Sekunden des 24h-Tages verstehen. Denn dieses Rechenschema dreht sich mit dem Fußpunkt der Sonne bei 12h auf dem Äqua­tor kontinuierlich über den 24h-Tag einmal 360° um die gesamte Erde.

HINWEIS: Die Details dieser hemisphärischen Berechnung sind in dem EIKE-Artikel „Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ zu finden. Dort wird auch nachgewiesen, dass diese Berechnung implizit von Gerlich und Tscheuschner (2009) mit 15°C bestä­tigt wird, wenn man deren Faktor4-Widerspruchsbeweis auf die Tageshemisphäre zurückrechnet.

Die nachstehende Abbildung dokumentiert das 24h-Ergebnis dieser Berechnung im Äquinoktium für Ortslagen auf der rotierenden Erde. Sie können sich dieses Ergebnis als eine Abfolge von 86.400 aufeinanderfolgenden Einzelaufnahmen für die Schnittpunkte der oben abgebildeten konzentrischen Mantelringe mit den Breitenkreisen 0°-20°-40°-60°-80° vorstellen. Und zwischen diesen Einzelauf­nahmen dreht sich die Erde in jeder Sekunde des 24h-Tages jeweils um 15 Bogensekunden weiter:

Abbildung 3: Die örtliche Temperaturgenese im Äquinoktium in Abhängigkeit von Tageszeit und geogr. Breite (gilt für N und S) bei einem Sonnenstand @12h für alle 86.400 Sekunden des 24h-Tages.
Die 12h-Zentrierung der Grafik läuft mit dem Sonnenstand über die gesamte 24h-Erdrotation mit.

Links: Der tageszeitliche örtliche Verlauf des temperaturwirksamen Anteils der örtlichen Sonneneinstrahlung

Rechts: Das örtliche S-B-Temperaturäquivalent aus einer S-B Inversion der tageszeitlichen temperaturwirksamen örtlichen Sonneneinstrahlung

Hinweis: Alle Berechnungen der solaren Einstrahlung und die S-B-Inversion für das S-B Temperatur­äquivalent wurden, passend zur jeweiligen Aufgabenstellung, mit der Solarkonstanten, der Albedo, der S-B-Konstanten, dem Sinus für den Azimut und dem Cosinus für den Zenitwinkel durchgeführt.

Wie G&T (2009) bereits nachgewiesen hatten, kann das Faktor4-THE-Paradigma die Temperatur­genese auf unserer Erde aus sich heraus gar nicht erklären. Vielmehr müsste der sogenannte „natürliche atmosphärische Treibhauseffekt“ von vorgeblich eindimensionalen 33 Kelvin nach der Integral­lösung von G&T sogar 144 K betragen. Hier also trennen sich die Wege des hemisphä­rischen Konvektionsmodells und des Faktor4-THE-Paradigmas endgültig – allein das hemisphä­rische Konvektionsmodell hat vor der Realität der terrestrischen Temperaturgenese Bestand.

Die nachfolgende Abbildung zeigt den Unterschied zwischen Nordsommer und Südsommer und wurde aus dem hemisphärischen Konvektionsmodell hergeleitet: Abbildung 4: Breitenabhängiger Verlauf des maximalen S-B Temperaturäquivalents (schwarze Kurve) und einer tentati­ven Durchschnittstemperatur zum Zeitpunkt der jeweiligen Sonnenwenden (rote Linie) mit farblich unterlegten Differenzen

Links: Sommersonnenwende = Nordsommer Rechts: Wintersonnenwende = Südsommer

Blau: Konvektiv und durch Verdunstung in die globalen Strömungssysteme abgeführte Wärme

Rot: Advektiv und durch Kondensation aus den globalen Strömungssystemen zugeführte Wärme

Wie wir weiter oben bereits gesehen haben, bestimmt der Wärmeinhalt der Ozeane die Nachttemperatur unserer Erde. Das gilt aber nicht nur für die Nacht des 24h-Tages, sondern auch für die Polarnacht. Das Nordpolarmeer und das Südpolarmeer sind mit marinem Oberflächeneis und kontinentalem Gletschereis bedeckt, während der Permafrost auf den das Nordpolarmeer umgebenden Landflächen bis in Tiefen von über 1.000 Meter reicht. Zumindest das Nordpolarmeer hätte also ohne einen permanenten Zufluss von Wärme aus mittleren und niederen geografischen Breiten eine gute Chance, in der Abfolge der Nordwinter bis auf den Meeresgrund durchzufrieren. Die nachstehende Abbildung verdeutlicht nochmals die große Variabilität der Sonneneinstrahlung im Verlauf des Jahres über alle geografischen Breiten: Abbildung 5: Der Jahresverlauf des maximalen S-B Temperaturäquivalents für die geografischen Breitenkreise von 80° Nord bis 80° Süd aus einer Inversion der maximalen Albedo bereinigten örtlichen Sonneneinstrahlung

Die eindimensionalen Temperaturvorgaben des THE-Paradigmas sind als rote Linien eingezeichnet

Diese Abbildung verdeutlicht für den Jahresverlauf die Konstanz der Sonneneinstrahlung in den Tropen als Klimamotor unserer Erde. Daran anschließend steigen die jahreszeitlichen Einstrahlungs­unterschiede mit wachsender geografischer Breite immer weiter an und gipfeln in hohen Breiten schließlich in Polartag und Polarnacht. Die zum Vergleich als rote Linien eingezeichneten eindimensionalen Temperaturangaben des Faktor4-THE-Paradigmas vermitteln dagegen keinerlei jahreszeitliche oder geografische Orientierung – und schon gar keinen Erkenntnisgewinn – sondern sind in ihrem erbarmungswürdig miserablen Modellbezug zur Klimagenese auf unserer Erde wirklich nicht mehr zu toppen. Denn trotz intensiver Suche ist keinerlei grafisches Material zur räumlichen und zeitlichen Verbreitung des sogenannten „natürlichen atmosphärischen Treibhauseffektes“ im Internet aufzufinden, nicht einmal für die Polarnacht ohne Sonneneinstrahlung. Das Faktor4-THE-Paradigma vermittelt also keinerlei Bezug zur Realität in Zeit und Raum, sondern ignoriert mit seinem klimareligiösen Glaubensbekenntnis, ‘minus 18°C „Normaltemperatur“ plus 33 Kelvin THE ergäbe die gemessene globale Durchschnittstemperatur von 15°C‘, die Realität auf unserer Erde völlig:

  • Das eindimensionale Faktor4-THE-Paradigma ignoriert den stetigen Wechsel von Tag und Nacht auf unserer Erde.
  • Das eindimensionale Faktor4-THE-Paradigma ignoriert die Breitenabhängigkeit der solaren Einstrahlung [altgriechisch „κλίμα“ (=Klima)] auf unserer Erde.
  • Das eindimensionale Faktor4-THE-Paradigma ignoriert den permanenten Wechsel der Jahreszeiten auf dem Weg unserer Erde um ihr Zentralgestirn.

Und während dieses eindimensionale Faktor4-THE-Paradigma interessierten Kreisen dabei hilft, Angst und Schrecken zu verbreiten, um uns in ein dekarbonisiertes neues Mittelalter zu zwingen, lassen sich mit dem hemisphärischen Konvektionsmodell die tatsächlichen Abläufe der terrestrischen Temperaturgenese sogar noch tiefergreifender analysieren, wie die nachfolgende Abbildung beweist: Abbildung 6: Jahresverlauf der Differenz zwischen täglicher maximaler temperaturwirksamer solarer Einstrahlung in W/m² und dem zugehörigen Strahlungswert im Äquinoktium auf der Nordhalbkugel

Das Kurvenbündel [Diff @ 0°-80°N] macht deutlich, dass die größte Veränderung der solaren Einstrahlung um die Äquinoktien des Frühlings- und des Herbstpunktes erfolgt. In diesem Zeitabschnitt ist die Veränderung der örtlichen solaren Strahlungsleistung etwa doppelt so groß wie um die Sommer- und Wintersonnenwende. Und deshalb ist das Wettergeschehen um die Äquinoktien herum auch so intensiv, man denke nur einmal an die Frühjahrs- und Herbststürme.

Die Abbildungen 3 bis 6 zeigen Tages- bzw. Jahresverläufe der solaren Einstrahlung sowie deren Breitenabhängigkeit, der Einfachheit halber oft im Äquinoktium. Denn der Arbeitsaufwand für die Einbeziehung der Achsneigung unserer Erde in solche Berechnungen verhält sich umgekehrt proportional zu Verständnisstiftung der resultierenden Grafiken. Die Grundlagen für das hemisphärische Konvektionsmodell bestehen aus der Solarkonstanten, der Albedo, dem Stefan-Boltzmann-Gesetz sowie den trigonometrischen Winkelfunktionen für die geometrischen Abläufe bei der solaren Bestrahlung unserer Erde – und das isses auch schon! Das Faktor4-THE-Paradigma steht dagegen mit drei jeweils eindimensionalen Zahlenwerten sehr viel schlechter da:

Abbildung 7: Die Grundlagen des CO2-Klimaglaubens bestehen aus 3 eindimensionalen Zahlenwerten

Wir können den CO2-Glaubenssatz aus Abbildung 7 [-18°C + 33K = 15°C] auch umkehren, um den Glaubenseffekt im Faktor4-THE-Paradigma noch deutlicher herauszuarbeiten:

Trotz der offensichtlichen Abhängigkeit der temperaturbestimmenden solaren Einstrahlung auf unserer Erde von Tages- und Jahreszeit sowie der örtlichen geografischen Breite liefert das Faktor4-THE-Paradigma lediglich 3 eindimensionale Zahlenwerte. Diese eindimensionalen Zahlenwerte behalten dann ihre universal-globale Gültigkeit bis hinein in die Polarnacht.

Folgerichtig sind trotz intensiver Suche im Internet nirgendwo irgendwelche Grafiken über die räumliche und zeitliche Verteilung des sogenannten „natürlichen atmosphärischen Treibhauseffektes“ aufzufinden. So, und nun wenden wir uns abschließend noch einmal dem hemisphärischen Konvektionsmodell zu. Die nachfolgende Abbildung stellt 4 charakteristische Zeitpunkte des 24h-Tages im Äquinoktium dar, nämlich Sonnenaufgang, Mittag, Sonnenuntergang und Mitternacht:

Abbildung 8: Die Beleuchtung der Erde über die 86.400 Sekunden des 24-h-Tages im Äquinoktium

Anmerkung: Diese ungewöhnliche grafische Darstellung für die Eigenrotation der Erde wurde gewählt, um insbesondere das Berech­nungsschema auf 12 Uhr aus Abb. 2R in seinem Verhältnis zur Sonne verständlich abzubilden. Dabei entspricht dieser 24h=360°-Umlauf einer starr stehenden Erde im Uhrzeigersinn um die Sonne, allein auf die Beleuchtung der Erde bezogen und von oben (N) gesehen, genau der 24h=360°-Eigenrotation unserer Erde gegen den Uhrzeiger in Abb.2L.

Auf 12 Uhr finden wir das bekannte Berechnungsschema aus Abbildung 2R. Dort ist die solare Einstrahlung umgekehrt proportional zum Radius der Mantelringe für die Tempertaturberechnung, Das heißt, am Fußpunkt der Sonne auf dem Äquator ist die Einstrahlung mit der kleinsten Mantelringfläche am größten und reduziert sich dann sukzessive zum randlichen Übergang zur Nachtseite mit der größten Mantelringfläche gegen Null. Aus Abbildung 8 wird also unmittelbar deutlich, dass dieses Berechnungsschema für die augenblickliche Sonneneinstrahlung im Äquinoktium, das für sich allein bereits ein flächennormiertes S-B-Temperaturäquivalent von 14°C liefert, tatsächlich nur einen Augenblickswert aus den 86.400 Sekunden des 24h-Tagesablaufs darstellt, während der tatsächliche Verlauf über 24h ganz anders aussieht: Abbildung 9: Vergleich des maximalen S-B-Temperaturäquivalents mit gemessenen Temperaturen

Links: Die solare Einstrahlung über einen ganzen 24-Stunden-Tag im Äquinoktium (2020) mit farblich unterlegter Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

Linke Skala: Maximale breitenabhängige temperaturwirksame solare Strahlungsleistung
Rechte Skala: Maximales breitenabhängiges S-B-Temperazuräquivalent

Rechts: Annual Mean Temperature – Quelle: Wikipedia – Autor: Robert A. Rohde – Lizenz GFDL

Kombination von 10′ CRU CL 2.0 archive copy mit den 1° NOAA OISST version 2 archive copy und den 2.5° NCEP/NCAR Reanalysis version 1 archive copy sowie kleineren Verbesserungen für 1961-1990

Die beiden Grafiken in Abbildung 9 stimmen in der flächenmäßigen Farbverteilung recht ordentlich überein, auch wenn das maximale S-B-Temperaturäquivalent (links) deutlich höher ist als die durchschnittlich gemessene Ortstemperatur (rechts). Über den 24h-Tagesverlauf kehrt sich das in Abbildung 2 (rechts) beschriebene Flächenverhältnis für das konzentrische Berechnungsschema um. Denn die maximale solare Einstrahlung fällt entlang der Längenkreise zu höheren geografischen Breiten ab, während sie mit dem Fußpunkt des solaren Zenits über den 24h-Tagesverlauf wandert.

Das Faktor4-THE-Paradigma arbeitet entgegen den beiden Grafiken in Abb. 9 mit einer global universellen Anwendung von drei eindimensionalen Zahlenwerten über alle Zeiten und Räume bis hin in die finstere Polarnacht, bei dem alle Unterschiede durch den Mixer gehen. Da nun aber die Missionare des Klimawahns mit solchen Durchschnittswerten hausieren zu gehen pflegen und sich diese Durchschnittswerte tief in das Verständnis ihrer Opfer eingegraben haben, macht eine generelle Diskussion über die Sinnfälligkeit solcher Durchschnittswerte wenig Sinn – denn da muss man schon dagegenhalten. Denn auch Durchschnittswerte haben durchaus ihre Berechtigung, sind aber eine Einbahnstraße für die tiefere Erkenntnis, weil von dort aus nun einmal kein Weg zu irgendeiner Originalverteilung zurückführt. Denn mit dem Weg von Ortslage zu Region, über Staat und Kontinent hinweg bis zur gesamten Erde verlieren sich zunehmend die direkten Bezüge und die physikalischen Gesetzmäßigkeiten.

Auch auf die Gefahr hin, erneut eine unsägliche Durchschnittsdiskussion loszutreten, werde ich nachfolgend ein Beispiel dafür zeigen, was allein mit dem hemisphärischen Konvektionsmodell durch eine Durchschnittsbildung über die Solarkonstante, die Albedo, das Stefan-Boltzmann-Gesetz sowie die trigonometrischen Winkelfunktionen möglich ist:

Abbildung 10: Flächennormiertes hybrides S-B-Temperaturmodell im Äquinoktium

Temperatur Tagseite: Durchschnittstemperatur aus breitenparallelen und flächennormier­ten Mantelring-Hälften mit dem maximalen S-B-Temperaturäquivalent analog zu Abb. 9 (links)

Temperatur Nachtseite: Flächennormierte mittlere Meerestemperaturen, tentativ aufgeteilt auf Polarkalotten (=-4°C), mittlere Breiten (=15°C) und Tropen (=30°C) mit der Begründung, dass etwa 70% der Erdoberfläche von Meeren bedeckt sind

Dieser flächennormierte hybride globale Ansatz ist ein erster Versuch, eine hemisphärische Globaltemperatur inklusive der Nachtseite zu formulierten. Das rein rechnerische Ergebnis von 39,9°C sollte man daher nicht allzu ernst nehmen, zumal bei der örtlichen solaren Temperaturgenese ständig Wärme in die globalen Zirkulationssysteme abfließt. Allerdings beträgt das zugehörige S-B-Leistungsäquivalent für diese 39,9°C etwa 544 W/m². Bezüglich der „gemessenen globalen Durchschnittstemperatur“ von 15°C mit 390 W/m² stehen also etwa 154 W/m² echte physikalische Leistung (x Zeit) für den Wärmeabfluss in die globalen Strömungssysteme zur Verfügung. Dies ist ein recht befriedigendes Ergebnis für eine erste grobe Annäherung meines hemisphärischen Konvektionsmodells an die globale Verteilung der Temperatur.

Ein Vergleich mit Abbildung 9 rechts zeigt, dass die klare Trennung zwischen Tropen und mittleren Breiten im hybriden Modell nicht der Realität entspricht. Vielmehr reichen in der Realität hohe Durchschnitts­tempera­turen nach Norden und Süden über den 45. Breitenkreis hinaus und gehen dann erst später auf negative Werte zurück. Beide Darstellungen vermittelt jedenfalls sehr eindrücklich, dass die Tropen mit der stärksten solaren Einstrahlung als Klimamotor unserer Erde fungieren, während sich die Polkalotten als Wärmesenken erweisen. Damit ist dann auch die Richtung des globalen Energietransports aus den Tropen zu den Polkalotten physikalisch zwingend vorgegeben. Dort wird nämlich umgekehrt das S-B-Temperaturäquivalent meist gar nicht erreicht, sodass die Ortstemperatur durch Advektion von Wärme aus mittleren Breiten und den Tropen gestützt werden muss. Im Abgleich mit dem THE-Schamdreieck aus Abbildung 7 ist dies eine weiterer Beweis dafür, dass unsere Erde zur Aufrechterhaltung der sogenannten „gemessenen globalen Durchschnittstemperatur“ von etwa 15°C keinerlei Unterstützung von irgendwelchen Ignoranten der thermodynamischen Hauptsätze benötigt.

ERKENNTNIS: Das eindimensionale Faktor4-THE-Paradigma wurde der Temperaturgenese auf unserer Erde willkürlich übergestülpt und verschleiert deren natürliche Mechanismen zugunsten der CO2-Klimareligion. Wer also tatsächlich glaubt, dieses antiphysikalische Paradigma sei ein zutreffendes Klimamodell für unsere Erde, der muss auch zwangsläufig an die vom Klimavatikan IPCC geweissagte menschengemachte Klimakatastrophe glauben – denn beide sind nun einmal rein klimareligiöse Glaubensbekenntnisse und haben mit seriöser Physik überhaupt nichts zu tun.

Es ist nicht möglich, eingefleischte Anhänger des CO2-Aberglaubens von der antiphysikalischen Natur dieses sogenannten THE zu überzeugen. Der interessierte Leser hingegen, der sich von der Klimakir­che keine „designte Wirklichkeit“ verkaufen lässt, mag in der nachfolgenden selbst erklärenden Gegen­über­stellung der beiden konkurrierenden Modelle vielleicht einige neue Erkenntnisse finden: Abbildung 11: Vergleich von Faktor4-THE-Paradigma und hemisphärischem Konvektionsmodell

Das Faktor4-THE-Paradigma beruht auf einer Falschanwendung des physikalischen Stefan-Boltzmann-Gesetzes [Temperatur=>Strahlungsleistung] als mathematische Formel. Die Verwendung eines 24h-Leistungsdurchschnitts (Faktor4= ein Viertel der Solarkonstanten) bei der Inversion des S-B-T^4-Augenblicksgesetzes [Strahlungsleistung=>Temperatur] verlässt unwiderruflich die Grenzen der Physik und ist reine – und physikalisch falsche – Mathematik. Die Details dieser physikalisch falschen Berechnung werden in dem EIKE-Artikel „Schwarzschild und die Lösung der Strahlungstransfergleichung – ein physikalischer Hütchentrick?“ dargestellt. Der physikalisch falsche Faktor4 für die Solarkonstante geht nämlich als Randbedingung in die Lösung der Strahlungs­transfergleichung ein und führt damit zwangsläufig zu dem ominösen THE als Konstante zur Angleichung der physikalisch falsch berechneten „natürlichen“ Temperatur unserer Erde an die sogenannte gemessene globale Durchschnittstemperatur.

ANHANG: Anmerkungen zur sogenannten Globaltemperatur

Da die sogenannte „gemessene globale Durchschnittstemperatur“ (NST) von etwa 15°C die Prophezeiungen aus den Computermodellen des Klimavatikans IPCC nicht zu erfüllen beliebt, zeitnah bis hin zur Selbstverbrennung unserer Erde anzusteigen, musste man sich in den aktivistisch-alimentierten Klimawissenschaften zunächst mit einer unqualifizierten Absenkung der historischen Temperaturdaten behelfen, um die Differenz zu heute gemessenen Temperaturen entsprechend zu vergrößern. Dagegen erfordert eine wissenschaftlich korrekte Angleichung zwischen zwei unterschiedlichen Instrumentierungen einen jahre- oder gar jahrzehntelangen Parallelbetrieb beider Systeme am selben Ort, um daraus dann eine seriöse Transferfunktion ableiten zu können. Das war bei den historischen Temperaturmessungen natürlich unmöglich, hätte aber der Umstellung von Analogmessungen auf Digitalinstrumente Ende des vergangenen Jahrhunderts sehr wohl angestanden – ist aber auch da nicht erfolgt und war gleichzeitig sogar mit sporadischen Wechseln der Ortslage verbunden. Am Ende resultiert eine solche willkürliche Absenkung von echten Messwerten natürlich auch zwangsläufig in der Reduzierung des zugehörigen Durchschnittswertes, der vom DWD für den „Referenzzeitraum (1951- 1980)“ inzwischen mit 14°C angegeben wird. Stefan Rahmstorf hatte diese Sichtweise am 12. Februar 2018 auf SciLogs zu begründen versucht:

Abbildung 12: Textausschnitt Rahmstorf auf SciLogs (2018) zum 14°C#15°C-Problem

Halten wir daraus fest: NOAA hatte die Globaltemperatur noch für 2016 mit 14,83°C angegeben.

Und selbst die Deutsche Akademie der Wissenschaften (Leopoldina), zu deren ehemaligen Mitgliedern auch Milutin Milanković zählt, der Entdecker der erdbahnbedingten Eiszeitzyklen, hat sich dieser Globaltemperatur von 14°C angeschlossen. Der Autor erinnert sich aber, dass bei Drucklegung seines ersten Klimabuchs „Klimahysterie“ (2012-Farbe/SW) die NST noch generell mit 14,8°C angegeben worden war. Auch für die erste Hälfte des 20. Jahrhunderts, also 50 bis 100 Jahre nach dem Ende der kleinen Eiszeit, das gemeinhin mit dem Jahr 1850 angegeben wird, sind deutlich höhere Werte als 14°C für die Globaltemperatur überliefert:

Bei Svante Arrhenius wird in der Veröffentlichung „Die vermutliche Ursache der Klimaschwankungen“ (1906) die gemessene Globaltemperatur mit 15°C benannt:

Abbildung 13: Die Globaltemperatur bei Arrhenius „Die vermutliche Ursache der Klima­schwankungen“ (1906) auf Seite 3

Und auch Milutin Milanković gibt in seinem Werk „Kanon der Erdbestrahlung und seine Anwendung auf das Eiszeitproblem“ (1941) die globale Durchschnittstemperatur mit 15°C an:

Abbildung 14: Die Globaltemperatur bei Milanković „Kanon der Erdbestrahlung“ (1941)

Wir stehen also vor dem Paradoxon, dass die sogenannte „gemessene globale Durchschnitts­temperatur“ von anerkannten Wissenschaftlern noch bis ein Jahrhundert nach der Kleinen Eiszeit mit etwa 15°C angegeben worden war. Erst in neuester Zeit taucht mit den ominösen 14°C eine niedrigere Temperatur für die historische Globaltemperatur in der wissenschaftlich-medialen Darstellung auf und stellt sich damit in Widerspruch zu den wissenschaftlichen Erkenntnissen des 20-sten Jahrhunderts und bis in das 21-ste Jahrhundert hinein. Als einzige Erklärung für diesen Widerspruch bleibt die Vermutung, dass die pekuniär abhängigen Klimawissenschaften damit ihren dringend erforderlichen 1°C-Beitrag zur globalpolitisch gewollten Großen Transformation ins wirtschaftliche Mittelalter geliefert haben. Denn anders würde die UN-Globalpolitik wohl kaum zu den erforderlichen Pariser 1,5°C (2015) kommen, um im Klimawahn endlich so richtig loslegen zu können…

Bleiben wir also mit einer gemessenen durchschnittlichen Globaltemperatur von etwa 15°C bei den schriftlich niedergelegten Temperaturwerten von Arrhenius und Milanković sowie der Erinnerung des Autors und dem Rahmstorf’schen Sekundärzitat auf die NOAA. Und auch die hemisphärische Herleitung der Durchschnittstemperatur für die Tagseite unserer Erde hatte diese Temperatur (für die selbstverständlich rotierende Erde!) zu 15°C ermittelt und wird durch die Berechnungen von Milanković (Abb. 14) bestätigt; mein Rechenschema ist in Abbildung 2 (rechts) dargestellt. Diese Globaltemperatur unserer Erde ist bis heute also über mehr als ein Jahrhundert unverändert geblieben. Sie stellt damit den ultimativen wissenschaftlichen Beweis dar, dass die Energiebilanz unserer Erde im zeitlichen Durchschnitt der WMO-Klimadefinition über diesen gesamten Zeitraum von mehr als einem Jahrhundert unverändert geblieben ist. Diese gleichbleibende Globaltemperatur widerlegt den religiösen Klimaalarmismus; denn wäre es in diesem Zeitraum auf unserer Erde wärmer oder kälter geworden, hätte die Globaltemperatur steigen oder sinken müssen. Und durch CO2 erfolgt klimaphysikalisch überhaupt nix – nämlich kein antiphysikalischer zusätzlicher Energieeintrag in unsere Atmosphäre entgegen den Hauptsätzen der Thermodynamik.

 

 




Klimapolitik: Die EU-Zensurmaschinerie läuft heiß – EIKE vielfach benannt

Eine skeptische Haltung zur Klima-Katastrophen-Erzählung soll nach dem Willen der EU nicht mehr statthaft sein. Repressions- und Zensurmassnahmen werden brachial vorangetrieben, Meinungs- und Pressefreiheit sollen weg.

von Martina Binnig

Auf seinem Blog „Geld und mehr“ weist Norbert Häring aktuell auf die Veröffentlichung „HEAT: Harmful Environmental Agendas & Tactics“ (zu deutsch: „Schädliche umweltpolitische Agenden und Taktiken“) der Nichtregierungsorganisation EU DisinfoLab vom 23. Juni hin. Die nach eigenen Angaben „unabhängige Non-Profit-Organisation“ untermauert mit dieser Veröffentlichung die Klimapolitik der EU – und wird gleichzeitig von der EU finanziert. Selbstbewusst behauptet sie, dass sie „Wissen und Expertise über Desinformation in Europa“ sammelt. Dabei versteht sie sich als „aktives Mitglied einer leidenschaftlichen und großen Gemeinschaft, die dabei hilft, Desinformationen aufzudecken, zu bekämpfen und zu verhindern, welche die Integrität der Bürger, das friedliche Zusammenleben und die demokratischen Werte gefährden.“

Hinter diesen hehren Zielen verbirgt sich jedoch einmal mehr die Taktik der EU-Kommission, die lästige Zensur von kritischen Stimmen an eine angeblich unabhängige Organisation zu delegieren, die ihr diese schmutzige Arbeit gegen gute Bezahlung abnimmt. Dabei ist EU DisinfoLab schon lange im Geschäft. Wie achgut bereits im Frühjahr vergangenen Jahres berichtete, wurde EU DisinfoLab als „lebendiges Zuhause für Desinformationsaktivisten und Experten“ 2017 in Brüssel gegründet und organisierte dort gleich ein Jahr später gemeinsam mit dem Atlantic Council eine Konferenz zum Thema Desinformation. Der Atlantic Council wiederum ist ein Dinosaurier unter den Think Tanks („Denkfabriken“): Er wurde 1961 in Washington ins Leben gerufen und gab ebenfalls im Jahr 2018 eine Broschüre mit dem Titel „Wessen Wahrheit? Souveränität, Desinformation und der Sieg im Kampf um Vertrauen“ heraus. Darin forderte er bereits, dass Regierungen Konsequenzen gegenüber „Desinformationen in sozialen Netzwerken“ ergreifen müssten, um „deren negative Auswirkungen zu begrenzen“. Außerdem schlug er vor, dass Online-Medien ihre Kommentarspalten deaktivieren sollten, um die Verbreitung von „falschen Informationen“ in den Anmerkungen der Leser zu verhindern.

In seinem Jahresbericht 2022/2023 stellte der Atlantic Council dann fest, dass 2022 das erfolgreichste Jahr in der Geschichte des Atlantic Council gewesen sei, da seine Arbeit dazu beigetragen habe, „politischen Entscheidungsträgern und der Öffentlichkeit Lösungen für die schwierigsten Herausforderungen der Welt zu bieten“ Im dem Bericht sind außerdem die größten Geldgeber des Councils aufgeführt, unter denen sich die Rockefeller Foundation, Goldman Sachs, Google, die Open Society Foundations, Meta, aber auch die European Climate Foundation und die Delegation of the European Union to the United States befinden. BioNTech, Merck, die Thales Group, die Zurich Insurance Group Ltd sowie das deutsche Auswärtige Amt sind ebenfalls als Unterstützer aufgelistet.

Generell folgsam auf Regierungslinie

Ein besonderes Anliegen ist dem Atlantic Council die Einführung des digitalen Euro. Er nutzt ausdrücklich „sein einzigartiges, einflussreiches Netzwerk globaler Führungskräfte“ dafür, die Einführung von digitalem Zentralbankgeld (Central Bank Digital Currency, kurz: CBDC) in verschiedenen Ländern zu beschleunigen, wie man seinem CBDC-Tracker – einer interaktiven Weltkarte – entnehmen kann. DisinfoLab arbeitet jedoch nicht nur mit dem einflussreichen Atlantic Council eng zusammen, sondern agiert generell folgsam auf Regierungslinie.

In einem Desinformationsüberblick zu Deutschland von März 2023 beispielsweise werden als Opfer von Desinfomationsattacken Annalena Baerbock und die Grünen genannt; als Täter „Querdenker“ und „Reichsbürger“. Und als vorbildliche Faktenchecker führt die Organisation ausgerechnet „Correctiv“ und „Newsguard“ an. Zudem wurde das EU DisinfoLab bei seinem Desinformationsüberblick von der Friedrich-Naumann-Stiftung unterstützt, die sich laut Jahresbericht 2022 bei einem Etat von rund 84 Millionen Euro zu 96 Prozent aus Zuschüssen des Bundes finanziert. Mit anderen Worten: Eine regierungsnahe Stiftung fördert eine angeblich unabhängige Organisation, die im Gegenzug einen regierungsnahen Bericht abliefert.

Und nun dient sich das EU DisinfoLab also der Klimapolitik der EU-Kommission an. Auch das ist allerdings nicht ganz neu: So hat das EU DisinfoLab vor rund zwei Jahren bereits zusammen mit der Heinrich-Böll-Stiftung, die den Grünen nahesteht, eine Plattform namens „Climate Clarity Hub“ eingerichtet, die „Wissen und Expertise zu Klima-Desinformation bündelt“. In ihrem Jahresbericht für 2023 behauptet die Heinrich-Böll-Stiftung auf Seite 8, es sei wissenschaftlich eindeutig belegt, dass es auf der Erde wärmer werde. Dennoch würde die globale Erderwärmung in Publikationen immer wieder in Zweifel gezogen. Vor allem auf Social-Media-Plattformen würden Desinformationskampagnen zum Thema Klima verbreitet.

Das EU-Büro der Heinrich-Böll-Stiftung in Brüssel habe daher eine Recherche des EU-Disinfo-Lab unterstützt, in der untersucht wurde, ob Plattformen wie TikTok, Meta oder YouTube ihre Maßnahmen gegen Klimawandel-Fehlinformationen angemessen verschärfen. Natürlich sind Heinrich-Böll-Stiftung und das EU-Disinfo-Lab noch nicht zufrieden mit den Maßnahmen der sozialen Medien. Sie stellen einhellig fest, dass es mehr geschultes Personal bei den Online-Anbietern brauche, um etwaige Risiken klimarelevanter Inhalte erkennen zu können. Außerdem sei es für die Bekämpfung von Desinformation wichtig, die Verbindungen zwischen Wissenschaft und Journalismus zu stärken.

Die nahtlose Fortsetzung des üblichen EU-Wahnsinns

Die aktuelle Veröffentlichung „HEAT“ zur angeblichen Klima-Desinformation ist also im Grunde kein neuer Skandal, sondern lediglich die nahtlose Fortsetzung des üblichen EU-Wahnsinns. Das EU-Disinfo-Lab steht damit auch keineswegs allein: Im Juni 2020 hat schon die Europäische Beobachtungsstelle für digitale Medien (European Digital Media Observatory, kurz: EDMO) als „größtes interdisziplinäres Netzwerk der EU zur Bekämpfung von Desinformation“ ihre Arbeit aufgenommen. Und EDMO warnte bereits 2022 davor, dass falsche Narrative über den Klimawandel kursieren würde. Auf der Website zum Faktenchecker-Netzwerk von EDMO ist übrigens der Hinweis eingefügt: „Dieses Projekt wurde von der Europäischen Union unter der Vertragsnummer LC-01935415 finanziert. Die Verantwortung für den Inhalt dieser Website trägt allein das unabhängige Konsortium; die Kommission haftet nicht für die weitere Verwendung der darin enthaltenen Angaben.“ Mit anderen Worten: Die Kommission beauftragt und finanziert zwar, aber stiehlt sich dann aus der Verantwortung.

Genauso ist auf Seite 2 der aktuellen HEAT-Broschüre zu lesen: „Das HEAT-Projekt wird durch den Europäischen Medien- und Informationsfonds (EMIF) unterstützt, der von der
Calouste Gulbenkian Stiftung und dem Europäischen Hochschulinstitut verwaltet wird.
Die alleinige Verantwortung für den Inhalt liegt bei dem/den Autor(en), und der Inhalt spiegelt nicht unbedingt die Positionen des EMIF oder der Calouste Gulbenkian Stiftung wider.“ Der European Media and Information Fund (EMIF) unterstützt Forschungsprojekte, um das Phänomen der Desinformation im Internet in Europa zu bekämpfen. Er wird u.a von Google mit einem Betrag in Höhe von 25 Millionen Euro über einen Zeitraum von fünf Jahren finanziert. Die Gulbenkian Stiftung wiederum kooperiert mit EDMO. Hier schließt sich also direkt der Kreis zur EU. EDMO ist übrigens auch dafür zuständig, darüber zu entscheiden, ob der Verhaltenskodex für den Bereich der Desinformation der EU-Kommission aus dem Jahr 2022, dem auch Google beigetreten ist, ausreichend erfüllt ist. Grundlegend für den Kodex waren die Erfahrungen mit „Corona-Desinformationen“. Kein Wunder, dass Google EDMO durch finanzielle Zuwendungen über den Europäischen Medien- und Informationsfonds gnädig zu stimmen sucht!

Auf den insgesamt 76 Seiten der HEAT-Broschüre, die also indirekt sowohl von der EU als auch von Google finanziert wurde, werden die Ergebnisse einer Untersuchung zu klimabezogenen Desinformationen in Deutschland, Frankreich und den Niederlanden ausgerollt. Dabei konzentrierte sich das HEAT-Projekt auf öffentlich zugängliche nutzergenerierte Inhalte auf X, Facebook und Telegram. Als zentrale Ergebnisse werden angeführt: In allen drei Ländern seien Verschwörungsnarrative insbesondere im Zusammenhang mit Geoengineering präsent. Klimamaßnahmen würden als autoritär oder elitär dargestellt. Mit Russland verknüpfte Medien und Telegram-Ökosysteme spielten eine große  Rolle. Und auch die Interessen der fossilen Brennstoffe hätten Einfluss auf die Klimanarrative.

„Deutschland sieht sich einer narrativen Kriegsführung ausgesetzt“

Wörtlich heißt es: „Das HEAT-Projekt zeigt, dass Klimadesinformation die demokratische Widerstandsfähigkeit und eine faktenbasierte Politikgestaltung untergräbt, indem sie Misstrauen, Polarisierung und Widerstand gegen Klimaschutzmaßnahmen schürt. Dieser Bericht fordert die EU-Institutionen auf, dies im Rahmen des Gesetzes über digitale Dienste (Digital Services Act, kurz: DSA) anzuerkennen“. Und weiter:

„Die Desinformation über den Klimawandel ist nach wie vor eine der größten Bedrohungen für eine faktengestützte Politikgestaltung, die Umweltpolitik und die demokratische Widerstandsfähigkeit in der EU. Da die Klimapolitik immer umfangreicher und ehrgeiziger wird, gerät sie zunehmend in den Fokus gezielter bösartiger Einflussnahme aus dem In- und Ausland, die darauf abzielt, Klimaschutzmaßnahmen zu verzögern, das Vertrauen in demokratische Institutionen zu untergraben und den öffentlichen Diskurs zu polarisieren.“ Das Hauptfenster der Datenerhebung für HEAT erstreckte sich vom 1. Oktober 2024 bis zum 30. April 2025. In diesem Zeitraum habe sich die klimabezogene Desinformation in Deutschland auf drei dominante und sich überschneidende Narrativcluster konzentriert: „Untergrabung der Klimawissenschaft und des Klimakonsenses“, „Angriffe auf grüne Politik und die Energiewende“ sowie „Populistische, elitenfeindliche und konspirative Botschaften“.

Außerdem wird im Bericht für Deutschland festgehalten: „Deutschland, ein führendes Land in der EU-Klimapolitik, sieht sich einer narrativen Kriegsführung sowohl in Bezug auf die Energiesicherheit als auch auf die Überregulierung ausgesetzt.“ Besonders spießt der Bericht Narrative auf, die „den wissenschaftlichen Konsens über den anthropogenen Klimawandel“ untergraben und das CO₂ als harmlos oder sogar als nützlich darstellen würden. Institutionen wie der Weltklimarat (IPCC) würden in diesen schädlichen Narrativen als politisch kompromittiert dargestellt, was das Misstrauen der Öffentlichkeit gegenüber der Klimawissenschaft verstärke.

Pseudoakademische Organisationen wie namentlich EIKE würden „alternative Wissenschaft“ verbreiten sowie Klimamodelle und IPCC-Daten in Frage stellen. Leugnende Influencer würden Beiträge verbreiten, in denen sie den Klimawandel als einen Schwindel darstellten, der zur sozialen Kontrolle inszeniert werde. X-Nutzer würden sich sogar auf technisch wahre Behauptungen (z. B. „CO2 ist lebensnotwendig“) berufen, um das Klimarisiko herunterzuspielen. Wäre das EU DisinfoLab nicht so einflussreich (auch die Bertelsmann Stiftung bezog sich z.B. in ihrer Broschüre „EU-Wahlen 2024: Wie wir resilienter gegen Desinformationskampagnen auf sozialen Plattformen werden“ u.a. auf eine Analyse des EU DisinfoLab), wären diese Anschuldigungen zum Schreien komisch! Das EU DisinfoLab nimmt für sich „Wissenschaftlichkeit“ in Anspruch, geht jedoch jeder wissenschaftlichen Diskussion aus dem Weg, indem es alle abweichenden Meinungen kurzerhand als „Desinformation“ brandmarkt!

„Über Temperaturdiagramme lustig gemacht“

Das EU DisinfoLab empört sich z.B. auch darüber, dass Facebook-Nutzer Infografiken und visuelle Daten (z. B. Strompreise, Arbeitslosenquoten) verwendet hätten, um die Energiewende als direkte Bedrohung für die wirtschaftliche Stabilität und die Industrie in Deutschland darzustellen. Auf Telegram sei vor der „Dunkelflaute“ gewarnt und Energiekritik mit populistischer Angst vermischt worden. Und auf X hätten AfD-nahe Accounts Hashtags verbreitet, die grüne Politik als wirtschaftlich verheerend darstellten und vor Stromausfällen und Massenverarmung warnten. Es seien Memes verwendet worden, die sich über Temperaturdiagramme lustig gemacht hätten. Schlimmer noch: Emotionale Memes hätten die Politik der Grünen als autoritär dargestellt und sie für den gesellschaftlichen Niedergang verantwortlich gemacht!

Der Bundesminister für Wirtschaft und Klimaschutz und die Außenministerin seien häufig als wirtschaftsfeindliche Figuren karikiert und beschuldigt worden, die Deindustrialisierung durch fehlgeleitete grüne Reformen voranzutreiben. Manche Nutzer hätten den aktuellen Temperaturanstieg gar mit historischen Klimaschwankungen verglichen. Andere hätten die Skepsis gegenüber den deutschen Klimaneutralitätszielen verstärkt und behauptet, diese würden zu Massenarmut, Energieinstabilität und globaler Irrelevanz führen.

Schließlich seien in den Beiträgen auch noch Verbindungen zwischen der Klima-Politik und den Restriktionen der Coronakrise hergestellt worden. Dadurch sei das Misstrauen aus der COVID-Ära wieder aufgegriffen und der Klimawandel als die nächste künstliche Krise hingestellt worden. Die Pandemie und die Klimapolitik seien als aufeinanderfolgende Schritte in einer Elitenstrategie zur Durchsetzung von Überwachung und digitaler Kontrolle mit einem damit einhergehenden Verlust von bürgerlichen Freiheiten interpretiert worden.

Nutzer hätten den Klimaschutz sogar als säkulare Religion und Klimamaßnahmen als ideologischen Extremismus dargestellt. Die Klimapolitik sei als eine Form der Massenkonditionierung gedeutet worden, die darauf abziele, Angst, Gehorsam und Konformität zu erzeugen. In manchen Beiträgen seien Fabrikschließungen, steigende Energiepreise und instabile Stromnetze als Beweise dafür angeführt worden, dass grüne Politik die Deindustrialisierung vorantreibe.

Kritik alas systemische und strukturelle Bedrohung der demokratischen Institutionen

Liest man sich dieses Sündenregister durch, drängt sich der Eindruck auf, dass es das EU DisinfoLab vor allem darauf abgesehen hat, politische Gegner der EU-Kommission als Verschwörungstheoretiker abzustempeln und jeglichen gesunden Menschenverstand zu bekämpfen. Da können auch die politischen Empfehlungen nicht weiter verwundern, die das EU DisinfoLab daraus herleitet. Da sich die Klimadesinformation in Europa zu einer systemischen und strukturellen Bedrohung der demokratischen Institutionen, der Umweltpolitik und des öffentlichen Vertrauens entwickelt habe, fordert das EU DisinfoLab,  dass das Gesetze über digitale Dienste ausgeweitet wird.

Während nämlich sehr große Online-Plattformen ( Very Large Online Platforms, VLOPs) wie X und Facebook unter die Aufsicht der Europäischen Kommission fallen, unterliegen Plattformen wie Telegram, die nicht als VLOPs bezeichnet werden, weit weniger Verpflichtungen und werden auf nationaler Ebene beaufsichtigt. Diese „zersplitterte Aufsicht“ ist dem EU DisinfoLab natürlich ein Dorn im Auge! Zudem fehle es an Rechtsvorschriften, die ausdrücklich auf Klimadesinformation abzielen. Diese Gesetzeslücke sowohl auf EU- als auch auf nationaler Ebene schränke den Nutzen des DSA bei der Bekämpfung von Klimadesinformation erheblich ein. Klimadesinformation müssten dringend als systemisches Risiko in den DSA-Rechtsrahmen aufgenommen werden.

Auch fehlende Schutzmaßnahmen gegen „rechtmäßige, aber schädliche Klimanarrative“  bemängelt das EU DisinfoLab: Während das DSA zu Recht rechtmäßige Äußerungen schütze, zeige die HEAT-Untersuchung eine kritische Risikolücke auf, die Akteure betreffe, die sich zwar innerhalb der rechtlichen Grenzen bewegen, aber konsequent irreführende oder manipulative Klimanarrative verbreiten. Dazu gehörten pseudoakademische Organisationen, parteiische Medien und Meinungsmacher, die Desinformation als „Meinung“, „wissenschaftliche Debatte“ oder „Kritik“ tarnen. Solche Darstellungen seien schwieriger zu regulieren, hätten aber nachweislich die Absicht und Wirkung, den wissenschaftlichen Konsens und das Vertrauen der Öffentlichkeit zu untergraben.

Offen zu Tage tretenden Zensurabsichten

Ist den Autoren der Broschüre auch nur ansatzweise klar, was sie da geschrieben haben? Wer also den „wissenschaftlichen Konsens“ durch eine Debatte gefährdet, soll zensiert werden, selbst wenn er sich „innerhalb der rechtlichen Grenzen“ bewegt? Wenig später wird deutlich, worum es den Verfassern wirklich geht: Sie befürchten nämlich konkret Auswirkungen auf „das Wahlverhalten und das Engagement der Menschen in der Politik“. Um dieser Bedrohung zu begegnen, sei eine dringende, koordinierte Reaktion von Regulierungsbehörden, Plattformen und der Zivilgesellschaft (alos NGOs) erforderlich.

Die EU-Kommission solle daher eine EU-Beobachtungsstelle für Klimadesinformation einrichten und schnelle Reaktionsmechanismen entwickeln, die eine umgehende Mobilisierung gegen Desinformationsfluten in Zeiten hoher Anfälligkeit ermöglichen – z..B. der Einführung neuer politischer Maßnahmen oder vor internationalen Klimagipfeln. Social-Media-Plattformen müssten mit der gleichen Dringlichkeit und Konsequenz gegen Klimadesinformation vorgehen, wie sie es bei COVID-19-bezogenen Inhalten getan haben.

Diese derart offen zu Tage tretenden Zensurabsichten machen dann doch etwas sprachlos. Und wie es der Zufall so will, hat die EU-Kommission soeben eine Eurobarometer-Umfrage veröffentlicht, aus der hervorgeht, dass eine große Mehrheit der EU-Bürger (nämlich acht von zehn) das Ziel der Klimaneutralität bis 2050 unterstützt. Die Umfrage zum Klimawandel lief zwischen dem 18. Februar und dem 10. März 2025 und wurde in verschiedenen sozialen und demografischen Gruppen in allen 27 EU-Mitgliedstaaten durchgeführt, wobei insgesamt 26.319 EU-Bürger befragt wurden. Mehr als drei Viertel (77 Prozent) davon sind der Meinung, dass die Kosten der durch den Klimawandel verursachten Schäden wesentlich höher seien als die Investitionen, die für einen Übergang zur Klimaneutralität erforderlich seien. Fast neun von zehn Europäerinnen und Europäern halten es demnach auch für wichtig, dass die EU die Energieeffizienz verbessert, indem sie beispielsweise die Menschen ermutigt, ihr Zuhause zu isolieren, Solarpaneele zu installieren oder Elektroautos zu kaufen. Außerdem sind 75 Prozent der Ansicht, dass es der EU wirtschaftlich zugutekomme und die Energieversorgungssicherheit erhöhe, wenn die Einfuhr fossiler Brennstoffe verringert werde.

Darüber hinaus ergab die Umfrage, dass 84 Prozent der Befragten daran glauben, dass der Klimawandel durch menschliche Aktivitäten verursacht wird. Mehr als die Hälfte bemängelt jedoch, dass traditionelle Medien keine klaren Informationen über den Klimawandel, seine Ursachen und Auswirkungen lieferten. Rund 50 Prozent meinen, dass es schwierig sei, in den sozialen Medien zwischen zuverlässigen Informationen und Desinformationen über den Klimawandel zu unterscheiden.

Das bedeutet im Klartext: Die EU-Kommission besteht weiterhin verbissen auf ihrer Klimaneutralitäts-Spur und den damit verbundenen Geschäftsmöglichkeiten für die Klima-Industrie. Dabei kann sie sich nun auf den per Eurobarometer erhobenen Bürgerwillen berufen. Und sie wird höchstwahrscheinlich kurzfristig den Digital Services Act als Zensurinstrument für Kritik und unliebsame Meinungen verschärfen. Wofür ihr wiederum die „Zivilgesellschaft“ u.a. in Form des HEAT-Berichts Rückendeckung gibt. Wer es dann immer noch wagt, Kritik an der Klima-Agenda der EU-Kommission zu üben, sollte sich dringend einen hübschen Bademantel zulegen.

Martina Binnig lebt in Köln und arbeitet u.a. als Musikwissenschaftlerin (Historische Musikwissenschaft). Außerdem ist sie als freie Journalistin tätig.

Der Beitrag erschien zuerst bei ACHGUT hier




Groß Glienicke – ein Dorf steht Kopf

Groß Glienicke ist ein nettes Dorf. Es ist direkt an der Stadtgrenze zwischen Berlin, Bezirk Spandau und Potsdam (Nord) gelegen. In seiner Mitte liegt der Glienicker See, welcher zu Mauerzeiten geteilt war und die Stadtgrenze zu Berlin und zu Mauerzeiten auch die Zonengrenze bildete. Klein Glienicke gab es früher auch einmal, es wurde aber zu Beginn des 20 Jahrhunderts eingeebnet. Falls sich jemand wundert, warum es so viele Glienickes um Berlin gibt, Glien ist sorbisch und heißt Ton, es leitet sich vom slawischen „glina“ ab. In den Glienickes wurde Ton abgebaut und dann zu Ziegeln gebrannt und die dienten dann dem Aufbau Berlins von 1870 bis ca. 1920.

Von Michael Limburg

Ein Bild, das Windmühle, draußen, Windturbine, Windfarm enthält. KI-generierte Inhalte können fehlerhaft sein.

Der brandenburgische Teil von Groß Glienicke hatte nach der Mauerzeit ca. 1.200 Einwohner, durch Umschichtung und Zuwachs von außen ist es jetzt auf 5000 Einwohner gewachsen. Zusätzlich wurde vor ca. 10 Jahren die Waldsiedlung erschlossen, wo zuvor große Behördenbauten vom 3. Reich standen, die nach und nach von den Brandenburger Landesbehörden übernommen wurde, und hinzu kamen dann 220 großzügig geschnittene Grundstücke, die aktuell mit 72 modernen sehr aufwendigen Einfamilienhäusern bebaut wurden. Und davon – jedenfalls zum große Teil – soll dieser Bericht handeln.

Groß Glienicke kam zu Potsdam

2004 wurde Groß Glienicke in Potsdam eingemeindet, aus dem selbstständigen Dorfbürgermeister mit Gemeinderat, wurde der Ortsbeirat mit der Vorsitzenden Malik, welche die Geschicke des Ortes nun lenkten. Und bisher ging das eigentlich auch ganz gut, wenn man davon absieht, dass viele (neue) Besitzer von Seegrundstücken sich nicht an die bisherige Bauplanung hielten, welcher einen Uferweg (anstelle des früheren Mauerweges) vorsah, und diesen einfach sperrten, indem sie ihre Grundstücke bis zum See ausdehnten. Das nahmen ihnen viele Groß Glienicker übel, und seit 15 Jahren wird vor Gericht gestritten. Bis auf 2 bis 3 Grundstücke wurde der Uferweg wieder freigemacht, aber durchkommen kommt man wegen dieser 2 bis 3 Grundstücke auch nicht.

Die Rechnung der Stadt Potsdam

So weit, so gut. Könnte man meinen. Doch die Groß Glienicker hatten Ihre Rechnung ohne die Stadt Potsdam gemacht. Potsdam ist nämlich chronisch pleite, obwohl gleichzeitig Landeshauptstadt mit Regierung und Landesparlament, wie auch Stadt mit Stadtverordnetenversammlung, Stadtverwaltung dem ein Oberbürgermeister vorsteht, und die normale Verwaltung, behaupten, alles würde besser. Es würde jetzt zu weit führen die Gründe für dieses Pleite sein zu nennen, nur eines kann gesagt werden, Potsdam war und ist seit der Wiedervereinigung rot. Und ein guter Teil der Ausgaben fließt in die nicht enden wollende Migrantenbetreung.

Und weil das so ist, hatte man in Potsdam eine Idee. Die Idee nämlich, die Energie und Wasser Potsdam (EWP), welche zu 65 % Potsdam gehört, zu „überreden“ sich die sicher und reichlich fließenden Einkünfte aus Wind – und Solaranlagen zu sichern. was das anbelangt, ist nun ist Brandenburg, mit der Hauptstadt Potsdam kein unbeschriebenes Blatt. Hier stehen ca. 4.100 Windkraftanlagen mit ca. 9.000 MW Leistung also 14.3 % in Deutschland und jede Menge ausgedehnte Solarfelder, mit ca. 2.000 MW (ca. 2,4 % der deutschen PVA-Leistung).

Und das, obwohl Brandenburg nur 2,2 Millionen Einwohner hat, also nur 2,5 % und die insgesamt 30.000 km^2 Fläche besiedeln, also nur 8,24 % der Fläche von Deutschland.

Das Erneuern der Kraftwämekopplung Potsdam Süd war die Idee

Und die Idee war, dass die EWP – ganz gemeinnützig und völlig im Einklang mit den Bewohnern und Natur- dieses reiche Feld anzapfen möge. Weil, so der offizielle Grund, das bisherige Heizkraftwerk, was gleichzeitig Strom liefert, im Jahre 2035 ausgedient hätte, und nun wolle man Netto-Null, d.h. „Klimaschutz“ bis 2045 anstreben und damit die Vorgaben des Bundes übererfüllen. Doch es blieb nicht allein auf Groß Glienicke und Teile von Spandau beschränkt, sondern man will im Umfeld von Potsdam in in Uetz, in Paaren, in Kartzow und in SAGo das reich bestellte Feld abgrasen.

Ausgewiesene WKA Flächen der EWP

Und – wenn dies alles genehmigt – dann eine „intelligente“ Sektor Kopplung einführen, indem aus dem „Überschussstrom“ Wasserstoff hergestellt würde, der dann zu Wasser verbrannt, wieder Strom und Wärme liefert.

Wie das sich mit Treibhausgas Wasserdampf verträgt wurde nicht erwähnt, wen es interessiert, kann es hier nachlesen.

Info Wasserdampf und H2 Erzeugung

Wasserdampf und H2 Erzeugung

 

Also gesagt getan. Sehr kurzfristig wurde eine Bürgerinformationsveranstaltung einberufen, bei der die Pläne vorgestellt wurden. Und von da an gab es kräftigen Gegenwind. Besonders die Bewohner der sog. Waldsiedlung (s.o.) fürchten um Ihre Gesundheit, den Wert Ihrer Häuser, von denen viele noch nicht bezahlt wurden, die Natur, die Infraschall, der sie belästigen würde bis hin zu Schlaflosigkeit, Erbrechen und vieles andere mehr. Sie wollten und konnten nicht beschwichtigt werden, egal wie angestrengt die Planer der EWP und die Leute der Stadtverwaltung darum rangen.

Der Ortsbeirat tagt

Dann kam der 24.6.25 – also unmittelbar darauf-, dass sich der Ortsbeirat in seiner Sitzung damit beschäftigte und den Bebauungsplan für diese Anlagen verwarf, der städtische Arbeitskreis dafür, hatte dem Ortsbeirat vorab mitgeteilt, wenn der den Plan verwerfen würde, dann würde er ihn auch nicht dem Stadtparlament zur Entscheidung vorlegen, oder genehmigen würde, worauf dann wenige Tage später die Stadtverordnetenversammlung zusammentreten und verwerfen oder genehmigen würde.

Um es kurz zu sagen, der Besprechungsaal, wo normalerweise kaum jemand die Sitzung des Ortsbeirates verfolgte, war brechend voll. Er krachte aus allen Nähten, viele mussten tlw. draußen bleiben oder sich mit dem Fußboden begnügen. Und es ging ca. 3 1/2 Stunden sehr hoch her. Wenige Argument für den Windpark aber jede Menge dagegen. Eine Frau meinte bspw. dass sie alle ihre Häuser in der Waldsiedlung schon von Angang auf „grün“ gebaut hätten, hoch isoliert, Null-Energiehäuser, die mit Wärmepumpen versorgt würden. PV-Anlagen auf den Dächern, und, und, und. Zu allem Überfluss war der vorige Sonntag (22.6.25) mit Sonnenschein im Überfluss gewesen (ein typischer Fall von Klimawandel, wenn man mir diesen schlechten Scherz erlauben will), was wiederum dank der überreichen Versorgung mit Solarfeldern leider, leider, leider zu Überspannung geführt hätte und bei dieser Frau Schäden in der Höhe von 5000 € geführt hätten. Und die verantwortliche EWP – genau jene die noch viel mehr davon hätte – hätte sich nicht mal bei diesen Leuten gemeldet.

Ein Bild, das Text, Karte, Atlas, Diagramm enthält. KI-generierte Inhalte können fehlerhaft sein.

Und als sei das noch nicht genug, dieser Teil von Potsdam grenzt an Berlin (Spandau) wo das Landschaftsschutzgebiet der ehemaligen Rieselfelder (seit 1920 nicht mehr) und auch auf diesen will der Berliner Senat div. Windkraftanlagen bauen. Vorgeschobener Grund, der Bund verlange dies, und wenn der Grunewald dafür nicht mehr in Frage käme, dann müsste das eben woanders sein. Es hatte wohl dem Berliner Senat niemand gesagt, wenn sie schon diesen vorgeschobenen Grund anführen, dass dann auch das riesige Tempelhofer Feld dafür geeignet wäre, aber dort wohnen ja auch viele Grüne und der Volksentscheid dort nicht zu bauen, ist wohl heilig. Und auch diese Einwohner, sind stinksauer. Und zu Recht, wie man meinen mag.

Und dann, nach ca. 3 ½ stunden erregten Wortwechsels später traf der Ortsbeirat, völlig unbeeindruckt von der Stimmung im Saal und im Ort, seine Entscheidung. Sie wurde mit 5 (Forum, Grüne, SPD) gegen 2 Stimmen (CDU) angenommen.

Die Menge war sprachlos und versprach, der Kampf beginnt jetzt erst.

Anhang: Lesen Sie hier die Auswirkungen des zugrunde liegen „Fit for 55“ Programm auf die Welttemperatur:Klimanetrales Europa Lomborg Grafik

 




Wer zahlt die Profite der Solarstromerzeuger?

Betreiber von Solarstromanlagen profitieren von gesetzlich gesicherten hohen Einspeisevergütungen und von der direkten Verwendung des erzeugten Stroms, der billiger als Netzstrom ist. Doch diese Profite müssen wir alle mit immer höheren Netzstromkosten bezahlen. 

 

Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB

Wohl jeder kennt im Familien- und Freundeskreis Betreiber von Solarstromanlagen. Wir haben inzwischen mehr als 5 Millionen solcher Stromerzeuger auf Balkonen, Dächern und Feldern montiert mit einer installierten Leistung von über 100 Gigawatt. Das ist mehr als die für Deutschland benötigte Leistung. Die liegt je nach Tageszeit und Wochentag zwischen 40 und 75 Gigawatt. (1 Gigawatt (GW) = 1 Milliarde Kilowatt (kW)).

Installierte Leistung wird nicht erreicht 

Doch die installierte Leistung liefern Solaranlagen nicht. Nachts, wenn die Sonne nicht scheint, gibt es keinen Solarstrom. Bei vollem Sonnenschein werden maximal 70 Prozent der installierten Leistung erreicht. Solaranlagen erreichen im Jahresmittel nur 10 Prozent ihrer installierten Leistung. Die 5 Millionen Solaranlagen können Deutschland also bei weitem nicht versorgen.

Das nächste Problem des Solarstroms sind seine großen nicht planbaren Leistungsschwankungen. Sie müssen durch Kraftwerke oder Speicher auf den Bedarf geregelt, also dem Bedarf angepasst werden. Stromspeicher mit den dafür erforderlichen Größen brauchen nach derzeitigen Kenntnissen Rohstoffe in Mengen, die weltweit nicht verfügbar sind. Das Speichern dieses Stroms in umgewandelter Form als Wasserstoff ist eine nicht bezahlbare Utopie mit viel zu großen Energieverlusten. So bleiben zum Regeln des Netzes nur die herkömmlichen Kraftwerke (Kohle, Erdgas, Erdöl). Batterien und Pumpspeicherwerke können nur kurzfristige Laständerungen regeln.

 

Immer häufiger negative Strompreise

Kritisch wird es, wenn hohe Solarleistungen in der Mittagszeit auf zu geringen Bedarf stoßen. Dann haben wir zu viel Strom im Netz. Die Sicherungen sprechen an und schalten überlastete Leitungen ab. Blackout! Spanien lässt grüßen. Um dies zu vermeiden, wird der Strom verschenkt. Immer häufiger muss dem Abnehmer sogar noch Geld dafür gezahlt werden, dass er den überflüssigen Strom überhaupt abnimmt (negative Strompreise an der Börse). Eine Möglichkeit, den überschüssigen Strom zu vernichten, haben die Pumpspeicherwerke. Sie pumpen mit dem Strom Wasser in das bereits volle Oberbecken, öffnen den Überlauf und lassen es dann frei den Berg hinunterlaufen. Inzwischen führt der massive Ausbau der Solarstromerzeugung bei sonnigen Hochdrucklagen fast täglich in der Mittagszeit zu negativen Strompreisen. Aber die EEG-Einspeisevergütungen erhalten die Solarstromerzeuger weitgehend trotzdem.

Versagen der Medien

Auf einer Bahnfahrt, die mich ohne Umsteigen von Passau nach Dortmund bringen sollte, aber schon in Frankfurt mit einer Stunde Verspätung endete, kam ich mit meinem Gegenüber, einem Unternehmer, ins Gespräch. Er berichtete von seiner Solaranlage auf dem Dach, die überwiegend seinen Strombedarf decke. Die Stromkosten seien durch die Anlage deutlich geringer geworden. Im Sommer gebe es häufig einen Überschuss, den er für 8 Cent/Kilowattstunde (Ct/kWh) ins Netz einspeise. In der dunklen Jahreszeit und bei längeren Schlechtwetterperioden ohne Sonnenschein müsse er aber auf den teuren Netzstrom für 35 bis 40 Ct/kWh ausweichen. Als ich ihm erläuterte, dass er mit seiner Anlage zu den steigenden Strompreisen, der Schwächung des Stromnetzes und mit seinen Profiten zu einer unsozialen Umverteilung von unten nach oben beitrüge, die ich und alle übrigen Netzstrombezieher bezahlen müssen, war er sehr erstaunt. Sein Kommentar: „Warum hat das mir bisher Keiner gesagt?“

In dieser Frage steckt die schwerwiegende Kritik an den Medien, einseitig und nur Positives über die Energiewende zu berichten. Mein Gesprächspartner hatte offensichtlich keine Ahnung von den Problemen der Stromversorgung. Für ihn kommt Strom jederzeit aus der Steckdose. Die Informationen zu seiner Meinungsbildung kamen von den „Qualitätsmedien“,  den überregionalen Zeitungen und den öffentlichen Fernsehanstalten. Mein Gesprächspartner dürfte zu der Mehrheit in Deutschland hören, die wegen der einseitigen Berichterstattung glauben, die Energiewende sei notwendig und zielführend für einen „Klimaschutz“. Die Quellen für diese Berichte sind eine ideologisch gelenkte Politik und die Profiteure dieser Politik. Sie werden nicht ausreichend hinterfragt.

Solarstromerzeuger an steigenden Netzkosten beteiligen

Die 5 Millionen Solaranlagen haben– ebenso wie die Windstromerzeugung – maßgebend zur Steigerung der Strompreise und Schwächung des Stromnetzes beigetragen. Mit jeder weiteren Anlage nehmen Steigerung und Schwächung zu. Auch die verstärkte Nutzung des selbst erzeugten Stroms führt in die gleiche Richtung, weil die Regelenergie und die Bereitstellung von Kraftwerkstrom für Dunkelflauten immer teurer werden. Die Kosten werden auf die Netzstrombezieher umgelegt. Der Solarstrombetreiber erhält dagegen noch einen Bonus oder eine Subvention. Er ist für seine Anlage von der Mehrwertsteuer befreit. Wir leisten uns staatliche Unterstützung für höhere Strompreise und die Schwächung des Stromnetzes.

Die Solarstromerzeuger sollten angemessen zu den steigenden Stromkosten, die sie verursachen, beitragen. Wenn sie einen Teil ihres Stromes selbst verbrauchen, aber im Winterhalbjahr einen hohen Bedarf an Netzstrom haben, sollten sie einen Tarif für die höchste genutzte Jahresleistung zahlen. Leistungstarife sind in Wirtschaftsbetrieben üblich. Es sind die Kapital- und Personalkosten, die für das Bereitstellen der maximal entnommenen Leistung entstehen. Für ein Kilowatt (kW) Leistung liegen die Kosten bei 150 bis 200 Euro im Jahr. Werden an einem kalten und dunklen Wintertag über 15 Minuten für Licht, Heizung, Internet und Kochen 10 kW aus dem Netz bezogen, sind bei einem Leistungstarif bis zu 2000 Euro/Jahr fällig.

Subventionen für Solarstrom streichen 

Weiter sollte auch für Solaranlagen Mehrwertsteuer erhoben werden. Die Einspeisevergütung muss dem jeweiligen Börsenpreis entsprechen. Bei negativen Preisen müssen die Erzeuger zuzahlen. Nur so kann Solarstrom marktwirtschaftlich organisiert werden. Dies sollte möglich sein, denn die „Experten“ der Energiewende behaupten, Solarstrom sei am günstigsten.

 

 

 




Kommt das Kernkraftwerk Fessenheim zurück ans Netz?

Ein Steinwurf hinter der deutschen Grenze könnte in einem reaktivierten KKW vielleicht wieder Atomstrom für Deutschland erzeugt werden. Die französische Atomkraft wird hierzulande dank der Energiewende zuweilen dringend gebraucht.

Von Manfred Haferburg

 

Das KKW fessenheim steht nur ein paar hundert Meter von der Deutschen Grenze entfernt. Es besteht aus zwei Reaktorblöcken von je 900 MW und wurde 1977 in Betrieb genommen. Deutsche Kernkkraftgegner bekämpften das Kraftwerk viele Jahre, diffamierten es als „Pannenreaktor“ und ließen kein gutes Haar an der Anlage. 2020 hatten sie endlich Erfolg, das KKW wurde vermeintlich für immer abgeschaltet. Der französische Staatskonzern EdF  berichtete damals: „Es ist das erste Kraftwerk, das im Rahmen des mehrjährigen Energieprogramms zur Verringerung des Kernenergieanteils der französischen Stromerzeugung endgültig vom Netz genommen wurde. In 43 Betriebsjahren hat es 448 TWh Strom erzeugt. Dies entspricht dem elsässischen Stromverbrauch von 30 Jahren.“ Die Deutschen Medien überschlugen sich vor Jubel. Haben sie sich zu früh gefreut?

Bekanntlich hat es sich die französische Regierung inzwischen anders überlegt und statt Kraftwerksausstieg sollen nun zunächst sechs neue große Kernkraftwerke vom Typ EPR gebaut werden. Doch Fessenheim sollte ursprünglich rückgebaut werden. Die Rückbau-Genehmigung sollte 2026 erteilt werden.

Nun die große Überraschung. Der französische Sender BFM berichtet, dass die Nationalversammlung am 18. Juni den Beschluss fasste, das Kraftwerk wieder in Betrieb zu nehmen. „Dank der Mobilisierung der Abgeordneten des Rassemblement National nach der Rückkehr aus der Sitzungsunterbrechung wurde ein Änderungsantrag zur Wiederinbetriebnahme des Kernkraftwerks Fessenheim und seiner beiden Reaktoren angenommen“.

In französischen linken Medien hört man nun Heulen und Zähneklappern. Genau wie in Deutschland sei eine Wiederinbetriebnahme gar nicht möglich. Allerdings ist bisher noch keine Rückbaugenehmigung erteilt, also wurde die Anlage noch nicht zerstört. Auch wird der Beschluss des französischen Unterhauses als Unerlaubt juristisch angegriffen.

„Notwendigkeit für die Energiesouveränität“

Insbesondere in Deutschland  besteht die berechtigte Sorge, dass eine Wiederinbetriebnahme von Fessenheim die Diskussion des Rückholens der deutschen Kernkraftwerke wieder lostreten könnte. Auf der anderen Seite muss man beachten, dass Seit der Abschaltung der deutschen Kernkraftwerke Frankreich den Strom von etwa drei französischen Kernkraftwerken sehr gewinnträchtig nach Deutschland exportiert. Das paradoxe Resultat: Das Kernenergieausstiegsland Deutschland bezieht  Strom aus Kernenergie, die im Kernergie-Nachbarland Frankreich betrieben werden.

So ganz unwahrscheinlich ist die Wiederinbetriebnahme von Fessenheim also  nicht. Die Zukunft wird zeigen, ob dies eine  Tatarenmeldung ist. Jean Philippe Tanguy (RN) sagte in seiner Antragsbegründung: „Die Wiedereröffnung muss so schnell wie möglich erfolgen, sobald die technischen Bedingungen und Sicherheitsmaßnahmen dies zulassen. Dies ist eine Notwendigkeit für unsere Energiesouveränität, die Teil einer ehrgeizigen Politik der massiven Wiederbelebung der Kernenergie ist„. Ein kleiner Sieg für die Partei von Marine Le Pen.

Man muss nur nach Japan schauen. Dort wurden seit dem Schock von Fukushima 14 Kernkraftwerke wieder in Betrieb genommen und weitere werden vorbereitet. Sogar Neubauten werden geplant.

Obwohl die „Faktenchecker von DPA“ es vehement leugnen, der französische Kaiser Napoleon Bonaparte soll über die Deutschen gesagt haben: „“Es gibt kein gutmütigeres, aber auch kein leichtgläubigeres Volk als das deutsche. Ich brauchte nur meine Netze auszuspannen, dann liefen sie wie ein scheues Wild hinein. Untereinander haben sie sich gewürgt, und sie meinten ihre Pflicht zu tun. Törichter ist kein anderes Volk auf Erden“. Wie auch immer – was den Ausstieg aus der Kernenergie betrifft, neigt der objektive Betrachter wohl eher zur inhaltlichen Zustimmung.

Der Beitrag erschien zuerst bei ACHGUT hier