Wo Licht ist, ist auch Schatten!

Wind- und Solarenergie als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien

von Frank Hennig

Wind- und Solarenergie werden als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien beschrieben. Sie wären emissionsfrei, von negativen Wirkungen keine Rede. Dabei ist jedem nüchtern und nicht interessengeleitet denkenden Menschen klar, dass jede Energietechnologie Auswirkungen auf die Umwelt hat. Wo Licht ist, ist auch Schatten.

 

Jeder heiße Tag im Sommer wir derzeit in den regierungsbegleitenden Medien apokalyptisch dramatisiert und mit dem Klimawandel durch steigenden CO2-Anteil der Luft begründet. Regionale Besonderheiten für verschiedenes Wetter gab es immer. Heutzutage kommen mit dem exzessiven Ausbau von Wind- und Solaranlagen weitere Faktoren hinzu.

 

Heizen mit Photovoltaik

Wind- und Solarenergie werden uns als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien beschrieben. Sie wären emissionsfrei, von negativen Wirkungen ist nicht die Rede. Dabei ist jedem nüchtern und nicht interessengeleitet denkenden Menschen klar, dass jede Energietechnologie Auswirkungen auf die Umwelt hat. Wo Licht ist, ist auch Schatten. Mit dieser Aussage tritt man aber sehr nah an die Abbruchkante der deutschlandtypischen Schwarz-Weiß-Diskussion, die Gegenmeinungen kaum zulässt und Wissenschaft für abgeschlossen erklärt. Das führt zu ideologischer und pseudoreligiöser Sicht, die den gegenwärtigen Absolutismus der Klimadiskussion eigen ist. Gut bekannt aus DDR-Zeiten ist mir die Frage „auf welcher Seite der Barrikade stehen Sie denn?“, die man schon zu hören bekam, wenn vorsichtig Kritik am bestehenden System geäußert wurde.

Tagebaue, Bergwerke und Stauseen zeigen deutlich die Auswirkungen von Energietechnologien, heute auch landschaftsfressende Wälder von Windkraftanlagen (WKA). Die Photovoltaik (PV) hingegen erfreut sich in der Bevölkerung relativ großer Sympathie. Die Platten liegen einfach so auf Dächern und Freiflächen herum, machen keine Geräusche und blinken nicht, abgesehen von einigen Reflexionen stören sie optisch nicht. Sie schaden anscheinend der Tierwelt nicht, jedenfalls häckseln sie keine Fluglebewesen. Dass Freiflächenanlagen der Biodiversität schaden, Feldlerchen und anderen Wiesenbrütern Lebensraum nehmen und auch eine Insektenfalle sein können (die die spiegelnden Platten als Wasser deuten und ihre Eier ablegen wollen), fällt vordergründig nicht auf. Fledermäuse trinken im Flug und können die spiegelnden Platten mit einer Wasseroberfläche verwechseln. Eidechsen dagegen gefällt die sommerliche trockene Hitze unter den Platten.

Plattenheizkörper im Sommer

Wie wirken Freiflächen-PV-Anlagen im Vergleich zu natürlichen Flächen? Auf einer Wiese oder Offenland wird das Licht diffus gestreut und hilft, die Bodenfunktionen zu erfüllen: Photosynthese, Erwärmung, Verdunstung von Wasser. Nur wenig Licht wird reflektiert, Wärme wird gespeichert und nachts wieder abgegeben, es gibt einen natürlichen Temperaturausgleich. Ähnlich verhält es sich mit den Wäldern, die durch die Verschattung vor allem Temperaturspitzen dämpfen und Wasser speichern.

Bei PV-Anlagen werden maximal 20 Prozent des Sonnenlichts, im Durchschnitt eher weniger, in Strom umgewandelt. Die nicht umgewandelte Energie geht, von etwas reflektierter Strahlung abgesehen, fast vollständig in Wärmeenergie über. Die Temperatur der Paneele liegt zwischen 20 und 25 Grad über der der Umgebung. Ging man früher von etwa 60 Grad maximaler Oberflächentemperatur im Sommer aus, sprechen Insider heute von bis zu 100 Grad, die an windstillen Hitzetagen erreichen werden können.

Warme Luft steigt nach oben, über den PV-Flächen bildet sich eine Warmluftglocke. Es kommt zu einer Luftzirkulation, die kühle und feuchtere Bodenluft aus der Umgebung nachzieht, was zu einer örtlichen Erwärmung und Trocknung führt.

Wie verhalten sich die Temperaturen konkret? Hier als Beispiel eine Fläche von etwa sechs Hektar einer PV-Fläche, das Foto entstand im August 2024 um die Mittagszeit.

 

Das gleiche Foto mit Infrarotfilter zeigt folgendes Bild:

Die Lufttemperatur betrug 22 Grad, um die Anlage war sie zwei bis drei Grad höher. Die Temperaturunterschiede zwischen der rechten und linken Seite der Anlage lassen verschiedene Typen von Paneelen mit verschiedenen Wirkungsgraden vermuten. Auf der rechten Seite sind einige inhomogene Stellen an der Überwärmung zu erkennen.
Mit höheren Umgebungstemperaturen steigen auch die Paneeltemperaturen.

Mehr Wärme in der Wärme

Wie viel Wärme wird emittiert? Sehen wir uns beispielhaft die Anlage in Neuhardenberg (Brandenburg) an. Sie belegt 240 Hektar, etwa 340 Fußballfelder, und ist mit einer installierten Leistung von 155 Megawatt peak (MWp) – also bei optimalem Sonnenstand – eine der größten im Land. Es existieren aber noch deutlich größere (Witznitz bei Leipzig – 500 ha).

Die elektrische Leistung der Paneele ist temperaturabhängig, bei starker Sonneneinstrahlung und hoher Umgebungstemperatur steigt die Temperatur der Platten auf über 60 Grad. Das lässt die Stromausbeute um 20 Prozent sinken, also den Wirkungsgrad auf etwa 16 statt 20 Prozent. Ein umso größerer Teil des Sonnenlichts – 84 Prozent – geht in die Erwärmung der Platten über. Wenn also zu diesem Zeitpunkt (mittags) 16 Prozent in Strom umgewandelt werden (130 MW), emittieren die Paneele eine Wärmeleistung von 682 MW in die Umgebung.

Das sind etwa 10 Prozent der insgesamt in Berlin installierten Fernwärmeleistung, die von dieser Anlage in Neuhardenberg im Hochsommer in die Umgebung emittiert wird. Die Wirkung entspricht einem riesenhaften Plattenheizkörper, der die ohnehin warme Umgebung weiter aufheizt.

Ein Bild, das Luftfotografie, Vogelperspektive, draußen, Luftbild enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild Luftaufnahmen Lausitz

Die Beweislast, dass diese Wärmeemission einer PV-Freiflächenanlage keine negative Umweltwirkung hat, dürfte bei den Protagonisten der Energiewende liegen.

Abends und nachts kühlen die Paneele durch Luftströmung auf der Ober- und Unterseite schnell aus, die Wärmespeicherung ist im Vergleich zu natürlichem Boden gering.

Im Verbund mit der Klimawirkung von Windkraftanlagen, die uns -zigtausende von Windkraftanlagen in Deutschland und Europa bescheren, ändert sich das regionale Klima. Bisher schon trockene Regionen im Osten Deutschlands trocknen weiter aus.
Im Gegensatz zu Dachanlagen, die ökologisch tote Flächen belegen, zerstören PV-Freiflächenanlagen unmittelbar die Natur und vor allem die klimaregulierende Wirkung der Landschaft, sie reduzieren Biodiversität und produzieren Strom zu Zeiten, in denen ohnehin zu viel im Netz ist. Kein Investor wird jedoch verpflichtet, in gleichem Maß Stromspeicher oder Backup-Kraftwerke zu bauen. Die Gewinne streichen die Investoren ungeschmälert ein, während die Systemkosten und der Aufwand für den immer weiter nötigen Netzausbau sozialisiert werden. Grüner Kapitalismus in Reinkultur.

Als Kompromiss wird die so genannte Agri-PV heftig beworben. Dies ist eine Kombination, bei der zwischen senkrecht angebrachten, aufgeständerten oder in größeren Abständen aufgebauten PV-Modulen Landwirtschaft betrieben werden kann. Der Kompromiss besteht darin, dass weniger Strom produziert wird, als bei einer vollflächig belegten Anlage und weniger landwirtschaftlicher Ertrag eingefahren wird, als bei reiner Feldwirtschaft. Es handelt sich nicht, wie oft behauptet, um eine Doppelnutzung (das Sonnenlicht kann nur einmal genutzt werden), sondern um eine kombinierte Nutzung, die in jedem Fall naturverträglicher ist, als die geschlossene Spiegelfläche.

Aber auch hier gibt es Licht und Schatten, im wahrsten Sinne des Wortes. Im Sommer ist die teilweise Verschattung der Anbaufläche von Vorteil, die Fläche trocknet nicht so schnell aus und es ist trotzdem genug Licht für das Pflanzenwachstum vorhanden. In den dunklen Monaten hingegen trocknet diese Fläche kaum aus, im Frühjahr erwärmt sich der Boden langsamer, Pflanzenwachstum wird gehemmt. Er ist ideales Gebiet für Flechten und Moose, die anderen Bewuchs zurückdrängen.

Wie überall bei den „Erneuerbaren“ geht es auch bei der Freiflächen-PV nicht ums „Klima“, sondern um Geld. Pachtpreise von bis zu 5.000 Euro pro Hektar und Jahr sind über Vertragslaufzeiten von 30 Jahren eine sehr gute Einnahme, der sich fast kein Flächenbesitzer verweigern wird. Neuanlagen unterliegen nunmehr jedoch dem so genannten Solarspitzengesetz, wonach die Anlagen abregelbar sein müssen und die Vergütung bei negativen Marktpreisen entfällt. Damit dürfte das Investoreninteresse gedämpft werden.

Wer heizt noch?

Vermutlich ist bei einigen progressiven Energiewendern beim Lesen bis zu diesem Absatz schon der Blutdruck gestiegen und sie wollen einwerfen, dass auch Industrie und konventionelle Kraftwerke Wärme emittieren. Das ist richtig, widerspricht aber nicht den Ausführungen zur Freiflächen-PV. Industrielle Abwärme ist zum großen Teil unvermeidbar, aber mit weitergehender Deindustralisierung auf dem Weg von der Habeck-Rezession in die Merz-Depression und insbesondere mit der Abwanderung energieintensiver Industrie nimmt diese Wärmemenge ab.

Konventionelle Kondensations-Kraftwerke werden mit einem Wirkungsgrad von 35 bis 43 Prozent betrieben, das heißt, bis zu zirka zwei Drittel der eingesetzten Energie müssen als Wärme abgeführt werden. Jedoch wird der größte Teil der Wärme nicht an die Umgebungsluft abgegeben, sondern bei Anlagen mit Nasskühltürmen über die Verdunstungswärme des Kühlwassers, bei Anlagen an Fluss- oder Küstenstandorten über das Fluss- oder Seewasser. Auch hier gilt der Trend – es werden immer weniger Anlagen.

Wenn es künftig noch mehr heiße Sommertage gibt und mehr Trockenheit, kann das Folge des Klimawandels sein und regional direkte Folge des exzessiven Ausbaus von Wind- und Solaranlagen, die eigentlich eines verhindern sollten – eine weitere Erwärmung. Sie schaden mehr, als sie nutzen, aber es lässt sich prächtig damit Geld verdienen.

Mit freundlicher Unterstützung von www.luftaufnahmen-lausitz.de
Weiteres Material zur Wirkung von PV-Anlagen: https://www.energiedetektiv.com/

Der Beitrag erschien zuerst bei TE hier

 




Kältereport Nr. 28 / 2025

Meldungen vom 14. Juli 2025:

Alberta, Kanada: Der Mitte-Juli-Frost

Der Süden Albertas muss sich auf einen Temperatursturz, Regen und in den Bergen sogar auf Schnee Mitte Juli einstellen.

Nachdem am Wochenende in Calgary Höchstwerte bis 24°C erreicht worden waren, wird es am Montag deutlich kälter werden.

Environment Canada hat eine Niederschlagswarnung herausgegeben, wobei bis Dienstag 50-80 mm erwartet werden.

Die Frostgrenze wird auf etwa 2.300 Meter sinken und in höheren Lagen Sommerschnee bringen, einschließlich des Jasper National Park. Es wird mit glatten Straßen, Überschwemmungen und schlechter Sicht gerechnet. Wanderer und Reisende, die in die Berge fahren, wurden gewarnt.

——————————-

Sibirien: Der Sommer-Schock

In der sibirischen Stadt Markowo in Tschukotka fiel die Temperatur am 10. Juli 2025 auf -2,1 °C und damit fast auf den bisherigen Juli-Rekordtiefstand. Die durchschnittlichen Tiefstwerte für diese Jahreszeit liegen bei 10 °C.

Der Temperaturrückgang folgte auf einen Vorstoß arktischer Luft nach Nordostsibirien.

Das ist kein Einzelfall. In den letzten Jahren wurden Jakutien und Magadan von sommerlichen Minusgraden heimgesucht, was einen zunehmenden Trend zu arktischen Einbrüchen im Juli/August darstellt. Während der Westen Russlands unter Sommerhitze schmorte, fror man in den zentralen und östlichen Teilen. Es handelt sich um einen klassischen Vorgang – heftige Temperaturschwankungen, die durch einen stark mäandrierenden Jetstream verursacht werden.

Link: https://electroverse.substack.com/p/albertas-mid-july-freeze-siberias?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————-

Meldungen vom 15. Juli 2025:

China: Auch dort Schnee im Juli

Das Qilian-Gebirge im Westen Chinas wurde gerade von einem Schneesturm Mitte Juli heimgesucht.

In Höhenlagen über 4.000 m kann Schnee zu jeder Jahreszeit fallen, aber anhaltende Schneefälle im Juli sind eine Anomalie.

Betrachtet man frühere Ereignisse, so ist ein solcher Schneefall im Hochsommer sehr selten – und wenn, dann sind die Anhäufungen in der Regel sehr bescheiden. Ein ähnlicher Schneesturm im Juli traf die Qilian-Gipfel am 7. Juli 2019 und brachte nur 3 cm Schnee.

Es sieht so aus, als würden die Schneemengen dieser Woche die von 2019 bei weitem übertreffen…

Dazu gibt es auch ein YouTube-Video.

——————————-

Kalifornien: Kältester Sommerbeginn jemals

Die Bay Area und weite Teile Nordkaliforniens haben soeben den vielleicht kältesten Frühsommer jemals hinter sich.

In den letzten 30 Tagen herrschte in der Region eine anhaltende Kälteperiode.

San Francisco hat seit dem 1. Juni nur ein einziges Mal die 21°C-Marke überschritten. Die meisten Tage lagen zwischen 10 und 18 Grad Celsius, mit grauem Himmel, kalten Winden und Meeresluft, welche die Temperaturen weit unter der jahreszeitlichen Norm hielt.

Ein Großteil der Küstenregion und des Landesinneren von Nordkalifornien ist auf den Anomaliekarten dunkelblau schattiert, wobei die Tageshöchst- und -tiefstwerte an historischen Tiefstwerten kratzen. Schuld daran sind ein hartnäckiges pazifisches Tief und eine anhaltende auflandige Strömung. Der berüchtigte „June Gloom“ schwappt bis weit in den Juli hinein.

Selbst Städte im Landesinneren wie Santa Rosa, Sacramento und Redding wurden von der Kälte erfasst.

In den Weinbergen und Obstplantagen des Bundesstaates sind die Auswirkungen auf die Landwirtschaft zu spüren: verzögertes Wachstum, gestörte Erntepläne und erhöhter Heizbedarf in einer Jahreszeit, in der Klimaanlagen die Energierechnung anführen sollten.

Link: https://electroverse.substack.com/p/qilian-mountains-china-sees-july?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————-

Meldungen vom 16. Juli 2025:

USA: Ungewöhnliche Kälte in den Nördlichen Rocky Mountains

Eine für die Jahreszeit untypische arktische Luftmasse hat derzeit die nördlichen Rocky Mountains im Griff und lässt die Temperaturen in Montana, Wyoming und den westlichen Dakotas auf ein Niveau sinken, das eher für die Mitte des Winters als für Mitte Juli typisch ist.

Die neuesten Anomaliekarten zeigen starke Abweichungen von der Norm – bis zu 20 Grad unter dem Durchschnitt – wobei einige Regionen in Zentral-Montana tagsüber kaum über 5 Grad Celsius hinauskommen.

Hinweis: Die gesamten USA liegen derzeit 0,9°C unter dem Normalwert (im Vergleich zum Basisjahr 1991-2010)

Die kältesten Gebiete, diese tief violetten Flächen, bringen einen unverkennbaren Ruck winterlicher Kälte in die Hochebenen und Täler.

Der Mittwochmorgen bringt Frost und rekordverdächtige Tiefstwerte in der wärmsten Phase des Jahres.

Die Mainstream-Medien berichten nur allzu gerne über die positiven Auswirkungen der meridionalen Jetstream-Ströme, wenn sie tropische Hitze nach Norden ziehen, aber sie schweigen, wenn es um die andere Seite des Stroms geht, wenn Polarluft weit nach Süden gezogen wird.

Blick nach Kanada:

Nördlich der Grenze sehen wir auch allgemeinere Beweise dafür, dass die Hitzeextreme nicht wie behauptet zunehmen.

Historische Daten aus Ottawa zeigen einen langfristigen Rückgang der Anzahl heißer Tage:

Das Jahr mit den meisten „90F+“-Tagen [über 32°C] war 1921 mit 21 Tagen, und das Jahr mit den meisten „95F+“-Tagen [über 35°C] war 1916 mit 10 Tagen. Trotz der jüngsten Schwankungen ist der Gesamttrend in beiden Kategorien eher abwärts als aufwärts gerichtet. Zum Vergleich: Der bisherige Höchstwert für Ottawa wurde vor über 80 Jahren am 14. August 1944 mit 37,8 °C erreicht.

Link: https://electroverse.substack.com/p/polar-cold-slams-northern-rockies?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————-

Eine Meldung vom 17. Juli 2025:

USA: Derzeit 2°C kälter als normal

AP News behauptet, dass „große Teile der USA mit einer rekordverdächtigen Hitzewelle zu kämpfen haben“. Dies ist Unsinn!

Mit Stand vom 16. Juli verzeichnen die Vereinigten Staaten laut RTMA eine landesweite Temperaturanomalie von -2°C.

Weite Teile der USA, insbesondere in den Plains, den Rocky Mountains und im Mittleren Westen, leiden unter starken Kälteanomalien.

Montana, Wyoming, Colorado, die Dakotas und Nebraska zeigen alle erhebliche Kälte-Anomalien, die an historische Juli-Kälte heranreichen.

Hier stellt Cap Allon die tatsächlichen Daten einer Meldung von AP gegenüber:

GFS 2m Temperatur-Anomalien (°C) am 17. Juli [tropicaltidbits.com]

AP lügt einfach:

Link: https://electroverse.substack.com/p/united-states-36f-below-average-thwaites?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————-

Meldungen vom 18. Juli 2025:

USA: Weiter Rekord-Kälte in mehreren Gebieten

Eine kalte Luftmasse arktischen Ursprungs ist aus Kanada in die Vereinigten Staaten eingedrungen und hat vor allem im nördlichen Mittleren Westen Kälterekorde für den Juli aufgestellt.

In Minnesota wurde in den Twin Cities am Donnerstag eine Temperatur von 11°C gemessen, was dem Rekord vom 17. Juli 1976 entspricht. In International Falls sank die Temperatur auf 6°C und erreichte damit einen Rekord, der seit 1918 bestand.

Im Nordwesten verzeichnete Grand Forks den kältesten 17. Juli seit über 50 Jahren. Am Grand Forks International Airport wurden 5°C gemessen, womit der alte Rekord von 7°C aus dem Jahr 1971 gebrochen wurde. Noch beeindruckender war, dass Fargo mit einem Tiefstwert von 6°C den Rekord von 1885 übertraf.

In Süddakota war der im Mittel heißeste Tag im Juli in Watertown mit nur 28,3 Grad Celsius der niedrigste Juli-Temperaturwert seit Beginn der Aufzeichnungen im Jahr 1893.

Die Kälte war nicht auf den Norden beschränkt.

Am internationalen Flughafen von San Francisco zum Beispiel wurde vom 1. Juni bis zum 15. Juli ein durchschnittlicher Höchstwert von nur 19,8 °C gemessen – der kälteste Zeitraum seit 1965. In Städten wie Oakland, Santa Rosa und San Jose lagen die Temperaturen im gleichen Zeitraum 1 bis 3 Grad unter dem Normalwert, was in vielen Regionen den kältesten Sommerbeginn seit Beginn der Aufzeichnungen darstellt.

Es ist erwähnenswert: Die Tageshöchstwerte im Juli und August sind in den USA seit Ende des 20. Jahrhunderts weitgehend unverändert geblieben. Was sich geändert hat, sind die nächtlichen Tiefstwerte – und zwar nicht, weil sich das nächtliche Klima verschlechtert, sondern eher, weil sich die Städte ausbreiten. Steigende Tiefstwerte sind weniger ein Zeichen für eine globale Warnung als vielmehr ein lokales Nebenprodukt von Beton, Asphalt und Wärme speichernder Infrastruktur.

——————————-

Antarktis: Auf dem Ross-Schelfeis –60°C

Nach Vostok und Concordia, die ihre Tiefstwerte von -80 °C erreichten, erreichte die Margaret AWS auf dem Ross-Schelfeis in der Antarktis am 17. Juli ihren eigenen jahreszeitlichen Meilenstein: Sie sank auf -60 °C – und markierte damit den Beginn der tiefwinterlichen Abkühlung in der Region.

Zum Vergleich: Der bisherige Juli-Tiefstwert in Margaret wurde am 18. Juli 2017 mit -64,7 °C gemessen.

Die Antarktis liefert weiterhin mit großer Beständigkeit extreme Kälte. Während das Meereis um den Kontinent stark schwankt, sowohl nach oben als auch nach unten, weigert sich das riesige Inlandeis, sich zu bewegen – festgehalten von anhaltend unterdurchschnittlichen Temperaturen.

Link: https://electroverse.substack.com/p/record-cold-sweeps-parts-of-the-us?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 29 / 2025

Redaktionsschluss für diesen Report: 18. Juli 2025

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




KLIMAKULT-ORGANISATION OAS sagt, dass die globale Erwärmung die Erde in Brand setzen wird und dass jeder, der anderer Meinung ist, zu 100 PROZENT ZENSIERT WERDEN MUSS

S.D. Wells

Das Schneeballsystem nimmt kein Ende. In einem weitreichenden neuen Rechtsgutachten hat der Interamerikanische Gerichtshof für Menschenrechte (IACHR) erklärt, dass der Klimawandel ein Menschenrechtsproblem darstellt und dass alle 35 Mitgliedsstaaten der Organisation Amerikanischer Staaten (OAS) – einschließlich der Vereinigten Staaten und Kanadas – rechtlich verpflichtet sind, ihn zu bekämpfen.

In der beratenden Entscheidung des in Costa Rica ansässigen Gerichts heißt es, dass der Einzelne ein Menschenrecht auf ein stabiles Klima hat und dass die Regierungen dringend Maßnahmen ergreifen müssen, um die Treibhausgas-Emissionen zu reduzieren, sich an die veränderten Bedingungen anzupassen und sich vor Klimadesinformation zu schützen.

Klima als Menschenrecht: Der Interamerikanische Gerichtshof für Menschenrechte hat den Zugang zu einem stabilen Klima zum Menschenrecht erklärt und entschieden, dass die Mitgliedsstaaten der Organisation Amerikanischer Staaten (OAS), einschließlich der USA und Kanadas, rechtlich verpflichtet sind, Treibhausgasemissionen zu reduzieren, sich an den Klimawandel anzupassen und global zu kooperieren.

Mandat zur Zensur von „Desinformation“: Das Gericht fordert die Staaten auf, mit Technologieplattformen, Medien und digitalen Akteuren zusammenzuarbeiten, um klimabezogene „Falschinformationen“ zu bekämpfen. Dies impliziert Einschränkungen der Redefreiheit, welche die vorherrschenden Klimanarrative in Frage stellt – was insbesondere in Ländern wie den USA Bedenken hinsichtlich der Redefreiheit aufwirft.

Weitreichende Jurisdiktion: Obwohl die USA keine Vertragspartei der Amerikanischen Menschenrechtskonvention sind, behauptet das Gericht, dass sein Urteil für alle 35 OAS-Mitglieder gilt, was zu der Kritik führt, dass es versucht, souveränen Nationen internationale Klima- und Zensurpolitik aufzuzwingen.

Gegenreaktion der USA wahrscheinlich: Die Reaktionen der USA in der Vergangenheit, insbesondere unter Präsident Donald Trump und Vizepräsident JD Vance, deuten auf eine starke Ablehnung internationaler Umweltvorschriften oder Zensur hin. Frühere Drohungen mit Vergeltungsmaßnahmen wegen Kohlenstoffsteuern auf die US-Schifffahrt und Warnungen vor der Regulierung von Plattformen wie X (ehemals Twitter) deuten auf einen wahrscheinlichen Widerstand gegen die Empfehlungen des Gerichts hin.

Interamerikanischer Gerichtshof entscheidet, dass Nationen Emissionen reduzieren und Skeptiker zensieren müssen

In der 300-seitigen Stellungnahme des Gerichtshofs werden „dringende und wirksame“ staatliche Maßnahmen zur Bewältigung der Klimakrise auf der Grundlage der besten verfügbaren wissenschaftlichen Erkenntnisse gefordert. Es betont, dass diese Verpflichtungen nicht auf die Unterzeichner der Amerikanischen Menschenrechtskonvention beschränkt sind, sondern für alle OAS-Mitglieder verbindlich sind. Das Gericht stützt sich auf nationales, regionales und internationales Recht, um zu argumentieren, dass der Schutz heutiger und künftiger Generationen vor dem Klimazusammenbruch eine rechtliche Verpflichtung der Regierungen ist.

Einer der umstrittensten Aspekte des Urteils betrifft die Frage der klimabezogenen Desinformation. Das Gericht empfiehlt den Staaten, aktiv mit Social-Media-Plattformen, Technologieentwicklern und Nachrichtenmedien zusammenzuarbeiten, um Fehlinformationen über den Klimawandel zu bekämpfen. Es plädiert für „Medien- und Informationskompetenz“-Programme und koordinierte Maßnahmen, um sicherzustellen, dass digitale Inhalte wahrheitsgemäß und zuverlässig sind. Dies deutet im Wesentlichen auf eine staatlich unterstützte Zensur oder Kontrolle von Online-Diskussionen hin, die als Klima-Desinformation eingestuft werden.

Kritiker, insbesondere in den USA, haben ihre Besorgnis darüber zum Ausdruck gebracht, was sie als einen ausländischen Versuch ansehen, die nationale Souveränität und den ersten Verfassungszusatz außer Kraft zu setzen. Sie argumentieren, dass die Aufforderung des Gerichts, gegen Desinformation vorzugehen, die Tür zur Zensur abweichender Stimmen öffnen könnte, einschließlich Wissenschaftlern, Kommentatoren und Politikern, welche die vorherrschenden Klima-Narrative in Frage stellen.

Dies ist das zweite internationale Gericht, das ein solches Rechtsgutachten abgibt. Im vergangenen Jahr entschied der Internationale Seegerichtshof, dass Treibhausgase Schadstoffe sind, welche die Meeresökosysteme schädigen, und dass die Staaten rechtlich verpflichtet sind, sie zu kontrollieren. Dieses Urteil löste einen Vorstoß für internationale Kohlenstoffsteuern auf die Schifffahrt aus – ein Schritt, den die Trump-Regierung entschieden ablehnt. In einem durchgesickerten diplomatischen Schreiben warnte die Regierung, dass die USA Vergeltungsmaßnahmen gegen jede Nation ergreifen würden, die versucht, solche Gebühren für amerikanische Schiffe zu erheben, und bezeichnete die Vorschläge als „unverhohlen unfair“.

Vizepräsident J.D. Vance äußerte sich kürzlich in diesem Sinne und warnte, dass die amerikanische Unterstützung für internationale Bündnisse wie die NATO gefährdet sein könnte, wenn europäische Regierungen US-Plattformen wie X (früher Twitter) zensieren. Vance verwies auf frühere Drohungen der EU gegen Elon Musk wegen der möglichen Wiedereinsetzung des Accounts von Präsident Donald Trump und bezeichnete diese als Angriffe auf die amerikanische Redefreiheit.

Angesichts des IACHR-Urteils sind künftige Spannungen zwischen der US-Regierung – insbesondere unter einer möglichen zweiten Trump-Regierung – und internationalen Rechtsgremien wahrscheinlich, die die Zuständigkeit für Klimapolitik und Sprachregulierung beanspruchen. Auch wenn die Stellungnahme des Gerichts nicht bindend ist, signalisieren ihr weitreichender Geltungsbereich und die Durchsetzung von Rechtsnormen für die gesamte westliche Hemisphäre einen wachsenden Vorstoß für eine supranationale Klimagovernance und möglicherweise einen Konflikt über nationale Souveränität und freie Meinungsäußerung.

Auf ClimateAlarmism.news finden Sie aktuelle Informationen über psychotische Milliardäre, die einen großen Teil ihres Geldes ausgeben, um die Fleisch- und Milchprodukte zu verfälschen und gleichzeitig die Bevölkerung um ein paar Milliarden Menschen zu verringern.

Quellen für diesen Beitrag sind u. A.: NaturalNews.com, BezoEarthFund.org

Link: https://climate.news/2025-07-08-oas-says-global-warming-about-to-burn-earth.html

Übersetzt von Christian Freuer für das EIKE

 




Prof. Gerd Ganteför gegen Prof. Jochem Marotzke: Wer von beiden sagt wissenschaftlich korrekt aus?

Die Talk Show von Markus Lanz (10.7.25)

Bevor auf das eigentliche Thema der vorliegenden EIKE-News eingegangen werden kann – nämlich das Youtube von Gerd Ganteför, in welchem er eine Kernaussage von Marotzke in der Lanz-Talk-Show fachlich angreift und sich sogar über eine Verächtlichungmachung seitens Marotzke’s beschwert – muss kurz auf die Lanz-Talk-Show eingegangen werden:

In der Talk Show von Markus Lanz am 10. Juli 2025 (hier) waren als Gäste Maja Göpel (hier), Boris Palmer (hier), Jochem Marotzke (hier) und Axel Bojanwski (hier) eingeladen. Das Thema der Talkshow orientierte sich an den jüngsten katastrophalen Überschwemmungen in Texas, die Wetterereignisse, aber keine Klimaereignisse waren. Die Talk Show wurde dennoch vom ZDF mit drei Schwerpunkten beschrieben als „Über das Ziel, Tübingen bis 2030 klimaneutral zu machen, Konzepte für eine zukunftsfähige Gesellschaft, den aktuellen Stand der Klimaforschung und den gesellschaftlichen Diskurs zu diesem  Thema“. Es gibt bereits zwei Kritiken an der Lanz-Talk-Show, eine negative von Michael Limburg (hier) und eine fast schon positive (hier).

Nun meine dritte Kritik: Von den vier Eingeladenen wiesen nur Marotzke und Bojanowski überhaupt Klima-Fachkenntnisse für eine sinnvolle Diskussion auf. Die beiden restlichen Gäste und Lanz waren fachlich „unterirdisch“. Palmer, ein bemerkenswert tüchtiger OB, faselte von seinem Ziel, Tübingen bis 2030 klimaneutral zu machen. Zu diesem Projekt kann man nur noch die Antwort von Prof. André Thess (hier) der Uni Stuttgart auf das Wahnsinnsprojekt „deutsche Klimaneutralität“ empfehlen, schließlich ist Palmer studierter Mathematiker fürs Lehramt.

Thess, von Bojanowski (sic) am 12.04.2025 interviewed (hier) ermittelte Gesamtkosten von zehn Billionen Euro, also etwa 100.000 Euro pro Kopf in Deutschland, um deutsche Klimaneutralität bis 2045 zu erreichen (das Ziel von Palmer ist sogar noch näher auf die nächsten 15 Jahre gesteckt). Gestreckt auf 20 Jahre von heute bis 2045 müsste gemäß Thess Deutschland jährlich 10% seiner Wirtschaftsleistung nur für Klimaneutralität ausgeben. Auch  FOCUS und FAZ berichteten über die Abschätzung von Thess (hier, hier). Thess ist kein nobody, und er hat seine Abschätzung in einem Podcast von Thichys Einblicke einwandfrei und nachvollziehbar begründet (hier). Thess ist auch nicht mehr alleine. Auch die britische Finanzaufsichtsbehörde OBR schlägt Alarm zur Umstellung Großbritanniens auf eine Netto-CO2-Null-Wirtschaft (hier).

Alle eingeladenen Gäste der Lanz-Talk-Show sprachen sich für den Wahn „Klimaneutralität“ aus – ohne erkennbares verantwortungsvolles Nachdenken über die katastrophalen Folgen dieses Wahns für den Wohlstand Deutschlands und der diesen Wohlstand erzeugenden Industrie (auf Bokanowski komme ich gleich). Solchen Leuten ist das Wohlergehen der deutschen Bevölkerung offenbar völlig schnuppe.

Hauptsache ist anscheinend, dass sich Deutschland der nicht bei der CO2-Vermeidung mitmachenden Welt wieder einmal als Vorbild zeigen kann. 85% der Weltbevölkerung denken nämlich gar nicht an CO2-Vermeidung, und sie haben dafür sehr vernünftige und nachvollziehbare Gründe. Die Hoffnung, dass die historisch wohlbekannte und stets mit einer Katastrophe verbundenen deutschen Lieblingsübung, Vorbild aller Völker zu spielen oder gar die Welt zu retten, einmal dem gesunden Menschenverstand weichen würde, darf man auch nach dieser Lanz-Talk-Show wieder begraben.

Was Frau Göpel angeht, hätte Lanz an ihrer Stelle besser Greta Thunberg oder Luisa Neubauer eingeladen. Das fachliche Vakuum wäre gleichgeblieben, nur die Talk Show lustiger geworden. Zu allen von Bojanowski geäußerten vernünftigen Vorbehalten konnte ich keine fachlichen Gegenargumente dieser gut aussehenden Dame vernehmen, nur das stets Wiederholte „… doch bitte, bitte niemals die Hauptsache „CO2-Vermeidung zu vergessen„. Dass solch eine „Expertin“ Karriere bis hin zu einer Honorarprofessur machen konnte, läßt vielleicht manchen vermuten, dass  ganz allgemein etwas in Deutschland schief lief und der grüne Marsch durch die Institutionen erfolgreich war.

Zu Bojanowski ist entlastend anzumerken, dass er zwar sehr viel deutlicher in seinem Klimabuch (hier) und in einem Interview (hier) spricht, dies aber nicht in der Lanz-Talk-Show vor Millionenpublikum. Er würde dann nämlich nie wieder eingeladen werden, zweifellos kein Unglück, denn welcher vernünftige Mensch begibt sich freilwillig in eine deutsche Talk-Show. Der Druck auf den Arbeitgeber Bojanowski’s, die WELT, dürfte freilich bei mehr Mut so groß werden, dass die WELT als Bauernopfer vermutlich den Job Bajonowski’s streichen würde. Einknicken vor grünem Unsinn ist ja momentan „die“ Mode in Deutschland. Was man von Bojanowski bei Lanz wirklich erfuhr, ist „zwischen den Zeilen“ herauszuhören (vielleicht war dies auch der Grund, warum er viel zu schnell und hastig sprach). Nur wer sich in ähnlicher beruflicher Abhängigkeit befindet und deutlich mutiger ist als er, möge den ersten Stein werfen.

Gerd Ganteför weist eine Kernaussage Jochem Marotzke‘s der Lanz-Talk-Show zurück

Ganteför ging es ausschließlich um die fachlich fragwürdige Behauptung Marotzke’s, auch die CO2-Senken Ozean und Biosphäre könnten nicht verhindern, dass ein Viertel des anthropogenen CO2 unabdingbar in der Atmosphäre verbliebe. Die Aufregung Ganteförs darüber ist berechtigt, denn diese fachlich falsche Aussage hat es in sich. Ganteför leitete aus Marotzke‘s Aussage eine Verächtlichmachung oder „Sich lustig machen“ seiner Youtubes über dasCSenkenmodell“ her. Falls es so war, ist ignorieren immer das beste, denn Wissenschaft ist immer Streit, der aber nie ad hominem gehen darf. Nun ist Ganteför keineswegs der Entdecker des Senkenmodells, sondern berichtet darüber in seinen wirklich guten Erklärvideos (ich kenne Ganteför aus früheren Zeiten persönlich, schätze ihn sehr und vertrat ihn sogar einmal in seinem Seminar an der Uni Konstanz). Ein „Sich lustig machen“ seitens Marotzke in der besagten Talk Show konnte ich allerdings nicht hören, auch den Namen Ganteför nicht. Dies lag aber vielleicht nur an meinem unzureichenden Anschauen der Lanz-Talk-Show. Talk-Shows ertrage ich nicht über längere Zeit.

Wie auch immer es sich verhielt, Ganteför ließ nicht locker. Ein Freund von ihm hatte die kostenbewehrte Version von ChatGpd abonniert und fragte spaßeshalber ChatGpd, was es über das Senkenmodell wüsste und ob es gemäß wissenschaftlicher Fachliteratur in Ordnung sei. Das Ergebnis darf als kleine Sensation gelten. Schauen Sie sich das Ganteför-Erklär-Youtube in seinen Einzelheiten selber an (hier). Natürlich ist das Senkenmodell in Ordnung, ChatGpd bestätigt es, und es entspricht der begutachteten Fachliteratur. Sogar die hier als Zeuge unverdächtige EU schustert auf diesem Modell ihre Klimapolitik zusammen. Dies allerdings mit einem derart abstrusen Fehler, dass man sich vor lachen verschluckt.

Der EU-Fehler geht so: Das Senkenmodell ist von der EU akzeptiert, d.h. je mehr anthropogenes CO2 in der Luft, umso mehr fließen in die Senken Ozeane und Pflanzenwachstum – heute verbleiben übrigens von 1 Tonne in die Atmosphäre geblasenem anthropogenen CO2 nur noch die Hälfte in der Luft, die andere Hälfte geht zu gleichen Teilen in die Ozeane und ins Pflanzenwachstum. Mit den Ozeanen ist die EU aber doch nicht einverstanden! Nicht der Physik wegen, sondern aus formalen Gründen, denn Ozeane gehören nicht zur EU. Unglaublich, aber wahr! Vielleicht dient dieser EU-Witz aber auch nur dazu, höhere CO2-Einsparungen zu rechtfertigen, EU-Verdummungen der Bevölkerungen sind hinreichend bekannt.

Nun aber zur Frage, warum Marotzke das Senkenmodell ablehnt. Er hätte für seine Auffassung sogar begutachtete Fachveröffentlichungen nennen können, was in einer Talk Show natürlich nicht möglich ist. Wissenschaft muss immer Streit sein, Marotzke hat also durchaus einen Punkt mit seiner Behauptung, die ich auch respektiere. Um zu verstehen, was er meinte und wo sein Fehler zu suchen ist, werde ich im Folgenden kurz das Senkenmodell vorstellen, weil ich selber Mitautor eines frühen papers darüber bin (s. Literaturanhang).

Die Schlüsselrolle beim CO2-Kreislauf spielen die Ozeane, die grob die vierzigfache Menge der Atmosphäre an frei gelöstem CO2 enthalten. Der CO2-Partialdruck der Ozeane ist infolgedessen nicht vom vergleichsweise verschwindenden CO2-Gehalt der Erdatmosphäre abhängig. Er bleibt konstant, unabhängig davon, wie viel CO2 die Menschheit in die Luft bläst. Zwischen Ozeanen und Atmosphäre vor dem anthropogenen CO2 gab es nur einen gleichgewichtigen natürlichen Hin-und-Her-CO2-Austausch, wobei die Verweilzeit eines CO2-Moleküls in der Luft nur wenige Jahre betrug. Am CO2-Gehalt der Luft hatte sich daher früher so gut wie nichts geändert. Dieses Gleichgewicht wurde durch die menschgemachten CO2-Emissionen dann zu einem immer höherem CO2-Gehalt der Luft verschoben (Henry Gesetz). Dies erfolgte nur, weil die natürliche Herstellung des CO2-Partialgleichgewichts zwischen Ozean und Atmosphäre eine lange Zeitverzögerung von über 50 Jahren aufweist – entsprechende Fachpublikationen geben unterschiedliche Werte an, was an den grundlegenden Mechanismen aber nichts ändert.

Die Konsequenz der geschilderten Zusammenhänge war und ist weiterhin ein stetig steigender CO2-Partialdruck der Luft im Vergleich zum dem konstant bleibenden CO2-Partialdruck der Ozeane. Der Partialdruck in der Luft wurde seit 1958 genau vermessen, er verlief von ca. 280 ppm bis etwa 320 ppm von 1850 bis 1958 und stieg danach bis auf  heute ca. 420 ppm an Der stetig höhere CO2-Partialdruck in der Luft drückt immer mehr CO2 in die Ozeane und das Pflanzenwachstum als zweite Senke. Die sich in dieser Richtung ändernden Werte des globalen CO2-Kreislaufs, die Quellen und Senken über die letzten Jahrzehnte werden benfalls seit Jahren gemessen, dokumentiert und in Fachpublikationen beschrieben. Im Anhang dieser EIKE-News ist eine (unvollständige) Literaturliste zu finden.

Nun der alles entscheidende Punkt, den die Klimakatastrophen-Alarmisten fürchten wie der Teufel das Weihwasser: Der CO2-Gehalt der Atmosphäre durch anthropogene CO2-Emissionen kann eine obere Grenze von ganz grob 600-800 ppm grundsätzlich nicht überschreiten! Damit wäre die berühnte Klimasensitivität, die auf Verdoppelung der jeweils aktuellen CO2-Konzentration der Luft basiert, bereits obsolet, denn 2 x 400 = 800 ppm sind gar nicht erreichbar.

Der Grund der genannten Obergrenze ist unschwer zu verstehen: Um den CO2-Anstieg in der Atmosphäre weiterhin zu steigern sind immer höhere CO2-Emissionen erforderlich, denn es fließen schließlich bei dieser Steigerung auch immer entsprechend gesteigerte Mengen des anthropogenen CO2 in die Ozeane und das Pflanzenwachstum. Theoretisch gleichbleibende anthropogene CO2-Emissionen würden nach sehr langen Einschwingzeit den CO2-Gehalt der Luft konstant werden lassen, alles anthropogene  CO2 ginge dann in die beiden Senken.

Man stelle sich dazu, wie bei Ganteför so schön veranschaulicht, die Atmosphäre als Badewanne und das CO2 als Wasser in der Wanne vor. Die Badewanne hat zwei Löcher, durch die immer mehr abfließt, je höher der Wasserstand der Badewanne ist. Bei konstantem CO2-Zufluss bleibt der sich enstellende Wasserspiegel (CO2-Konzentration der Luft) nach langer Abklingzeit konstant, obwohl die Menschheit konstant weiter CO2 in die Luft bläst.

Dies alles ist aber bei der genannten Grenze um die 600-800 ppm CO2 in der Luft beendet. Das Verbrennen der Ressourcen an Kohle, Öl und Gas reicht nämlich irgend wann nicht mehr für immer höhere CO2-Konzentrationen der Luft aus, weil dabei zwangsweise die Ozeane und das Pflanzenwachstum ebenfalls immer stärker mit dem anthropogenen CO2 „gefüttert“ werden. Bevor dies in wenigen hundert Jahren endgültig der Fall sein würde, werden freilich längst Kernkraftwerke (Brüter) der Generation IV die komplette Energieversorgung der Menschheit übernommen haben – CO2-frei und mit Brennstoffreserven von mehr als mehreren Millionen Jahren (hier). Die Fusion wäre theoretisch dazu auch fähig, ich glaube aber nicht, dass sie jemals wirtschaftlicher als die Fission sein kann. Es gibt infolgedessen absolut keinen Grund, einen unaufhaltbaren CO2-Anstieg der Atmosphäre durch menschgemachte Aktivitäten zu befürchten.

Von den Klima-Aktivisten und der Ozeanchemie mit unzähligen Forschern in Arbeit und Brot wird diese Schilderung nicht gerne gehört. Als wissenschaftliches Gegenargument führen sie den Revelle-Effekt an, der zukünftig die CO2-Aufnahme des Ozeans vermindern soll. Das ist vermutlich auch die Argumentation Marotzke’s, er hat sie in der Talk Show aber nicht näher erklären können. Der Revelle Effekt existiert tatsächlich (hier) – aber nur im Labor. Die Ozeane mit ihrer komplexen Biologie ticken anders, beispielsweise beherbergen sie Kalkschalen bildende Lebewesen, die nach Ende ihres Lebens auf den Meeresgrund sinken und weiteres mehr. In der Natur hat man den Revelle-Effekt nicht nachweisen können (hier). In dieser Studie der renommierten Atmospheric Chemistry and Physics der Europäischen Geophysikalischen Union EGU, lautet der entscheidende letzte Satz im abstract „Therefore, claims for a decreasing long-term trend in the carbon sink efficiency over the last few decades are currently not supported by atmospheric CO2 data and anthropogenic emissions estimates.”

Ganteför hat auf einem anderen Weg an Hand von Messungen ebenfalls korrekt gegen die Auffassung Marotzke’s argumentiert (s. Titelbild). Da Wissenschaft immer Streit sein muss, ist die oben geschilderte Erkenntnis der Korrektheit des Senkenmodells nicht in Stein gemeißelt. Es ist aber extrem unwahrscheinlich, dass sie falsch ist.  Marotzke sollte sich daher vielleicht einmal die Aussage von Richard Feynman, einem der bedeutendsten Physiker des 20. Jahrhunderts zu Herzen nehmen:

Egal, wie bedeutend der Mensch ist, der ein Modell vorstellt, egal, wie elegant es ist, egal wie plausibel es klingt, egal wer es unterstützt, wenn es nicht durch Beobachtungen und Messungen bestätigt wird, dann ist es falsch.

Eine (unvollständige) Fachliteratur zum Thema CO2-Senkenmodell

  • Joachim Dengler & John Reid (2023), Emissions and CO₂ Concentration – An Evidence Based Approach,  Atmosphere, mdpi
  • Keenan et al. (2023), A constraint on historic growth in global photosynthesis due to rising CO2, nature climate change
  • Wang, S., et al. (2020), Recent global decline of CO2 fertilization effects on vegetation photosynthesis, Science
  • O’Connor (2020),“Modeling of Atmospheric CO₂ Concentrations as a Function of Fossil‑Fuel and Land‑Use Change…”, Climate, mdpi
  • Gaubert et al. (2019), Global atmospheric CO2 inverse models converging on neutral tropical land exchange, but disagreeing on fossil fuel and atmospheric growth rate, Biogeosciences EGU
  • Strassmann & Joos (2018), The Bern Simple Climate Model (BernSCM) v1.0. Model Dev.
  • Zhu, Z., Piao, S., et al. (2016), Greening of the Earth and its drivers, Nature Climate Change
  • Weber, Lüdecke, Weiss (2015), A simple model of the anthropogenically forced CO2 cycle, Earth Syst. Dyn. Discuss.
  • Sarmiento et al. (2010), Trends and regional distributions of land and ocean carbon sinks, Biogeosciences
  • Rödenbeck et al. (2003),CO₂ flux history 1982–2001 inferred from atmospheric data using a global inversion…, Chem. Phys.
  • Stephens et al. (2007), Weak Northern and Strong Tropical Land Carbon Uptake from vertical profiles of atmospheric CO2, Science
  • Tans, Fung & Takahashi (1990), Observational constraints on the global atmospheric CO₂ budget, Science
  • Keeling & Whorf (1979), The Suess effect: ¹³Carbon–¹⁴Carbon interrelations, Int.

Ein Nachttrag in Memoriam des in 2010 verstorbenen EIKE-Mitglieds Ernst Beck

Immer wieder wird (korrekt) angemerkt, dass bodennahe CO2-Konzentrationen bis weit über 500 ppm ansteigen können und diese Werte bereits im 19. Jahrhundert vor der Industrialisierung belegt sind.  Die daraus abgeleitete Hypothese, dass der aktuelle CO2-Anstieg aus anthropgenen Quellen blanker Unsinn sei, geistert aus diesem Grund immer noch herum. Insbesondere Ernst Beck (Gymnasiallehrer in Freiburg) vertrat sie. Er hatte in jahrelanger monumentaler Arbeit unzählige Messungen von Meteorologiestationen des 19. Jahrhundert ausgewertet und weit höhrer CO2-Konzentrationen als heute gefunden. Die modernen CO2-Messungen werden allerdings auf hohen Bergen oder isolierten Inseln vorgenommen.

Dann passierte etwas, das einen nur noch den Hut vor Beck ziehen lässt. Er erkannte seinen Irrtum und korrigierte ihn ohne zu zögern. So verhält sich nur ein echter Wissenschaftler.  Beck  zusammen mit dem Franzosen Dr. Francis Massen waren dann meiner Kenntnis nach die ersten, die den Grund für die irritierend hohen CO2-Konzentrationen bis weit in 19. Jahrhundert hinein aufklärten und die modernen CO2-Messungen bestätigten.

Die Idee von Beck und Massen und Beck bestand darin, die historischen CO2-Messungen durch orts- und zeitgleiche Messungen der Windgeschwindigkeiten zu ergänzen, die oft noch den historischen Unterlagen beilagen. Dabei stellte sich heraus, dass starke Schwankungen der CO2-Konzentrationen bis hin zu sehr hohen Werten nur bei sehr kleinen Windgeschwindigkeiten auftraten, bei zunehmender Windgeschwindigkeit aber verschwanden. Anschaulich ausgedrückt, bläst der Wind die lokalen CO2-Fluktuationen weg und lässt nur den CO2-Untergrund übrig, der dann den gemessenen Mauna-Loa-Werten entspricht. Bei ihren zahlreichen Auswertungen konnten die beiden Autoren die Zuverlässigkeit Ihrer „Windmethode“ auf maximal 10 ppm Abweichung zu den Mauna-Loa-Daten eingrenzen. Da all dies kurz vor dem Tod Becks erfolgte, konnte die daraus folgende Fachpublikation nicht mehr in einem zuständigen Fachjournal eingereicht werden und ist daher leider nur indirekt unter

Massen, F., Beck, E. G., 2011. Accurate estimation of CO2 background level from near ground measurements at non-mixed environments. In: W. Leal Filho (Ed.). The Economic, Social and Political Elements of Climate Change, pp. 509-522. Berlin, Heidelberg: Springer.

aufzufinden.

Quelle des Titelbildes

Von mir entnommen aus der Fachstudie Hua et al. (2022): Atmospheric radiocarbon for the period 1950–2019, Radiocarbon 64:723–745

 

 

 

 

 




Frankreichs Wasserkraft-Passion und die EU

Die Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen ist nicht zielführend

Edgar L. Gärtner

 

Das französische System der Elektrizitätsversorgung unterscheidet sich nicht nur durch seinen hohen Kernenergie-Anteil von den Systemen seiner unmittelbaren Nachbarländer, sondern auch durch die relativ hohe Bedeutung von Wasserkraftwerken an großen Stauseen und manchen Flüssen. Zwar reicht die Produktion der französischen Wasserkraftwerke mit etwa 75 Terawattstunden (TWh) im Jahre 2024 bei weitem nicht an das Niveau Norwegens heran, wo Wasserkraftwerke im regenreichen Jahr 2024 die Rekordmenge von 140 TWh und damit 89 Prozent der gesamten Elektrizitätsproduktion erzeugten.

Aber die Wasserkraftwerke erzeugten in Frankreich in den letzten Jahren im Schnitt immerhin etwa 12 Prozent der nationalen Bruttostromproduktion gegenüber nur etwa 4 Prozent in Deutschland. Im Jahre 2024 waren es in Frankreich sogar fast 14 Prozent. Damit ist die Hydroelektrizität nach der Kernkraft Frankeichs zweitwichtigste Stromquelle. Dabei ist das Wasserkraft-Potenzial in Frankreich noch keineswegs ausgeschöpft. Es könnten ohne Weiteres 100 TWh gewonnen werden, stünden dem nicht ökologische Einwände und bürokratische Hindernisse entgegen.

Als besonderer Hemmschuh erweist sich die Regulierung durch Brüssel Es geht dabei nicht nur um die SUP- und UVP-Richtlinie, die in Verbindung mit dem Widerstand grüner NGOs einen langwierige Papierkrieg nach sich ziehen können, sondern in neuer Zeit mehr um die Richtlinien 2006/123/EG (Dienstleistungsrichtlinie) über die Transparenz von Projekten und die Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen.

Danach müssen Wasserkraftprojekte ab einer gewissen Größe durch Ausschreibungen grundsätzlich für Wettbewerber geöffnet werden. Damit wird zum einen die historisch gewachsene Monopolstellung des inzwischen verstaatlichten Versorgungskonzerns Électricité de France (EDF), der die Nutzung der Wasserkraft in Frankreich heute zu 70 Prozent kontrolliert, in Frage gestellt. Nach dem Ende der deutschen Besatzung im Zweiten Weltkrieg gab es in der französischen Gesellschaft einen breiten antifaschistischen Konsens über den Aufbau eines national einheitlichen Stromversorgungssystems mit garantiertem Anschluss auch isolierter Häuser außerhalb geschlossener Ortschaften.

Es gibt aber nicht nur historische, sondern auch physische Gründe für die Monopolstellung eines Talsperrenbetreibers in einem Wassereinzugsgebiet (Bassin). Um die Fischfauna schützen, die Hochwassergefahr vermindern, die landwirtschaftliche Bewässerung, die Kühlung der Kernreaktoren und die Schiffbarkeit eines Gewässers garantieren zu können, müssen Zu- und Abfluss der oft in Kaskaden hintereinander angeordneten Talsperren fein untereinander abgestimmt werden, was am besten gelingt, wenn sich alle Staustufen in einer Hand befinden. Wir verdanken es EDF, der Compagnie Nationale du Rhône (CNR) und der Société hydroélectrique du Midi (Shem), dass die zum Teil ariden Regionen Provence und Languedoc heute überwiegend grün sind. (Ich habe selbst in den 1970er Jahren meine Diplomarbeit über den wichtigen Alpenfluss Durance erstellt, die von den Hochalpen in die Provence fließt und eine solche Kette großer und kleinerer Stauwerke versorgt, die alle von EDF gemanagt werden.) Dabei ist klar, dass jede Wasseraufstauung gewichtige ökologische Belastungen mit sich bringt, die gegen den möglichen gesellschaftlichen Nutzen der Elektrizitätsproduktion unvoreingenommen abgewogen werden müssen, was in der Vergangenheit leider oft vernachlässigt wurde.

Die boomende Nachkriegswirtschaft fußte in Frankreich bis in die 1960er Jahre überwiegend auf dem Einsatz günstiger Elektrizität aus Wasserkraftwerken, weil größere Kernkraftwerke zunächst nicht zur Verfügung standen. Neben EDF beteiligten sich auch private Investoren am Bau von Wasserkraftwerken. Zum Teil handelt es sich dabei um das Erbe mittelständischer Industrien, die bis zum Aufbau einer halbwegs leistungsfähigen überregionalen Elektrizitätsversorgung direkt mit Wasserkraft betrieben wurden. Insgesamt gibt es zurzeit in Frankreich noch etwa 400 Konzessionen für den Betrieb von Talsperren und Laufwasser-Staustufen. Die Kapazität vieler kleiner und mittlerer Wasserkraftwerke könnte durch den Bau zusätzlicher Turbinen bzw. den Ersatz herkömmlicher durch Kaplan-Turbinen mit überschaubarem Investitionsaufwand erheblich gesteigert werden. Doch verhindert die durch den Erlass der EU-Richtlinie 2014/23/EU entstandene Rechtsunsicherheit solche Investitionen.

Das offiziöse Franceinfo des französischen Staatssenders Radio France schildert in einer Reportage an konkreten Beispielen, wie die EU-Regulierung zum Investitionshemmnis wird: So schildert Yves Dubief, ein Textilienfabrikant, der in den Vogesen am Zusammenfluss von Mosel und Vologne das 1947 von seinem Großvater erbaute Wasserkraftwerk betreibt, dass er dieses mit einer Investitionen von nur 700.000 Euro ertüchtigen könnte. Doch seine Konzession läuft, wie die der meisten nach dem Krieg für 75 Jahre erteilten Konzessionen zum Ende dieses Jahres aus. Da er nicht weiß, wer nach deren Neuausschreibung den Zuschlag bekommen wird, ist die Investition für ihn sinnlos.

Auch der riesige Staatskonzern EDF befindet sich in einer vergleichbaren Lage. Zum Beispiel beim großen Wasserkraftwerk Montézic im südfranzösischen Département Aveyron. Dieses Kraftwerk, dessen Kapazität mit einem Kernreaktor vergleichbar ist, arbeitet zurzeit mit vier Turbinen. EDF möchte hier für eine halbe Milliarde Euro zwei zusätzliche Turbinen installieren. Das würde sieben Jahre in Anspruch nehmen. Es wäre aber gut möglich, dass bei der von der Brüsseler Kommission geforderten Neuausschreibung der Kraftwerks-Konzession ein Wettbewerber das Rennen macht. Caroline Togna, die zuständige EDF-Direktorin, sieht deshalb keine andere Möglichkeit, als den Ausgang der begonnenen Kraftprobe zwischen dem französischen Staat und der Brüsseler Kommission abzuwarten.

Anders als in Frankreich üblich, steht die französische Nationalversammlung beim Rechtsstreit zwischen Paris und Brüssel einstimmig hinter der Regierung. Gerade im Hinblick auf de befriedigende Lösung einer Vielzahl sozialökonomischer Aufgaben durch EDF und andere Projekte des Wassermanagements sehen die Volksvertreter keinen Sinn in der von Brüssel geforderten Privatisierung mit Konkurrenz zwischen verschiedenen Betreibern. Die Wasserkraft gilt den einen wegen ihrer Stetigkeit und Speicherfähigkeit als beinahe ideale „erneuerbare“ Energie, mit deren Hilfe sie dem (illusorischen) Ziel 100 Prozent „Erneuerbare“ näher zu kommen glauben. Andere hingegen sehen in der Wasserkraft eine interessante Ergänzung der Kernenergie. Anders als die noch in den Kinderschuhen steckenden Small Modular Reactors (SMR) sind auch große Kernkraftwerke nur schwer privatisierbar. Es ist schwierig bis unmöglich, die heraufziehende europäische Energiekrise nach einem einzigen marktwirtschaftlichen Schema anzugehen.

Kurz: Die von der Brüsseler Kommission beschlossene und vom Europa-Parlament abgesegnete Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen steht der Ansteuerung der proklamierten Ziele des „Green Deal“ zumindest in Frankreich entgegen. Die Ansteuerung hehrer grüner Ziele bedarf keiner bürokratischer Zentralisierung, sondern verlangt nach nationaler Selbstbestimmung.