Guten Tag, Herr X.,

Ein Brief per eMail an den Beauftragen der Klima-Arena in Sinsheim (hier) die ihre Besucher mit folgender Einleitung auf ihrer Webseite einzustimmen sucht:

 

Klimawandel im Fokus

Ob als Freizeit- und Erlebnisort, als außerschulischer Lernort mit breitem und vielfältigem Angebot sowie als Weiterbildungs- und Veranstaltungsort: ein Besuch der KLIMA ARENA hinterlässt in jedem Fall einen nachhaltigen Eindruck. Der Erlebnisort in Sinsheim inspiriert alle Zielgruppen zum reflektierten Nachdenken über den Klimawandel, den Einfluss von uns Menschen und unser Verhalten im Alltag.

Von Albrecht Glatzle

Guten Tag Herr X-

zunächst herzlichen Dank für Ihre unkomplizierte, freundliche Aufgeschlossenheit bei unserem Gespräch anlässlich meines Besuchs in der Klima-Arena am vergangenen Donnerstag. Wie Sie bestimmt gemerkt haben, hat es mich Überwindung gekostet, in einem Umfeld eines augenscheinlich 100-prozentigen Konsenses über eine gefährliche Klimabeeinflussung durch anthropogene Treibhausgasemissionen einen dissidenten Standpunkt zu vertreten. In den zurückliegenden 2 Jahrzehnten habe ich in vergleichbaren Gesprächen über dieses Thema alle möglichen Reaktionen erlebt: von Ablehnung über Spott und Unverständnis bis hin zu wohlmeinendem Schulterklopfen („Sie werden es auch noch lernen“). Zustimmung erfuhr ich eher selten, und wenn, dann meist von in der Materie bewanderten Wissenschaftlern. Aber ich bin es meiner Selbstachtung schuldig, mit meinen in 20-jähriger konsequenter autodidaktischer Arbeit gewonnenen Überzeugungen nicht zurückzuhalten, obwohl ich weiss, dass es unmöglich ist, in einem Ambiente erdrückender Schein-Evidenz, in 5 Minuten einen gegenteiligen Standpunkt zu begründen. Und eine Mehrheitsmeinung ist kein wissenschaftliches Argument.

Deshalb schicke ich Ihnen hiermit gerne, wie angekündigt, den Link meiner neuesten Publikation über die Eigenschaften von CO2, die teilweise maßlos übertrieben werden (in Bezug auf das Erwärmungspotential), andererseits aber oftmals auch gänzlich unterschlagen werden (Nährstoffwirkung). Nahezu regelmäßig werden in den Medien, auch unterschwellig, Falschinformationen über CO2 verbreitet (wenn z.B. im Hintergrund Bilder eines rauchenden Schlots gezeigt werden: CO2 ist ein transparentes, farb- und geruchloses Spurengas in der Atmosphäre).

https://co2coalition.org/wp-content/uploads/2024/04/Nutritive-Value-of-Plants-PRINT-final-digital-compressed.pdf

Vielleicht darf Ich gleich darauf hinweisen, dass sich unter den Co-Autoren dieser Arbeit zwei besonders prominente Persönlichkeiten befinden:

1) William Happer, emeritierter Professor am Physics Department der Princeton University (an dem übrigens auch Einstein gewirkt hatte),

2) Patrick Moore: in Ecology promoviert und Mitbegründer von Greenpeace.

Ich selbst bin ein im Fach Pflanzenernährung promovierter Agrarbiologe, der mehr als drei Jahrzehnte lang in der angewandten Agrarforschung in drei Kontinenten tätig war und sich in den letzten 20 Jahren intensiv in die Materie Klimawandel eingearbeitet hat – und auch an rund einem Dutzend Klimakonferenzen teilgenommen hat, darunter an 3 COPs (Lima, Paris und Marrakesch).

Die Arbeit ist ein Literaturreview, in dem wir aufzeigen, dass die Erhöhung der CO2-Konzentration von etwa 0,03 auf etwa 0,04% seit Beginn der Industrialisierung   der Natur, der Landwirtschaft und der globalen Ernährungssicherheit nur gut getan hat: DIe Bruttoprimärproduktion ist weltweit deutlich angestiegen, Der Blattflächenindex hat zugenommen, ein signifikanter Teil der Ertragssteigerung bei landwirtschaftlichen Kulturen seit Malthus ist auf den CO2-Anstieg zurückzuführen, die „Water Use Efficiency“ ist angestiegen, die Vegetationsbedeckung auf den eisfreien Landflächen hat zugenommen, der Anteil unbewachsenen Bodens hat abgenommen, die Erde ist daher eindeutig grüner geworden, besonders markant in eher ariden Gebieten. Diese Tatsache steht im Widerspruch zu dem Eindruck, den die Weltkarte im Garten der Klima-Arena vermittelt. Für unbefangene Wissenschaftler ist es erstaunlich, dass diese Good News (die für jeden Kenner des Liebigschen Minimumgesetzes keine Überraschung ist), in aller Regel entweder nicht zur Kenntnis genommen wird, oder aber mit untauglichen Argumenten (man möchte fast sagen ‚verzweifelt‘) heruntergespielt oder problematisiert wird. Ein Musterbeispiel dafür ist der vor ein paar Jahren in der sehr prominenten Zeitschrift NATURE erschienene Artikel mit dem Titel „Increasing CO2 Threatens Human Nutrition“. Nach der Logik der Autoren müsste man auch die Bewässerung in Trockengebieten unterlassen, denn dadurch bewirkt man einen ähnlichen Effekt wie durch CO2-Zufuhr: stärkeres Wachstum bei Minderung des Nährwerts der Kultur, wenn man nicht entsprechende Gegenmaßnahmen ergreift (z.B. Ergänzungsdüngung mit anderen, ins Minimum geratenen Nährstoffen).

Es ist bemerkenswert, dass es zu allen Generationen akademisch gebildete, als Experten fehlinterpretierte Laien gab und gibt, die unbedacht den jeweils vorherrschenden Mainstream vertreten und damit viel Anerkennung in Wissenschaft und Gesellschaft erfahren. Dazu gehören zum Beispiel auch die Autoren und Peer-Reviewer des genannten Artikels in NATURE (obwohl unbestreitbar genau das Gegenteil der im Titel aufgestellten Behauptung richtig ist!). In diesem Zusammenhang kann aber auch ein berühmtes Beispiel aus der Wissenschaftsgeschichte genannt werden: die inquisitorischen Erpresser von Galileo Galilei, die ihn zwangen, sein heliozentrisches Weltbild zu widerrufen.

Noch ein paar Eindrücke aus der Klima-Arena:

Sehr beeindruckend (aber teilweise auch etwas besorgniserregend aus meiner Perspektive) war für mich die ansprechende, hochprofessionelle, didaktisch eingängige Darstellung des offiziellen Klimanarrativs, teilweise zum Anfassen und Mitmachen. Eindrucksvoll war auch die positive Resonanz bei den zahlreichen, sichtlich lernbegierigen Schulklassen, die sicherlich bleibende Eindrücke und kognitive Prägungen für ihr ganzes Leben von diesem Besuchstag mitnehmen.

Wie ich Ihnen in unserem Gespräch mitgeteilt habe, kritisiere ich jedoch den „Kern des Pudels“: die eher selten direkt benannte, aber unterschwellig immer mitschwingende Diskreditierung anthropogener CO2-Emissionen,

– die als schädlich dargestellt werden und in denen der gesamte Klima-Aktivismus seine Begründung findet,

– mit denen im Pariser Klimaabkommen eine direkte Beziehung zur Größe der Differenz zur (nicht definierten!!!) „vorindustriellen Temperatur“ hergestellt wird

– und die letztlich als die zentrale, wenn nicht sogar einzige, Rechtfertigung aufgebaut werden für die unermesslichen, weltweiten Mittel-Aufwendungen für Klimaschutz, wobei Klimaschutz heute anders als seit den Ursprüngen der Menschheit als Schutz vor den Unbilden und Wechselhaftigkeiten der Witterung und des Klimas verstanden wird. Der Menschheit ist es immerhin gelungen, fast allen Klimazonen der Erde (von der Arktis bis zum tropischen Regenwald) eine nachhaltige Lebensgrundlage abzuringen. Heute beruht der Begriff „Klimaschutz“ dagegen auf der quasi-religiösen Annahme, dass man durch eigenes Wohlverhalten und durch den Verzicht auf bestimmte emissionsstarke Energieformen (Stichwort Low Carbon Economy) das Klima in eine gewünschte Richtung beeinflussen könne.

Seit gut dreissig Jahren wird mit sehr, sehr viel Geld weltweit die institutionalisierung dieses Glaubensbekenntnisses betrieben:

– Gründung von Institutionen (UNFCCC, IPCC, Potsdam Institute on Climate Impact Research etc. etc.), deren Existenzberechtigung nicht etwa auf der Ermittlung und Erforschung von Ursachen und Folgen des seit jeher bestehenden Klimawandels beruht, sondern speziell auf der Bewertung und Abschätzung des menschengemachten Anteils, der von Sachstandsbericht zu Sachstandsbericht des IPCC immer weiter ansteigt und inzwischen fast bei 100% gelandet ist (SR1.5, 2018).

– Es werden jährliche internationale Klimakonferenzen der UNO organisiert (Conferences of Partners COPs) mit jeweils zehntausenden von Teilnehmern und tausenden von kleineren vorbereitenden Konferenzen auf nationaler und internationaler Ebene.

– Die Gründung nationaler Klima-Behörden (bis hin zu eigenständigen Klima-Ministerien), Verabschiedung einer Klima-Gesetzgebung und die Schaffung von Klima-Kommissionen ist bereits in rund 90% der Länder Realität.

– Nahezu alle Länder fertigen in regelmäßigen Abständen ein Nationales Treibhausgas-Inventar an und definieren ihre INDCs (freiwillige nationale Beiträge zum Klimaschutz, die aber kaum ein Land einhält!)

– Immer mehr internationale Abkommen haben den so genannten Klimaschutz zum Thema (z.B. Pariser Abkommen oder Global Methane Pledge).

– Für alle Forschungsanträge, Entwicklungsprojekte und Bauvorhaben ist eine Klima-Risikoanalyse verpflichtend.

– Es werden in allen großen Institutionen und Unternehmen „Klimabeauftragte“ verpflichtend bestellt.

– Es wird ein Handelssystem geschaffen, und zwar nicht für erzeugte, sondern für vermiedene Produkte (Treibhausgas-Emissionen).

– Die CO2-Vermeidung steht so hoch in der politischen Entscheidungsfindung, dass man dafür ein stabiles, sicheres und freies Energieversorgungssystem    volatilen und weniger effizienten und unsicheren Energieformen opfert, die auf dem freien Markt für die Einspeisung in ein Netz keine Chance hätten und deshalb nur mit protektionistischen Maßnahmen durchgesetzt werden können. Enorme Preissteigerungen für Elektroenergie (durch Transport, Grundlastsicherung, Speicherung, Umwandlung, Abnahmegarantien und Entsorgungskosten bei Überschussangebot) sind die Regel. Das Verbot des Verbrennermotors bis 2035 und die verfassungsrechtlich bedenkliche Erhebung in den Verfassungsrang des Ziels der „Klimaneutralität“ bis 2045 sind weitere politisch-planwirtschaftliche Eingriffe in die unternehmerische Freiheit und ein Angriff auf das freie Wechselspiel von Angebot und Nachfrage, was natürlich nur durchzusetzen ist, wenn alle der Überzeugung sind, dass dadurch eine menschheitsgefährdende Klimakatastrophe vermieden wird.

– Vor diesem Hintergrund machen auch die weltweiten Programme Sinn, die die Verankerung des treibhausgas-zentrierten „Klimaschutz“-Gedankens in allen Lehrplänen vom Kindergarten bis zu den Universitäten und damit im Gedankengut und den Wertmaßstäben der Weltbevölkerung zum Ziel haben.

Ist dies auch der tiefere Sinn der Klima-Arena?

Eines ist sicher, die Institutionalisierung einer Idee und die Schaffung von hunderttausenden gut bezahlter Arbeitsstellen, die von ihr abhängen, ist ein enormer Stabilisierungsfaktor für diese Idee.

Vor diesem Hintergrund wage ich zu bezweifeln, dass das Motiv der Gestalter der Klima-Arena nur ehrlich gemeinte Wissensvermittlung ist.

Es geht sicherlich in erster Linie auch um die Erfüllung von Vorgaben und von einer politischen Agenda.

– Sonst würde z.B. über den Atomausstieg nicht politisch korrekt, d.h. eher im Sinne einer Notwendigkeit berichtet werden. Ich hätte dagegen erwartet, dass das Einsparungspotential von CO2 durch die hocheffiziente Form der Kernenergienutzung gefeiert wird.

– Dass bei der Energieerzeugung die CO2-Vermeidung eine irrationale und sogar schädliche Zielsetzung sein könnte, wird nirgends auch nur angedeutet. Die CO2-Vermeidung blitzt überall als unumstößliche, über jede Kritik erhabene Handlungsvorgabe durch. Dass genau deshalb der elektrische Strom in Deutschland bis zu siebenmal teurer als in anderen Ländern ist, kommt an keiner Stelle unter dem Dach der Klima-Arena zum Ausdruck. Vergeblich sucht man auch eine ehrliche Aufarbeitung der sehr hohen, mit Erzeugung, Transport, Speicherung verbundenen Kosten der volatilen erneuerbaren Energien oder der Risiken und physikalischen Begrenzungen der als „Lösung“ dargestellten Wasserstofftechnologie. Auch ein Hinweis darauf, dass immer noch 85% des weltweiten Primärenergiebedarfs durch fossile Energiequellen abgedeckt wird, was mittelfristig weder vermieden noch kompensiert werden kann, ohne die Menschheit in Hunger und Armut zu stürzen, fehlt völlig.

– Schließlich ist der Film zum Abschluss des Besuchs der Klima-Arena für jeden kritisch denkenden Menschen eine Zumutung: Das Aussterben der Eisbären steht nicht bevor! Diese Spezies hat die letzte Zwischeneiszeit vor etwa 110.000 Jahren schon problemlos überlebt, als in der Themse Krokodile und Nilpferde lebten. Und dass das Amazonasgebiet im Jahr 2100 eine Wüste sei, der Ignuazú-Fluss ausgetrocknet sei und das Great Barrier Reef zu 3/4 abgestorben sei (und das alles implizit aufgrund unserer CO2-Emissionen) ist wissenschaftlich völlig absurd und hat geradezu pseudo-religiösen Charakter. Auch die Hervorhebung des südamerikanischen Kontinents als angeblich stark gefährdeter Kontinent ist Unfug. Südamerika ist der mit fast 45% Waldbedeckung (ungefähr die Hälfte davon sind Naturwälder) der waldreichste Kontinent überhaupt. In Brasilien muss heute aufgrund der Umweltgesetzgebung zwischen 20% (Santa Katharina) und 80% (Amazonien) von  Privatland im Naturzustand erhalten bleiben. Dieser Teil bleibt also der Nutzung entzogen und der Natur erhalten. In Europa wurden dagegen rund 99% der Naturwälder gerodet. Auf rund einem Drittel der gerodeten Fläche wurde mehrfach wieder aufgeforstet im Lauf der Jahrhunderte. Dennoch genieße ich z.B. im Schwarzwald die wunderschöne Natur, bestehend aus Wäldern, Wiesen und Feldern, obwohl es keinen m2 unberührten Bodens mehr gibt.

Während Ressourcenschonung und Vermeidung von Umweltverschmutzung gleich hinter der Abdeckung menschlicher Grundbedürfnisse immer sinnvoll ist, gibt es keine belastbaren Argumente für die Diskreditierung als Schadstoff des wichtigsten Nährstoffs allen Lebens, der einzigen C-Quelle aller Biomasse (über Photosynthese und Nahrungsketten), des für optimales Pflanzenwachstum in der Natur defizitären Spurengases CO2! Die verbreitete Fehleinschätzung, dass etwas mehr CO2 in der Atmosphäre schädlich sei, fiel mir übrigens auch bei meinem kürzlichen Besuch des Tags der offenen Tür an meiner ehemaligen Universität Hohenheim auf. Die Forschungsschwerpunkte scheinen dort heute auf „Spielereien“ mit diversen Substraten und Sämereien für die Hinterhof- und Balkon-Gärtnerei zu liegen (die durchaus eine gewisse Bedeutung haben kann). Die Welternährungssicherheit wurde jedoch mit Technologien erreicht wie ausgewogene Mineraldüngung, Pflanzenzüchtung und Pflanzenschutz gegen Unkräuter, Krankheiten und Schädlinge, sowie mit verbesserten Anbau- und Erntetechniken, die zum Beispiel in MItteleuropa seit Malthus und Liebig zu einer Verzehnfachung des mittleren Flächen-Ertrags führten. Auch die sukzessive Erhöhung des Mangelnährstoffs CO2 durch die Nutzung von fossilen Brennstoffen hat einen deutlichen Beitrag zu dieser positiven Ertragsentwicklung geleistet.

In diesem Sinne grüsse ich Sie herzlich

Albrecht Glatzle

PS. Gerne dürfen Sie meine Ausführungen an andere interessierte Personen weiterreichen, gerne auch im Umfeld der Klima-Arena.

 

 




Europa setzt auf Atomenergie, alle außer Deutschland

Während unsere Nachbarn auf der Suche nach mehr emissionsfreier und grundlastfähiger Stromerzeugung eine Renaissance der Kernenergie erleben, schließt sich Deutschland davon noch konsequent aus.

von Klaus-Dieter Humpich

In Europa – außer Deutschland – bahnt sich gerade eine Renaissance der Kernenergie an. Unsere unmittelbaren Nachbarn (Polen, Tschechien, Frankreich, Niederlande) wollen klassische Druckwasserreaktoren bauen. Darüberhinaus gibt es Planungen für SMR (Small Modular Reactor) ebenfalls auf der Basis von Leichtwasserreaktoren. All diesen Typen ist gemein, daß sie (frisches) angereichertes Uran als Brennstoff benötigen und abgebrannte Brennelemente als „Atommüll“ hinterlassen. Diese verbrauchten Brennelemente sind Fluch und Segen zugleich. Da während ihrer Nutzung nur rund 5% des eingesetzten Urans verbraucht worden sind, stellen sie schon heute eine gigantische Energiequelle dar. Andererseits müssen sie sicher gelagert werden um die Menschen vor den Gefahren der radioaktiven Strahlung zu schützen. Die so genannte „Endlagerung“ hunderte Meter unter der Erde in einem Bergwerk, ist dabei wohl die dümmste Lösung. Man verschwendet potentielle Energie und Rohstoffe und erhält auch noch die Gefahren für zig Generationen.

Der Uranzyklus

Von Anfang an hat man sich deshalb mit der Wiederaufbereitung zur Rückgewinnung von Uran und Plutonium beschäftigt. In einem Reaktor mit schnellem Neutronenspektrum kann man auch Uran-238 spalten. Man benötigt allerdings Plutonium oder hoch angereichertes Uran als Auslöser. Um das schnelle Neutronenspektrum zu erhalten, bieten sich Natrium oder Blei als Kühlmittel an. Mit Natrium gekühlten schnellen Reaktoren hat man international jahrzehntelange Erfahrungen. Mit Blei gekühlte Reaktoren sind insbesondere für SMR einige Neuentwicklungen in der Entwicklung (Russland, Frankreich, Schweden). Dabei konzentriert man sich momentan auf sogenannte Brenner und nicht mehr vorrangig auf Brüter. Brenner (Konversionsrate < 1) verbrauchen mehr Plutonium als sie neu erzeugen. Brüter (Konversionsrate > 1) hingegen, erzeugen mehr Plutonium als sie verbrauchen. Brenner sind einfacher zu realisieren und es gibt mehr als genug Plutonium in der Welt.

Thorium

Neben Uran kann man auch Thorium zur Energiegewinnung nutzen. Thorium kommt doppelt bis dreifach so häufig vor (7 bis 13 mg pro kg Erdkruste) wie Uran. Es stellt eine weitere „unendliche“ Energiequelle für die Menschheit dar. Heute ist es eher ein „radioaktiver Abfall“ bei der Gewinnung seltener Erden. Man kann allerdings Thorium nicht direkt für einen Kernreaktor verwenden, sondern muß erst Uran-233 daraus erbrüten. Wenn Th232 ein Neutron einfängt, bildet sich daraus Th233 (Halbwertszeit 21,83 Minuten), welches zu Pa233 (Halbwertszeit 27 Tage) zerfällt, welches sich letztendlich zu U233 umwandelt. Mit dem erbrüteten Uran-233 läßt sich — praktisch genauso gut wie mit Uran-235 — ein Rektor mit thermischem Neutronenspektrum betreiben.

Man kann Reaktoren mit Thorium bauen, benötigt aber Uran-235 oder Plutonium als „Auslöser“. Läuft der Reaktor, muß man nur noch das verbrauchte Thorium ergänzen und die Spaltprodukte abführen. Für alle Brutvorgänge braucht man eine ausgeklügelte Neutronenökonomie. Zur Aufrechterhaltung der Kettenreaktion muß auf jeden Fall statistisch ein Neutron von den jeweils bei der Spaltung entstandenen Neutronen übrig bleiben. Verluste sind aber unvermeidlich. Brüten kann daher nur der verbleibende Rest. Aus diesem Grund bietet sich eine homogene Mischung und keine Trennung von Brennstoff und Kühlmittel an.

Salzschmelzen

Als besonders geeignet für diesen Zweck haben sich Salzschmelzen (z.B.: LiF–BeF2–ThF4–UF~4) erwiesen. Salzschmelzen können sehr hohe Temperaturen erreichen und bleiben trotzdem drucklos (Sicherheit) und Reaktoren sind deshalb kostengünstig herzustellen. Nachteilig ist wiederum die Korrosion durch Salze. Solche „Reaktorsalze“ müssen aufwendig gereinigt und getrocknet werden. Man kann Salz nur als Kühlmittel verwenden und den Brennstoff z. B. in Brennelemente einlagern (Kairos-Reaktor mit TRISO-Kugeln) oder eine homogene Mischung aus Brennstoff und Kühlmittel verwenden. Ein solcher Reaktor ist beispielsweise der Reaktor von Copenhagen Atomics.

Der „Waste Burner“ von Copenhagen Atomics

Bei ihm handelt es sich um eine neuartige Konstruktion. Brennstoff und Kühlmittel ist ein Salz. Es enthält Thorium und einen Starter aus angereichertem Uran oder Plutonium aus alten Brennelementen. Daher der Name „Abfall-Verbrenner“. Er ist kugelig und wie eine Zwiebel aus mehreren Schichten aufgebaut. In einer wärmeisolierten Schicht fließt das Salz mit einer Temperatur von etwa 600°C. Es ist umgeben von schwerem Wasser (D2O) als Moderator. Der Füllstand und die Temperatur des Moderators dienen wesentlich zur Leistungsreduzierung. Der komplette Reaktor ist außen von einer Schicht aus reinem Thoriumsalz umgeben, in der Uran-233 erbrütet wird. Das Brennstoffsalz erhitzt sich durch die Kernspaltung im Reaktor und fließt durch Schwerkraft in einen Tank. Dieser Tank ist großflächig und von keinem Moderator umgeben. Die Kettenreaktion bricht sofort zusammen. Aus diesem Tank wird das heiße Salz zur Wärmeabgabe durch einen Wärmeübertrager gepumpt. Schon dieses Konstruktionsprinzip macht den Reaktor inhärent sicher. Fällt die Pumpe aus, wird der Nachschub für die Kernspaltung im Reaktor unterbrochen.

Innovativ ist auch das Vertriebskonzept. Die kompletten Anlagen werden in Serie gebaut und sind in einem 40-Fuß-Container betriebsbereit eingebaut. Sie verbleiben im Eigentum des Herstellers und der Kunde bezahlt lediglich die genutzte Wärme. Nach Gebrauch werden die Container wieder zurück zum Hersteller transportiert und aufgearbeitet. Ein Konzept, das vor allem auf Industriekunden zugeschnitten ist.

Ebenso innovativ ist das Unternehmen selbst. Gegründet aus einem Kreis von Universitätsabsolventen hat man sich von Anfang an nicht auf die übliche Produktion von Papier, sondern auf das Bauen verlegt. Weg vom heutigen Stil von Großunternehmen zurück zu den Pioniertagen der Kerntechnik. Alle relevanten Komponenten (Pumpen, Salz, Regelung etc.) wurden selbst entwickelt. Teilweise werden sie bereits heute auf dem Markt vertrieben – eine willkommene Einnahmequelle und ein stetiger Quell von Erfahrungen außerhalb des eigenen Unternehmens. Falsch kann dieser weg nicht gewesen sein. Inzwischen steht beim Paul Scheerer Institut (PSI) ein nicht nuklearer Prototyp. Das Institut soll für ein Genehmigungsverfahren notwendige Messwerte liefern. 2026 ist ein Versuchsreaktor mit einer Wärmeleistung von einem Megawatt geplant. 2028 erhofft man eine erste Baugenehmigung. Hoffentlich klappt das und das Unternehmen muß nicht – wie viele Computer und Softwareproduzenten vor ihm – in die USA auswandern oder die Chinesen kopieren einfach.

Des Pudels Kern

Ganz davon abgesehen, ob man den Reaktor für gut oder nicht befindet, geht es hier um viel mehr und grundsätzliches. Wie ist es möglich, daß in einem Vorzeigeland für die Ökobewegung gleich zwei Unternehmen (Seaborg Technologies und Copenhagen Atomics) neue Reaktoren entwickeln? Hat man dort aus Erfahrung gelernt, daß man mit wetterabhängigen Energien keine Volkswirtschaft – und schon gar keinen Sozialstaat – betreiben kann? Bisher funktionierte es nur mit deutscher Kohle und schwedischer Wasserkraft im Rücken. Aus Deutschland ist absehbar nichts mehr zu beziehen, weil man hier auf den gleichen toten Gaul gesetzt hat. Schweden ist selbst an seine Grenzen gestoßen und plant nun einen Ausbau seiner Kernkraft. Auch dort entwickelt man neue Reaktoren (Blykalla SMR mit Bleikühlung) zur Verwendung des „Atommülls“ aus den Leichtwasserreaktoren. Also doch lieber eigene Kernkraftwerke bauen und betreiben mit Arbeitsplätzen und Steuereinnahmen, als Strom zu importieren? Bleibt auch noch die Industrie mit ihrem Wärmebedarf und (in Dänemark) die weltgrößten Containerschiffe, für die man händeringend „CO2 -freie“ Antriebe sucht.

Woher kommt dieser Pioniergeist junger Hochschulabsolventen, die eine Unternehmensgründung in der Kerntechnik einem Arbeitsplatz beim Staat vorziehen? Gut, in Deutschland gibt es schon (fast) keine Möglichkeit mehr. Wer Gender Studies oder „irgendwas mit Medien“ studiert hat, kann sich höchstens in der Politik oder bei einer NGO verdingen. Unsere Bildungspolitik hat ganze Arbeit geleistet. Technik ist irgendwie unanständig und „Atomkraft“ sowieso.

Man stelle sich vor, in der Hauptstadt der Startups – so bezeichnet sich Berlin selbstverliebt selber – käme eine Truppe junger Ingenieure auf die Idee einen Kernreaktor zu bauen. Wohlgemerkt, es ginge nicht einmal um staatliche Fördermittel, sondern nur in Ruhe arbeiten zu können. Sofort würden die Gutmenschen die gesamte Staatsmacht mobilisieren und wenn das noch nicht reicht, die Antifa oder die Omas Gegen Rechts. Um es ganz deutlich zu sagen: In Deutschland herrscht schon lange keine Freiheit für Forschung und Entwicklung mehr. Wessen Produkt nicht vorab den Gesinnungstest der Öko-Sozialisten besteht, geht besser möglichst schnell ins Ausland. Wer andererseits der Staatsmacht gefällig ist, wird mit Fördergeldern überschüttet – Grüner Wasserstoff ist nur ein Beispiel.

Interessant ist auch die Rolle der Schweiz. Nicht, daß Kernkraftwerke in der Schweiz nicht auch umstritten wären. So übernimmt man doch gern die Begutachtung eines neuen Reaktorprinzips in seinen exzellenten öffentlichen Forschungsinstituten. Erst mal in Ruhe schauen. Könnte ja was dran sein. Im besten Deutschland aller Zeiten kann man die Zukunft und das Klima genau voraussagen — glauben diese Narren jedenfalls.

Der Beitrag erschien zuerst auf dem Blog des Autors hier

 




Sprechen wir noch mal über die terrestrische IR-Abstrahlung

ZUSAMMENFASSUNG: Im Faktor4-THE-Paradigma wird der nicht existente Durchschnitt von Tag und Nacht gebildet, aber die Gravitation vergessen. Die terrestrische Temperatur­genese wird dort nämlich aus dem historisch überkommenen globalen 24h-Leistungsdurchschnitt (@4PiR^2) der solaren Einstrahlung mittels einer Inversion des S-B-Gesetzes abgeleitet und nicht aus der tatsächlichen örtlichen Sonneneinstrahlung auf der Tagseite der Erde (vereinfacht @2PiR^2). Und wenn man am Ende von der terrestrischen IR-Abstrahlung auf „Abstrahlungshöhe“ einfach nur noch einmal barometrisch zur NN-Bodentemperatur zurückgerechnet hätte, dann wäre dieser Widerspruch aufgefallen und uns allen ein „natürlicher atmosphärischer Treibhauseffekt“ erspart geblieben.

von Uli Weber

Der Glaubenssatz des Faktor4-THE-Paradigmas lautet [-18°C + 33K = 15°C] und muss natürlich auch irgendwie die IR-Abstrahlung unserer Erde erklären: https://eike-klima-energie.eu/wp-content/uploads/2025/07/word-image-126396-8.jpegAbbildung 1: Die Grundlagen des CO2-Klimaglaubens bestehen aus 3 eindimensionalen Zahlenwerten

Denn was ‘reingeht, muss ja auch wieder ‘rausgehen. Und so ist das auch mit der solaren Energie, die nach Abzug der Albedo ständig die terrestrische Temperaturgenese antreibt. Immerhin handelt es sich um 10,5 Zetajoule in 24 Stunden (oder 86.400 Sekunden) die im Mittel von der Erde als IR-Strahlung auch wieder abgestrahlt werden. Denn es kommt sekündlich neue Sonnenenergie nach, und da muss die „verbrauchte“ als IR-Abstrahlung ganz schnell wieder verschwinden. Sonst würde das zu einer Schellnhuber’schen Selbstverbrennung unserer Erde führen, und das wollen wir ja nicht.

Nun kann unsere Erde aber Energie nur durch Abstrahlung in den Weltraum abgeben. Und da haben sich viele schlaue Leute Gedanken gemacht, wie sie das bewerkstelligen und auch gleichzeitig noch die Differenz aus ihrer fehlerhaften Faktor4-Stefan-Boltzmann-Inversion und der sogenannten „gemessenen globalen Durchschnittstemperatur“ erklären können. Daraus entstand der Aberglaube an einen sogenannten „natürlichen atmosphärischen Treibhauseffekt“, wie er sich in der nachstehenden Abbildung aus einer ominösen „Gegenstrahlung“ herleiten lassen soll:  Grafik zur Bedeutung der Treibhausgase im Strahlungshaushalt der Erde. Abbildung 2: „Die Bedeutung der Treibhausgase im Strahlungshaushalt der Erde“ (Abb. gestaucht)
von Klimawandel GraubündenOriginal DWD

Wir sehen also, dass die Realität doch etwas komplizierter ist als die reine Glaubensformel. Zunächst einmal fällt auf, dass die Erde bei einer Solarkonstanten von So=1.367W/m² durch den Faktor4 nur 341W/m² von der Sonne erhält, und davon wiederum erhält die Erdoberfläche nur 161W/m². Daraus ergibt sich nach dem Stefan-Boltzmann-Gesetz schon mal eine „natürliche“ Temperatur von [-42,3°C] für unsere Erdoberfläche anstelle der ominösen [-18°C] aus dem THE-Glaubensbekenntnis – und darin sind die Abzüge für Konvektion (17W/m²) und „Evapotranspiration“ (80W/m²) noch nicht einmal berücksichtigt. So, und jetzt kommt die künstliche Intelligenz der terrestrischen Infrarotstrah­lung ins Spiel. Denn die macht durch die sogenannte „Gegenstrahlung“ aus den 161W/m² eben mal 396W/m². Insgesamt gehen dann 239W/m² ‘rein und 239W/m² gehen auch wieder ‘raus, und dazwischen herrschen 15°C mit 396W/m², während 332W/m² als „Gegenstrahlung“ im System entgegen den Hauptsätzen der Thermodynamik ständig herumkreiseln, um die fehlerhafte Faktor4-Stefan-Boltzmann-Inversion im THE-Paradigma zu kompensieren – welche individuellen IR-W/m² das dann genau sind, regelt die IR-Gruppen-KI. Wir haben hier also den Konstruktionsplan für ein Perpetuum Mobile vor uns, zu dem wir auf Wikipedia folgende Aussage finden, Zitat:

Das Deutsche Patent- und Markenamt weist Patentanmeldungen, die ein Perpetuum mobile zum Gegenstand haben, unter Verweis auf die mangelnde Ausführbarkeit der Erfindung (gewerbliche Anwendbarkeit) nach § 1 Abs. 1 PatG zurück. Der potenzielle Erfinder könnte einen Schutz seiner Erfindung nur dadurch erreichen, dass er dem Deutschen Patent- und Markenamt einen funktionstüchtigen Prototyp präsentiert.“

Und die CO2-Klimareligion behauptet jetzt natürlich, dass die sogenannte „gemessene globale Durchschnittstemperatur“ den experimentellen Beweis für dieses Perpetuum Mobile liefert, aber in einem technischen Maßstab nicht nachgebaut werden kann. Genau darauf ist das Geschäftsmodell der globalen „Dekarbonisierung“ aufgebaut, das von Subventionen, der CO2-Steuer und der Zerstörung unserer technischen Zivilisation lebt.

Und das alles beruht auf dem MINT-fernen Glauben an rein mathematische Durchschnittswerte, die unsere real existierende Physik außer Kraft zu setzen vermögen.

Der Autor hatte an anderer Stelle betont, dass auch Durchschnittswerte durchaus ihre Berechtigung haben können. Durchschnittswerte sind aber eine reine Einbahnstraße für die tiefere Erkenntnis, weil von dort aus nun einmal kein Weg mehr zu irgendeiner physikalischen Originalverteilung zurückführt. Und genau so führt von dem Tag&Nacht-Durchschnitt des Faktor4-THE-Paradigmas mit einer durchschnittlichen temperatur­wirksamen Einstrahlungsleistung unserer Sonne von 239W/m² kein Weg mehr zurück in die physikalische Realität von Tag- und Nachthemisphäre. Während also beim Faktor4-THE-Paradigma die terrestrische Temperaturgenese durch den Eingriff des Klimagottes CO2 in eine durchschnittliche Tag=Nacht-Halbdunkelwelt erfolgt, leitet mein hemisphärisches Konvektionsmodell die terrestrische Temperatur direkt aus der solaren Einstrahlung auf der Tagseite der Erde her. Ausgerechnet bei der terrestrischen IR-Abstrahlung hatte ich mich allerdings sehr frühzeitig dem Faktor4-THE-Paradigma angeschlossen. Und das hatte drei gute Gründe:

[1] Ich hatte also nachgewiesen, dass die sogenannte „gemessene globale Durchschnitts­temperatur“ von 15°C auf der Tagseite der Erde (@2PiR²) ohne den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ aus dem maximalen Stefan-Boltzmann-Temperaturäquivalent einer S-B-Inversion der zenitabhängigen Solareinstrahlung abgeleitet werden kann.

[2] Anders als die solare Einstrahlung erfolgt die terrestrische Abstrahlung selbstverständlich über die gesamte Erdoberfläche (@4PiR²). Und da die sogenannte „Globaltemperatur“ ausreichend stabil ist (hier im Anhang), sodass eine „Resonanzkatastrophe“ hin zu einer Schneeball-Erde oder einem Schellnhuber’schen Fegefeuer mit hinreichender Sicherheit ausgeschlossen werden kann, hatte ich mich bei der terrestrischen Abstrahlung dem Faktor4-THE-Paradigma angeschlossen.

[3] Schließlich ist es ein Leichtes, aus der sogenannten „gemessenen globalen Durchschnitts­temperatur“ von 15°C und der bodennahen Abstrahlung von 390W/m² mittels der barometrischen Höhenformel die erforderlichen 235W/m² (meist wird mit 239W/m² gerechnet) bei einer Abstrahlungstemperatur von (-18°C) für die sogenannte „Abstrahlungshöhe“ von etwa 5.000 Metern herzuleiten. Und damit ist dann der erforderliche Gleichstand zwischen Einstrahlung@2PiR² und Abstrahlung@4PiR² für unsere Erde nachgewiesen.

Die Erde ist ein eingeschwungenes System, was meine Kritiker immer zu vergessen belieben. Denn die Tagestemperatur baut eben nicht auf 0 Kelvin auf, wie das in meiner Berechnung für die maximal mögliche Durchschnittstemperatur von 15°C auf der Tageshemisphäre erfolgt war, sondern im Wesentlichen auf der morgendlichen Temperatur der Ozeane. Und deren Strahlungsdifferenz zum absoluten Nullpunkt von 0Kelvin steht dem Temperatursystem unserer Erde jederzeit zur freien Verfügung.

Herr Arno Kuck hatte mit zwingender Logik dieses eingeschwungene Temperatursystem unserer Erde in ganz leichter Sprache sehr schön begreifbar gemacht, Zitat:

Arno Kuck Reply to  Peter Dietze 15. Juli 2025 19:15

Herr Dietze,

nur wenn

„die Differenz der Oberflächenabstrahlung zwischen der solar beschienenden Tag-Halbkugel und

der Nacht-Halbkugel der nächtlichen Wärmeabstrahlung entspricht“

kühlt sich die Erde weder ab und noch erwärmt sie sich.

Kleinere Abweichungen sind in beide Richtungen möglich, aber nicht entscheidend.“

Ich vermute aber, dass trotzdem noch immer nicht alle THE-Gläubigen diesen zwingenden Gleichstand zwischen der Einstrahlung@2PiR² und der Abstrahlung@4PiR² verstanden haben und stelle daher die Ableitung der terrestrischen Abstrahlungsleistung nachfolgend noch einmal ausführlich dar:

Bei physikalischen Prozessen müssen die Randbedingungen üblicherweise korrekt eingehalten werden, wenn es um die Herleitung quantitativer Ergebnisse geht. Quantitative Ergebnisse spielen aber eine untergeordnete Rolle, wenn es lediglich um die prinzipiellen physikalischen Prozesse selbst geht. Und da dieser prinzipielle Prozess die terrestrische IR-Abstrahlung ins All beschreiben soll, erlaube ich mir, nachfolgend ausnahmsweise mit Durchschnittswerten zu argumentieren.

Unsere Erde und ihre Atmosphäre schweben voll isoliert durch den Weltraum und befolgen dabei die Gesetze der Gravitation. Der Verlust von Energie an den uns umgebenden masselosen Raum kann dabei also nur durch Strahlung erfolgen. Das Wetter auf unserer Erde spielt sich in der Troposphäre ab, die ebenfalls den Gesetzen der Gravitation gehorcht. Der Energietransport in den terrestrischen Strömungssystemen, und hier betrachten wir jetzt nur die Atmosphäre, ist im Wesentlichen geprägt durch die Gegensätze von Konvektion und Advektion sowie Verdunstung und Kondensation; Strahlungstransport spielt hier, außer direkt an der Erdoberfläche, keine nennenswerte Rolle. Und bevor sich jetzt die üblichen Verdächtigen aufregen, nachfolgend ein paar verständnisfördernde Beispiele:

[*] Strahlungstransport erfolgt mit Lichtgeschwindigkeit, Hitzewellen werden aber durch die Advektion von vorhersagbaren Warmluftmassen verursacht.

[**] Bei Omega-Wetterlagen „saugt“ sich warme Luft über dem Mittelmeer mit Wasserdampf als überwiegendes „Klimagas“ bis zum Gehtnichtmehr voll und hält dann ihr Wasser bis in die Quellgebiete von Elbe und Oder.

[***] Bei Föhn hat noch niemand durch die erwärmte Luft einen IR-Sonnenbrand bekommen, sondern durch die starke UV-Sonneneinstrahlung bei wolkenlosem Himmel.

So, und jetzt rechnen wir einfach mal von der sogenannten Abstrahlhöhe auf 5.070 Metern und der „natürlichen Temperatur“ von -18°C mit der barometrischen Höhenformel und dem Durchschnittswert von +6,5°/1.000m auf NN-Meeresniveau herunter:

Rückrechnung von -18°C @5,070km mit 6,5°/km auf NN. ≙ 15°C entsprechend 390W/m²

Tja, da hat man beim Faktor4-THE-Paradigma also von Anfang an das Pferd von hinten aufgezäumt. Denn bei einem nicht vorhandenen Wärmetransport durch Strahlung in der Troposphäre hätte man einfach nur die 239W/m² (bei mir sind’s 235W/m²) von irgendeiner sinnvollen „Abstrahlungshöhe“ herunterrechnen müssen und wäre ganz zwanglos auf die „gemessene globale Durchschnitts­temperatur“ von 15°C gekommen. Von daher ist das Faktor4-THE-Paradigma also doppelt gemoppelt, denn die barometrische Rückrechnung von der Abstrahlhöhe auf die Erdoberfläche und die Faktor4-THE-Gegenstrahlung ergeben beide für sich allein schon die erforderlichen 155W/m² zwischen 239W/m² (235W/m²) und 390W/m² für die „globale Durchschnittstemperatur“ von 15°C.

„Einstrahlungsebene“ ist im Faktor4-THE-Paradigma also nicht gleich „Abstrahlungshöhe“, denn dazwischen herrscht nun mal die Gravitation über die barometrische Höhenformel. Man unterlässt es aber trotzdem, Einstrahlung und Abstrahlung auf gleicher atmosphärischer Höhe zu vergleichen, indem man diese beiden unterschiedlichen Niveaus eben nicht über die barometrische Höhenformel zusammenführt. Denn allein aus der Rückrechnung von der „Abstrahlungshöhe“ auf Meereshöhe wird aus der „natürlichen Temperatur der Erde“ von (-18°C) ganz zwanglos die „gemessene globale Durchschnittstemperatur“, was meine hemisphärische Ableitung der maximal möglichen Durchschnittstemperatur auf der Tagseite unserer Erde mit 15°C voll bestätigt. Die terrestrische Temperaturgenese wird also durch eine Art „gavitativen atmosphärischen Wärmestau“ zwischen „Einstrahlungsebene“ und „Abstrahlungshöhe“ bestimmt, wo auf der „Einstrahlungsebene“ eben höhere Temperaturen herrschen als auf der „Abstrahlungshöhe“.

Dieser Vorgang ist eigentlich ganz leicht zu verstehen, denn die Atmosphäre unserer Erde ist eben ein gravitativ bestimmter Körper und der Energieinhalt von einem Kubikmeter Luft unterscheidet sich zwischen Meeresniveau und 5 Kilometern Höhe nun mal aufgrund der unterschiedlichen (Teilchen-)Dichte ganz erheblich, und damit natürlich auch die Temperatur. Von der (in dieser Betrachtung) hemisphärisch auf durchschnittlich 15°C erwärmten Erdoberfläche wird durch Wärmeleitung und bodennaher Abstrahlung Energie auf die umgebenden Luftmoleküle übertragen. Diese dadurch höher aktiven Luftmoleküle machen sich nun unter ständigen Zusammenstößen untereinander konvektiv auf den Weg in Richtung auf die sogenannte „Abstrahlungshöhe“ mit geringerer Luftdichte und einer Temperatur von -18°C, um dort schließlich ihre Energie auf ein IR-aktives Molekül zu übertragen, das von dort aus dann endlich einen IR-Quant ins Weltall abschießen kann.

In beiden Modellen (hemisphärisch und Faktor4) wird nun aber mit 40W/m² zu viel gerechnet, denn die Abstrahlung 390W/m² von der Erdoberfläche gliedert sich auf in 350W/m² Strahlung, die IR-aktive Moleküle anzuregen vermag und 40W/m², mit denen diese Moleküle nichts anfangen können und die daher einfach durch das sogenannte „atmosphärische Fenster entweichen. Damit stimmt dann aber die sogenannte „Abstrahlungshöhe“ im Faktor4-THE-Paradigma nicht mehr, der ich mich ja über die barometrische Höhenformel angeschlossen hatte. Also noch mal zurück und das Ganze nochmal neu gerechnet. Dabei wird’s insofern problematisch, weil die Frage geklärt werden muss, womit wir jetzt denn eigentlich rechnen sollen, mit 350W/m² oder mit den vorherigen 390W/m², von denen inzwischen ja 40W/m² fehlen. Nachfolgend habe ich mich für die 350W/m² entschieden, denn die direkt abgestrahlten 40W/m² haben die „Abstrahlungshöhe“ ja längst durchbrochen, während der Energietransport über die Luftmoleküle noch in vollem Gange ist:

Hochrechnung von NN.: 350W/m² und 7,15°C mit -6,5°/km auf -18°C ≙ 3,870 km mit 239W/m²

Damit sinkt die sogenannte „Abstrahlungshöhe“ um mehr als 1000 Meter unter die 4000-er Marke und damit in den erlebbaren Föhnbereich[***] der Alpenzone. Und vom Föhn wissen wir wiederum, dass dessen Energietransport durch Advektion stattfindet. Damit ist die Existenz einer „Abstrahlungshöhe“ unter 4.000 Metern höchst zweifelhaft, und es stellt sich die Frage nach Alternativen. Ich hatte in diesem Artikel das Pirani-Meßgerät aus einem EIKE-Artikel (Original bei WUWT) vorgestellt und daraus eine deutlich größere Abstrahlungshöhe abgeleitet. In der Grundversion besteht dieses Gerät aus einer Glasröhre und einem Glühdraht. Die Glasröhre kann evakuiert werden, wodurch ein definiertes Vakuum erzeugt wird. Gemessen wird die Leistung, die zur Aufrechterhaltung der Glühdrahttemperatur bei unterschiedlichen Drücken erforderlich ist: Abbildung 3: Die Ansprechkurve für ein typisches Pirani-Messgerät aus „A Novel Perspective on the Greenhouse Effect” von Thomas E. Shula. Diese Abbildung wurde im WUWT-Original mit Genehmigung von MKS Instruments, Inc. (Andover, MA) veröffentlicht.
Roter Kreis (eingefügt): Erforderliche Leistung bei atmosphärischem Normaldruck

Anmerkung: Die blaue Kurve im linken Teil der Grafik mag möglicherweise irritieren, weil der logarithmische Maßstab die zunehmend geringer werdende Differenz zwischen der grünen und der roten Kurve stark überzeichnet.

Der gerätespezifische konstante Leistungsverlust durch Abstrahlung und Wärmeableitung über die Glühdrahtbefestigung des Pirani-Messgeräts aus dem WUWT-Artikel liegt bei 0,4 Milliwatt. Bei atmosphärischem Normaldruck, 760 Torr, beträgt die zur Aufrechterhaltung der Temperatur des Glühfadens erforderliche Leistung aber 100 mW (roter Kreis). Da die Strahlungs- und Endverluste 0,4 mW betragen, bedeutet dies, dass der Wärmetransport durch das Gas 99,6 % betragen muss. Daran ändert sich rein optisch auch bei 10 Torr noch nichts, was nach dem WUWT-Autor Shula einer Höhe von etwa 33 Kilometern entsprechen soll. Erst bei einem Luftdruck unterhalb von 1 Torr spalten sich die Kurven für Gesamtverlust (grün) und Gastransport (blau) langsam auf und bei etwa 0,02 Torr herrscht schließlich Gleichstand zwischen Abstrahlung und Gastransport, was einer Höhe von 76 Kilometern entsprechen soll.

Nach diesen Pirani-Meßergebnissen ist eine IR-Abstrahlung aus der Troposphäre praktisch unmöglich, und wir müssen uns einmal umschauen, wo es in der Erdatmosphäre noch Möglichkeiten für eine Abstrahlung von IR-Quanten aus einer Umgebung mit niederen negativen Celsiusgraden und entsprechendem Luftdruck geben kann. Beim Bildungsserver bin ich schließlich mit einem anschaulichen Atmosphärenprofil fündig geworden: Abbildung 4: Der Stockwerkaufbau der Atmosphäre (Abb. gestaucht)
Download vom Bildungsserver – Primärquelle: Norbert Noreiks, Max-Planck-Institut für Meteorologie

Wie unschwer zu erkennen ist, bietet sich in der unteren bis mittleren Mesosphäre oberhalb der Stratopause ab 50 Kilometern Höhe und einem Luftdruck unterhalb von 1 hPa ein Bereich mit niederen negativen Celsiustemperaturen für die Abstrahlung von 239W/m² bei -18°C an. Mit etwa 65 Kilometern Höhe liegen wir hier halbwegs beim Gleichstand zwischen Strahlung und Gastransport in der Pirani-Kurve und haben damit die tatsächliche Abstrahlungshöhe aus der Erdatmosphäre gefunden. Folglich ist dann die „Abstrahlungshöhe“ von etwa 5.000 Metern aus dem Faktor4-THE-Paradigma genauso Geschichte wie der sogenannte „natürliche atmosphärische Treibhauseffekt“ und die ominöse „atmosphärische Gegenstrahlung“.

CONCLUSIO: It‘s Gravity, Stupid! Schade eigentlich, liebe Leut‘, der nicht existente CO2-Treibhaus­effekt wird nun also zum Sargnagel unserer technischen Zivilisation – dümmer geht’s nümmer.

 




Wo Licht ist, ist auch Schatten!

Wind- und Solarenergie als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien

von Frank Hennig

Wind- und Solarenergie werden als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien beschrieben. Sie wären emissionsfrei, von negativen Wirkungen keine Rede. Dabei ist jedem nüchtern und nicht interessengeleitet denkenden Menschen klar, dass jede Energietechnologie Auswirkungen auf die Umwelt hat. Wo Licht ist, ist auch Schatten.

 

Jeder heiße Tag im Sommer wir derzeit in den regierungsbegleitenden Medien apokalyptisch dramatisiert und mit dem Klimawandel durch steigenden CO2-Anteil der Luft begründet. Regionale Besonderheiten für verschiedenes Wetter gab es immer. Heutzutage kommen mit dem exzessiven Ausbau von Wind- und Solaranlagen weitere Faktoren hinzu.

 

Heizen mit Photovoltaik

Wind- und Solarenergie werden uns als seligmachende, umwelt- und „klimaneutrale“ Zukunftstechnologien beschrieben. Sie wären emissionsfrei, von negativen Wirkungen ist nicht die Rede. Dabei ist jedem nüchtern und nicht interessengeleitet denkenden Menschen klar, dass jede Energietechnologie Auswirkungen auf die Umwelt hat. Wo Licht ist, ist auch Schatten. Mit dieser Aussage tritt man aber sehr nah an die Abbruchkante der deutschlandtypischen Schwarz-Weiß-Diskussion, die Gegenmeinungen kaum zulässt und Wissenschaft für abgeschlossen erklärt. Das führt zu ideologischer und pseudoreligiöser Sicht, die den gegenwärtigen Absolutismus der Klimadiskussion eigen ist. Gut bekannt aus DDR-Zeiten ist mir die Frage „auf welcher Seite der Barrikade stehen Sie denn?“, die man schon zu hören bekam, wenn vorsichtig Kritik am bestehenden System geäußert wurde.

Tagebaue, Bergwerke und Stauseen zeigen deutlich die Auswirkungen von Energietechnologien, heute auch landschaftsfressende Wälder von Windkraftanlagen (WKA). Die Photovoltaik (PV) hingegen erfreut sich in der Bevölkerung relativ großer Sympathie. Die Platten liegen einfach so auf Dächern und Freiflächen herum, machen keine Geräusche und blinken nicht, abgesehen von einigen Reflexionen stören sie optisch nicht. Sie schaden anscheinend der Tierwelt nicht, jedenfalls häckseln sie keine Fluglebewesen. Dass Freiflächenanlagen der Biodiversität schaden, Feldlerchen und anderen Wiesenbrütern Lebensraum nehmen und auch eine Insektenfalle sein können (die die spiegelnden Platten als Wasser deuten und ihre Eier ablegen wollen), fällt vordergründig nicht auf. Fledermäuse trinken im Flug und können die spiegelnden Platten mit einer Wasseroberfläche verwechseln. Eidechsen dagegen gefällt die sommerliche trockene Hitze unter den Platten.

Plattenheizkörper im Sommer

Wie wirken Freiflächen-PV-Anlagen im Vergleich zu natürlichen Flächen? Auf einer Wiese oder Offenland wird das Licht diffus gestreut und hilft, die Bodenfunktionen zu erfüllen: Photosynthese, Erwärmung, Verdunstung von Wasser. Nur wenig Licht wird reflektiert, Wärme wird gespeichert und nachts wieder abgegeben, es gibt einen natürlichen Temperaturausgleich. Ähnlich verhält es sich mit den Wäldern, die durch die Verschattung vor allem Temperaturspitzen dämpfen und Wasser speichern.

Bei PV-Anlagen werden maximal 20 Prozent des Sonnenlichts, im Durchschnitt eher weniger, in Strom umgewandelt. Die nicht umgewandelte Energie geht, von etwas reflektierter Strahlung abgesehen, fast vollständig in Wärmeenergie über. Die Temperatur der Paneele liegt zwischen 20 und 25 Grad über der der Umgebung. Ging man früher von etwa 60 Grad maximaler Oberflächentemperatur im Sommer aus, sprechen Insider heute von bis zu 100 Grad, die an windstillen Hitzetagen erreichen werden können.

Warme Luft steigt nach oben, über den PV-Flächen bildet sich eine Warmluftglocke. Es kommt zu einer Luftzirkulation, die kühle und feuchtere Bodenluft aus der Umgebung nachzieht, was zu einer örtlichen Erwärmung und Trocknung führt.

Wie verhalten sich die Temperaturen konkret? Hier als Beispiel eine Fläche von etwa sechs Hektar einer PV-Fläche, das Foto entstand im August 2024 um die Mittagszeit.

 

Das gleiche Foto mit Infrarotfilter zeigt folgendes Bild:

Die Lufttemperatur betrug 22 Grad, um die Anlage war sie zwei bis drei Grad höher. Die Temperaturunterschiede zwischen der rechten und linken Seite der Anlage lassen verschiedene Typen von Paneelen mit verschiedenen Wirkungsgraden vermuten. Auf der rechten Seite sind einige inhomogene Stellen an der Überwärmung zu erkennen.
Mit höheren Umgebungstemperaturen steigen auch die Paneeltemperaturen.

Mehr Wärme in der Wärme

Wie viel Wärme wird emittiert? Sehen wir uns beispielhaft die Anlage in Neuhardenberg (Brandenburg) an. Sie belegt 240 Hektar, etwa 340 Fußballfelder, und ist mit einer installierten Leistung von 155 Megawatt peak (MWp) – also bei optimalem Sonnenstand – eine der größten im Land. Es existieren aber noch deutlich größere (Witznitz bei Leipzig – 500 ha).

Die elektrische Leistung der Paneele ist temperaturabhängig, bei starker Sonneneinstrahlung und hoher Umgebungstemperatur steigt die Temperatur der Platten auf über 60 Grad. Das lässt die Stromausbeute um 20 Prozent sinken, also den Wirkungsgrad auf etwa 16 statt 20 Prozent. Ein umso größerer Teil des Sonnenlichts – 84 Prozent – geht in die Erwärmung der Platten über. Wenn also zu diesem Zeitpunkt (mittags) 16 Prozent in Strom umgewandelt werden (130 MW), emittieren die Paneele eine Wärmeleistung von 682 MW in die Umgebung.

Das sind etwa 10 Prozent der insgesamt in Berlin installierten Fernwärmeleistung, die von dieser Anlage in Neuhardenberg im Hochsommer in die Umgebung emittiert wird. Die Wirkung entspricht einem riesenhaften Plattenheizkörper, der die ohnehin warme Umgebung weiter aufheizt.

Ein Bild, das Luftfotografie, Vogelperspektive, draußen, Luftbild enthält. KI-generierte Inhalte können fehlerhaft sein.

Bild Luftaufnahmen Lausitz

Die Beweislast, dass diese Wärmeemission einer PV-Freiflächenanlage keine negative Umweltwirkung hat, dürfte bei den Protagonisten der Energiewende liegen.

Abends und nachts kühlen die Paneele durch Luftströmung auf der Ober- und Unterseite schnell aus, die Wärmespeicherung ist im Vergleich zu natürlichem Boden gering.

Im Verbund mit der Klimawirkung von Windkraftanlagen, die uns -zigtausende von Windkraftanlagen in Deutschland und Europa bescheren, ändert sich das regionale Klima. Bisher schon trockene Regionen im Osten Deutschlands trocknen weiter aus.
Im Gegensatz zu Dachanlagen, die ökologisch tote Flächen belegen, zerstören PV-Freiflächenanlagen unmittelbar die Natur und vor allem die klimaregulierende Wirkung der Landschaft, sie reduzieren Biodiversität und produzieren Strom zu Zeiten, in denen ohnehin zu viel im Netz ist. Kein Investor wird jedoch verpflichtet, in gleichem Maß Stromspeicher oder Backup-Kraftwerke zu bauen. Die Gewinne streichen die Investoren ungeschmälert ein, während die Systemkosten und der Aufwand für den immer weiter nötigen Netzausbau sozialisiert werden. Grüner Kapitalismus in Reinkultur.

Als Kompromiss wird die so genannte Agri-PV heftig beworben. Dies ist eine Kombination, bei der zwischen senkrecht angebrachten, aufgeständerten oder in größeren Abständen aufgebauten PV-Modulen Landwirtschaft betrieben werden kann. Der Kompromiss besteht darin, dass weniger Strom produziert wird, als bei einer vollflächig belegten Anlage und weniger landwirtschaftlicher Ertrag eingefahren wird, als bei reiner Feldwirtschaft. Es handelt sich nicht, wie oft behauptet, um eine Doppelnutzung (das Sonnenlicht kann nur einmal genutzt werden), sondern um eine kombinierte Nutzung, die in jedem Fall naturverträglicher ist, als die geschlossene Spiegelfläche.

Aber auch hier gibt es Licht und Schatten, im wahrsten Sinne des Wortes. Im Sommer ist die teilweise Verschattung der Anbaufläche von Vorteil, die Fläche trocknet nicht so schnell aus und es ist trotzdem genug Licht für das Pflanzenwachstum vorhanden. In den dunklen Monaten hingegen trocknet diese Fläche kaum aus, im Frühjahr erwärmt sich der Boden langsamer, Pflanzenwachstum wird gehemmt. Er ist ideales Gebiet für Flechten und Moose, die anderen Bewuchs zurückdrängen.

Wie überall bei den „Erneuerbaren“ geht es auch bei der Freiflächen-PV nicht ums „Klima“, sondern um Geld. Pachtpreise von bis zu 5.000 Euro pro Hektar und Jahr sind über Vertragslaufzeiten von 30 Jahren eine sehr gute Einnahme, der sich fast kein Flächenbesitzer verweigern wird. Neuanlagen unterliegen nunmehr jedoch dem so genannten Solarspitzengesetz, wonach die Anlagen abregelbar sein müssen und die Vergütung bei negativen Marktpreisen entfällt. Damit dürfte das Investoreninteresse gedämpft werden.

Wer heizt noch?

Vermutlich ist bei einigen progressiven Energiewendern beim Lesen bis zu diesem Absatz schon der Blutdruck gestiegen und sie wollen einwerfen, dass auch Industrie und konventionelle Kraftwerke Wärme emittieren. Das ist richtig, widerspricht aber nicht den Ausführungen zur Freiflächen-PV. Industrielle Abwärme ist zum großen Teil unvermeidbar, aber mit weitergehender Deindustralisierung auf dem Weg von der Habeck-Rezession in die Merz-Depression und insbesondere mit der Abwanderung energieintensiver Industrie nimmt diese Wärmemenge ab.

Konventionelle Kondensations-Kraftwerke werden mit einem Wirkungsgrad von 35 bis 43 Prozent betrieben, das heißt, bis zu zirka zwei Drittel der eingesetzten Energie müssen als Wärme abgeführt werden. Jedoch wird der größte Teil der Wärme nicht an die Umgebungsluft abgegeben, sondern bei Anlagen mit Nasskühltürmen über die Verdunstungswärme des Kühlwassers, bei Anlagen an Fluss- oder Küstenstandorten über das Fluss- oder Seewasser. Auch hier gilt der Trend – es werden immer weniger Anlagen.

Wenn es künftig noch mehr heiße Sommertage gibt und mehr Trockenheit, kann das Folge des Klimawandels sein und regional direkte Folge des exzessiven Ausbaus von Wind- und Solaranlagen, die eigentlich eines verhindern sollten – eine weitere Erwärmung. Sie schaden mehr, als sie nutzen, aber es lässt sich prächtig damit Geld verdienen.

Mit freundlicher Unterstützung von www.luftaufnahmen-lausitz.de
Weiteres Material zur Wirkung von PV-Anlagen: https://www.energiedetektiv.com/

Der Beitrag erschien zuerst bei TE hier

 




Frankreichs Wasserkraft-Passion und die EU

Die Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen ist nicht zielführend

Edgar L. Gärtner

 

Das französische System der Elektrizitätsversorgung unterscheidet sich nicht nur durch seinen hohen Kernenergie-Anteil von den Systemen seiner unmittelbaren Nachbarländer, sondern auch durch die relativ hohe Bedeutung von Wasserkraftwerken an großen Stauseen und manchen Flüssen. Zwar reicht die Produktion der französischen Wasserkraftwerke mit etwa 75 Terawattstunden (TWh) im Jahre 2024 bei weitem nicht an das Niveau Norwegens heran, wo Wasserkraftwerke im regenreichen Jahr 2024 die Rekordmenge von 140 TWh und damit 89 Prozent der gesamten Elektrizitätsproduktion erzeugten.

Aber die Wasserkraftwerke erzeugten in Frankreich in den letzten Jahren im Schnitt immerhin etwa 12 Prozent der nationalen Bruttostromproduktion gegenüber nur etwa 4 Prozent in Deutschland. Im Jahre 2024 waren es in Frankreich sogar fast 14 Prozent. Damit ist die Hydroelektrizität nach der Kernkraft Frankeichs zweitwichtigste Stromquelle. Dabei ist das Wasserkraft-Potenzial in Frankreich noch keineswegs ausgeschöpft. Es könnten ohne Weiteres 100 TWh gewonnen werden, stünden dem nicht ökologische Einwände und bürokratische Hindernisse entgegen.

Als besonderer Hemmschuh erweist sich die Regulierung durch Brüssel Es geht dabei nicht nur um die SUP- und UVP-Richtlinie, die in Verbindung mit dem Widerstand grüner NGOs einen langwierige Papierkrieg nach sich ziehen können, sondern in neuer Zeit mehr um die Richtlinien 2006/123/EG (Dienstleistungsrichtlinie) über die Transparenz von Projekten und die Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen.

Danach müssen Wasserkraftprojekte ab einer gewissen Größe durch Ausschreibungen grundsätzlich für Wettbewerber geöffnet werden. Damit wird zum einen die historisch gewachsene Monopolstellung des inzwischen verstaatlichten Versorgungskonzerns Électricité de France (EDF), der die Nutzung der Wasserkraft in Frankreich heute zu 70 Prozent kontrolliert, in Frage gestellt. Nach dem Ende der deutschen Besatzung im Zweiten Weltkrieg gab es in der französischen Gesellschaft einen breiten antifaschistischen Konsens über den Aufbau eines national einheitlichen Stromversorgungssystems mit garantiertem Anschluss auch isolierter Häuser außerhalb geschlossener Ortschaften.

Es gibt aber nicht nur historische, sondern auch physische Gründe für die Monopolstellung eines Talsperrenbetreibers in einem Wassereinzugsgebiet (Bassin). Um die Fischfauna schützen, die Hochwassergefahr vermindern, die landwirtschaftliche Bewässerung, die Kühlung der Kernreaktoren und die Schiffbarkeit eines Gewässers garantieren zu können, müssen Zu- und Abfluss der oft in Kaskaden hintereinander angeordneten Talsperren fein untereinander abgestimmt werden, was am besten gelingt, wenn sich alle Staustufen in einer Hand befinden. Wir verdanken es EDF, der Compagnie Nationale du Rhône (CNR) und der Société hydroélectrique du Midi (Shem), dass die zum Teil ariden Regionen Provence und Languedoc heute überwiegend grün sind. (Ich habe selbst in den 1970er Jahren meine Diplomarbeit über den wichtigen Alpenfluss Durance erstellt, die von den Hochalpen in die Provence fließt und eine solche Kette großer und kleinerer Stauwerke versorgt, die alle von EDF gemanagt werden.) Dabei ist klar, dass jede Wasseraufstauung gewichtige ökologische Belastungen mit sich bringt, die gegen den möglichen gesellschaftlichen Nutzen der Elektrizitätsproduktion unvoreingenommen abgewogen werden müssen, was in der Vergangenheit leider oft vernachlässigt wurde.

Die boomende Nachkriegswirtschaft fußte in Frankreich bis in die 1960er Jahre überwiegend auf dem Einsatz günstiger Elektrizität aus Wasserkraftwerken, weil größere Kernkraftwerke zunächst nicht zur Verfügung standen. Neben EDF beteiligten sich auch private Investoren am Bau von Wasserkraftwerken. Zum Teil handelt es sich dabei um das Erbe mittelständischer Industrien, die bis zum Aufbau einer halbwegs leistungsfähigen überregionalen Elektrizitätsversorgung direkt mit Wasserkraft betrieben wurden. Insgesamt gibt es zurzeit in Frankreich noch etwa 400 Konzessionen für den Betrieb von Talsperren und Laufwasser-Staustufen. Die Kapazität vieler kleiner und mittlerer Wasserkraftwerke könnte durch den Bau zusätzlicher Turbinen bzw. den Ersatz herkömmlicher durch Kaplan-Turbinen mit überschaubarem Investitionsaufwand erheblich gesteigert werden. Doch verhindert die durch den Erlass der EU-Richtlinie 2014/23/EU entstandene Rechtsunsicherheit solche Investitionen.

Das offiziöse Franceinfo des französischen Staatssenders Radio France schildert in einer Reportage an konkreten Beispielen, wie die EU-Regulierung zum Investitionshemmnis wird: So schildert Yves Dubief, ein Textilienfabrikant, der in den Vogesen am Zusammenfluss von Mosel und Vologne das 1947 von seinem Großvater erbaute Wasserkraftwerk betreibt, dass er dieses mit einer Investitionen von nur 700.000 Euro ertüchtigen könnte. Doch seine Konzession läuft, wie die der meisten nach dem Krieg für 75 Jahre erteilten Konzessionen zum Ende dieses Jahres aus. Da er nicht weiß, wer nach deren Neuausschreibung den Zuschlag bekommen wird, ist die Investition für ihn sinnlos.

Auch der riesige Staatskonzern EDF befindet sich in einer vergleichbaren Lage. Zum Beispiel beim großen Wasserkraftwerk Montézic im südfranzösischen Département Aveyron. Dieses Kraftwerk, dessen Kapazität mit einem Kernreaktor vergleichbar ist, arbeitet zurzeit mit vier Turbinen. EDF möchte hier für eine halbe Milliarde Euro zwei zusätzliche Turbinen installieren. Das würde sieben Jahre in Anspruch nehmen. Es wäre aber gut möglich, dass bei der von der Brüsseler Kommission geforderten Neuausschreibung der Kraftwerks-Konzession ein Wettbewerber das Rennen macht. Caroline Togna, die zuständige EDF-Direktorin, sieht deshalb keine andere Möglichkeit, als den Ausgang der begonnenen Kraftprobe zwischen dem französischen Staat und der Brüsseler Kommission abzuwarten.

Anders als in Frankreich üblich, steht die französische Nationalversammlung beim Rechtsstreit zwischen Paris und Brüssel einstimmig hinter der Regierung. Gerade im Hinblick auf de befriedigende Lösung einer Vielzahl sozialökonomischer Aufgaben durch EDF und andere Projekte des Wassermanagements sehen die Volksvertreter keinen Sinn in der von Brüssel geforderten Privatisierung mit Konkurrenz zwischen verschiedenen Betreibern. Die Wasserkraft gilt den einen wegen ihrer Stetigkeit und Speicherfähigkeit als beinahe ideale „erneuerbare“ Energie, mit deren Hilfe sie dem (illusorischen) Ziel 100 Prozent „Erneuerbare“ näher zu kommen glauben. Andere hingegen sehen in der Wasserkraft eine interessante Ergänzung der Kernenergie. Anders als die noch in den Kinderschuhen steckenden Small Modular Reactors (SMR) sind auch große Kernkraftwerke nur schwer privatisierbar. Es ist schwierig bis unmöglich, die heraufziehende europäische Energiekrise nach einem einzigen marktwirtschaftlichen Schema anzugehen.

Kurz: Die von der Brüsseler Kommission beschlossene und vom Europa-Parlament abgesegnete Richtlinie 2014/23/EU über die Vergabe öffentlicher Aufträge und Konzessionen steht der Ansteuerung der proklamierten Ziele des „Green Deal“ zumindest in Frankreich entgegen. Die Ansteuerung hehrer grüner Ziele bedarf keiner bürokratischer Zentralisierung, sondern verlangt nach nationaler Selbstbestimmung.