Der konventionelle Treibhausansatz unterstellt einen fehlerhaften 24h-Tagbogen der Sonne

von Uli Weber

Vorwort: Es wäre sehr schön, wenn sich die Diskussion im Kommentarbereich diesmal auf den Beitrag selbst fokussieren würde. Denn eine physikalische Interaktion zwischen Sonneneinstrahlung und Materie (Erwärmung dieser Materie durch Bestrahlung) kann nur dann stattfinden, wenn beides physikalisch auch tatsächlich aufeinander trifft. Und das ist für jede Ortslage ausschließlich innerhalb des Tagbogens der Sonne der Fall, ganz egal, was rein mathematische 24h-Tag+Nacht-Mittelwerte auch immer aussagen mögen…

Der astronomische Tagbogen wird auf Wikipedia folgendermaßen beschrieben, Zitat:

Als Tagbogen, seltener auch Tagesbogen, wird in der Astronomie jener Teil der scheinbaren Sternbahn bezeichnet, der für einen bestimmten (geographischen) Ort und ein gewisses Datum berechnet über dem mathematischen Horizont liegt. Seine Länge entspricht damit idealisiert der Zeitspanne zwischen Aufgang und Untergang eines Gestirns – jedoch ohne die astronomische Refraktion zu berücksichtigen, weshalb die tatsächliche Dauer einige Minuten länger ist. Der ‚wahre Tagbogen‘ zieht darüber hinaus die jeweiligen topographischen Verhältnisse in Betracht, also die Höhe des Standorts und den Verlauf des Landschaftshorizonts bzw. auf dem Meer die Kimmtiefe.“

Der konventionelle Faktor4-Tag=Nacht-Ansatz betrachtet die Erde über den 24h-Tag aus der Perspektive der Sonne. Dazu wird aus der täglich einfallenden solaren Energiemenge der Tag+Nacht-Mittelwert einer imaginären 24h-Durchschnittsstrahlungsleistung für die gesamte Erde berechnet. Es dürfte aber für Jedermann, Jedefrau und Jedengender einsichtig sein, dass eine physikalische Interaktion zwischen der spezifischen solaren Strahlungsleistung und der Materie einer Ortslage auf der Erde (Erwärmung) nur zwischen Sonnenaufgang und Sonnenuntergang möglich ist. Folglich muss anstelle einer mathematischen 24h-Durchschnittsstrahlungsleistung die tatsächliche Interaktion während des Tagbogens der Sonne zwischen Auf- und Untergang für jede individuelle Ortslage betrachtet werden.

Abbildung 1: Die Variation des Tagbogens der Sonne in Mitteleuropa @ 52°N
Quelle: Wikipedia – University of Oregon GNU General Public License

Zur Taglänge heißt es auf Wikipedia, Zitat:

In nördlichen mittleren Breiten variieren die Tagbögen der Sonne im Jahreslauf ungefähr zwischen 8 Stunden (um die Wintersonnenwende: Dezember/ Januar) und 16 Stunden (um die Sommersonnenwende: Juni/ Juli), und dementsprechend die Tageslänge. Zum Datum der Tag-Nacht-Gleiche hat der Tagesbogen 12 Stunden, dann beträgt die Differenz zwischen dem Azimut des Sonnenaufgangs exakt im Osten und dem des Sonnenuntergangs exakt im Westen genau 180°.“

Wenn wir also für eine Ortslage in Mitteleuropa @ 52°N einmal die über den Tag X eingestrahlte Energiemenge mit EX@52 [Ws/m²] bezeichnen, dann ergibt sich folgende Ungleichung:

SmaxX@52 [W/m²] > EX@52/Stunden@x des Tagbogens [W/m²] >= EX@52/24h [W/m²]

mit SmaxX@52 = maximale spezifische Strahlungsleistung der Sonne zur Mittagszeit am Tag X

Der Durchschnitt der solaren Strahlstärke über den Tagbogen ist also kleiner als das mittägliche solare Maximum. Und der Durchschnitt über den astronomischen 24h-Tag ist wiederum kleiner als der solare Durchschnitt über den realen Tagbogen. Lediglich am geographischen Pol der Sommerhemisphäre herrscht ein 24h-Tag mit einem konstanten solaren Zenitwinkel. Schon zwischen Pol und Polarkreis ist der Zenitwinkel dagegen nicht mehr konstant, auch wenn dort zeitweise die Sonne über 24h scheint. Nur am Sommerpol entsprechen sich daher das Maximum der solaren Strahlungsleistung über den Tagbogen und das solare 24h-Mittel; für den Pol der Winterhemisphäre ist das Ergebnis dagegen null (=Nacht). Der Tagbogen der Sonne darf also nicht generell mit dem 24h-Tag gleichgesetzt werden, wie das beim 24h-Faktor4-Tag=Nacht-Ansatz fälschlicherweise geschieht.

Zum besseren Verständnis stellt die nachfolgende Abbildung 2 eine vereinfachte Prinzipskizze für das Verhältnis zwischen dem Tagbogen der Sonne und dem 24h-Tag im Äquinoktium dar:

Abbildung 2: Schematische Prinzipskizze mit dem Vergleich zwischen dem Tagbogen der Sonne (rot=180°) und dem astronomischen 24h-Tag (blau=360°) im Äquinoktium (stark vereinfacht, nicht winkeltreu)

Eine einfache Abschätzung für die Äquinoktien: Die maximale spezifische Strahlungsleistung der Sonne zur Mittagszeit ist auf jeden Fall größer als das Mittel der spezifischen Strahlungsleistung über den 12h-Tagbogen (180°), in das ja auch die Minima nach Sonnenaufgang und vor Sonnenuntergang eingehen. Und dieses Mittel ist wiederum genau doppelt so groß wie das 24h-Tagesmittel (360°). Eine Erweiterung des Tagbogens auf 24h reduziert somit rein mathematisch die durchschnittlich einfallende örtliche Bestrahlungsleistung der Sonne auf die Hälfte und damit wiederum das daraus abgeleitete S-B-Temperaturäquivalent. Es bleibt darauf hinzuweisen, dass S-B-Gesetz und S-B-Inversion nicht auf rein mathematische Mittelwerte angewendet werden dürfen.

In seiner E-Mail vom 29.01.2021 um 09:58 Uhr* an mich und den üblichen Skeptiker-Email-Verteiler hatte ein Dr. Gerhard Kramm ein PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ (wird in der Folge als „Kramm 2021“ bezeichnet) mit einem direkten Temperaturvergleich zwischen meinem hemisphärischen S-B-Modell und seiner „Erde ohne Atmosphaere“ verschickt. Die beiden nachfolgenden Abbildungen entstammen diesem PDF:

https://www.eike-klima-energie.eu/wp-content/uploads/2021/05/up_02a-640x269.jpg

Abbildungen 3 a* und b*: Berechnete Oberflächentemperaturen aus dem PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ von Dr. Gerhard Kramm, Fairbanks, Alaska*

Originalbeschreibung: „Abbildung 15. Wie in Abbildung 12, jedoch für die auf dem lokalen Strahlungsgleichgewicht nach Gleichung (3) beruhende Oberflächentemperatur.“
Dazu der Text zu Abbildung 12: „Berechnete solare Einstrahlung für alle Tage des Jahres und alle geographischen Breiten:

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5)

In Abbildung 3b erscheint der Pol der Sommerhemisphäre nach Kramm (2021) realitätswidrig als absoluter Temperatur-Hotspot mit einer Signatur zwischen 275-300 Kelvin, um den Äquator herrschen dagegen Temperaturen zwischen 150 und 175 Kelvin. Die „Maxima nach Weber“ in der Abbildung 3a, abgeleitet mit einer S-B-Inversion aus dem Maximum der örtlichen solaren LEISTUNG [W/m²] ohne Albedo, schwanken dagegen mit dem jahreszeitlichen Sonnenstand um den Äquator („Latitude 0°“) mit bis zu 394 Kelvin. Die Temperaturen reduzieren sich dann zum Pol der Winterhemisphäre gegen null Kelvin. In der Realität werden die theoretischen Maximalwerte aber aufgrund von Albedo, Verdunstung und Konvektion nicht erreicht; die Minimalwerte werden dagegen durch Advektion und Kondensation gestützt. Das Stefan-Boltzmann-Gesetz (S-B-Gesetz) beschreibt das Verhältnis zwischen der momentanen Temperatur und der zeitgleichen spezifischen Strahlungsleistung eines Schwarzen Körpers, Zitat aus Wikipedia:

Das Stefan-Boltzmann-Gesetz ist ein physikalisches Gesetz, das die thermisch abgestrahlte Leistung eines idealen Schwarzen Körpers in Abhängigkeit von seiner Temperatur angibt. Es ist benannt nach den Physikern Josef Stefan und Ludwig Boltzmann.“

Man kann eine Inversion des S-B-Gesetzes über die spezifische solare Strahlungsleistung für eine Ortslage demnach dann und nur dann durchführen, wenn die Sonne dort gerade scheint, also im Tagbogen zwischen Sonnenauf- und -untergang. Wenn wir jetzt in der nachfolgenden Abbildung noch einmal die beiden Modell-Temperaturverläufe mit den Beleuchtungsklimazonen unserer Erde vergleichen, dann finden wir das hemisphärische S-B-Modell voll bestätigt:

Abbildung 4: Vergleich konkurrierender Modelle für die globale Verteilung der Temperatur.
Links mein hemisphärisches S-B-Modell: Oberflächentemperatur für die täglichen solaren Strahlungsmaxima nach Weber aus Kramm (2021)*.
Mitte: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License).
Rechts ein breitenabhängiges 24h-Temperaturmittel: Oberflächentemperatur für die solaren tägliche Mittelwerte nach Kramm et al. (2017) aus Kramm (2021)*


Ergebnis: 
Wie erwartet spiegeln die Beleuchtungsklimazonen (Definition) unserer Erde (Abbildung 4 Mitte) den Verlauf der maximalen örtlichen solaren Strahlungsleistung und zeigen keinerlei Hotspot am Pol der Sommerhemisphäre (Abbildung 5):

Abbildungen 5 a* und b*: Der Modellvergleich aus dem PDF-Dokument von Kramm (2021)* mit jeweils einem Overlay der Beleuchtungsklimazonen (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

(a [links]) Maxima nach Weber, beginnend mit dem 1. Januar 2000, 12:00 Uhr (JD = 2451545)

(b [rechts]) Tägliche Mittelwerte nach Kramm et al. (2017), beginnend mit 1.Januar 2010, 00:00 Uhr (JD =2455197,5)

Anmerkung: Die Overlays der Beleuchtungsklimazonen sind gegenüber den Modellen a und b nicht flächentreu

Bekanntermaßen ist die spezifische solare Strahlungsleistung in den Tropen nun einmal am höchsten und fällt dann zu den Polarregionen kontinuierlich ab (Vergleich hier: Leistung vs. Arbeit in Abb.3b), wie es auch die Overlays in Abbildung 5 prinzipiell zeigen. Von den beiden konkurrierenden theoretischen Klimamodellen in den Abbildungen 3 bis 5 wird dieser natürliche Verlauf lediglich von meinem hemisphärischen S-B-Modell sinnstiftend abgebildet. Mein hemisphärisches S-B-Modell ersetzt als realistisches Modell unserer Erde ohne THE also den konventionellen Faktor4-Tag=Nacht-THE-Ansatz der real existierenden Klimawissenschaft mit einem fehlerhaft konstruierten globalen „natürlichen atmosphärischen Treibhauseffekt“ von konstant 33°C.

Wir können also abschließend festhalten:

Der konventionelle 24h-Faktor4-Tag=Nacht-Ansatz arbeitet mit einem gemittelten 24h-Leistungsdurchschnitt der Strahlungsmenge (Energie) über einen imaginären 24h-Tagbogen der Sonne und berechnet aus diesem 24h-Tag+Nacht-Mittel der solaren Strahlstärke eine viel zu geringe theoretische globale Durchschnittstemperatur von (-18°C). Das Modell von Kramm (2021, Abb. 3b, sowie Abbildungen 4 rechts und 5b) stellt zudem die Beleuchtungsklimazonen der Erde (Abb. 4 Mitte und Overlays in Abb. 5) und damit auch den Antrieb der globalen Zirkulationen (Atmosphäre/Ozeane) auf den Kopf. Im Ergebnis ist das Modell einer „Erde ohne Atmosphaere“, das die zugrunde liegende physikalische Realität auf unserer Erde mit einer sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. 15°C nicht wenigstens prinzipiell abbilden kann, also gar kein gültiges Modell dieser Realität und damit zu verwerfen.

Das hemisphärische S-B-Modell stützt sich dagegen auf die maximale spezifische Strahlungsleistung der Sonne im Zenit des realen Tagbogens und ermittelt daraus die nach dem S-B-Gesetz maximal mögliche Ortstemperatur. Denn eine Interaktion zwischen Sonneneinstrahlung und Materie (also die Erwärmung selbiger Materie) kann nur dann stattfinden, wenn beides tatsächlich physikalisch aufeinander trifft – und das ist nur innerhalb des Tagbogens der Sonne der Fall. Das aus der maximalen spezifischen Strahlungsleistung der Sonne abgeleitete Temperaturmittel für die sonnenbeschienene Tageshemisphäre der Erde beträgt ca. 15°C und stimmt mit der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) überein.

Es kann also keinen vernünftigen Zweifel daran geben, dass eine Inversion des S-B-Gesetzes (Bestrahlungsstärke->Temperatur) nur innerhalb des Tagbogens der Sonne physikalisch korrekt ist. Der konventionelle 24h-Faktor4-Tag=Nacht-Ansatz ist damit zugunsten meines hemisphärischen S-B-Modells zu verwerfen. Damit ist das 24h-Tag=Nacht-THE-Flacherdemodell endgültig Geschichte, es sei denn, irgendjemand führt den wissenschaftlichen Nachweis, dass die Sonne außerhalb ihres Tagbogens die Erdoberfläche direkt zu erwärmen vermag.


*) Nachtrag:
Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Adressat der o. g. E-Mail vom 29. Januar 2021 um 09:58 Uhr mit Kramms PDF-Dokument „kramm_bemerkungen_weber_v3.pdf“ und den dort enthaltenen Abbildungen 15 a und b (hier Abbildungen 3 a und b und 5 a und b sowie Abb. 4 links und rechts) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein. Ich beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung dieser Graphiken in meinem Artikel „Der Faktor4-Tag=Nacht-Ansatz unterstellt einen fehlerhaften 24h-Tagbogen der Sonne“, Zitat:

“CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, die Inhalte der besagten E-Mail Kramm vom 29. Januar 2021 um 09:58 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.“

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.

 




FACHTAGUNG IN STUTTGART – Bilanz nach 20 Jahren deutsche Energiewende: Die Lage ist kritisch

von Holger Douglas

20 Jahre nach Beginn der Energiewende ist die Energieversorgung, vor allem mit Strom, an einer kritischen Grenze. Das ist eine Quintessenz einer Fachtagung »20 Jahre Energiewende«.

Zeit also, rein die Fakten zu prüfen: Was ist aus der Kugel Eis geworden? »Es ging bei dieser Konferenz darum, die Fakten der letzten 20 Jahre Energiewende zu beleuchten«, sagt André Thess, Professor für Energiespeicherung der Universität Stuttgart, der die Tagung auf die Beine gestellt hatte. »Wie ist die technologische Entwicklung vonstatten gegangen? Welche ökonomischen Parameter sehen wir heute im Vergleich vor 20 Jahren?«

Wichtig waren auch die Fragen: »Inwieweit ist die Energiewende ein Projekt, welches, wie manche Zeitgenossen sagen, zur Spaltung der Gesellschaft beiträgt?« und »Wie kann man diese Spaltung überwinden?« »Insofern hat diese Konferenz zwar den technologischen Schwerpunkt gehabt, aber sie hat sich interdisziplinär auch auf die Themen Ökonomie, Politikwissenschaft und sogar Philosophie und Ethik ausgeweitet.«

Die reinen Fakten liegen ziemlich deutlich auf dem Tisch. Deutschland befinde sich auf jeden Fall in einer zunehmend kritischen Lage, stellte Harald Schwarz fest, Lehrstuhlinhaber für »Energieverteilung und Hochspannungstechnik« an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. Er betrachtete die Situation in den Stromnetzen: Wie viel Energie ist noch vorhanden – oder wie weit ist es bis zum Crash?

Das konnte Schwarz nicht klar beantworten. Allerdings: Der Weg bedürfe sicherlich einer Nachjustierung »und zwar massiver Nachjustierung«. Schwarz: »Aus dem einfachen Grund: Wir bauen immer mehr gesicherte Leistung im Stromsystem ab, wir bauen immer mehr völlig fluktuierende, auch völlig ungesicherte, also gesicherte Leistung. PV ist 0 Prozent, Wind ist 1, 2 Prozent, und wir hoffen darauf, dass wir in Zeiten von kalter Dunkelflaute Strom aus dem Ausland bekommen, weil er im Prinzip woanders nicht mehr herkommen kann. Das sind einfach Dinge, wo man sagt, das kann sich eigentlich eine Industrienation nicht leisten, zumal eben auch alle anderen Nachbarländer es nicht so tun.«

Thess selbst führt aus der reinen Energieforschung zuerst das Positive an: »Die letzten 20 Jahre haben in der Energieforschung beeindruckende Fortschritte in den Bereichen Batterie, Forschung, Wasserstoff, Wärmespeicher, Solarenergie, Windenergie gezeigt. In meiner Forschungstätigkeit bin ich überzeugt, dass diese Fortschritte sich früher oder später in technologischem Fortschritt und auch in besseren Energietechnologien manifestieren werden.« Allerdings: »Wenn ich als politisch denkender Bürger die Bilanz der Energiewende sehe, dann muss ich sagen, wenn ein Land wie Deutschland 20 Jahre nach Beginn eines Transformationsprozesses immer noch doppelt so viel CO2 pro Kopf emittiert wie unser befreundetes Nachbarland Frankreich, dann fällt es mir schwer, einen solchen Prozess als Erfolg zu bezeichnen.«

»Der Unterschied kommt daher, dass Deutschland, dass die Energieproduktion in Deutschland auch heute noch relativ viele fossile Energieträger umfasst, währenddessen in Frankreich ein großer Teil der elektrischen Energie durch CO2-neutrale oder CO2-arme Kernenergie erfolgt. Es mag auch eine Rolle spielen, dass die industrielle Wertschöpfung pro Kopf in Frankreich etwas kleiner ist als in Deutschland. Aber ich glaube, dass der primäre Unterschied in dem Portfolio der Energie-Herstellungstechnologien liegt.«

Die Belastungen von Wirtschaft und Gesellschaft untersuchte Fritz Vahrenholt – nicht nur bezogen auf Deutschland. Wahre Abschaltorgien von Kraftwerken leisten sich nicht nur Deutschland, sondern auch mehrere andere europäische Länder. So hat Spanien mindestens sieben Kohlekraftwerke abgestellt, in England läuft kein einziges Kohlekraftwerk mehr. Seit 2017 wurden in Europa Kohlekraftwerke stillgelegt, die insgesamt 20.000 MW an Strom lieferten. Allein in Deutschland wurden rund 11.000 MW abgeschaltet.

Ab 2021 mussten zusätzlich Gaskraftwerke angeworfen werden, um Strom zu erzeugen. Eine sehr teure Angelegenheit. »Die weltweite Gasverknappung und die in Mitteleuropa auftretende Windflaute verstärkt den Effekt«, so Vahrenholt. So war das vergangene Jahr ein Jahr, in dem der Wind sehr schwach wehte, die 30.000 Windräder also noch weniger liefern konnten, als sie ohnehin schon liefern. Ab Februar 2022 kommt zusätzlich der Effekt des Ukrainekrieges hinzu.« Die Gaskrise lasse die kritische Lage noch einmal besonders drastisch zum Vorschein kommen.

Er hat durchgerechnet, wie drastisch sich die gestiegenen Energiekosten auswirken. Denn nicht allein die exorbitanten Preissteigerungen beim Strom treffen vor allem den deutschen Mittelstand, sondern das Brennstoff-Emissionshandelsgesetz. 2022 müssen 30 Euro pro Tonne CO2 für Benzin, Diesel, Heizöl und Gas bezahlt werden. Das verteuert den Diesel um 9,5 Cent pro Liter, Benzin um neun Cent pro Liter und 0,72 Cent die Kilowattstunde Erdgas. Bei einem mittelständischen Unternehmen mit einem Verbrauch von 100 Millionen kWh pro Jahr schlägt das mit Mehrkosten in Höhe von 720.000 Euro zu Buche.

Das besonders Bedrohliche – auch darauf weist Vahrenholt unter anderem in seinem Buch »Unerwünschte Wahrheiten« immer wieder hin – sind die Auswirkungen auf den Preis der Lebensmittel. Denn die Produktion von Lebensmitteln ist direkt mit Energieverbrauch verbunden. Kein Wunder also, dass dem Ölpreis steigende Nahrungsmittelpreise folgen.

Aus physikalischer Sicht ist die Sache klar: »Kohlenwasserstoffe besitzen den Vorteil, dass sie pro Kilogramm oder pro Liter tatsächlich die höchste Energiespeicher-Dichte haben«, rechnet Thess vor. »Ein Liter Benzin oder ein Kilogramm Benzin kann zehn Kilowattstunden speichern. Ein Kilogramm Lithium-Ionen-Batterie kann hingegen nur 0,1 Kilowattstunde speichern. Das sind also zwei Größenordnungen Unterschied. Am Ende kommt es jedoch darauf an, wie teuer die Speicherung pro gespeicherter Kilowattstunde ist. Und da sind wir optimistisch, dass diese wärmebasierte Energiespeicher-Technologie einige Vorteile bietet und besonders die großen Energiespeicher Aufgaben Gigawattstunden und Terawattstunden als ein zusätzlicher Baustein bedienen kann.«

Kohle, Öl und Gas werden auch auf absehbare Zeit lange Zeit unsere Energiequellen sein. Thess: »Wir werden mit Sicherheit noch längere Zeit fossile Energieträger brauchen, weil ihre Energiespeicher-Dichte und ihre Transportfähigkeit und auch ihre Kosten konkurrenzlos günstig sind. Wenn wir allerdings das Energie- und Verkehrssystem weltweit dekarbonisieren wollen, dann werden wir schrittweise auf CO2-neutrale Energiequellen umsteigen müssen. Dazu zählt neben der Sonne und dem Wind laut Weltklimarat IPCC auch die Kernenergie. Auch die Geothermie, auch das Carbon Capture and Storage.«

»Und ich bin der Meinung, dass wir angesichts der Schwierigkeit des bevorstehenden Transformationsprozesses immer an den Spruch eines japanischen Kollegen denken müssen: Energiediversität ist genauso wichtig wie Biodiversität.«

Keine Konferenz dieser Art, die ohne Bashing auskommt. Auch eine reine wissenschaftlich seriöse Fachtagung, die eine möglichst saubere Bilanz ziehen wollte. Thess: »Wir haben auf der einen Seite ein vehementes Interesse an dieser Konferenz gesehen. Wir mussten leider auch feststellen, dass auf die Universität Stuttgart von außen Druck ausgeübt wurde.« An die Leitung der Universität und das Dekanat wurden anonyme Warnmails geschickt, diese Veranstaltung zu verbieten.

So sei Vahrenholt als sogenannter von der »Fossilindustrie« bezahlter »Klimaskeptiker« mit seiner Prognose widerlegt worden, ab 2010 gebe es eine Abkühlung anstelle einer Erwärmung. Zwar falsch, aber damit sollte er mindestens von der Gästeliste gestrichen werden. Eine Fachdiskussion mit ihm sei überflüssig. Doch Thess hält es in einer Debatte für ganz normal, Kritik zu üben. »Diese Kritik sollte sachlich vorgebracht werden.«

»Die Veranstaltung hat trotzdem stattgefunden mit dem geplanten Programm, und ich möchte auch der Universität Stuttgart ein ausdrückliches Lob ausstellen. Die Universität Stuttgart hat sich nicht von diesem Druck beeinflussen lassen. Sie hat die Veranstaltung trotzdem durchführen lassen, und wir konnten diese Veranstaltung ungestört abhalten.«

Für Thess ein Erfolg der Wissenschaftsfreiheit: »Ich halte das für ein wichtiges Signal für die Wissenschaftsfreiheit, weil ich der Meinung bin, wo – wenn nicht an einer deutschen Universität – können kontroverse Diskussionen über solche wichtigen Themen wie Energie, Klima, Energiestrategie und Energiewende geführt werden.«
TE wird auf die einzelnen Vorträge weiter eingehen.

Der Beitrag erschien zuerst bei TE hier

 




Kann die Ukraine Deutschland retten?

von Dr. Ing. Klaus- Dieter Humpich

Deutschland rast immer schneller dem Abgrund entgegen. So geht das halt mit dem Interventionismus. Am Anfang stand die – wie immer gut gemeinte – Idee, „Alternative Energien“ nutzbar zu machen. Da diese aber keiner so richtig haben wollte, hat man sie mit Milliarden subventioniert. Das ganze wurde als Anschubfinanzierung verbrämt, so wie das gute Drogenhändler halt machen. Heute gibt es ein gigantisches Netzwerk von Schlangenölverkäufern und mitverdienenden Politschranzen. Um dem Ganzen noch die Krone aufzusetzen, verunglimpfen sie das auch noch als Marktwirtschaft. Hätten sie sich doch besser mal mit dem Fluch der Planwirtschaft nach dem Zusammenbruch der „DDR“ beschäftigt. Versuchen Laiendarsteller den Markt mit Dumpingpreisen und Zwangseinspeisungen auszuhebeln, werden sie zu Zauberlehrlingen. Damit die Illusion aufrecht erhalten werden kann, beginnt die Phase der Feinsteuerung: Heizungen sollen (im Sommer) „richtig eingestellt“ werden, das Duschen eingeschränkt usw. Gleichzeitig plant man Kernkraftwerke abzuschalten und damit noch mehr Strom aus Erdgas zu erzeugen. Schöne neue Welt der Deindustrialisierung. Welches Schräubchen sie auch immer drehen mögen, am Ende wird die Industrie ins Ausland abwandern müssen und breite Schichten der Bevölkerung verarmen.

Was kann und soll mit der Ukraine nach diesem Vernichtungskrieg geschehen? Bereits heute sehen große Gebiete wie viele deutsche Großstädte 1945 aus. Um dieses geschundene Land wieder aufzubauen, sind hunderte Milliarden nötig. Wird die „westliche“ Welt den Willen und die Kraft haben, Russland in die Verantwortung für seine Verbrechen zu nehmen und Reparationen verlangen? Eher wohl nicht – eher nur symbolisch. Dafür gibt es viel zu viele „Putinversteher“, wenn nicht gar Sympathisanten. Andererseits kann man ein so großes Land in unmittelbarer Nachbarschaft nicht einfach zur Wüste erklären. Wohl gemerkt, durchaus im Eigeninteresse. Allein die Ströme der Auswanderer würden Europa an seine wirtschaftlichen Grenzen bringen. Ein Nichtstaat mit all seinen Konsequenzen, würde Europa dauerhaft destabilisieren. Es bleibt gar keine Alternative, die Ukraine muß zum Erblühen gebracht werden. Die meiste Last wird dabei die Bevölkerung selbst tragen müssen, so wie in Deutschland, Japan und Korea einst auch. Der Weg wird auch der Gleiche sein. Nur über Exporte kann das benötigte Kapital ins Land kommen. Nur was sind in der Welt von heute noch die Marktlücken? Die reichhaltige Landwirtschaft sicher nicht, da sie schon vorher nicht für breiten Wohlstand reichte. Es kann nur eine – wie auch immer geartete – Industrie sein. Die Orks aus der Steppe können zwar das Land verwüsten, aber nicht die Gehirne der Menschen leeren. Die Basis für eine rasche (Re)Industrialisierung ist mehr als vorhanden. So verfügte die Ukraine z. B. schon vor dem Krieg über eine kerntechnische Industrie.

Deutschland als Kunde

Wenn Deutschland weiterhin seinem religiösen Wahn folgen will, ein Industrieland nur mit Wind und Sonne betreiben zu wollen, wird es auf seine Nachbarn zur Bereitstellung eines elektrischen Netzes angewiesen sein. Wohl gemerkt, nur um weiter zu existieren – von Wohlstand wird dann keine Rede mehr sein. Wer von unseren (westlichen) Nachbarn kann aber dafür in Frage kommen? Sie alle brauchen Neubauten als Ersatz für ihre alternde Kraftwerksflotte. Zusätzliche Kraftwerke ausgerechnet für die moralinsauren Deutschen, die doch vorangehen wollten? Die ihren Nachbarn (Belgien, Frankreich) immer Verantwortungslosigkeit vorgeworfen haben wegen ihrer „Schrottmeiler“ und „Atomruinen“. Hilfe und Wohlwollen ist nur aus dem Osten zu erwarten. Diese Länder waren immer positiv gegenüber der Kernenergie eingestellt und haben ihr Recht auf Kernenergie immer nachhaltig gegenüber den Bürokraten aus Brüssel verteidigt.

Polen

Polen ist ein sich weiter entwickelndes Land mit knapp 40 Millionen Einwohnern. Der Stromverbrauch betrug 2013 150 TWh. Er wurde zu rund 48% aus Steinkohle und rund 24% aus Braunkohle gewonnen. Polen ist Kohleland. Es verfügt über keine wesentlichen anderen Quellen. Wind- und Sonne ist aus geographischen Gründen nur eingeschränkt möglich. Die Förderung von Kohle ist durch immer ungünstigere Bedingungen und Umweltbelastungen nicht länger zu halten. Die staatlichen Subventionen belasten den Haushalt.

Polen hat sich folgerichtig für Kernenergie entschieden. Es wurde beschlossen sechs Reaktoren, an drei Standorten, mit einer Leistung zwischen 6 und 9 GW zu bauen. Darüberhinaus gibt es mehrere private Initiativen zum Bau von SMR zur Versorgung von Industrieanlagen. Westinghouse Electric Company führt bereits eine Grobplanung (Front-End Engineering and Design; FEED) auf der Basis ihres AP1000 durch, die von der United States Trade and Development Agency (USTDA) gefördert wird. Darüberhinaus sind auch die Franzosen und Koreaner zur Abgabe eines Angebots aufgefordert. Bechtel hat sich mit zwölf polnischen Unternehmen und Toshiba (für Turbosatz und Dampferzeuger) über die Bildung eines Konsortiums für den Bau verständigt. Parallel werden aktuell noch enge Beziehungen zwischen Westinghouse, Hyundai und Korea Electric Power Corp (KEPCO) bezüglich des AP1000 geknüpft. Ein Schelm, wer Zusammenhänge mit der aktuellen politischen Lage sieht.

Tschechien

In Tschechien werden bereits 34% der elektrischen Energie aus Kernenergie erzeugt. Die Kohleförderung soll aufgegeben werden. Als nördliches Binnenland scheidet Wind und Sonne praktisch aus. Deshalb wurde ein Ausbau der KKW Dukovany und Temelin beschlossen. Auch hier ist Westinghouse mit einer Absichtserklärung vertreten. Man hat sie mit zehn tschechischen Unternehmen zum Bau eines Blocks in Dukovani abgeschlossen.

Ukraine

Die Ukraine verfügt über 15 Reaktoren an vier Standorten. Im Jahre 2016 erzeugten sie 153,6 Mrd. kWh. Sie verfügt damit über Betriebserfahrungen seit den 1970er Jahren. Alle Reaktoren sind Druckwasserreaktoren russischer Bauart. Seit einigen Jahren laufen sie mit Brennstäben aus schwedischer Fertigung. Die Bevölkerung ist der Kernenergie gegenüber positiv eingestellt. Das ist um so bemerkenswerter, da sie die schrecklichen Erfahrungen mit Tschernobyl machen mußte. Seit einem Monat ist das Netz von Rußland abgekoppelt und mit dem europäischen Netz synchronisiert.

Schon vor dem Krieg wollte man die Blöcke Khmelnitsky 3 und 4 mit der Hilfe von Westinghouse fertigstellen. Man wollte dabei auf eingelagerte Komponenten des gescheiterten Projekts V. C. Summer zurückgreifen. Im Juni 2022 führte man mit Westinghouse Gespräche über den Bau von 5 bis 9 Reaktoren des Typs AP-1000. Ferner soll ein nukleares Zentrum errichtet werden, mit einer Brennelementefabrik zur Versorgung aller ukrainischen Reaktoren. Durch den Zubau von 11 GWel könnte der Anteil der Kernenergie von derzeit 53% auf über 70% gesteigert werden.

Der gedachte Verbund

Fast man nun die Pläne von Polen, Tschechien und der Ukraine zusammen, kommt man auf rund 20 Reaktoren. Bezieht man den Bedarf von Deutschland an zuverlässiger und preiswerter elektrischer Energie ein, ergibt sich ein Ausbauprogramm wie weiland in Frankreich. Man könnte gestaffelt produzieren: Strom von der Ukraine nach Polen, Tschechien etc. und von dort Lieferungen an Deutschland. So käme man ohne neue Fernleitungen und große Transportverluste aus. Zusätzlich kann man noch die Zeitverschiebung nutzen.

Der volkswirtschaftliche Sinn für die Ukraine läge in der kurzfristigen Schaffung eines immer mehr gefragten Exportprodukts: Elektrische Leistung und Energie. Man könnte kurzfristig mit der Lieferung aus dem bestehenden Kraftwerkspark beginnen und alte Kraftwerke schrittweise durch den Zubau ersetzen. Wichtig dabei ist, daß möglichst schnell selbst verdiente Devisen ins Land fließen. Devisen, die dringend für den Wiederaufbau von Industrie und Infrastruktur (nach dem Ende des Krieges) gebraucht werden. Gleichzeitig schaffen die Arbeitsplätze der Exporte weitere Nachfrage im Inland. Man entsinne sich mal der Situation in Deutschland nach 1945: Zehntausende bauten den „Käfer“, einen Exportschlager, der ganze Regionen zum Wiedererleben erweckte. Jeder Reaktor erfordert schon während der Bauzeit mehrere Tausend Arbeitskräfte vor Ort, die irgendwo schlafen und essen und mit den Dingen des täglichen Bedarfs versorgt werden müssen. Solche Großbaustellen sind überall auf der Welt Oasen der Prosperität, die weit in ihr Umland ausstrahlen. Hinzu kommt, daß die Arbeitsplätze in der Kernenergie „gut bezahlt“ sind – bezogen auf das landesübliche Niveau. Die Frage ist nur, wieviel Kapital ist erforderlich und wie kann es beschafft und finanziert werden.

Overnight Capital Cost

Dies ist ein Begriff aus der Anlagentechnik, auch EPC-Kosten (Engineering, Procurement and Construction) genannt. Das ist der Preis für eine „Errichtung über Nacht“, also ohne Finanzierungskosten über die Bauzeit. Für den AP1000 gibt es Daten aus den Projekten Sanmen 1 und 2 FOAK (First Of A Kind) und Haiyang 1 und 2 in China und Vogtle 3 und 4 in USA. Die „Kosten über Nacht“ betrugen 2000 USD/kW in China und 4300 USD /kW in USA (Basis 2018). Auf den ersten Blick erkennt man die unterschiede im Lohn- und Materialpreisniveau zwischen China und USA. Vereinfachend wird hier einfach der Mittelwert und eine Netto-Inflation (Differenz zwischen Inflation und Einsparung durch Serienfertigung) von 20% angesetzt. Man kann so von 3800 USD/kW ausgehen.

Owner’s Cost

Irgendjemand muß für die Projektentwicklung, das Management der Baustelle mit all ihren Einrichtungen, der Organisation der Finanzierung, den Gebühren, den gegenseitigen Verbindungen usw. aufkommen. Letztendlich bezahlt das alles der Kunde. Diese Kosten können je nach Projekt und Land sehr unterschiedlich ausfallen. Aus Erfahrung im Kraftwerksbau wird hier ein Prozentsatz von 40% der EPC-Kosten angesetzt. Das ergibt rund 1500 USD/kW. Sodaß man von Errichtungskosten von rund 5300 USD/kW (ohne Finanzierung) ausgehen kann.

Die Finanzierung

Rechnungen werden über das gesamte Projekt ständig geschrieben. Sie müssen fristgerecht bezahlt werden. Es muß deshalb eine Kreditlinie für die gesamte Bauzeit aufrecht gehalten werden. Jeder ausgezahlte Betrag muß mit Zins und Zinseszins bis zur Fertigstellung und Übergabe an den Kunden aufsummiert werden. Hier spielt die Bauzeit eine entscheidende Rolle: Laufen Projekte wie Vogtle völlig aus dem Ruder, kommt es zu sehr viel höheren Kosten. Bauzeiten zwischen 60 und 100 Monaten erscheinen realistisch. Es liegen bisher schon die Erfahrungen von vier Reaktoren vor und weitere 2 in USA und vier (CAP1000) in China befinden sich noch im Bau. Baut man zeitlich versetzt (immer eine Doppelanlage) und hat erst mal qualifizierte Teams für alle Gewerke zusammen, sind Bauzeiten unter 5 Jahre leicht erzielbar. Wie gesagt, wirkt sich das ganz entscheidend auf die nötigen Investitionen aus.

Die teuerste Finanzierung ist eine, ausschließlich über Fremdkapital. Dies ist der (gescheiterte) Weg von Hinkley Point C. Die Banken verlangen hohe Risikoaufschläge. Bei der Übergabe an den Auftraggeber hat sich ein riesiger Schuldenberg (Zinseszinsen) angesammelt. Dieser Schuldenberg belastet bis dahin den Generalübernehmer (GÜ), der infolgedessen nur wenige Projekte gleichzeitig durchstehen kann. Am Ende ergibt sich für den Stromkunden ein unnötig hoher Preis. Er zahlt mit seiner Stromrechnung hauptsächlich für den Schuldendienst.

Aus diesem Grund kehrt man in GB bei dem Projekt Sizewell C wieder zu einem Bauherrenmodell zurück. Die angefallenen Baukosten werden zu vereinbarten Fertigstellungsterminen von dem Energieversorger bezahlt. Dem GÜ wird ein gewisser Prozentsatz für seine Leistungen eingerechnet. Dies entspricht einer Investition in Eigenkapital durch alle Stromkunden in ein Kernkraftwerk. Vorteil für die Stromkunden ist der Wegfall der enormen Finanzierungskosten. Nachteil ist die „Vorkasse“.

Im Zusammenhang mit der Situation in Deutschland könnte das Mankala-Modell, wie beim finnischen Kernkraftwerk Hanhikivi, besonders lukrativ sein. Dabei bilden mehrere Unternehmen eine Zweckgesellschaft zum Bau eines Kernkraftwerks. Sie übernehmen die Baukosten anteilig. Geht das Kraftwerk ans Netz, bekommt jeder Anteilseigner einen seiner Beteiligung entsprechenden Anteil elektrischer Energie zu einem Preis, der nur die angefallenen Kosten deckt. Er kann diese (kostengünstige) Energie selbst nutzen oder aber weiter verkaufen. Solche Anteile können auch sehr verlockend für z. B. Pensionskassen sein. Man erhält für seine Anlage einen stetigen, gut kalkulierbaren Zahlungsstrom über den Verkauf der Strommenge, an den Strombörsen oder an Stadtwerke etc.

Zusammenfassung

Es geht hier nur um einen Weg aus der verbockten Energiewende. Die Betonung liegt dabei auf „einen Weg“. Es gibt sicher noch viele andere, wenn man sich nur von der religiösen Fixierung auf Wind- und Sonne frei macht. Würde man 20 AP1000 Reaktoren bauen, käme man gerade auf den Betrag, den allein Deutschland als „Sondervermögen“ in die Bundeswehr steckt. Auf europäischer Ebene eher ein Trinkgeld. Bezüglich der Ukraine könnte „Der Westen“, vertreten durch USA, Korea, Japan und wer sonst noch will, seine Verbundenheit deutlich machen. Die Ukraine könnte – wie einst West-Berlin – zum Schaufenster der freien Welt gemacht werden – langfristig mit dem gleichen Effekt.

Man sollte auch die Binsenweisheit, daß die Ausgaben des einen, die Einnahmen der anderen sind, dabei nicht aus den Augen verlieren. Es wäre ein gigantisches Konjunkturprogramm für Osteuropa mit der Ukraine. Es liefert nicht nur preiswerte elektrische Energie, sondern schafft auch gut bezahlte Arbeitsplätze mit Zukunftsgarantie in einer Hochtechnologie-Branche.

Der Beitrag erschien zuerst auf dem Blog des Autors hier

 

 




Wie funktionieren Reaktoren mit Salzschmelzen?

Von Klaus-Dieter Humpich

Wenn man Salze hoch genug erhitzt, schmelzen sie und werden dünnfüssig wie Wasser. Es besteht also die Möglichkeit auf dieser Basis Reaktoren mit flüssigem Brennstoff zu bauen. Die Handhabung und Messtechnik für Salzschmelzen wurde erst Anfang des 20. Jahrhunderts für die Aluminiumindustrie entwickelt. Bis heute handelt es sich um ein recht exotisches Teilgebiet der Technik. Bereits 1944 schlug L.W. Nordheim einen Brutzyklus zur Nutzung von Thorium (Th232 —> U233) als Brennstoff vor. Bereits 1949 schlug A.M. Weinberg einen Reaktor mit Uran und Thorium haltigen Salzen des Fluor als Betriebsmittel für Flugzeuge vor. Bis heute, ist der Name Weinberg mit einer kontroversen Philosophie über Kernreaktoren verbunden. In den USA gipfelte diese Entwicklung im MSRE (Molten Salt Reactor Experiment), der von 1965 bis 1969 in Betrieb war. Es ist also beileibe keine neue Erfindung, sondern eher die Wiederaufnahme einer alten Entwicklungsschiene, deren Vor- und Nachteile im weiteren etwas beleuchtet werden sollen.

Die Neutronenfrage

Die Wahrscheinlichkeit für eine Kernspaltung hängt maßgeblich von der Geschwindigkeit der Neutronen im Reaktor ab: Je langsamer sie sind, um so größer ist bei Uran und Plutonium die Wahrscheinlichkeit einer Kernspaltung (Spaltungsquerschnitt in barn). Aber Vorsicht, dies gilt nur für die ungeraden Isotope (U233, U235, Pu239 etc.). Will man auch die geraden Isotope spalten (U238 etc.) geht das nur mit schnellen Neutronen. Man kann sogar mit Natururan (0,7% U235) kommerzielle Reaktoren bauen (Deuterium oder Graphit als Moderator), aber schon bei Leichtwasser (Druckwasser- oder Siedewasserreaktor) muß man das Uran aufwendig anreichern (ca. 3–5% U235). Will man auch das U238 spalten, muß man zwingend schnelle Neutronen verwenden und braucht eine sehr viel höhere Anreicherung bzw. entsprechend viel Plutonium.

Warum diese Vorüberlegungen? Neutronen werden durch Zusammenstöße mit den Materialien des Reaktors zwangsweise abgebremst. Man ist also nicht mehr frei bei der Auswahl der Salze. Wählt man „leichte“ Salze aus Lithium und Beryllium ist die Abbremsung bereits so stark, daß man nicht mehr von schnellen Neutronen sprechen kann. Man baut automatisch einen Reaktor mit thermischem Neutronenspektrum. „Thermisch“ ist eine Geschwindigkeitsangabe über die Temperatur im Reaktor, da man wegen der Brownschen Molekularbewegung diese Geschwindigkeit nicht unterschreiten kann. Will man ein härteres (schnellere Neutronen) Spektrum, muß man zwingend auf „schwere“ Salze aus z. B. Chlor übergehen.

Die Salze

Standard ist immer noch das Molten Salt Reactor Experiment (MSRE). Der MSRE wurde 1960 geplant, wurde 1965 zum ersten Mal kritisch und lief bis 1969 mit verschiedenen Brennstoffen. Er hatte ein thermisches Neutronenspektrum und eine Leistung von 7,34 MW. Das Salz bestand aus 65% Li7 F, 29,1% BeF2, 5% ZrF4 und 0,9% UF4 (alles in Molenprozent). Man kann hier schon einige grundlegende Überlegungen ableiten:

  • Um ein thermisches Spektrum zu erhalten muß das Salz überwiegend aus „leichten“ Kernen gebildet werden (Li7, F19, Be9, Zr90). Trotzdem war auch hier noch ein zusätzlicher Moderator aus Graphit erforderlich. Die Salze dürfen auch nicht parasitär gegenüber den Neutronen sein (zu große Einfangquerschnitte). Dies gilt besonders, wenn man aus dem Thorium Uran erbrüten will.
  • Es handelt sich um eine Mischung aus Fluorsalzen. Fluor ist bei Raumtemperatur gasförmig. Es gehört zu den stärksten Oxidationsmitteln und reagiert mit fast allen Elementen sehr heftig. Dies ist wichtig, da ja bei jeder Kernreaktion auch die chemische Verbindung zerbricht und nahezu das gesamte Periodensystem neu entsteht. Die radioaktiven Spaltprodukte sollen auch im Salz gebunden (Sicherheit bei Störfällen) werden.
  • Der Anteil an spaltbaren Atomen ist mit unter einem Prozent recht klein. Das Salz ist quasi nur mit Brennstoff – und später den Spaltprodukten – „verunreinigt“. Das ist wichtig, da die Salzmischung mit allen möglichen Bauteilen des Reaktor in Kontakt kommt und zu Korrosion führt – bis heute ein Problem dieses Reaktortyps.

Man hat den MSRE mit U235 (Anreicherung 32%), U233(≈91,5%) und Pu239 F3 erfolgreich betrieben. Das letzte Salz führt unmittelbar zum „Waste Burner“, in dem man Reaktorplutonium und Minore Aktinoide aus Leichtwasserreaktoren verwendet.

In der Natur kommen die beiden stabilen Isotope Li6 (7,6 %) und Li7 (92,4 %) vor. Für einen MSR ist nur Li7 erwünscht, da aus Li6 durch Neutroneneinfang (großer Querschnitt) radioaktives Tritium entsteht. Generell gilt, daß die Salze sehr rein sein müssen, was sie teuer macht.

Will man ein schnelles Neutronenspektrum, darf das Salz nur wenig leichte Kerne enthalten. Chlorsalze sind die Favoriten. Sie sind insbesondere für Uran-Plutonium-Kreisläufe das Salz der Wahl. Sie stehen damit in unmittelbarer Konkurrenz zu „schnellen Brütern“ mit Natrium oder Blei als Kühlmittel. Natürliches Chlor besteht zu 75,76% aus Cl35 und 24,24% Cl37. Cl35 und Cl36 haben sehr viel größere Einfangquerschnitte als Cl37. Es empfiehlt sich daher, möglichst reine Chlorsalze aus nur dem Isotop Cl37 zu verwenden. Diese sind aber sehr teuer.

Die Entfernung der Spaltprodukte

Durch Kernspaltung und Neutroneneinfang bildet sich mehr oder weniger das gesamte Periodensystem. Man kann lediglich Wahrscheinlichkeiten für die Zusammensetzung angeben:

  • Die Spaltprodukte sind radioaktiv. Damit ergibt sich der simple aber durchschlagende Zusammenhang: Je mehr davon in einem Reaktor vorhanden sind, desto größer ist die (potentielle) Freisetzung bei einem Störfall.
  • Die Art und Anzahl der Spaltprodukte bestimmt die Nachzerfallswärme nach Abschaltung des Reaktors und damit die erforderliche Notkühlung.
  • Die Spaltprodukte gehen neue chemische Verbindungen ein. Dies macht den Korrosionsschutz so komplex. Die neu gebildeten Verbindungen haben aber auch andere physikalische Eigenschaften (Schmelztemperatur, Dampfdruck etc.). Dadurch kann es auch bei Zwangsumlauf zu Ablagerungen und Ausgasung kommen.
  • Durch z. B. Gasblasen ändert sich der neutronenphysikalische Zustand im Reaktor. Deshalb sieht man mindestens eine kontinuierliche Gasabscheidung vor. Was alles gasförmig ist, hängt stark von der Betriebstemperatur ab. Beileibe treibt man durch das sog. Strippen mit Edelgas nicht nur die gewünschten, sondern auch andere Verbindungen aus, die sich dann in kalten Bereichen niederschlagen. So hat man z. B. beim Abbruch amerikanischer Salzbadreaktoren unerwartete Konzentrationen von Uranfluoriden in Abgasfiltern gefunden.
  • Reaktoren werden über die verzögerten Neutronen geregelt. Das sind Neuronen, die erst beim Zerfall gewisser radioaktiver Elemente frei werden. Dies macht zumindest die Berechnung kompliziert, da sich nicht nur ein zeitliches, sondern auch ein örtliches Problem ergibt. Anders als bei Reaktoren mit Brennelementen, bewegen sich die Kerne mit der Strömung des Salzes weiter. Sie werden unter Umständen an Stellen frei, wo man sie nicht braucht oder gar nicht haben will.

Verringerung des Inventars zur Sicherheit

Salzbadreaktoren sind nahezu drucklos. Dies ist gegenüber Leichtwasserreaktoren ein Vorteil. Platzt z.B. eine Rohrleitung, führt das nur zu einem Auslaufen und nicht zu einer „Explosion“. Hochdruckdampf hat enorme zerstörerische Kräfte. Es wird auch immer damit argumentiert, daß der geringe Druck zu dünnen Wänden und damit einer billigeren Konstruktion führt. Dies gilt es gegen die aggressive Chemie des heißen Salzes abzuwägen. Es wird wohl kaum gelingen, jemals 60+ Jahre Betrieb – wie bei modernen Leichtwasserreaktoren – zu erreichen.

Das Risiko eines Unfalls hängt immer von der Wahrscheinlichkeit (überwiegend eine Folge von Konstruktion und Betriebsumständen) und dem Schaden (überwiegend das Inventar an radioaktiven Stoffen zum Zeitpunkt des Unfalls) ab. Bei allen Reaktoren ergibt sich maßgeblich das radioaktive Inventar aus der (bis zum Unfall) produzierten Energie. Pauschale Urteile sind sinnlos. Werden unterschiedliche Reaktoren diesbezüglich verglichen, sind z.B. sehr genau die Wechselintervalle des Brennstoffs zu berücksichtigen. Bei heutigen Leichtwasserreaktoren wird jeweils ein Drittel des Brennstoffs jährlich entnommen. Demgegenüber gibt es bei Salzbadreaktoren Konzepte, bei denen diese zig Jahre laufen sollen und dann am Stück ausgetauscht werden.

Bei Salzbadreaktoren ist zumindest theoretisch eine kontinuierliche Wiederaufbereitung während des laufenden Betriebs möglich. Dies kann durch Abzweigen eines kleinen Teilstroms und Wiederaufbereitung in einem angeschlossenen chemischen Prozess geschehen. Andere Konzepte sehen ein Abscheiden durch Verdampfung im Vakuum vor. Man geht dabei von der Annahme aus, daß die Gase nur Spaltprodukte und keinen Brennstoff enthalten. Verbindliche Aussagen wird man erst nach vielen Betriebsjahren in vielen Reaktoren machen können. Leichtwasserreaktoren haben bezüglich der Genehmigung in diesem Sinne einen unschlagbaren Vorteil. Entscheidend ist nicht zuletzt die Frage ob der Kunde (meist gestandene Kraftwerker) sich mit soviel Chemie anfreunden kann.

Sicherheit

Reaktoren mit Salzschmelze sind inhärent sicher: Meint, sie brauchen kein System zur Schnellabschaltung. Sie gehen von selbst aus, wenn die Temperatur ansteigt, weil dadurch die Kettenreaktion in sich zusammenbricht. Sie können darüberhinaus auch noch „walk away“ sicher gebaut werden. Durch die große Wärmespeicherkapazität und dem großen Abstand zum Siedepunkt (Druckanstieg) ist eine dauerhafte Kühlung für die Nachzerfallswärme ohne ein (aktives) Notkühlsystem möglich. Unfälle, wie z. B. in Fukushima, scheinen damit physikalisch ausgeschlossen.

Ob allerdings MSR vollkommen ohne Regelstäbe etc. auskommen können, wird der Genehmigungsprozess zeigen. In der Öffentlichkeit geistert immer ein Pfropfen umher, der eine Rohrleitung verschließt und bei zu hoher Temperatur aufschmilzt und den Weg in einen Sicherheitstank frei gibt. Diese Vorstellung ist sehr laienhaft. Um einen solchen gefrorenen Pfropfen zu erzeugen, muß dieser im Betrieb dauerhaft aktiv gekühlt werden. Das ist gar nicht so einfach und es ergibt sich ein recht komplexes Bauteil. Trotzdem sind bei den Versuchsständen immer Undichtigkeiten aufgetreten. Im Ernstfall muß diese Verstopfung – auch nach jahrelangem Betrieb – sicher und schnell aufschmelzen. Auch das keine einfache Aufgabe. Es handelt sich nach längerer Zeit nicht mehr um das ursprünglich eingefrorene Salz. Es ergeben sich Schichtungen, Kristallisation usw. Jedenfalls hat die Praxis gezeigt, daß solche Pfropfen 10 bis 15 Minuten brauchen, bis sie den Weg in den Tank freigeben. Etliche Entwürfe sehen deshalb zusätzlich aktive Ventile vor.

Wertung

Es gibt nicht den einzig selig machenden Reaktortyp. Jedes Prinzip hat ganz spezifische Vor- und Nachteile. Es hängt alles vom Anwendungsfall ab:

  • Will man nur elektrische Energie erzeugen, wird der MSR genauso wenig die Leichtwasserreaktoren verdrängen, wie die Wärmepumpe den Heizkessel.
  • Braucht man sehr hohe Temperaturen, sind die gasgekühlten Hochtemperaturreaktoren die Wahl.
  • Will man auch das U238 nutzen, sind mit Natrium oder Blei gekühlte schnelle Reaktoren zumindest bisher unübertroffen. Sie sind auch hervorragend geeignet um die Minoren Aktinoide zu beseitigen und die Entsorgungsfrage ganz neu zu stellen.
  • Will man auch Thorium als zusätzliche Energiequelle nutzen, sind die Schwerwasserreaktoren eine echte Alternative.
  • Braucht man einen nuklearen Schiffsantrieb, bleiben (wahrscheinlich) nur Druckwasserreaktoren und MSR. Sie sind die einzig kompakten Reaktoren ohne freie Oberflächen.
  • MSR sind von Natur aus für „nicht ganz so hohe Temperaturen“ (<600°C) hervorragend geeignet. Spätestens nach dem Krieg gegen die Ukraine ist klar geworden, wie wichtig Wärme für die Industrie ist.

Gleichwohl ist es dringend nötig, endlich mal einen SMR zu bauen. Es macht einfach keinen Sinn, ewig nur über Vor- und Nachteile zu philosophieren. Man muß in der Technik praktische Erfahrungen sammeln. Schließlich sehen die heutigen Leichtwasserreaktoren der Generation III+ auch anders aus, als deren erste Generation. Am Ende entscheidet immer der Markt. Wir haben doch bei unseren Autos auch eine ganze Palette unterschiedlicher Antriebssysteme zur Auswahl.

Der Beitrag erschien zuerst auf dem Blog des Autors hier

 

 




Der Weiterbetrieb der Kernkraftwerke ist unumgänglich

Von Manfred Haferburg

Achgut.com Autor Manfred Haferburg gab als Sachverständiger bei einer Anhörung im Sächsischen Landtag eine Stellungnahme zur Energiesituation ab, die wir im Folgenden dokumentieren.

Die Anhörung erfolgte auf Antrag der AFD-Fraktiondas Thema hieß „Versorgungssicherheit gewährleisten, Energiepreise stabilisieren – Laufzeitverlängerung für Kernkraftwerke und Überprüfung des Kohleausstiegs“

Meine sehr geehrten Damen und Herren, geschätzte Kollegen, sehr geehrte Frau Vorsitzende,

Ich werde in meiner Stellungnahme darauf eingehen, dass die Abhängigkeit vom Gas die Energiewirtschaft in ein Dilemma geführt hat. Ich zeige die Unmöglichkeit der Erreichung der regierungsamtlichen Erneuerbaren-Ausbauziele bis 2030 auf. Danach stelle ich die wesentlichsten Voraussetzungen für den Weiterbetrieb der verbliebenen Kernkraftwerke dar und komme zu dem Schluss, dass der Weiterbetrieb der verbliebenen deutschen KKW unumgänglich ist.

Das deutsche Energiewende-Dilemma:

Seit 2016 wurden in Deutschland 11.000 MW Kernkraftwerkskapazität stillgelegt. Dazu kommen 3.000 MW Braunkohle, 2.500 MW Steinkohle, 3.500 MW Erdgas und 1.000 MW Mineralöl. Jetzt drohen durch den Gasmangel 25.000 MW Gaskraftwerkskapazität wegzubrechen. Wir reden hier über 55.000 MW Erzeugungskapazität, die wegfällt. Das sind ungefähr 50 Großkraftwerke, die im Netz fehlen.

Ersetzt werden soll dies alles durch Erneuerbare Energien. Dabei wird oft installierte Leistung mit verfügbarer Leistung verwechselt. Wenn sie ein KKW oder Kohlekraftwerk mit 1.000 MW installierte Leistung haben, sind durchschnittlich 950 MW verfügbar, wenn die Leistung benötigt wird. Wenn sie einen Windpark mit 1.000 MW installierte Leistung haben, sind durchschnittlich 180 MW verfügbar. Es gibt Stunden, da decken die Umweltenergien den gesamten Strombedarf, aber es gibt Tage (ca. 50 im Jahr), da fallen sie ganz aus.

Die deutsche Energiepolitik ist ein weltweiter Alleingang, niemand folgt uns. Ja, es gibt ein paar Länder ohne KKW, aber die sind mit anderen eigenen Energiequellen wie Wasserkraft gesegnet. Doch Deutschlands Energiewende schüttet kurzsichtig die alten Brunnen zu, bevor neu gegrabene Brunnen genügend Wasser geben. Das russische Gas war die Brückentechnologie, die Reserve-Wasserleitung, um die Zeit zu überbrücken, bis genügend Wasser aus den neuen Brunnen fließt.

Erdgas trägt mit einem Viertel zur deutschen Primärenergieversorgung bei, durch den energiewendebedingten Kern- und Kohleausstieg, Tendenz steigend. Putin brauchte nur abzuwarten, bis Deutschland genug Kraftwerke verschrottet hat, um sein Machtspiel zu starten. Deutschland hat sich erpressbar gemacht und ist nun bei der Erdgasversorgung mit einer Importquote von 89 Prozent nahezu komplett abhängig von ausländischen Lieferungen. Fallen die russischen Lieferungen völlig weg, drohen laut Vereinigung der Bayrischen Wirtschaft VBW fünf Millionen neue Arbeitslose, ein 12-prozentiger Wirtschaftseinbruch mit 50-prozentigen Verlusten bei der Glas-, Roheisen,- und Stahlindustrie.

Jede weitere Kernkraftwerksabschaltung verschlimmert diese prekäre Situation, da im Bedarfsfall, z.B. bei Flaute oder Dunkelheit Gas zur Stromerzeugung benötigt wird. Stromerzeugung und Gasverbrauch hängen somit unmittelbar zusammen.

Ein bisschen Grundsätzliches, um etwas mehr Klarheit in der Kommunikation zu schaffen: 

Es gibt nur drei Energiequellen für die Versorgung eines Landes mit Energie. Andere Nennenswerte haben wir nicht. Diese drei Energiequellen haben zumal sehr unterschiedliche Verfügbarkeiten und Energiedichten, d.h. ihr Flächen- und Ressourcenverbrauch und ihr Return Of Investment sind sehr unterschiedlich.

  1. Umweltenergie: Solar, Wind, Wasser, Biomasse (wetterabhängige Verfügbarkeit, niedrige Energiedichte)
  2. Fossile Energie: Öl, Gas, Kohle (hohe Verfügbarkeit und Energiedichte)
  3. Kernenergie: thermische Kernspaltung, schnelle Kernspaltung, (höchste Verfügbarkeit und Energiedichte)

Aus zwei dieser drei Quellen will Deutschland aussteigen und zwar aus denen mit der höchsten Verfügbarkeit und Energiedichte.

Es wird oft Primärenergieverbrauch und Stromverbrauch verwechselt. Strom macht nur 25 Prozent des Primärenergieverbrauchs aus. Die Umweltenergien Wind und Sonne tragen in Deutschland zwar mit 46 Prozent zur Stromerzeugung – wenn auch oft zur Unzeit –, aber mit weniger als 6 Prozent zur Primärenergieversorgung bei.

Strom ist aber das Produkt mit der weltweit niedrigsten Haltbarkeit. Ohne industriefähige Speichertechnologie muss Strom genau in dem Moment und in der Menge erzeugt werden, in dem er verbraucht wird. Sonst bricht das Netz zusammen.

Speicherkapazität gibt es in Deutschland nur für wenige Stunden. Und das wird auch noch viele Jahre so bleiben. Die oft als Lösung kolportierte Wasserstoffwirtschaft hat einen viel zu schlechten Wirkungsgrad, um das Problem lösen zu können. Um 1 Kilowattstunde Wasserstoff zu erzeugen, benötigt man 4 Kilowattstunden Strom.

Mitten in einer Energiekrise – vom Klimaminister Habeck mittels des Notfallplans Gas ausgerufen – sollen wertvolle, gut funktionierende Kraftwerke verschrottet werden, ohne dass der Ersatz in Sicht ist. Das ist politisch und sozial nicht zu verantworten. Der Wirtschaftsminister deutete bereits Energierationierungen an und verweist in seiner Not aufs Ausland: „Wir würden überhaupt nicht vorankommen, wenn wir in dieser Situation nicht auf Frankreich, auf Belgien, auf die Niederlande, zurückgreifen könnten, die uns ja unterstützen“. Fällt niemandem auf, dass diese Länder alle Kernkraftwerke betreiben?

Kann der beschleunigte Ausbau der Erneuerbaren es richten, so, wie es die Politik propagiert?

Schon vor dem Ukrainekrieg waren die Erneuerbaren-Ausbauziele der Regierung schlicht illusorisch. Die der heutigen Regierung sind noch unrealistischer, da sie noch weit darüber liegen.

Es gibt einen bekannten Strom-Bedarf, der 2030 gedeckt werden muss. Es gibt einen gesetzlichen Plan, was im Rahmen der Energiewende an Kernkraft und Kohle stillgelegt werden soll. Daraus ergibt sich eine Strom-Erzeugungslücke, die durch den Zubau von Erneuerbaren gedeckt werden müsste. Jeder, der die vier Grundrechenarten beherrscht, kann daraus den notwendigen Zubau an Wind- und Solaranlagen über die Zeit errechnen. Wasserkraft und Bioenergie sind auf Grund mangelnder geologischer Voraussetzungen nicht nennenswert ausbaubar.

Was müsste also ab sofort arbeitstäglich für die nächsten acht Jahre gebaut werden, um die regierungsamtlich verkündeten Ziele zu erreichen?

Wind Onshore: 294 Windenergie-Anlagen pro Monat = 10 neue Onshore-Windenergie-Anlagen pro Tag (zum Vergleich: In 2020 wurden pro Monat 35 Onshore-Anlagen zugebaut).

Wind Offshore: 15 Anlagen pro Monat = alle 2 Tage eine neue Windenergie-Offshore-Anlage (Zum Vergleich: Im ersten Halbjahr 2021 erfolgte kein Zubau von Offshore-Anlagen)

PV: 16.670 Anlagen pro Monat = 556 neue PV Anlagen pro Tag

Und selbst wenn die Rohstoffe Kupfer, Nickel und Molybdän für diese Ausbauziele von einem anderen Planeten importiert würden und die nötigen Fachkräfte in Scharen nach Deutschland strömten, es hülfe oft nichts: Derzeit gibt es 36.000 Windkraftanlagen, die bei Flaute null MW produzieren. Selbst wenn es 360.000 gäbe, würden sie bei Flaute auch nur null MW produzieren.

Durch dieses Dilemma ergibt sich die dringende Frage: Können wenigstens die letzten drei Kernkraftwerke gerettet werden?

Ich sage ja – es ist nicht unmöglich. Aber es hat seinen Preis. Und der ist eher politisch als monetär. Deutschland müsste der EU-Taxonomie folgend die Kernenergie als „grün“ anerkennen.

Als erstes müsste das deutsche Atomgesetz umgehend novelliert werden. Ab 1. Januar 2023 ist die gewerbliche Stromerzeugung aus Kernenergie in Deutschland nämlich verboten.

Als zweites müsste für die Eigentümer der Kraftwerke, die Energieversorger, Investitionssicherheit geschaffen werden. Die Politik müsste eine terminierte Laufzeitverlängerung beschließen (drei Jahre, fünf Jahre etc.) und vertraglich zusichern. Das Vertrauen in die Investitionssicherheit ist dahin.

Als drittes müssen Betriebsgenehmigungen für den Weiterbetrieb erteilt bzw. die bestehenden verlängert werden. Seit mehreren Jahren arbeiten die Führungen der Unternehmen gemeinsam mit den Behörden daran, die entsprechenden Genehmigungen für die Stilllegung und den darauf anschließenden Rückbau zu erteilen. Hunderte Aktenordner sind mit Anträgen und Erteilungen mit vielen Unterschriften und Stempeln gefüllt. Diese Dokumente sind derzeit alle rechtlich verbindlich und müssen rückabgewickelt werden.

Als viertes müsste dafür gesorgt werden, dass genügend qualifiziertes und lizensiertes Personal für den Weiterbetrieb zur Verfügung steht. Ein deutsches KKW wird von etwa 350 höchstqualifizierten Spezialisten betrieben. Die Kernkraftwerke bereiten sich seit Jahren mit detaillierten Personalplanungen auf die Stilllegung vor. Die Personalabwicklungspläne und Verträge sind in einem langen schmerzhaften Prozess unterschrieben und rechtsgültig.

Die verbliebenen Spezialisten müssten bei einem Weiterbetrieb natürlich auch weiter arbeiten, bis neues Personal zur Verfügung steht. Und die abgewanderten Lizenzträger müssten wieder angelockt werden. Um sie zu motivieren, müsste man sie allerdings sehr gut bezahlen, sozial absichern und eine Zukunftsperspektive bieten.

Als fünftes müssen umgehend neue Brennstoffladungen bestellt, genehmigt und bezahlt werden – besser gestern als heute. Um jetzt – im Sommer – Brennstoff für den Winter zu sparen, müssten die Kraftwerke umgehend so oft als möglich abgeregelt werden. Sonst haben sie am 31.12.2022 nur noch geringe Reaktivitätsreserven in ihren Reaktorkernen. Sie können ab Januar über die Einsparungen hinaus noch drei Monate Stretch-Out mit langsam sinkender Leistung fahren und so über den Winter kommen.
Umgehend müssen Neubeladungen für jedes Kraftwerk von den Kernbrennstoffherstellern maßgeschneidert gefertigt werden. Dieser Prozess braucht Zeit und Geld – kann aber erst gestartet werden, wenn die anderen Voraussetzungen erfüllt sind.

Fazit für die verbleibenden Kernkraftwerke:

Zusammenfassend möchte ich feststellen, dass ein Weiterbetrieb der letzten drei Kernkraftwerke technisch und organisatorisch unter Voraussetzungen machbar wäre. 

Für den sicheren und ökonomischen Betrieb von Kernkraftwerken benötigt ein Land vor allem eines – Stabilität. Und wenn hier von Stabilität die Rede ist, meine ich politische, ökonomische und soziale Stabilität.

Anhand meiner fünf Voraussetzungen für den Weiterbetrieb habe ich versucht herzuleiten, dass es für die Kernenergie in Deutschland derzeit an Stabilität mangelt.

Durch politische Garantien muss das Vertrauen wieder aufgebaut werden. Die Kernkraftwerke können das entstandene Problem nicht allein lösen – das wäre vor 11 Jahren noch möglich gewesen – aber sie könnten einen wesentlichen Beitrag für die Aufrechterhaltung der Versorgungssicherheit leisten. Und ja, mit Strom kann man heizen – halb Frankreich macht das.

Thema Sicherheitsüberprüfung:

Der TÜV Süd kommt in einem Gutachten zu dem Ergebnis, dass ein Weiterbetrieb des KKW Isar II ohne eine Sicherheitsüberprüfung über den 31.12.2022 hinaus möglich sei. Es gibt keine Hinweise, dass die erforderliche Schadensvorsorge infrage gestellt sein könnte, so der TÜV. Das Gutachten wurde im Auftrage des bayerischen Umweltministeriums erstellt.

Ohne neue Brennelemente wäre nach Einschätzung des TÜV Süd ein Weiterbetrieb der Anlage bis August 2023 möglich – zunächst in einem normalen Weiterbetrieb von 80 Tagen, dann weitere drei Monate durch „Umsetzen“ der vorhandenen Brennelemente im Reaktorkern. Insgesamt könne so eine zusätzliche Energie von etwa 5,16 TWh Strom erzeugt werden.

Der TÜV Süd schlussfolgert, dass bei umgehender Bestellung eine Weiterführung des Betriebes auch über den Herbst 2023 möglich wäre. Eine Anlieferung frischer Brennelemente innerhalb von 12 Monaten hält auch der TÜV Süd für möglich.

 

Der Beitrag erschien zuerst bei ACHGUT hier