Der russische BREST – OD-300 Reaktor – Beginn einer neuen Ära?

von Dr. Klaus Dieter Humpich

Im Juni 2021 begann der Bau eines neuen Reaktors im sibirischen chemischen Kombinat Seversk. Der Ort ist nicht zufällig gewählt, sondern es handelt sich um ein grundsätzlich neues System: Ein spezieller Reaktor mit angeschlossener Wiederaufbereitung. Ziel ist ein Kernkraftwerk, dem lediglich Uran (aus abgebrannten Brennelementen) zugeführt wird und nur (endlagerfähige) Spaltprodukte abgeführt werden. Der entscheidende Punkt gegenüber herkömmlichen Reaktoren ist der Abfall Spaltprodukte. Die Problematik der Endlagerung über sehr lange Zeiträume wäre damit vom Tisch, da Spaltprodukte in weniger als 300 Jahren zerfallen sind. Die sehr langlebigen Transurane werden bei diesem Reaktor kontinuierlich „mit verbrannt“. Diese „Stromfabrik“ besteht also aus drei Einheiten: Der (neuartigen) Brennelemente-Fabrik, dem Kernreaktor und der Wiederaufbereitungsanlage. Die Brennelemente-Fabrik soll 2023 und die Wiederaufbereitung 2024 gebaut werden. Der Reaktor soll 2026 in Betrieb gehen.

Der BREST-OD-300

Das Entwicklungsziel dieses Reaktors der vierten Generation war „natürliche Sicherheit“. Das Kühlmittel ist nicht Wasser unter hohem Druck, sondern nahezu druckloses Blei. Der Reaktorkern befindet sich deshalb nicht in einem dickwandigen Druckbehälter, sondern in einem (nahezu drucklosen) Tank für flüssiges Blei. Der Schmelzpunkt von Blei liegt bei rund 330°C. Dies ergibt ein neuartiges Sicherheitsproblem, denn es muß gewährleistet sein, daß das Blei an keiner Stelle einfriert und irgendwelche Kanäle verstopft. Andererseits ist der Siedepunkt mit über 1700°C so hoch, daß sich kein Druck im Reaktorkreislauf aufbauen kann. Leckagen sind unproblematisch, da Blei weder mit Luft noch mit Wasser heftig reagiert. Blei wird praktisch auch nicht aktiviert, sodaß nur ein einfacher Kreislauf nötig ist, was Kosten spart und das System vereinfacht. Die Austrittstemperatur des Blei beträgt rund 540°C. Ist also weit von der Siedetemperatur entfernt. Hinzu kommt die große Wärmespeicherfähigkeit des Blei (spezifisch und über das Tankvolumen), die alle Lastsprünge abfedert. Ein solcher Reaktor ist in seinem (sicherheitstechnischen) Verhalten sehr gutmütig.

Blei ist ein sehr schlechter Moderator, der die Neutronen kaum abbremst. Schnelle Neutronen können zwar alles Uran, Plutonium und sogar die minoren Aktinoide spalten – das allerdings mit einer weit geringen Wahrscheinlichkeit. Als Konsequenz muß man entweder eine hohe Anreicherung oder einen höheren Gehalt an Plutonium verwenden. In diesem Sinne sind solche Reaktoren sinnvollerweise als Nachfolger der Leichtwasserreaktoren anzusehen. Erst wenn man entsprechend viele abgebrannte Brennelemente besitzt – von „Atomkraftgegnern“ fälschlicherweise als „Atommüll“ bezeichnet – aus denen man das Plutonium extrahieren kann, kann man sinnvollerweise mit dem Aufbau einer Flotte schneller Reaktoren beginnen. Für jede Erstbeladung muß das Plutonium von außen kommen. Läuft ein solcher Reaktor, kann er genug neues Plutonium bilden um für seinen Weiterbetrieb selbst zu sorgen. Man muß dann nur die Spaltprodukte entfernen (die nukleare Asche) und die gespaltenen Kerne durch U238 – ebenfalls von „Atomkraftgegnern“ als „Atommüll“ bezeichnet – ersetzen. In diesem Sinne verfügen wir bereits heute über gigantische Energievorkommen in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Bisher war die Nutzung wegen der geringen Natururan-Preise noch unwirtschaftlich. Allerdings kommen die stets steigenden Lagerkosten für abgebrannte Brennelemente einer schnelleren Nutzung entgegen.

Da Blei ein schlechter Moderator ist, kann man die Gitterabstände im Kern vergrößern. Durch den verringerten Strömungswiderstand kann man mehr Wärme über Naturkonvektion abführen, was die Notkühlung auch nach einem Blackout (Fukushima) ermöglicht. Zu diesem Zweck sind Kamine (2 von 4 genügen) vorhanden, die die Restwärme passiv an die Umgebungsluft abführen. Selbst unter vollständigem Verlust der Wärmesenke bei voller Leistung von 700 MWth erreicht die Hüllrohr-Temperatur am ungünstigsten Brennstab keine 900°C. Für die Hüllen aus Stahl kein großes Problem: Ein Unglück wie in Fukushima wäre gar nicht möglich. Es könnte kein Knallgas entstehen (Reaktion der Zirconium-Hüllen mit Wasserdampf) und es wäre keine aktive Not-Kühlung nötig. Treffender kann man nicht verdeutlichen, was mit „natürliche Sicherheit“ gemeint ist.

Die Brennstäbe

Auch hier geht man neue Wege. Bei herkömmlichen Reaktoren verwendet man Urandioxid als Brennstoff in Hüllrohren aus Zirkalloy. Uranoxid ist eine (spröde) Keramik mit schlechter Wärmeleitung. Es kann bei einem Störfall passieren, daß die Brennstäbe in ihrem Zentrum bereits aufschmelzen und Spaltprodukte frei setzen, während sie ansonsten noch intakt sind. Fallen sie kurzzeitig und lokal trocken (Kühlmittelverlust-Störfall), kann die Abschreckung durch die Notkühlung fatale Konsequenzen haben (Harrisburg, Fukushima).

Bei diesem Typ verwendet man Uran-Plutonium-Nitrid als Brennstoff. Es besitzt eine um 30% größere Dichte, eine 4 bis 8 fache Wärmeleitung, gute Rückhaltung für Spaltprodukte, gute Formstabilität und geringe Reaktionen mit der Edelstahl-Hülle. Die hohe Dichte und gute Wärmeleitung führen zu geringeren Temperaturgradienten zwischen Zentrum und Umfang. Dies führt zu einer hohen Lebensdauer der Brennelemente (Brennstoffwechsel nur alle fünf Jahre) und großen Sicherheitsreserven für Störfälle.

Der Kern besteht aus 169 Brennelementen, hat eine Höhe von lediglich 1,1m und beinhaltet rund 20 to Brennstoff. Die Brennelemente sind sechseckig, wodurch sich eine sehr dichte Packung ergibt. Sie sind rundum offen, um bei einer etwaigen Verstopfung auch Querströmung zu ermöglichen. Auf Grund der Brennstoffeigenschaften und der Konstruktion ist die Neutronenökonomie so gut, daß keine separate Brutzone erforderlich ist und trotzdem eine Konversionsrate von Eins („Selbstversorgung“) erzielt wird.

Wiederaufbereitung

Bisher wurde großtechnisch nur das PUREX-Verfahren angewendet. Dieses nass-chemische Verfahren zielt – ursprünglich aus der Rüstung kommend – auf die Rückgewinnung von möglichst reinem Uran und (insbesondere ) Plutonium ab. Alles andere ist Abfall. Dieser ist wegen der minoren Aktinoide besonders langlebig und erfordert ein geologisches Tiefenlager zur Endlagerung. Bei diesem Reaktorkonzept sieht die Fragestellung gänzlich anders aus. Hier gilt es nur die Spaltprodukte – die nukleare Asche – zu entfernen. Alles andere soll und kann als Energieträger verbleiben. Die Spaltprodukte können anschließend weiterverarbeitet oder verglast werden und in Edelstahlbehälter abgefüllt werden. Wegen der relativ geringen Halbwertszeiten kann dieser Abfall je nach Gusto „tiefengelagert“ oder „ingenieurgelagert“ werden. Auf jeden Fall, zu verschwindend geringen Kosten gegenüber der Endlagerung von kompletten Brennelementen.

Der BREST-OD-300 im Allgemeinen

Der Reaktor verfügt über eine elektrische Leistung von 300 MWel bei einer thermische Leistung von 700 MWth. Er wäre per Definition damit noch ein SMR. Der Hersteller selbst betrachtet ihn eher als Vorläufer für einen Reaktor mit 1200 MWel, der etwa Anfang der 2030er Jahre gebaut werden soll. Es ist der russische Weg der kleinen, aufeinander aufbauenden Schritte mit immer mehr gesammelten Erfahrungen, die in das jeweilige Nachfolgemodell einfließen können. In diesem Zusammenhang muß man feststellen, daß die Entwicklung bleigekühlter Reaktoren in Russland eine Jahrzehnte lange Tradition hat. Sie reicht bis auf die U-Boote der Alfa-Klasse (Bauzeitraum 1968–1975, Außerdienststellung 1983 bis 1997) zurück. Zahlreiche Probleme bezüglich Korrosion und Verschleiß konnten inzwischen gelöst werden.

Der Aufbau ähnelt klassischen Druckwasserreaktoren: In der Mitte befindet sich der Reaktor. Von ihm gehen vier Kühlkreisläufe (flüssiges Blei) ab. Jeder Kühlkreislauf versorgt zwei Dampferzeuger. Das in den beiden Dampferzeugern abgekühlte Blei wird von einer Umwälzpumpe angesaugt und dem Reaktor wieder zugeführt. Die acht Dampferzeuger produzieren etwa 1500 to/h Dampf mit einer Temperatur von über 500°C. Auf Grund der höheren Dampftemperaturen ergeben sich bessere Wirkungsgrade und andere Anwendungsgebiete (z. B. Wasserstoffherstellung durch Hochtemperatur-Elektrolyse, Raffinerien, chemische Industrie etc.). Jeder Kühlkreislauf bildet eine separate Baugruppe mit kompletter Notkühlung, Umwälzpumpe etc. in einer eigenen „Betonkammer“. Das Ganze ist von einem Betonzylinder als Schutz gegen Einwirkungen von außen umgeben.

Anders als bei Leichtwasserreaktoren wird der Kern durch eine Lademaschine versorgt. Sie kann Brennelemente entnehmen, umsetzen und durch frische ersetzen. Verbrauchte Elemente werden im Bleitank bis zum erforderlichen Abklingen zwischen gelagert. Sie stehen also stets unter dem gleichen Schutz (Fukushima) wie der Reaktorkern. Ein Brennstoffzyklus dauert fünf Jahre (Leichtwasserreaktor 9 bis 16 Monate üblich). Sind erst einmal die üblichen Kinderkrankheiten beseitigt, kann man von einer noch besseren Verfügbarkeit als heute (etwa 90%) ausgehen. Geplant ist ein Abbrand zwischen 5,5% und 9% Schwermetall. An dieser Stelle erscheint es sinnvoll, sich die Materialströme und Abfallmengen zu verdeutlichen. Wenn dieser Reaktor das ganze Jahr voll durchläuft (Grundlast) verbraucht er etwa 270 kg Uran. Das ist gleichzeitig die Menge hochaktiver Spaltprodukte die jährlich anfällt. Geht man von einem mittleren Abbrand von 8% Schwermetall aus, sind etwa 3,5 to frische Brennelemente jährlich nötig. Das alles erinnert mehr an eine Anlage im Labormaßstab. Wollte man diese Strommenge von 2,6 TWh mit einem Offshore-Windpark erzeugen, müßte dieser mindestens 1000 MW umfassen oder bei einem Photovoltaik-Park mindestens 2000 MW. Wobei dies lediglich die gleiche Energieproduktion wäre. Da aber Wind und Sonne nur zufällig und unvorhersehbar sind (Wettervorhersage), müßten noch die zwingend erforderlichen Stromspeicher (zusätzliche Investitionen) und deren Verluste (ca. 50% für längere Ausfallzeiten) hinzugerechnet werden. Diese wenigen Zahlen machen deutlich, daß zumindest Russland nicht zurück ins Mittelalter will, ob nun „Klimakatastrophe“ oder nicht.

Sicherheit

Die vierte Generation soll noch einmal um Größenordnungen „sicherer“ sein als die derzeitige dritte Generation. Gemeint ist damit die Wahrscheinlichkeit für Unglücke, bei denen Radioaktivität das Betriebsgelände überschreitet und damit Anlieger gefährdet. Diese Reaktoren sollen so sicher sein, daß sie unmittelbar in einer Chemieanlage betrieben werden können, denn sie sind nicht gefährlicher als diese Anlagen selbst, wodurch völlig neue Anwendungen für Kernenergie möglich sind.

Da diese Kernkraftwerke mit dem „Abfall“ der bisherigen Kernkraftwerke betrieben werden können, sind sie extrem „nachhaltig“. Damit sind nicht nur die abgebrannten Brennelemente gemeint, sondern auch das „Abfall-Uran-238“ aus den Anreicherungsanlagen. Ganz neben bei, löst sich auch die „Endlagerfrage“. Spaltprodukte sind im Vergleich zu den Aktinoiden kurzlebig. Diese Form von „Atommüll“ ist nach wenigen Jahrzehnten weiterverarbeitbar. In ihnen sind jede Menge wertvoller Stoffe enthalten. Schon heute werden seltene Isotope aus dem Abfall der militärischen Wiederaufbereitung für z.B. medizinische Anwendungen gewonnen. Wer aber unbedingt möchte, kann sie auch weiterhin in geologischen Tiefenlagern verschwinden lassen. Nur eben zu viel geringeren Kosten.

Der Beitrag erschien zuerst auf dem Blog des Autors, hier 



Lange Leitungen gefährden die Stromversorgung

von Hans-Günter Appel

Wenn jemand eine lange Leitung hat, braucht er lange bis zur richtigen Erkenntnis. Das gilt wohl auch für die vielen Politiker, die lange Stromleitungen von Nord nach Süd fordern, um den Windstrom von der Küste zu den Verbrauchern in Hessen, Bayern und Baden-Württemberg zu leiten. Denn dort sollen bald alle Kern- und Kohlekraftwerke abgeschaltet und durch Wind- und Solarstrom ersetzt werden. Die Schwächen und die Gefahr eines Blackouts durch lange Stromleitungen haben sie wohl nicht begriffen.

Teure Leitungen

Neue Übertragungsleitungen mit einer Spannung von 380 Kilovolt (kV) kosten als Drehstrom-Freileitungen etwa eine Million Euro / Kilometer. Als Gleichstromleitungen in die Erde verlegt steigen die Kosten um das 6 bis 8-fache. Dazu kommen die Kosten für die Umspannwerke mit Konvertern zum Wechsel von Drehstrom auf Gleichstrom und umgekehrt an beiden Leitungsenden. Die Übertragungsnetzbetreiber haben für die geplanten Leitungen bereits viele Milliarden Euro eingeplant.

Reparaturen an den Leitungen sind aufwendig. Bei den Überlandleitungen dauern sie nach Angaben der Netzbetreiber Stunden bis Tage. Die erdverlegten Leitungen sind erst nach Tagen bis Wochen wieder betriebsklar. 

Teurer Transport

Doch auch der Stromtransport selbst ist nicht zum Nulltarif zu haben. Die Verluste in den Umspannwerken werden mit etwa 2 Prozent angegeben. Die Leitungsverluste für 100 Kilometer liegen bei 1 – 2 Prozent. Die Leitungen erwärmen sich bei maximaler Leistung bis auf 60 Grad Celsius. Als Faustregel kann man mit Stromverlusten von 10 Prozent rechnen, wenn Strom von der Küste in den Süden geleitet wird.

Darin sind die Aufwendungen für die Kompensation des Blindstroms nicht enthalten. Blindstrom entsteht auf dem Leitungsweg durch Induktionsvorgänge des Wechselstroms, die zum Verschieben der Spannung gegen die Stromstärke führen. Im Idealfall sollten die beiden Phasen  synchron mit der gleichen Sinusfrequenz schwingen. Dann ist die Leistung, das Produkt aus Spannung mal Stromstärke, am höchsten. Durch eine Verschiebung nimmt die Wirkleistung ab, weil dann zeitweise eine positive Stromstärke mit einer negative Spannung im Netz ist. Durch sogenannte Phasenschieber (Kondensatoren, Generatoren) können die Phasen wieder in Einklang gebracht werden.

Die Phasenschieber führen zu weiteren Leitungsverlusten und Kosten. Für die Stromwirtschaft gilt seit vielen Jahrzehnten die Faustregel: Es ist wirtschaftlicher, die Brennstoffe zum Verbraucher zu bringen und dort zu verstromen, wenn die Entfernung mehr als 200 Kilometer beträgt. Diese Erkenntnis ist der Energiewende zum Opfer gefallen. Für die Wendeideologen und die Profiteure ist der Stromtransport offensichtlich kostenlos und ohne Verluste.

Stromqualität nimmt ab

Für die Wechselstromleitungen ist nicht nur die Phasenverschiebung zwischen Spannung und Stromstärke ein Problem. Die Korrektur des Blindstroms wie auch Einspeisungen und Ausspeisungen an Knotenpunkten führen zur Deformation der Sinusschwingungen und zu hochfrequenten Oberschwingungen. Letztere erschweren oder verfälschen Signale, die über die Leitungen zum Steuern des Netzes geschickt werden. Die Fachleute sprechen von einem Verschmutzen des Netzstromes.

Netzkosten für Großabnehmer

Die Netzkosten für Großabnehmer richten sich nach der Entfernung zum nächsten Kraftwerk, das die benötigte Leistung bereitstellen kann. Die Wendepolitik zeigt, dass durch das Abschalten von Kohle- und Kernkraftwerken Betriebe plötzlich deutlich höhere Netzgebühren zahlen müssen, weil das nächstgelegene Kraftwerk abgeschaltet wurde. Ein Beispiel ist nach einem Bericht in Die Welt das Trimet-Aluminiumwerk in Hamburg  mit einer Anschlussleistung von rund 300 Megawatt (MW). Das ist fast die halbe Leistung eines Blockes des Kohlekraftwerks Moorburg. Das Werk hat zwei Blöcke mit je 800 MW Leistung. Bis zum Kraftwerk Moorburg sind es nur wenige Kilometer. Die Netzgebühren waren moderat. Zum 1. Januar 2021 wurde das Kraftwerk nach dem Kohleausstiegsgesetz abgeschaltet. Damit steigen die Netzgebühren, denn das nächste leistungsfähige Kraftwerk ist das etwa 60 Kilometer entfernte Kernkraftwerk Brokdorf. Für Trimat steigen dadurch die Netzgebühren um einen zweistelligen Millionenbetrag. Mit der geplanten Abschaltung von Brokdorf noch in diesem Jahr nimmt die Entfernung zum nächsten Kraftwerk nochmals kräftig zu. Trimet wird dann nicht mehr wirtschaftlich produzieren!

Stromnetz wird geschwächt

Der Transport von Strom über lange Strecken ist nicht nur teuer und technisch aufwendig. Er bedroht auch eine sichere Stromversorgung und kann zum Zusammenbruch des Netzes führen. Dies zeigen die Ereignisse am 8. Januar 2021. Es wurde Strom vom Balkan nach Frankreich geschickt, um dort Elektroheizungen zu versorgen. Die Hauptleitung wurde defekt. Darauf wurden auch die Umleitungen im Verbundnetz überlastet und schalteten sich automatisch ab. Es kam zu einem dramatischen Frequenzanstieg zunächst auf dem Balkan, der zum Trennen der osteuropäischen Regelzone vom übrigen Europa führte. Darauf fiel die Frequenz in den westlichen Regelzonen ab, weil dort Leistung fehlte. Zum Glück waren vor allem in Deutschland viele Dampfkraftwerke am Netz, da der Wind schwach war. Sie verhinderten mit ihrer Momentan-Reserve eine kritische Frequenzminderung und konnten durch Erhöhen ihrer Leistung die Sollfrequenz in kurzer Zeit wieder sichern.

Die Schilderung zeigt, es wird sehr kritisch, wenn Wind- und Solarstrom über große Strecken geleitet werden. Kommt es hier zu einem Leitungsausfall, gibt es im Zielgebiet zu wenig Strom. Die Frequenz fällt. Im Zielgebiet Süddeutschland gibt es aber mit der fortschreitenden Abschaltung der Kern- und Kohlekraftwerke immer weniger Momentan-Reserve und Regelenergie. Die Momentan-Reserve ist die Rotationsenergie der schweren Generatoren, die kurzfristig in Strom umgewandelt wird und so Spannungsschwankungen mildert. Um die Momentan-Reserve zu sichern, sollen daher die Generatoren der abgeschalteten Kraftwerke weiter laufen, angetrieben mit Netzstrom. Das ist ein weiterer Kostenfaktor. Es fehlt aber weiterhin die Regelenergie, die nur durch Dampfkraftwerke verlässlich erzeugt werden kann. Wind- und Solarstromanlagen  kann man zwar herunterfahren, aber nicht auf höhere Leistungen bringen. Ohne Dampfkraftwerke ist eine kritische Unterversorgung in Süddeutschland programmiert, die zum Blackout führt, wenn das dortige Übertragungsnetz abgeschottet wird. Die angrenzenden Netze werden durch Strommangel oder Überfluss instabil und können gleichfalls kollabieren. Ein europaweiter Blackout wäre die Folge.

Es zeigt sich immer mehr, wir können auf die Dampfkraftwerke quer durch Deutschland nicht verzichten. Eindrucksvoll wurde das demonstriert während der Krise am 8 Januar. Das Kohlekraftwerk Heyden in Ostwestfalen wurde zum Jahresanfang abgeschaltet und bereits eine Woche später wieder reaktiviert, um einen Netzzusammenbruch an den Folgetagen zu vermeiden. Inzwischen war es weitere fünfmal am Netz. Es wird spannend. Wenn weitere Kraftwerke abgeschaltet werden, wird ein Blackout unvermeidlich. „Experten“ der Regierung überlegen zurzeit, wie man durch gezielte Abschaltungen von Industriebetrieben und Versorgungsbereichen bei Dunkelflauten den Zusammenbruch des Netzes verhindern kann, wenn die Regelenergie aus Dampfkraftwerken nicht mehr ausreicht. Wir müssen uns wohl auf Strommangel wie in der früheren DDR einstellen.

Prof. Dr.-Ing. Hans-Günter Appel

Pressesprecher

Stromverbraucherschutz NAEB e.V.




Ozonloch: Jetzt soll der Klimawandel schuld sein

von Alex Reichmuth, Nebelspalter

Trotz des Verbots schädlicher Fluorchlorkohlenwasserstoffe geht die Ausdünnung der Ozonschicht über den Polgebieten kaum zurück. Immer wieder zeigen sich Forscher überrascht darüber. Doch nun hat die Wissenschaft scheinbar eine Erklärung gefunden: Es liegt an der Erderwärmung.

Das Ozonloch war in den 1980er- und 1990er-Jahren, was der Klimawandel heute ist: Anlass für Weltuntergangsstimmung. 1985 entdeckten Forscher erstmals, dass die Ozonschicht über der Antarktis deutlich ausgedünnt ist. Die Ozonschicht liegt in der Stratosphäre in einer Höhe zwischen 15 und 25 Kilometern und schirmt die Erde massgeblich vor ultravioletter Strahlung ab. Nun beobachteten Wissenschaftler, dass die Ozonkonzentration im antarktischen Frühling regelmässig massiv abnimmt.

Angst vor Hautkrebs und anderen gesundheitlichen Folgen der Strahlung machte die Runde und sorgte für Panikschübe auf der ganzen Welt. Das amerikanische Worldwatch Institute sagte «Millionen von zusätzlichen Toten» wegen Krebs voraus. Die Umweltorganisation Greenpeace sprach vom «letzten Akt für das Leben auf dem Planeten».

Verbot von FCKW rasch durchgesetzt

Der Schuldige am Ozonloch war scheinbar schnell gefunden: der Mensch. Der Ausstoss an Fluorchlorkohlenwasserstoffen (FCKW) galt als Ursache des Ozonabbaus. FCKW wurden etwa in Sprühdosen, Kühlschränken und Feuerlöschern verwendet. Ihre Anreicherung in der Stratosphäre baut die Ozonmoleküle in der Stratosphäre ab, lautete die Erklärung.
Die Welt reagierte rasch und beschloss 1987 im Abkommen von Montreal, die Verwendung von FCKW schrittweise zu verbieten. Das Verbot konnte in relativ kurzer Zeit durchgesetzt werden. Heute gilt das koordinierte Vorgehen zum Schutz der Ozonschicht als Präzedenzfall, wie die Staaten ein Umweltproblem angehen und gemeinsam lösen können.

Der Berner Klimaforscher Thomas Stocker sprach von einer «Erfolgsstory». Man erkenne, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf reagieren, indem sie gewisse Produkte verbieten».

Der frühere Uno-Chef Kofi Annan bezeichnete das Montreal-Abkommen als «vielleicht erfolgreichsten internationalen Vertrag überhaupt». Auch der renommierte Berner Klimaforscher Thomas Stocker sprach von einer «Erfolgsstory». Man erkenne, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf reagieren, indem sie gewisse Produkte verbieten». Stocker wollte damit sagen, dass auch beim Problem Klimawandel internationales Handeln gegen den Ausstoss von Treibhausgasen nötig sei.

Rekord-Ozonloch 2006 über der Antarktis

Doch es gibt ein Problem bei der scheinbaren Erfolgsstory: Das Ozonloch über der Antarktis existiert noch immer, und über der Arktis ist sogar noch ein zweites dazugekommen – trotz des Abkommens von Montreal. So stieg die saisonale Ozonausdünnung über der Antarktis 2006 auf ein bis dahin noch nie gesehenes Mass. 2015 erreichte das Ozonloch über der Südhalbkugel die zweitgrösste je gemessene Grösse. 2011 wurde auch über der Arktis eine Ozonausdünnung mit Rekordwerten registriert.
2015 musste die Uno-Weltorganisation für Meteorologie eingestehen, dass es keine Belege für eine Erholung der Ozonkonzentration gebe. Man habe zwar «erste Hinweise auf eine Wende» gefunden, aber diese seien statistisch noch nicht signifikant. Forscher wiesen darauf hin, dass der Abbau der FCKW in der Stratosphäre möglicherweise länger dauert als in den Modellrechnungen angenommen. «Die Physik der Atmosphäre ist komplex, und viele Prozesse sind nicht vollständig oder ausreichend verstanden», sagte der deutsche Wissenschaftler Michael Bittner gegenüber der «Zeit».

«So etwas haben wir noch nie gesehen»

Trotzig hielten die meisten Wissenschaftler daran fest, dass die Bekämpfung des Ozonlochs eine Erfolgsgeschichte sei. «Das von Menschen gemachte FCKW-Problem ist gelöst, diese Gefahr ist definitiv gebannt», behauptete der deutsche Geophysiker Martin Dameris gegenüber der «Frankfurter Allgemeinen Zeitung». Die Medien applaudierten jedes Mal, wenn Forschungsresultate ein baldiges Ende des Ozonabbaus plausibel machen wollten. «Ozonloch über der Antarktis schliesst sich», verkündete 2016 die «Neue Zürcher Zeitung». «Geht doch!», schrieb die «Zeit».

2018 und 2020 nahm das Ozonloch über der Antarktis wiederum riesige Ausmasse an. Und über der Nordhalbkugel erreichte die Ozonausdünnung letztes Jahr erneut einen Rekordwert.

Doch das Ozonloch blieb. 2018 und 2020 nahm es über der Antarktis wiederum riesige Ausmasse an. Und über der Nordhalbkugel erreichte die Ozonausdünnung letztes Jahr erneut einen Rekordwert. «So etwas haben wir noch nie gesehen», gab sich Wissenschaftler Martin Dameris überrascht. Andere Forscher gestanden ein, dass ein starker Ozonabbau über der Arktis noch für mehrere Jahrzehnte möglich bleibt.

Abkühlung der Stratosphäre als Ursache

Doch jetzt scheint es eine Erklärung zu geben, warum sich das Ozonloch trotz des angeblich erfolgreichen Montreal-Abkommens hartnäckig hält: Der Klimawandel ist schuld. Das ist das Fazit einer Studie des deutschen Alfred-Wegener-Instituts in Zusammenarbeit mit der amerikanischen University of Maryland. Die Studie ist im Fachblatt «Nature Communications» erschienen.
«Damit es zu einem Abbau von Ozon in der Arktis kommt, muss sich die Stratosphäre im Bereich der Ozonschicht stark abkühlen», erklärte Erstautor Peter von der Gathen vom Alfred-Wegener-Institut. Die Analyse meteorologischer Daten der letzten 56 Jahre zeige einen Trend hin zu tieferen Temperaturen in den kalten stratosphärischen Wintern. Die Auswertung von Klimamodellen ergebe klar, dass dieser Trend Teil des Klimawandels sei, so von der Gathen. Denn Treibhausgase wie CO2, die an der Erdoberfläche zur globalen Erwärmung führten, würden eine Abkühlung der höheren Luftschichten in der Stratosphäre fördern.

Katastrophen-Warner können sich bestätigt fühlen

Die Forscher warnten, der Ozonabbau über der Arktis könne sich bis zum Ende des Jahrhunderts noch intensivieren, wenn eine schnelle und konsequente Reduktion der globalen Klimagasemissionen ausbleibe. Dies werde auch in Europa, Asien und Nordamerika die UV-Strahlungsbelastung erhöhen, wenn jeweils Teile des Polarwirbels nach Süden vordringen würden. «Es gibt viele Gründe, die Treibhausgasemissionen schnell und umfassend zu reduzieren», betonte Markus Rex, Co-Autor der Studie. «Eine drohende Verschärfung des Ozonabbaus über der Arktis kommt jetzt noch dazu.»

Wer gerne vor Umweltkatastrophen warnt, darf sich bestätigt fühlen: Das Abkommen von Montreal kann weiterhin als Erfolgsstory gelten. Und der Klimawandel ist scheinbar noch gefährlicher als angenommen.

Gemäss dieser Erklärung ist also wiederum der Mensch schuld, dass das Ozonloch nicht weicht. Er hat zwar den Austoss von FCKW eliminiert, nicht aber den von Klimagasen wie CO2. Mögliche natürliche Ursachen der Ozonausdünnung treten in den Hintergrund. Wer gerne vor Umweltkatastrophen warnt, darf sich bestätigt fühlen: Das Abkommen von Montreal kann weiterhin als Erfolgsstory gelten. Und der Klimawandel ist scheinbar noch gefährlicher als angenommen.



ENDE DER FAHNENSTANGE

von Hans Hoffmann-Reinecke

Wenn die Menschheit demnächst sich dessen gewahr wird, dass sie Corona überlebt hat, dann werden Politik und NGOs neue, und noch schlimmere Szenarien zum Klima auspacken. Ein bekannter Physiker hat nun errechnet, dass zusätzliches CO2 kaum weitere Erwärmung verursachen wird.  Natürlich wird er vom Establishment diskreditiert und angefeindet. Aber vermutlich kann ein Physiker, auch wenn er kein Diplom in Sachen Klima hat, wesentlich mehr zu dem Thema beitragen, als zertifizierte Klimaforscher, die nichts von Physik verstehen.

Wellenlängen und Nobelpreise

Jeder Gegenstand strahlt permanent Energie ab; er glüht gewissermaßen, auch wenn wir das nicht immer sehen. Das „Licht“, welches der Körper von sich gibt, ist für unsere Augen nicht wahrnehmbar. Erst wenn wir den Gegenstand auf ca. 500°C erhitzen, dann sehen wir ein rötliches Leuchten. Ab jetzt beinhaltet seine Strahlung auch Wellenlängen, für die unsere Augen gebaut sind, und erst einmal ist das rot. Die längerwellige, unsichtbare Strahlung, die vorher schon üppig da war, wird als Infrarot bezeichnet, sozusagen „Unter-Rot“.

Der alte weiße Mann Max Planck hat sich über diese Verteilung der Wellenlängen den Kopf zerbrochen und bekam dafür 1918 den Nobelpreis; nebenher trat er dabei auch die Entwicklung der Quantenphysik los.

Vortrag von Will Happer am 21.6.21 im Umweltausschuss zur Sättigung nach Planck & Schwarzschild der CO2 Infrarotaufnahmefähigkeit

Während unser Gegenstand also vor sich hin strahlt verliert er Energie, und zwar umso mehr, je heißer er ist; d.h. er kühlt sich ab. Wie kalt würde er, wenn er ganz alleine für sich im Vakuum des Weltalls unterwegs wäre? Er würde sich langsam aber sicher dem absoluten Nullpunkt nähern, das sind -273°C.

Das freundliche Zentralgestirn

Aber Moment, wir sitzen doch alle auf einer Kugel, die durchs Vakuum des Weltraums fliegt und per Infrarot jede Menge Energie abstrahlt– und diese Kugel wird keineswegs kälter! Im Gegenteil; uns wird doch laufend gepredigt, dass die sich über alle Maßen erwärmen wird, wenn wir nicht sofort aufs Lastenfahrrad umsteigen und unsere Flugreisen stornieren.

Der Grund ist: wir sind nicht mutterseelenallein im All. Da ist die liebe Sonne, die uns zuverlässig mit ihrer freundlichen Strahlung verwöhnt. Sie führt uns großzügig Wärme zu, die genau so bemessen ist, dass die von der Erde in Form infraroter Strahlung abgegebene Energie andauernd ersetzt wird.

Das ist nun wirklich rücksichtsvoll von der Sonne, oder? Nun die Erde hilft dabei mit. Würde die Sonne uns weniger Energie spenden, dann würde auch die Erde ihre eigene Strahlung reduzieren, bis wieder Gleichgewicht herrscht; sie würde einfach ihre Temperatur herunter drehen.

Also, und das ist wichtig: die mittlere Temperatur der Erde wird sich immer so einpendeln, dass die abgestrahlte Energie auf die Dauer gleich der von der Sonne empfangenen ist.

An der Temperatur braucht man nur ein kleines Bisschen zu drehen und die Strahlung ändert sich gleich gewaltig. Würde die Erde nur von 15°C auf 5°C abkühlen, dann ginge die abgestrahlte Energie um 20% zurück. Das ist eine ganze Menge.

Die Pandemie-freundlichen, kontaktlosen Fieberthermometer übrigens nutzen diese Temperatur-Sensibilität, um an der IR Strahlung unserer Haut den winzigen Unterschied zwischen 36,0 und 36,5°C zu erkennen. Die mathematische Beschreibung dafür ist, dass die Strahlungsleistung proportional zur vierten Potenz der absoluten Temperatur ist.

Sie fragen, was das alles mit Klimawandel zu tun hat? Da geht es doch um CO2 & Co. Einverstanden, ich schlage vor, wir schauen und das mal an.

 

Packman, der Photonenschreck

Wir hatten so salopp von der IR-Strahlung gesprochen, welche Energie von der Erde in den Weltraum trägt. Das ist aber nicht so einfach, denn die Strahlen müssen sich ihren Weg erst durch diverse Luftschichten bahnen, vorbei an Molekülen unterschiedlichster Bauart. Die meisten dieser Moleküle sind harmlos, aber unter ein paar Tausend ist auch eines vom Typ „Packman“; das schnappt sich ein Lichtteilchen, ein so genanntes Photon, so wie sich der gute alte Packman ein Pixel schnappte.

Unter den unendlich vielen verschiedenen Photonen, die vorbeirauschen, schnappen sich diese Moleküle nur solche, die eine ganz bestimmte Energie haben, d.h. die zu einer ganz bestimmten Wellenlänge gehören. Nach einer kurzen Weile lassen sie das Photon dann wieder frei. Dieses fliegt ganz erlöst davon, mit Lichtgeschwindigkeit, aber in irgendeine Richtung – nicht unbedingt Richtung Weltraum. Und so wird ein gewisser Anteil dieser Photonen niemals seinen Weg ins All finden. Ihre Energie bleibt letztlich in der Atmosphäre hängen.

Napoleon hatte kein Problem

Die Packman Moleküle, von denen wir hier sprechen, sind vom Typ CO2. Deren Konzentration ist seit vorindustrieller Zeit, etwa seit Napoleon, bis heute um 40% angestiegen: von 280 CO2 Molekülen unter einer Million Luftmolekülen auf gut 400. Eine plausible Erklärung dafür ist der Verbrauch fossiler Brennstoffe durch die Menschheit. Da wird Kohlenstoff, der seit Äonen unter Tage ruhte, an die Oberfläche gebracht und zu CO2 verbrannt, welches in die Luft entweicht.

Wenn nun die Energie, die wir laufend von der Sonne bekommen, nicht mehr so leicht ins All abgestrahlt werden kann wie früher, dann wird die Erde sich erwärmen, um mehr Photonen auf die Reise zu schicken. Sie wird sich so weit erwärmen, bis genügend Photonen an den Packman Molekülen vorbei ihren Weg in den Weltraum finden, und damit die Energiebilanz der Erde wieder ausgeglichen ist.

Das ist des Pudels Kern in Sachen Global Warming.

Der Temperaturanstieg betrug seit Napoleon ca. 1,5°C, wobei die Zunahme in den vergangenen 50 Jahren stärker war. Und auch wenn diese Erwärmung wohl kaum von jemandem als Problem wahrgenommen wurde, so ist da die legitime Frage: wie soll es weiter gehen? Die Apokalyptiker der Klimaszene wissen natürlich, dass jedes zusätzliche Molekül CO2 in der Atmosphäre nur den Untergang bringen kann. Mathematische Betrachtungen aber zeigen, dass bereits heute vermutlich das Ende der Fahnenstange in Sachen Erwärmung durch CO2 erreicht ist.

Der Wald und die Bäume

Stellen Sie sich vor, jemand schießt mit einem Gewehr auf eine Baumgruppe. Da werden einige Kugeln in den Stämmen abgefangen und andere fliegen vorbei. Ein bestimmter Prozentsatz der abgefeuerten Geschosse wird also auf der anderen Seite herauskommen. Wenn Sie jetzt die Bäume immer dichter aufstellen, dann kommen irgendwann gar keine Kugeln mehr durch. Und wenn Sie jetzt die Dichte der Bäume weiter verdoppeln, dann ändert sich nichts mehr am Ergebnis: keine Kugel kommt mehr durch.

So ist das auch mit den Photonen (= Geschossen) und den CO2-Molekülen (= Bäumen). Die Konzentration von CO2 ist heute schon hoch genug , dass die Photonen aus dem besagten engen Energieband kaum noch durchkommen. Würde sich also die CO2-Konzentration von aktuell ca. 400 ppm auf 800 ppm verdoppeln (auch dann hätten wir nicht einmal ein einziges CO2 unter tausend Luftmolekülen), dann hätte das auf die globale Temperatur kaum eine Auswirkung. Aber bevor wir bei den 800 ppm ankommen, würden uns vermutlich die fossilen Brennstoffe ausgehen.

 

Eine gute Nachricht, aber nicht für jeden

Dazu hat der Physiker William Happer genauere Rechnungen angestellt. Er ist ein renommierter Experte auf den Gebieten Atomphysik, Optik und Strahlung. Unter anderem erfand er den „Laser Guide Star“, ein Instrument, welches der Astronomie hilft, die Störungen ihrer Beobachtungen durch die Ablenkung des Lichtes in der Atmosphäre zu korrigieren.

Professor Happer hat also gerechnet und kam zu dem Ergebnis, dass die globale Temperatur ganz ohne CO2 (und andere Treibhausgase) bei neun Grad Celsius unter Null läge (Hier sein Vortrag), weil die Abstrahlung ungehindert ins All ginge. Diesen Planeten Erde hat es vermutlich nie gegeben, ein Leben auf ihm wäre jedenfalls nicht möglich gewesen – aus diversen Gründen.

Die heutige mittlere Temperatur mit der aktuellen CO2-Konzentration ist 15°C, und würde sich die Konzentration verdoppeln, dann würde es nur um weniger als ein Grad wärmer! Das ist doch eine gute Nachricht; nur ein Bruchteil von einem Grad ist also der Worst Case in Sachen Global Warming. Dafür ruinieren wir heute die Wirtschaft der westlichen Welt, dafür traumatisieren wir unsere Schulkinder, dafür verunstalten wir die Landschaft mit Windmühlen und Photovoltaik, dafür finanzieren wir einen milliardenschweren Klimazirkus.

Natürlich wird Happer von Klima-Establishment angefeindet, und wie üblich kritisiert man ihn persönlich und nicht seine Forschung. Man wirft ihm vor, dass er die Regierungen Bush und Trump beraten hat. Und er sei kein Klimaforscher, sondern nur Physiker. Aber ich glaube, dass ein Physiker, der kein Diplom in Sachen Klima hat, wesentlich mehr zu dem Thema sagen kann, als zertifizierte Klimaforscher, die nichts von Physik verstehen.

(Die hier wiedergegebenen Überlegungen beziehen sich auf ein Szenario,

  • In dem man so etwas wie eine „mittlere Erdtemperatur“ T messen kann;
  • Dass T in den vergangenen Jahrzehnten angestiegen ist;
  • Dass die Zunahme von CO2 in der Atmosphäre die wesentliche Ursache dafür ist.

Keine dieser Thesen ist aus wissenschaftlicher Sicht bewiesen, aber sie sind das Fundament, auf dem die heutige Klimapolitik aufbaut. Mein Artikel soll beschreiben, dass auch innerhalb dieses – keineswegs gesicherten – Szenarios die Prognose eines bedrohlichen Temperaturanstiegs alles andere als plausibel ist).

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazonerhältlich.




Holzmodelle für die Klimavorhersage ?

von Günter Keil

Wie man seit einiger Zeit weiß, hatte das IPCC in einem seiner Berichte übersehen, dass eine grundsätzliche physikalische Feststellung durch eine Zensur-Schlamperei der sonst immer funktionierenden Löschung entgangen war. Sie kennen den Text, in dem festgestellt wurde, dass das Klimasystem durch chaotische und nichtlineare Gesetzmäßigkeiten sowie völlig durch turbulentes Verhalten gekennzeichnet ist, weshalb jegliche Berechnungen über dessen zukünftige Entwicklung unmöglich und unsinnig sind. Das war der verdiente Todesstoß für alle Modellierungsversuche, die nach wie vor als wissenschaftlich akzeptable Argumente für die niemals bewiesene Klimakatastrophen-Theorie angeführt werden.

Die Reaktion des IPCC auf diesen tödlichen Schlag, bei dessen Beachtung alle späteren IPCC-Berichte im Papierkorb gelandet wären und selbst von diesem sich Weltklimarat nennenden UN-Werkzeug nur ein mit Papierfetzen gefülltes Loch übrig geblieben wäre: Ignorieren und auf das Ausbleiben von Konsequenzen zu hoffen.
Diese verzweifelte Hoffnung erfüllte sich tatsächlich – vor allem durch die Hilfe der UN-Organisation, die hinter Alledem steckt.

Es gab allerdings schon immer einen nahezu täglich in den Medien präsentierten einfachen und verständlichen Gegenbeweis zu den noch heute unverändert präsentierten Vorhersagen über die angebliche Entwicklung des Globalklimas für die nächsten 30 oder auch 50 Jahre: Den Wetterbericht.
Die Meteorologen trauen sich inzwischen, Vorhersagen für 14 Tage zu präsentieren, obwohl bereits die 3-tägige Vorhersage durch eine beachtliche Streuung gekennzeichnet ist.
Sehr bezeichnend ist, wie sie zu ihren Kurzvorhersagen kommen. Durch Berechnungen ? Keineswegs, denn schon dies ist nicht möglich. Ihr Verfahren besteht vielmehr darin, zum aktuellen Wetter-Szenarium, also der Bedeckung der Landschaft mit sehr mobilen – oder auch einmal ortsfesten – Hoch- und Tiefdruckgebieten aus dem Studium der Witterungs-Vergangenheit möglichst

ähnliche (gemessene) Szenarien zu suchen – und dann deren anschließende
Entwicklung zu betrachten. Dies ist dann die mit einer nicht schlechten Wahrscheinlichkeit verbundene Prognose für die nächsten Tage. Ein zwar bescheidenes aber recht sicheres Verfahren.

Das führt zu der Frage, weshalb man eine 3-Tages-Wettervorhersage nicht aus Berechnungen erhalten kann, sehr wohl aber eine 30- oder 50-jährige  Vorhersage über die globale Klimaentwicklung.
Die Meteorologen vermeiden damit, sich mit der grundsätzlichen Unberechenbarkeit auseinanderzusetzen, deren mathematische Formeln – die Algorithmen –mit der Hilfe gehorsamer Computer beliebig verändert werden können, bis der Rechner das gewünschte Ergebnis „ausspuckt“.
Aber eben dieses Verfahren verwenden die Klimamodellierer, wodurch sie alle nur denkbaren „Prognosen“ zwischen den Grenzwerten „Null“ und apokalyptischer Hitzekatastrophe erzielen können. Daraus dann einen Mittelwert zu konstruieren, ist unwissenschaftlich und unzulässig, aber die ganze Fälscherei verlangt nun einmal eine Aussage, die man als Forschungsergebnis verkaufen kann.
Zumindest den Regierungen der Industriestaaten….
Dahinter steckt ein altbekanntes Politikprinzip: Angst war schon immer ein wirksames Mittel zur Kontrolle der Menschen. Es winkt Machterhalt, aber auch Geld.
Wer sich an seinen Physikunterricht erinnert, der weiß, dass es nicht nur turbulente, sondern auch laminare Strömungen gibt. Also keine Verwirbelung, sondern geradezu parallele Strömungslinien. Aber bereits bei etwas höherer Fließgeschwindigkeit kann die laminare in turbulente Strömung umschlagen – ohne Umkehr. Die Turbulenz bleibt.Ein großartiges Beispiel für einen solchen Übergang gibt es in Brasilien/Amazonien. Der Amazonas kommt von den Bergen im Westen und fließt dann langsam in der Ebene – laminar. Auf der Höhe von Manaus trifft er auf den Rio Negro, ebenfalls laminar fließend. Der Rio Negro ist schwarz – also nährstoffarm – der Amazonas ist fast weiß. Dort wo sich die beiden Flüsse vereinen, bietet sich ein erstaunliches Bild: Amazonas und Rio Negro mischen sich nicht. Sie fließen in breiten Streifen – schwarz und weiß – nebeneinander, und der nun längsgestreifte Fluss demonstriert laminare Strömung im XXL-Format. So geht es einige km flussab, bis plötzlich der Strömungstyp kippt. Er wird turbulent; die breiten Streifen verschwinden. Ursache vielleicht ein großer Stein oder abgesunkene Baumstämme auf dem Grund des Flusses. Und so bleibt es dann. Eine Rückkehr zu eine laminaren Strömung – also Entmischung der beiden Flussanteile – kann es nicht geben.

Wenn man sich das Problem der Nichtberechenbarkeit von turbulenten Strömungen und deren Auswirkungen in der gesamten Industrie, die Produkte anbietet, die von dem Turbulenzproblem betroffen sind, genauer anschaut, stellt sich die Frage:
“Wie konnte und kann die Industrie überhaupt Produkte entwickeln, die mit dem Problem turbulenter Strömungen zu kämpfen haben ? Und wie konnte sie diese Produkte systematisch verbessern, wenn man es doch nicht berechnen konnte ?“
Es betrifft alle Konstruktionen, die mit sich höherer Geschwindigkeit in der Luft oder im Wasser bewegen: Flugzeuge, Autos, Schienenfahrzeuge und auch Schiffe.

Es sind die Turbulenzen, die durch die Bewegung des Fahrzeugs entstehen. Sie sind am Besten an Bug und Heck von Schiffen zu sehen, aber auch in sehr feuchter Luft an den Flügelspitzen landender Flugzeuge.

Die Industrie kennt die Lösung seit Langem. Sie heißt: Modelle, die in verkleinertem Maßstab in Windkanälen und Schleppkanälen eingesetzt werden. Und die sind meistens aus Holz.
Wenn die Messergebnisse, die solch ein Holzmodell liefert, unbefriedigend sind, ändert man das Modell. Mit ihrer Routine können die Entwickler bald erkennen, wo etwas geändert werden muss.
Und es geht einfach nicht anders.

Die IPCC-Panne mit der Publikation über die Unmöglicjkeit, das Klimageschehen in Algorithmen zu fassen und es dann zu berechnen („Modellieren“) erklärt das unlösbare Dilemma der sog. Modellierer. Hart ausgedrückt: Ihre Behauptungen, es handle sich um Berechnungen, ist unseriös und eine Täuschung.

Und Holzmodelle im Maßstab 1:7 helfen auch nicht, weil selbst ein Holzmodell von einem Siebentel der Erdkugel – das zudem täglich aufgrund der geänderten Lage der Hochs und Tiefs angepasst werden müsste – bestenfalls die Wettervorhersage um einen Tag etwas verbessern könnte.
Nein, selbst die Holzmodelle können dem IPCC nicht helfen.