2014 war das schlechteste Windstromsjahr seit 10 Jahren – Bayern ist mit Baden-Würtemberg „Bunkerführer“

Über diesen „Erfolg“ haben die WKA-Lobby-Vertreter nicht berichtet. Den uns vorliegenden Jahresganglinien ist zu entnehmen, dass  die Zuverlässigkeit aller WKA-Monster zusammen, wie auch in den letzten Jahren nahe Null war. Das heißt : Hinter jeder WKA muss die gleiche Leistung aus konventionellen Kraftwerken yerfügbar sein.

Dass im Jahr 2014 insgesamt etwa 1750 WKA mit einer  Leistung von 4750 MW errichtet wurden, wurde als großer Erfolg in den Medien gefeiert. Im Jahr 2015 wird noch einmal die gleiche WKA-Leistung zugebaut werden soll.

Tabelle 1 Offizielle Windstatistik (als besser lesbares pdf hier oder im Anhang)

Dabei ist zu beachten, dass die Bundesregierung festgelegt hat, dass in Zukunft die jährliche WKA-Zubau-Leistung auf 2.500 MW begrenzt werden soll.

In Bayern mussten wir leider erfahren, dass sich die 10 H-Regelung als regelrechte „ WKA – Genehmigungs-Beschleunigungs-Regel“ entwickelt hat.  Dies können Sie der eingefügten : „WAK-Statistik 2014-Tabelle WindGouard“ (Siehe auch pdf Anhang) entnehmen. Bemerkenswert ist, dass im Jahr 2014 in Bayern etwa 20 mal so viel WKA  mit einer etwa 22 fachen Leistung errichtet worden sind, wie in Baden-Württemberg.

Dabei ist zu beachten, dass die durchschnittliche Windhöffigkeit in beiden Bundesländern etwa gleich niedrig ist. Die Zahl der Volllaststunden sind mit ca. 1.100 bis 1.300 VLS/a ist etwa gleich niedrig in beiden Ländern. 

WKA Volllaststunden in Baden Würtemberg

 

Jahr 

VLh BRD 

in % von 

VLh Bad.Wü. 

in % von 

8760 h

 

2004 

1534 

17,5 

1104 

12,6 

2005 

1482 

16,9 

1150 

13,1 

2006 

1489 

17,0 

1146 

13,1 

2007 

1785 

20,4 

1350 

15,4 

2008 

1690 

19,3 

1357 

15,4 

2009 

1466 

16,7 

1158 

13,3 

2010 

1393 

15,9 

1051 

12,0 

2011 

1536 

17,5 

920 

10,5 

Mittel 

1547 

18 

1155 

13 

Tabelle 1: WKA – Volllaststunden in Deutschland und in Baden-Württemberg: Quelle: Deutsches Windenergie-Institut in Wilhelmshaven (DEWI), Quelle 2010 BRD: bdew (Bundesverband d. Energie- u. Wasserwirtschhaft e.V.; Quelle 2010 u. 2011 Ba-Wü.: www.enbw-transportnetze.de Erstellt von Dr. Christoph Leinß chrileilev@googlemail.com 

Die Betriebsdaten der WKA in Bayern lagen in der gleichen Größenordnung wie in B-W  

Wir wissen, dass für einen wirtschaftlichen Betrieb nach EEG etwa 2.000 bis 2.200 VLS/a notwendig sind. Herr Dr. Leinß berichtete in seiner E-mail vom 17.11.2013 folgendes, Zitat :

„Die EnBW verlangt zumindest in Oberschwaben sogar 2.300 VLh für einen wirtschaftlichen Betrieb. Unser Umweltminister Untersteller sprach in Bad Wurzach von 6,0 m/s, die für einen wirtschaftlichen Betrieb notwendig sind“

Anmerkung : Die Gründe für den bisherigen Erfolg unserer Freunde sind bekannt. Ich habe sie in dem eingefügten Papier „Vergleich Wm Bay-BW 7 Seiten“ beschrieben. (s. pdf Anlage)

Wir hoffen und wünschen, dass unsere Freunde in Baden-Württemberg weiterhin dazu beitragen, dass dort möglichst wenig WKA errichtet werden können.

Die Frage, warum in Bayern nur wenige WKA – Betreiber mit den in den letzten Jahren errichteten WKA  Insolvenz anmelden mussten, habe ich versucht in dem eingefügten Blatt :

Warum WKA erst nach 5-7 Jahren pleite-Richter-Folie“ zu erklären.

Related Files




Klimaerwärmung durch Kohlendioxid?

Im weiteren Verlauf des Textes lautet es: „Erstmals sehen wir in der Natur die Verstärkung des Treibhauseffektes“ und im Hamburger Max-Plank-Institut für Meteorologie wird noch jubelnd hinzugefügt, dass jetzt endlich auch die Größenordnung des anthropogenen Einflusses sichtbar geworden ist.

Das Ganze geht alles auf neueste Rückstrahlungsmessungen zurück, die kürzlich in einem Aufsatz der Zeitschrift „Nature“ (Details dazu hier und hierveröffentlicht worden sind. Aber hat denn überhaupt keiner der Interpreten gemerkt, dass durch diese Messungen genau das Gegenteil des oben Gesagten bewiesen wurde, nämlich nichts anderes als das, was seriöse Klimakritiker immer schon über den anthropogenen Treibhauseffekt ausgesagt haben.

Die von „Nature“  bekanntgegebene Zahl für die CO2-bedingte Zunahme der Rückstrahlung  von 0,2 Watt/m2 pro Jahrzehnt ist  doch in Wirklichkeit nicht mehr als eine Lappalie. Wie soll sich davor eigentlich die Erde erschrecken, wenn auf den umlaufenden Äquatorboden zur Mittagszeit ständig 1367 Watt pro Quadratmeter niederprasseln. Die wechselnden Abweichungen von diesem als „Solarkonstante“ bezeichneten Mittelwert sind sogar deutlich größer als die o.g. 0,2 Watt/m2.

Laut dem sog. Weltklimarat IPCC beträgt die Rückstrahlungszunahme im Falle einer Verdoppelung des CO2-Gehalts genau 3,7 Watt/m2, was inzwischen durch neutrale Gegenprüfung mehrfach bestätigt wurde. Im letzten Jahrzehnt hat sich der CO2-Gehalt der Atmosphäre um ca. 20 ppm erhöht (Millionstel Volumenanteile). Z.Z. liegt er bei 400 ppm. Hieraus kann schon jeder Oberschüler ermitteln, dass sich daraus ein Rückstrahlungszuwachs  von ca. 0,2 Watt/m2 ergibt, was durch die o.g. Messungen nur noch nachtäglich bestätigt wird.

Auch die dadurch bedingte globale Temperaturerhöhung kann recht genau mit einer auch vom IPCC benutzten Formel errechnet werden, die sich aus dem Strahlungsgesetz von Stefan-Boltzmann widerspruchsfrei ableiten lässt.

dT = mittlere Globaltemperatur x Rückstrahlungszuwachs / mittlere Erdabstrahlung x 4

dT = 288 K x 0,2 Watt/m2 : 240 Watt/m2 x 4 = 0,06 K = 0,06°C

In „Nature“ ist ausdrücklich vermerkt, dass die gemessene Differenz der Rückstrahlung von 0,2 Watt/m2 sich nur auf wolkenfreie Zonen der Erde bezieht. Bei 40% durchschnittlicher Wolkenbedeckung und einer 30%-igen Überlappung des CO2-Absorptionsspektrums durch den allgegenwärtigen Wasserdampf ist der oben errechnete Temperaturwert daher noch von 0,06°C auf 0,03°C zu reduzieren. Es handelt sich hier also in Wirklichkeit um einen kaum messbaren Effekt, der auch zusammen mit einer fiktiven Wasserdampfrückkoppelung nichts Dramatisches bewirken kann, womit die immer schon überflüssig gewesene Energiewende endgültig ad absurdum geführt ist. Dass der Focus alle oben beschriebenen Fehlinterpretationen völlig unkritisch weitergegeben hat, ist mehr als bedauernswert und sollte daher dringend einer Korrektur unterzogen werden.    

Dr. rer.nat. Siegfried Dittrich  




Reaktortypen in Europa – Teil5, ESBWR

Geschichte

Bereits nach dem Reaktorunglück von TMI in Harrisburg begann man in den USA das Genehmigungsverfahren für einen stark vereinfachten Reaktor, den SBWR (Simplified Boiling Water Reactor). Nachdem man über eine halbe Milliarde Dollar Entwicklungs- und Genehmigungskosten investiert hatte, mußte man erkennen, daß dieser Reaktor mit 670 MWel schlicht zu klein und damit unverkäuflich war. Im nächsten Schritt legte man mehr Wert auf die “Wirtschaftlichkeit (Economic)” und erhöhte die Leistung auf 1600 MWel. Ein weiteres Jahrzehnt mit unzähligen Prüfungen verging. Seit letztem Jahr liegen endlich alle Genehmigungen für den Typ vor. Es fehlt nur noch ein Kunde mit einem konkreten Bauauftrag. Inzwischen gibt es auch dazu Verhandlungen in USA, Polen und Indien. Wie immer, wird der “mutige Investor” gesucht, der bereit ist, in eine neue Technik (first of a kind) zu investieren. Dabei ist die Technik alles andere als revolutionär, sondern im Gegenteil strikt evolutionär. Man hat Schritt für Schritt auf in der Praxis bewährte Bauteile zurückgegriffen. Dies sei nur am Rande bemerkt, für all die Erfinder, die immer nach revolutionären Konzepten schreien. Erfinden und in allen Details den Nachweis der Funktionstüchtigkeit erbringen, sind zwei völlig verschiedene Dinge. Zumindest der Nachweis der Funktionstüchtigkeit – nach den Maßstäben der Kerntechnik – erfordert Jahrzehnte und verschlingt somit immense Summen. Vergleichbares gibt es nur in der zivilen Luftfahrt. Auch dort sind revolutionäre Flugzeugentwürfe nur etwas für Universitäten und Medien.

Anforderungen

Alle bisherigen Erfahrungen mit Kernkraftwerken – insbesondere die Unglücke in Harrisburg, Tschernobyl und Fukushima – haben zu folgenden Anforderungen für einen sicheren und wirtschaftlichen Betrieb geführt:

·       Je weniger Bauteile man hat, je weniger kann kaputt gehen (Schaden) und je weniger muß gewartet und überwacht werden (Wirtschaftlichkeit).

·       Je einfacher (“kiss = keep it simple stupid”) das Kraftwerk ist, je einfacher ist es auch zu bedienen – dies gilt für die Automatik, wie auch für das Personal.

·       Je mehr man auf Naturkräfte (Schwerkraft, Speicherung etc.) bei der Sicherheitstechnik setzt, um so sicherer ist ihre Verfügbarkeit im Ernstfall.

·       Je unabhängiger man von äußeren Einflüssen ist (Netzanschluss, Kühlwasser etc.), je weniger können solche “Einwirkungen von außen” (Tsunami, Wirbelsturm, aber auch Flugzeugabsturz, Terror etc.) zu Schäden beim Kraftwerk führen.

·       Je passiver die Sicherheitsketten sind, je weniger muß man sich auf eine hohe Bereitschaft des Schichtpersonals verlassen. Gerade in Ausnahmesituationen (Erdbeben mit Tsunami) brauchen Menschen Zeit sich darauf umzustellen.

·       Wenn man bewußt von dem Versagen aller Sicherheitssysteme ausgeht und offensiv solche Ereignisse durchspielt, kann man trotzdem die Schäden für die Umwelt noch weiter mindern.

Nur die konsequente Umsetzung der vorausgehenden Punkte hat zu der gewaltigen Steigerung der Sicherheit beim ESBWR geführt. Hatte die “Fukushima-Generation” noch eine Wahrscheinlichkeit von einer Kernschmelze in 100.000 Betriebsjahren, so liegt diese Wahrscheinlichkeit beim ESBWR bei etwa einer Kernschmelze in 170.000.000 Betriebsjahren. Spätestens nach den Ereignissen von Tschernobyl und Fukushima legt man großen Wert auf die Freisetzung von Radioaktivität nach dem Versagen aller Sicherheitseinrichtungen (z. B. Beschädigung des Containment etc.). Man kann durch geeignete Maßnahmen auch in einem solchen schweren – und unwahrscheinlichen – Unfall, die Freisetzung von radioaktiven Stoffen erheblich verringern. Simulationen für Standorte in USA haben ergeben, daß selbst in Betrachtungszeiträumen von einer Milliarde Jahren (berücksichtigt die geringe Wahrscheinlichkeit der Ereignisse) in einer Entfernung von 800 m (!) keine Dosen über 1 Sv auftreten würden. Natürlich können solche Berechnungen “Atomkraftgegner” nicht überzeugen. Sie halten auch nach Tschernobyl und Fukushima tapfer an ihrem Glauben von Millionen-Tote-für-zehntausende-Jahre-unbewohnbar fest. Was soll’s, es gibt auch heute noch Menschen, die an Hexen glauben.

Der Naturumlauf

Die Idee einen Siedewasserreaktor ohne Umwälzpumpen zu bauen, ist keinesfalls neu. Allerdings waren die ursprünglichen Modelle, wie z. B. Dodewaard (183 MWth) und Humboldt Bay (165 MWth) geradezu winzig gegenüber einem ESBWR (4500 MWth). Gleichwohl haben sie in den Jahrzehnten ihres Betriebs wertvolle Erkenntnisse und Messreihen geliefert, die als Referenz für die Auslegungsprogramme des ESBWR dienen. Dodewaard war von 1969 bis 1997 am Netz und hat trotz seiner bescheidenen Leistung von 55 MWel fast 11000 GWhel Strom produziert.

Wenn man einen Reaktor mit Naturumlauf bauen will, muß man die treibende Kraft der Umwälzpumpen durch einen Kamineffekt ersetzen: Es steht nur die Dichtedifferenz zwischen kaltem Abwärtsstrom und dampfhaltigem Aufwärtsstrom zur Verfügung. Um überhaupt genug Druck erzeugen zu können, damit man die Reibung in den Bauteilen überwinden kann, ist eine erhebliche Bauhöhe erforderlich. Genau das war aber in den Anfangsjahren das Problem. Man konnte solch große Druckgefäße – zumindest wirtschaftlich – nicht herstellen. Es bot sich deshalb an, besser Umwälzpumpen zu verwenden. Heute haben sich die Verhältnisse umgekehrt. Es gelang praktisch das im ABWR verwendete Druckgefäß auch im ESBWR zu verwenden. Es mußte allerdings für den Kamin oberhalb des Reaktorkerns, von 21,7 auf 27,6 m verlängert werden. Solch schlanke Behälter haben Vor- und Nachteile. Für die Gebäudehöhe und den Erdbebenschutz ist eine solche Länge eher nachteilig. Allerdings ergibt sich auch ein sehr großes Wasservolumen, was sich positiv bei Störfällen auswirkt.

Der Kern des ESBWR ist gegenüber dem ABWR größer (1590 gegenüber 1350 Brennelemente) und flacher (3,0m gegenüber 3,7m aktive Brennstablänge). Dies ist auf die höhere Leistung (4500 gegenüber 3926 MWth) und die anderen thermohydraulischen Bedingungen zurückzuführen. Wegen der höheren Anzahl der Brennelemente erhöht sich auch die Anzahl der Regelstäbe (269 gegenüber 205). Diesem Mehraufwand ist die Einsparung von zehn internen Umwälzpumpen gegen zu rechnen.

Der Rechenaufwand

Einfach anmutende, natürliche Systeme, sind meist wesentlich schwieriger zu beschreiben, als technische Systeme. Technische Anlagen, wie z.B. Pumpen, können definierte Randbedingungen schaffen, die eine Berechnung oft stark vereinfachen. Nur auf Naturkräfte beruhende Systeme sind die hohe Schule der Simulation. Schnell stößt man bei der notwendigen räumlichen und zeitlichen Auflösung an die Grenzen heutiger Rechner. Hinzu kommt hier eine sehr große Anzahl von Gleichungen, da die Thermohydraulik und die Neutronenphysik sich sehr stark gegenseitig beeinflussen.

Man muß es eigentlich nicht besonders erwähnen, hier hat man es mit einer Genehmigungsbehörde zu tun und bewegt sich nicht als freischaffender Künstler in der Welt von Klimamodellen oder Wirtschaftsprognosen. Hier muß man nicht nur sein Programm offen legen, sondern auch noch nachweisen, daß es richtig rechnet. Dazu müssen zahlreiche Messreihen an 1:1 Modellen nachgerechnet werden, um Unterprogramme (z. B. Druckverlust in einem Brennelement) zu testen. Ist diese Hürde – zur Zufriedenheit der Genehmigungsbehörde – erfolgreich genommen, geht es daran, Versuche an bereits gebauten Reaktoren nachzurechnen. Erst wenn der Genehmigungsbehörde kein Testfall mehr einfällt, ist das Programm zugelassen. So etwas kann dauern, schließlich arbeitet die Behörde im Stundenlohn für einen Stundensatz von 280 US-Dollar. So viel zum Thema: Junge Unternehmen entwickeln einen innovativen Reaktor. Die alten Zeiten eines Admiral Hyman G. Rickover, für den der Reaktor der USS Nautilus noch mit Rechenschieber, Bleistift und ganz viel Hirn ausgelegt wurde, sind lange vergangen.

Allein die Anpassung des vorhandenen Programms an die Besonderheiten des ESBWR soll bei GE mehr als 100 Mann-Jahre gedauert haben. Erst dann konnten für alle möglichen geforderten Zustände, die Leistungen, Durchflüsse, Dampfzustände und Dampfanteile, Blasenkoeffizienten, die Leistungsdichte und -verteilung, sowie die Stabilität (z.B. Xenon-Schwingungen) nachgewiesen werden.

Führt man sich diesen Aufwand vor Augen, wird einsichtig, warum die Entwicklung evolutionär verläuft. Man hat versucht, soviel wie möglich vom ABWR beim ESBWR weiter zu verwenden. Nicht einmal ein Verbund von internationalen Konzernen, aus GE, Hitachi und Toshiba kann es sich heute noch erlauben, die Entwicklung eines kommerziellen Reaktors mit einem weißen Blatt Papier zu beginnen. Ob das nun gut oder eher schlecht ist, mag jeder für sich selbst entscheiden.

Die Notkühlung

Nach dem Unglück in Fukushima sind zwei Ereignisse in den Mittelpunkt der Sicherheitsüberlegungen gerückt:

1.     Der Verlust der Hauptwärmesenke. In Fukushima wurden durch die Flutwelle die Kühlwasserpumpen und Einlaufbauwerke zerstört. Damit ging die Fähigkeit zur Abfuhr der Nachzerfallswärme verloren. Für sich genommen, schon ein wesentlicher Schritt zur Kernschmelze.

2.     Verlust (nahezu) jeglicher Stromversorgung. Durch die Schnellabschaltung infolge der Erdstöße war die Eigenversorgung weg, durch die großräumigen Verwüstungen durch die Naturkatastrophe, die Stromversorgung über das Netz und durch die Flutwelle wurden die Schaltanlagen und Notstromdiesel zerstört.

Wie hätte sich nun ein ESBWR in einer solchen Ausnahmesituation verhalten? Er verfügt über eine zusätzliche Wärmesenke für den Notfall, die vollständig unabhängig vom normalen Kühlwassersystem funktioniert: Die Außenluft. Der Auslegungsphilosophie folgend, sich nur auf Naturkräfte zu verlassen, handelt es sich dabei um offene “Schwimmbecken” oberhalb des Sicherheitsbehälters. Das Volumen ist so bemessen, daß es für mindestens 72 Stunden reicht. Die Temperatur ist – unabhängig von den Umweltbedingungen – durch die Verdampfung auf maximal 100 °C begrenzt. Es kann jederzeit – auch von außen durch die Feuerwehr – aus verschiedenen Tanks nachgefüllt werden.

Das nur mit der Schwerkraft betriebene Notkühlsystem ECCS (Emergency Core Cooling System) besteht aus vier voneinander unabhängigen Zügen. In jeweils einem “Schwimmbecken” oberhalb des Sicherheitsbehälters befindet sich zwei Kondensatoren. Diese bestehen aus je zwei übereinander angeordneten Sammlern, die durch zahlreiche dünne Rohre verbunden sind. Von dem Reaktordruckgefäß steigt eine Leitung zu den Sammlern auf. Im Kondensator kühlt sich das entweichende Dampf/Wassergemisch ab und strömt über den (kalten) Rücklauf wieder dem Reaktordruckgefäß zu. Es entsteht ein natürlicher Kreislauf, der sich selbst antreibt. Im Normalbetrieb ist die “warme” Dampfleitung stets offen. Jede “kalte” Rückleitung ist durch je zwei parallele Ventile verschlossen. Aus Gründen der Diversität ist ein Ventil elektrohydraulisch und das jeweils andere pneumatisch über einen Druckgasspeicher betrieben. Die Ventile befinden sich in einer “fail-safe” Stellung: Während des Betriebs werden sie durch die Kraft der Hydraulik oder des Gases geschlossen gehalten. Geht der Druck weg – aus welchen Gründen auch immer, gewollt oder nicht – geben die Ventile den Weg frei. Wegen der Redundanz, reicht ein Ventil aus, um den gesamten Strom durchzulassen. Da die Kondensatoren und die Rückleitung vollständig mit “kaltem” Wasser gefüllt sind, rauscht dieses Wasser infolge der Schwerkraft in den Reaktordruckbehälter und der Kondensator saugt dadurch ein “warmes” Gas- und Dampfgemisch aus dem Reaktorgefäß nach. Ein Naturumlauf ist entfacht. Dieser läuft solange, wie der Kern Nachzerfallswärme produziert und die Außenluft diese Wärme abnimmt.

Wenn das nukleare System irgendwo ein Leck hat, würde irgendwann der Kern trocken fallen. Das entweichende Wasser muß sofort ersetzt werden. Zu diesem Zweck gibt es innerhalb des Sicherheitsbehälters große Wassertanks. Damit aber das Wasser in freiem Fall nachströmen kann, muß zuerst der Druck im System abgebaut werden. Hierfür gibt es 8 Sicherheitsventile, 10 Abblaseventile (die zeitweilig durch pneumatische Antriebe geöffnet werden können) und 8 Druckentlastungsventile unmittelbar am Reaktordruckgefäß. Letztere enthalten verschweißte Membranen, durch die sie dauerhaft dicht und wartungsfrei sind. Wenn sie öffnen müssen, “durchschneidet” ein Kolben die Dichtung. Dieser Kolben wird durch Gas, welches pyrotechnisch in einem Gasgenerator erzeugt wird, bewegt. Es ist das gleiche Prinzip, wie bei einem “Airbag” im Auto – ein sehr kleiner “Signalstrom” reicht zur Zündung aus und erzeugt über die “Sprengkraft” eine sehr große Gasmenge. Diese Ventile sind so gebaut, daß sie den Weg vollständig frei geben, nicht verstopfen können und sich nicht wieder schließen lassen.

Der Energieabbau und die Kühlung geschieht in mehreren miteinander verknüpften Schritten:

1.     Aus den diversen Abblaseventilen strömt (zumindest am Anfang) ein Dampfstrahl mit hoher Energie und Geschwindigkeit. Dieser wird feinverteilt in Wasserbecken eingeblasen. Diese sog. Kondensationskammern befinden sich unten im Sicherheitsbehälter.

2.     Durch die Kondensation fällt der Dampf in sich zusammen und bildet wieder Wasser. Die Verdampfungswärme geht dabei an das Wasser der Kondensationskammer über. Würde man das Wasser nicht kühlen, wäre irgendwann Schluß damit. Der Zeitraum hängt von der Nachzerfallswärme und dem Wasservolumen ab.

3.     Das Wasser in den Kondensationskammern kann auf verschiedenen Wegen gekühlt werden. Der wichtigste Weg ist über die weiter oben beschriebenen Kondensatoren.

4.     Damit der Reaktorkern stets sicher gekühlt ist, sind die Wasservolumina in den Kondensationskammern und Speichern so bemessen, daß der Kern auch dann unter Wasser bleibt, wenn sich das Wasser im Sicherheitsbehälter ausbreitet. Dieser Zustand kann auch absichtlich herbeigeführt werden.

5.     Um eine Kettenreaktion sicher und dauerhaft zu verhindern, wird zusätzlich aus Speichern borhaltiges (Neutronengift) Wasser eingesprüht.

Der “Supergau”

Im Gegensatz zu den Anfängen der Kernkraftwerkstechnik, diskutiert man schon heute im Zulassungsverfahren ganz offensiv das Versagen aller Sicherheitseinrichtungen: Einerseits setzt man sich dabei mit den Auswirkungen der dadurch freigesetzten Radioaktivität auf die Umgebung auseinander und andererseits beschäftigt man sich mit Möglichkeiten diese Auswirkungen trotzdem abzumildern.

Ein typischer Fall ist das Versagen des Sicherheitsbehälters. Man versucht alles erdenkliche zu tun, dies zu verhindern, beschäftigt sich aber trotzdem mit diesem Ereignis. Ein Schritt diesen Unfall abzumildern, ist die gesteuerte Ableitung über Filter und den Abgaskamin. Durch die Kaminhöhe verdünnt sich die Abgaswolke beträchtlich. Durch das Vorschalten von geeigneten Filtern kann die Schadstoffmenge zusätzlich gemindert werden.

Ähnlich verhält es sich mit dem Kern: Durch redundante, passive Kühlsysteme versucht man den Brennstoff und die Spaltprodukte im Reaktordruckgefäß zu halten. Trotzdem untersucht man auch ein Versagen des Druckbehälters. Wie Fukushima gezeigt hat, ist auch beim Versagen der Notkühlung nicht mit einem “China Syndrom” (Hollywood Phantasie, nach der sich der schmelzende Kern immer weiter in den Untergrund frisst) zu rechnen. Trotzdem geht man von einem Schmelzen des Stahlbehälters, wie bei einem Hochofenabstich aus. Die Grube des Reaktorgefässes ist deshalb als “feuerfester Fußboden” (BiMAC, Basemat Internal Melt Arrest and Coolability device) ausgeführt. Unterhalb einer feuerfesten Schicht befindet sich ein Rohrleitungssystem, welches – quasi wie bei einer Fußbodenheizung – diese Schicht kühlt. Dieser “Fußboden” ist bezüglich seiner Konstruktion und Leistung für den 4-fachen Kerninhalt ausgelegt. Zusätzlich könnte die Grube mit dem im Sicherheitsbehälter vorhandenem Wasser vollständig geflutet werden, um die Spaltprodukte größtenteils darin zurückzuhalten.

Leistungsregelung

Normalerweise geschieht die Leistungsregelung bei Siedewasserreaktoren über die Steuerstäbe und die Umwälzpumpen. Die Steuerstäbe dienen nur zum Anfahren und bis etwa 50% der Auslegungsleistung. Im Bereich oberhalb 60% wird die Leistung nur noch über die Umwälzpumpen durchgeführt. Die Steuerstäbe dienen dann nur noch zur Kompensation des Abbrands.

Beim ESBWR kann der Reaktor durch langsames ziehen der Steuerstäbe auf Temperatur gebracht werden. Da im Siedebereich Temperatur und Druck miteinander gekoppelt sind, steigt auch der Druck im nuklearen System entsprechend an. Würde man keinen Dampf entnehmen, würde der Druck im “Kessel” immer weiter ansteigen, bis die Sicherheitsventile ansprechen. Natürlich wird so bald wie möglich Dampf entnommen, um die Turbine und das gesamte nukleare System damit aufzuwärmen. Wenn man aber Dampf entnimmt, muß die gleiche Menge durch Speisewasser ersetzt werden. Das Speisewasser wird im Betriebszustand auf 216°C vorgewärmt. Dies geschieht in sechs Stufen. Man entnimmt dazu, an bestimmten Stellen der Turbine, eine gewisse Menge Dampf. Dies ist sinnvoll, da der jeweils entnommene Dampf bereits Arbeit geleistet hat und sich somit der Wirkungsgrad verbessert. Man nennt diese Strategie “Carnotisierung”.

Der ESBWR hat gegenüber einem normalen Siedewasserreaktor (z. B. ABWR) eine siebte Vorwärmstufe, die mit frischem Dampf aus dem Reaktor beheizt wird. Normalerweise wird sie deshalb umgangen. Wenn man beispielsweise mit dieser Stufe die Speisewassertemperatur auf 252°C erhöht, geht die Leistung des Reaktors – bei gleicher Position der Steuerstäbe – auf 85% zurück. Umgekehrt könnte man die Steuerstäbe etwa so weit einfahren, daß nur noch rund 50% der Auslegungsleistung erzeugt wird. Würde man nun die Speisewassertemperatur auf 180°C absenken, würde sich wieder die ursprüngliche Leistung einstellen. Es ergibt sich somit im Bereich zwischen 50% bis 100% Leistung ein umfangreiches Feld, in dem sich die Leistung durch Kombination von Steuerstabstellungen und Speisewassertemperatur regeln läßt.

Die physikalische Ursache ist bei allen Siedewasserreaktoren die Abhängigkeit der Abbremsung der Neutronen von der Dichte des Moderators. Bei Reaktoren mit Umwälzpumpen wird die Dichte durch “ausspülen” von Dampfblasen aus den Brennelementen erhöht, bei Naturumlauf durch das Absenken der mittleren Temperatur.

Wegen seiner Leistung von 1600 MWel dürfte dieser Reaktor eher in der Grundlast eingesetzt werden. Gleichwohl ist ein täglicher Lastfolgebetrieb vorgesehen und genehmigt. So sind z. B. die Steuerstäbe für eine Betriebsdauer von 10 Jahren bei täglichem Lastwechsel zugelassen. Idealerweise fährt man mit diesem Reaktor aber mit konstant volle Leistung. Wegen seiner Stabilität und seiner passiven Notkühlung ist er sogar für den Betrieb durch nur einen Bediener konstruiert und zugelassen!

Ausblick

Im nächsten Teil werden die Schwerwasserreaktoren vorgestellt. Es ist bereits beschlossen, einen weiteren solchen Reaktor, in Kooperation mit China, in Rumänien zu errichten.

Dr. Ing. Klaus Dieter Humpich; übernommen von Blog des Autors hier 




Die Winter in den USA und ihre Propheten

Ohne Rücksicht auf „seriöse“ Aussagen über die bevorstehende Klimaerwärmung – als Folge der wachsenden Emissionen des „Klimakillers“ Kohlendioxid – verzeichnen die Meteorologen immer wieder extrem harte Winter, speziell an der Ostküste Nordamerikas.

So brachte der Winter 2003/2004 eisige Kälte, heftige Schneefälle und Stürme, was im gesamten Osten der USA nicht nur ein Verkehrschaos auslöste, sondern 38 Menschen den Tod brachte. Öffentliche Gebäude mussten geschlossen werden, Tausende Haushalte waren zeitweise ohne Strom. (Leipziger Volkszeitung, 28.01.2004)

Im Winter 2005/2006 meldete New York mit 68 Zentimeter die höchste Schneehöhe seit Beginn der Wetteraufzeichnungen 1869. Der bisherige Rekord von 1947 wurde damit um einen Zentimeter überboten. Viele Schneeschuhläufer bevölkerten die Straßen der Stadt. 14 Bundesstaaten waren unter einer mächtigen Schneedecke, teils mehr als 70 Zentimeter dick, verborgen. Dazu kamen heftige Stürme und Gewitter.  Die Stromversorgung brach in Hunderttausenden Haushalten zusammen, der Flugverkehr musste stark eingeschränkt werden. (Frankfurter Allgemeine Zeitung, 14.02.2006)

Der darauf folgende Winter 2006/2007 war nicht weniger heftig: Ein Schneechaos im Nordosten der USA führte zu wenigstens 13 Toten. Das Zentrum Washingtons glich einem Skigebiet. Stürme führten zu teils drei Meter hohen Schneeverwehungen. Viele Schulen mussten geschlossen werden. Im Mittleren Westen und im Nordosten waren etwa 300.000 Menschen ohne Strom. Die Temperaturen fielen auf bis zu minus 17 °C. Fast 3000 Flüge fielen aus, teils musste der private Autoverkehr verboten werden. (Leipziger Volkszeitung, 15.02.2007 und 16.02.2007)

Dann endlich kam die „Erlösung“! Eine Studie von Barry Lynn und Leonard Druyan von der Columbia University und vom Goddard-Institut für Raumstudien der Nasa verkündete im Mai 2007, dass es in Zukunft an der amerikanischen Ostküste deutlich wärmer wird. Demnach dürften die durchschnittlichen Temperaturen ab etwa 2080 um sechs Grad höher als heute liegen, östlich des Mississippi sollen die Durchschnittstemperaturen dann bei 33 bis 36 °C liegen. Die Computermodelle der Klimaforscher versprechen, dass Kälteeinbrüche wie in der Vergangenheit wohl nicht mehr eintreten werden. (Frankfurter Allgemeine Zeitung, 12.05.2007)

Leider ignoriert das Wetter diese Prophezeiungen völlig, denn schon im Winter 2008/2009 forderten Eisregen und Schnee vom Norden bis in den Süden der USA 23 Todesopfer. Wieder kam es zu einem Verkehrschaos, rund 1,3 Millionen Privathaushalte und Geschäftskunden waren von der Stromversorgung abgeschnitten. (Leipziger Volkszeitung, 29. Januar 2009 und 02.02.2009; Frankfurter Allgemeine Zeitung, 30.01.2009)

Schon der Winter 2009/2010 schlug wieder zu: Bei einem massiven Wintereinbruch starben 16 Menschen, zumeist infolge des herrschenden Chaos auf den Straßen. Im Mittleren Westen mussten Regierungsgebäude, Schulen und Universitäten geschlossen werden. Dort lag eine fast ein Meter dicke Schneedecke. In Washington lagen bis zu 60 Zentimeter Schnee. Im Central Park in Man­hattan tummelten sich Skiläufer. Zu den Schneemassen kamen heftige Winterstürme, deren Stärke als außergewöhnlich eingeschätzt wurde. Flughäfen, darunter auch die von New York, mussten geschlossen werden. Die Temperaturen fielen bis auf minus 34 °C. In Dallas im eher warmen Texas wurde die erste weiße Weihnacht seit 80 Jahren registriert. Der bisherige Schneehöhen-Rekord in Oklaho­ma City, er stammt aus dem Jahr 1914, betrug sechs Zentimeter; Weihnachten 2009 wurde er mit 36 Zentimetern gebrochen. (Leipziger Volkszeitung, 11.12.2009 und 21.12.2009; Frankfurter Allgemeine Zeitung, 28.12.2009)

Im Winter 2013/2014 erlebte Nordamerika eine der schlimmsten Kältewellen der vergangenen Jahrzehnte mit bis zu minus 30 °C. Eisige Stürme führten zu gefühlten Temperaturen von bis zu minus 50 °C. Von den extremen Minustemperatu­ren waren mindestens 20 US-Bundes­staaten, vor allem im Mittleren Westen und im Nordosten betroffen. Auch den wärmeverwöhnten Südstaaten brachte die Kältewelle Schnee. In Minnesota mussten – erstmals wieder seit 1997 – zeitweise Schulen geschlossen werden. In New Orleans wurde den Notstand ausgerufen. Insgesamt gab es in den USA 24 Kälteopfer. Rund eine halbe Million Haushalte der USA waren zeitweilig von der Energieversorgung abgeschnitten. Tausende Flüge wurden gestrichen. In New York gab es innerhalb von sechs Wochen sechs Winterstürme. Sogar das UN-Hauptquartier schloss zeitweilig. Anfang Januar 2014 waren die Niagarafälle fast komplett zugefroren, was zuletzt 1936 geschehen war. Die Kältewelle im Dezember 2013 und Januar 2014 erfasste 240 Millionen US-Bürger. Man rechnet mit Schäden in Höhe von fünf Milliarden Dollar. (Leipziger Volkszeitung, 08.01.2014 und 15./16.02.2014; Frankfurter Allgemeine Zeitung, 06.01.2014 und 29.01.2014; Bild, 10.01.2014)

Auch im darauffolgenden Winter 2014/2015, dem bisher letzten, wurde Nordamerika von der Kältepeitsche nicht verschont. Im Februar 2015 wurden 180 Millionen Amerikaner von Neuengland bis Florida von der Kältewelle, verbunden mit riesigen Schneemassen, erfasst. Mit minus 17 °C meldete New York den kältesten 20. Februar seit Beginn der Wetteraufzeichnungen. Die Niagarafälle waren wieder teilweise gefroren. (Leipziger Volkszeitung, 21./22.02.2015)

Das alles wären noch vor einem halben Jahrhundert Meldungen gewesen, die man zwar mit Bedauern für die Betroffenen zur Kenntnis nimmt, aber anschließend wieder vergisst. Heute jedoch, im „Zeitalter der Klimaerwärmung“, die zudem noch angeblich vom Menschen selbst verursacht wird, erstaunen solche Nachrichten über extreme Kälteeinbrüche doch, zumal sie immer wieder auch vermeintlich sonnenverwöhnte Regionen betreffen. Neben den Südstaaten der USA sind das beispielsweise auch Mittelmeer-Anrainer.

Die Winterentwicklung der letzten Jahre in den USA erscheint unter dem Eindruck „wissenschaftlicher“ Aussagen über eine bevorstehende, sogar sehr starke, Erwärmung besonders brisant. Unmittelbar nach mehreren extrem kalten Wintern wurden von US-Wissenschaftlern Temperaturanstiege im Mittel von sechs Grad „versprochen“. Diese Aussage war – (klima-)politisch völlig korrekt – in erster Linie als Warnung vor der bevorstehenden überaus schädlichen Aufheizung der Welt, als Drohung, gedacht. Angesichts der vorausgegangenen außergewöhnlich kalten Winter wurde sie von den Menschen ganz im Gegenteil bestimmt als Hoffnungsschimmer gesehen.

Diese sechs Grad Erwärmung sollen allerdings erst nach etwa einem Dreivierteljahrhundert eintreten – dann wenn die Propheten mit Sicherheit nicht mehr für ihre Falschaussagen zur Verantwortung gezogen werden können. Aber sollte man nicht doch schon im ersten Jahrzehnt nach der „Heils-Versprechung“ wenigstens kleine Anzeichen einer Erwärmung erkennen können? Man kann es nicht! Bis jetzt hält sich das Wetter nicht an die „wissenschaftlichen“ Offenbarungen! Es ist aber noch viel Zeit bis 2080! Da können in den USA noch viele eisige Winter kommen, die dann – auf wundersame Weise – zu einer Erwärmung um sechs Grad hochgerechnet werden.

Anerkennen sollte man jedoch, dass die Forscher ihre Wahrsagungen an eine Bedingung geknüpft haben: An der USA-Ostküste wird es wärmer, „sollte sich der weithin beobachtete Klimawandel fortsetzen“ (FAZ 12.05.07). Wurde vergessen, dass sich der Klimawandel seit Milliarden Jahren pausenlos fortsetzt? Wenn die Herren aber einen „weithin beobachteten Klimawandel“ sehen, der – vom IPCC-verordnet – nur in Richtung Erwärmung verlaufen darf, dann haben sie wohl die letzten Winter in ihrer Heimat verschlafen. Der gewünschte Klimawandel setzte sich bisher nicht fort – das zeigen die Extremwinter der dem Orakel folgenden Jahre! Wieder einmal konnte ein vernichtendes Urteil über die „wissenschaftlichen“ Klimavorhersagen gefällt werden! 

„Es gibt zwei Arten von Leuten, die die  Zukunft  vorhersagen: jene, die nichts wissen, und jene, die nicht wissen, dass sie nichts wissen.“

John Kenneth Galbraith, Harvard-Ökonom (1908-2006)




Der Marsch in den grünen Energie-Kannibalismus

Für eine Industrienation mit einer hoch entwickelten Hightech-Industrie ist das Vorhaben „Energiewende“ geradezu atemberaubend. Der Blick auf Bild 1 (siehe Abb. rechts oben) zeigt, in welchem Umfang sich Deutschland früher bei der Sicherstellung einer zuverlässigen Stromerzeugung auf fossile und nukleare Verfahren gestützt hatte. Alle ans deutsche Stromnetz angebundenen Kraftwerke waren ausnahmslos bedarfsgerecht regelbar und hoch zuverlässig. „Erneuerbare“ Energieerzeugung in Form von Wasserkraft wurde bereits seit dem späten 19. Jahrhundert ausgebaut, doch sind in Deutschland aufgrund des Mangels an geeigneten Standorten die diesbezüglichen Möglichkeiten bereits seit den 60er Jahren des letzten Jahrhunderts weitgehend ausgereizt.

Bild 1 (rechts oben): Im Jahre 1990 befanden sich am deutschen Netz nahezu ausschließlich bedarfsgerecht regelbare und hoch zuverlässige Kraftwerke. Der Anteil der Wasserkraft lag bei rund 3,6 %

Ganz anders präsentierte sich der Status der Stromversorgung im Jahre 2014 nach etwa zwei Jahrzehnten massiver „grüner“ Einflussnahme auf die Energiepolitik, Bild 2. Vor allem im Gefolge der Ereignisse in Fukushima wurde die Gelegenheit genutzt, das Schicksal der Kernkraft endgültig zu besiegeln. Innerhalb weniger Monate wurden rund die Hälfte der noch verbliebenen Einheiten stillgelegt und für den Rest die gestaffelte vorzeitige Stilllegung bis zum Jahr 2022 festgelegt. Auf der anderen Seite hatte man seit den frühen 90ern und insbesondere ab 2000 den Ausbau der Energieerzeugung aus Wind, Sonne, Biomasse und Müllverbrennung so massiv gefördert, dass ihr Anteil – zusammen mit Wasserkraft – im Jahr 2014 einen Anteil von 25,8 % der gesamten Stromproduktion erreichte. Wichtigste Treiber dieser radikalen Transformation waren hohe, über 20 Jahre garantierte finanzielle Fördermaßnahmen sowie eine begleitende Gesetzgebung, welche die Netzbetreiber zwang, den gesamten von diesen privilegierten Einheiten erzeugten Strom – ungeachtet der aktuellen Situation am Markt – abzunehmen bzw. zu vergüten. Aufgrund der Überflutung der Strommärkte mit diesem subventionierten „grünen“ Strom brachen die Preise an den Strombörsen massiv ein. In der Folge wurden fossil befeuerte Kraftwerke mehr und mehr aus dem Markt gedrängt, während überschüssige Strommengen per Dumping zu negativen Preisen bei europäischen Nachbarländern entsorgt wurden, was massive Nachteile für die dortigen Stromproduzenten zur Folge hatte.

Bild 2. Nach etwas mehr als zwei Jahrzehnten „grüner“ Energiepolitik liegt der Anteil der „Stotterstrom“-Erzeuger Wind und Fotovoltaik bei inzwischen 14,4 %

Sinnloser Kapazitätsaufbau

Entscheidende Nachteile der dominierenden „erneuerbaren“ Energiequellen Wind und Fotovoltaik sind ihre systembedingte Unzuverlässigkeit im Verein mit ihren miserablen Nutzungsgraden von lediglich 17,4 % bei Wind- und 8,3 % bei Solarstrom. Das hat zur Folge, dass man, um die Produktion einer vorgegebenen Strommenge sicherzustellen, enorme Überkapazitäten aufbauen muss. Dies wiederum führt je nach Wetterlage zu riesigen Schwankungen der jeweils produzierten Strommengen. Deutschland wird daher gezwungen, ein doppeltes Stromversorgungssystem vorzuhalten: Einerseits grotesk überdimensionierte Kapazitäten an Wind- und Solarenergieanlagen und andererseits zusätzlich einen kompletten Satz fossil befeuerter Kraftwerke, die einspringen, wenn die „erneuerbaren“ wegen ungünstiger Wetterlage mal wieder schwächeln. Zu letzteren gesellen sich, zumindest noch für einige Jahre, die wenigen noch in Betrieb befindlichen Kernkraftwerke. Die Schwankungsbreite des „Stotterstroms“ aus den „erneuerbaren“ Quellen ist bekanntlich enorm: Bei einer installierten Nominalkapazität von rund 75.000 MW lieferten beide Quellen zusammen im Jahre 2014 im Minimum gerade mal 29 MW (!), während sie im Maximum 38.000 MW ins Netz pumpten. Da die „Energiewende“ für die Zukunft vor allem auf Wind- und Solaranlagen nebst ein wenig Wasserkraft setzt, hat der inzwischen erfolgte massive Aufbau entsprechender Kapazitäten bereits jetzt dazu geführt, dass beim Zusammentreffen niedrigen Verbrauchs und hoher Einspeisung von „erneuerbar“ erzeugtem Strom erheblichen Überkapazitäten im Netz auftreten können, Bild 3.

Bild 3. Kombinierte Kapazität „erneuerbarer“ Energieerzeuger im Jahre 2014. Die Balken für minimalen und maximalen Strombedarf (Mitte und rechts) kennzeichnen die typischen Grenzwerte der Gesamtabnahme im Netz je nach Wochentag und Tageszeit 

Ein genauerer Blick auf den Balken links im Bild 3 zeigt, dass die aufsummierte Kapazität aller „EE-Stromerzeuger“ inzwischen bereits rund 87.000 MW erreicht, was in etwa dem maximalen zu erwartenden Strombedarf im Netz entspricht. Zusätzlich ist noch zu berücksichtigen, dass zur Sicherstellung der Netzstabilität weiterhin zu jedem Zeitpunkt fossil befeuerte Kraftwerke mit einer Kapazität von rund 28.000 MW ins Netz einspeisen müssen. Rechnet man beides zusammen, so ist leicht zu erkennen, dass an Tagen mit schwacher Nachfrage und günstigen Bedingungen für Solar- und Windstromerzeugung das Risiko einer Überproduktion mit entsprechenden Konsequenzen für die Netzstabilität eintreten kann. Diese Gefahr wächst mit jeder neu hinzukommenden „erneuerbaren“ Anlage. Dabei beträgt die Zubaurate bereits jetzt 5.000 – 6.000 MW pro Jahr. Die Situation wird noch dadurch verschärft, dass die vorhandenen Pumpspeicherkapazitäten nicht annähernd ausreichen, um bei Überproduktion nennenswerte Mengen des zuviel erzeugten Stroms „wegzupuffern“, während zugleich Nachbarländer mit der Installation von Abwehrsystemen begonnen haben, um deutsche Dumpingattacken auf ihre Netze abzuwehren.

Der EE-Stromkannibalismus hat bereits begonnen…

Als Folge dieser Entwicklung bekommen wir jetzt allmählich Situationen im Netz, bei denen die Überproduktion aus „erneuerbaren“ Stromquellen so überhandnimmt, dass letztere sich gegenseitig den Platz im Netz streitig machen. Fossil befeuerte Kraftwerke sind durch den Preisverfall an den Börsen aufgrund des Überangebots subventionierten Stroms aus Wind- und Sonnenkraftwerken bereits so existenziell gefährdet, dass die Bundesregierung Stilllegungen inzwischen per Gesetz verhindert, selbst wenn die Betreiber Verluste einfahren. Inzwischen beginnen aber auch „klassische erneuerbare“ Sektoren wie z.B. Wasserkraftwerke ernsthaft unter diesem Konkurrenzdruck zu leiden, weil sie nicht nur preislich unter Druck geraten, sondern im Gegensatz zu Wind- und Sonnenkraftwerken keinen Einspeisevorrang genießen. Und dabei wird es diese Betreiber wenig trösten, dass mit dem forcierten weiteren Ausbau der per „Erneuerbarem Energiegesetz“ geförderten Stromerzeuger der Überlebenskampf jeder gegen jeden über kurz oder lang selbst bei dieser Gruppe einsetzen wird. Bereits heute werden die Betreiber von Kraft-Wärme-Kopplungsanlagen – auch eine eigentlich von der Politik gewünschte und geförderte Spezies – zeitweilig aufgefordert, wegen eines gerade herrschenden Überangebots von „Grünstrom“ ihre Anlagen zu drosseln.

Unter den „reinrassigen“ EEG-Anlagenkategorien dürften die Biomassekraftwerke die am stärksten gefährdete Gruppe darstellen. Grund hierfür ist die Tatsache, dass sie Lebensmittel wie Mais für die Stromerzeugung einsetzen. Diese „Strom-statt-Teller“-Philosophie schwächt ihre Akzeptanz unter ethischen Gesichtspunkten: Schließlich sehen wir derzeit einen stetig anschwellenden Flüchtlingsstrom von Menschen, die nicht zuletzt aufgrund des in ihren Ländern herrschenden Hungers und der dadurch ausgelösten Kriege ihr Leben riskieren, um das gelobte Land Europa zu erreichen. Daher liegt es nahe zu vermuten, dass die „Brotverheizer“ zu den ersten Opfern im künftigen Bruderkrieg der „neuen erneuerbaren“ Stromerzeuger untereinander gehören dürften. Doch auch nach dem Ausschalten dieser Konkurrenz wird den danach noch übrigen Hätschelkindern grüner Energiepolitik wohl nichts anderes übrigbleiben, als untereinander auszukämpfen, wem von ihnen bei zunehmender Überflutung der Netze mit „grünem“ Strom der Vorrang gebührt.

…und wird sich noch verschärfen

Normalerweise sollte man annehmen, dass eine mit solchen Tatsachen konfrontierte Regierung das Projekt „Energiewende“ an diesem Punkt stoppt, um zunächst abzuwarten, bis technisch wie wirtschaftlich vertretbare Technologien für die Speicherung großer Mengen zeitweiliger Strom-Überproduktion für den Ausgleich von Mangelsituationen die Entwicklung geworden sind. Doch für solche Technologien geeignete Ansätze konnten bisher trotz aller Bemühungen und des Einsatzes großer finanzieller Mittel nirgends ausfindig gemacht werden. Alle bisher vorgeschlagenen Systeme sind ungeeignet, weil sie entweder zu teuer sind oder ihre Wirkungsgrade jenseits von Gut und Böse liegen. Doch leider mangelt es deutschen Spitzenpolitikern – wie die Geschichte leidvoll bewiesen hat – öfters an der Fähigkeit zu erkennen, wann man sich so verrannt hat, dass man besser aufgeben sollte. Genau das erleben wir aktuell mit der Energiewende: Obwohl uns dieses Projekt insgesamt bereits mindestens 500 Mrd. € gekostet hat, bestehen alle maßgeblichen politischen Fraktionen eisern darauf, weiterhin gutes Geld hinter schlechtem herzuwerfen. Vermutlich bleibt ihnen nichts anderes übrig, weil sie ihr politisches Schicksal bereits zu sehr mit der Energiewende verknüpft haben, so dass das Eingeständnis eines Scheiterns einem politischen Selbstmord gleichkäme. Vermutlich deshalb hat die regierende Große Koalition lieber eine Augen-zu-und-durch-Haltung eingenommen und die Gangart auf dem Weg zu den 80 % „erneuerbarer“ Stromproduktion gegenüber den Zielen der vorherigen Regierung sogar nochmals beschleunigt.  

Unter Berücksichtigung der derzeit erkennbaren Hauptentwicklungsrichtungen der künftigen EE-Politik kann man begründete Mutmaßungen über die wahrscheinlichste künftige Aufteilung der Stromerzeugungsverfahren anstellen, siehe Bild 4. Da bisher erst knapp 26 % Gesamtanteil an der Erzeugung erreicht wurden und der Biomasseanteil von etwa 7 % vermutlich von der Politik früher oder später fallengelassen und durch Wind- und Sonnenkraft ersetzt wird dürfte, kann man sich leicht ausrechnen, welche gigantische Aufgabe noch vor uns liegen dürfte. 

Bild 4. Das offizielle Ziel der Bundesregierung ist ein Anteil von 80 % “erneuerbarer” Energien an der Stromerzeugung bis zum Jahre 2050. Die wahrscheinlichste Aufteilung der entsprechenden Technologien mit 67,5 % Wind, 8,1 % Fotovoltaik und 4,4 % „sonstigen“ lässt erahnen, welch ungeheure Aufgaben und Ausgaben noch auf uns zukommen werden

Spannung vor dem großen Finale

Die Umrisse der realen Risiken, die auf die deutsche Stromerzeugungsinfrastruktur zukommen werden, lassen sich klarer erkennen, wenn man sich den Aufbau nomineller Kapazitäten im Bereich Wind und Solar im Verlauf der letzten 5 Jahre im Vergleich zu dem bis 2050 voraussichtlich noch erforderlichen Zubau ansieht, Bild 5. Wenn man dann noch bedenkt, dass uns der derzeit erreichte Stand bereits rund 500 Mrd. € an bisher geleisteten und künftig noch fälligen Zahlungen gekostet hat, dann bekommt man eine Vorstellung davon, was da in den nächsten Jahrzehnten noch alles auf uns zukommen wird.

Bild 5. Allein schon der bis 2014 erfolgte Aufbau an Wind- und Solarkapazität (zuzüglich ca. 8.100 MW Biomassekraftwerke) hat den deutschen Verbraucher bisher bereits mit 500 Mrd. € belastet

Abgesehen von den geradezu ungeheuerlichen Kosten kommt dazu noch der oben bereits angesprochene Kannibalismus-Aspekt, der sich mit dem weiteren Ausbau noch zu ungeahnten Dimensionen auswachsen wird. Um dies zu verdeutlichen, braucht man sich nur vor Augen zu führen, dass im Jahre 2014 die kombinierte Kapazität an Wind- und Solarkraftwerken bei ca. 73.000 MW lag. In der Spitze lieferten diese eine Leistung von zusammen 38.000 MW ins Netz. Da im Jahr 2050 eine Gesamtkapazität von rund 376.000 MW installiert sein dürfte, könnten diese zusammen in der Spitze 196.000 MW in ein Netz einspeisen, das je nach Lastsituation nur zwischen 40.000 und 90.000 MW aufnehmen kann. Die von den „erneuerbaren“ Kraftwerken angebotene und nicht verwertbare Mehrleistung läge somit zwischen 106.000 und 156.000 MW. In solchen Situationen dürfte der Konkurrenzsituation zwischen den beiden Hauptfraktionen der „erneuerbaren“ Stromerzeugungstechnologien richtig interessant werden. Werden erboste Windbarone mit schweren Ackergeräten über Solarplantagen herfallen? Oder werden Solarkönige die Sprengung von Windenergieanlagen in Erwägung ziehen? Oder wird es ein chaotisches „jeder gegen jeden“ geben? Es werden noch Wetten entgegengenommen….

Fred F. Mueller