Top-Ökonom Hans-Werner Sinn: „Energiewende (führt) ins Nichts“ Teil 2

Wegen seiner falschen  Einschätzung der Klimafrage, versteift er sich auf die Kernkraft, als einzige Energiequelle, welche die CO2-freie Elektroenergie bereitzustellen gestattet. „Um sich nicht am Klima zu versündigen“ wie er in seiner Zusammenfassung hervorhebt!  Dass Kernkraft „CO2-frei“ produziert  ist richtig, doch stimmt es genauso, dass die mit CO2-Ausstoß verbundene Elektroenergie keinerlei Einfluss auf das Wettergeschehen und damit auf das Klima hat.

Sehen Sie hier den Vortrag von Prof.  Sinn und die fundierte Kritik an seinen Fehlbewertungen, die aber an der richtigen Schlußfolgerung, bezüglich der absurden EEG-Gesetzgebung nichts ändern.

Die Klimakatastrophe – oder können Korrelationen lügen?

Sinn behauptet am Beginn seines Vortrages dass es „zweifelsfrei“ bewiesen wäre, dass das anthropogene CO2 das Weltklima beeinflussen würde, in diesem Fall die globale Mitteltemperatur gefährlich nach oben verschöbe. Als Beweis für diesen „zweifelsfreie“ Feststellung, zeigt er den sehr synchronen Verlauf  über lange Zeiträume von Temperaturwerten und CO2 Konzentration, wie man sie  aus der Untersuchung von  Eisbohrkernen gewinnen kann. Für den einfachen Zuhörer, zumal, wenn von einem bekannten Professor – wenn auch aus dem  fachfremden Gebiet der Ökonomie- vorgetragen, erhalten diese Aussagen das Gewicht von Tatsachen. Allerdings kann man mit gleicher „Zweifelsfreiheit“ behaupten, dass „nachweislich“ die Störche die Babys brächten. Denn deren Populationskurven, sowohl die der Störche über der Zeit, wie auch der Geburten über derselben Zeit, zumindest in unserem Lande, zeigen einen ähnlich synchronen (eng korrelierten) Verlauf. Sie nehmen beide ab. Danach wäre in Anwendung der  H.W. Sinn´schen Beweisführung der zweifelsfreie Beweis erbracht dass die Störche die Babys bringen. Wir wissen alle, dass dem nicht so ist. Und Prof. Sinn weiß das sicher auch, ebenso wie er mit Sicherheit weiß, dass eine vorhandene Korrelation zwischen zwei Prozessgrößen im besten Fall ein Hinweis auf eine bestehende Ursache-Wirkungsbeziehung sein kann, aber den Nachweis dieser  in keinem Fall ersetzt. Warum er diese wichtige unumstrittene Tatsache nicht nur völlig ausgelassen hat, sondern durch das Adjektiv „zweifelsfrei“ sogar noch verstärkend ins Gegenteil verkehrt hat, bleibt unerklärlich. Einem Ökonomieprofessor der sich tagtäglich mit Ökometrie und deren mathematischen Methoden herumschlägt, hätte solch ein dicker Fehler einfach nicht passieren dürfen. Auch deswegen nicht, weil Prof. Sinn viele Male – auch von EIKE (siehe Anhang)- auf diese Situation hingewiesen wurde.

Abb. 1 Temperatur und CO2 Konzentrationsverlauf der letzten 450.000 Jahre im Bohrloch der Antarktis : Zunächst steigt die Temperatur, ca. 500 bis 800 Jahre später CO2 !

Aber es kommt noch schlimmer. Eben die von H.W. Sinn angeführten Eisbohrkern-Proxies zeigen bei höherer Auflösung immer wieder, dass die CO2-Konzentrationsänderung der Temperaturänderung nacheilt. Im Schnitt um ca. 800 Jahre. Und im Gegensatz zur nur postulierten Treibhauswirkung des CO2, gibt es dafür auch einen wohlbekannten physikalischen Prozess. Nämlich die altbekannte und völlig unbestrittene Tatsache, dass warmes Wasser weniger CO2 lösen kann, als kaltes Wasser. Dieser „Sprudeleffekt“ kann jeden Tag aufs Neue von jedem Interessierten ohne großen Aufwand überprüft werden, z.B. im Mineralwasser. Dass Sinn ihn nicht kennt, oder nicht für nötig erachtet ihn zu erwähnen, verwundert.

Wie lange bleibt CO2 in der Atmosphäre ?

Im letzten Teil seines Vortrages behauptet Sinn, dass sich das anthropogene CO2 in der Atmosphäre anreichere, und dort erst nach ca. 300 Jahren wieder in den Kreislauf zurückkehre. Nun, das sind die Behauptungen, die auch das IPCC verbreitet, um die Anreicherungstheorie und damit den Einfluss der Minimengen, die das fossil erzeugte CO2 ausmachen, in die richtige Größenordnung zu bringen. Doch auch diese Behauptung ist seit langem widerlegt. Andere Wissenschaftler, die sich ohne „der Mensch ist schuld am Klimawandel“-Brille mit der Frage nach der Verweilzeit des CO2 in der Atmosphäre beschäftigen, kommen zu ganz anderen, wesentlich kürzen Zeiten. Peter Dietze berechnete, gut begründet, nur knapp 40-50 Jahre. Fred Goldberg[1],[2] vom schwedischen Polarinstitut, Tom Segalstad[3] von der Uni-Oslo und auch Robert H. Essenhigh[4] von der Ohio State University, sowie der viel zu früh verstorbene Ernst Georg Beck, ermitteln nur rd. 5 bis 7 jedenfalls deutlich kleiner < 10 Jahre.

Bedeutung bekommt diese Aussage zur Dauer der Verweilzeit, weil sie das Argument von H-W. Sinn ad Absurdum führt, dass sich das anthropogen erzeugte CO2 in der Atmosphäre dauerhaft anreichere. Er benutzt es aber, um den Zuhörern klar zu machen, dass der Einsatz von fossilen Energieträgern zur „Versündigung am Klima“ führe. Welch absurder aber trotzdem weithin akzeptierter Gedanke!

Obwohl dies nur ein Nebenaspekt in der Klimadebatte ist, zeigt er doch deutlich, dass zumindest in der Klimafrage Prof. Sinn nicht auf der wissenschaftlichen Höhe der Zeit ist. Seine Aussagen sind in diesem Zusammenhang einfach falsch.

Ähnlich sieht es aus, wenn man seine Betrachtungen zur notwendigen Verfügbarkeit von elektrischer Energie anschaut. Prof. Sinn geht von mindestens 99 % aus, und unterstellt auch, dass Windenergie eine Grundlast von ca. 1/7 der im Jahre 2011 installierten effektiven Leistung von rund 7 GW zu liefern im Stande sei. Beides ist nicht haltbar, weil viel zu optimistisch, wie der Elektrotechnik Professor Helmut Alt ihm in seinem Brief, den Sie im Anhang finden, nachweist.

Trotzdem ist Prof. Sinn Dank zusagen für seinen mutigen Vortrag mit der, bezüglich der „Energiewende in Nichts“, richtigen Konsequenz, die längst hätte Allgemeingut an deutschen Universitäten und Hochschulen hätte sein müssen.


[1] Goldberg: Studies of the temperature anomalies during the last 25 years show a close relationship with the varying increase rates of CO2 in the atmosphere. This close relationship strongly indicates that ocean temperatures and the solubility of CO2 in seawater controls the amount of CO2 being absorbed or released by the oceans. Engelbeen in einer mail an Goldberg: True, be it that the rate of increase/decrease is about 10 ppmv/°C for long-term trends and about 4 ppmv/°C for short term changes (like the Pinatubo or El Niño)

[2] Goldberg: During 1991-1992, a global cooling due to the volcanic eruption of Pinatubo was recorded. The same periodshowed the smallest increase of CO2 concentration in the atmosphere during the last 27 years. During 1991 and 1992 the total CO2 increase was 1,46 ppmv which corresponds to 3 Gton C. During the same period the human emission of CO2 was approx 12,5 Gton C. Where did the other 9,5 Gton C plus the emissions from Pinatubo go? They have gone into the oceans due to the cooling of the water surface corresponding to the natural forces securing an equilibrium between CO2 in the atmosphere and in the oceans. (Chapter 1.) dt, Bate, R. (Ed.): “Global Warming: The Continuing Debate“, European Science and Environment Forum (ESEF), Cambridge, England (ISBN 0-9527734-2-2), pages 184-219, 1998.

[3] Segalstad, Tom: Carbon cycle modelling and the residence time of natural and anthropogenic atmospheric CO2: on the construction of the „Greenhouse Effect Global Warming“ dogma. http://folk.uio.no/tomvs/esef/ESEF3VO2.htmund hier im Interview: http://www.financialpost.com/story.html?id=433b593b-6637-4a42-970b-bdef8947fa4e. „The IPCC needs a lesson in geology to avoid making fundamental mistakes,“ he says. „Most leading geologists, throughout the world, know that the IPCC’s view of Earth processes are implausible if not impossible.“ und „Until recently, the world of science was near-unanimous that CO2 couldn’t stay in the atmosphere for more than about five to 10 years because of the oceans‘ near-limitless ability to absorb CO2.“

[4] Potential Dependence of Global Warming on the Residence Time (RT) in the Atmosphere of Anthropogenically Sourced Carbon Dioxide Robert H. Essenhigh*

Related Files




SMR Teil 3 — Innovative Reaktoren

Zwar ist die Wärmeerzeugung immer noch mit großem Abstand die überragende Energieanwendung, aber nur ein geringer Bedarf entfällt davon auf Hochtemperatur-Wärme (chemische Prozesse). Die “Endlichkeit” von Kohle, Öl, Erdgas und Uran hat sich längst als Wunschtraum unbelehrbarer Anhänger der Planwirtschaft erwiesen. Längst ist man daher in diesen Kreisen auf eine indirekte Verknappung (Klimaschutz – wir dürfen gar nicht so viel fossile Brennstoffe nutzen, wie wir zur Verfügung haben) umgestiegen. Es lohnt sich nicht, sich damit weiter auseinander zu setzen. Für diese Betrachtungen reicht folgender Zusammenhang vollständig aus:

Energieverbrauch und Wohlstand sind die zwei Seiten ein und derselben Medaille. Wer das Recht aller Menschen auf ein Mindestmaß an Wohlstand anerkennt, muß von einem weiter steigenden Energiebedarf ausgehen. Oder andersherum ausgedrückt: Wer eine Senkung des Energieverbrauches fordert – wie es scheinbar immer populärer wird – will die Armut für den größten Teil der Menschheit weiter festschreiben.

Mit fortschreitender Entwicklung steigt der Verbrauch elektrischer Energie überproportional an. Der für eine zuverlässige und kostengünstige Stromversorgung einzusetzende Primärenergieaufwand, steigt damit weiter an. Ersetzt man die hierfür notwendigen Mengen an Kohle und Erdgas durch Kernenergie, bekommt man mehr als genug dieser Energieträger frei, um damit Industrie und Transportsektor zu versorgen. Die USA führen diesen Weg mit der Erschließung unkonventioneller Öl- und Gasvorkommen – bei gleichzeitigem Ausbau der Kernkraftwerke – eindrucksvoll vor.

Hat man diesen Zusammenhang verstanden, wird auch die Entwicklung der “kleinen” Reaktoren in den nächsten Jahrzehnten vorhersagbar. Das Streben nach “hohen Temperaturen” hat durch die Entwicklung des Erdgasmarktes (außerhalb Deutschlands!) an Bedeutung eingebüßt. Erdgas – egal aus welchen Vorkommen – ist der sauberste und kostengünstigste Brennstoff zur Erzeugung hoher Temperaturen und zur Gewinnung von Wasserstoff. Zur Stromerzeugung eigentlich viel zu schade!

Das Argument des geringeren Uranverbrauches durch Reaktoren mit höherer Temperatur ist ebenfalls nicht stichhaltig: Die Uranvorräte sind nach menschlichen Maßstäben unerschöpflich und der Minderverbrauch durch höhere Wirkungsgrade wiegt den wirtschaftlichen Mehraufwand bei weitem nicht auf. Ein Anhaltspunkt hierfür, bietet die Entwicklung bei Kohlekraftwerken: Sie liegt heute noch in Regionen mit“billiger” Kohle eher in der Größenordnung von Leichtwasserreaktoren (ungefähr 33 %) als bei deutschen und japanischen Steinkohlekraftwerken (fast 46 %). Bis Uran so teuer wird, daß sich eine Wirkungsgradsteigerung um 40 % wirtschaftlich lohnt, dürften eher Jahrhunderte, als Jahrzehnte vergehen. Damit dürften alle Hochtemperaturreaktoren eher Nischenprodukte bleiben, was aber gerade dem Gedanken einer Serienproduktion widerspricht. Gleiches gilt auch für sog. “Schnelle Brüter”.

Gleichwohl sind einige gasgekühlte Reaktoren und Reaktoren mit schnellen Neutronen in der Entwicklung. Diese Prototypen sollen im Folgenden etwas näher vorgestellt werden

NPMC-Reaktor

National Project Management Corporation (NPMC) hat zusammen mit dem Staat New York , der City of Oswego und der Empire State Development einen Antrag auf Förderung für einen heliumgekühlten Kugelhaufen-Reaktor mit 165 MWel eingereicht. Dem Konsortium hat sich National Grid UK, die New York State Energy Research Development und die Pebble Bed Modular Reactor (PBMR) of South Africa angeschlossen.

Eingereicht wurde ein Gas Turbine Modular High-Temperature Reactor (GT-MHR). Die Entwicklung beruht auf dem in Deutschland entwickelten THTR-Reaktor. Sie wurde in Südafrika fortgesetzt. Anders als in Deutschland und China, wollte man aber nicht einen konventionellen Dampfkreislauf sekundärseitig verwenden, sondern wollte zur Stromerzeugung eine Gasturbine einsetzen. Die Entwicklung eines solchen geschlossenen Gasturbinen-Kreisprozesses mit Helium als Arbeitsmittel überstieg aber bei weitem die wirtschaftlichen Möglichkeiten Südafrikas, was letztendlich zur Aufgabe führte.

Eine Gasturbine hat so hohe Austrittstemperaturen, daß problemlos eine trockene Kühlung mit Außenluft möglich wird. Die Schwierigkeit in den Verbrauchsschwerpunkten in Südafrika ist die Bereitstellung von ausreichend Kühlwasser. Unter dem Wassermangel leiden dort alle konventionellen Kraftwerksprojekte (hauptsächlich Kohle). In New York gibt es zwar genug Wasser, aber die (angebliche) Umweltbelastung durch Kühlwasser ist der Hauptansatz gegen die vorhandenen und geplanten Kernkraftwerke. Nichts desto trotz, könnten SMR mit geschlossenen Gasturbinen ein Modell für die dezentrale Versorgung in zahlreichen ariden Gebieten auf der Welt sein.

China verfolgt ebenfalls konsequent den Kugelhaufen-Hochtemperatur-Reaktoren weiter. Allerdings sind alle in Bau und Planung befindlichen Kraftwerke mit konventionellen Dampfkreisläufen ausgerüstet

Energy Multiplier Module (EM2)

Auch General Atomics (GA) hat ein Gas-Turbine Modular Helium Reactor (GT-MHR) Konzept mit 265 MWel eingereicht. Man geht aber nicht von einem Kugelhaufen (siehe oben), sondern von hexagonalen Prismen als Brennelementen aus. Basis ist ein eigenes Modell aus den 1980er Jahren. Das Modul soll bei einer thermischen Leistung von 500 MWth komplett und fertig mit Brennstoff beladen, auf einem LKW zur Baustelle transportiert werden. Die Austrittstemperatur des Heliums soll (extrem hohe) 850 °C betragen. Damit wäre der Einsatz als Wärmequelle in der Verfahrenstechnik, bis hin zur thermischen Wasserstoffproduktion, denkbar. Ein Turbosatz mit hoher Drehzahl wird auf einem zweiten LKW angeliefert. Die Gasturbine und der angeschlossenen Generator laufen mit mehreren 10.000 Umdrehungen pro Minute. Die Umwandlung der elektrischen Energie in “netzfähigen Strom” erfolgt über elektronische Umformer. Bei der eingereichten Variante handelt es sich um ein reines Kraftwerk zur Stromerzeugung. Im Begleittext wird betont, daß dieser Reaktor lediglich die Abmessungen eines “Schulbusses” hätte. Hinzu käme ein etwa gleich großes Modul für den Turbosatz. Insofern wäre die Leistungsdichte (umbauter Raum) konkurrenzlos gering. Wegen der hohen Austrittstemperatur hätte dieses Kraftwerk einen elektrischen Wirkungsgrad von 53 %. Das Kraftwerk käme mit Luftkühlung aus und wäre damit äußerst flexibel einsetzbar. Durch den hohen Wirkungsgrad und seine neutronenphysikalischen Eigenschaften, wäre selbst ohne Wiederaufbereitung der “Atommüll” um 80% geringer, als bei üblichen Reaktoren.

Noch innovativer als der Turbosatz, ist das Brennstoffkonzept: Der Reaktor wird in der Fabrik mit Brennstoff beladen und komplett nach 30 Jahren Laufzeit wieder in die Fabrik zurückgeliefert. Das ganze ähnelt also eher einer Batterie, als einem klassischen Kraftwerk. Dieses Konzept würde die gesamte Stromversorgung revolutionieren. Ein “Energieversorger” mietet sich quasi für 30 Jahre eine “Stromerzeugungseinheit” und gibt diese nach Gebrauch komplett wieder zurück. Durch die speziellen Sicherheits- und Betriebsanforderungen löst sich auch das Problem der Personalkosten: Verkleinert man einfach heutige Reaktorkonzepte, steigt der spezifische Personalaufwand stark an. Das ist leider die Umkehrung der Betriebskostendegression mit zunehmender Kraftwerksgröße. Die Kombination aus geringen Investitionskosten, kaum Betriebskosten, kaum Netzkosten, keine “Atommüllprobleme”…, könnte einen ähnlichen Quantensprung, wie die Einführung des PC in der Datenverarbeitung auslösen. Davon dürften sicherlich nicht alle begeistert sein!

Die Brennelemente besitzen eine Umhüllung aus einem Siliziumcarbid-Faser-Verbundwerkstoff. Das Material verträgt Temperaturen von weit über 2000 °C und reagiert wegen seiner keramischen Eigenschaften praktisch nicht mit Luft und Wasser. Der Brennstoff ist inhärent sicher und selbstregelnd: Steigt die Temperatur zu stark an, bricht die Kettenreaktion in sich zusammen (Dopplereffekt). Auch die Nachzerfallswärme kann dem Brennstoff praktisch nichts anhaben, da er sich gefahrlos so weit aufheizen kann, daß schon die Wärmeabgabe durch Strahlung (Kühlmittelverluststörfall) dauerhaft ausreicht. Dieses Verhalten ist unzählige male experimentell bestätigt worden.

Jeder Reaktor wird erstmalig mit etwa 20 to abgebranntem Brennstoff aus Leichtwasserreaktoren oder abgereichertem Uran beladen. Hinzu kommt als “Starter” rund 22 to auf 12% angereichertes Uran. Nach 30 Jahren Betriebszeit werden in einem speziellen Aufbereitungsprozess die entstandenen etwa 4 to Spaltprodukte entfernt und durch 4 to abgebrannten Brennstoff aus Leichtwasserreaktoren ergänzt.

General Atomic ist eines der führenden Unternehmen (nicht nur) der Kerntechnik. Am bekanntesten dürften die weltweit gelieferten 66 TRIGA-Reaktoren (Training, Research, Isotopes, General Atomic) sein. Zusätzlich gehören zu dem Bewerbungskonsortium noch zwei der weltweit führenden Anlagenbauer: CB&I und Mitsubishi Heavy Industries und die Mutter der schnellen Reaktoren und der Wiederaufbereitung: Das Idaho National Laboratory (INL). Es fehlt also nicht an Kapital und Sachverstand. Größte Hürde dürfte das NRC mit seinem “unendlichen” Genehmigungsverfahren sein. Aber auch auf dem Sektor des Bürokratismus bewegt sich in den USA etwas: Nicht nur, wegen der Drohkulisse, die China am Horizont aufbaut.

PRISM

Ein weiterer “schneller” Reaktor, aber mit Flüssigmetallkühlung, ist der von General Electric und Hitachi Nuclear Energy (GEH) propagierte Power Reactor Innovative Small Module (PRISM). Es handelt sich ebenfalls um einen vollständig vorgefertigten und transportierbaren Reaktor, mit einer thermischen Leistung von 840 MWth und 311 MWel . Es ist geplant, je zwei solcher Einheiten auf einen konventionellen Turbosatz (typisches Kohlekraftwerk) mit 622 MWel zusammenzuschalten.

Das PRISM-Konzept bricht ziemlich radikal mit der heutigen Nutzung der Kernenergie und ihrem Brennstoffkreislauf. Es senkt konsequent den Einsatz von Natururan und entlässt als Abfall wesentlich geringere Mengen mit deutlich kürzerem Gefährdungszeitraum. Um dieses Ziel zu erreichen, ist nicht nur der Übergang auf “schnelle” Neutronen nötig, sondern auch auf einen völlig neuen Brennstoffkreislauf. Durch die Verwendung von Neutronen mit hoher Energie (hoher Geschwindigkeit) kann man praktisch alle Aktinoide spalten – allerdings um den Preis einer geringeren Wahrscheinlichkeit. Man braucht deshalb eine wesentlich höhere Konzentration von U235 bzw. Pu239 um überhaupt eine Kettenreaktion in Gang setzen zu können. Außerdem muß man auf Wasser als Kühlmittel verzichten. Ein in diesem Sinne ideales Kühlmittel, ist das Metall Natrium. Geht man auf ein flüssiges Metall als Kühlmittel über, macht es Sinn, auch den Brennstoff in metallischer Form zu verwenden. Eine Legierung aus Uran, Zirconium und – gegebenenfalls allen möglichen – Transuranen, hat sich als besonders geeignet erwiesen. Wenn man aber schon einen Brennstoff in metallischer Form vorliegen hat – und keinerlei Ambitionen hegt, Kernwaffen zu bauen – bieten sich die erprobten Verfahren der Elektrometallurgie (Aluminium-, Kupferproduktion etc.) an. Vereinfacht gesagt, löst man den zerstückelten “abgebrannten” Brennstoff in geschmolzenem Lithiumchlorid auf und legt eine Spannung von 1,34V an. Nun wandert das Uran und alle sonstigen Aktinoide zur Kathode und scheiden sich dort ab. Die Spaltprodukte bleiben im Lithiumchlorid zurück. Die Kathode wird eingeschmolzen und daraus neue Pellets hergestellt. Diese werden in Stahlrohre (H9) gesteckt, mit flüssigem Natrium zur besseren Wärmeleitung ausgegossen und mit einem Gaspolster aus Helium versehen, zu einem neuen Brennstab verschweißt. Im Prinzip ist diese Technik so simpel und automatisierter, daß sie in ein (größeres) Kraftwerk integriert werden könnte. Die übrig geblieben Spaltprodukte – etwa 1 kg für jedes 1 MWel produziert über ein ganzes Jahr – kann man “irgendwo” lagern, da sie nach wenigen hundert Jahren auf die Intensität des ursprünglichen Uranerzes abgeklungen sind – also die Gefahr, wieder voll und ganz, natürlich ist.

Sicherheitstechnisch betrachtet, hat sich dieser Reaktortyp als äußerst gutmütig erwiesen. Selbst, wenn man alle Regelstäbe voll gezogen hatte, regelte er sich selbst herunter, da durch den starken Temperaturanstieg die nukleare Kettenreaktion unverzüglich zusammenbricht. Für die Leistungsregelung gibt es Regelstäbe aus Borkarbid (B4C). Zusätzliche Regelstäbe hängen an Magneten. Fällt der Strom aus oder geht der Magnetismus infolge zu hoher Temperaturen verloren, fallen sie in den Reaktor und stellen ihn dauerhaft ab.

Allerdings hat Natrium einen entscheidenden Nachteil: Es reagiert sowohl mit Luft als auch mit Wasser sehr heftig. Deshalb sind der Reaktorkern, die zwei Wärmeübertrager und die vier elektromagnetischen Pumpen (ohne rotierende Teile) alle zusammen in einem mit Natrium gefüllten Topf eingebettet. Dieses Gefäß ist zusammen mit dem Sicherheitsbehälter am Deckel fest verschweißt. Sowohl das Reaktorgefäß, wie auch der Sicherheitsbehälter haben keine Durchbrüche. Die etwa 20 cm Zwischenraum und der Arbeitsraum über dem Deckel sind mit Argon – unter leichtem Überdruck zur Kontrolle auf etwaige Leckagen – befüllt. Da Natrium durch Neutronenbeschuß strahlend wird (Halbwertszeit etwa 1 Minute), wird die Wärme durch die Wärmeübertrager im Reaktorgefäß an einen zweiten Kreislauf mit Natrium übertragen. Dieses Natrium ist nicht radioaktiv und wird ständig überwacht. Das Natrium gelangt durch Rohr in Rohr Leitungen zum überirdischen Dampferzeuger. Der Dampferzeuger ist ein hoher, zylindrischer Behälter, der vollständig mit Natrium gefüllt ist. In diesem Behälter verlaufen schraubenförmige Rohrleitungen, in denen das Wasser zum Antrieb der Turbine verdampft wird. Im Normalbetrieb sorgen zwei elektromagnetische Pumpen für die Umwälzung des Natriums. Zur Abführung der Nachzerfallswärme nach Abschaltung des Reaktors, würde der sich einstellende Naturumlauf ausreichen. Wegen der vorliegenden Temperaturspreizungen (Kerneintritt: 360 °C, Kernaustritt: 499 °C, Dampferzeuger Eintritt: 477 °C, Austritt 326 °C) besteht ein ausreichend großes Sicherheitsgefälle.

Der Reaktor benötigt keinerlei elektrische Energie nach einer Schnellabschaltung. Ein Unglück wie in Fukushima ist daher ausgeschlossen. Die Nachzerfallswärme kann auf drei Wegen abgeführt werden:

1.     Über einen Bypass der Turbine, über den normalen Dampfkreislauf des Kraftwerks.

2.     Zwischen dem Dampferzeuger und seiner Isolierung befindet sich ein Luftspalt. Ist der Weg 1 nicht möglich (z. B. Bruch einer Dampfleitung), kann über den Naturzug die Wärme an die Umgebung abgegeben werden.

3.     Zwischen Sicherheitsbehälter und Betongrube befindet sich ebenfalls ein Luftspalt. Dieser ist mit Abluftkaminen oberhalb der Erde verbunden. Die durch die Nachzerfallswärme des Reaktors aufgeheizte Luft kann in diesen aufsteigen und wird durch nachströmende kühle Umgebungsluft ersetzt (Reactor Vessel Auxiliary Cooling System RVACS).

Anders, als bei Leichtwasserreaktoren, werden die abgebrannten Brennelemente nicht in einem separaten Brennelementelagerbecken gelagert, sondern verbleiben mindestens für einen weiteren Zyklus (Ladezyklus 12 bis 24 Monate, je nach Betriebsweise) im Reaktorbehälter. Dazu entfernt die automatische Lademaschine das gewünschte Brennelement, ersetzt es durch ein neues und stellt das alte zur Zwischenlagerung in das “obere Stockwerk” des Reaktorbehälters. Erst, wenn die Brennelemente zur Wiederaufbereitung sollen, werden sie von der Lademaschine aus dem Reaktor gezogen, gereinigt und übergeben. Sie sind dann bereits soweit abgekühlt, daß sie problemlos “an die Luft können”, da die Brennstäbe aus Stahlrohren gefertigt sind.

Neu, ist die ganze Technik überhaupt nicht. Allein der Experimental Breeder Reactor EBR-II hat 30 Jahre erfolgreich gelaufen. Wenn sich jetzt mancher fragt, warum solche Reaktoren nicht längst gebaut werden, ist die Antwort einfach: Wir haben einfach noch nicht genug von dem, was “Atomkraftgegner” als “Atommüll” bezeichnen! Eine Serienproduktion macht wirtschaftlich nur Sinn, wenn die Stückzahl ausreichend groß ist. Dieser Reaktor braucht zur Inbetriebnahme 11% bis 17% spaltbares Plutonium und kann 18% bis 23% Transurane vertragen. Um 100 Reaktoren erstmalig zu befüllen, benötigt man daher geschätzt 56.000 bis 70.000 Tonnen Schwermetall in der Form abgebrannter Brennelemente aus Leichtwasserreaktoren. Es ist jetzt der richtige Zeitpunkt, mit Planung und Bau eines Prototypen zu beginnen. Diesen kann man gut mit “Bomben-Plutonium” aus der Abrüstung oder bereits vorhandenem Plutonium aus Wiederaufbereitungsanlagen bauen. Die Zeit läuft nicht weg: Natururan ist noch billig und je länger die abgebrannten Brennelemente lagern, um so einfacher lassen sie sich aufbereiten. Geht man von kostenlos erhältlichem “Atommüll” aus – manche meinen ja sogar, man benötige ein Milliarden teueres Endlager für abgebrannte Brennelemente – liegen die kompletten Brennstoffkosten (einschließlich geologischem Lager für die Spaltprodukte) für diesen Reaktortyp weit unter 1/2 Cent pro kWh elektrischer Energie. Spätestens jetzt sollte jedem klar sein, warum man die abgebrannten Brennelemente so sorgfältig in so aufwendigen Behältern verpackt “zwischenlagert”. Sehen so Mülltonnen aus? Die Lagerhalle von Gorleben beispielsweise, ist eher ein Goldschatz.

ALFRED

Das einzige europäische Projekt ist der Advanced Lead Fast Reactor European Demonstrator (ALFRED). Er wird zur Zeit von dem Konsortium aus ENEA und Ansaldo Nuclear aus Italien und der rumänischen ICN verfolgt. Es wird auch Fostering Alfred Construction FALCON genannt. Die über 1 Milliarde Euro Kosten, sollen wesentlich von der EU, aus verschiedenen Töpfen aufgebracht werden. Der Standort soll in Mioveni in der Nähe von Pitesti in Rumänien sein. Baubeginn ist für 2017 und eine Fertigstellung bis 2025 gedacht. Er soll eine Leistung von 125 MWel bei 300 MWth haben. Es ist wohl eine reine Demonstrationsanlage. An eine Serienfertigung ist eher nicht gedacht.

Die Verwendung von Blei als Kühlmittel, ist ein Abfallprodukt der europäischen Entwicklung eines, durch einen Beschleuniger angetriebenen, unterkritischen Reaktors. Zum Betrieb eines “schnellen” Reaktors ist Blei ein eher exotisches Kühlmittel. Alle anderen Nationen verwenden ein Eutektikum aus Blei-Bismut als Kühlmittel. Die längste – und negativste Erfahrung – mit Blei und Blei-Bismut hat Rußland. Dort wurden sie zum Antrieb von Atom-U-Booten der sog. Alpha-Klasse in den 1950er Jahren entwickelt. Wegen ständiger Schäden – bis hin zum Totalverlust – verwendet auch die russische Marine inzwischen Leichtwasserreaktoren.

Als Vorteil von Blei bzw. Blei-Bismut werden immer wieder gerne, folgende Vorteile plakativ in den Vordergrund gestellt:

·       Blei reagiert nicht mit Wasser (gemeint ist, im Gegensatz zu Natrium) und es könnten daher die Dampferzeuger angeblich gefahrlos im Reaktorgefäß integriert werden.

·       Sehr hohe Siedetemperatur (1745 °C) bei sehr geringem Dampfdruck. Daraus wird ein günstiger Blasenkoeffizient der Reaktivität abgeleitet, der einen angeblichen Sicherheitsvorteil ergibt.

·       Blei wäre ein besonders schlechter Moderator und besässe besonders kleine Absorptionsquerschnitte.

Ansonsten fallen einem leider nur Nachteile ein:

·       Blei wird überhaupt erst bei 327 °C flüssig. Darum haben die Russen von Anfang an, mit einem Eutektikum aus Blei und Bismut (Schmelzpunkt 124 °C) gearbeitet. Wartungs- und Inspektionsarbeiten bei so hohen Temperaturen sind Neuland. Der Reaktor muß ständig beheizt werden. Es gibt den neuen Störfall “(lokale) Unterkühlung” mit entsprechenden Konsequenzen für das Genehmigungsverfahren.

·       Flüssiges Blei ist korrosiv. Die Russen haben dieses Problem nie so richtig in den Griff bekommen. Die Wege über den Sauerstoffgehalt und Beschichtungen waren nicht zielführend – ein überhöhter Verschleiß (Lebensdauer) ist die Folge. Darüber hinaus, ist flüssiges Blei auch noch abtragend. Die Strömungsgeschwindigkeit muß deshalb klein gehalten werden.

·       Durch die grosse Masse des Bleis im Reaktor, sind besondere Schutzmaßnahmen gegen Erdbeben notwendig.

·       Durch die hohe Dichte des Bleis werden die Regelstäbe von unten eingeschwommen (völlig neues Prinzip, Genehmigungsverfahren) oder von oben pneumatisch eingeschossen (nicht passiv).

·       Als Brennstoff sind Uranoxid oder Urannitrid vorgesehen. Wegen der, gegenüber metallischen Brennstoffen schlechten Wärmeleitung, besteht (wieder) die Gefahr der (lokalen) Kernschmelze. Der Effekt einer inhärenten Sicherheit scheint nur schwer nachweisbar. Eine Kühlung über unterkühltes Blasensieden (wie auch in jedem Druckwasserreaktor) scheidet durch den hohen Siedepunkt (der ja immer als Vorteil bezeichnet wird) aus.

·       Bisher gibt es bei ALFRED kein echtes Notkühlsystem. Die Nachzerfallswärme müßte immer über die innenliegenden Dampferzeuger abgeführt werden. Der Nachweis, auch nach einer physikalischen Dampfexplosion oder eines abschnittsweisen Verstopfens durch Einfrieren, dürfte sich schwierig gestalten.

Bis ein mit flüssigem Blei gekühlter Reaktor in einem westlichen Land genehmigungsfähig ist, dürften noch Jahrzehnte Forschungs- und Entwicklungsarbeit nötig sein. Insofern dürften sie außerhalb der Konkurrenz mit anderen SMR-Entwürfen stehen. Manchmal fragt man sich wirklich, warum sich manche Kerntechniker immer selbst im Wege stehen müssen. Man könnte fast sagen: Gott schütze uns vor diesen Forschern, mit den “Atomkraftgegnern” werden wir schon selber fertig.

Vorläufiges Ende

Hier ist das vorläufige Ende des Drei-Teilers erreicht. Es wurden die im derzeitigen Rennen um Förderung für SMR vorne liegenden Typen vorgestellt. Was noch fehlt, wären z. B. der Super-Safe, Small and Simple, 4S von Toshiba; die Encapsulated Nuclear Heat Source ENHS; der Flibe Energy Salzbadreaktor; der International Reactor Innovative & Secure IRIS Druckwasserreaktor; der Purdue Novel Modular Reactor PNMR Siedewasserreaktor; der Travelling Wave Reactor TWR; der ANTARES von Areva, der Advanced Reactor Concept ARC–100 und wer weiß noch, welche sonst alle….




Warum die Energiewende gescheitert ist! Von Anfang an!

Die Energiewende

Im November 2010 wurde unter großem medialen Getöse von der schwarz-gelben Regierung Merkel die „Energiewende“ als nationales Ziel bis 2050 ausgerufen. Alle Parteien im Deutschen Bundestag stimmten, bis auf wenige (7!) Abweichler in der Koalition  und die Fraktion der Linkspartei (obwohl übereinstimmend mit dem Ziel, wollte sie es noch radikaler angehen) begeistert dafür. Die veröffentlichte Meinung in gut wie allen Medien hatten schon Monate zuvor für die Akzeptanz dieser „Energiewende“ auf allen Kanälen und ohne Unterlass getrommelt.

Sie fußte auf dem „Energiekonzept“, das wenige Monate zuvor unter der Regie des damaligen Umweltministers Norbert Röttgen, die vielen Einzel-Elemente der gesetzgeberischen  Aktivitäten zum „Klimaschutz“ zusammenfasste, unter Einfügung neuer Elemente ergänzte und deutlich erweiterte. Nicht nur der „Klimaschutz“ wurde nunmehr als Begründung für die Notwendigkeit der „Energiewende“ angeführt, sondern auch die verkündete baldige Endlichkeit der fossilen Ressourcen.

Die Tsunami-Katastrophe in Japan vom März 2011, die mehr als 18.000 Todesopfer und unzählige Verletzte forderte und zusätzlich dann zur Havarie des Kernkraftwerkes in Fukushima führte, wurde zum Anlass genommen, den „Atomausstieg“ zu beschließen und spontan 8 Kernkraftwerke dauerhaft abzuschalten, und die restlichen 17 bis zum Jahre 2022 stillzulegen. Und dies, obwohl bei der Havarie in Fukushima kein einziger Mensch durch Strahlung ums Leben gekommen war, wohl aber rd. 1000 Menschen durch den Stress der panikartig durchgeführten Evakuierung weiter Landstriche.

Mit diesen einfach gestrickten Begründungen, die weiten Teilen der Wählerschaft auch unmittelbar einleuchteten, wurde die größte gesellschaftliche Transformation in Gang gesetzt, die ein Industrieland jemals außerhalb von Kriegen zu bewältigen hatte. Und mit vergleichbaren Kosten und identischen Folgen. Denn am Ende wird zwangsläufig ein völlig verarmtes, weil deindustrialisiertes,  Deutschland stehen, dass nur noch bitterste Not und Zerstörung kennt, obwohl die Befürworter der „Energiewende“ das genaue Gegenteil versprechen. Nur, auch dem fähigsten Ideologen, Politiker, Wirtschaftsboss, Gewerkschaftler, Kirchenoberen, Erfinder oder sonst wem, wird es nicht gelingen geltende Naturgesetze außer Kraft zu setzen, und wenn man sie umgehen will, sorgen ebenso starke ökonomische Gesetze dafür, dass die Kosten für eventuelle Ersatzmöglichkeiten explodieren.

Doch genau das – nämlich das Umgehen geltender Naturgesetze- ist  mit der Energiewende beabsichtigt! Um zu verstehen, warum das so ist, müssen wir uns ein wenig mit den physikalischen Eigenschaften von Energie im Allgemeinen und von elektrischer Energie im Besonderen beschäftigen. Denn das „Erneuerbare Energien Gesetz“, das die Erzeugung elektrischer Energie (vulgo: Strom) aus alternativen Energiequellen regelt bzw. erzwingen soll, ist das Kernstück der Energiewende.

Was ist Energie?

Energie, ist im wesentlichen die universale Fähigkeit im physikalischen Sinne Arbeit zu leisten. Sie ist weder erzeugbar noch vernichtbar. Das fundamentale Naturgesetz dazu heißt Energieerhaltungssatz. Sie kann aber von einer Form in eine andere umgewandelt werden. Doch jede Umwandlung ist zwangsläufig (Naturgesetz) mit Verlusten verbunden, die als Wärme, als der niedrigsten Stufe der Energie, entsteht. Deshalb ist der Begriff „Erneuerbare Energien Gesetz“ bereits eine bewusste Irreführung der Wähler, denn Energie kann selbstverständlich auch nicht „erneuert“ werden, auch dann nicht, wenn nachwachsende Rohstoffe zu ihrer Gewinnung eingesetzt werden. Energie kann eben nur unter unvermeidlichen Verlusten gewandelt werden!  Das gilt selbstverständlich auch für die Stromgewinnung aus fossilen oder Kernbrennstoffen.

Sonderfall elektrische Energie

Elektrische Energie, wird allgemein als die höchst veredelte Form von Energie angesehen. Wärme dagegen, als die niedrigste. Letztendlich wird daher unvermeidlich – ein weiteres Naturgesetz von der stetig zunehmenden Entropie- die gesamte Energie unseres Universums in Wärme gewandelt sein. Aber bis dahin ist noch viel, sehr sehr viel Zeit. Und in dieser Zeit können wir das Gut „elektrische Energie“, also Strom, aus diversen Quellen durch Umwandlung erzeugen.  Und der hat gegenüber den anderen Energieformen viele starke Vorteile. Aber auch einige Nachteile. Die Vorteile sind schnell aufgezählt: Schnellste und verlustarme Übertragungsmöglichkeit über weite Strecken, punktgenauer Einsatz auch in großen Mengen, zu jedem beliebigen Zeitpunkt, gut einsetzbar in Antriebe, Speicher und Heizungen in Investitions- und Konsumgütern, bei Beachtung gewisser Regeln sicher und sauber verfüg- und handhabbar, und sehr billig in der Erzeugung (Wandlung von thermischer Energie in elektrische Energie).

Die Nachteile reduzieren sich in diesem Zusammenhang auf eines, es lautet: Strom ist nicht – von Minimengen abgesehen- direkt speicherbar.  Und, als Folge daraus: Strom muss immer dann auf Bruchteile von Sekunden verfügbar sein, wann immer er gebraucht wird. Manche Stromanbieterfirmen u.a. von Greenpeace, propagieren den Begriff des „Stromsees“, der durch das Netz geschaffen würde, aber das ist nichts weiter als irreführender Unsinn. Ins Verteilnetz muss zu jeder Zeit sekundengenau so viel Strom eingespeist werden, wie irgendwo entnommen wird. Einen Stromsee gibt es nicht.

Eine weitere Folge daraus ist, dass Speicher nur gewandelte elektrische Energie speichern können. Entweder in Form von Bewegungsenergie (Pumpspeicherwerke, Schwungradspeicher, Druckluftspeicher), chemischer Energie (Batterien, Akkus) oder thermischer Energie (durch Elektrolyse erzeugter Wasserstoff, der mit CO2 zu Methan umgewandelt wird).

Strom aus „Erneuerbaren“

Allein dieser naturgesetzlich bedingte Nachteil reicht aus, um die Erzeugung von Strom aus Windkraft und Sonneneinstrahlung  gegenüber den bisherigen Methoden als völlig unzureichend auszusondern. Sie sind einfach qualitativ schlechter und als Folge daraus viel teurer. Denn keine dieser Quellen kann diesen schweren Nachteil von sich aus ausgleichen. Deswegen ist es korrekter diese Quellen nicht als „Erneuerbare“ zu bezeichnen, sondern als „Neue Instabile Energien“ (NIE). Nicht umsonst haben unsere Vorfahren vor über hundert Jahren die Nutzung der Windenergie mit Freuden verlassen und sich auf Energie aus fossilen Quellen gestürzt. Der Aufstieg der Nationen zu beispiellosem Wohlstand war die Folge. Denn sie vermeidet von Anfang an die oben genannten Nachteile, weil die notwendige Speicherung bereits von Mutter Natur in den fossilen oder Kernbrennstoffen vorgenommen wurde. Und damit kommen wir zu einer besonderen Eigenschaft, die die NIE´s insbesondere benachteiligen. Es ist deren Energiedichte!

Die Energiedichte natürlicher Speicher

Aufbereitetes Uran enthält pro kg ca. 350.000 kWh[1], Gas ca. 12 kWh/kg, Diesel/Öl ca. 11 kWh/kg, Steinkohle ca. 8 kWh/kg. Im Vergleich dazu sollte man die Energiedichte von chemischen Batterien/Akkumulatoren kennen. Sie liegt bei Bleiakkus, wie wir sie im Auto haben, bei  0,033 kWh/kg, bzw. bei den sehr teuren Lithium Akkus bei 0,166 kWh/kg. Also 333 bis 66 x schlechter. Die letzten beiden Zahlenwerte zeigen auch auf, warum die „Elektromobilität“ unter normalen kaufmännischen aber auch Umwelt-Gesichtspunkten, an echten Märkten keine Chance hätte.

Nun kann man schlecht den Energieinhalt von bewegter Luft (Wind) oder Sonnenstrahlen in kWh/kg ausdrücken, nur Schildbürger könnten das. Aber man kann den Flächenbedarf vergleichen, den Anlagen zur Erzeugung gleicher Energiemenge auf konventionelle Art bzw. alternative Art beanspruchen.

Sicher ist Ihnen lieber Leser/Leserin auch schon aufgefallen, das Wind- und Solarkraftwerke immer in Rudeln, beschönigend „Parks“ genannt, auftreten. Der Grund dafür ist die mangelhafte aber naturgegebene sehr geringe Energiedichte. Deswegen müssen Riesenflächen mit diesen Anlagen vollgestellt werden, die bei der Windenergie auch noch als riesige Türme in den Himmel ragen, um die Energie der Energieträger Wind und Sonne in brauchbaren Mengen „abzuernten“. Wie aberwitzig das ist, zeigt ein Vergleich mit einem konventionellen oder Kernkraftwerk, mit einer Leistung (das ist die „Kraft“ um Arbeit zu „leisten“)  von 1 GW. 1 Gigawatt sind 1.000 Megawatt, und das sind 1.000.000 Kilowatt. Die Einheit, die wir bereits kennen gelernt haben. Da die Energiedichte konventioneller Energieträger sehr hoch ist, kann man die Kraftwerke sehr kompakt bauen. Ein derartiges Kraftwerk mit 1 GW Leistung bedeckt incl. Gleisanschluss und Brennstofflager ca. 1,5 bis max. 2 km2. Da es ganzjährig und rund um die Uhr betrieben werden kann, liefert es bei Bedarf eine Energiemenge von ca. 7.900 GWh.

Windkraftanlagen

Um – auch nur rechnerisch- dieselbe Menge an Energie mit NIE, z.B mit der neuesten 2,3 MW[2] Anlage von Siemens, aus Wind zu erzeugen, bräuchte man einen „Windpark“ auf dem Lande mit ca. 2.300 Windkraftanlagen dieses Typs. Weil man die nicht dicht an dicht bauen kann, denn der Wind weicht aus, braucht man dafür einen Korridor mit der Länge von 920 km, und einer Breite von ca. 0,25 km. Also insgesamt 230 km2 . Das ist rd. das 130 fache des Flächenbedarfes eine konventionellen Kraftwerkes.

Solaranlagen

Bei den Solaranlagen ist das Ergebnis ähnlich schockierend. Als Beispiel soll hier der Solarpark bei Finowfurt/Brandenburg dienen, bis vor kurzem der größte „Solarpark“ Europas. Der hat eine Nennleistung von 84 MW. Dank der geringen Sonneneinstrahlung in Brandenburg und der Tatsache, dass die Sonne des Nachts und vor allem in den dunklen Herbst und Wintermonaten  nirgendwo so richtig scheint, kann dieser „Solarpark“, solange er neu ist, rd. 59 GWh ins Netz -sofern die Leitungen gebaut wurden- einspeisen. Dann aber mit Vorrang gem. EEG. Seine Fläche wird von den Betreibern mit 1,82 km2 angegeben. Um wiederum nur rechnerisch dieselbe Energiemenge wie das konventionelle Vergleichskraftwerk, wie oben benannt, zu erzeugen, benötigte man  rd. 134 „Parks“ dieser Art, die eine Fläche von 244 km2 bedecken müssten.

Biomasse

Den Vogel schießt übrigens die Biomasse ab. Zur Erzeugung von z.B. Mais für entsprechend viel Biogas-Kraftwerken w.o. benötigte man mindestens (ohne Lager, Wege und Fläche für die eigentlichen Kraftwerke) eine Fläche von ca. 1.600 km2. Da ist rund 2 x die Fläche der freien und Hansestadt Hamburg.

Einschub über Leistung und Arbeit (Energie):

An dieser Stelle scheint es angebracht auf den Unterschied zwischen Energie (hier z.B. in Gigawattstunden (GWh) angegeben) und Leistung (hier in z.B. Gigawatt angegeben) einzugehen, der in den Medien und der Politik fast immer durcheinander gebracht, oft auch gleich gesetzt wird. In Deutschland sind inzwischen Ende 2013 ca. 32 GW an Windenergieanlagen installiert. Oft lesen wir, das sei so viel wie die von 32 Kernkraftwerken.

Auch lesen wir fast immer, diese oder jener Park aus „Erneuerbaren“ Quellen könne so und so viele Haushalte mit Strom versorgen. Glauben  Sie kein Wort davon. Tatsache ist dass kein Wind- oder Solarpark jemals ein konventionelles Kraftwerk egal ob Kern- Gas oder Kohle betrieben, ersetzen kann, denn wie zuvor schon erwähnt, liefern diese Quellen nicht dann wenn Strom gebraucht wird, sondern nur an den wenigen Stunden im Jahr, wenn die Sonne scheint, oder der Wind weht. Und dazu noch nur vom Willen Götter bestimmt. Man verwechselt also, bewusst oder unbewusst, die Nennleistung, welche die jeweilige Anlage unter Laborbedingungen gemessen, bereitstellen kann, mit der Energie, die ein Kraftwerk gleicher Nenn-Leistung ganzjährig und auf Abruf jederzeit liefert. Ein ganz erheblicher Unterschied! Mit gleicher „Wahrheit“ könnte man behaupten, ein einziger Blitz würde die Leistung sämtlicher deutscher Kraftwerke übertreffen. Man vergisst dabei nur, dass niemand etwas davon hat, weil der Blitz zufällig auftritt und seine Leistung nur wenige Mikro- bis Millisekunden abgeben kann.

Mangelnde Speicher

Diese Zufälligkeit der Energieerzeugung ist ein weiterer nicht behebbarer naturgesetzlicher Mangel der NIE. Es gibt einfach keine Speicher, um die so aufwendig (Die Investition dafür ist jeweils 6  x teurer bei Offshore Wind bis 17 x teurer bei Solar, als konventionell) erzeugte Energie zu speichern und bei Bedarf zur richtigen Zeit am richtigen Ort in der richtigen Menge wieder einzuspeisen. Weder heute noch in Zukunft. Die einzigen Großmengen-Speicher für elektrische Energie sind Pumpspeicherwerke (PSW). Sie werden seit ca. hundert Jahren gebaut, und haben nur einen Wirkungsgradverlust von 20 bis 25 %.  Alle anderen Speicherverfahren sind darin wesentlich schlechter und großtechnisch nicht verfügbar. Das Prinzip der PSW ist einfach. Aus einem Untersee wird bei Nacht, wenn der Strom billig ist, viel Wasser in einen manchmal hundert oder mehr Meter höher gelegenen Obersee gepumpt. Zur Mittagszeit, oder bei anderen Lastspitzen, werden die Schleusen des Obersees dann geöffnet, das Wasser rauscht nach unten und treibt Turbinen zur Stromerzeugung an.

Das größte deutsche Pumpspeicherwerk und eines der größten in Europa, ist Goldisthal im schönen Thüringen. Es hat eine Leistung von 1 GW  und kann diese Leistung 8  Stunden lang abgeben. Das sind 1 GW x 8 Stunden also 8 GWh. Dann ist es leer und muss wieder gefüllt werden. Das geht nur langsam, und auch nur dann, wenn genügend billiger Strom zur Verfügung steht. Deutschland hat jährlich einen Stromverbrauch von rd. 600 TeraWatt-Stunden. Das sind 600.000 GWh. Pro Stunde sind das im Mittel 68,5 GWh. Goldisthal könnte also den Energiebedarf Deutschlands rechnerisch gerade mal für gut 8,5 Minuten decken. In ganz Deutschland stehen PSW  mit insgesamt 7 GW. Sie könnten -aber auch nur theoretisch[3]– für rd. 35 Minuten Deutschlands Energiebedarf decken. Mehr können aus Gründen der Topologie, des Umweltschutzes aber vor allem der riesigen Kosten wegen nicht gebaut werden. Allein Goldisthal benötigte eine Bauzeit von 11 Jahren und kostete 600 Mio €.

Aus diesen Gründen kann der zwingend erforderliche Lastausgleich nur über konventionelle Kraftwerke erfolgen. Man spricht dann von Pufferkraftwerken. Das geht und wird auch so gemacht. Allein diesen -oft übelst beschimpften- Kraftwerken, die „schmutzigen“ Strom erzeugen, und ihren fähigen Betreibern, ist es zu verdanken, dass bisher in Deutschland die Lichter nicht ausgingen. Das Problem aber, was diese nun sehr intermittierende und zeitlich  immer geringere Einspeisung aus konventionellen Kraftwerken erzeugt, ist zunächst mal ein ökonomisches.  Wegen der geringen abgegebenen Energiemenge und des geringen Börsenpreises, welcher der zuvor hoch subventionierte Überproduktion an NIE Strom zu verdanken ist (Strom lässt sich nicht speichern, zusammen sind jetzt bereits rd 70 GW NIE Kapazität installiert), rechnen sich die konventionellen Kraftwerke häufig nicht mehr. Zudem werden sie durch den ständigen Lastwechsel völlig auf Verschleiß gefahren. Die Kosten steigen rasant. Die Konsequenz ist, dass immer mehr dieser Kraftwerke stillgelegt werden.  Ein Umstand, der den Befürworten der NIE überhaupt nicht passt.

Auch deshalb, aber insbesondere durch die ungebremste Vorrang-Einspeisung (so will es das EEG) von zappelndem Solar und Windstrom mehren sich die Störungen, die einen geordnete Stromversorgung bei stabiler Spannung (230 V) und Frequenz (50 Hertz) immer schwieriger machen. Bald werden sie so weit zunehmen, dass Experten der Netzbetreiber, die für diese stabile Stromversorgung sorgen müssen, in Kürze von flächendeckenden und langandauernden Ausfällen (Blackouts) ausgehen. Denn aus Gründen der Betriebssicherheit sind alle Anlagen mit automatischen Überlastabschaltungen ausgerüstet, die in Sekundenbruchteilen gefährdete Anlagen bei gefährlichen Störungen vom Netz nehmen. Lag die Zahl der Störungen vor einigen Jahren noch bei 3 bis 4 pro Jahr, so sind es heute ca. 1.000. Und ein deutschlandweiter nur einstündiger Blackout[4] würde heute mit ca. 600 Mio € an Schaden zu Buche schlagen.

Fazit

Wir können also mit Fug und Recht feststellen, dass die Energiewende von Anfang an gescheitert ist, weil sie scheitern musste. Kein Naturgesetz lässt sich von einem noch so schlauen Politiker brechen oder beugen. Gute Ingenieure können die eine oder andere natürliche Begrenzung umgehen. Doch das kostet! Und wie. Zahlten wir doch bis jetzt schon Ende 2013 seit Bestehen des EEG ca. 120 Mrd € in die Taschen der NIE Erzeuger, ihrer Finanziers und Projektierer ein. Gleichzeitig ist dieser Geldsegen für die kommenden 20 Jahre garantiert . Kein Wunder dass die EEG Gewinnler dieses mit Klauen und Zähnen verteidigen. Denn allein diese Garantie kostet uns Verbraucher in den nächsten Jahren nochmals 330 Mrd €. Und so geht es ungebremst weiter, denn auch im neuen Koalitionsvertrag steht, dass man die „Erneuerbaren“ bis 2035 auf 55 % bis 60 % Anteil hochfahren will.

Wofür zahlen wir das? Für ein Produkt, welches aus Preis und Qualitätsgründen in echten Märkten nicht die Spur einer Chance hätte. Denn es ist in jeder Hinsicht miserabel.

Klima und Ressourcen

Lassen Sie mich zum Schluss liebe Leserin und lieber Leser noch auf die beiden Hauptargumente eingehen, die zur Begründung der Energiewende herhalten müssen. Um es vorweg zu sagen: Sie sind beide falsch.

Klimaschutz

Im neuen Koalitionsvertrag steht unter Punkt 1.4 wirklich, dass die Energiewende Umwelt und Klima schützt, ferner Importe – also fossile Resourcen- mindert. Kein Wort davon ist wahr. Selbst wenn man mit geschlossenen Augen durch diese Welt geht, wie es viele Entscheidungsträger und Mitbürger offensichtlich tun, und ohne Mitdenken oder Reflexion den öffentlichen Verlautbarungen des zum Weltklimarates hochgejubelten staatlichen IPCC (Intergovernmental Panel on Climate Change) über den Einfluss des (insbesondere anthropogen erzeugten) CO2 auf die Weltmitteltemperatur Glauben schenkt, dann muss man zwangsläufig konstatieren, dass sämtliche deutsche Absenkungsbemühungen durch den EU Emissionshandel völlig konterkariert werden. Selbst wenn NIE Anlagen CO2 vermeiden würden, was sie – wenn man ihren gesamten Lebenszyklus betrachtet- nicht tun, dann wird diese Absenkung durch eine automatische Erhöhung des CO2 Ausstoßes der am Emissionshandel beteiligten EU-Länder mehr als ausgeglichen. Das ist so gewollt und geschieht auch so.

Darüber hinaus blasen andere große Länder wie Indien, China oder Brasilien in einer Woche das zusätzlich an CO2 aus, was wir dummen Deutschen in einem Jahr einsparen wollen. Doch nicht nur das. Auf keiner der vielen tausenden von Seiten aller fünf bisherigen IPCC Berichte findet sich auch nur der Hauch eines Hinweises auf Beobachtungen oder andere Belege, die beweisen, dass CO2 die Temperatur steuert, in diesem Falle gefährlich anhebt. Stattdessen ist es bestätigt, dass die Mitteltemperatur der Erdatmosphäre seit nunmehr 17 Jahren nicht mehr angestiegen ist, obwohl es die CO2 Konzentration stetig, auf jetzt knapp 0,04 %, tat. Die Klimamodelle haben schmählich versagt. Sie sind durch die Wirklichkeit eindeutig widerlegt.

Ressourcenknappheit

Auch die vermutete oder erhoffte Ressourcenknappheit gehört ins Reich der Fabel, wie sie besonders der grün-rote Club of Rome zu erzählen beliebt. Derzeit krempeln neuartige Prospektions-, Bohr- und Gewinnungsverfahren, also technologischer Fortschritt (Stichwort „Fracking“),  die energetische und damit politische Weltkarte komplett um. Die USA sind bereits jetzt weltgrößter Erdgasproduzent der Welt und werden in Kürze auch zum weltgrößten Exporteur aufsteigen. Deren Gaspreis liegt um 75 bis 80 % unter dem unseren. Dasselbe passiert am Ölmarkt, von der Kernenergie nicht zu reden. Beinah im 2 Monatsrythmus werden riesige Erdgas und Erdölfelder entdeckt, welche die Reichweite  dieser Ressourcen um viele hundert bis tausend Jahre in die Zukunft verschieben.

Schlussbemerkung

Ich bin sicher, ich konnte Ihnen verdeutlichen, dass die Energiewende keine der verkündeten Ziele erreichen kann, aber sehr unerwünschte, zwangsläufige Nebenwirkungen hat, die wir bereits heute in großem Umfang spüren. Der Trend wird sich beschleunigen und nicht nur die Energie sehr, sehr teuer machen, sondern auch die Zahl der wertschöpfenden Arbeitsplätze in diesem Lande dramatisch reduzieren. D.h. die Zange kneift von zwei Seiten, wesentlich höhere Kosten für jeden von, bei gleichzeitigem Verlust oder Drohung des Verlustes von Millionen von Arbeitsplätzen.

In der Verwaltungsgesetzgebung gibt es ein Gesetz, was bestimmt, dass Verwaltungsakte, deren Ziele eindeutig nicht erreichbar sind, nichtig sind. Die Energiewende ist so ein Verwaltungsakt. Sie muss ersatzlos um 180 ° gewendet werden, alle Durchführungs-Gesetze sind ersatz-und entschädigungslos zu streichen. Lassen Sie uns gemeinsam dafür kämpfen

Michael Limburg; Dezember 2013

Der Beitrag erschien Ende Dezember im Extrablatt der „Vertraulichen Mitteilungen“ des Verlages für Arbeit und Wirtschaft Büsingen.

Sie können ihn auch als pdf im Anhang herunterladen


[1] Anmerkung: Energie wird heute in Joule oder Watt-Sekunden (Ws) bzw. vielfachem davon gemessen. Hier kWh d.h. Tausend (kilo) Watt in einer Stunde. Nach der Definition von Energie als Arbeit = Leistung x Zeit. Das bedeutet auch, dass 1 Kraftwerk bei einer Leistung von 1 Kilowatt über 1 Stunde 1 kWh abgibt, bzw ein Herd bei einer Leistung von 1 kW eine Stunde lange 1 kWh „verbraucht“ bzw. wieder in Wärme umwandelt.

[2] Gem. Daten von Siemens hier http://www.siemens.com/sustainability/de/umweltportfolio/produkte-loesungen/erneuerbare-energien/wind-onshore.htm

[3] Kein Kraftwerk kann mehr Leistung abgeben, als die wofür es ausgelegt wurde. Im Falle der PSW sind das max. 7 GW. Zudem kann diese Leistung nur über die per Auslegung festgelegte Zeit abgegeben werden. Wegen der Rohrquerschnitte und der Auslegung der Turbinen kann man min. 5 bis 6 h lang diese Energiemenge abrufen. D.h. dass die deutschen PSW nur d. 1/10 der notwendigen deutschen Leistung decken können, dies dann für rd. 5-6 h.

[4] Quelle Die Welt http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

Related Files




Die Rechnung des begabten Herrn Gabriel – Harte Zahlen zur neuen Energiepolitik

Die Energiewende wird noch einmal beschleunigt [SPI1, SPI2]. Bis zum Jahr 2025 sollen 40-45 % Strom aus sogenannten „erneuerbaren“ Energien erzeugt werden, mit eindeutigem Schwerpunkt auf der Windenergie (Bild 1), insbesondere an den küstennahen Standorten in Norddeutschland. Die Kapazität der Offshore-Windenergie soll von derzeit wenigen 100 MW auf 6500 MW vervielfacht werden. Dies dürfte vor allem zu Lasten der konventionellen Kraftwerke gehen, denen man – soweit sie fossil befeuert werden – zusätzlich auch noch die CO2-Zertifikate verteuern will [CO2].

Bild 1. Bei ihren aktuellen Energiewende-Planungen setzt die neue Bundesregierung vor allem auf die Windenergie

Als Antwort auf den überbordenden Preisanstieg bei den EE-Energien will man lediglich die Förderung in einigen Bereichen nach unten anpassen oder sogar deckeln. Falls dies so umgesetzt wird, könnte sich der Anteil der Windenergie an der deutschen Stromerzeugung, der im Jahre 2012 noch bei 7,3 % lag, bis zum Jahr 2025 mehr als verdreifachen und auf über 22 % anwachsen. Für Solarenergie kann von einem Anwachsen von 4,6 auf bis zu 7 % ausgegangen werden, während das Wachstum bei Wasser, Biomasse und Müll gedrosselt werden dürfte. Für Deutschlands Energieversorgung bedeutet diese Entwicklung eine Katastrophe. Grund ist, dass im Netz im Prinzip kaum Strom gespeichert werden kann. Produktion und Verbrauch müssen deshalb stets im Gleichgewicht gehalten werden. Erzeuger wie Wind und Sonne, die nicht stabil einspeisen, stören dieses Gleichgewicht. Zur Stabilisierung müssen die Netzbetreiber dabei vor allem auf die konventionellen Kraftwerke zurückgreifen. Und genau die dürften zu den Leidtragenden der Koalitionsvereinbarungen gehören.

Sachverstand?

Kaum ein Urteil dürfte die derzeitige deutsche Energiepolitik treffender und zugleich vernichtender charakterisieren als das folgende Zitat aus dem kürzlichen Jahresgutachten 2013/ 2014 des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung mit dem Titel „Gegen eine rückwärtsgewandte Wirtschaftspolitik“ [WIGU], wo es heißt: „Vor etwas mehr als zwei Jahren wurde von der Regierungskoalition aus CDU/CSU und FDP die beschleunigte Energiewende ausgerufen. Dieses Großprojekt wird derzeit ohne ein schlüssiges Gesamtkonzept verfolgt.“

Künftige Stromerzeugung

Da die neue Koalition ihre Planzahlen zur Situation der Stromproduktion im Jahre 2025 zum Teil in Prozentzahlen vorgelegt hat, ist die erste und wichtigste Frage, wie hoch denn die absolute Stromproduktion zu diesem Zeitpunkt ausfallen dürfte. Zu dieser wichtigen Frage gehen die Meinungen natürlich weit auseinander. Anhänger der „erneuerbaren“ Energien glauben, dass man durch Maßnahmen zur Steigerung der Energieeffizienz noch erhebliche Einsparungen erzielen kann. Es ist tatsächlich nicht auszuschließen, dass es zu einem Rückgang bei Produktion und Verbrauch elektrischer Energie in Deutschland kommen wird. Allerdings würden diese Einsparungen voraussichtlich durch die Abwanderung wichtiger Industrien zustande kommen, was man keinesfalls wünschen sollte. Da die Krisenjahre seit 2008 den vorher recht gleichförmigen Anstieg der Stromproduktion unterbrochen haben, verharrt diese seit fünf Jahren auf etwa gleichem Niveau und lag im Jahre 2012 bei rund 629 Terawattstunden (TWh) [AGEB]. Mangels geeigneter Grundlagen für eine anderslautende Prognose nehmen wir für diese Betrachtungen einmal an, dass dieser Wert konstant gehalten werden kann.

 

Bild 2. Jede bessere Hundehütte zählt: Die Solarkapazität soll bis auf 52000 MW ausgebaut werden.

Ein durchaus wesentlicher zusätzlicher Faktor sind jedoch die aktuellen Planungen im Bereich der Elektromobilität, obwohl die gleichen Leute, welche dieses Thema ständig vorantreiben, sich kaum Gedanken darüber zu machen scheinen, wo denn der zusätzliche Strom herkommen soll. Nach den derzeit noch geltenden Planzahlen der alten Bundesregierung sollen 2025 rund 4,3 Mio. Elektro-PKW auf deutschen Straßen unterwegs sein [EAWI]. Für diese wären als Antriebsenergie jährlich rund 13 TWh an der Steckdose bereitzustellen. Inklusive der Leitungs- und Übertragungsverluste von rund 35 % wären demnach jährlich rund 20 TWh zusätzlich bereitzustellen. Als Gesamtbedarf der Stromerzeugung im Jahre 2025 kann demnach von etwa 650 TWh ausgegangen werden. Hiervon sollen 40-45 % aus erneuerbaren Quellen stammen. Für die weiteren Berechnungen wählen wir einen konservativen Ansatz und gehen von einem EE-Anteil von lediglich 40 % aus.

Anteile der einzelnen EE-Quellen

Als nächstes ist die voraussichtliche Aufteilung dieser 40 % bzw. 260 TWh auf die einzelnen EE-Quellen aufzuschlüsseln. Dies erfordert einige Berechnungen, weil sich die präsentierten Zahlen zum Teil auf Strommengen, zum Teil auf Erzeugungskapazitäten beziehen. Als feste Größen wurden der Ausbau der Solarkapazitäten auf 52000 MW sowie der Offshore-Kapazitäten auf 6500 MW vorgegeben.

Bild 3. Durchschnittliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen in den Jahren 2006 – 2012 (Daten: BMU [AEEE])

Die übrigen EE-Quellen – Wasser, Brot (pardon, gemeint ist natürlich Biomasse) sowie Müll – dürften auf dem aktuellen Niveau mehr oder weniger gedeckelt werden. Mit Blick auf diese Angaben müssen zunächst Kapazitäten in tatsächlich zu erwartende Strommengen umgerechnet werden. Hierfür werden die Nutzungsgrade benötigt. Bei Fotovoltaik lässt sich nach Zahlen des BMU [AEEE] für die letzten Jahre ein mittlerer Nutzungsgrad von 8,3 % (Bild 3) errechnen, bei Wind sind es 17,4 %, Bild 4.

Bild 4. Durchschnittliche Nutzungsgrade der in Deutschland installierten Windenergieanlagen in den Jahren 2006 – 2012 (Daten: BMU [AEEE])

Da für die Offshore-Anlagen in der Nordsee noch keine verlässlichen Langzeiterfahrungen vorliegen, macht es Sinn, hierfür Ergebnisse aus Großbritannien heranzuziehen, da dort in ähnlicher geographischer Lage schon seit Jahren große Windparks in Betrieb sind. Hier liegt der Nutzungsgrad bei 30 % [OFFS]. 

Demnach wären im Jahre 2025 folgende EE-Produktionsmengen zu erwarten:

Kosten des Zubaus

Per 3. Dez. 2013 waren in Deutschland 32460 MW Windkapazität sowie 34850 MW Solarkapazität installiert [EEX], ausserdem etwa 500-700 MW Offshore-Kapazität. Um die obigen Werte für die Jahres-Stromproduktion zu erreichen, wäre demnach folgender Zubau erforderlich:

 

In obiger Rechnung wird auch der Ersatzbedarf für diejenigen Kapazitäten berücksichtigt, die aufgrund des Erreichens der Altersgrenze ausgemustert werden müssen, d.h für alle Anlagen, die 2005 bereits in Betrieb waren. Bei Solaranlagen sind dies lediglich 2100 MW, bei Windenergieanlagen jedoch immerhin zusätzlich 18400 MW.

Als nächstes sind jetzt die entsprechenden Kosten pro installierter Kapazität zu ermitteln. Bei professionell errichteten Solaranlagen kann man aktuell von etwa 1,5 bis 1,8 Mio. € pro MWp ausgehen [SOKO, SOK2]. Bei landgestützten Windenergieanlagen liegen die Kosten bei etwa 1,45 Mio. €/ MW [WIKO]. Wesentlich teurer wird es dann im Offshore-Bereich. Nimmt man den Nordseewindpark Bard 1 als Maßstab, so liegen diese bei etwa 7,25 Mio. €/ MW [BARD]. Mit diesen Werten stellen sich die Kosten für die Steigerung des Anteils erneuerbarer Energie auf 40 % bis zum Jahre 2025 zunächst wie folgt dar:

Allein für die reinen Anlageninvestitionen kommen mit den EE-Plänen der neuen Regierung somit auf den deutschen Verbraucher zusätzliche Kosten von ca. 180,- Mrd. € zu.

plus einiger „Kleinigkeiten“

Mit der reinen Errichtung von EE-Anlagen ist es jedoch nicht getan, es kommen noch diverse kleinere und größere Positionen hinzu, damit der so erzeugte Strom auch tatsächlich beim Verbraucher ankommen kann. Insbesondere um die Netzanbindung der Offshore-Windenergie hat es ja bereits in den vergangenen Jahren erhebliches Gezerre gegeben. Insgesamt handelt es sich um folgende Positionen:

Mrd. €

Netzausbau an Land (Transportebene, 4000 km) [NAKO]                                                        26,- bis 80,-

Anbindung Offshore (5800 MW) [TENN]                                                                                          6,-

Netzausbau Verteilnetze [NAKO]                                                                                        24,- bis 30,-

Smart Meter [SMSP]                                                                                                                   10,4

Zusätzliche Kosten Regelenergie (pro Jahr mehr als 1 Mrd. €)                                                              11,-

Summe (konservativ gerechnet)                                                                                                      77,4

Summa summarum dürften die Beschlüsse der jetzt besiegelten Koalition demnach bis zu 300 Mrd. € kosten. Diese Zahl stellt jedoch immer noch nicht die ganze Wahrheit dar, denn es handelt sich dabei vor allem um Investitionsaufwendungen. Hinzu kommen noch die Kosten für Betrieb und Instandhaltung, die aller Voraussicht nochmals in gleicher Größenordnung liegen dürften. Angesichts der Tatsache, dass die sogenannte „Energiewende“ den Verbraucher bereits bis jetzt mit schätzungsweise 500 Mrd. belastet hat, dürfte die Billion bereits im Jahre 2025 erreicht oder sogar überschritten werden.

 

Bild 5. Konventionelle Kraftwerke wie hier das Kohlekraftwerk Altbach Deizisau sollen die Kohlen der Energiewende aus dem Feuer holen und trotzdem verlieren (Foto: kohlekraftwerke.de)

Besonderes „Schmankerl“ sind in diesem Zusammenhang die Planungen rund um die zwangsweise Umrüstung der Zählertechnik in Haushalten auf die sogenannten „Smart Meter“. Einem kürzlichen Bericht bei „Spiegel Online“ zufolge [SMSP] soll zunächst jeder Haushalt acht Euro im Jahr bezahlen, auch wenn er noch mit einem alten Stromzähler ausgestattet ist. Für Neubauten und bei Modernisierungen hingegen wird der obligatorische Einbau eines Smart Meter bis zu 72 Euro im Jahr kosten. Dabei hat der Verbraucher von diesen Geräten keinerlei substanzielle Vorteile zu erwarten, statt dessen erhebliche Nachteile – von der Fernüberwachung seines Verbrauchsverhaltens bis zur ferngesteuerten Abschaltung des Stroms nach Gusto des Versorgungsunternehmens. Profitieren dürften davon lediglich die Zählerhersteller.

Was bekommt der Bürger eigentlich zurück?

Fragt man jetzt ketzerisch, welche Vorteile denn dem deutschen Verbraucher aus diesem fast beispiellosen Kapitaleinsatz erwachsen sollen, so sind diese….quasi nichtexistent. Denn das erklärte Ziel, den Einsatz fossiler Rohstoffe und damit den CO2-Ausstoss zu reduzieren, wird man trotz dieser gigantischen Ausgaben nicht einmal annähernd erreichen können. Dazu genügt ein Blick auf Bild 6, das die Aufteilung der Stromerzeugung am 11. Dezember 2013 dokumentiert. An diesem Tag erreichte die kumulierte Stromerzeugung aus 32460 MW Windkapazität sowie 34850 MW Solarkapazität über etliche Stunden nicht einmal 1000 MW. Der prozentuale Anteil von Sonne und Wind am der Netzlast lag für einen Großteil des Tages bei lediglich 1,5 bis 3,5 % und erreichte nur in der Mittagszeit kurzfristig 7,7 %. Um die Stromversorgung dennoch sicherzustellen, musste fast der gesamte Park an Kohle-, Gas- und Kernkraftwerken zum Einsatz gebracht werden. Trotz enormer nomineller Kapazitäten an „erneuerbaren“ Energien können in Deutschland faktisch keine konventionellen Kraftwerke stillgelegt werden, weil ohne sie die Versorgung zusammenbrechen würde.

Bild 6. Am 11.Dezember 2013 lag die gemeinsame Leistung aus 67300 MW Wind- und Solarkapazität für einen Großteil des Tages unterhalb von 2000 MW. Nur konventionelle Technologien wie Kohle- und Kernkraftwerke retteten Deutschland vor dem Blackout (Daten: [EEX])

Auch für 2025 nur trübe Aussichten

Erinnern wir uns: Ziel der ganzen superteuren Aktion soll die Rettung des Klimas durch Reduzierung des Ausstoßes an CO2 sein. Diesem Ziel sollen wir mit der erheblichen Steigerung der Zahl an Wind- und Solaranlagen bis zum Jahre 2025 näherkommen. Doch wieviele konventionelle Kraftwerke wird man denn durch den forcierten Zubau von Wind- und Solaranlagen bis zum Jahr 2025 definitiv abschalten und vom Netz nehmen können? Um dieser Frage nachzugehen, wurde die Wetterlage bzw. die damit verknüpfte Stromerzeugung des 11. Dezember 2013 zugrunde gelegt und mit den für 2025 geplanten Kapazitäten neu berechnet, Bild 7. Im betreffenden Jahr lägen die Windkapazitäten bei insgesamt 93160 MW (86660 MW Onshore und 6500 MW Offshore) und die Solarkapazität bei 52000 MW, zusammen also 145160 MW. Das entspricht rund 180 % der maximalen Netzlast.

Doch trotz dieses enormen „Overkills“ an „EE“-Kapazität kämen Sonne und Wind bei einer vergleichbaren Wetterlage wie der des 11. Dezembers 2013 auch zusammen über einen Großteil des Tages auf nur 2700 bis 4200 MW bzw. 4 bis 9 % der Netzlast. Zur Aufrechterhaltung der Versorgungssicherheit wären konventionelle Kraftwerke also weiterhin faktisch unverzichtbar. Eine Stilllegung nennenswerter Kapazitäten wäre nach wie vor nicht möglich.

Mit Blick auf das vorgebliche Ziel der Energiewende, die Verringerung des CO2-Ausstosses, lässt der Blick auf Bild 7 zudem erkennen, dass diesbezüglich überhaupt kein Fortschritt zu erwarten sein dürfte. Grund ist die Stilllegung der Kernkraftwerke, die 2012 immerhin noch rund 16 % zur deutschen Stromerzeugung beigetragen hatten. Dieser Anteil muss durch Kohlekraftwerke aufgefangen werden, die entsprechend zusätzliches CO2 ausstoßen. Hinzu kommt, dass aufgrund der Unzuverlässigkeit der Stromerzeugung aus Sonne und Wind ein entsprechend höherer Anteil konventioneller Kraftwerke als Bereitschaftsreserve „unter Dampf“ gehalten werden muss, um jederzeit einzuspringen. Dieser sogenannte „hot standby“ erfordert jedoch die ständige Zufuhr erheblicher Mengen Brennstoff, so dass sich die CO2-Bilanz der betreffenden Kraftwerke merklich verschlechtert. Per Saldo ist deshalb damit zu rechnen, dass wir 2025 für die Stromerzeugung sogar mehr CO2 in die Luft pusten werden als heute.

Bild 7. Hypothetischer Strommix im Dezember 2025 analog der Wetterlage, wie sie am 11.12. 2013 herrschte

Fred F. Mueller

Quellen

[AGEB] http://www.ag-energiebilanzen.de/

[AEEE] Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Arbeitsgruppe Erneuerbare Energien – Statistik, BMU – EI 1, Stand Juni 2013

[BARD] http://www.nwzonline.de/wirtschaft/neuer-wirbel-um-windpark-von-bard_a_1,0,542153364.html

[CO2] http://www.spiegel.de/wissenschaft/natur/emissionshandel-eu-staaten-wollen-co2-ausstoss-teurer-machen-a-932575.html

[EAWI] http://de.wikipedia.org/wiki/Elektroauto

[EEX] http://www.transparency.eex.com/en/

[NAKO] http://www.manager-magazin.de/politik/artikel/0,2828,758208,00.html

[OFFS] http://www.bwea.com/ukwed/ abgerufen am 31.10.2012

[SOKO] http://www.solarrechner.de/

[SOK2] http://www.interplan-solar.eu/de/Investment/turnkey.html

[SMSP] http://www.spiegel.de/wirtschaft/service/smart-meter-regierung-plant-zwangsumlage-fuer-stromkunden-a-936560.html

[TENN] http://www.manager-magazin.de/unternehmen/energie/0,2828,851292,00.html

[WIGU] Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Gegen eine rückwärtsgewandte Wirtschaftspolitik Jahresgutachten 2013/14

[WIKO] Verkaufsprospekt zum Erwerb von Kommanditanteilen an der Bürgerwindpark Albersdorf GmbH & Co. KG




Überraschende Erkenntnis in der Energiewende: „Flaute und Wolken stoppen Ökostrom-Produktion“

 

„Flaute und Wolken stoppen Ökostrom-Produktion“. 

Wetzel – vielleicht langsam zum Gegner der Energiewende mutiert- weil zunehmend kritisch ob ihrer miserablen Ergebnisse, fällt auf, dass unter diesen Umständen keines der Versprechen der Energiewende Befürworter einzuhalten sind. So schreibt er:

Zitat

Ökostrom meldet sich ab

Wind und Sonne tragen zuweilen über weite Zeiträume fast nichts zur Stromversorgung bei. Als der Orkan „Xaver“ abgezogen war, setze eine Flaute mit Hochnebel ein. In der Erzeugungskurve der zweiten Dezemberwoche wird der Windkraft-Anteil zu einer hauchdünnen Linie. Auch die Solaranlagen produzieren nur für zwei oder drei Stunden am Mittag minimale Mengen. Konventionelle Kraftwerke, in der Grafik die große graue Basis, mussten die ganze Woche über die Last der Stromversorgung fast allein tragen. In Zeiten typischer winterlicher Hochdrucklagen kann eine solche Situation auch mal zwei Wochen anhalten. .. 

Um dann im Gegenzug die Jubelmeldungen der NIE Lobbyisten vom Frühjahr zu zitieren:

…Im Frühjahr erfreute eine Serie von Jubelmeldungen die Herzen der Energiewende-Fans. „Wind- und Solarstromproduktion so hoch wie nie“, verkündete stolz das „Internationale Wirtschaftsforum Erneuerbare Energien“ (IWR) am 19. April. Ökostrom mit 35 Gigawatt im Netz, „dieser Wert entspricht der Leistung von 26 Atomkraftwerken“…Wer wollte angesichts solch kraftstrotzender Zahlen nicht von der Allmacht erneuerbarer Energien träumen? Orkantief „Xaver“ sorgte ja noch Anfang Dezember für eine Windstrom-Menge, die dem Output von 26 mittleren Atomkraftwerken entsprach, meldete frohgemut erneut das Münsteraner IWR.

Die Jubelnachrichten der Ökostrom-Statistiker haben allerdings bedenkliche Folgen. Viele Bürger sehen inzwischen das Grünstrom-Zeitalter schon zum Greifen nah, die Energiewende fast am Ziel. Wer braucht da noch Kohlekraftwerke?

Nach einer aktuellen, repräsentativen Umfrage des Meinungsforschungsinstitut TNS Emnid im Auftrag der TU Bergakademie Freiberg glaubt ein Drittel der Deutschen, man könne in der Stromproduktion „ohne Probleme sofort oder bis 2020 auf Kohle verzichten“. Sie schätzen den Anteil von Stein- und Braunkohlestrom in Deutschland im Durchschnitt auch auf lediglich 25 Prozent. In Wahrheit liegt er mit 44 Prozent knapp doppelt so hoch.

Damit erinnert er an eine ganz grundlegende Problematik, die die EEG Gewinnler und in ihrer Gefolge die handelnden Politiker aller Parteien schamlos ausnutzen. Es ist die völlige Unfähigkeit weiter Kreise der Bevölkerung, die komplizierten Zusammenhänge der Stromproduktion und Verteilung auch nur im Ansatz zu verstehen. Dazu es fehlt nicht nur am Willen, sondern, bei sehr vielen, auch an der dafür nötigen Bildung. Die MINT Fächer wurden schon immer gern abgewählt. Sie gehören „nicht zur Bildung“, wie ein vermessener Dietrich Schwanitz uns einmal glaubhaft berichtete.

Und Wetzel fällt noch mehr auf:

Unter der Überschrift:

Es gibt nicht genug Stromspeicher

Schreibt er:

Stromspeicher, die Solar- und Windstrom für solche Flautezeiten aufbewahren könnten, stehen noch nicht einmal ansatzweise zur Verfügung. Selbst wenn es der Bundesregierung gelänge, wie geplant bis 2020 eine Million Elektroautos auf die Straßen und ans Stromnetz zu bringen: Ihre Batterien könnten Deutschland gerade einmal etwa sieben Minuten lang mit Strom versorgen.

Eine winterliche Flaute dauert aber oft mal 14 Tage und länger. Die einzigen bislang wirtschaftlichen Stromspeicher sind die Stauseen in den Bergen. Doch alle Pumpspeicher Deutschlands wären nach fünf bis sieben Stunden leer gelaufen, dann müssten auch sie die Stromproduktion einstellen. Andere Speichertechniken wie „Power-to-heat“ oder „Power-to-gas“ stecken allesamt noch in den Kinderschuhen.

Darin ist einiges richtig, jedoch nicht die Behauptung, dass alle deutschen Stromspeicher Deutschland fünf bis sieben Stunden versorgen könnten, bevor sie leer wären. Dem ist nicht so, auch wenn das den Kohl auch nicht mehr fett macht. Denn es sind leider nur ca. 35 Minuten! Mehr als 40 GWh liefern sie nicht. Bei einer Stromproduktion von ca. 600 TWh im Jahr , könne sie das Land also nur rd. 35 Minuten an einem durchschnittliche Tag versorgen. Um dann viele Tage lang wieder aufgefüllt werden zu müssen. Mit Strom, der aus den verteufelten Kohle- oder Kernkarftwerken kommen muss.

Und wenn dann noch viele Forschungsmilliarden in die Erforschung der „Power-to-heat“ oder „Power-to-gas“ Speichertechnologien geflossen sind, dann wird man nicht umhin können festzustellen, dass diese den Strompreis locker in die Gegend von 1 bis 2 €/kWh katapultieren werden, weil deren Wirkungsgradverluste naturgesetzlich bedingt und nicht änderbar sind.

Aber wenn das soweit sein wird, dann ist sicher schon wieder eine neue Regierung im Amt und die bisher Verantwortlichen der alten Regierung wohl versorgt nach Brüssel oder in lukrative Positionen der staatsnahen Wirtschaft verschoben. Und mit Ehrungen überhäuft.

Wer erinnert sich dabei da nicht an den alten Witz in der untergegangenen DDR von den vier großen Feinden des Sozialismus?

Sie heißen Frühling, Sommer, Herbst und Winter, mit den ebenso überraschend auftretenden kleinen Feinden, die da heissen Tag und Nacht

Bleibt uns zum Schluss dieser Bestandsaufnahme der schönen neuen Energiewendewelt noch auf einen Bericht in den Deutschen Wirtschaftsnachrichten hinzuweisen, die über Vorbereitungen auf den großen Blackout in Europa berichtet:

Unter der Überschrift

Blackout im Winter: Vorbereitung auf europaweiten Stromausfall

lesen wir

Eine Initiative aus Österreich diskutiert über die Folgen eines europaweiten Stromausfalls. Fazit: Schon kleinere Störungen können weitreichende Dominoeffekte auslösen. Vertreter aus Wirtschaft und Verwaltung planen für den Ernstfall. Beispiele aus der Vergangenheit zeigen, dass die Sorge vor einem Blackout durchaus begründet ist. 

Die zivilgesellschaftliche Initiative „Plötzlich Blackout“ lud kürzlich mehr als 200 Vertreter aus Österreichs Wirtschaft und Verwaltung zu einem nationalen Workshop ein. Dies berichtet Die Presse. Thema der Veranstaltung war die Möglichkeit eines überregionalen Stromausfalls. Dazu wurde eine fiktive Notsituation durch einen Stromausfall in Wien simuliert. Die Teilnehmer erörtern das mögliche Vorgehen aller Beteiligten und die Folgen für die Wirtschaft und die Bürger.

Neben den staatlichen Behörden, Privatunternehmen und Energieversorgern waren auch Bürger-Initiativen, gemeinnützige Organisationen und Rettungskräfte auf dem Workshop vertreten. Eine Zusammenarbeit aller gesellschaftsrelevanten Bereiche sei notwendig, um in Notsituationen schnellst möglich zu handeln, so die Organisatoren von “Plötzlich Blackout”.

Sie sind davon überzeugt, dass ein überregionaler Stromausfall sehr wahrscheinlich ist. Dabei beziehen sie sich dabei auf die Tatsache, dass Stromnetze schon lange nicht mehr national begrenzt sind. Alle europäischen Erzeuger, Betreiber, Händler und Verbraucher teilen sich im Grunde eine Strom-Infrastruktur. Daraus folgt, dass sich ein lokaler Störfall schnell zu einemeuropaweiten Problem ausweiten kann…

Häufig sind auch Überkapazitäten der Grund für eine Überlastung des Netzes. So könnten hohe Kapazitäten aus Windenergie zusammen mit milden Temperaturen zu Weihnachten die Versorgung in Deutschland gefährden. Dies berichtet die FAZund bezieht sich dabei auf ein Dokument des Netzbetreibers Entso-E.

„Aufgrund der Erfahrungen der vergangenen Jahre könnte der Zeitraum um Weihnachten mit einem großen Stromüberschuss im deutschen Netz kritisch werden“, so die Autoren des Entso-E-Berichts.