Augsburger Meteorologe findet Diskussion um Klimaschutz lächerlich

AA: Herr Hager, wir erleben derzeit wieder einen Winter, der – mit Ausnahme der Woche nach Weihnachten – nicht so recht einer ist. Kann das als eine Folge des Klimawandels gewertet werden?
Hager: Mit dem Schlagwort „Klimawandel“ ist man heutzutage schnell bei der Hand. Nur mit der Realität haben diese Annahmen nichts zu tun. Beispielhaft möchte ich, wenn Sie den Winter ansprechen, die Region Augsburgbeleuchten. In einer Zeitreihe von über 60 Jahren beträgt die gemittelte Temperatur in den Wintermonaten Dezember, Januar und Februar minus 0,2 Grad Celsius. In der Aufreihung der Jahre ist irgendeine Regelmäßigkeit – etwa, dass es in den vergangenen Jahren immer wärmer geworden wäre – nicht zu erkennen.
Für die vergangenen zehn Winter gilt: Drei lagen mit den Temperaturen über dem Mittelwert. Aber sechs lagen darunter. Und einer bildet ziemlich genau die Durchschnittstemperatur ab. Ich könnte auch andere Größen hernehmen wie das absolute Temperaturminimum, das vor 20 Jahren mit minus 27,1 Grad erreicht wurde. In den Jahren davor und danach lagen die Temperaturen mehr oder weniger deutlich darüber. Es ist ein richtiger Zickzack-Kurs, der keine Gesetzmäßigkeit erkennen lässt.
AA: Was folgern Sie daraus?
Hager: Da kann ich nur Professor Lauscher aus Wien zitieren: „Schwankungen dominieren das Klima, nicht Trends. Im Klima ist der Wechsel das einzig Beständige.“ Und wenn man zurückblickt in der Geschichte der Menschheit, dann tauchen immer wieder kältere und wärmere Perioden auf. Die Römer tranken in Augsburg Wein, der in der Antike zum Großteil auch in dieser Region angebaut worden ist. Das wurde durch das Klima erst möglich. So um das Jahr 350 ist es nach und nach kälter geworden, was ein nicht unerheblicher Grund für die Völkerwanderung in der Spätantike war. In osteuropäischen Gebieten hat sich das Klima derart verschlechtert, dass ein Überleben auf Dauer nicht möglich gewesen wäre.
In unserer Zeit ist es so, dass wir eine Warmphase hinter uns haben, die zwischen den 60er Jahren bis Mitte der 90er Jahre angehalten hat. Etwa seit dem Jahr 2005 sind wir wieder im Abschwung, der gedämpft wird, weil sich die Messsensorik geändert hat.
AA: Was meinen Sie damit?
Hager: Glasthermometer wurden um das Jahr 1995 durch elektronische Thermometer ersetzt. Und die reagieren deutlich sensibler auf Temperaturunterschiede, zeigen sie schneller an. Acht Jahre lang habe ich auf dem Lechfeld Parallelmessungen durchgeführt. Das Ergebnis war, dass die elektronischen Thermometer im Vergleich zu ihren Vorgängern im Schnitt eine um 0,9 Grad höhere Temperatur angezeigt haben. Man vergleicht also – obwohl man hier wie dort die Temperatur misst – Äpfel mit Birnen. Gesagt wird einem das nie.
AA: Das heißt, allein durch eingesetzte andere Messinstrumente erhalten Sie eine höhere Temperatur? Und die ist dann bei Diskussionen um den Klimaschutz ein gewichtiges Argument.
Hager: Genauso ist es. Klimawandel und Klimaschutz sind zu ideologisch beladenen und belasteten Themen geworden. Da traut man sich ja kaum noch zu widersprechen, weil man gleich in die Umweltsünder-Ecke gestellt wird. Speziell wenn es um die angestrebte Verminderung des CO2-Ausstoßes geht, werden die Menschen an der Nase herumgeführt. Wer den sogenannten Treibhauseffekt wissenschaftlich oder politisch auf den Nenner CO2 bringt, der sollte erst einmal nachdenken. Das Kohlendioxid ist ein ungiftiges und in der Natur zur Photosynthese notwendiges Gas. Außerdem hängt unser Wettergeschehen an einer zweistelligen Vielzahl von Einzelfaktoren ganz unterschiedlicher Gewichtung. Wetter und Klima bleiben in ihrer chaotischen Komplexität eben unbeherrschbare Natur.
Das ganze Interview in der AA hier lesen: 
Mit Dank an Spürnase Ken & Pierre Gosselin NoTrickszone

Nachtrag 13.1.15:

Herr Hager betreibt seine eigene Webseite in der er seine Beobachtungen allgemein zugänglich macht (hier)




Energie und Wohlstand

von Elmar Oberdörffer
Erst die durch moderne Technik mögliche Umwandlung der in fossilen Brennstoffen enthaltenen thermischen Energie in mechanische und weiter in elektrische Energie hat den in den Industriestaaten heute beobachteten Wohlstand und die Ernährung von inzwischen über 7 Mrd. Menschen auf der Welt ermöglicht.
Die Entwicklung von Energie und Wohlstand im Laufe der Menschheitsgeschichte
Die ersten Menschen waren Sammler und Jäger. Sie lebten in Horden. Sie sammelten und jagten das, was in der Natur vorhanden und eßbar war. Sie stellten ihre Nahrung nicht her. Ihre Herstellungstätigkeit beschränkte sich auf Werkzeuge, Waffen, Kleidung, Gefäße. Jeder Angehörige der Horde mußte sich am Sammeln oder Jagen beteiligen. Lebte die Horde in einer Umgebung, in der die Nahrung knapp und schwierig zu beschaffen war, so wurden häufig die Alten getötet, oder sie verließen freiwillig die Horde, um in der Wildnis zu sterben. Sie hatten nur die Energie, die sie mit ihrer Nahrung aufnahmen, und die ihr Körper in Körperwärme, Gehirnleistung und Bewegung umsetzte, und die Energie aus dem Verbrennen von Holz, die zum Kochen und Heizen diente. Von Wohlstand keine Spur.
Erst die Bildung größerer Gemeinschaften in dafür geeigneter Umgebung ermöglichte Ackerbau und Viehzucht. Die Nahrung wurde hier gezielt angebaut und gezüchtet. Dafür wurde auch die Arbeitsleistung von Tieren eingesetzt. So konnte die pro Person verfügbare Nahrungsmenge erheblich gesteigert werden, sodaß nicht mehr alle Angehörigen der Gemeinschaft für ihre Beschaffung eingesetzt werden mußten, sondern einige sich anderen Tätigkeiten widmen konnten: Handwerker, Priester, Häuptlinge oder Könige, Soldaten, Verwalter, Richter, Händler, Bankiers. Dies alles sind gewissermaßen “Luxusberufe”, die erst durch einen ausreichenden Überschuß an Nahrung möglich werden. Zu beachten ist, daß ohne den Einsatz zusätzlicher, technisch erzeugter Energie rund 90% der Menschen in der Landwirtschaft tätig sein müssen, um die benötigte Nahrung zu erzeugen. Und die meisten dieser Menschen lebten in bitterer Armut.
Wieviel Energie stand den Menschen dieser Gesellschaften zur Verfügung? Es gab gewöhnlich genug Wärmeenergie zum Kochen, Heizen, Metallschmelzen und -gießen, Schmieden, Glasschmelzen und Brennen von Keramik. Knapp war jedoch mechanische Energie. Sie wurde größtenteils durch körperliche Arbeit von Menschen und Tieren aufgebracht. Ein kräftiger, gut trainierter und gut ernährter Mann kann am Tag etwa 1 kWh leisten. Nur 50 % des Volkes sind männlich, davon nur 50 % kräftig, gut trainiert und gut ernährt, davon können nur etwa 50 % für die Erzeugung mechanischer Energie eingesetzt werden (es gibt ja auch noch andere wichtige Tätigkeiten), und sie arbeiten nur sechs Tage in der Woche. So steht pro Einwohner nur etwa 0,1 kWh durch menschliche Arbeitsleistung erzeugte mechanische Energie je Tag bereit. Zusätzlich gibt es Zug- und Reittiere. Die leisten etwa 4 kWh pro Tag. Nehmen wir an, daß es etwa ebensoviele Zug- und Reittiere gab wie Menschen, die mechanische Arbeit leisteten, so kommen wir auf etwa 0,5 kWh durch Mensch und Tier geleistete mechanische Arbeit je Einwohner und Tag. Es gab zwar auch durch Wind- und Wasserkraft betriebene Maschinen (Mühlen, Sägewerke, Hammerwerke), aber deren mechanische Arbeit geteilt durch die Einwohnerzahl dürfte zu vernachlässigen sein.
Erst die Erfindung der Dampfmaschine durch James Watt im 18. Jh. beendete diesen Mangel an mechanischer Energie. Jetzt konnte thermische Energie, gewonnen durch das Verbrennen von Kohle, in mechanische Energie verwandelt werden, anfangs mit geringem, im Laufe der technischen Entwicklung aber immer höherem Wirkungsgrad. Und der Brennstoff zur Gewinnung dieser mechanischen Energie, die Kohle, war weit billiger als die Nahrung für die Menschen und Tiere, die bisher die mechanische Arbeit geleistet hatten. Die Dampfmaschine trieb schon bald nicht nur die Maschinen zur Herstellung von Gütern in den Fabriken an, sondern auch die Eisenbahn und die Schiffe und ermöglichte so den schnellen und zuverlässigen Transport vieler Menschen und von Rohstoffen und Erzeugnissen in großen Mengen über große Enfernungen in bisher unvorstellbar kurzer Zeit. Ein entscheidender Schritt zur modernen Industriegesellschaft war die Erfindung des Dynamos durch Werner von Siemens und der Aufbau elektrischer Versorgungsnetze, wodurch elektrische Energie überall innerhalb eines solchen Netzes verfügbar wurde. Diese kann nach Belieben in mechanische oder Wärmeenergie zurückverwandelt werden und ist so für praktisch alle Zwecke nutzbar. Heute verfügt jeder Einwohner eines industrialisierten Landes über praktisch unbegrenzt viel Energie, die er zur Förderung seines Wohlstandes oder zu seinem Vergnügen einsetzen kann, jedenfalls solange ihn der Staat nicht darin behindert. Der Lebensstandard eines jeden Einwohners eines modernen Industrielandes ist gegenüber der vorindustriellen Zeit oder verglichen mit dem Lebensstandard in heutigen Entwicklungsländern sehr viel höher. Wir verdanken das der Tatsache, daß wir jederzeit soviel Energie zu günstigem Preis vorfinden, wie wir für die Herstellung unserer Nahrung, Kleidung, Wohnung, aller Gebrauchsgegenstände, für unsere Mobilität und unsere Kommunikation brauchen.
Konkret: im Jahre 2013 wurden in Deutschland täglich je Einwohner 130 kWh Primärenergie verbraucht. Als Endenergie entfielen auf jeden Einwohner täglich 87 kWh, davon 20 kWh als elektrische Energie, und (meine Schätzung) insgesamt etwa 40kWh als mechanische Energie (einschließlich in mechanische Energie umgewandelte elektrische Energie). Das ist das 80-fache der in vorindustrieller Zeit je Einwohner verfügbaren mechanischen Energie. Kein Wunder, daß es uns so viel besser geht als unseren Vorfahren.
(Quelle: AGEB: Ausgewählte Effizienzindikatoren zur Energiebilanz Deutschland  Daten für die Jahre 1990 bis 2013)
Energie als Voraussetzung für Wohlstand
“Die Sonne schickt uns keine Rechnung.” Mit diesem Slogan werben die Profiteure der staatlich subventionierten Solarenergie für Ihre Anlagen und wollen damit suggerieren, der aus PV-Anlagen gewonnene Strom sei kostenlos. Ebensogut könnte man argumentieren, die aus der Erde gewonnenen Bodenschätze, also Kohle, Erz, Gold und andere Edelmetalle, Erdöl, Erdgas, Salz, Kali, Alaun und was mehr an für uns Menschen wertvollen Stoffen sich in der Erde findet, seien kostenlos zu haben, denn auch die Erde schickt uns keine Rechnung. Jedermann weiß, daß das nicht so ist. Warum eigentlich, wenn die Bodenschätze in der Erde doch einfach nur so herumliegen und jeder sie nur mitzunehmen braucht? Weil man sie eben nicht nur einfach aufheben und in die Tasche stecken kann, sondern weil man arbeiten, also Energie aufwenden muß, um sie aus der Erde zu graben, zu reinigen, zu transportieren, zu lagern, zu verteilen. Weitere Arbeit, Energie ist notwendig, um daraus nützliche Produkte herzustellen. Aber nicht nur materielle Produkte erfordern Energie, auch immaterielle Werte wie Bildung, Kunst, Gesundheitspflege, Sport, Wissenschaft, Religion können nicht ohne ständigen Aufwand von Energie bestehen. Jegliche Ordnung läßt sich gegen das Chaos nur durch den Einsatz von Energie errichten und erhalten. Wie wir im vorigen Teil gesehen haben, ist die von Menschen und gezähmten Zugtieren unter Einsatz der Körperkraft zu leistende Energie nur sehr gering. Wohlstand für alle läßt sich damit nicht erreichen. Erst die durch moderne Technik mögliche Umwandlung der in fossilen Brennstoffen enthaltenen thermischen Energie in mechanische und weiter in elektrische Energie hat den in den Industriestaaten heute beobachteten Wohlstand und die Ernährung von inzwischen über 7 Mrd. Menschen auf der Welt ermöglicht. Seit einigen Jahrzehnten kann in Kernreaktoren auch die in spaltbaren Elementen enthaltene Energie genutzt werden, vielleicht in einigen weiteren Jahrzehnten auch die Energie der Fusion von Wasserstoff zu Helium. Damit steht uns auch nach Erschöpfung der fossilen Brennstoffe beliebig viel Energie bereit. Der in den Industriestaaten übliche Wohlstand könnte damit über die ganze Welt verbreitet werden. Nebenbei gesagt: das wäre die wirksamste Methode, das überaus hohe Bevölkerungswachstum in den Entwicklungsländern zu mindern.
Wir sehen: die Produktion eines jeden materiellen wie immateriellen Gutes erfordert Energie.
Je mehr Energie wir einsetzen können, desto mehr materelle und geistige Güter können wir schaffen, desto besser geht es uns in jeder Hinsicht. Die von unseren Politikern betriebene Politik, den Energieverbrauch zu begrenzen und preiswerte konventionelle Energien durch teure “Erneuerbare” zu ersetzen, ist nichts anderes als ein Anschlag auf unseren Wohlstand. Wobei die Politiker schon dafür zu sorgen wissen, daß ihr eigener Wohlstand dadurch nicht leidet.
Einfluß der Energiekosten auf den Wohlstand
Wir haben gesehen, daß die Erzeugung eines jeglichen Gutes nur mit dem Einsatz von Energie möglich ist. Das gilt nicht nur für materielle Güter, sondern auch für geistige wie Bildung, Kunst, Wissenschaft, Rechtsprechung, Verwaltung, ja sogar Religion und Theologie! Es ist die materielle Energie, die die Schöpfer dieser geistigen Güter brauchen, um ihr Leben mit allen ihren Bedürfnissen zu führen. Auch in den materiellen Gütern ist nicht nur die Energie enthalten, die für die Gewinnung der Rohstoffe, ihre Aufbereitung, ihren Transport, ihre Umformung zu Teilen und deren Montage zum fertigen Produkt aufgewendet wurde, sondern auch die Energie, die zum Lebensunterhalt und zur Lebensführung der beteiligten Personen aufgewendet wurde: Bergleute, Hüttenleute, Gießer, Schmiede, Mechaniker, Kraftfahrer, aber auch Geologen, Ingenieure, Kaufleute, Chemiker, Physiker, Juristen und viele andere sind daran beteiligt. All diese Personen erhalten für ihre Leistung Geld, für das sie sich die Güter kaufen, die sie zum Leben benötigen und die ihnen Freude machen. All diese Güter enthalten wieder physische und geistige Energie, die mit Geld bezahlt wird. Heinz Schütte hat aus dieser Beobachtung abgeleitet, daß alle entstehenden Kosten letztlich Kosten für die aufgewendete Energie sind und hat damit sein Kosten-Energie-Äquivalenzgesetz formuliert, “dass ausnahmslos sämtliche Werte, die auf dieser Erde existieren, quantitativ aus Energiekosten resultieren”. (Heinz Schütte: Das Kosten-Energie-Äquivalenzgesetz als Fundament menschlichen Wirtschaftens, Energiewirtschaftliche Tagesfragen 61. Jg. (2011) Heft 12 S. 32 – 37.)
Das bedeutet aber, daß die Kosten für die Energie sich unmittelbar auf die Preise sämtlicher Produkte auswirken. Teure Energie bedeutet teure Produkte, billige Energie billige Produkte. Hier ist teuer oder billig nicht einfach am numerischen Preis in irgendeiner Währung zu messen, sondern etwa am Durchschnittseinkommen im jeweiligen Lande. Die Frage ist also einfach: wieviel Energie kann sich der Bürger von seinem Einkommen kaufen? Je mehr Energie er sich kaufen könnte, desto mehr materielle und geistige Güter kann er erwerben, desto wohlhabender ist er. Wird die Energie aus irgendeinem Grunde teurer, so folgen alle anderen Güter, und der Wohlstand des Bürgers nimmt ab.
Es bedeutet auch, daß in wenig entwickelten Ländern, wo das Durchschnittseinkommen gering ist, Energie, die uns billig erscheint, zu teuer ist. Dadurch ist der Einsatz von Energie in diesen Ländern nur sehr beschränkt möglich, und die Entwicklung dieser Länder ist stark behindert. Die beste Entwicklungshilfe, die wir diesen Ländern geben könnten, wäre, sie im Aufbau ihrer Energieversorgungssysteme (und ihrer Wasser- und Abwassersysteme) zu fördern, und im Aufbau ihrer Bildungssysteme (geistige Energie).
Wir halten fest: je teurer, gemessen am Durchschnittseinkommen, die in einem Lande verfügbare Energie ist, desto geringer ist der Wohlstand des Landes.  Je billiger, gemessen am Durchschnittseinkommen, die verfügbare Energie ist, desto höher ist der Wohlstand, desto mehr kann auch für immaterielle, geistige Güter aufgewendet werden, eine Voraussetzung für wirkliche Lebensqualität.
Was bewirken Energiesteuern?
Wir haben gesehen, daß sämtliche menschlichen Güter nur durch den Einsatz von Energie erzeugt werden können, daß ihr Preis nichts anderes ist, als die Kosten der für ihre Erzeugung eingesetzten Energie. Energie ist also vergleichbar dem Blut in einem Menschen, welches Sauerstoff und Nährstoffe zu den Muskeln und Organen transportiert, damit diese ihre Arbeit tun können. Es ist bekannt, daß ein Mensch umso leistungsfähiger ist, je besser sein Blutkreislauf ist. Ebenso ist bekannt, daß eine Behinderung des Blutkreislaufs die Leistungsfähigkeit des Menschen schwer mindern kann, Krankheit und Tod bewirken kann.
Genauso ist es mit einer Volkswirtschaft. Energie ist das Blut, das sie am Leben erhält. Je mehr Energie verfügbar ist, desto mehr leistet die Volkswirtschaft. Durch Energiemangel wird sie erdrosselt. Die Verfügbarkeit der Energie hängt von ihrem Preis ab. Je geringer der Preis, desto mehr Energie kann gekauft werden, desto mehr Güter können erzeugt werden. Daher sind Steuern auf Energie, ganz gleich in welcher Form, mit das Dümmste, was eine Regierung anstellen kann. Sie nimmt zwar Steuern ein, gleichzeitig drosselt sie aber die gesamte Volkswirtschaft. Die Menge der erzeugten Güter geht zurück, die Arbeitslosigkeit steigt, die Einkommen sinken, die Gewinne der Unternehmen schrumpfen, kurz, die Basis für die Erhebung aller übrigen Steuern außer der Energiesteuer  schrumpft und die gesamten Steuereinnahmen werden viel kleiner, als sie beim Verzicht auf die Energiesteuern wären.
Genau so dumm ist die Deutschland von technisch und naturwissenschaftlich unbedarften Politikern verordnete Energiewende. Hier werden teure und nicht grundlastfähige Verfahren zur Gewinnung sogenannter “erneuerberar Energie” staatlich gefördert, und billige, grundlastfähige, unverzichtbare Verfahren der Stromversorgung staatlich behindert. Der Effekt ist der gleiche wie der der Energiebesteuerung.
Um ihre Dummheit auf die Spitze zu treiben, wenden unsere Politiker beides gleichzeitig an, die Energiebesteuerung und die Energiewende. Sie peinigen unsere Volkswirtschaft also gleichzeitig mit Arteriosklerose und Herzmuskelschwäche. Wie lange wird die das noch überleben?
Der Beitrag erschien zuerst in Freie Welt net hier
Über den Autor:
Geboren 1934 in Bonn, Abitur am Aloisiuskolleg zu Bad Godesberg, Studium des Flugzeugbaus an der RWTH Aachen, Abschluß mit Diplom, Kurs in experimenteller Aerodynamik am von Kármán Institut in Rhode-St-Genèse, Belgien, 3 Jahre wissenschaftlicher Mitarbeiter am Institut für angewandte Gasdynamik der DLR in Aachen, 31 Jahre im Flugzeugentwurf bei Dornier in Immenstaad, zwei Jahre freier Mitarbeiter bei der DASA in Ottobrunn, seit 1997 im Ruhestand, verheiratet, 5 Kinder, 9 Enkel.




Reaktortypen in Europa — Teil3, AP1000

Geschichte

Der AP1000 entwickelt sich zum "Golf" der Kernkraftwerke. Inzwischen sind acht Reaktoren in Bau: Je zwei in Sanmen und Haiyang in China und in Vogtle (Georgia) und Summer (South Carolina) in USA. Zahlreiche andere befinden sich weltweit im Vergabeverfahren. So sind drei Reaktoren in Moorside (West Cumbria, nordwestlich von Sellafield, UK) in Vorbereitung. Sie sollen durch NuGen, ein Joint Venture aus Toshiba (Westinghouse gehört zu Toshiba) und GDF SUEZ errichtet und betrieben werden.
Ständig steigende Investitionskosten und steigende Sicherheitsanforderungen zwangen Westinghouse das Konzept grundlegend zu überarbeiten. Über 50 Jahre Betriebserfahrung gipfelten in einer völlig neuen Konstruktion mit vier zentralen Anforderungen:
·        Vereinfachte Konstruktion: Was man nicht hat, kostet auch nichts und kann nicht versagen,
·       Übergang von aktiven auf passive Sicherheitssysteme,
·       modularer Aufbau und
·       parallele Errichtung von Bau und Anlagentechnik.
Der AP1000 ist ein schönes Beispiel dafür, was man erreichen kann, wenn man den Mut hat, eine Konstruktion noch einmal mit einem weißen Blatt Papier von Anfang an zu beginnen. Vorgabe war ein Druckwasserreaktor mit einer mittleren Leistung von rund 1000 MWel. Schon damit setzte man sich ab. Man versuchte gar nicht erst eine Kostensenkung über eine Leistungssteigerung zu erzielen, sondern setze lieber auf die Nachfrage des Weltmarktes. Die Größe entsprach nur etwa 2/3 der letzten Typen der zweiten Generation. Dieser Rückschritt sollte dafür die Märkte der Schwellenländer mit noch kleinen Netzen einschließen.
Durch die "geringe" Leistung kommt man mit nur zwei modernen Dampferzeugern gegenüber üblicherweise vier aus. Dies spart schon mal beträchtlich umbauten Raum, der bei Kernkraftwerken besonders teuer ist (Sicherheitsbehälter, Betonbunker etc.). Durch weiteres, konsequentes "weglassen" ergibt sich der Druckwasserreaktor, mit dem geringsten Beton- und Stahleinsatz pro MWel.
Ein weiterer Ansatz zur Senkung der Stromerzeugungskosten ist die Verlängerung der Nutzungsdauer: Die Ausdehnung auf genehmigte 60 Jahre, verteilt die Kapitalkosten auf wesentlich mehr produzierte KWh. Weniger sicherheitsrelevante Teile (z. B. Noteinspeisepumpen mit zugehörigen Ventilen und Rohrleitungen) oder robustere Konstruktionen (z. B. dichtungslose Hauptkühlmittelpumpen) verringern die Wartungskosten und die notwendigen Wiederholungsprüfungen. Eine nicht zu vernachlässigende Einsparung über die Lebensdauer eines Kraftwerks.

Pumpen

Üblicherweise stehen die Hauptkühlmittelpumpen zwischen den Dampferzeugern. Sie sind mit diesen und dem Reaktordruckgefäß über Rohrleitungen verbunden. Die Pumpen saugen das abgekühlte Wasser aus den Dampferzeugern an und drücken es zurück durch den Kern. Beim AP1000 haben sie die gleiche Aufgabe. Sie sind aber paarweise direkt an den Dampferzeugern angeflanscht. Dies erspart nicht nur Rohrleitungen, sondern vereinfacht diese erheblich. Es sind weniger Formstücke und Schweißnähte erforderlich und der Schutz gegen Erdbeben gestaltet sich wesentlich einfacher.
Die Pumpen selbst, sind für zivile Druckwasserreaktoren ungewöhnlich. Sie verfügen über mit Wasser geschmierte Gleitlager und sind voll gekapselt. Der Läufer und der Stator sind in wasserdichte Hüllen eingeschweißt. Das Pumpenrad sitzt direkt auf der Welle des Antriebsmotors. Sie benötigen damit keine Wellendichtungen und sind somit extrem wartungsarm. Sie sind für eine Betriebsdauer von 60 Jahren ausgelegt und zugelassen. Dieser Pumpentyp ist sehr anspruchsvoll in der Fertigung. Die USA verfügen jedoch über eine jahrzehntelange Erfahrung mit diesem Pumpentyp in ihrer Marine.

Passive Sicherheit

Unter "Passiver Sicherheit" versteht man, daß bei keinem Störfall Pumpen, Diesel etc. benötigt werden, um den Reaktor in einen sicheren Zustand zu überführen und zu halten. Alle Armaturen müssen nur einmal ausgelöst werden (voll offen oder voll geschlossen) und nach Auslösung ohne Hilfsenergie auskommen. Es sollten keine Eingriffe durch das Personal nötig sein.
Hinter dieser Definition verbirgt sich noch ein weiterer Ansatz zur Kostensenkung: Man kann "Sicherheit" oder "Verteidigung" in mehreren Stufen definieren. Bevor ein Ereignis zu einem Störfall wird, kann man durch automatische Stellglieder die Folgen abwenden. So kann man z. B. bei einem Generatorschaden den Dampf direkt in den Kondensator leiten und dadurch eine Notkühlung verhindern. Alle für diese Umleitung notwendigen Komponenten bräuchten nur den bei konventionellen Kraftwerken üblichen Qualitätsstandard besitzen, da sie das eigentliche Sicherheitssystem (gemeint ist damit das passive Notkühlsystem) nicht berühren. Nur die Komponenten des passiven Sicherheitssystems müssten den Stempel "nuclear grade" tragen. Oft sind solche Teile völlig identisch mit dem "Industriestandard" — unterscheiden sich lediglich im bürokratischen Aufwand und im Preis.
Man kann die Sicherheit — bezogen auf eine eventuelle Freisetzung von radioaktiven Stoffen in die Umwelt — noch steigern, indem man eine konsequente Diversifizierung betreibt. Ferner sieht man für wahrscheinlichere Ereignisse eine höhere Anzahl von Verteidigungsstufen vor.

Der Station Blackout

Vor Fukushima war der größte anzunehmende Unfall (GAU) der entscheidende Sicherheitsmaßstab. Man ging von einem plötzlichen Verlust der Reaktorkühlung infolge einer abgerissenen Hauptkühlmittelleitung aus. Um ein solches Ereignis zu beherrschen — ohne Freisetzung nennenswerter Radioaktivität in die Umwelt — muß bei Reaktoren mit aktivem Sicherheitskonzept auf jeden Fall ausreichend elektrische Energie vorhanden sein. Mindestens ein Notstromdiesel muß starten und die entsprechenden Schaltanlagen müssen funktionstüchtig sein. In Fukushima hat beides ein Tsunami außer Gefecht gesetzt.
Seit Fukushima ist der "station blackout" ins öffentliche Interesse geraten. Gemeint ist damit der völlige Verlust von Wechselstrom (Kraftstrom) im Kraftwerk. Es ist nur noch Gleichstrom aus Batterien für Steuerung und Notbeleuchtung vorhanden. Es ist daher interessant, wie der AP1000 auf solch eine Situation reagieren würde:
Durch den Stromausfall fallen die Regelstäbe durch ihr Eigengewicht in den Reaktorkern ein und unterbrechen jede Kettenreaktion. Allerdings beträgt in diesem Moment die Nachzerfallswärme noch rund 6% der thermischen Leistung (ungefähr 200 MW), die sicher abgeführt werden müssen. Durch den Stromausfall, fallen alle Pumpen aus. Durch die in den Schwungrädern der Hauptkühlmittelpumpen gespeicherte Energie, laufen diese noch geraume Zeit nach und halten den Primärkreislauf aufrecht. Allerdings ist nach etwa zwei Minuten der Wasserstand auf der Sekundärseite der Dampferzeuger auf sein zulässiges Minimum gefallen, da die Speisepumpen auch nicht mehr laufen können. Dieser Zustand öffnet automatisch die beiden Ventile zur Notkühlung (die Ventile sind im Betrieb elektromagnetisch geschlossen, d. h. Strom weg = Ventil offen). Nur ein Ventil müßte öffnen (Redundanz), um die volle Wärmeleistung abzuführen. Das Wasser strömt nun vom Reaktorkern zu einem Wärmetauscher (PRHR HX) in dem Wassertank innerhalb der Sicherheitshülle (PRHR). Dieser Tank liegt deutlich oberhalb des Reaktordruckgefässes, wodurch sich ein Naturumlauf ergibt. Nach rund zwei Stunden ist die Nachzerfallswärme auf rund ein Prozent (immerhin noch rund 34 MW) abgefallen. Nach ungefähr fünf Stunden wäre der Tank soweit aufgeheizt, daß das Wasser zu sieden beginnt. Der Sicherheitsbehälter ist ein Zylinder aus 45 mm dickem Stahlblech (bessere Wärmeleitung als Beton). Der Dampf würde an den Wänden kondensieren und über ein Auffangsystem zurück in den Tank laufen. Der Sicherheitsbehälter wiederum, würde seine Wärme an die Umgebungsluft abgeben. Die Umgebungsluft steigt wie in einem Kamin im Zwischenraum zwischen Sicherheitshülle und Betonwand der Schutzhülle (gegen Flugzeugabsturz usw.) auf. Steigt der Druck im Sicherheitsbehälter über einen Grenzwert an, werden zur Steigerung der Kühlung die pneumatisch betätigten Ventile der Beregnungsanlage geöffnet. Ganz oben, auf dem Dach des Reaktors, befindet sich ein charakteristischer, ringförmiger Wassertank. Aus ihm würde nun Wasser durch Schwerkraft auf die äußere Seite des Sicherheitsbehälters "regnen" und diesen stärker kühlen. Der Inhalt des Tanks reicht für 72 Stunden Regen.
Durch die (gewollte) Abkühlung des Reaktors zieht sich das gesamte Wasser des Primärkreislaufes wieder zusammen. Der Wasserstand im Druckhalter sinkt. Genauso würde er sinken, wenn der klassische GAU — irgendein Leck im Primärkreis — eingetreten wäre. Damit ein zeitweiliges "trocken fallen" der Brennelemente (Harrisburg und Fukushima) sicher verhindert werden kann, wird rechtzeitig Wasser nachgespeist. Hierfür gibt es sog. Akkumulatoren. Das sind Behälter, die teilweise mit Wasser gefüllt sind und durch ein Stickstoffpolster unter Druck gehalten werden. Aus diesen strömt automatisch (Rückschlagventile, die durch den Druck im Primärkreis geschlossen gehalten werden, Druck zu klein = Ventil offen) Wasser in den Reaktordruckbehälter nach.
Ist der Druck — egal ob durch ein Leck oder Abkühlung — bis auf Umgebungsdruck abgebaut, kann die Kühlung direkt über die Verdampfung des Wassers im Druckbehälter endlos weiter erfolgen. Dieser Zustand kann auch gewollt oder automatisch angestrebt werden. Würde die Kühlung — aus welchen Gründen auch immer — versagen, würde der Druck im Reaktorbehälter immer weiter ansteigen. Um dies zu verhindern, kann man den Druck über ein Abblasen des Druckhalters abbauen. Dies ist ein Beispiel, wie man durch den geschickten Aufbau einer Sicherheitskette das eventuelle Versagen einzelner Glieder überbrücken kann: Würden tatsächlich beide Ventile (2×100%) des Notkühlkreislaufes versagen (siehe weiter oben) müßte trotzdem nicht die Kühlung ausfallen, sondern es würde lediglich ein anderer Weg beschritten.

Die 72 h Regel

Beim AP1000 bezieht sich die passive Sicherheit nicht nur auf die Anlagentechnik, sondern auch auf das Personal. Seit den Störfällen von Harrisburg und Tschernobyl weiß man um die Bedeutung von Bedienungsfehlern. Gerade in der Zeit unmittelbar nach der Störung ist die Wahrscheinlichkeit dafür besonders hoch: Das Schichtpersonal muß erst seinen Schock überwinden, eine wahre Informationsflut muß erst einmal verarbeitet werden, damit man sich überhaupt einen Überblick verschaffen kann und dann müssen die richtigen Maßnahmen auch noch erkannt und eingeleitet werden. Andererseits sind drei volle Tage eine recht lange Zeit, um etwas zu reparieren, Fachleute außerhalb des Kraftwerks hinzu zu ziehen oder sogar Ersatzgerät herbeizuschaffen. Dies gilt selbst bei schwersten Naturkatastrophen, wie in Fukushima.
Dabei sind die 72 Stunden als Mindestwert bei ungünstigsten Bedingungen zu verstehen. Nach Ablauf dieser Zeitspanne sind weitere Auffanglinien vorgesehen. So können z. B. die Kühlwasserbehälter auch von außen über die Feuerlöschtanks auf dem Gelände nachgefüllt werden. Hierfür ist allerdings wenigstens ein kleiner Hilfsdiesel, der zusätzlich zu den eigentlichen Notstromdieseln vorhanden ist, nötig. Der Treibstoffvorrat beträgt vier Tage.  Inzwischen dürften längst Hilfskräfte und Material aus den Notfallcentern eingetroffen sein.

Die Strategie zur Kostensenkung

So makaber es klingen mag, aber die Unglücke von Tschernobyl (vollkommen explodierter Reaktor) und Fukushima (in drei Reaktoren gleichzeitige Kernschmelze) haben den "Atomkraftgegnern" ihr stärkstes Argument von dem "unkalkulierbaren Restrisiko" bei Kernkraftwerken entzogen. Nur noch sehr schlichte Gemüter glauben das Märchen "Millionen-Tote-für-10000-Jahre-unbewohnbar". Es ist also kein Zufall, daß sich die "Bewegung" nun auf angeblich "zu teuer", konzentriert. Für die Investitionskosten sind folgende Faktoren ausschlaggebend:
·       Unnötig kompliziert: Doppelte Betonbunker, Core catcher, weitere Notstromdiesel, Pumpen etc.
·       Bürokratismus: "Nuclear grade" erfordert einen — teilweise absurden — bürokratischen Aufwand. Oft kostet das gleiche Bauteil als "nuclear grade" geadelt, den vier bis fünffachen Preis. Um eine Diskussion über Sinn und Zweck zu vermeiden, sollte dieser Standard nur noch für echte Sicherheitstechnik verlangt sein. So könnte man beispielsweise bei einem Reaktor mit passiver Sicherheit, die Notstromdiesel aus diesem Verfahren entlassen — als wenn es in anderen Bereichen (IT, Luftfahrt, Seefahrt etc.) keine Sicherheitsnormen gäbe.
·       Bauzeit: Je länger die Bauzeit dauert, desto höher sind automatisch die Baukosten (Verzinsung), das Risiko (z. B. Inflation) und der ausgefallene Gewinn (z. B. Zukauf von Strom). Eine Verkürzung läßt sich grundsätzlich nur durch parallele Abläufe erzielen.
·       Baustelle: Arbeiten auf Baustellen sind grundsätzlich teurer, als eine Fertigung in einer Fabrik. Hinzu kommt meist noch ein schwer zu kalkulierendes Witterungsrisiko.
·       Serien: Jeder "first of a kind" ist teurer als die Nachfolgemodelle. Hat man erst einmal die "Konstruktionsfehler" behoben und das Personal seine Erfahrungen gesammelt, geht die Arbeit wesentlich flotter. Dies hat sich auch jetzt beim Bau der ersten AP1000 in China und USA wieder gezeigt.
Westinghouse hat konsequent auf eine Modularisierung bei paralleler Fertigung gesetzt. Im Schiffbau nennt man das "Sektionsbauweise". Ziel ist die Errichtung eines Kernkraftwerks in 36 Monaten. Diesen sind noch der Vorlauf für die Baustelleneinrichtung und die Inbetriebnahme hinzu zu rechnen, sodaß ein Zeitraum von rund fünf Jahren zwischen Auftragserteilung und Übergabe an den Kunden liegt.

Der Rohbau

Üblich ist es schon immer, alle großen Bauteile: Reaktordruckgefäß, Dampferzeuger, Druckhalter, Turbine und Generator, Kühlmittelpumpen etc. möglichst schnell zu vergeben. Diese Aggregate werden von Spezialfirmen gefertigt und getestet und kommen möglichst komplett auf die Baustelle.
Gänzlich anders verhielt es sich bisher mit dem baulichen Teil: Der Hochbau wurde ganz konventionell in Ortbeton hergestellt. Dabei arbeitete man sich, wie bei jedem anderen Gebäude auch, vom Keller bis zum Dach stückweise voran. Wie auf jeder anderen Baustelle auch, konnte man mit dem Innenausbau erst beginnen, wenn der Rohbau fertig war.
Beim AP1000 hat man konsequent mit dieser Tradition gebrochen. Hier gilt: Möglichst wenig Arbeiten auf der unmittelbaren Baustelle und weitgehendste Fertigung in den Fabriken der Zulieferer. Um möglichst parallel arbeiten zu können, werden die Sektionen auf dem Baustellengelände aus den gelieferten Modulen zusammengebaut und die Sektionen termingerecht mit einem Schwerlastkran (3200 to) zu dem eigentlichen Reaktor zusammengefügt.
Konventionell (Schalung aus Holz, Eisengeflecht vor Ort und mit Beton ausgegossen) gebaut, wird nur noch die Grundplatte, auf der die gesamte "nukleare Insel" steht. Schon die sich anschließende "Reaktorgrube" ist eine komplette Sektion in Sandwich-Bauweise. So geht es Sektion für Sektion nach oben. Der Schwerlastkran stapelt alle wie auf einer Werft über- und nebeneinander. Dazu gehören auch ganze Baugruppen aus Rohrleitung, Pumpen, Ventilen usw., fertig lackiert, in Stahlgestellen. Die eigentliche Montage vollzieht sich in der erdbebenfesten Verbindung der Gestelle mit dem Baukörper und dem Anschluß an die Versorgungsleitungen etc. Da diese Module schon bei ihren Herstellern vollständig getestet und abgenommen worden sind, verkürzt sich auch die spätere Inbetriebnahme erheblich.

Das Sandwich

Für eine konventionelle Betonwand muß der Zimmermann eine Schalung aus Holz bauen und die Eisenflechter die Moniereisen einbringen. Nach dem Aushärten des Beton muß alles noch mühselig ausgeschalt und meist auch noch nachgearbeitet werden. Eine kosten- und vor allem zeitaufwendige Arbeit. Außerdem sind Zimmerleute keine Feinmechaniker.
Ein Sandwich besteht aus zwei Stahlplatten, die später mit Beton ausgegossen werden. Die Stahlplatten-Konstruktion übernimmt die Funktion einer verlorenen Schalung und enthält auch noch das "notwendige Eisen", was die Festigkeit eines Stahlbeton ausmacht. Auf den ersten Blick keine revolutionäre Erfindung. Nur sind die Wände und Decken in einem Kraftwerk meist nicht massiv, sondern haben unzählige Durchbrüche und Einbauten. Wenn man die Anlagentechnik auch in Modulen vorfertigen will, müssen diese in der Toleranz von Maschinenbauern und nicht von Zimmerleuten ausgeführt werden. Wenige Millimeter Versatz, enden in einer teuren Katastrophe. Die einzelnen Platten werden nun — wie auf einer Werft — vollautomatisch aus- und zugeschnitten. Die Verstärkungen (die das Eisengeflecht bei konventionellem Beton ersetzen) werden auf Schweißmaschinen angebracht und die Platten zu Modulen zusammengeschweißt. Die Größe der Module ist dabei maßgeblich durch den Transportweg begrenzt. Die größte Sektion besteht z. B. in Vogtle aus 72 Modulen, die auf der Baustelle zusammengeschweißt wurden und mittels eines Schwerlasttransporters und des Schwerlastkranes in den Sicherheitsbehälter eingesetzt wurde. Diese Sektion wiegt ohne Betonfüllung rund 1000 to.

Neue Herausforderungen

Die Aufteilung in drei Bauphasen: Fertigung von Modulen bei den Herstellern, zusammenfügen der Module zu Sektionen auf separaten Vormontageplätzen und der Zusammenbau der Sektionen zum eigentlichen Reaktor, erfordert eine besonders ausgefeilte Planung und Logistik.
Ein solches Vorhaben kann nur gelingen, wenn man von Anfang an, wirklich alle Elemente auf einem entsprechenden Rechner in vierdimensionaler (drei Orts- und eine Zeitachse) Abbildung zur Verfügung hat. Solche Werkzeuge gibt es noch nicht sehr lange. Zum Werkzeug gehören aber noch die entsprechend qualifizierten Konstrukteure mit praktischer Erfahrung und eine Lernkurve. So waren z. B. bei den ersten Reaktoren in China einige Abstände zwischen den Kabelbahnen und den Decken des nächsten Moduls zu knapp bemessen. Es ergaben sich tote Ecken bezüglich der Lackierung, usw. Alles Dinge, die zu Zeitverzug und ungeplanter Nacharbeit geführt haben.
Es ist eine ungeheure Disziplin und straffe Organisation über die gesamte Laufzeit eines Projekts erforderlich: Jede Änderung bei einem Zulieferer — irgendwo auf der Welt — kann dutzende Änderungen, zusätzliche Prüfungen usw. bei anderen Zulieferern auslösen. Gerade Dokumentation und Prüfungen sind in der kerntechnischen Industrie eine besondere Herausforderung. In den USA hat letzteres zu erheblichen Verzögerungen beim Bau des Kraftwerks Vogtle geführt. Ein Hersteller aus Louisiana — der seit Jahrzehnten erfolgreich im Bau von Ölförderanlagen etc. tätig war — war mit diesen "Gepflogenheiten der Kerntechnik" nicht hinreichend vertraut. Im Endergebnis mußten etliche Module aus China nachbestellt werden.
Die Sektionsbauweise ist auch nicht ohne Tücken und erfordert entsprechendes Fachpersonal auf der Baustelle. Es müssen komplizierte und stabile Leergerüste gebaut werden, um die Sektionen aus Modulen passgerecht zusammen zu bauen. Der Verzug beim Schweißen und die Temperaturschwankungen sind bei so großen Bauteilen eine weitere Herausforderung. Der Schwerpunkt ist ebenfalls nicht immer genau festgelegt, was das Anheben ohne zusätzliche Belastungen nicht einfacher macht. Für Sektionen bis zu 1000 to müssen entsprechende Kräne und Transporter bereitgehalten werden. Für diese selbst, muß die Infrastruktur (Schwerlaststraßen, Bewegungsräume, Energieversorgung etc.) geschaffen werden.

Ausblick

Der AP1000 setzt die Maßstäbe für den Bau moderner Druckwasserreaktoren. Seine Weichen werden z. Zt. in China gestellt. Er kann seine wirtschaftlichen Vorteile erst in einer größeren Serie voll ausspielen. Die Lernkurve zeichnet sich bereits in USA und China deutlich ab. Es ist nur eine Frage der Stückzahl, wann die Investitionskosten für ein solches Kernkraftwerk unter das Niveau eines Kohlekraftwerks nach deutschen Standards (Wirkungsgrad 46%, mit Entstickung und Rauchgasentschwefelung, zugehörige Entsorgungsanlagen etc.) gesunken sind. Genau diese Frage, stellt sich aber bereits heute — wie schon in den 1970er Jahren in Deutschland –, wenn man die Luftverschmutzung in Peking betrachtet. Anschließend steht für China ein gigantischer Weltmarkt offen. Wir sprechen bereits in Europa nicht nur über Moorside, sondern auch über Polen, Tschechien und Bulgarien.
Im nächsten Teil4 geht es um die Siedewasserreaktoren, wie sie z. B. für den Standort Wylfa Newydd (Insel Anglesey in Nord Wales, GB) vorgesehen sind.
Zuerst erschienen bei NukeKlaus hier




E – Mobilität und Energiewende, zwei Seiten einer Falschgeld-Medaille

Leserbrief E-Auto AZ vom 8.1.2015: „Wo sind all die Elektroautos?
E – Mobilität und Energiewende, zwei Seiten einer Falschgeld-Medaille
Der AZ-Bericht bietet eine gute Gelegenheit, das Dilemma der fehlenden Speicher für eine erfolgreiche E – Automobilität, ebenso wie für eine erfolgreiche Energiewende objektiv zu betrachten und zu erörtern. Die Thematik wird für alle, die um wirkliche und kostenmäßig realisierbare Fortschritte auf dem Energiesektor oder dem Fahrzeugsektor bemüht sind, von Interesse sein und leider wohl einige Träume zerstören:  Entgegen vieler medialer Bekundungen, hat sich auf dem E-Mobilitätsgebiet, abgesehen von hervorragenden Entwicklungen in der elektrischen Traktion, bis zum Hybrid AUTO z.B. dem BMW i8, in der Stromspeichertechnik zur Bereitstellung ausreichender elektrischer Traktionsenergie, bis auf durchaus erfreuliche Verbesserungen der Speicherfähigkeit und Lebensdauer im zweistelligen Prozentbereich und moderate Kostensenkungen in Relation zur Energiespeicherfähigkeit, den Kosten und der „Aufladezeit“ eines üblichen Benzintanks, nichts Wesentliches getan.  
Es ist offenbar sehr schwer, in Demut vor den physikalischen Gesetzmäßigkeiten zu bekennen, dass die Ursache des Problems einfach verdrängt wird: Tatsache ist nämlich, dass wir nach dem derzeiti-gen Stand der Wissenschaft und Technik kein physikalisches Prinzip zur Stromspeicherung größerer Energiemengen zu bezahlbaren Kosten, jenseits zu der in diesem Sinne untauglichen elektrischen oder magnetischen Feldenergie sowie der chemischen Energie, die allesamt im eV-Niveau (nicht MeV) agieren, kennen. Vergleichbar mit dem Energieinhalt eines 70 l Tanks mit rd. 650 kWh Energieinhalt, der fast nichts kostet, in 2 Minuten geladen ist und länger hält als das Fahrzeug, zu einer Lithium-Ionenbatterie mit 20 kWh Speichervermögen, die 10.000 € kostet, 6 h zur Aufladung benötigt und nach 7 Jahren ersetzt werden muss.  
Dieser realistische Vergleich harten Fakten verkennt nicht die um den Faktor drei höhere Effizienz des Elektromotors gegenüber dem Verbrennungsmotor, sowie dessen höhere wartungsfreie Betriebszeit, obschon die Verlustwärme zumindest im Winter ohne weiteren Primärenergieeinsatz ge-nutzt wird. Beim Übergang der Stromerzeugung von der Primärenergie Kohle zur Energiegewinnung mit 8,14 kWh je kg C hin zur Kernenergie mit 20 Millionen kWh je kg U235, beide Rohsoffe findet man in Natur-Lagerstätten unserer Erde, war eine ganz andere Welt aufgemacht, nicht nur prozentuale Verbesserungen realisiert.  Solange Vergleichbares nicht in der Energie-Speichertechnik gelingt, hat das E-Auto ohne massive staatliche Förderung oder administrativer Bevorzugung nur Nischenchancen, ebenso wie sie die Stromerzeugung aus Wind- und Sonnenanlagen ohne staatliche Förderung auch nur hätte.  Wenn man den 80 kW Elektromotor eines reinen E-Autos mit Nennleistung, d.h. etwa bei 130 km/h und leichter Steigung belastet, ist die Batterie in 15 Minuten leer gefahren, man hat dann 32,5 km zurück gelegt und eine E-Tankstelle ist außer jeder Sichtweite. Wenn man nur 60 km/h schnell fährt und dann auf ebener Strecke mit 10 kW auskommt, könnte man das Spiel 2 Stunden lang betreiben und hat sich dann 120 km weit fortbewegt. Wenn man dann wie-der zu Haus angelangt ist, kann man über Nacht aufladen und die Welt ist in Ordnung für den Einsatz am nächsten Tag.   Auf jegliche Heizung und 20 W Power-Lautsprecher hat der E-Autofahrer selbstverständlich verzichtet, für solchen "artfremden Komfort" ist die nur spärlich verfügbare Energie zu kostbar, da diese voll zu Lasten der Traktion geht.  
An diesem extremen, aber doch sehr realistischen Beispiel, kann man erkennen, wo die Grenzen der E-Mobilität derzeit und sicher auch noch in heute überschaubarer Zukunft von mindestens 20 Jahren liegen!  Genial ist die Problematik beim BMW i8 gelöst: Die 5,2 kWh Batterie (energetisch vergleichbar mit 0,6 Liter Benzin), bringt das Fahrzeug nach (NEFZ-Standard) mit dem 75 kW E-Motor und moderatem Tempo, 37 km weit. Der dazu verfügbare 170 kW Benzin-Motor bringt das Fahrzeug mit dem 42 l Tank rd. 600 km weit! 
  
Fazit: Also ein hervorragendes Hybrid Fahrzeug BMW i8: 6 % E-Betrieb und 94 % Benzin-Betrieb für 126.000 bzw. 145.000 € in komfortabler Ausstattung zu haben. Einen Massenmarkt werden solche Entwicklungen wohl nicht sehen oder begründen können.  Wenn man auf die 6 % E-Betrieb verzichtet und ansonsten das gleiche Komfortfahrzeug für 100 % Benzinbetrieb nimmt, hat man locker 50.000 € gespart. Zu hoffen ist, dass die Kosten solcher Ent-wicklungen nicht auf die erfolgreichen Allgebrauchssegmente „mit 100 % Benzinbetrieb“ umgelegt werden, sondern dort verbleiben, wo sich die Marktnische im Exklusivsegment auftut.  Nach dem Zusammenbruch des planwirtschaftlich basierten Kommunismus geht unsere Koalitionsre-gierung mit dem Wegfall der Wettbewerbsvergleiche  immer mehr zu unsinnigen planwirtschaftlichen politischen Strategien über, wo doch die Ineffizienz solcher Strategien von ein Viertel der Deutschen über 40 Jahre schmerzlich ertragen werden musste. Beim Auto zeigen die mündigen Bürger – als direkt Betroffene -, dass es so nicht geht, bei der extrem teuren „Energiewende“ haben die meisten die noch viel tiefer gehende persönliche Betroffenheit noch nicht erkannt.
Prof. Dr.-Ing. Helmut Alt                                                                
Aus ADAC Zeitschrift Bericht auf Seite 18 des Augustheftes 2014. 




Die deutsche Energiewende steckt in der Sackgasse

Heute wird in Deutschland rund ein Viertel des Stroms regenerativ erzeugt. Aber dies ist nur vordergründig eine Erfolgsmeldung. Der Haushaltsstrom ist 46 Prozent teurer als der EU-Durchschnitt. Industriestrom liegt um 18 Prozent darüber und ist etwa doppelt so teuer wie in den USA. Die CO2-Senkungs-Ziele für 2020 werden nicht erreicht. Die Energiewende ist nur eine Stromwende, denn der 25-Prozent-Anteil des regenerativ erzeugten Stroms macht am deutschen Gesamtenergiebedarf nur 8 Prozent aus. Die Energiewende befindet sich wegen hoher Kosten und geringer Wirkungsbreite in einer Sackgasse.
Auch die Bilanz der Klimaschutzanstrengungen fällt negativ aus: Während Deutschland seit 1990 die CO2-Emissionen um 0,2 Milliarden Tonnen gesenkt hat, verzeichnete China eine Steigerung um das Dreissigfache. Weltweit sind die CO2-Emissionen sogar um 11 Milliarden Tonnen, also um das Fünfzigfache, gestiegen. Zahlreiche EU-Länder haben ihre Emissionen gesteigert, die deutschen Anstrengungen finden keine Nachahmung: Die deutsche «Vorreiterrolle» ist eine politisch bedingte Wahrnehmungsstörung.

… Kosten ausser Rand und Band

Strom aus Windkraft, Sonnenlicht und Biomasse (EE-Strom) verursachte 2014 Kosten von 24 Milliarden Euro. Der Marktwert dieses Stroms beträgt aber nur 2 bis 3 Milliarden Euro. Legt man die Kosten von EE-Strom auf 24 Millionen deutsche «Normalerwerbstätige» um, so ergibt sich eine Nettobelastung von 1000 Euro pro Kopf und Jahr. Die Kosten werden per Umlage auf den Stromverbrauch entrichtet. Grundlage hierfür sind feste Einspeisevergütungen über 20 Jahre und Abnahmeverpflichtungen für die Versorgungsunternehmen. Durch dieses System sind bisher Kosten von 150 Milliarden Euro entstanden, und weitere 300 Milliarden Euro an Subventionen sind fest zugesagt. Das entspricht dem deutschen Bundeshaushalt eines ganzen Jahres. Die über 20 Jahre aufzubringenden Finanzmittel werden 1 Billion Euro betragen; das entspricht etwa der Hälfte aller deutschen Schulden.
Vollständigen Text in der NZZ hier lesen
Dietrich Böcker und Dietrich Welte waren Jahrzehnte in leitenden Funktionen in der Energiewirtschaft/Wissenschaft tätig.
Mit Dank an Leser Arne Hecker für den Hinweis