Wissenschaftsblog des Jahres gesucht: EIKE wieder nicht in der Auswahlliste

Auf Nachfrage, warum EIKE trotz Meldung dieses Jahr wieder nicht dabei sei, schrieb uns Herr Korbmann, dass nur Blogs ausgewählt würden, die in der Ranking Liste der Marketing Agentur Ebuzzing geführt würden. Merkwürdigerweise muss man sich dort selber anmelden, es wird also kein automatisches Scannen der einschlägigen URLs vorgenommen, um dadurch eine neutrale Auswahl vorzunehmen.

Wir haben uns diesmal dort angemeldet.

Uns war diese Ranking Agentur bisher völlig unbekannt.

Lt. der offenen Rankingagentur Alexa steht EIKE derzeit bei stolzen 5.001 (niedriger ist besser) aller von Alexa erfassten deutschsprachigen Websites, "Klimaretter.info" z.B. 8.807. Wissenschaft kommuniziert hat keinen deutschen Platz, im weltweiten Vergleich bei 3´536.000. (Zum Vergleich: EIKE steht weltweit bei 107.527)

Ein weiteres Kriterium lt. Herrn Korbmann war, dass man in seinem Kommentarbereich einen Kommentar mit der Bitte um Teilnahme zu hinterlassen hätte. Das hatten wir blöderweise letztes Jahr wohl vergessen, aber dieses Jahr nicht. Mal sehen, was nächste Jahr daraus wird. Daher, wenn Sie abstimmen wollen, stimmen Sie für ScienceSceptical

EIKE Redaktion




Winter werden in Deutschland seit einem Vierteljahrhundert deutlich kälter

Kürzlich erschien dieser Artikel http://notrickszone.com/2013/11/24/giss-data-confirm-winters-definitely-getting-colder-over-northern-hemisphere-continents-since-1995/

in welchem das bestätigt wurde, was EIKE-Leser schon längst wissen. Nämlich dass die Winter kälter werden.

Abb1: Laut GISS-Datensatz werden die Winter, das sind die Monate Dez/Jan/Febr/ seit 1995 kälter.

In Deutschland werden die Winter nicht erst seit 1995 kälter wie der GISS-Datensatz zeigt, sondern die erhobenen Daten des Deutschen Wetterdienstes beginnen sieben Jahre früher, also seit 1988 mit einer deutlichen Abwärtstendenz der Wintertemperaturen.

Abb.2: Der Winter 2013 sind die drei Monate Dezember 2012, sowie Januar und Februar 2013. Der derzeitige Dezember 2013 wird dann als Winter 2014 geführt.

In Deutschland werden die drei Wintermonate seit 1988 kälter. Daran kann auch der warme und schneearme Winter von 2007 wenig ändern. Die Politik redet zwar immer noch vom Klimawandel und suggeriert ein Wärmer werden. Durch die Gesetzgebung hat man aber längst auf die Kälte reagiert.

Das Wort Klimawandel wird stets im Sinne von Wärmer werden gebraucht. Doch durch eine Anzahl neuer politischer Verordnungen wie der Winterreifenpflicht und der Pflicht zur Energieeinsparung durch Kältedämmung bei Neubauten und bei Althausrenovierungen hat die Politik längst auf das Kälter werden reagiert, oft mit haarsträubenden Argumenten wie kürzlich ein Energieberater der württembergischen STEG im Gemeindrat von Hüttlingen. Man dämme die Gebäude natürlich auch gegen die Sommerhitze, meinte er. Zugleich aber hielt er einen Vortrag über die erwartete Einsparung bei Heizöl und Erdgas durch die vorgeschlagenen Dämmmaßnahmen.

In all dieser Zeit sind die Kohlendioxid-Konzentrationen, die nach Meinung der Warmisten und Treibhausgläubigen die Erwärmung bewirken sollen, natürlich weiter gestiegen. Darüber gibt die folgende Grafik Auskunft: 

Abb.3: Anstieg der Kohlendioxidkonzentration in der Luft, gemessen am Mouna Loa Dieses Jahr sollen bereits kurzfristig Konzentrationen von 400 ppm gemessen worden sein. 400ppm wären 0,04%CO2-Anteil in der Luft. (ppm = parts per million)

Fast könnte man meinen, dass mit einem zunehmenden CO2-gehalt in der Atmosphäre die Temperaturen immer Kälter werden, dass es also so etwas wie einen umgekehrten Treibhauseffekt geben müsse. Mehr CO2 kühlt, wäre die Schlussfolgerung aus den Grafiken 1 und 3. Den Eindruck gewinnt man umso mehr, je mehr man in die Gegenwart kommt, das zeigt die nächste Grafik der drei Wintermonate

Abb.4: Natürlich werden auch bei uns in Deutschland seit 1994 und erst recht seit 1995 die Winter genauso kälter wie auf der ganzen Nordhalbkugel und der Temperaturverlauf bestätigt voll und ganz den Giss-Datensatz.

1998 war weltweit das wärmste Jahr, natürlich war der Winter damals auch warm. In Deutschland betrug der Winterschnitt, ermittelt vom DWD anhand von 2000 Messstationen, 3 Grad. Auf der Grafik sieht man einen deutlichen Temperaturrückgang seit dieser Zeit. Man bedenke, dass vor allem unseren Kindern in den Schulen ständig vor einer bedrohenden Erwärmung Angst gemacht wird. Eine Erwärmung, welche die meisten der jungen Leute noch nie erlebt haben. Unsere Jugend kann sich nur an die Abkühlung erinnern. Ski und Rodel sind mittlerweile bis in die Tallagen hinein möglich.

Abb.5: Deutschland wird keine Winter mehr erleben. Die Jugend wird den Schnee nur noch aus den Erzählungen kennen lernen. All diese Falschvorhersagen vor 16 Jahren sind zum Leidwesen der Autofahrer und der meisten Menschen in Deutschland (rasant steigende Heizkosten!), überhaupt nicht eingetroffen.

Es stellt sich die Frage, warum die Winter seit einem Vierteljahrhundert wieder kälter werden?  Die folgende Abbildung 6 zeigt, dass die Wintertemperaturen in Deutschland zumindest seit 1881 einem Rhythmus unterliegen, der unter anderem von der NAO (einer Schwankung des Luftdruckgefälles zwischen Azorenhoch und Islandtief) und der AMO (einer Schwankung der Wassertemperaturen im Nordatlantik) gesteuert wird. Zwischen Kohlendioxid und den Wintertemperaturen kann es keinen Zusammenhang geben, denn die CO2-Konzentrationen wie Abb 2 zeigt, in diesem Zeitraum kontinuierlich angestiegen.

Wir halten also fest: Trotz steigender CO2-Werte fallen die Temperaturen.

Abb.6: Das Deutschland- Wintermittel der Lufttemperaturen über 132 Jahre (°C Deutschland, hellblau) ähnelt in seinem Verlauf dem NAO- Index und der Häufigkeit der am stärksten erwärmend wirkenden Westlagen im engeren Sinne (WA + WZ), während zur AMO ein eher inverser Verlauf besteht. Im Großen und Ganzen sind die Deutschen Wintertemperaturen gegenwärtig in etwa so, wie sie in den frühen 1880er Jahren waren- wo bleibt die „Klimaerwärmung“?

Abschließend wollen wir noch eine Vorschau auf den beginnenden Winter 2013/14 wagen. Vorsorglich müssen wir anmerken, dass sichere Langfristprognosen nach wie vor nicht möglich sind. Wie bereits mehrfach erläutert, sind diese Langfristprognosen außerdem wegen der nachlassenden Sonnenaktivität zunehmend schwieriger geworden. Es gibt weniger Westlagen, dafür aber mehr meridionale Lagen, was Extremwetter begünstigt und insgesamt zu einer leichten Abkühlung („Kleine Eiszeit“) führt. Diese Phase starker Temperaturschwankungen innerhalb, aber auch zwischen den einzelnen Jahren, begann um 2010 und ähnelt der Abkühlungsphase zwischen 1800 und 1820.

Auch 2013 war das eindrucksvoll zu erleben (extrem kalter März, warmer Juli). Auch die von uns erwartete, beginnende Abnahme der Sonnenscheindauer zeigte sich 2013 erstmals deutlich, denn mit Ausnahme des sehr sonnigen Juli waren fast alle Monate, besonders der Januar/Februar, Mai und der gesamte Herbst, sehr sonnenscheinarm. Das hat auch Auswirkungen auf die Lufttemperaturen, denn 2013 wird nach 2010 das bislang zweitkälteste Jahr des 21. Jahrhunderts in Deutschland werden.

Die nächsten zwei Abbildungen 7 und 8 http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/htmls/euT2me3Mon.html ) ( Quelle: zeigen die aktuellen Modellrechnungen des allerdings meist wenig verlässlichen CFS- v2- Modells für Europa im Dezember 2013 sowie im Februar 2014 (Orange- Rot bedeutet zu milde, blau zu kalte Monatswitterung):

Abb.7: Zu kalter Dezember 2013, besonders in Süddeutschland und Südosteuropa?

Abb.8: Zu milder Februar 2014? Diese Prognose ist extrem unsicher.

Aber zumindest der Dezember könnte diesmal ein Treffer werden, denn die erwartete Luftdruckverteilung (hoher Luftdruck über Nordwest- und Mitteleuropa, einhergehend mit einer Häufung der Großwetterlagen HB, BM, HM, NW und N) ist bereits eingetreten und deutet ebenfalls in diese Richtung (Abbildungen 8 und 9). Danach soll der hohe Luftdruck süd- oder südostwärts abziehen, so dass es im Hochwinter mehr Westlagen geben könnte, was aber noch sehr unsicher ist (Quelle: http://www.langfristwetter.de/ von LARS THIEME). 

Abb.9: Zu hoher Luftdruck über Nordwest- und bis nach Mitteleuropa (Rote bis grünliche Linien) könnte im Dezember einen Wechsel von nördlichen Kälteeinbrüchen und ruhigem Hochdruckwetter bedeuten. 

Abb.10: Falls im Januar 2014 der zu hohe Luftdruck süd- und südostwärts abzieht (rote bis orange Linien), so würde das eine eher durchschnittliche bis milde, unspektakuläre Hochwinterwitterung zur Folge haben.

Nach gegenwärtigem Kenntnisstand lässt sich der bevorstehende Winter 2013/14 so abschätzen:

Dezember besonders in Süddeutschland etwas bis deutlich zu kalt, im Norddeutschen Tiefland eher zu mild, trotz gelegentlicher Regen- oder Schneefälle viel niederschlagsärmer als der November, viele Nachtfröste. Thüringen ist wieder mal (so wie so oft bei der Witterung!) ein Niemandsland zwischen allen Extremen. Gelegentliche Wintereinbrüche bis ins Flachland sind denkbar; im Thüringer Wald bestehen meist befriedigende, zeitweise gute Wintersportbedingungen.

Januar/Februar möglicherweise relativ mild, doch kann die Witterung des Hochwinters, wenn überhaupt, erst zum Jahreswechsel abgeschätzt werden.

Insgesamt dürfte die Zonalzirkulation (Westlagenhäufigkeit und deren Stärke) im Winter 2013/14 unterentwickelt sein, was eigentlich für einen strengen Winter spricht. Diese Regel gilt jedoch dann nicht, wenn ausgeprägte Hochdruckgebiete zwischen dem Nordmeer und Skandinavien selten sind oder ganz fehlen (der hohe Luftdruck scheint sich in diesem Winter eher zwischen Nordwest-, Mittel- und Südosteuropa zu etablieren).

Nun ist der Winter 2013/14 einige Tage alt, und ein erster, schwächerer Kälteeinbruch mit einem Wintersturm am 5./6. Dezember (keine Folge eines „Klimawandels“, sondern normal, vergleichbar mit den Hamburger Sturmfluten von 1962 und 1976 oder dem „Niedersachsen- Orkan“ vom November 1972) liegt hinter uns.

Unsere Erinnerung vergleicht meistens mit den zwei, drei letzten Wintern. Letztes Jahr hatten wir einen Schnitt von 0,3 Grad, wobei der Winter im Norden deutlich kälter ausfiel als im Süden. Der Süden hatte zwar auch viel Schneefall und Kälte, jedoch wurden die eisigen Tage oft durch südliche Luftströmungen unterbrochen. Der CO2-Anteil wird weiter zunehmen, bei uns schon allein durch die Energiewende, weil die Kernkraftwerke durch Kohlekraftwerke ersetzt werden. Man würde sich wünschen, dass dieses hochgepriesene erwärmende Treibhausgas endlich einmal seine Wirkung zeigen würde. Doch die in den Schaubildern gezeigten Trendlinien sind eindeutig. Selbst ein relativ milder bis normaler Winter würde diesen Trend noch nicht wesentlich abschwächen.

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar




Neue Kern-Reaktorkonzepte in Entwicklung – Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht

Sieger der ersten Runde war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Eine sehr konservative Entscheidung: Babcock & Wilcox hat bereits alle Reaktoren der US Kriegsschiffe gebaut und besitzt deshalb jahrzehntelange Erfahrung im Bau kleiner (militärischer) Reaktoren. Bechtel ist einer der größten internationalen Ingenieurfirmen mit dem Schwerpunkt großer Bau- und Infrastrukturprojekte. Tennessee Valley Authority ist ein öffentliches Energieversorgungsunternehmen. Wie groß die Fördersumme letztendlich sein wird, steht noch nicht fest. Die in der Öffentlichkeit verbreiteten 452 Millionen US-Dollar beziehen sich auf das gesamte Programm und nicht jeden Hersteller. Insofern war die Entscheidung für den Kandidaten, mit dem am weitesten gediehenen Konzept, folgerichtig.

Die Wirtschaftlichkeit

An dieser Stelle soll nicht auf den Preis für eine kWh elektrischer Energie eingegangen werden, da in diesem frühen Stadium noch keine ausreichend genauen Daten öffentlich zugänglich sind und es rein spekulativ wäre. Es sollen viel mehr ein paar qualitative Überlegungen angestellt werden.

Man geht von deutlich unter einer Milliarde US-Dollar pro SMR aus. Auch, wenn man nur eine Stückzahl von 100 Stück annimmt, ergibt das den stolzen Umsatz von 100 Milliarden. Dies entspricht in etwa dem "Modellwert" in der Flugzeugindustrie. Damit wird sofort klar, daß das keine Hinterhof-Industrie werden kann. Der Weltmarkt wird unter einigen wenigen Konsortien von der Größenordnung Boing oder Airbus unter sich aufgeteilt werden! Wer zu lange wartet, hat praktisch keine Chance mehr, in diesen Markt einzusteigen. Ob Europa jemals noch ein Konsortium wie Airbus schmieden kann, ist mehr als fraglich. Die Energieindustrie wird wohl nur noch von den USA und China bestimmt werden.

Es ergeben sich auch ganz neue Herausforderungen für die Finanzindustrie durch die Verlagerung des Risikos vom Besteller zum Hersteller. Bisher mußte ein Energieversorger das volle Risiko allein übernehmen. Es sei hier nur das Risiko einer nicht termingerechten Fertigstellung und das Zinsänderungsrisiko während einer Bauzeit von zehn Jahren erwähnt. Zukünftig wird es einen Festpreis und kurze Bauzeiten geben. Die Investition kann schnell wieder zurückfließen. Daraus erklärt sich der Gedanke, ein Kernkraftwerk heutiger Größenordnung zukünftig aus bis zu einem Dutzend einzelner Anlagen zusammen zu setzen. Sobald der erste Reaktor in Betrieb geht, beginnt der Kapitalrückfluss. Man spielt plötzlich in der Liga der Gaskraftwerke!

Damit stellt sich aber die alles entscheidende Frage: Wer ist bereit, das finanzielle Risiko zu tragen? China hat sich durch den Bau von 28 Kernkraftwerken eine bedeutende Zulieferindustrie aufgebaut. Auch die USA verfügen über eine solche. Das Risiko auf verschiedene Schultern zu verteilen, ist ein probates Mittel. Europa müßte sich unter — wahrscheinlich französisch-britischer Führung — mächtig sputen, um den Anschluß nicht zu verlieren. Im Moment sieht es eher so aus, als wenn Frankreich, Großbritannien und die USA gleichermaßen um die Gunst von China buhlen.

Um es noch einmal in aller Deutlichkeit zu sagen: Europa fehlt es nicht an technischen Möglichkeiten und an Finanzkraft, sondern am politischen Willen. Es ist das klassische Henne-Ei-Problem: Ohne ausreichende Bestellungen, ist keiner bereit, in Fertigungsanlagen zu investieren. Wer aber, sollte diesen Mut aufbringen, ausgerechnet in Deutschland, wo es keinen Schutz des Eigentums mehr gibt, wo eine Hand voll Politiker nach einem Tsunami im fernen Japan, mit einem Federstrich, Milliarden vernichten können und die breite Masse dazu auch noch Beifall klatscht?

Fertigung in einer Fabrik

Bisher wurden Kernreaktoren mit immer mehr Leistung gebaut. Inzwischen wurde beim EPR von Areva fast die 1700 MWe erreicht. Man macht damit Kernkraftwerke und ihre Komponenten selbst zu einem Nischenprodukt. Nur wenige Stromnetze können so große Blockgrößen überhaupt verkraften. Andererseits wird der Kreis der Zulieferer immer kleiner. Es gibt weltweit nur eine Handvoll Stahlwerke, die überhaupt das Rohmaterial in der erforderlichen Qualität liefern können. Hinzu kommen immer weniger Schmieden, die solch große Reaktordruckgefäße, Turbinenwellen, Schaufeln etc. bearbeiten können. Je kleiner die Stückzahlen und der Kreis der Anbieter wird, um so teurer das Produkt.

Es macht aber wenig Sinn, kleine Reaktoren als verkleinertes Abbild bisheriger Typen bauen zu wollen. Dies dürfte im Gegenteil zu einem Kostenanstieg führen. Will man kostengünstige SMR bauen, muß die gesamte Konstruktion neu durchdacht werden. Man muß praktisch mit dem weißen Blatt von vorne beginnen. Typisches Beispiel ist die Integration bei einem Druckwasserreaktor: Bei der konventionellen Bauweise ist jede Baugruppe (Druckgefäß, Dampferzeuger, Umwälzpumpen, Druckhalter) für sich so groß, daß sie isoliert gefertigt und transportiert werden muß und erst am Aufstellungsort durch Rohrleitungen miteinander verbunden werden kann. Damit wird ein erheblicher Arbeits- und Prüfaufwand auf die Baustelle verlegt. Stundensätze auf Baustellen sind aber wegen ihrer Nebenkosten stets um ein vielfaches höher, als in Fabriken. Gelingt es, alle Baugruppen in das Druckgefäß zu integrieren, entfallen alle notwendigen Montagearbeiten auf der Baustelle, weil ein bereits fertiger und geprüfter "Reaktor" dort angeliefert wird. Bauteile, die es gar nicht gibt (z. B. Rohrleitungen zwischen Reaktordruckgefäß und Dampferzeugern) müssen auch nicht ständig gewartet und wiederholt geprüft werden, was auch noch die Betriebskosten erheblich senkt.

Wenn alle Bauteile wieder "kleiner" werden, erweitert sich auch automatisch der potentielle Herstellerkreis. Die Lieferanten können ihre Fertigungsanlagen wieder besser auslasten, da sie nicht so speziell sein müssen. Es ist wieder möglich, eine nationale Fertigung mit akzeptablen Lieferzeiten zu unterhalten.

Durch die Fertigung von Bauteilen in geschlossenen Hallen ist man vor Witterungseinflüssen (oder schlicht Dreck) geschützt, was die Kosten und das Ausschussrisiko senkt. Eine Serienfertigung führt durch den Einsatz von Vorrichtungen und die Umlage von Konstruktions- und Entwicklungskosten etc. zu geringeren Kosten. Die Standardisierung senkt Schulungskosten und erhöht die Qualität.

In der Automobilindustrie ist die Teilung in Markenhersteller und Zulieferindustrie üblich. Gelingt es Bauteile für Kernkraftwerke zu standardisieren, kann sich auch eine kerntechnische Zulieferindustrie etablieren. Ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken ist dem erforderlichen "nuclear grade" geschuldet. Es ist kein Einzelfall, daß ein und das selbe Teil für Kernkraftwerke durch diesen Status (Dokumentation, Zulassung etc.) oft ein Vielfaches des "handelsüblichen" kostet. Ein wesentlicher Schritt für den Erfolg, ist dabei die klare Trennung in "sicherheitsrelevante" und "sonstige" Teile. Eine Vorfertigung und komplette Prüfung von Baugruppen kann dabei entscheidend sein. Wird beispielsweise das Notkühlsystem komplett passiv ausgelegt — also (fast) keine elektrische Energie benötigt — können die kompletten Schaltanlagen usw. in den Zustand "normales Kraftwerk" entlassen werden.

Was ist die richtige Größe?

Die Bandbreite der elektrischen Leistung von SMR geht etwa von 40 bis 300 MWe. Die übliche Definition von "klein" leitet sich von der Baugröße der Zentraleinheit ab. Sie sollte noch in einem Stück transportierbar sein. Dies ist eine sehr relative Definition, die sich beständig nach oben ausweitet. Es werden heute immer größere Einheiten (Ölindustrie, Schiffbau usw.) auch über Kontinente transportiert. Der Grundgedanke bei dieser Definition bleibt aber die Zusammenfassung eines "kompletten" Reaktors in nur einem Teil und die Funktionsprüfung vor der Auslieferung, in einer Fabrik.

Sinnvoller erscheint die Definition nach Anwendung. Grundsätzlich sind Insellösungen und die Integration in vorhandene Netze unterscheidbar. Besonders abgelegene Regionen erfordern einen erheblichen Aufwand und laufende Kosten für die Energieversorgung. Auf diese Anwendung zielt beispielsweise das russische Konzept eines schwimmenden Kernkraftwerks. Die beiden je 40 MWe Reaktoren sollen nach Chuktoa in Ost-Sibirien geschleppt werden und dort Bergwerke versorgen. Sehr großes Interesse existiert auch im kanadischen Ölsandgebiet. Ein klassischer Anwender war früher auch das US-Militär. Es besitzt wieder ein verstärktes Interesse, abgelegene Militärstützpunkte durch SMR zu versorgen. Langfristig fallen in diese Kategorie auch Chemieparks und Raffinerien.

Kernkraftwerke unterliegen — wie alle anderen Kraftwerke auch — prinzipiell einer Kostendegression und Wirkungsgradverbesserung mit steigender Leistung. Es ist deshalb bei allen Kraftwerkstypen eine ständige Vergrößerung der Blockleistungen feststellbar. Heute wird die maximale Leistung hauptsächlich durch das Netz bestimmt. Man kann die Grundregel für Neuinvestitionen (stark vereinfacht) etwa so angeben:

·       Baue jeden Block so groß, wie es das Netz erlaubt. Das Netz muß Schnellabschaltungen oder Ausfälle vertragen können.

·       Baue von diesen Blöcken auf einem Gelände so viel, wie du kannst. Wieviel Ausfall kann das Netz bei einem Ausfall einer Übertragungsleitung verkraften? Wie kann die Brennstoffversorgung am Standort gewährleistet werden (Erdgaspipeline, Eisenbahnanschluss, eigener Hafen etc.)? Wie groß ist das Kühlwasserangebot und wie sind die Randbedingungen bezüglich des Umweltschutzes?

Aus den vorgenannten Überlegungen ergeben sich heute international Blockgrößen von 200 bis 800 MWe, bei zwei bis acht Blöcken an einem Standort.

Wie groß der potentielle Markt ist, sieht man allein an der Situation in den USA. Dort müssen wegen verschärfter Bestimmungen zur Luftverschmutzung (Mercury and Air Toxic Standards (MATS) und Cross-State Air Pollution Rule (CSDAPR)) bis 2016 rund 34 GWe Kohlekraftwerke vom Netz genommen werden. Neue Kohlekraftwerke dürfen praktisch nicht mehr gebaut werden. Die Umstellung auf Erdgas kann wegen der erforderlichen Gasmengen und des daraus resultierenden Nachfragedrucks nur eine Übergangslösung sein. Da die "alten Kohlekraftwerke" relativ klein sind, würde ein Ersatz nur durch "große" Kernkraftwerke einen erheblichen Umbau der Netzstruktur erforderlich machen. Eine schmerzliche Erfahrung, wie teuer Zentralisierung ist, macht gerade Deutschland mit seinem Programm "Nordseewind für Süddeutschland". Insofern brauchen SMR auch nur mit "kleinen" Kohlekraftwerken (100 bis 500 MWe) konkurrieren, die der gleichen Kostendegression unterliegen.

Das Sicherheitskonzept

Bei der Markteinführung von SMR gibt es kaum technische, aber dafür um so größere administrative Probleme. Aus diesem Grund rechtfertigt sich auch das staatliche Förderprogramm in den USA. Die Regierung schreibt zwingend eine Zulassung und Überwachung durch die NRC vor. Dieses Verfahren muß vollständig durch die Hersteller und Betreiber bezahlt werden. Die Kosten sind aber nicht nur (mit dem jedem Genehmigungsantrag innewohnenden) Risiko des Nichterfolges versehen, sie sind auch in der Höhe unkalkulierbar. Die Prüfung erfolgt in Stundenlohnarbeit, zu Stundensätzen von knapp 300 US-Dollar! In diesem System begründet sich ein wesentlicher Teil der Kostenexplosion bei Kernkraftwerken. Die NRC hat stets — nicht ganz uneigennützig — ein offenes Ohr für Kritik an der Sicherheit von Kernkraftwerken. Mögen die Einwände auch noch so absurd sein. Als "gute Behörde" kann sie stets "Bürgernähe" demonstrieren, da die Kosten durch andere getragen werden müssen, aber immer den eigenen Stellenkegel vergrößern. Dieses System gerät erst in letzter Zeit in das Licht der Öffentlichkeit, nachdem man erstaunt feststellt, um wieviel billiger und schneller beispielsweise in China gebaut werden kann. Nur mit geringeren Löhnen, läßt sich das jedenfalls nicht allein erklären.

Die "Massenproduktion" von SMR erfordert völlig neue Sicherheitskonzepte. Auf die technischen Unterschiede, wird in den weiteren Teilen noch ausführlich eingegangen werden. Die Frage ist eher, welches Niveau man als Bezugswert setzt. Einem überzeugten "Atomkraftgegner" wird nie ein Kraftwerk sicher genug sein! Im Gegenteil, ist die ständige Kostentreiberei ein zentrales "Kampfmittel". Allerdings wird durch die Erfolge von China und Korea das Märchen von der "ach so teuren Atomkraft" immer schwerer verkaufbar. Selbst in einem tiefgläubigen Land wie Deutschland, muß man daher immer mehr auf andere Strategien (z. B. angeblich ungelöste "Entsorgung") ausweichen. Sollte man jedoch das heute erreichte Sicherheitsniveau als Grenzwert setzen, lassen sich bei den meisten SMR-Konzepten bedeutende Kostenvorteile erreichen. Es ist nicht auszuschließen, daß das — außerhalb Deutschlands — so gesehen wird. Andererseits kann man durch zusätzliche Sicherheitsmaßnahmen die Auswirkungen auf das Umfeld auch bei schwersten Störfällen so stark begrenzen, daß ein Einsatz innerhalb des Stadtgebiets z. B. zur Fernwärmeversorgung akzeptabel wird. Könnte sogar sein, daß SMR in Städten mit starker Luftverschmutzung hoch willkommen sind.

Es gibt aber durchaus einige offene Fragen. Je mehr Standorte es gibt, um so aufwendiger ist die Organisation eines lückenlosen Überwachung- und Bewachungssystems. Heute hat jedes US-Kernkraftwerk zwischen 400 und 700 Festangestellte. Allein die "eigene Privatarme" umfaßt durchschnittlich 120 Mann. Für jeden Reaktor gibt es ständig zwei — vom Energieversorger zu bezahlende — NRC-Kontrolleure.

International sind Abkommen zu treffen, die sich über die gegenseitige Anerkennung von Zulassungen und Prüfungen verständigen. Es macht keinen Sinn, wenn jedes Land von neuem das gesamte Genehmigungsverfahren noch einmal wiederholt. Bisher gilt eine NRC-Zulassung international als "gold standard". Es würde sich lohnen, wenn die Kerntechnik sich hierbei an der internationalen Luftfahrt orientiert. Ebenfalls ein Bereich, mit sehr hohen Sicherheitsanforderungen.

Nach allgemeiner Auffassung sollten die Lieferketten in "nuclear" und "non nuclear" unterteilt betrachtet werden. Die Lieferketten für alle sicherheitstechnisch bedeutenden Teile (Brennelemente, Dampferzeuger, Kühlmittelpumpen usw.) müssen schon sehr früh in der Genehmigungsphase stehen, da ihre Entwürfe unmittelbar mit der Sicherheit verbunden sind. Die Zulieferer müssen sehr eng mit dem eigentlichen Kraftwerkshersteller verknüpft werden. Es ergibt sich ein ähnliches Geschäftsmodell, wie in der Automobilindustrie. Dort werden die Zulieferer mit ihrem speziellen Wissen und Erfahrungen möglichst früh und eng in den Entwicklungsprozess einbezogen. Diese Lieferketten sollten für die Bauartzulassung (vorübergehend) festgeschrieben werden. Es sollten Bauteile gebaut und eingehend geprüft werden. Während dieses Prozesses sind alle Produktionsschritte und Prüfverfahren genau zu dokumentieren, um den Herstellerkreis später ausweiten zu können. Alle sonstigen Bestandteile des Kraftwerks können im Industriestandard und nach lokalen Gegebenheiten unmittelbar nach der jeweiligen Auftragsvergabe vergeben werden.

Hinweis

Dieser erste Teil beschäftigt sich mehr mit den grundsätzlichen Eigenheiten sog. "Small Modular" Reaktoren. Die Betonung liegt hier auf der energiewirtschaftlichen Betrachtung. Es folgt ein zweiter Teil, der sich näher mit der Technik von SMR in der Bauweise als Leichtwasserreaktor beschäftigt. Ein dritter Teil wird auf die ebenfalls im Bewerbungsverfahren befindlichen schnellen Reaktoren eingehen.

Dr. Ing. Klaus Dieter Humpich

Der Beitrag erschien zuerst bei NUKEKlaus




Energiewende wirkt: IG Metall „Energiewende gefährdet 200 000 Jobs“

Die Welt schreibt:

Forscher des Instituts zur Zukunft der Arbeit (IZA) in einer Studie, die der "Welt am Sonntag" vorliegt, analysiert, ob eine Erhöhung der Strompreise potenziell Arbeitsplätze in Deutschland vernichtet. Das Ergebnis: Grob gerechnet könnte der jüngste Anstieg der Umlage nach dem Erneuerbare-Energien-Gesetz (EEG) kurzfristig rund 86.000 Industriejobs kosten. Die IZA-Forscher haben analysiert, wie sich zwischen 2003 und 2007 eine Erhöhung der Strompreise auf die Beschäftigung in der Industrie ausgewirkt hat. Das Resultat: Wenn der Strompreis steigt, beschäftigen die Unternehmen weniger Arbeitskräfte. "Höhere Strompreise haben moderat negative Beschäftigungswirkungen", sagt Nico Pestel, einer der Studienautoren.

Das ist aber noch längst nicht alles, denn die besonders gefährdete Grundstoffindustrie bietet  zusammen mit ihren Zulieferern etwa 850.000 Beschäftigen Lohn und Brot. Deren Abwanderung ist nicht mehr eine Frage des ob, sondern nur des wann.

Weihnachten kann dann vielleicht schön romantisch bei flackerndem Kerzenschein gefeiert werden, wenn auch vielleicht länger als geplant, denn

Deutschland droht Strom-Blackout zu Weihnachten

liest man bei der Russischen Nachrichten Agentur Ria-Novosti

In einigen europäischen Ländern könnte es in der Weihnachtszeit zu Stromengpässen kommen, schreibt die Zeitung „RBC Daily“ am Montag.

Das geht aus einem Bericht des Verbandes Europäischer Übertragungsnetzbetreiber (Entso-E) hervor. Am meisten seien die vom Energieimport abhängigen Länder wie Kroatien, Finnland, Lettland, Polen, Schweden und Ungarn gefährdet. Besonders angespannt sei aber die Situation in Deutschland, warnt die „Frankfurter Allgemeine Zeitung“.

Die Experten sind um den Zustand der deutschen Stromnetze besorgt, die kaum noch eine stabile Stromversorgung sichern können. Das Problem ist, dass es im Norden einen Stromüberschuss gibt, während es im Süden an Kraftwerken und dementsprechend an Energie mangelt. Das führt zu großen Spannungsschwankungen in den Netzwerken, weshalb die Betreiber zusätzliche Kapazitäten einsetzen müssen und die Strompreise an der Börse fallen. Im vorigen Jahr sei die Situation trotz des für den Dezember ungewöhnlich warmen Wetters kritisch gewesen, erinnert die FAZ.

Ein weiterer Risikofaktor ist die Kombination aus längeren Kaltperioden, Windstille und dem Brennstoffdefizit in den Gaskraftwerken. Im Februar 2012 stand Deutschland kurz davor, die Gaskraftwerke abschalten zu müssen. Unter Berücksichtigung der negativen Erfahrungen aus dem Vorjahr wurden zwar die Gaslieferverträge erneuert, dennoch befürchten Experten einen Gasmangel. Es könnte „grundsätzlich zu einer Krise der Gasversorgung und zu einer Reduzierung der Stromangebots kommen“, so die Experten des Verbandes der Netzbetreiber.




Die verquere Logik des IPCC-Je größer die Abweichungen desto sicherer die Hypothese

von Sebastian Lüning

Der IPCC wird sich von Bericht zu Bericht immer sicherer, dass der Mensch in eine selbstverschuldete Klimakatastrophe schliddert. Im Jahr 1990 war man “confident”, dass der Mensch die Hauptursache für den Klimawandel ist. 1995 steigerte man auf “increased confidence”. 2001 hieß es likely. 2007 very likely und 2013 extremely likely (Abbildung 1 rechts).Abbildung 1 rechts: Der IPCC wurde sich in der anthropogenen Zuordnung der Hauptursache des Klimawandels von Bericht zu Bericht immer sicherer. Abbildung: IPCC.

The Energy Advocate hat nun einmal diese angebliche Steigerung der Gewissheit mit der sich immer weiter öffnenden Schere zwischen Modellvorhersagen und realer Temperaturentwicklung verglichen. Eine überraschend gute Korrelation (Abbildung 2). Offenbar wird sich der IPCC immer sicherer, je schlimmer die Modelle danebenliegen. Das hat Stil! Nun kann man eine weitere Prognose bereits jetzt mit großer Gewissheit wagen. Nach dem Gesetz der Serie wird sich die Gewissheit der menschengemachten Klimakatastrophe im nächsten IPCC-Bericht auf schwindelerregende >99% erhöhen. Denn dies ist nach IPCC-Schema die nächste Kategorie in der Wahrscheinlichkeitsskala (Abbildung 3). Auch der Klarname hierfür ist beeindruckend: “Virtually certain”. Die schöne virtuelle Welt der Klimamodelle…

 

Abbildung 2: Vergleich von Modellvorhersagen und realer Temperaturentwicklung (Roy Spencer) und Auftragung der IPCC-Wahrscheinlichkeiten für die Hypothese, dass der Mensch der Hauptsschuldige am Klimawandel ist. Quelle: The Energy Advocate

 

Abbildung 3: Wahrscheinlichkeitsskala nach IPCC.

Dieser Beitrag wurde zuerst bei "Die Kalte Sonne" veröffentlicht.