Zitat: „Die Parteien in Berlin unterscheiden sich bei der Energiewende nur durch die Grade ihres Irrsinns.“

von Alexander Wendt

Wenn niemand zuhört: Innenansichten über die Energiewende

Journalisten führen regelmäßig so genannte Gespräche „unter drei“. Der Code bedeutet: Was Politiker oder Chefs von Unternehmen und Organisationen dort sagen, darf nicht zitiert werden, auch nicht camoufliert. Also nicht einmal in der Form: „sagte ein Mitglied des Bundeskabinetts“. Wozu finden solche Gespräche dann überhaupt statt? Weil Amtsträger auch gern einmal aussprechen, was sie wirklich denken, was sie wiederum nur in einer geschützten Atmosphäre tun können, eben unter drei beziehungsweise unter vier Augen. Dem Gespräch wohnt also durchaus eine therapeutische Komponente inne. Die interessantesten, saftigsten und überraschendsten Äußerungen unter drei, die ich in den letzten zwei Jahren zu hören bekam, betrafen ausnahmslos die Energiewende. Natürlich würde ich sie liebend gern komplett zitieren. Das kann ich nicht, ohne den vertraulichen Modus zu verletzen. Einen kleinen Ausweg gibt es allerdings, gewissermaßen die Katzenklappe, durch die ein Journalist der Situation entschlüpfen kann, ohne zu viel preiszugeben. Fast alle großen Medien, „Spiegel“, „Zeit“ et al. praktizieren diese Notlösung irgendwann. Zu diesem Zweck verschleiern sie (und im Folgenden auch ich) die Identität der Zitatgeber bis zur Unkenntlichkeit. Nur an den Zitaten selbst ändert sich nichts. Es handelt sich hier also eher um eine soziologische Untersuchung zu der Frage, wie prominente und mächtige Zeitgenossen in Deutschland das Projekt Energiewende beurteilen, wenn keiner weiter zuhört.

1.    Ein Vorsitzender einer großen, einflussreichen Organisation, der öfters sowohl mit Angela Merkel als auch mit Sigmar Gabriel und etlichen Abgeordneten spricht:

„Die Parteien in Berlin unterscheiden sich bei der Energiewende nur durch die Grade ihres Irrsinns.“

2.    Ein Unionspolitiker, der einmal zu den Wichtigen in der Partei gehörte:

„Ich habe mit Angela Merkel oft über die Energiewende gestritten. Sie ist da stur bis zum ideologischen Starrsinn.“

3.    Ein führender Unionspolitiker: 

„Mit der Energiewende ist es wie mit einem Fuhrwerk, das in eine Sackgasse fährt. Da braucht man nicht hinterherzulaufen, denn das kommt genau dort wieder heraus, wo es eingebogen ist. Von Unterhaltungswert ist nur das Wendemanöver.“

4.    Ein Politiker, der sich mit Angela Merkels duzt:

„Haben Sie einen Ofen? Ich meine, einen Ofen, in den Sie richtig Holz verbrennen können? Nein? Ich habe einen Ofen, ein Grundstück, und Holzvorräte. Mir würde ein Blackout nichts ausmachen.“

5.    Ein gewichtiger Sozialdemokrat in Angela Merkels Kabinett:

„Die Energiewende steht kurz vor dem Aus. Die Wahrheit ist, dass wir auf fast allen Feldern die Komplexität der Energiewende unterschätzt haben. Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.“

Gut, in diesem Fall spricht nichts dagegen, den Urheber zu nennen: Bundesumweltminister Sigmar Gabriel. Bei einem Besuch eines Kasseler Solarunternehmens rutschte ihm die Bemerkung heraus, der Reporter einer lokalen Nachrichtenplattform sorgte für ihre Verbreitung. Gabriel dementierte nicht.
Mittlerweile muss er auch nicht mehr befürchten, mit seinem Urteil einsam dazustehen. Der Bundesrechnungshof veröffentlichte kürzlich einen regelrechten Verriss der Energiewende: Die Maßnahmen der Bundesregierung seien „unkoordiniert, uneinheitlich, redundant“. Den Ministerien bescheinigen die Rechnungsprüfer, dass ihnen „der umfassende Überblick über die von ihnen selbst eingeleiteten Maßnahmen fehlt“. Die Bundesnetzagentur wiederum weist darauf hin, dass der Bau von 1 860 Kilometern neuer Stromtrassen, die eigentlich bis 2015 den Windstrom in den Süden transportieren sollten, gelinde hinterherhinkt. Bis heute existieren davon gerade 300 Kilometer. Niemand braucht prognostische Fähigkeiten, um vorauszusehen: Auch bis 2020 steht das Leitungsnetz noch nicht, das eigentlich schon in einem halben Jahr gebraucht würde.
Der Plan wiederum, den in diesen Mengen weder benötigten noch transportierbaren Ökostromüberschuss zu speichern, zerbröselt unter den Augen der Bundesregierung. Ein Gutachten in Auftrag des Bundeswirtschaftsministeriums untersuchte kürzlich, ob sich unter den Bedingungen der Energiewende der Bau von Pumpspeicherwerken noch lohnt. Die klare Antwort: Nein. „Die ermittelten Deckungsbeiträge werden nicht zur Refinanzierung von Neuinvestitionen in Pumpspeicherwerke ausreichen,“ heißt es in dem Papier. Andere Speichertechniken wie synthetisches Methan oder Riesenbatterien befinden sich ohnehin noch im Versuchsstadium.
Was bedeutet es eigentlich, dass fast die gesamte wirtschaftliche und politische Elite weiß, dass sich das teuerste Projekt der deutschen Nachkriegsgeschichte zu einer fulminanten Katastrophe entwickelt, dass ihre Mitglieder aber gleichzeitig glauben, sie dürften die Erkenntnis nicht laut aussprechen? Normalerweise scheue ich den Gebrauch historischer Parallelen. Aber hier passt sie möglicherweise doch ins Bild. Ich hatte mich als Journalist in den vergangenen Jahren immer wieder mit ehemaligen DDR-Funktionären unterhalten. Darunter gab es durchaus kluge, reflektierte Leute. Sie versicherten mir ausnahmslos, dass sie den Zusammenbruch ihres Staates schon lange vor 1989 vorausgesehen hatten. Auf meine Frage, warum sie dann weiter mitgemacht hätten, zuckten sie mit den Schultern. Sie sagten, sie verstünden das mittlerweile selbst nicht mehr.
Mein Buch „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“ zeichnet in seiner Neuausgabe die Geschichte eines singulären Scheiterns gewissenmaßen in Echtzeit nach. Und es bilanziert die Schäden, in der Volkswirtschaft wie in der Natur. Das Buch zum Desaster gibt es seit dem 1. September endlich nicht nur als E-Book, sondern bei Amazon auch als aktualisiertes und stark erweitertes Taschenbuch mit 178 Seiten für 9,99 Euro. Das Taschenbuch besitzt einen unschlagbaren Vorteil: Man kann es lesen, und anschließend dem Politiker seiner Wahl ins Abgeordnetenbüro schicken.
Hier geht es zum Buch.




Menschenopfer für den „Klimaschutz“?

Das bisherige Kältemittel ist das weit verbreitete R134a; gemäß Sicherheitsdatenblatt ist es nicht brennbar. Es sei jedoch in besonderem Maße „klimaschädlich“, denn es habe nach IPCC Berechnungen (AR4-WG1-ch2, S.212, HFC-134a, 100yr) ein Treibhausgas Potential (Global Warming Potential, GWP) vom 1430fachen von CO2.
Nur mal nebenbei: nach Daten des Carbon Dioxide Information Analysis Center (US-DoE) ist in den letzten 2 Jahrzehnten global soviel CO2 emittiert worden, wie in den 4 Jahrzehnten Jahren davor, und in eben diesen letzten knapp 2 Jahrzehnten sehen wir keine Erhöhung der globalen Temperatur, die aber wegen des GWP von CO2 hätte gesehen werden müssen. Mithin wäre das GWP von CO2 gleich Null. Und wieviel wäre das 1430fache von Null?
Aber ignorieren wir an dieser Stelle solche kleinen Ärgernisse durch falsche Theorien und Computermodelle.
Die EU hat 2006 eine Richtlinie erlassen, dass Fahrzeuge, deren Typgenehmigung nach dem 1.1.2011 erteilt wird, mit einem Kältemittel ausgestattet sein müssen, dessen „GWP-Wert 150 nicht übersteigt“. Ab 2017 müssen alle Neuwagen mit einem solchen Kältemittel ausgestattet sein. Anfangs war noch CO2 als Kältemittel im Gespräch, aber schließlich einigte man sich auf das neue Mittel R1234yf. (Spiegel).
Vermutlich war das neue Mittel attraktiver als die Alternativen, weil man damit keine oder nur geringe Änderungen an der Klimaanlage benötigte. Hingegen hätte der Umstieg auf CO2 als Kühlmittel eine Neukonstruktion erforderlich gemacht, die, wie vom Automobilprofessor Ferdinand Dudenhöffer geschätzt, pro Fahrzeug 100€ Mehrkosten verursacht hätte, und wegen der Entwicklungszeit eine Verzögerung von zwei Jahren zur Folge gehabt hätte.
Das neue Mittel wird von dem amerikanischen Joint Venture aus Honeywell und Dupont hergestellt. Beides sind internationale Großkonzerne, und auch stark in der Chemie tätig.
Sie halten Patente auf die Herstellung dieses Mittels. Eine kurze Google-Patent Recherche zeigt mindestens zwei Patente, US8071826 B2 mit Prioritätsdatum 4. Apr. 2008, und Patent US20120172638 A1 mit Prioritätsdatum 2010. Dies sind Verfahrenspatente, und somit zwar nicht so stark wie ein Stoffpatent, aber man sieht schnell, dass diese beiden Anmeldungen von einem Schwarm internationaler Anmeldungen umgeben sind. Man kann getrost davon ausgehen, dass solche Konzerne auch das Patenthandwerk gut verstehen, und für ausreichend Schutz gesorgt haben.
Mit einem Prioritätsdatum 2010 ergeben sich selbst ab heute noch immer komfortable mindestens 16 Jahre Patentschutz! Davon können Firmen normalerweise nur träumen.
In dieser Zeit ist ihnen gesetzlich garantiert, das alleinige Recht auf Herstellung und Verkauf zu haben. Und somit den Preis auch nach ihrem Ermessen festsetzen zu können. Das ist die vielgerühmte Lizenz zum Gelddrucken, wie auch Dudenhöffer feststellt.
Prompt gibt es auch eine Klage eines konkurrierenden Herstellers, dass ihm keine ‘fair and reasonable’ Herstellungslizenz gewährt wurde, und die EU untersucht nun.
Obwohl sich die Auto Hersteller anfangs mit der EU einig waren, dieses neue Mittel einzusetzen, scherte Mercedes plötzlich aus, und rief sogar seine bereits mit dem neuen Mittel ausgelieferten Autos zurück, um das alte Mittel wieder einzufüllen.

Was war geschehen?

In diversen Prüfungen und Crashversuchen hat Mercedes einen Brand des neuen Mittels beobachtet, und sie haben dabei die Bildung von Fluss-Säure festgestellt.
Das sollte eigentlich nicht überraschend sein, denn aus z.B. der Gestis Stoffdatenbank für das neue Mittel kann man klar entnehmen, dass es folgende Eigenschaft hat: „Extrem entzündbares Gas. Bildet mit Luft explosive Gemische.“ und weiter: „Persönliche Schutzausrüstung bei der Brandbekämpfung: Achtung! Gefährliche Zersetzungsprodukte können entstehen. Fluorwasserstoff“. Eine wässrige Lösung von Fluorwasserstoff ist als Flusssäure bekannt, und deren Gefahreneigenschaften haben es in sich. (Gestis Stoffdatenbank, Wikipedia)
Starke Säuren wie Salzsäure und Schwefelsäure können starke Verätzungen herbeiführen, aber wenn man sie abgewaschen hat, ist die weitere Gefahr abgewendet. Flusssäure hingegen dringt in die Haut ein, kann NICHT durch Abwaschen entfernt werden, und führt selbst bei kleinflächigen Kontakt zum Tode. Wikipedia beschreibt das (Auszug):

Flusssäure ist ein starkes Kontaktgift; Sie wird sofort von der Haut resorbiert. Dadurch ist eine Verätzung tieferer Gewebeschichten und sogar der Knochen möglich, ohne dass die Haut äußerlich sichtbar verletzt ist. …

Eine handtellergroße Verätzung durch 40-%-ige Flusssäure ist in aller Regel tödlich. Im schlimmsten Fall müssen die Gliedmaßen oder ein großer Teil davon aufgrund der tödlichen Wirkung von Flusssäure amputiert werden. …

Flusssäure führt zu akut bedrohlichen Stoffwechselstörungen, die unter multiplem Organversagen tödlich verlaufen können. Flusssäure schädigt auch das Nervensystem.

Mercedes weigert sich weiterhin mit Nachdruck gegen den Einsatz des neuen Mittels, da der Stoff zu gefährlich sei für den Einsatz im Automobil. Andere Hersteller wurden plötzlich sehr einsilbig, wenn sie nach dem Einsatz des neuen Mittels gefragt wurden. Einige lieferten Autos mit dem neuen Mittel aus, setzten in den späteren Produktionschargen aber wieder das alte Mittel ein. Angeblich wegen Produktionsengpässen des neuen Mittels. (hier, hier, hier, hier)
Die EU Kommission sieht kein Problem und zweifelt an der Qualität der Mercedes Autos: ‚das von Mercedes angeführte Brandrisiko sei nicht erwiesen oder rühre von der Konstruktion der Klimaanlage her: "Wahrscheinlich ist es nicht das Kühlmittel selbst", verlautete aus der Behörde. "Es ist kein allgemeines Problem."‘
Es ist also unstrittig, dass das neue Mittel hochentzündlich ist, und das es zur Flusssäure Bildung kommen kann, und dass diese in hohem Maße lebensgefährlich ist. Aber anstatt vorbeugend darauf zu verzichten, neue Gefahren in Autos einzubauen, wird Mercedes der Dummheit bezichtigt.
Frankreich wollte die Gunst der Stunde nutzen, und Mercedes den Verkauf seiner Fahrzeuge verbieten. Es wär doch zu schön, sich per staatlicher Anordnung einen Konkurrenten für die eigene, darbende Autoindustrie vom Leibe halten zu können – aber inzwischen hat ein französisches Gericht das französische Verbot verboten.
Einige Tricks mussten aber zuvor angewendet werden, damit den betroffenen Fahrzeugen nicht, wie ursprünglich erfolgt, eine neue Typgenehmigung zugeordnet wurde, sondern eine von noch vor dem Stichtag in 2011, sodass diese nach EU Vorgaben bis 2017 weiter mit dem alten Mittel befüllt werden konnten. Mercedes will nun bis dahin eine CO2 gefüllte Klimaanlage in seinen Autos anbieten.
Dudenhöffer findet was eigentlich offensichtlich sein sollte, nämlich dass „Menschenleben nicht für 100€ Mehrpreis [für eine CO2 basierende Klimaanlage] pro gekühltem Neuwagen aufs Spiel gesetzt werden dürfen“, und – man staune – selbst Greenpeace stellt sich auf die Seite von Mercedes und sagt, dass das Kühlmittel "vollkommen unkalkulierbar in seinen Umweltauswirkungen [sei]“, und ist "froh, dass Daimler den Mumm hatte, der Nachfolgegeneration von FCKW-Mitteln einen Riegel vorzuschieben." (Spiegel)
Wer nach dieser Groteske ein klein wenig besorgt ist, und sich fragt, welche Autos man dann noch kaufen kann, findet nicht unbedingt freigiebige Informationen der Hersteller. Im Spiegel liest man letztes Jahr verschwurbelte Antworten. Aber bemerkenswerterweise hat die Partei Die Linke eine Liste Stand April 2014, und der ACE (Auto Club Europa) hat eine solche Liste Stand Juni 2014 veröffentlicht. Der ADAC hält sich eher zurück, und „empfiehlt“ CO2 basierte Klimaanlagen.
Nur der VW Konzern und Mercedes fehlen in beiden Listen, jedoch scheint VW jetzt umgeschwenkt zu sein, wie soeben Der Spiegel meldet.
Klimaschutz erfordert halt Opfer. Bisher sind es Vögel und Fledermäuse, die in Windanlagen geschreddert werden, oder die beim Durchfliegen der konzentrierten Sonnenstrahlung von Solar-thermischen Anlagen in Flammen aufgehen und verbrannt abstürzen – was zu der neuen Wortschöpfung „Streamer“ führte, weil die Vögel beim Abstürzen eine Rauchfahne hinter sich herziehen.
Nun haben die Hohenpriester der EU eben Menschenopfer wenn auch nicht direkt vorgeschrieben aber billigend in Kauf genommen. Die alten Mayas haben bei Wetterproblemen schließlich auch Menschenopfer gebracht.
Man darf gespannt sein, wann in den USA eine erste Class-Action Klage als Folge von Autounfällen mit Flusssäure-Verletzung kommen. Da die Autohersteller das Risiko kannten, oder hätten kennen müssen, dürften die Strafen besonders drastisch ausfallen („punitive damages“). In der Folge dürften dann Auto-Rückrufe erfolgen, die angesichts der Fertigungskapazitäten der Automobilhersteller von jährlich etwa 60 Millionen Fahrzeugen hunderte Millionen Fahrzeuge betreffen würden.

Denken Sie daran, rechtzeitig Ihre Auto Aktien zu verkaufen!

P.S. Heute kommt die Meldung, dass die EU nach Butterbergen, Milchseen, Gurken, Glühbirnen, Olivenöl-Kännchen, Duschköpfen, Staubsaugern, nun auch noch „Heizungen für Schwimmbecken, Wasserkocher, Zubehör für Aquarien, Sandstrahlreiniger und Küchengeräte“ regulieren will. Wasserkocher! Gewiss wird der 1. Hauptsatz der Thermodynamik auch neu reguliert.




Fukushima — ein Zwischenbericht

…da warn´s nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der "Reaktorhalle" zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche "Betonhülle" um das Kernkraftwerk gebaut hätte. Um es auch unserer — von der japanischen Industriegesellschaft so enttäuschten — Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.
An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.
Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein "Bankpalast" aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.
Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von "Windmühlen" und "Sonnenkollektoren" hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.
Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen in Köln hunderte male stärker, als die Strahlenbelastung aus Fukushima). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die "Flugbahnen" der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine — auch gegenüber allen Baustoffen, wie Stahl, Beton usw. — außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.
Ein weiterer Weg ist die Analyse durch "nachrechnen" des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine "Aufnahmen" der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden. Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m^3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden. An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt. Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die "Eiswände" fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch "gut verschlossen" ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit "Wischern" und "Staubsaugern" ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.
Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man "taucht" heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik — nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren — ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr  zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit — und ganz besonders in Deutschland — zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten "Experten", die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch "Festigkeit im Rechten-Glauben" ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.
Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?
Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.
Viel bedenklicher — aber anscheinend nicht so offensichtlich — ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten — und längst überprüften und für sicher befundenen — Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. "Wind und Sonne" sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.
Parallel läuft ein Überwachungsprogramm von 360 000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der "Krebstoten" nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung "Krebs" früher erkannt und besser behandelt werden kann.
Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78 000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.
Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.
Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen ("Atomexperte"), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell "Strahlenangst" erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.
Dr. Klaus-Dieter Humpich
Der Beitrag erschien zuerst bei Nukeklaus hier




Blackout gefällig?

Münsterland als Vorbote

Der letzte größere Blackout in Deutschland geschah am 28. November 2005 im Münsterland. Ein heftiger Schneefall brach über diese Gegend herein, der nasse Schnee klebte an den Stromleitungen und Masten, bis diese schließlich unter diesem Gewicht zusammenkrachten. In der Folge knickten weitere Masten unter der Schneelast, sodass ein großer Landstrich mit 250.000 Bewohnern ohne Strom war. Der Verkehr kam sofort zum Erliegen, aber auch die vielen Kühe dieser ländlichen Gegend konnten nicht zur gewohnten Zeit gemolken werden, was einen besonderen Stress für diese Tiere bedeutete. Das Technische Hilfswerk musste mit Notstromaggregaten ausrücken, um die Melkmaschinen in Gang zu setzen.
Wegen der umfangreichen Störungen im Verteilnetz, dauerte es über eine Woche, bis die Gegend wieder vollständig mit Strom versorgt werden konnte. Für Deutschland war ein so langer Stromausfall über lange Zeit eine Ausnahme. Der Schaden hielt sich jedoch in Grenzen, weil viel nachbarschaftliche Hilfe gewährt wurde und die umliegenden größeren Städte von diesem Blackout verschont blieben. 

Planspiele der Bundesregierung

Der Münsteraner Blackout war für die Bundesregierung der Anlass, ein Expertengremium darüber beraten zu lassen, was so alles bei einem wirklich großräumigen Stromausfall passieren könnte. 
Im Folgenden werden die Erkenntnisse dieser Fachleute stichpunktartig zusammengefasst:
– Die Festnetztelefone fallen sofort aus, die Mobiltelefone einige Tage später.
– Fernseher und Radio fallen sofort aus, sofern nicht batteriebetrieben.
– Alle Internetverbindungen sind gestört, weil die Router ausfallen.
– Der Schienenverkehr bricht sofort zusammen; Passagiere müssen aus Tunnels geborgen werden.
– Die Schranken der Tiefgaragen blockieren.
– Die Tankstellen fallen aus, da Pumpen nicht betriebsbereit.
– Alle Fahrstühle und Rolltreppen kommen abrupt zum Stillstand.
– Die gesamte Beleuchtung einschließlich der nächtlichen Straßenlaternen fällt aus.
– Alle Heizungen und Klimaanlagen fallen aus.
– Alle Industrie- und Handwerksbetriebe müssen die Arbeit einstellen.
– Das Trinkwasser fällt aus, weil die Pumpen ohne Strom sind.
– Die Abwasseranlage- und Toiletten funktionieren nicht mehr.
– Milchvieh, Schweine und Geflügel sind schon nach wenigen Stunden extrem gefährdet.
– Die Geschäfte müssen schließen, da Ladenkassen nicht funktionieren. 
– Die Lebensmittelversorgung bricht mangels Nachschub zusammen.
– Die Bankfilialen bleiben geschlossen, da die Geldautomaten nicht funktionieren. 
– In den Krankenhäusern kommen die OP- und Dialysestationen in große Schwierigkeiten.
– Die Polizei kann mangels Mobilität ihre Aufgaben nicht mehr erledigen.
– Die Kriminalität nimmt rasch zu.
– etc. etc. etc.
Die oben genannten Experten haben auch die volkswirtschaftlichen Kosten eines Blackouts berechnet. Sie kommen auf 10 Euro pro nicht gelieferter Kilowattstunde. Dazu ein Rechenbeispiel:
Nehmen wir an, im Spätherbst passiere in Deutschland flächendeckender Stromausfall. Zu dieser Jahreszeit würden etwa 70 Gigawatt, entsprechend 70 Millionen Kilowatt Leistung ausfallen. Dann gilt für 1Stunde Stromausfall folgende Rechnung: 70 Millionen kWh mal 10 Euro = 700 Millionen Euro. Für 10 Stunden wären wir bereits bei 7 Milliarden Euro angelangt; in einer knappen Woche bei 70 Milliarden Euro. Wahnsinnige volkswirtschaftliche Kosten!

Ursachen und deren Behebung

Sieht man von menschlichem Versagen ab, so können Blackouts vor allem als Folge eines Spannungskollapses passieren oder aus Netzüberlastung. Ersteres ist denkbar, wenn große Energiemengen über weite Entfernungen transportiert werden müssen. Dabei kann die Spannung auf unzulässig niedrige Werte fallen, sofern nicht ausreichend Blindleistung vorhanden ist. Das Absinken der Spannung lässt bei unverminderten Leistungsbedarf den Strom weiter ansteigen, was zu einer Spirale nach unten führt, falls nicht umgehend Verbraucher abgeschaltet werden. Die Überlastung kann eintreten, wenn beispielsweise im Norden Deutschlands viel Windstrom eingespeist wird, bei insgesamt niedrigem Verbrauch.
Nach einem Blackout – sofern keine Leitungsschäden vorhanden sind – gibt es meist noch Netzteile die unter Spannung stehen. An sie wird, Stück für Stück, das restliche Netz vorsichtig zugeschaltet. Sollte kein Netzabschnitt mehr unter Spannung stehen, so müssen Kraftwerke für eine schnelle Stromproduktion in Anspruch genommen werden. Häufig benutzt man "schwarzstartfähige" Kraftwerke, das sind Gasturbinen oder Wasserkraftwerke, die besondere Ausrüstungen dafür besitzen.
Bei der Restrukturierung eines Stromnetzes sind die regenerativen Erzeugungseinheiten, also Wind- und Sonnenstrom meist nicht hilfreich. Wegen ihrer volatilen Einspeisung liefern sie keinen kalkulierbaren Beitrag zum Netzaufbau. Das unkontrollierte Zuschalten von Erzeugungsleistung kann die Frequenz in einer instabilen Netzinsel erheblich beeinflussen. Wenn die dadurch verursachte Erhöhung der Frequenz die zulässigen Grenzen überschreitet, so resultieren daraus wieder 

Über den Autor

Willy Marth,, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.
Der Beitrag erschien zuerst hier auf dem Blog des Autors




Was war tödlich in Fukushima?

In Übereinstimmung mit Three Miles Island, scheint es in Fukushima keine von Strahlung verursachte Todesfälle gegeben zu haben; sogar in Tchernobyl war die nachweisbare Todesrate durch Strahlung klein gegenüber Ereignissen in Bophal oder dem Banqiao Dammbruch.
Was die humanitäre Misere in Fukushima verursachte, war die Reaktion – nicht die vorsorgliche Evakuierung, sondern was folgte und ironischerweise, auch was vorherging. Das einzige andere Gebiet, das gesperrt wurde wegen menschlicher Aktivitäten, ist Tchernobyl. Daraus folgt für den Laien, dass die Strahlung in diesen Sperrzonen ein höheres Risiko darstellt, als jede andere menschengemachte Bedrohung auf dem Planeten.
Die öffentliche Wahrnehmung von radioaktiver Strahlung ist sehr komplex. Es gibt keine generelle Angst vor ionisierender Strahlung – das zeigt sich z.B. in Gebieten mit hoher Radon Konzentration. Die vielen Beispiele von Todesfällen, die durch unachtsamen Umgang mit radioaktivem Material im medizinischen Bereich vorkamen, scheinen nicht von Radiophobie begleitet zu sein ebenso nicht der Mord an Alexander Litvinenko in London 2008. Klar ist, das es etwas gibt in der Kommunikation von Strahlung, die von zivilen nuklearen Aktivitäten stammt, das ein Bündel von Ängsten geschaffen hat, die es in anderen Kontexten nicht gibt.
Auf einem Meeting des Japan Atomic Industrial Forum (JAIF) früher in diesem Jahr, beklagte ein Sprecher, dass die Japanische Öffentlichkeit nicht bemerkt hat, dass menschengemachte radioaktive Strahlung dieselbe ist wie die natürliche Strahlung überall um uns herum. Eine riesige Anstrengung erforderte die Korrektur dieses Missverständnisses, um so Kernenergie akzeptabler zu machen.
Aber gut, was weiß der gut informierte Japaner (oder schließlich, welche unbestreitbaren Fakten sind in der Öffentlichkeit verbreitet)?
Zuerst und vor allem wurden ca. 100.000 Menschen evakuiert aus einer 20km Zone um Fukushima Daiichi und es wurde ihnen nicht erlaubt (außer einigen Hundert erst vor kurzem) in ihre Häuser zurückzukehren über einen Zeitraum von über drei Jahren, was unsägliches Leid verursacht hat. In vielen Gebieten der Sperrzone ist die Strahlung (aus allen Quellen) niedriger, als 5mSv pro Jahr, mit einer radioaktiven Niederschlagdosis von unter 1mSv pro Jahr.
  Klar ist, das es etwas gibt in der Kommunikation von Strahlung, die von zivilen nuklearen Aktivitäten stammt, das ein Bündel von Ängsten geschaffen hat, die es in anderen Kontexten nicht gibt.
Zweitens gibt es Gebiete wie Ramsar in Iran (durchschnittlich 130mSv/a) und Guarapari in Brasilien (Spitzenwerte am Strand in der Größenordnung von 350mSv/a), die nicht evakuiert werden. Es gibt sogar bestimmte Gebiete in Japan (z.B. die Insel Kyushu) wo die natürliche Dosis höher ist, als in einigen Teilen der Sperrzone.
Was kann der gut informierte Japaner damit anfangen? Es scheint drei mögliche Erklärungen zu geben.
1.     Entweder sind die Behörden irrsinnig (oder kaltschnäuzig), so viele Leben aufs Spiel zu setzen und solch riesige Schäden aus unvertretbaren Gründen zu verursachen.
2.     Die Behörden lügen einfach über die Höhe der Kontamination in der Sperrzone.
3.     Menschengemachte radioaktive Strahlung ist signifikant gefährlicher als natürliche Strahlung, sodass Vergleiche bedeutungslos sind.
Angenommen die Japanische Regierung und die nukleare Industrie sind erfolgreich bei der Überzeugung der Menschen, dass ihr (sensibles) Verständnis der indiskutablen offensichtlichen Fakten (Option 3) nicht korrekt ist. Die Fakten werden sich nicht ändern, sodass ein neues Verständnis erforderlich ist. Es ist nicht sofort offensichtlich, dass ein Umschwenken zur Option 1 (die wahre Option) oder 2 das Zutrauen der Bevölkerung zur Industrie oder zum Konzept der Kernenergie verbessern würde.
Ironischerweise ist verdächtig, dass die irrationale Aussperrung zur Annahme führte, die Menschen beschwichtigen zu können. Aber in Wirklichkeit gibt es einen nachweisbaren aber meist unsichtbaren Mythos, dass man auf Nummer sicher gehen muss beim Strahlenschutz. Jede Aktion, die nicht auf Gesundheitsfürsorge begründet ist – will sagen Aussperrung aus einem Gebiet, das sicherer als das Leben in London oder Tokio mit all der dortigen Luftverschmutzung ist – macht mehr Schaden, als Nutzen.
Man kann sicher argumentieren, dass eine übertriebene Vernarrtheit in die Reduzierung der Strahlendosis, weit entfernt von einer Minimierung des schädlichen Einflusses auf Menschen, das eigentliche Kernproblem ist. Möglicherweise ist die Schlüsselfrage – wie schützen wir die Menschen nicht vor radioaktiver Strahlung, sondern vor den Einflüssen des Strahlenschutzes?
Malcolm Grimston ist ein Erfahrenes Forschungsmitglied am Imperial College Centre for Energy Policy and Technology. Er wird an einem Forum über Strahlenschutz am WNA Symposium in London, am 10. – 12. September 2014 teilnehmen.
Die Übersetzung besorgte Rolf Pietsch
Anmerkung der Redaktion. Einige Leser mögen einwenden, dass bei einer so großen Zahl von Evakuierten eine ähnliche Todesrate durch natürliche Todesfälle zu erwarten gewesen sei. Jedoch muss diesem Einwand entgegengehalten werden, dass der durch die erzeugte panische Angst und die dann folgende Evakuierung mit dem drohenden und realen Verlust sämtlicher materieller wie seelischer Werte, der dadurch erzeugte Stress unmittelbar diese Entwicklung der Sterblichkeitsrate deutlich beschleunigt haben muss. Deshalb ist die Argumentation des Autors durchaus nachvollziehbar.