Super-GAU

Update: Anmerkungen zum "Atom-Expertentum" von Rolf Sträter (ganz nach unten scrollen)

 …Sind wir wirklich nicht mehr in der Lage, den Blick auf das Wesentliche zu richten? Sind wir nicht mehr in der Lage, in Ruhe zu überlegen und dann rationale Entscheidungen zu treffen? Der gestrige Tag hat eine offensichtliche Antwort beschert: Nein! 
Das Tempo, mit dem die deutsche Bundesregierung die Atom-Kehrtwende vollzogen hat, verdeutlicht, dass wir eine Gesellschaft der Getriebenen geworden sind. Getrieben von der Meinung der vielen. Getrieben von den Medien. Getrieben von Umfragewerten und anstehenden Wahlen. 
Angela Merkel hat sich gestern dort eingereiht. Wenn sich die Sicherheitslage bei den deutschen Atomkraftwerken innerhalb von 72 Stunden tatsächlich derart verändert haben sollte, wie es die Bundeskanzlerin und ihre Regierung gestern glauben machen wollten, dann gäbe es nur eine Schlussfolgerung: abschalten – und zwar sofort. Merkel hat sich zur Getriebenen machen lassen. Vor allem von der Personalie Stefan Mappus, der um seine Wiederwahl als Ministerpräsident in Baden-Württemberg fürchtet. 
Erreicht hat Merkel damit eins: Die Verunsicherung in der deutschen Bevölkerung ist noch größer geworden. Sind die deutschen Atomkraftwerke nun sicher oder nicht? Eine klare Antwort auf diese Frage gab es von der Kanzlerin gestern Abend nicht. Laut ARD-Deutschlandtrend glaubt inzwischen der Großteil der Deutschen, dass bei uns ein ähnliches Atom-Drama möglich sei wie in Japan. Ohne Erdbeben. Ohne Tsunami. 
Die meisten Deutschen haben in den vergangenen Tagen den Blick für das Wesentliche verloren. Den Blick auf die tapferen Menschen in Japan, die im Angesicht der atomaren Gefahr damit beginnen, ihre Existenzen wieder aufzubauen. 
Den Blick für die Trauernden, die Suchenden und die Gestorbenen. Statt über Atomkraftwerke in Deutschland zu zetern, sollten wir beten – dafür, dass den Japanern der Super-GAU erspart bleibt. 
Daniel Freimuth
Dieser Artikel erschien am 18.3.2011 im Hanauer Anzeiger. Wir halten ihn für sehr bemerkenswert, so dass wir ihn in voller Länge bringen. Mit Dank an Leser Dr. Stehlik EIKE.
Sie können ihn auch als pdf herunterladen.

Lesen Sie dazu auch den Beitrag von Ralf Sträter am 13.3.11 im Blog Ökowatch

 

In Japan hat die Erde gebebt, anschließend verwüstete eine riesige Welle die Pazifikküste des Landes. Viele Menschen starben, noch mehr Menschen verloren ihre Wohnungen. Mir tun die Menschen leid, die jetzt mit dem Wiederaufbau ihrer Existenz beschäftigt sind, die frieren und Hunger haben wegen der zusammengebrochenen Infrastruktur ihrer hochentwickelten Heimat. Jedoch gibt es – für die deutschen Medien – scheinbar Wichtigeres. Denn durch die Naturkatastrophe wurden zwei Kernkraftwerksblöcke beschädigt, japanische Fachleute sind aktuell dabei, Schlimmes zu verhindern. Augenscheinlich haben die deutschen Medien nichts besseres zu tun, als "Atom-Experten" zu befragen.

Was ist ein "Atom-Experte"? "Atom-Experten" arbeiten z.B. am Darmstädter "Öko-Institut", wahlweise auch bei Greenpeace, nicht unbedingt erforderlich scheint zu sein, sich mit Kraftwerken und deren Physik auseinandergesetzt zu haben. Als ich gestern den Fernseher anschaltete, strahlte mir auf N24 Atom-Experte Michael Sailer entgegen, Chemieingenieur vom Darmstädter Öko-Institut und Atom-Experte aus Leidenschaft. Im Interview ergab sich – aus dem Gedächtnis wiedergegeben – folgendes:

Journalist: Im Kraftwerkskontrollraum wurde eine um das eintausendfache erhöhte Strahlenbelastung festgestellt, ist es noch verantwortlich, da Leute zu lassen?

Experte: Es ist wohl der Zwang, um Schlimmeres zu verhindern, eintausendfach ist schon viel, aber nicht tödlich.

Ein wahrer "Atom-Experte" weiß selbstverständlich, daß eintausendfach viel ist, mehr zumindest als einhundertfach. Die Zahl in irgendwelche Relationen zu setzen, um dem Publikum, das eben nicht "Atom-Experte" ist, eine Einordnung zu ermöglichen, wurde versäumt, vermutlich weil man sich als "Atom-Experte" in dem ganzen Einheitenbrei nicht so auskennt und da viel wichtiger ist, daß eintausenfach ’schon ne Menge aber nicht tödlich‘ ist. Ich versuche das jetzt mal mit den Zahlen und versuche ohne "Atom-Experte" zu sein, die Zahlen in eine Relation zu bringen.

Im Normalbetrieb wird man im Kraftwerkskontrollraum etwa einer Strahlenbelastung von 0,23µSv/h ausgesetzt – außerhalb des Kontrollraums, wenn man in der kernkraftwerksfreien Landschaft spazieren geht, auch. Eintausendfach heißt für mich, daß die Strahlung im Kraftwerkskontrollraum 0,23mSv&h oder auf eine 8 Stunden Schicht bezogen 1,83 mSv beträgt. Dies alles sagt erstmal nicht so viel. Welcher Strahlenbelastung ist jemand ausgesetzt, bei dem ein Bänderriß vermutet wird und bei dem daher eine Computertomographie durchgeführt wird? Es sind etwa 20mSv. Die Kraftwerksmitarbeiter würden sich, wenn sie sich 88 Stunden oder 11 Schichten der ‚gefährlichen aber nicht tödlichen‘ Strahlendosis im Leitstand aussetzen, die gleiche Dosis abbekommen die eine ’nützliche heilsbringende‘ Computertomographie so hergibt.

Erstaunlicherweise sagt kein "Atom-Experte" Dinge, die irgendwas Konkretes hergeben können. Mich würde interessieren, wann der Spuk vorüber ist. Die Kraftwerke haben ja aktuell das nicht unerhebliche Problem, die Nachzerfallswärme abzuführen. Die Kraftwerke sind abgeschaltet, eine Kettenreaktion findet nicht mehr statt. Obwohl die "Atom-Experten" von ARD und ZDF durch Hervorkramen der alten Tschernobyl-Dokumentationen etwas anderes sugerieren wollen, ist im übrigen das ganze Szenario ein anderes, denn in Tschernobyl trat beim Abschalten ein schrecklicher Konstruktionsfehler zu Tage, der für kurze Zeit eine unkontrollierte Kettenreaktion zur Folge hatte. Mit der Nachzerfallswärme ist es etwas anderes. Sie ist erstmal viel weniger, aber noch besser, man kann sie, wenn man einige Daten des Kraftwerks kennt, recht einfach durch die von Way und Wigner aufgestellte Näherungsformel abschätzen. Auch die Wärmeleitfähigkeit des Containments kennt man, selbstverständlich ebenso den Schmelzpunkt der Brennstäbe und – wichtiger noch – den des Containments. "Atom-Experten" selbstverständlich rechnen nicht. In keiner Publikation konnte man etwas dazu lesen, wann es denn vorüber ist.

Statt dessen sieht man sinnlose Vergleiche und ebenso einen russischen Atom-Experten von Greenpeace Russland, der inhaltsschwanger berichtet "Ich fühle mich stark an Tschernobyl erinnert" und es hierdurch schafft, mit nur einem Satz dem Faß den Boden auszuschlagen. Ich nicht, ich bin häufig in der Ukraine und habe dort Freunde, allerdings in einer anderen Region, die Ukraine ist groß. Mir wurde von meinen Freunden glaubhaft versichert, daß es nicht direkt Sondersendungen gab. Die Sowjetunion begann drei Tage nach dem Unfall zu evakuieren – da ließ sich der Mist nicht mehr unter den Teppich fegen – in Japan begann man noch, ehe es überhaupt zur Freisetzung von strahlendem Material kam. Das fällt einem Greenpeace-"Atom-Experten" natürlich genausowenig auf wie die komplett unterschiedlichen Unfallhergänge und die gravierenden konstruktiven Unterschiede der Reaktoren.

Abschließend muß ich nochmals hervorheben, wie sehr ich die japanische Bevölkerung für das Unglück durch die Naturkatastrophe bedauere. "Atom-Experten" machen das nicht, die wittern das politische Geschäft ihres Lebens.

Übernommen von Ökowatch mit Dank an Rolf Sträter

Lesen Sie auch hier den klaren Artikel von Vera Lengsfeld auf ACHGUT

Hier wird beschrieben wie die Tagessschau vom 17.3.11 ihre Zuschauer in die Irre führt.

Related Files




„Nature“ präsentiert Wahnvorstellungen von Modellierern zur vermeintlichen Überflutungsgefahr in England

… in neun von zehn Fällen deutet unser Modell darauf hin, dass der im 20. Jh. vom Menschen verursachte  Treibhausgasausstoß das Risiko von Überschwemmungen in England und Wales im Herbst 2000 um mehr als 20% erhöht hat und in zwei von drei Fällen sogar um mehr als 90%

Zu Beginn meiner Analyse mußte ich erst einmal das Gesetz von der Güte wissenschaftlicher Autorenschaft zu Rate ziehen (Qualitative Law of Scientific Authorship). Es ist ein allgemeingültiges Gesetz und lautet:
Q ca = 1 / N^2
wobei Q die Güte der wissenschaftlichen Veröffentlichung ist, und N^2 das Quadrat der Anzahl der aufgelisteten Autoren. Noch wichtiger ist aber, dass wir uns erst einmal folgender Frage zuwenden: Wie viele historische englische Überschwemmungen haben die Autoren ausgewertet, um zu ihrem Urteil über das Überschwemmungsrisiko in England zu kommen?
Seltsamerweise haben sie überhaupt keine historischen Daten von Überschwemmungen ausgewertet. Kein Scherz, auch keine trickreiche Behauptung! Folgendermaßen sind sie vorgegangen:
Sie haben ein einzelnes Computer-Klima-Modell mit jahreszeitlicher Auflösung (HadAM3-N144) benutzt, um 2 268 Einzeljahre mit synthetischen Herbstwetter-Daten zu erzeugen. Die beobachteten Klimavariablen vom April 2000 (Temperatur, Luftdruck, usw.) wurden als Eingangswerte für das HadAM3-N144 Modell benutzt. Damit wurde das Modell gestartet und man ließ es mehrere tausend Male sich wiederholen. Die Auhoren von Pall2011 nennen diese vom Computer erzeugten 2 268 Einzeljahre die „Daten“ des “A2000 Klimas”. Ich werde es  das „A2000 synthetische Klima“ nennen, damit keine Verwechslung mit der Wirklichkeit stattfindet.
Das „A2000 synthetische Klima“ ist ein ganzes Universum von mehreren tausend Einzeljahres-Rechenergebnissen aus einem einzigen Computermodell (mit einem festen Satz von internen Parameter-Einstellungen). Vermutlich sind die benutzten Parameter im Modell gut abgebildet … Das heißt noch lange nicht,  dass deren wirkliche Variation im Modell gut abgebildet wäre. Aber ich schweife ab. 
Die 2.268 fache Modellsimulationen für ein Jahr des A 2000 Herbstwetter-Datensatzes wurden dann in ein zweites, viel einfacheres Modell eingegeben, in ein “Niederschlags-Ablauf Modell” (P-R). Dieses P-R Modell schätzt die Flußpegel in SW-England und Wales ab. Es geht von den Niederschlägen in den Gitternetzkästchen aus.
Anschließend wurde das P-R Modell mit Hilfe der Ergebnisse aus einem dritten Klima-Modell kalibriert,  dem ERA-40 Computermodell, das historische Daten reanalysiert. Wie die anderen Modelle wirft das ERA-40 die Variablen bezogen auf ein globales Gitternetz aus. Die Autoren haben multiple lineare Regression eingesetzt, um das P-R Modell zu kalibrieren, dergestalt, dass zwischen den angezeigten Flußpegelständen der 11 untersuchten englischen Niederschlagsmessungen mit den ERA-40 computerausgewerteten Gitternetzdaten die beste Übereinstimmung erzielt wurde.
Wie gut die Übereinstimmung mit der Wirklichkeit zusammenpaßt? Keine Ahnung, darüber haben sie nichts gesagt …
Also unter dem Strich kommen irgendwelche Daten heraus. Aber diese Daten wurden überhaupt nicht analysiert. Stattdessen wurden sie benutzt, um die Parameter des P-R Modells einzustellen.
Fassen wir ein Zwischenergebnis zusammen:
•  Wirkliche Daten vom April 2000 und wirklichen Muster von Bodentemperaturen, Luftdruck und anderen Variablen sind in ständiger Wiederholung als Eingabedaten für 2 268 einjährige Wetterberechungen benutzt worden. Die Ergebnisse werden das „A2000 synthetische Klima“ genannt. Dieses 2 268fache einzeljährige Wetter wurde benutzt als Eingabe für ein zweites Modell zur Errechnung des Abflusses des Niederschlags über die Flüsse. Dieses P-R Modell wurde dann auf die beste Übereinstimmung mit den Reanalyse-Ergebnissen der auf das Gitternetz bezogenen Niederschläge getrimmt. Mit Hilfe der A2000 Wetterdaten erzeugt das P-R Modell  2 268 Jahre mit synthetischen Flußpegelständen und Hochwasserdaten.

So! Das war die erste Halbzeit.

In der zweiten Halbzeit haben die Autoren die Ergebnisse von vier globalen Zirkulationsmodellen (GCM) benutzt. Daraus haben sie errechnet, wie eine synthetische Welt ausgesehen hätte, wenn es keine anthropogenen Klimaänderungs-Antriebe gegeben hätte. Oder in den Worten von Pall2011: jedes der vier Modelle erzeugte “eine hypothetische Lage, welche die “Erwärmung der Erdoberfläche” abbildete, wie sie vielleicht ohne anthropogene Treibhausgasemissionen eingetreten wäre (A2000N).”
Und so beschreiben sie die Veränderungen zwischen A2000 and A2000N:
In der A2000N-Lage wird versucht, einen hypothetischen Herbst 2000 im [HadAM3-N144] Modell abzubilden, indem die A2000-Lage wie folgt verändert wird: Treibhausgasemissionen sind auf die Mengen des Jahres 1900 zurückgesetzt; SSTs [Temperaturen über der Meeresoberfläche] werden verändert, indem der den Treibhausgasemissionen zurechenbare Erwärmungsanteil herausgerechnet wird, wobei die Ungewißheit in Rechnung gestellt ist; das Meereis ist gleichermaßen verändert, indem eine einfache empirische Meersoberflächen-Lufttemperatur-zu-Meereis-Beziehung hergestellt wird, die aus beobachteten Lufttemperaturen an der Meeresoberfläche und dem Meereis bestimmt wird.
Eine interessante Auswahl von Veränderungen, das sollte man sich auf der Zunge zergehen lassen …
Treibhausgasemissionen für das Jahr 1900, kühleres Meer, mehr Meereis, aber keine Änderung bei den Temperaturen über dem Land … Sieht so aus, als ob es auf ein wärmeres Großbritannien in einem kälteren Ozean hinausliefe. Und es sieht so aus, dass dadurch bestimmt die Niederschläge beeinflußt würden. Aber lassen wir uns nicht von den logischen Ungereimtheiten ablenken …
Dann haben sie das Original-Klimamodell (HadAM3-N144) mit den Startbedingungen aus den vier GCM-Modellen benutzt und mit den gleichen Anfangsstörungen aus A2000 einige weitere Tausende von Ein-Jahres-Simulationen erzeugt. Mit anderen Worten: gleiches Modell, gleiche Startdaten, unterschiedliche Startbedingungen aus Ergebnissen der vier GCMs. (Gerade fällt mir auf, dass die synthetischen Wetterdaten am 1. April beginnen!). Das Ergebnis heißt A2000N synthetisches Klima, obwohl sie das „synthetisch“ weglassen. Ich vermute mal, das „N“ steht für “no warming”.
Diese mehrere Tausende von Jahren an modelliertem Wetter, das synthetische A2000N-Klima, sieht dann wie das synthetische A2000-Klima aus. Die Daten sind in das zweite Modell eingegeben worden, in das P-R Modell, das mit Hilfe des ERA-40 Reanalyse-Modells abgestimmt worden war. Daraus ergab sich dann eine weitere Folge von Flußpegel- und Überschwemmungsvorhersagen.
Zwischenergebnis:
•  Zwei Datensätze von Computer-erzeugten, vollständig und ausschließlich simulierten englischen Flußpegel- und Überschwemmungsdaten wurden errechnet. Keiner der Datensätze ist auf tatsächliche Messdaten bezogen, auch nicht auf Bluts-, angeheiratete oder auf sonstige verwandtschaftliche Nähe. Doch um fair zu sein: bei einem der Modelle sind die Eingangswerte mit Hilfe eines Vergleichs zwischen echten Meßdaten und den Ausgabedaten eines dritten Modells gesetzt worden. Einer der beiden Datensätze wird von den Autoren als  “hypothetisch” beschrieben, der andere als “realistisch”.
Zum Schluss vergleichen die Autoren die beiden Datensätze. Heraus kommt das Urteil, dass der Mensch die Ursache ist:
Der genaue Umfang des anthropogenen Beitrags bleibt ungewiss, aber in neun von zehn Fällen deuten die Ergebnisse unseres Modells darauf hin, dass die anthropogenen Treibhausgasemissionen im 20. Jh. die Risiken von Überschwemmungen in England, wie sie sich im Herbst 2000 ereigneten, um mehr als 20% und in zwei von drei Fällen um mehr als 90% erhöht haben.
Zwischenergebnis:
• Die Autoren haben schlüssig gezeigt, dass in einem Computer-Modell für Südwest-England und Wales im synthetischen Klima A die synthetischen Überschwemmungen eine statistisch höhere Gefährdung darstellen als im synthetischen Klima B.
Ich bin mir nicht sicher, was ich dazu sagen soll, weil die Autoren auch nicht viel dazu sagen. 
Ja, sie zeigen, dass ihre Ergebnisse in sich ziemlich konsistent sind und sie stimmen auch mehr oder minder darin überein, dass sie nicht außerhalb der Grenzen ihrer Bedingungen liegen, und dass die Autoren die Ungewissheit durch Monte-Carlo Eingaben abgeschätzt haben, und dass sie mit den Ergebnissen zufrieden sind … Aber in Anbetracht der Ungewissheiten, die sie NICHT einbezogen haben –  nun, daraus können Sie Ihre eigenen Schlüsse ziehen hinsichtlich der Frage, ob die Autoren ihre Untersuchung unter Beachtung wissenschaftlicher Grundsätze durchgeführt haben.
Nur ein paar Fragen, die diese Analyse aufwirft:

FRAGEN, AUF DIE ICH ÜBERHAUPT KEINE ANTWORT WEISS

1.  Wie wurden die vier GCMs ausgewählt? Wieviel Ungewißheit wurde dadurch eingebracht? Was würden vier andere GCMs ergeben?
2.  Wie hoch ist die Gesamt-Ungewißheit, wenn das gemittelte Ergebnis eines Computer-Modells als Eingabe in ein zweites Computer-Modell genommen würde, wenn weiter dessen Ergebnis als Eingabe für ein drittes Computer-Modell genommen würde, das gegen ein unabhängiges Klima-Reanalyse-Computer-Modell kalibriert würde?
3.  Bei den über 2000 Einjahres-Simulationen wissen wir, dass sie den HadAM3-N144 Modellraum für eine vorgegebene Einstellung der Modell-Parameter benutzt haben. Aber umfassen die unterschiedlichen Modelle den tatsächlichen Wirklichkeitsraum vollständig? Und wenn ja, stimmt die Verteilung der Ergebnisse mit der Verteilung der tatsächlichen Klimavariationen überein?  Hier handelt es sich um eine unausgesprochene Annahme, die für die Aussage „in neun von zehn Computerläufen“ verifiziert werden muss, um stehen bleiben zu können. Vielleicht sind neun von zehn Computerläufen unrealistischer Mist, vielleicht auch reines Gold … Ich setze aber auf ersteres, es gibt ja keine Möglichkeit für die Entscheidung, was wahr und was falsch ist.
4.  Ziehen wir die Warnungen über die Datenquellen (siehe unten) in Betracht, “dass es selten mit Sicherheit ausreicht, die Flußpegelmeßdaten so zu nehmen, wie sie sind”.  Welcher Qualitätskontrolle wurden die Flußpegelmeßdaten unterworfen, um die Genauigkeit beim Setzen der P-R-Modelldaten sicher zu stellen? Im Allgemeinen haben die Überschwemmungen zugenommen, weil immer mehr Land wasserundurchlässig gemacht worden ist (Straßen, Parkplätze, Überbauung), und weil der ursprüngliche Bodenbewuchs beseitigt worden ist. Deshalb wird die Abflussmenge von vorgegebenen Niederschlägen erhöht, und das bringt einen Trend zu erhöhtem Abfluss in die Ergebnisse ein. Ich weiß nicht, ob das in der Analyse berücksichtigt wurde, trotz der Tatsache, dass die Flußpegelstandsmessungen zum Kalibrieren des P-R-Modells benutzt wurden.
5.  Da das P-R-Modell mit Hilfe der ERA-40-Reanalyse-Ergebnisse kalibriert wurde, wie gut gibt es die tatsächlichen jährlichen Flußmengen wieder, und wie viel Ungewißheit steckt in den errechneten Ergebnissen?
6. Ausgehend vom Starttag 1. April für jedes Jahr: wie gut prognostiziert das im Papier skizzierte Verfahren  – Beginn des HadAM3-N144 jeweils am 1. April zur Vorhersage der Niederschläge im Herbst – die ungefähr 80 Jahre Niederschläge, für die es tatsächliche Messdatenaufzeichnungen gibt?
7. Ausgehend vom Starttag 1. April für jedes Jahr, wie gut prognostiziert das im Papier skizzierte Verfahren  -Beginn des HadAM3-N144 jeweils am 1. April zur Vorhersage der Pegelstände und Überschwemmungen  – die Pegelstände und Flussmengen, für die es tatsächliche Messdatenaufzeichnungen gibt?
8. Nehmen wir an, in einem Glücksspiel sollen die Ergebnisse von vier unterschiedlichen Computer-Modellen mit der Wirklichkeit verglichen werden. Drei müssen falsch sein, wenn eine Vorhersage richtig ist, weil vier verschiedene Prognosen möglich sind. Alle vier können aber auch falsch sein. Der Erfolg einer Wette soll proportional zur Korrelation des Modells mit der Wirklichkeit sein.
Wie hoch ist die Erfolgserwartung mathematisch bei einer 1$-Wette auf eines der Modelle in diesem Spiel … und wie hoch ist die Ungewissheit für diese Erfolgserwartung? Wenn vier Modelle vorgegeben sind, wird dann eine Wette auf den Durchschnitt der Modelle meine Gewinnchancen verbessern? Und was unterscheidet diese Frage von den Schwierigkeiten und Unbekannten, die in der Abschätzung nur dieses einen Teils der gesamten Ungewissheit der Studie liegen, wenn man nur die Informationen besitzt, die in der Studie benannt worden sind?
9. Sechs unterschiedliche Klimamodelle wurden einbezogen, jedes davon hat unterschiedliche Größen der Gitternetzkästchen und Koordinaten. Es gibt unterschiedliche Methoden zur Durchschnittsbildung von einem Gitterkästchen-Schema mit einer bestimmten Größe zu einem anderen mit anderer Größe. Welche Methode wurde benutzt und wie hoch ist die Ungewissheit, die bei diesem Schritt eingeführt wurde?
10.  Die Studie beschreibt die Benutzung eines bestimmten Modells, um zwei Datensätze von jeweils 2000+ Einzeljahren mit synthetischem Wetter zu erzeugen … wie unterschiedlich wären die Datensätze, wenn ein anderes Klimamodell benutzt würde? 
11.  In der Annahme, dass die GCMs andere Niederschlagsmuster erzeugen als das ERA-40 Reanalyse-Modell, und in der Annahme, dass das P-R-Modell auf die Ergebnisse des ERA-40-Modells kalibriert ist, wieviel Ungewißheit wird dadurch erzeugt, dass die gleichen ERA-40 Kalibrierungseinstellungen mit den GCM-Ergebnissen benutzt werden? 
12. Haben die Autoren wirklich die A2000N Simulationen mit der Abkühlung des Ozeans gestartet und nicht des Landes, wie sie anscheinend sagen?
Wie man sieht, gibt es eine Menge von wichtigen Fragen, die derzeit unbeantwortet sind.
Nach erneutem Lesen meines Beitrags möchte ich noch klarstellen: Ich spotte nicht über die Studie, weil sie etwa falsch wäre. Ich spotte, weil die Studie so weit von der Wissenschaftlichkeit entfernt ist, dass keine Hoffnung besteht, je zu erkennen ob sie falsch oder wahr ist.  Die Autoren haben uns nicht die geringste notwendige Menge von Informationen gegeben, um auch nur im Ansatz eine Beurteilung der Tragfähigkeit der Hypothese zu ermöglichen.

KOMMEN WIR MAL AUF DIE LANGWEILIGEN ALTEN DATEN ZURÜCK …

Wie man weiß, liebe ich Fakten. Ich pflichte Robert Heinlein bei:

Was sind die Fakten? Immer wieder muss nach den Fakten gefragt werden. Wunschdenken muss beiseite geschoben und göttliche Eingebung ignoriert werden. Was die „Sterne sagen“ gilt nicht, Meinungen sind zu vermeiden, Rücksichtnahme auf das, was der Nachbar denkt, ebenso. Man kümmere sich nicht um das “Urteil der Geschichte”. Was sind die Fakten und bis auf welche Dezimalstelle sind sie genau? Man segelt immer in eine ungewisse Zukunft. Nur Fakten haben Bestand. Holt die Fakten!

Das hat er 1973 geschrieben, was er ausließ, war “Hüte Dich vor Computermodell-Ergebnissen.”  Also haben ich die Pegelstandsmessungen angesehen, wie sie in Pall2011 angegeben werden. Ich bin bis zum Teil gegangen, wo es heißt: (Hervorhebung von Willis Eschenbach):
Appraisal of Long Hydrometric Series [Beurteilung von Langzeit- Wasserstandsaufzeichungen]
… Die Genauigkeit der Daten und Konsistenz kann ein Hauptproblem bei vielen frühen Wasserstandsaufzeichnungen sein. Im Verlauf des 20. Jh. wurden die Instrumentierungen und die Aufzeichnungseinrichtungen verbessert, aber diese Verbesserungen selbst können Inhomogeneitäten in die Zeitreihen bringen – die noch verstärkt werden können durch Veränderungen (manchmal nicht dokumentiert) des Standorts der Meßstation oder der angewandten Methoden der Datenverarbeitung. Zusätzlich wurde die Einwirkung des Menschen auf das Fließverhalten der Flüsse und die Muster der Grundwasserspeisung immer ausgedehnter, besonders in den vergangenen 50 Jahren. Der sich daraus für das Fließverhalten der Flüsse und die Grundwasserspiegel ergebende Zustand kann zusätzlich noch durch die weniger sichtbaren Auswirkungen der Veränderungen der Bodennutzung beeinträchtigt werden; obgleich diese in einer Anzahl von wichtigen experimentellen Wassereinzugsbereichen im Allgemeinen quantifiziert worden sind, entziehen sie sich einer leichten Quantifizierung.
Wie in den meisten Langzeitaufzeichnungen von natürlichen Phänomenen lauern in der in der Studie benutzten Datenaufzeichnung auch Fallen für den Unaufmerksamen. Und in der Tat sagen die Autoren am Schluss des Abschnitts: 
Man muss daher richtigerweise sehen, dass die Erkennung und Interpretation von Trends besonders stark auf der Verfügbarkeit von Referenz- und räumlicher Information beruht, um die Auswirkungen der Klimaveränderung von der Einwirkung eine Reihe von anderen Faktoren zu unterscheiden;>
Genau das haben sich die Autoren von Pall2011 zu Herzen genommen. Sie haben nämlich den Daten überhaupt keine Gelegenheit gegeben, auch nur ein einziges Wort zu sagen …
Um eine noch ernsthaftere Anmerkung zu machen: Weil mit diesen Daten die “Klimavariabilität” des P-R-Modells kalibriert wurde, haben deswegen die Pall2011-Leute den Rat des Verwalters der Daten befolgt? Auch davon sehe ich überhaupt nichts.
Ich konnte nur feststellen, dass die Flußpegeldaten überhaupt keine Hilfe für mich sein konnten. Ich war nur verwirrt wegen der impliziten Behauptung in der Studie, dass extreme Niederschläge in England zunähmen.  Ich glaube, die Autoren wollen sagen, dass der Klimawandel mehr Überschwemmungen mit sich bringt, und das kann nur passieren, wenn es mehr Starkregen in England gibt. 
Glücklicherweise haben wir da eine andere interessante Datenreihe. Dummerweise wieder vom Hadley Centre, es ist die Hadley UK Precipitation Datenreihe von Alexander und Jones; ja ja, es ist Phil Jones (HadUKP). Und glücklicherweise zeigt die herangezogene Studie überhaupt nichts Außergewöhnliches. Unglücklicherweise, aber irgendwie unvermeidlich, benutzt sie ein komplexes System der Durchschnittsbildung. Glücklicherweise unterscheiden sich die durchschnittlichen Ergebnisse nicht sehr von einem einfachen Durchschnitt, soweit unser Interesse hier betroffen ist. Unglücklicherweise gibt es keine Kontrolldaten, so dass man nicht exakt feststellen kann, was aus einem bestimmten Extremwetterereignis in einem bestimmten Gebiet zu einer bestimmten Zeit gemacht worden ist.
Jedenfalls ist das das Beste, was wir haben. Die gesamten täglichen Niederschlagsmengen sind für Bereiche in England aufgelistet, und einer dieser Bereiche ist South West England and Wales. Damit werden die Probleme der Durchschnittsbildung für größere Gebiete vermieden. Die Abbildung 2 zeigt das Herbstmaximum eines eintägigen Niederschlags in Südwest-England und Wales. Das war die Gegend und der Zeitraum, die in der Pall2011 Studie im Hinblick auf die Herbst-2000-Überschwemmungen untersucht wurde:
http://wattsupwiththat.files.wordpress.com/2011/02/max-1-day-autumn-rain-sw-england-wales.jpg

Abbildung 2. Herbstmaximum eines 1-tägigen Niederschlags, SW England und Wales, Sept-Okt-Nov. Der geringe Trend ist statistisch kaum von Null zu unterscheiden.
Der in dieser Aufzeichnung gezeigte Starkregen ist typisch für Aufzeichnungen von Extrema. In der Natur haben die Extrema selten eine Gauss’sche Normalverteilung. Stattdessen enthalten die Aufzeichnungen einige sehr große Werte, auch dann, wenn man nur nach Extrema Ausschau hält. Die Art des Starkregens, der zu den Überschwemmungen von 2000 führte, kann in Abbildung 3 betrachtet werden. Diese Abbildung halte ich für eine warnendes Beispiel, weil bei einer Verschiebung des Beginns der Darstellung um ein Jahr später, der eintägige Niederschlag bei weitem der größte im Bericht wäre. 
Für die 70 aufgezeichneten Jahre gibt es keine Anzeichen für zunehmende Überschwemmungsrisiken als Folge von Klimafaktoren. In Pall2011 wurde klar gezeigt, dass in zwei von drei Jahren im synthetischen Klima B das Risiko einer synthetischen Herbstüberschwemmung in einem synthetischen Südwest-England und Wales um 90% zunimmt, gemessen am synthetischen Überschwemmungsrisiko im synthetischen Klima A.
Entsprechend den Messdaten gibt es kein Anzeichen für Zunahmen von Starkregen im Herbst in Südwest-England und Wales. Es ist also sehr unwahrscheinlich, dass wir über das uns bekannte  Südwest-England und Wales sprechen  … Damit erhält die String-Theorie von multiplen parallelen Universen eine neue Bedeutung, vermute ich mal.
IMPLIKATIONEN DER VERÖFFENTLICHUNG DIESER STUDIE
Es ist verstörend, dass NATURE diese Studie veröffentlich hat. Es gibt nur diesen einen Weg, über den diese Studie eine sehr geringe Chance für wissenschaftliche Anerkennung hätte haben können. Wenn nämlich die Autoren die exakten Datensätze und den Code veröffentlicht hätten, mit dem sie die Ergebnisse erzeugten. Eine reine Beschreibung der Verfahren ist ausgesprochen inadäquat für jegliche Analyse der Gültigkeit von Ergebnissen.
Um auch nur eine kleine Hoffnung auf Gültigkeit zu hegen, ist als absolutes Minimum die elektronische Veröffentlichung der A2000 und A2000N Klimadaten in zugänglicher Form nötig, zusammen mit den Resultaten einfacher Tests der einbezogenen Modelle (d. h. Computer-Vorhersagen von Herbstüberschwemmungen zusammen mit tatsächlichen Flußpegelständen). Darüberhinaus müssen die benutzten ex-ante Kriterien für die Auswahl der vier GCMs und des Leitmodells erklärt werden. Auch die Antworten auf meine oben erhobenen Fragen. Nur dann kann man die Studie annäherungsweise für wissenschaftlich halten. Und selbst dann, wenn man sich die derzeit nicht zugänglichen A2000 und A2000N synthetischen Klimata anschaut, könnte es sein, dass diese keine Ähnlichkeit mit irgenwelcher Wirklichkeit haben, hypothetisch oder sonstwie …
Im Endergebnis sehe ich die Verantwortung bei der Fachzeitschrift NATURE. Weil derzeit das Beste, was wir über die Studie sagen können ist: a) wir haben keine Möglichkeit festzustellen, ob sie stimmt. Und b) sie ist nicht falsifizierbar … Wenn das auch gut im “Journal of Irreproducible Results“ aussieht, bedeutet es nichts Gutes für eine Zeitschrift wie NATURE, die sich mit fachbegutachteter Wissenschaft befaßt. 
Willis 
PS – Bitte verstehen Sie das nicht als Schimpfen auf Computermodelle. Ich habe Computer seit 1963 programmiert, länger als manche Leser hier leben. Ich kann in R, C, VBA, Pascal schreiben, und ich kann in einem halben Dutzend anderer Computer-Sprachen lesen und (langsam) schreiben. Ich benutze Computer-Modelle, habe einige gelegentlich geschrieben und verstehe die Stärken, Schwächen und Grenzen vieler Computer-Modelle von Echtwelt-Systemen. Mir ist wohlbewußt, dass “alle Modelle falsch, einige aber nützlich sind”. Deshalb benutze ich sie, vertiefe mich in sie und schreibe gelegentlich welche.
Mein Argument ist, dass man ohne wirkliche Überprüfung der Ergebnisse aus Modellrechnungen gegen die Wirklichkeit mit den genauesten vorstellbaren Tests nur ein komplexes Spielzeug von unbekannter Aussagekraft hat. Und sogar nach ausgedehnten Tests können Modelle sich irren gegenüber der realen Welt. Deshalb läßt Boeing immer noch Testflüge mit neuen Flugzeugen durchführen, obgleich die teuersten Computer-Modelle eingesetzt werden, und trotz der Tatsache, dass die Modellierung von Luftströmungen um ein Flugzeug um Größenordnungen einfacher ist als die Modellierung des globalen Klimas.
Andere und ich haben an anderer Stelle gezeigt, (Lesen Sie hier, Sehen Sie diesen Kommentar hier, und die Grafik hier), dass die vom NASA-Glanz-und-Gloria-Klimamodell (dem GISS-E GCM) errechnete jährliche globale Durchschnittstemperatur mit 98%iger Genauigkeit mit folgender einfacher, einzeiliger Gleichung, die nur eine Variable benutzt, errechnet werden kann: 
T(n) = [lambda * Forcings(n-1)/tau + T(n-1) ] exp(-1/tau) 
wobei T(n) die Temperatur zum Zeitpunkt n ist, und lambda und tau die Konstanten der Klima-Sensitivität und der Verzögerung sind …
Angesichts der Komplexität des Klimas ist es sehr wahrscheinlich, dass das GISS-E Modell falsch und noch nicht einmal nützlich ist. Und wenn man vier von derartigen GCMs auf das Problem der englischen Überschwemmungen ansetzt, macht es die Genauigkeit der Ergebnisse bestimmt nicht besser …
Das Problem sind nicht die Computer-Modelle. Das Problem ist die Fachzeitschrift NATURE, die versucht, die Endergebnisse aus einer langen Computer-Modell-Perlenkette, bestehend aus gezielt ausgesuchten, unausgetesteten, nicht verifizierten, nicht untersuchten Computer-Modellen, als gültige, falsifizierbare, fachbegutachtete Wissenschaft zu verkaufen. Man mag mich ja verrückt nennen: Aber wenn die Ergebnisse von vier Computer-Modellen, die in ein fünftes Computer-Modell eingespeist werden, dessen Ergebnisse wiederum in ein sechstes Computer-Modell gehen, das gegen ein siebtes Computer-Modell kalibriert wird, dann als Resultate gegen eine Reihe von anderen Resultaten aus einem fünften Computer-Modell verglichen werden, aber nach Anwendung anderer Parameter, um zu beweisen, dass das Überschwemmungsrisiko sich wegen zunehmender Treibhausgase geändert hat, … nun, wenn man so etwas macht, dann muss man schon mehr tun, als mir nur zuzuwinken, um mich zu überzeugen, dass das Überschwemmungsrisiko nicht nur eine mögliche Abbildung der Realität ist, sondern auch eine genügend genaue Abbildung der Realität, um zukunftsgerichtetes Handeln zu leiten.
* Der Beitrag findet sich hier 
Ergänzende Information finden Sie hier, darin sind die Leitgedanken des Papiers enthalten.
Willis Eschenbach , den Originalbeitrag finden Sie hier
Die Übersetzung besorgte Helmut Jäger EIKE
**Die Ergänzungsinformation dazu finden Sie hier, sie enthält den größten Teil des Konzeptes dieses Papiers




Schiefergas in Europa: so viel wie in Nordamerika!

Das Institut CERA (IHS Cambridge Energy Research Associates®) aber ist ständig sowohl traditionell bei den Mainstream-Medien, wie auch als Wegbereiter des Schiefergases tätig.  Das rührt wohl von der Unternehmenskultur von Daniel Yergins Firma her, die neugierig, offen und zukunftsorientiert ist, anstelle des engstirnig ängstlichen herkömmlichen Von-oben-nach-unten-Denkens in Energiefragen.
Wenn also CERA – immer realistisch beim Thema Schiefergas, aber wie alle anderen auch nicht in der Lage, Zahlen zu nennen –  sich mit Schiefergas zu beschäftigt, dann wird man aufmerken.

Die Menge an unkonventionellen europäischen Gas-Reserven gleicht der in Nordamerika, wie in der neuen großen Studie des CERA (IHS Cambridge Energy Research Associates®) "Breaking with Convention Prospects for European Unconventional Gas" steht. Die Reserven an europäischen unkonventionellen Gasvorräten werden auf 173 Trillionen Kubikmeter geschätzt.
Die Studie ist die erste einer Reihe von wichtigen Analysen zu den Aussichten unkonventioneller Gasförderung in Europa und der Welt. Beruhend auf der systemischen Analyse von Hauptlagerstätten unkonventioneller Gasvorkommen in Europa (Schiefergas und Methan in Kohlenflözen) und unter Benutzung der umfangreichen IHS-Datenbanken, untersucht die Studie, in welchem Umfang das zugängliche unkonventionelle Gas gefördert werden könnte, und welche Bedeutung das für den europäischen Gasmarkt haben könnte.
"Die technologische Revolution in Bezug auf unkonventionelles Gas ist die in diesem Jahrhundert bei weitem wichtigste Energie-Innovation," sagte Daniel Yergin, IHS CERA Institutsleiter und Autor des mit dem Pulitzer-Preis ausgezeichneten Buches "The Prize". “Das gewaltige Potenzial hat bereits Nordamerikas Energielandschaft verändert und es könnte nun die globale Gasindustrie verändern.”

Kann ich Daniel Yergin zustimmen? Ich würde "könnte" mit "unausweichlich" im vorhergehenden Zitat ersetzen. Die beigefügten CERA-Zahlen für Europa haben sogar einen (rationalen) Optimisten wie mich überrascht. CERA hat Zugriff auf teure geschützte Datenbestände.

Hier noch weitere Zahlen:

Unkonventionelles Gas in Europa wird wahrscheinlich einen bedeutenden Beitrag zur Versorgung in den kommenden 10 bis 15 Jahren leisten, sagt der Bericht. IHS CERA schätzt Fördermengen von mindestens 60 Mrd. Kubikmetern bis etwa 200 Mrd. Kubikmetern im Jahr 2025.

Die 60 Mrd. Kubikmeter sind weniger als die Hälfte der gegenwärtigen Förderung von Schiefergas in Nordamerika.
Betrachten wir die Mindestmenge von 60 Mrd. Kubikmetern im Vergleich zu den gesamten Flüssig- und Erdgasimporten Europas von 69,02 Mrd. Kubikmetern im Jahre 2009. Das bedeutet große Probleme für den europäischen Flüssig- und Erdgasimporte, wenn der Markt so schrumpft wie in Nordamerika. Ein kleiner Trost für die europäische Gasindustrie ist, dass, anders als in den Vereinigten Staaten und in Kanada, niemand von europäischen Exporten ausgeht. Andererseits repräsentieren 200 Mrd. Kubikmeter den gesamten Bedarf von England, Frankreich und Deutschland zusammen, oder des größten Teils von Kontinentaleuropa ohne die drei.

Damit verändert sich alles.

Die Auswirkung dieser Stabilisierung der heimischen Versorgung könnte bedeutend sein, wenn auch nicht so revolutionär wie in den USA, meint der Bericht. Eine Stabilisierung der heimischen Versorgung würde die gegenwärtigen Bedenken wegen der Versorgungssicherheit ausräumen und zu höherem Vertrauen trotz der zunehmenden Abhängigkeit von Gas führen, auch in Bezug auf die Importe. Die europäische Politik wäre dann mit einer wichtigen strategischen Entscheidung konfrontiert: zwischen einer sicheren heimischen und relativ sauberen unkonventionellen Gasversorgung oder teueren Null-Emmissions-Alternativen zu wählen.

Eine schwacher Trost für die KWler liegt darin, dass diese Zahlen nicht vor weiteren 10 bis 15 Jahren Wirklichkeit werden. Versorger, Energieberater und deren Helfershelfer wie z. B. die englische Gasmarkt- und Elektrizitäts-Regulierungsbehörde Ofgem  können ruhig bleiben und sicher sein, dass die hohen Preise noch so lange da sein werden, bis sie in den Ruhestand gehen. Vielleicht finden sie auch andere Wege zum Abzocken der Bürger.Oder sollten sie doch nicht so ruhig schlafen? Die Schiefergasmengen brauchen wir ja heute noch gar nicht, um die Preise zu beeinflussen. Wer spart denn schon für sein Alter, wenn er eine reiche, liebenswerte 90jährige Erb-Oma hat?Wir brauchen noch viele bestätigte Zahlen von den heutigen Produzenten. Anders gesagt, wir müssen wissen, dass das Geld auf der Bank liegt, auch wenn es erst in 10 Jahren fällig ist. Keine Sorge, die Zahlen kommen noch, wie ich seit zwei Jahren sagte, CERA liefert sie jetzt.Wenn wir mehr wissen, heißt es Abschied nehmen von so verrückten Dingen, wie CO2-Abscheidung-und-Speicherung, Offshore Windanlagen, Kernenergie, Ölleitungen wie NABUCCO. Dieser ganze 200 Mrd. £ teure Mist, um angeblich die Lichter an zu lassen, ist für den Mülleimer der Geschichte. Wir können ruhig in Energieeffizienz investieren und Technologie einsetzen, um verlässliche Informationen über den Energieverbrauch zu gewinnen, damit wir sparsamer werden. Wir können Forschungs- und Entwicklungs-Investitionen finanzieren für Technologien wie Energie-Speicherung, Sonnenenergie und kleine Kernkraftwerke, die wirklich Aussicht bieten, den Kohlenstoffverbrauch rasch und zu bezahlbaren Preisen zu vermindern, anstelle des Einsatzes unserer heutigen feinen Technologie, die sehr teuer ist, nicht nachhaltig oder beides. Was aber soll mit dem Großteil der 200 Mrd. £ geschehen?  Den können wir klugerweise in die Ausbildung, in unser Transportwesen oder in die Gesundheit stecken. Das würde wirklich für die meisten von uns ein Fest werden!
Nick Grealy; den Originalartikel finden Sie hier
Die Übersetzung besorgte Helmut Jäger EIKE




Der deutsche Angst-Tsunami!

Zwischeninfo vom 16.3.11 vorab:

Die deutschen Sender fliegen ihre Mitarbeiter aus:
Kein Journalist der deutschen Sender ARD, ZDF und RTL sowie der Nachrichtenmagazine „Spiegel“ und „Stern“ hält sich derzeit in der Umgebung der Atomkraftwerke in Fukushima auf… Das ZDF hat begonnen, erste Mitarbeiter auszufliegen.
Die Deutschen haben übrigens das im Oberrheingraben liegende Kernkraftwerk Mülheim-Kärlich wegen dieser – für Deutsche – riesigen Erdbebengefahr stillgelegt.

Fortsetzung Text

….Übrigens haben die japanischen Kernkraftwerke das Beben der Stärke 9 unbeschädigt überstanden. Ihr Verhängnis war die Unterbrechung der von außen kommenden Stromversorgung und die gleichzeitige Beschädigung der Notstromdiesel durch den Tsunami. Daß beides in Deutschland vollkommen unmöglich ist – und nicht etwa nur extrem unwahrscheinlich – sollte man eigentlich akzeptieren, allerdings dann nicht, wenn man politisch an der Erzeugung der größten anzunehmenden Panik (GAP) interessiert ist.

Betoniert Deutschland !

Ersatzweise malt man nun einen terroristischen Flugzeug-Absturz als Gefahr an die Wand. Man kann natürlich alle Kernkraftwerke unter meterdicke Betonkuppeln setzen – dann aber auch bitte gleich den Reichstag, das Kanzleramt, das Verteidigungsministerium, die Raffinerien, das Schloß Neuschwanstein  und den Kölner Dom. Denn wer weiß schon, auf welche Ideen Terroristen kommen ?
Vielleicht ist es aber denjenigen, die einen solchen Fall herbeibeschwören, schon einmal aufgefallen, daß es schon ziemlich lange keine spektakulären Flugzeugentführungen mehr gab. Das hatte Gründe: Nach den Anschlägen auf das World Trade Center und das Pentagon hat man weltweit die Kontrollen an den Flughäfen erheblich verstärkt und verstärkt sie weiter. Die Möglichkeit für Terroristen, überhaupt mit Waffen an Bord zu kommen, geht gegen Null. Aber wenn die Betonierungsfraktion diese Tatsache zur Kenntnis nehmen würde, dann wäre ja auch dieses vorletzte Argument weg. 

Panzerbrechende Waffen gegen Reaktoren ?

Bleibt nur noch ein terroristischer Angriff auf einen Reaktor. Und zu diesem Thema  gab es einen geradezu unglaublichen Vorfall:
Im Herbst letzten Jahres konnte man mit ziemlichen Erstaunen zur Kenntnis nehmen, daß professionelle Kernkraftgegner selbst vor Aktionen am Rande oder auch schon mittendrin in der Kriminalität nicht mehr zurück schrecken. In der Presse erschienen – auf der Grundlage einer ap-Meldung – am 16.9.2010 Artikel mit Überschriften wie

"Gefahr auf dem Stativ. Greenpeace: Atomkraftwerke durch tragbare Waffensysteme bedroht."

Die unkommentierte Nachricht, die man ungläubig lesen konnte, besagte , daß Greenpeace eine Studie zu einer speziellen Waffe, der russischen Panzerabwehrlenkwaffe AT-14 Kornet-E erarbeiten ließ. Damit seien bis zu einem Meter Stahl und bis zu drei Meter Stahlbeton zu durchschlagen. Die Betonhülle sei bei älteren deutschen Atomkraftwerken jedoch nur 60 Zentimeter bis einen Meter dick. "Einen "Kernschmelzeunfall" könnten Terroristen verursachen, wenn von mehreren solcher Systeme mehrere Geschosse auf einen Reaktor abgefeuert würden," wurde von Greenpeace erläutert. Und Greenpeace-Atomexperte Heinz Smital ergänzte: "Es ist vollkommen außer Zweifel, daß jeder Reaktor in Deutschland sich mit Zielwaffen zerstören läßt." Die Organisation Greenpeace hat also nach eigenen Angaben eine Untersuchung in Auftrag gegeben, deren Ziel es war, erfolgreiche Angriffs- und Zerstörungsmethoden gegen deutsche Kernkraftwerke zu finden und zu entwickeln und die Ergebnisse zu veröffentlichen. Die von Greenpeace als Anwender dieser Zerstörungsmethoden explizit genannten potenziellen Täter sind Terroristen. Damit hat Greenpeace  jedermann wissenschaftlich ausgearbeitete Angriffsmöglichkeiten gegen Kernkraftwerke offeriert, die  zuvor vermutlich gar nicht bekannt waren bzw. bislang als unpraktikabel eingeschätzt worden sind.
Schließlich galten die aus Stahl und Beton konstruierten Reaktordruckbehälter bisher  als außerordentlich massive und sichere Einschlußgehäuse für die große Mengen  an hochradioaktivem Material enthaltenden Reaktorkerne.
Greenpeace  hat nun mit beträchtlichem Aufwand die Rezeptur für einen erfolgreichen Terrorangriff gegen Reaktordruckbehälter ausarbeiten lassen und das Ergebnis veröffentlicht.
Greenpeace hat dabei auch nicht versäumt, darauf hinzuweisen, daß es terroristischen Vereinigungen durchaus möglich sein sollte, sich die präzise genannten panzerbrechenden Waffen zu beschaffen.
Der juristisch nicht bewanderte, aber logisch denkende Normalbürger, der sich vorsichtigerweise selbst mit Sympathie-ähnlichen Äußerungen zu Al Khaida sehr zurückhält, würde mit dieser Attentatsanleitung wohl folgende Straftaten als erfüllt ansehen:

  1. Unterstützung beliebiger terroristischer Organisationen durch die Ausarbeitung von Terrorangriffs-Vorschlägen – sowohl für die Wahl der geeigneten Waffen als auch für die Auswahl der besonders geeigneten Angriffsziele, nämlich die älteren Reaktoren mit dünnerer Betonumhüllung .

  2. Inaussichtstellung von Terroranschlägen gegen deutsche Betreiber und Mitarbeiter der hier betriebenen Kernreaktoren, insbesondere der älteren Reaktoren, deren erhöhte Verwundbarkeit durch die von Greenpeace bzw. deren Auftragnehmer  gezielt bezüglich ihrer maximalen Wirkung ausgesuchten und vorgeschlagenen Waffen ausdrücklich betont wird.

Aber alles natürlich rein theoretisch und nicht böse gemeint.
Greenpeace hat sich offenbar deshalb zu diesem  Schritt entschlossen, weil man es dort für möglich hielt, daß diese Anschlagsmethode tatsächlich angewendet werden könnte. Damit wäre in dieser seltsamen Denkweise der "Beweis" erbracht, daß Reaktoren doch nicht sicher sind. Man wartete  bisher vergeblich auf den Entrüstungssturm; auch von der Bundesregierung war kein Wort zu hören. Anscheinend ist so etwas inzwischen in Ordnung und eine legitime Aufgabe einer Umweltschutzorganisation.
Übrigens sind Spenden für diese Organisation steuerlich absetzbar – natürlich im Gegensatz zu Spenden für Al Khaida, obwohl man dort vielleicht nach dieser Aufklärung  Spenden für die Beschaffung der AT-14 Kornet-E gut gebrauchen könnte.

Zur juristischen Klarheit:

Greenpeace wird nicht vorgeworfen, eine bestimmte, konkret benannte terroristische Vereinigung offen zu unterstützen. Auch nicht, irgendwelche terroristische  Vereinigungen offen zu Angriffen auf deutsche Kernkraftwerke aufgefordert oder animiert zu haben. Selbstverständlich waren die Greenpeace-Verantwortlichen bei aller gezeigten Verantwortungslosigkeit – die man zynisch als Sorge um die Sicherheit von Kernkraftwerken tarnte – nicht so dumm, die möglichen Anwender der von Greenpeace ausgearbeiteten Angriffs- und Zerstörungsmethoden konkret zu benennen.
Was jedoch Greenpeace vorzuwerfen ist – und was unbestreitbare Tatsache ist – das ist die mit Greenpeace-Geld finanzierte, explizit auf die Aufgabe

 "Wie können deutsche Kernreaktoren durch terroristische Angriffe wirksam, d.h. erfolgreich, angegriffen und zerstört werden, wobei die konkreten Angriffsziele die Reaktordruckbehälter sein sollten, um eine möglichst große Katastrophe durch radioaktive Verseuchung großer Gebiete sicherzustellen ?"

ausgerichtete Expertise, die diese Umweltschutz-Organisation stolz präsentierte.
Würde man einen Verrückten, der raffinierte Brandstiftungspläne veröffentlicht und  die Umsetzung dieser Pläne durch andere Verrückte nicht ausschließt,  unbehelligt lassen, wenn er vorträgt, daß er nur für bessere Sicherheitsvorkehrungen gegen Feuer werben wollte ? Wenn es gegen die Kernkraft geht, ist das erlaubt.

Wie sicher sind deutsche Kernkraftwerke ?

Was die Kernkraftgegner so deprimiert und sie zu fragwürdigen Argumenten und Handlungen veranlaßt,  ist die makellose Sicherheitsbilanz der deutschen Reaktoren.
Es gab niemals ernste Unfälle, keine Toten, keine Verletzten – was die ehemalige Kieler Sozialministerin Trauernicht bei dem aufgebauschten, aber vollkommen harmlosen Trafobrand außerhalb des KKW Krümmel dazu veranlaßte, einen Kraftwerksschlosser, der sich an der Hand verletzt hatte, zu einem Atomopfer zu ernennen. Transformatorenbrände und -explosionen gibt es übrigens recht zahlreich in Deutschland, insbesondere seit ein umweltschädliches, aber sicheres Trafoöl durch ein umweltfreundliches, leider feuergefährliches ersetzt werden mußte.
Auch das Argument mit dem Alter der Anlagen ist nicht stichhaltig, weil die Betreiber inzwischen eine lange Liste an Modernisierungsmaßnahmen – vornehmlich der Steuerung und Kontrolle gewidmet – realisiert haben, die einer Verjüngungskur  gleichkommen und sie im Vergleich zu Kernkraftwerken im Ausland recht modern aussehen lassen.
Wie man aber gerade gesehen hat, traut sich die Bundesregierung angesichts der Medienkampagne und der Angriffe der Opposition nicht mehr, dieses Argument zu verwenden; vielmehr bringt sie nun die vollkommen sinnlose Stillegung einzelner Kernkraftwerke als Beschwichtigungsopfer auf dem Altar der Angst dar.

Die Kanzlerin reagiert

Die Bundeskanzlerin hat  am 14.3 in einem Fernsehinterview auch ein dreimonatiges Moratorium zur kürzlich beschlossenen Laufzeitverlängerung und umfangreiche Beratungen zur Sicherheit der deutschen Kernreaktoren und die Auswertung der japanischen Erfahrungen angekündigt. Wenn es tatsächlich Sicherheitsdefizite gäbe, müßte man sich allerdings fragen, weshalb sie erst jetzt diskutiert werden. Es ist wieder nur ein Medienopfer. Die Auswertung der japanischen Erfahrungen wird voraussichtlich Folgendes erbringen:
– Die entlang einer der gefährlichsten tektonischen Zone der Welt am Meer stehenden Kernkraftwerke müssen nachgerüstet werden. Man wird die Notstrom-Diesel auf 20 Meter hohe Plattformen setzen, damit sie von Tsunamiwellen nicht erfaßt werden können. Für Deutschland wären diese Erfahrungen wohl kaum zu nutzen.
– Man wird die Batteriespeicher vergrößern. Und man wird eventuell die Kühltechnik des modernsten russischen Reaktors bei den geplanten Neubauten verwenden, die darin besteht, daß über dem Reaktor ein großer Wassertank gebaut wird, der ohne jegliche Pumpen "von Hand" in Betrieb genommen und mit seinem Vorrat per Schwerkraft den Reaktor fluten kann. Ob man das für deutsche Reaktoren anwenden soll, ist eine andere Frage.
– Auf Kernkraft zu verzichten, würde für Japan und Deutschland bedeuten, daß die Grundlast-Stromversorgung wieder von Kohlekraftwerken übernommen werden muß. Darauf wird sich Japan wohl kaum einlassen. Und in Deutschland hat man gerade einen nicht offiziellen, aber sehr realen Stop für Kohlekraftwerke in Kraft gesetzt – wiederum aus Angst; dieses Mal vor der angeblichen Klimakatastrophe, an die auch Frau Merkel glaubt. Damit bliebe Deutschland nur noch der Import von Strom – und zwar Kernkraftstrom. Dies wiederum will Frau Merkel nicht. Was sie dann eigentlich will, ist unklar. Zeit gewinnen, vermutlich.

Der Strom ist uns sicher. Es ist Atomstrom.

Der Atomstrom-Lieferant steht aber schon bereit:

"Frankreich, das weder Erdöl noch Erdgas besitze, soll mehr Strom exportieren und seinen EPR-Reaktor (Europäischer Druckwasser-Reaktor der Generation III-plus ; Fa. Areva) weltweit verkaufen. Ein EPR produziere rund 12 Mrd. kWh pro Jahr. Würden diese zu heutigen Preisen exportiert, könnte das Land Exporterlöse von rund 600 Mio. Euro erzielen. Darauf könne Frankreich nicht verzichten",

betonte der französische Staatspräsident Sarkozy anläßlich seines Besuchs der EPR-Baustelle in Flamanville in der Normandie am 6.2.2009. So begründete er in seiner Rede insbesondere die Entscheidung, einen zweiten EPR zu bauen (Penly 3) und er denke bereits über einen dritten EPR nach. Das Land brauche diese Investitionen. Zudem sei es nötig, das nukleare Know-how auf dem höchsten Niveau zu erhalten und zu erweitern. Höflicherweise vermied es Sarkozy, die potenziellen Hauptabnehmer für seinen Strom, seine östlichen Nachbarn,  beim Namen zu nennen.
Und damit es keine Zweifel für den künftigen Kurs seiner Regierung gibt, erklärte er nach der Erdbebenkatastrophe in Japan am 14.3.2011 zusammen mit Russlands Regierung, daß man selbstverständlich weiterhin voll auf die Kernkraft und ihre Weiterentwicklung setzt.

Die übrigen Länder, die Kernkraftwerke bauen können, weil sie ebenfalls niemals ihre Entwicklungsarbeiten daran eingestellt haben – Korea, Indien, Kanada und die USA – werden ohne solche Ankündigungen gleichfalls weitermachen. Und selbst Japan vermutlich auch. Eine sehr ausführliche Darstellung aller internationalen Aktivitäten in der Kerntechnik, insbesondere Bauvorhaben und Pläne für Neubauten sowie politische Schwerpunktsetzungen und Kooperationsabkommen, finden sie unter der Überschrift "Der Siegeszug der Kerntechnik" bei www.arge-energie-und-umwelt.de

Das Gute an Herrn Sarkozys Fürsorge ist: Wir müssen nicht im Dunkeln sitzen, wenn Kohle- und Kernkraftstrom Exorzismus-ähnlich in Deutschland ausgetrieben wurden. Wir bekommen Strom, Atomstrom. Allerdings wird es teuer, aber das ist von den Grünen ja so gewollt, denn speziell über immer höhere Strompreise kann die verhaßte Industrie aus Deutschland vertrieben werden.

Hohe Strompreise vertreiben die Industrie

Dieser Prozess ist bereits im Gange. Der EU-Energiekommissar Günther Oettinger hat im Februar 2011 auf einem Treffen der CDU-Wirtschaftsvereinigung erklärt, daß sich die Strompreise in Deutschland bereits an der oberen Grenze dessen bewegen, was noch sozial akzeptabel und wirtschaftlich tolerierbar ist. Wegen dieser hohen Strompreise sei jetzt in Deutschland ein "gradueller Prozeß der De-Industrialisierung" in vollem Gange. Das Thema Elektrizitätspreise sollte sich seiner Meinung nach an der Spitze der politischen Tagesordnung in Deutschland befinden. Unternehmen, die ins Ausland abwandern, täten das heute nicht mehr wegen hoher Gehälter, sondern wegen hoher Strompreise. Die Bundesregierung trage die Verantwortung für einen signifikanten Teil  dieses Prozesses. "Über 40 Prozent des Strompreises in Deutschland wird von der Regierung bestimmt. Ich kenne keinen anderen Markt, wo das so ist," kritisierte Oettinger.
Steuern und Abgaben für den Haushaltsstrom verdoppelten sich seit 1998. Sie stehen derzeit bei 41 Prozent. Die Abgaben für erneuerbare Energien erhöhten sich in einem Jahr um 70 Prozent und würden sich weiter erhöhen. Im vergangenen Jahr beliefen sich nach Angaben der Energiewirtschaft alle Steuern und Gebühren für Stromverbraucher auf nahezu 17 Milliarden Euros, so der deutsche EU-Kommissar.
Professor Dieter Ameling, der ehemalige Präsident der Wirtschaftsvereinigung Stahl und Vorsitzender des Stahlinstituts, schrieb 9. März 2011 in der FAZ, "daß Deutschland und Europa durch die einseitige Klimadebatte und die unwirtschaftliche Förderung der erneuerbaren Energien ein Einbruch der globalen Wettbewerbsfähigkeit droht".
In ihrem Fernsehinterview vom 14.3. deutete auch die Kanzlerin ihre Sorge um die deutsche Industrie bei einem Ausstieg aus der Kernenergie und der dann unweigerlich folgenden Steigerung des Strompreises an. Sie erwähnte dabei jedoch nicht das vor Kurzem von ihrer Regierung verabschiedete Energiekonzept, in dem völlig illusionäre, zu extremen Preissteigerungen führende sowie die Versorgungssicherheit gefährdende Anteile der erneuerbaren Energien bei der Stromerzeugung als politisches Ziel stehen. Und sie erklärte zwei Tage darauf, daß ihre Regierung nun zusätzlich zur Infragestellung der Kernkraft den Anteil der Erneuerbaren nochmals steigern wolle. Sie weiß also genau Bescheid, handelt jedoch entgegen ihrer Überzeugung. Eine Erklärung dafür gibt es bislang nicht.
Damit ist die De-Industrialisierung Deutschlands nunmehr nicht nur das Programm der Grünen und der SPD, sondern endgültig auch das Programm der schwarz-gelben Regierung geworden. Nicht aus Überzeugung, sondern aus Schwäche. Politischer Selbstmord aus Angst vor den Medien.
Für die von Energiepreisen abhängige Industrie ist das jetzt das endgültige Signal zur Flucht – es sei denn, die IGBCE-Gewerkschaft gewinnt ihr Spiel – s.u.
Das jüngste Beispiel für diese Flucht ist die geplante Herstellung des Zukunfts-Werkstoffs Kohlefaser, der in produktionstechnischem Maßstab als Leichtbau-Karosseriematerial eingesetzt werden soll. In Elektroautos sowie auch bei konventionellen PKW. Die beiden wichtigsten Unternehmen, die das vorhaben, sind Daimler-Benz und BMW. Sie haben bereits beschlossen, diese leider sehr energieintensive Produktion von vornherein nicht in Deutschland, sondern in den USA und in Asien aufzubauen – wegen der dort niedrigeren Energiepreise. 

Deutschland hat eine Technologie verloren

Die Kerntechnik ist in Deutschland doppelt tot: Sie starb einen politischen Tod, aber auch einen technologischen. Daß hier noch gut funktionierende Kernkraftwerke mit internationalen Dauer-Spitzenplätzen in Bezug auf Zuverlässigkeit und Verfügbarkeit  laufen, verdeckt die wirkliche Situation. Seit die rot-grüne Regierung einen sehr wirksamen Forschungs- und Entwicklungsstop für die Reaktorentwicklung verhängte und die Projekte Hochtemperaturreaktor, Schneller Brutreaktor und Brennstoff-Wiederaufbereitung unabhängig von ihren beeindruckenden technologischen Erfolgen politisch beendet wurden, ist eine zu lange Periode der Stagnation eingetreten, die letztlich dazu führte, daß die deutsche Nukleartechnik hoffnungslos abgehängt worden ist. Genau das war auch damals die politische Absicht.
Ein für ein Industrieland eminent wichtiger Teil des Hochtechnologie-Weltmarktes wurde gezielt aufgegeben – und dieser Verlust ist von Dauer, wie wir heute wissen. Eine Analyse aller weltweiten Aktivitäten auf dem Felde der Kerntechnik – siehe die oben genannte Webseite – zeigt in beeindruckender Weise, wie sich sowohl die klassischen Industrienationen Frankreich, USA, Russland und Japan aber insbesondere auch die Newcomer China, Indien, Südkorea und Kanada durch niemals unterbrochene Entwicklungsarbeiten einen nunmehr für Deutschland uneinholbaren technologischen Vorsprung erarbeitet haben.
Wenn heute ein Wunder geschehen würde und die Bundesregierung mit großer Unterstützung durch die Bevölkerung ein Kernkraft-Neubauprogramm startete – die Energieversorger müßten Angebote aus dem Ausland einholen. Sie würden keinen deutschen Hersteller finden, der ein den heutigen Ansprüchen genügendes Kernkraftwerk der dritten Generation aus überwiegend deutschen Komponenten anbieten könnte. Das ist der technologische Tod.
Die faktische Aussichtslosigkeit, in der absehbaren Zukunft ein derartiges Programm in diesem Lande starten zu können, ist der politische Tod.
Deshalb ist auch die auf Deutschland bezogene Kernenergie-Nutzung ein Auslaufmodell, denn es wird keinen Ersatz von einmal stillgelegten Reaktoren durch Neubauten geben, wie es zum Beispiel England in großem Maßstab plant. Wie lange die vorhandenen KKW auch noch laufen mögen – nichts Gleiches folgt ihnen danach.
Was bleibt, sind einzelne Hersteller spezieller Komponenten mit Kunden im Ausland, Kerntechnik-Institute an Hochschulen, die sich für Projekte mit ausländischen Instituten zusammentun müßten, die alternden deutschen KKW sicherheitstechnisch begleiten und sich um Entsorgungsfragen kümmern.
Aus diesen Gründen wäre selbst eine besonders lange Laufzeitgenehmigung nur eine Verlängerung des Niedergangs, niemals aber eine Chance für einen späteren Wiedereinstieg in den internationalen Nukleartechnikmarkt. Damit reduziert sich die Frage der Laufzeiten nicht auf Sicherheitsaspekte, wie die derzeitige hysterische Diskussion scheinbar nahelegt, sondern allein auf wirtschaftliche Aspekte: Sie sollten so bestimmt werden, daß ein Ersatz dieser Energieerzeugung zeitnah und kostengünstig realisiert werden kann.
Nachdem nun die einstmals führende deutsche Kernkrafttechnologie erfolgreich politisch ruiniert worden ist und  man diese schmerzliche Betrachtung nüchtern hinter sich gebracht hat, stellt sich eigentlich nur eine wichtige Frage:
Welche anderen, exportierbaren und wichtigen Energietechniken beherrscht Deutschland heute ?
Die Antwort "Windkraft und Photovoltaik", die automatisch von den Grünen gegeben wird, ist falsch. Beides sind randständige Nischentechniken, die wegen ihrer  inhärenten Unzuverlässigkeit niemals eine wichtige Rolle in einem Stromnetz spielen können und es bei Strafe ständiger Netzzusammenbrüche auch niemals dürfen. In diesem Punkte ist die unverantwortliche Subventionspolitik dieser Techniken durch die Bundesregierung desaströs und eine Vernichtung von Volksvermögen. Im Übrigen ist die Windkraft technologisch betrachtet eine schlichte, von nahezu jeder Nation leicht imitierbare Technik – was auch zunehmend erfolgt.
Die Photovoltaik wiederum hat Deutschland als Herstellerland längst an China verloren.
Die Antwort auf die oben gestellte Frage lautet vielmehr: Modernste Braunkohle- und Steinkohlekraftwerke sowie Gasturbinenkraftwerke. Gerade die neuen Kohlekraftwerke haben durch systematische Erhöhung der Dampftemperaturen Wirkungsgrade um 45% erreicht und verbrauchen somit wesentlich weniger Brennstoff für jede Kilowattstunde als ihre Vorgänger. Noch effizienter sind die Gasturbinen-Dampfkraftwerke (GuD).  Auf diesen Gebieten hat Deutschland eine Spitzenposition und genau dies sind auch die Energietechniken, die neben der verlorenen Kernkraft für alle Nationen – insbesondere auch für jene, die sich die Kernkraft aus vielen Gründen nicht leisten können – hochinteressant sind.
Und damit kommen wir geradewegs zu Herrn Vassiliadis.

Herr Vassiliadis und eine neue alte Brückentechnologie

Es gibt mittlerweile in Deutschland keine politische Partei mehr, die sich  ernsthaft für  die Erhaltung der Wettbewerbsfähigkeit und der Arbeitsplätze in der Industrie einsetzt. Die Frage war, wie lange sich die Gewerkschaften das noch mit ansehen.
Als erste meldete sich die von der wirtschaftsgefährdenden deutschen Energiepolitik am härtesten getroffene Industriegewerkschaft Bergbau, Chemie und Energie IGBCE. Am 28.7.2010 warnte der IGBCE-Vorsitzende Michael Vassiliadis davor, durch eine Erhöhung der Ökosteuer die energieintensiven Industrien in Deutschland weiter zu schwächen. "Was da im Bundesfinanzministerium geplant wird, ist ein Anschlag auf die Wettbewerbsfähigkeit und die Arbeitsplätze dieser Branchen,
darunter die chemische Industrie, die Papierproduktion, die Glasherstellung und die Aluminiumerzeugung." Und er ergänzte: "Wir arbeiten ständig daran, Energie sparsam einzusetzen und drängen auf Ressourceneffizienz."
Es gehe der Regierung nicht um Umweltschutz, sondern nur um das Stopfen von Finanzlöchern. "Strom und Energie, die nicht eingespart werden können, müssen bezahlbar bleiben. Sonst wandern energieintensive Betriebe mit ihren Arbeitsplätzen ins Ausland ab."
In einer gemeinsamen Erklärung vom 30.7.2010 mit den Verbänden der energieintensiven Industrien, d.h. der Bundesvereinigung Glas BV Glas, dem Verband Deutscher Papierfabriken VDP, dem Verband der Chemischen Industrie VCI, der Wirtschaftsvereinigung Metalle WV Metalle, der Wirtschaftsvereinigung Stahl WV Stahl sowie dem Bundesverband der Deutschen Industrie BDI forderte dann die Gewerkschaft die Regierung auf, ihre neuen Pläne zur Vervielfachung der Ökosteuer über die Erhöhung der Energie- und Stromsteuersätze für das produzierende Gewerbe sowie zur Einführung weiterer die Energie betreffender Belastungen aufzugeben.
Der Regierung wurden darin einige Fakten ins Stammbuch geschrieben: Als erstes "stellten diese Pläne einen Bruch der geltenden Klimaschutzvereinbarung zwischen Regierung und der Wirtschaft dar, die vom BDI unterzeichnet wurde, denn die darin zugesagten Treibhausgas-Emissionsminderungen sind erreicht worden." Die nun geplante neue Kostenbelastung "würde der deutschen Industrie und besonders der energieintensiven Industrie einen empfindlichen Wettbewerbsnachteil gegenüber ihren weltweiten Wettbewerbern zufügen. Schon jetzt gehörten die Energiekosten in Deutschland zu den höchsten in Europa und der Welt."
Die Unterzeichner wiesen darauf hin, "daß die geschlossenen Wertschöpfungsketten, die auf den energieintensiven Grundstoffindustrien aufbauen und eine große Stärke des Industrielandes Deutschland sind", mitsamt ihren Arbeitsplätzen erhalten werden müssen. Dann die deutlichsten Sätze: "De-Industrialisierung, wie sie in vielen westlichen Ländern seit einiger Zeit schleichend erfolgt, kann für Deutschland keine Option sein. Es muß gelten, den Industriestandort Deutschland zu stärken. Die Vorschläge zu einer weiteren nationalen Verteuerung der Energie für die Industrie bewirken das Gegenteil."

Diese schallende Ohrfeige für die Regierung wurde von den Medien ignoriert.

Auch nach der Erdbebenkatastrophe in Japan und den anschließenden hektisch-hilflosen Manövern der Bundesregierung redete der Gewerkschaftsführer am 15.3.2011 Klartext – und das hörte sich so an:

Vassiliadis bewertete das Moratorium zur Laufzeitverlängerung als "bestenfalls ersten Schritt in die richtige Richtung".  Die Regierung müsse nun unverzüglich zu Gesprächen einladen, um in Deutschland einen neuen Energiekonsens mit einem schrittweisen Ausstieg aus der Kernenergie zu ermöglichen. Die IGBCE würdigte die erklärte Bereitschaft der Bundesregierung, die Kernenergie vorbehaltlos zu überprüfen. Das Moratorium reiche allerdings nicht aus.

"Die Laufzeitverlängerung für Atomkraftwerke in unserem Land war und ist falsch." Je schneller die Regierung die notwendigen Konsequenzen aus dieser Einsicht ziehe, um so schneller könnten die Entscheidungen für ein Umsteuern in der Energiepolitik getroffen werden. "Wir dürfen nicht noch einmal wertvolle Zeit verlieren, um zu einer sicheren Versorgung jenseits der Kernenergie zu kommen."

Ein Atomausstieg erfordert nach den Worten von Vassiliadis eine "gleichzeitige Investitions-Offensive in eine moderne, also leistungsfähige und umweltschonende Energie-Infrastruktur."  Um "eine tragfähige Brücke in das Zeitalter regenerativer Energien" zu schaffen, müßten Netz-Kapazitäten und das Kraftwerksportfolio ausgebaut werden. "Ein Atomausstieg erfordert zügige Antworten, wie wir weiterhin Versorgungssicherheit und Netzstabilität garantieren können."
Und nun kommt´s: "Für die IGBCE ist es unabdingbar, die Neubewertung der Kernenergie mit einer Neubewertung von Stein- und Braunkohlekraftwerken zu verbinden." Das beinhalte auch eine "Neubewertung von Technologien zur Speicherung und Verwertung von CO2." Denn die "Brücke in die Energiezukunft" brauche eine "Klimaschonende Verstromung von Kohle als stabilisierenden Pfeiler."
Diese Stellungnahme ist in mehrfacher Hinsicht bemerkenswert:
1. Die IGBCE gibt die Kernenergie auf. Und damit auch ihre Arbeitsplätze. Nicht ganz unproblematisch. Aber das soll ja schrittweise gehen. 
2. Sie betont mehrfach und unmißverständlich die Notwendigkeit der  Versorgungssicherheit und Netzstabilität. Eine versteckte, aber deutlich klare Absage an den weiteren Ausbau der Windkraft und des Solarstroms, die beiden Forderungen nicht gerecht werden können; ihnen im Gegenteil entgegenstehen.
3. Die Forderung nach einem Ausbau der Energie-Infrastruktur ist nicht neu und hier eine Pflichtübung. Daß der Netzausbau für den besseren Windstromtransport sehr lange dauert – nicht zuletzt wegen der verrückterweise von den Grünen unterstützten Bürgerinitiativen – weiß auch Herr Vassiliadis.
4. Der IGBCE-Chef schafft einen energiepolitischen Geniestreich: Er erfindet eine neue Brückentechnologie – nämlich die Kohle. Das ist dann die Brückentechnologie zum Ersatz der nun wohl leider auslaufenden Brückentechnologie Kernkraft (O-Ton Merkel). Diese angebliche Brückentechnologie Kohle ist aber tatsächlich mit weitem Abstand das       Rückgrat der Stromerzeugung weltweit und wird es noch sehr lange bleiben.
5. Die kurze Pflichtverbeugung vor dem Mantra "Zeitalter regenerativer Energien" wird sofort von der Forderung nach einer "Neubewertung von Stein- und Braunkohle" konterkariert.
6. Die Forderung nach einer "Klimaschonenden Verstromung von Kohle als stabilisierender Pfeiler" (im Klartext: Als Grundlast, wie es die Kernenergie noch  ist) sagt überdeutlich, was gewollt ist. Das Wort "Klimaschonend" ist dabei ein politisch korrektes Adjektiv.
7. Etwas rätselhaft und eher ebenfalls nur politisch korrekt ist die Forderung nach einer Neubewertung von Technologien zur Speicherung und Verwertung von CO2.
Herr Vassiliadis weiß natürlich genau, daß allein die Abtrennung von CO2 in einem Kohlekraftwerk etwa 20 Jahre von ihrem breiten Einsatz entfernt ist und daß unvermeidlicher Wirkungsgradverlust sowie Kostensteigerung massive Probleme bringen. Er kennt ebenfalls die enormen Widerstände gegen die unterirdische CO2-Speicherung in Deutschland. In den Niederlanden hat die Regierung aus dem gleichen Grund kürzlich auf derartige Pläne verzichtet.

Ein Schlupfloch für die Koalition

Für Merkel, Seehofer und Westerwelle bieten diese Forderungen gleichermaßen Chancen und neue Probleme.  Mit der Kernkraft dürfte es nun mittelfristig zu Ende gehen. Eine Kapitulation ist fällig. Immerhin wird eine Übergangsfrist eingeräumt. Dafür müssen die Koalitionäre die Kohle-Pille schlucken, was ihnen aber nicht schwer fallen dürfte: Neue und zahlreiche Kohlekraftwerke und dazu sicher auch der Weiterbetrieb der verbliebenen Steinkohle-Zechen; letzteres eine Niederlage der FDP. 
Der Vorschlag wäre auch von der SPD kaum abzulehnen, denn ihr langjähriger Kampf für die Kumpel im Steinkohlebergbau würde belohnt werden. Und die Unterstützung durch eine der mächtigsten Industriegewerkschaften wäre ihr sicher. Die Grünen würden durch einen solchen unverhofften CDU-SPD-Kompromiß  ins Abseits geraten, aber wen würde das noch interessieren ?
 Daß ein massiver Zubau von Kohlekraftwerken in der Realität  vollkommen ohne CO2-Abtrennung ablaufen wird,  ist bereits durch den rudimentären Stand dieser Technik entschieden. Die Grünen werden heulen und Frau Merkel muß ihre Rolle als letzte verbliebene Retterin des Planeten vor der Klimakatastrophe aufgeben, denn unser "CO2-Ausstoß" wird gewaltig steigen. Was soll´s, schließlich geht allein in China jede Woche ein neues Kohlekraftwerk ans Netz. Dann können auch wir uns 15 neue Kraftwerke leisten und dafür vielleicht sogar ein paar Altanlagen abschalten. Dafür bekommt Frau Merkel  Ruhe an der Atomfront und ausreichend Grundlaststrom. Der Netzausbau eilt nicht mehr; die warnenden IGBCE-Worte zur Netzstabilität genügen.
Also vorwärts in die Vergangenheit der Vor-Kernkraftzeit. Immer noch besser als Sarkozys  teuren Atomstrom kaufen zu müssen.
Vassiliadis´ Vorschläge sind im Grunde die Rettung von Schwarz-Gelb aus ihrem Dilemma. Und eine Entlastung der Bürger sowie der Industrie wird vermutlich zusätzlich durch die gewaltigen, jetzt erschließbaren Erdgasvorkommen in Deutschland und Europa erfolgen, da die Preise deutlich sinken werden.
Dann wäre es auch an der Zeit, die Versäumnisse unserer Regierungen bei der Einführung von Erdgas als Fahrzeugantrieb aufzuholen – und dem unsinnigen E-10-Biosprit den verdienten Garaus zu machen.

Ein Sieg der Medien über die Regierung

Die Naturkatastrophe in Japan und ihre irrationalen Konsequenzen in Deutschland werfen ein grelles Licht auf den Verfall der Rationalität und die rein angstgesteuerte Verhaltensweise in der politischen Kaste. Man kann von einem großen Sieg des von den Grünen perfektionierten Prinzips der systematischen Angstverbreitung in der Bevölkerung sprechen. Das entscheidende Mittel für den Erfolg dieses Prinzips sind die Medien, die jetzt mit ihrer Berichterstattung drastisch allen vor Augen führten, daß ihre wichtigsten Schaltstellen von Grünen und Roten besetzt sind. Auf allen Fernsehkanälen, insbesondere bei ARD und ZDF, gab es in den ersten vier Tagen ausschließlich "Experten" von Greenpeace und den Ökoinstituten Wuppertal und Darmstadt zu sehen, die ihre Chance weidlich nutzten. Dazu kamen Mediziner, die über die Wirkung einer "Verstrahlung" berichteten.
Die Angstfabrik lieferte in kürzester Zeit das gewünschte Ergebnis: Eine hilflose Regierung, die plötzlich angeblich offene Sicherheitsfragen bei den bisher doch absolut sicheren Kernkraftwerken zu klären versprach, die ihre gerade erkämpfte Laufzeitverlängerung in Frage stellte,  die eine weitere, noch stärkere Förderung der Erneuerbaren zusagte (die Photovoltaik-Produzenten in China, die den Löwenanteil der den Verbrauchern abgepressten Subventionen einstreichen, werden entzückt sein), die unter Hohn und Spott alles auf den Opferstein zu legen bereit ist, was Grüne und SPD fordern. Und die dabei endgültig ihr Gesicht verliert, wie man in Japan sagen würde.
Aber vielleicht greift die Koalition nach dem ihr von Michael Vassiliadis hingehaltenen Strohhalm.

Eigentlich kaum zu glauben, was ein Erdbeben und ein Tsunami in Japan im auf der anderen Seite der Weltkugel liegenden Deutschland so alles anrichten können.

 tlw. überarbeitet am 24.3.11 
Dr. Ing. Günther Keil für EIKE; Sankt Augustin
Günter Keil war als wissenschaftlicher Mitarbeiter an der TU München / Fraunhofer Gesellschaft sowie im Bereich Projektförderung beim Bundesforschungsministerium tätig. Heute lebt er als freier Autor in Sankt Augustin.




Ideologie und Realität!

Die Realität sieht anders aus. Keine technische Anlage, auch kein Kernkraftwerk kann mit 100% Sicherheit betrieben werden. Sicherheit lässt sich nur nach der Wahrscheinlichkeit eines Unfalls definieren. Sehr unsicher ist z.B. der Straßenverkehr. Jeder 250. Deutsche stirbt bei einem Verkehrsunfall. Fliegen ist dagegen sehr viel sicherer. Nur jeder 1.000.000. Fluggast stirbt bei einem Flugzeugunfall. Die Gefährdung durch Kernkraftwerke ist noch weit geringer. In Japan ist nach bisherigen Kenntnissen noch kein Mensch an den defekten Reaktoren einer tödlichen Strahlendosis ausgesetzt gewesen.
Besonders in Deutschland werden von verantwortungslosen Politikern oder Weltverbesserern Emotionen gegen Kernkraftwerke geschürt, die keine reale Grundlage haben. Sie werden von den Medien begierig aufgegriffen und als Wahrheiten verbreitet, wie es die derzeitigen Berichte über Japan zeigen.
Dazu gehören auch die Aussagen von Dr. Pohlmeier von der Organisation „Ärzte gegen Atomkrieg“. Er behauptet, nach dem Reaktorunfall in Tschernobyl hätte es 50.000 Krebserkrankungen an Schilddrüsen gegeben und 100.000 Menschen wären an den Folgen der Strahlenbelastung um Tschernobyl gestorben (s. WZ vom 15. 3. 2011). Eine internationale Expertenkommission von ca. hundert unabhängigen Wissenschaftlern hat die Auswirkungen des Unfalls untersucht und dokumentiert. Die Übersetzung des Ergebnisses von www.energiefakten.de lautet wie folgt:

  • Es gab 31 Soforttote.
  • Weitere rd. 20 Menschen dürften später an Strahleneinwirkungen gestorben sein*.
  • Insgesamt müssen etwa 4.000 der 600.000 mit höheren Strahlendosen beaufschlagten Personen (sog. Liquidatoren und spät umgesiedelte Bewohner einer 30-km-Schutzzone um den Reaktorstandort) mit einer Verkürzung ihrer Lebensdauer rechnen.
  • Bei mehreren tausend Kindern, bes. in der Region Gomel, trat infolge des Einatmens von radioaktivem Jod Schilddrüsenkrebs auf; mehr als 99 % davon konnten jedoch geheilt werden.
  • Eine messbare („signifikante“) Zunahme der Erkrankungen an Krebs und Leukämie sowie von Fehlgeburten und Missbildungen Neugeborener über das normale Maß hinaus wurde nicht festgestellt.
  • Insbesondere viele aus der Schutzzone umgesiedelte Menschen sind psychisch stark belastet.

Wir sollten alle schnell zur Realität zurück kehren und Japan helfen, statt hier einen ideologischen Streit zu entfachen.
* ergänzend dazu ein Artikel in der FAZ vom 11.3.11 siehe pdf Anlage
Prof. Dr. Ing. Appel; Autor des Sachbuches "Energie Schlüssel zum Wohlstand"
Lesen Sie dazu auch das sachlich kühle Interview in der SHZ vom 15.3.11 :  
"Tschernobyl wiederholt sich nicht" …Der in Schleswig aufgewachsene Peter Thiemann hat am Kühlsystem für Fukushima I mitgearbeitet – und dessen Sicherheit getestet. Im Interview spricht er über die Situation in Japan.


F: Herr Thiemann, Sie waren am Bau der Anlagen für die Fukushima-Kraftwerke direkt beteiligt. Was wissen Sie über die derzeitige Situation und woher haben Sie ihre Informationen?

A: Während des Erdbebens waren nur die Reaktoren 1 bis 3 in Betrieb, die Reaktoren 4 bis 6 waren wegen Wartungsarbeiten stillgelegt. Obwohl die drei angeschalteten Reaktoren beim Erdbeben direkt herunter gefahren wurden, wird durch den weitgehenden Zerfall der Kernelemente auch weiter Wärme produziert – und keines der intakt gebliebenen Notfall-Kühlsysteme funktioniert, weil es derzeit keine Möglichkeit gibt, sie mit Strom zu versorgen. Die unteren Stockwerke der Reaktorblöcke wurden durch den Tsunami geflutet. Dadurch wurden die Not-Generatoren für die Kühlung zerstört, gleichzeitig ist es wegen des Wassers im Moment unmöglich, mobile Generatoren anzuschließen. Ich bin in Kontakt mit meinen ehemaligen Kollegen bei General Electric und der Nuclear Regulatory Commission, der US-Atomsicherheitsbehörde.

Related Files