Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 1

Update 12.7.15

Mit Mail vom 12.7.15 wurden die Podiumsteilnehmern über diesen Faktencheck informiert. Gleichzeitig wurde ihnen von mir angeboten, falls sie sich dazu äußern wollten, wenn ggf. eine oder mehrere Äußerungen von mir – wenn auch ungewollt- falsch interpretiert worden sind, dies anzumerken und ihre Sicht der Dinge klarzulegen.

Soeben (21:09) erreicht mich von Herrn Fell diese Mail, mit der Bitte sie im Beitrag zu veröffentlichen, was ich hiermit umkommentiert tue:

fell@hans-josef-fell.de 

An: Dipl. Ing. Michael Limburg

AW: Podiumsdiskussion am 22.6.15 bei der BPB Faktencheck Teil I

Sehr geehrter Herr  Limburg

Bitte veröffentlichen zu diesen Stellungnahmen von Ihnen folgende kurze Stellungnahme:

Ich, Hans-Josef Fell erkläre, dass ich nicht antworten werde auf die Interpretationen von Herrn Limburg zu meinen Aussagen. Diese Nichtantwort ist nicht gleichzusetzen, mit einer Akzeptanz zu Herrn Limburgs Interpretationen meiner Äußerungen. Ich erkläre ausdrücklich, dass Herr Limburg  bezüglich meiner Äußerungen mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.

Dies ist unseriös und deshalb werden diese Falschinterpretationen von mir pauschal zurückgewiesen. Ich sehe auch keinen Sinn in einer unendlichen unproduktiven Diskussion darüber, weil sie mir Zeit raubt, an einer Lösung des Menschheitsproblems Erderwärmung zu arbeiten.

Mit freundlichen Grüßen

Hans-Josef Fell

Faktencheck Teil 1

Die  BPB hat diesen Mitschnitt hier vor einigen Tagen veröffentlicht.  Auf Grund der Tatsache, das hier – wohl zum ersten Male- nicht nur Klimaalarmisten und Energiewendebefürworter eingeladen waren, sondern auch der als Klimarealist und entschiedener Gegner der Energiewende bekannte Autor dieser Zeilen, waren die ausgetauschten Argumente sehr kontrovers.

Zudem können in einer  derartigen Diskussionsrunde Argumente zwar ausgetauscht werden, sie reduzieren sich aber für den uninformierten Zuhörer auf reine Behauptungen, da im Allgemeinen den meisten die Kompetenz  fehlt, um die Richtigkeit der jeweiligen Behauptung überprüfen zu können. Das sei hier mit dem Faktencheck für die wichtigsten Argumenten nach  geholt.

Zur Verständnis: Der BPB Mitschnitt selber enthält keine Zeitmarken. YouTube hingegen setzt diese Zeitmarken  und erlaubt auch die automatisierte Erstellung von Untertiteln aus dem gesprochenen Wort. Die Umwandlung in Schriftdeutsch ist nicht gut, aber brauchbar, doch sie verlangt eine erhebliche Nachbearbeitung.  Die hat EIKE vorgenommen. Obendrein wurden in der EIKE Youtube Version die freundlichen Begrüßungsworte des  Gastgebers  Herrn Kopp für diesen Faktencheck weggelassen, somit fängt jeder Teilmitschnitt mit 0:00 min an.  Wichtig sind daher allein die Zeitmarken, dann kann der interessierte Leser schneller den Originalton abhören.

Audiomitschnitt Teil 1 (Länge 13,46 Min) der Podiumsdiskussion  im Hause der BPB am 22.6.15 Quelle BPB Hier. Die (editiert) Untertitelfunktion kann eingeschaltet werden

Zum Klimawandel:

Die Moderatorin begann mit der Frage an den Autor:

(0:01:43) Herr Limburg: ist die Frage, ob es ein anthropogenen Einfluss auf das Klima gibt, also ob der Klimawandel denn vom Menschen gemacht wird im Prinzip nicht längst überholt?

Limburg

Meine Antwort darauf: (ab 0:01:55) zusammen gefasst: Nein, sie ist nicht überholt.  In Bezug auf die veränderte Landnutzung, der Zuwachs von Städten und seiner Bevölkerung und der stark gestiegene Bevölkerung selber ist das lokale Klima natürlich anthropogen beeinflusst, aber ein Weltklima, dass zudem gar nicht real sondern nur in Modellen existiert, ist – zumal vom CO2- nicht beeinflusst. Das zeigen die Daten und deren Zeitreihen ganz deutlich. Und das geben die Experten auch zu. Sie sagen: Wir können die Wirkung des  nur in unseren Modellen zeigen.“ Der Einfluss, insbesondere des anthropogenen CO2 ist nicht vorhanden und was doch viel interessanter ist, in der gesamten Vergangenheit  die wir nun geologisch sehr gut kennen ist niemals ein Einfluss, ein treibender Einfluss, des CO2 auf die Temperatur der Luft in dieser Welt nach zuweisen. Umgekehrt schon.“

Fakt ist

John Mit­chell dazu ehemals Chef des UK Met Office und Leitautor des IPCC

“It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.” [1] 

Richtig ist auch, dass CO2 niemals in der Vergangenheit – und das auf jeder historischen Zeitskala – die Temperatur der Atmospäre diese Planeten bestimmt hat. Zwei Beispiele dafür zeigen die folgenden Abbildungen.

Abb 1 CO2 und Temperaturverlauf über viele Mio Jahre.

Abb 2 Temperaturverlauf (schwarz; 15 year running mean) von 6 historischen Temperaturstationen mit mindestens 250 Jahren Aufzeichnungsdauer, von deren Frequenz-Spektrum nur die zwei stärksten addiert wurden (rot). Die Übereinstimmung ist frappierend. Und diese entsprechen in ihrer Periode sehr genau dem bekannten solaren De Vries Zyklus mit rd. 210 Jahre und dem ozeanischen AMO/PDO Zyklus mit ca. 65 Jahren. Quelle[2] s.Fußnote Details hier

Besonders interessant an Abb2 sind die deutlich erkennbaren Fakten,

1.     dass offenbar –zumindest bei den Messstationen- die Temperatur insgesamt fast 1:1 den beiden genannten Zyklen folgt .

2.     Von chaotischen Verhalten in diesem Zeitraum nichts zu erkennen ist

3.     Für CO2 kein Platz ist

4.     Sollten die der Kurve unterlegten Prozesse weiterhin ihre Wirksamkeit behalten, wie es die gestrichelte Kurve anzeigt, wird die Mitteltemperatur wieder sinken.

Ein weiteres paper der Autoren (bis auf einen, alles EIKE),dass die Zusammenhänge mit den genannten Zyklen genauer untersucht ist derzeit im Peer Review Prozess verschiedener internationaler Fachzeitschriften

Moderatorin Frau Dr. Zink (0:04:01)

Kommen wir nachher noch ein bisschen  spezifischer dazu, aber ich möchte gern erst mal den Herrn Fell fragen: Sie haben ja auch Physik studiert. Haben Sie denn Verständnis für so´ne Klimaskepsis?

H.J. Fell (0:04:09): Überhaupt nicht!

..Es ist so was von anti-wissenschaftlich ignorierend, dass das was die Physik  seid die vielen Jahrzehnten als Erkenntnisse hat….. Nein, also  ich bitt´Sie!

Herr Fell führt dann umfassend aus, dass das CO2 gewisse spektro-physikalische Eigenschaften hätte, die er als junger Student auch gemessen hätte, und die eindeutig zeigten, dass eingestrahlte Energie von der Sonne vom CO2 zurückgehalten würden und  diese Energie könne sich nur in steigender Erwärmung äußern. Und stellte den Zuhörern diese seine Versuche als Beleg für die seiner Meinung nach unbestreitbare Erwärmungswirkung des CO2 dar.   Dann beurteilte er meinen Zeitreihenvergleich als politisches Manöver.

Fakt ist:

Herr Fell übersieht bei seiner Gegenrede völlig, dass ich in meiner Argumentation die spektro-physikalischen Eigenschaften des CO2 weder benannt, noch angezweifelt habe. Hingegen habe ich mich auf den seit den Zeiten Galileo Galilei geltenden ehernen wissenschaftlichen Grundsätze gestützt, dass jede wissenschaftliche Hypothese

1.     erst durch die Bestätigung ihrer Annahmen durch Beobachtungen und Messungen  zur akzeptablen Theorie wird.

Und

2.     durch richtiges Vorhersagen zukünftiger Werte

ihre Tauglichkeit erweist.

Warum diese elementaren Grundsätze bei der Klimawissenschaft nicht gelten sollen, erklärten weder Herr Fell, noch Frau Zink, noch die anderen Teilnehmer. Denn auch eine plausible Hypothese – wie es die Hypothese von der Treibhauswirkung des anthropogenen CO2 für viele ist-  ersetzt nicht die Überprüfung im Experiment oder/und durch Beobachtung.  Sie geben damit auch indirekt zu, dass die Klimawissenschaften eine galileische Überprüfung in der Realität nicht benötigten.

Zu 1. Und sie wissen auch nicht, dass es seit den ersten IPCC Berichten genau dieses Problem ist, welches die Forscher beschäftigt. Es hat sogar einen Namen: „Detection and attribution problem“ und ist seither trotz vielfältigster Anstrengungen außerhalb von Modellen[3] ungelöst.

Der wichtigste Beitrag dazu ist der Versuch die sog. Klimasensitivität (CS Climate Sensitivity) des CO2 zu bestimmen. Damit ist der nur theoretisch ableitbare Wert gemeint, um den sich die globale Mitteltemperatur erhöhen sollte, bei Verdopplung der CO2 Konzentration.  Das IPCC geht im Mittel von 3,2 °C (3a) (bei einer Spanne von 4,5 K bis 1,5 K) aus, obwohl es im SPM des jüngsten Berichtes AR 5 – allerdings nur in einer Fußnote[4]- zugab, dass dieser Wert bisher nicht bestimmbar sei.  Der Wert 3,2 °C entsteht, wenn man den rechnerischen direkten Wert von ca. 1,2 °C  über die sog. Wasserdampfverstärkung (mehr Wärme, mehr Verdunstung, mehr Wasserdampf, mehr Wärme) mit 3 x nimmt. Viele andere Autoren haben

erstens die Wasserdampfverstärkung nicht finden können, sie fanden stattdessen eine Dämpfung, (Mehr Wärme, mehr Wasserdampf, mehr Wolken, mehr Abkühlung) und kommen

zweitens zu wesentlich niedrigeren Werten des CS Wertes bis hinunter auf nur 0,5 °C[5].

Damit treffen beide Grundsätze für die Hypothese vom anthropogenen Treibhauseffekt nicht zu.  Weder lässt sich deren Annahmen im Experiment bestätigen

Zellner Zitat

•       Reinhard Zellner [6] (Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei): Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist. Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden. Wir sind also auf ein klimawissenschaftliches Modell angewiesen,

…noch in der Realität durch den aktuelle oder historische Beobachtungen.

Abgesehen von wenigen, überdies für Klimazeitdistanzen, kurzen Zeitspannen,  in denen der Trend der „Welttemperatur „  eng und positiv korreliert  mit dem CO2 Anstieg verläuft (Rahmstorf [7]: mehr CO2 = mehr Temperatur) ist immer wieder auch die gegenteilige Entwicklung erkennbar. Also mehr CO2 und negativer Temperaturtrend. Und  dies ist auf allen geologischen Zeitskalen zu beobachten. (Siehe z.B. Abb. 1)

Zudem ist, was auch Herr Fell  (und später auch Frau Dehmer wissen müsste) eine Korrelation kein Ersatz für eine nachweisbare Ursache-Wirkungsbeziehung)

Besonders deutlich aber zeigt sich, dass auch die Modelle schwer daneben liegen. (Abb. 3) wenn man bereits vergangene Zeitspannen mit den Modellprognosen vergleicht. (Abb 1)

Abb. 3 Vergleich „zukünftige“  Verläufe (ab 1983) des globalen Temperaturtrends  von 90 Modellen und  zwei Messungen Grün:  Hadcrut Daten, Blau: Satelliten Daten UAH; schwarz Mittlerer Trend  aller Modelle: Quelle hier 

Auch die Behauptung von Herrn Fell – er hätte „die Versuche gemacht wie Kohlendioxid die Strahlung beeinflusst, wie das Kohlendioxid die umgewandelte Infrarotstrahlung von der Sonne aufnimmt. Sind klare Versuche gewesen, nicht irgendwie Trial and Error sondern Messungen“, um damit dem Publikum zu suggerieren, damit sei der anthropogene Treibhauseffekt bewiesen, kann so nicht stehen bleiben. Es klingt zwar plausibel, aber das reicht in den Naturwissenschaften bei weitem nicht.

Auf meine Nachfrage per Email an Herrn Fell vom 23.6.15

…bitte ich Sie daher mir Details zum Experiment mitzuteilen. Besonders interessant sind für mich dabei die Klärung der Fragen

1. Wie war der experimentelle Aufbau?

2. Wie haben Sie gemessen?

3. Was haben Sie gemessen?

4. Wie groß war die Unsicherheit bei Ihrer Messung?

schrieb mir Herr Fell am 24.6.15

Ich sagte, dass ich das Grundlagenexperiment wie jeder andere Physikstudent auch machte. Damit messen die Physikstudenten die Anregungswellenlängenlängen und damit die Energieaufnahme von Molekülen, wie CO2.  

Nun, derartige Eigenschaften hatte auch niemand bezweifelt. Und wie schon erwähnt, die spektro-physikalischen Eigenschaften des Spurengases CO2 (mit nur 0,04 Vol % in der Atmosphäre vorhanden) wie aller anderen Bestandteile der Luft  sind seit Jahrzehnten gut bekannt, aber bieten keinerlei Ersatz für einen Beweis des THE.

Moderatorin: (0:05:41)

Hmm; Frau Dehmer wie schätzen Sie denn diese kritischen Stimmen ein?

Frau Dehmer 0:05:46.

Science-fiction

(0:05:48)

Hm; die Messreihen, die vorhanden sind, sind ja mehr als hundert Jahre alt. (Anmlerung des Autors Siehe Abb. 1) Und  wenn sie sich die Messzahlen, und das ist nur das Gemessene anschauen, sowohl bei den Ozeantemperaturen als auch bei den Luft- Temperaturen dann haben die eben einen Trend nach oben. Und man kann auch zurück verfolgen, wann der begonnen hat. Hm. ich finde diese Diskussion völlig sinnlos 

Fakt ist:

Auf diesem Niveau zu argumentieren, wie es hier Frau Dehmer macht, ist natürlich völlig sinnlos.  Aus der unbestrittenen geringen Erwärmung – nach dem Ende der kleinen Eiszeit etwa ab 1850 (da musste es wärmer werden, sonst bestünde die Eiszeit ja immer noch) – und der gleichzeitigen – aber erst seit Mitte der fünfziger Jahre genau genug bekannten Konzentrationszunahme des CO2 in der Luft, eine bestätigte Abhängigkeit zu konstruieren, ist schon science fiction. Allerdings ganz ohne science. [8]

Mit gleicher Berechtigung könnte Frau Dehmer folgern, weil die Zahl der Störche in Deutschland abnimmt,  gibt es weniger Babys. Beides unbestreitbare Tatsachen, beide Verläufe eng korreliert, doch sollte heutzutage -jedenfalls unter Erwachsenen- keiner glauben, dass die Störche die Babys bringen.

Ich frage mich außerdem  immer wieder, woher die Protagonisten des anthropogenen Global Warming das Recht ableiten, dass das Klima konstant zu sein hat. Das war es bisher niemals und wird es auch in Zukunft nicht sein.

Frau Dr. Zink (0:06:51)

Daraufhin fühlte sich auch die Moderatorin Frau Dr. Zink veranlasst Ihre Sicht der Dinge darzustellen. Sie verwies am Anfang auf ihre Mitarbeit bei Wissenschaftssendungen erst von Joachim Bublath und dann von Harald Lesch und Dirk Steffens (Terra X). Dann erläuterte sie, dass sie und bezog andere Kollegen ein, spätestens seit 1995 im Grunde aber schon nach Rio (1992) aufgehört hatten kritische Stimmen zur Rolle des CO2 zu journalistisch zu überprüfen. Und schloss mit dem Beispiel ….im Kriminalfall würde man vielleicht sagen, die Faktenlage ist erdrückend und deswegen ist bei den Wissenschaftsjournalisten  dieses gar nicht mehr in Diskussion; muss ich sagen.

Fakt ist:

Dieses Statement ist insofern korrekt, als dass die Zustimmung (ja Panikmache) zur THE Hypothese, tagtäglich in allen Medien- von wenigen rühmlichen Ausnahme abgesehen-,  zu sehen, zu lesen und zu hören ist.

Diese Meinung, und um nichts anderes handelt es sich, beweist für die Existenz des THE natürlich gar nichts. Sie beweist aber etwas ganz anderes, nämlich, dass die allermeisten Journalisten es vorziehen im Mainstream mit zu schwimmen. Obwohl es gerade die vordringliche Aufgabe von Journalisten wäre, besonders misstrauisch bei Behauptungen von dieser Tragweite zu sein und ständig der uralten Frage nachgehen müssten – Cui Bono? Tun sie aber nicht, obwohl das investigative Hinterfragen für Wissenschaftsjournalisten umso mehr gelten müsste.

Es ist nämlich in den Naturwissenschaften überhaupt kein Gütesiegel, anders als in der Politik, wenn alle oder eine große Mehrheit einer Meinung sind. Die Beispiele bei denen das falsch war, sind Legion. Denn im Gegenteil, besonders dann ist höchstes Misstrauen angebracht, weil dann so gut wie immer die Wissenschaft unter die Räder kommt.  Und eine – noch dazu promovierte- Physikerin täte gut daran, diesem Grundsatz zu folgen. Gesundes Misstrauen tut daher not, ein Misstrauen, wie es die investigative Journalistin Donna Laframboise[9] antrieb, mit der Folge, dass sie die Machenschaften großer Umwelt-NGO´s wie z.B. WWF und Greenpeace, aber auch anderer, bei der verdeckten Übernahme des IPCC aufdeckte. Eine Übernahme, die denen nicht nur großen Einfluss brachten, sondern auch das Agenda-Setting erlaubt. Die Folgen davon erleben wir täglich.

Abgesehen von dieser Verhaltensfrage enthält die Frau Zinks „Beweisführung“ eine Behauptung, die nicht unwidersprochen bleiben kann.  Nämlich der „Beweis“ wie im „Kriminalfall“, den auch Hans v Storch  unlängst verwendete, als beide behaupteten, dass die Beweislage erdrückend sei.  Dabei wird übersehen, oder verschwiegen, dass schon im Gründungsauftag des IPCC steht, man solle Beweise dafür finden, dass der Klimawandel gefährlich und dass der Mensch dafür verantwortlich sei[10].

Klar nach der Drehbuchanweisung des Club of Rome 1972 (Quelle King & Schneider, 1991):

„Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen würden…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“

Folgerichtig werden sowohl vom IPCC als auch vielen Vertretern der Wissenschaft die weiteren Akteure in diesem „Kriminalfall“ bewusst außen vorgelassen. Wie z.B. der alles überragende und vielfältige Einfluss der Sonne. Damit wird durchgehend eine voreingenommene „Wissenschaft“ gefordert und auch betrieben.

Ich will mich aber hier nur auf den von mir angeführten „Beweis“ über die Wirkung des CO2 auf die Temperatur über Klima-Modelle fokussieren, den Hans v. Storch dem erstaunten Publikum präsentierte[11].

Fakt ist:

Limburg 0:08:20:

Sie sagen wir haben Modelle: Neulich Herr von Storch hat Modelle gezeigt, hat Bilder gezeigt wie die Temperatur nach oben geht in ihren Modellen (Anmerkung Autor Siehe Abb. 4) mit der Aussage wir können das nicht in der Natur beweisen, dafür ist das System zu komplex, zu großartig, zu umfangreich.

Niemand bestreitet ja die spektralen Eigenschaften des CO2.

Natürlich nicht!

Aber sie können sie nicht in der  in der Darstellung der Messdaten sehen und deswegen baut man eben diese komplexen, hochkomplexen Klimamodelle  und dann sagt man: „guckt mal hier“ das sind so vier Graphen…..wie die Temperatur nach oben steigt, je nachdem wie das CO2 sich entwickelt und  wenn man dann, das sind die Modellaussagen,  wenn man dann das CO2 weglässt  dann ist dieser Temperaturanstieg flach. Wie er übrigens seit über 18 Jahren inzwischen auch ist  (Anmerkung Autor Siehe Abb. 4)

Abb 4: Satellitenmessung der globalen Mitteltemperatur – und nur die sind eigentlich für globale Klimazwecke geeignet- der letzen > 18 Jahre. Man sieht trotz stark steigenden CO2 um ca. 2 ppm/Jahr ist der Trend genau Null

So, aber das ist ein Zirkelschluss! Wenn ich ein Modell baue, wo das CO2 die  Temperatur treibt, was es, wie gesagt, in der Vergangenheit noch nie gemacht hat  dann steigt die Temperatur. Wenn ich dann in diesem Modell dass CO2 weglasse.. wie soll da die Temperatur steigen? Also das als Beweis anzunehmen -und nur das  existiert- das müssen Sie halt schlicht zur Kenntnis nehmen- das sind die Fakten 

Abb. 5: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

Dann murmelte Frau Zink etwas von (0:09:29).

Na ja, es gibt ja sehr viele Beweise, da muss man sich nur viele Baumrinden anschauen,

… ging aber nicht weiter darauf ein.

Fakt ist:

Man muss vermuten, dass sie berüchtigte Hockeyschlägerkurve des Michael Mann meinte, von dem sein Freund Phil Jones später mailte, dass er „Mikes Nature trick“ erfolgreich angewendet hätte „to hide the decline“. Gemeint war, dass dieser „decline“ seit den 1960er Jahren in der Proxykurve der Mannschen Baumringdaten zu sehen war, aber Michael Mann sie schlicht abgeschnitten hatte und sie durch ihm genehmere Thermometerdaten, die sich nicht absenkten, sondern im Gegenteil nach oben stiegen, ersetzt hatte. Ein bis heute ungeahndeter Betrug. (Einige Details dazu hier)

Etwas später meinte die Moderatorin wieder gegen halten zu müssen (0:10:45)

Dann muss ich gleich mal ein bisschen noch dagegen schießen. Auch ich mache meine Hausaufgaben als Wissenschaftsjournalistin. Es gibt Meta Studien. Das sind ja Studien über alle wissenschaftlichen Artikel….

Und zitierte die Cook Studie, wonach 12.000 klimawissenschaftliche Studien (peer reviewed) von Cook et al daraufhin untersucht worden sein sollen, wie viel davon die anthropogen induzierte Erwärmung bejahten. Und das seien bis auf 80 Artikel alle gewesen.

Fakt ist,

dass nach der neuesten  Überprüfung der Methodik dieser Studie (Legates et al[12]) die Verfasser zu dem Schluss gekommen seien, dass Cooks Behauptung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt.

Und, Fakt ist auch,  das John Cook kein Klimawissenschaftler sondern ein Blogger und  Psychologe ist. Was Frau Zink verneinte.

Jedoch schreibt derselbe John Cook,  welcher die Mainstream Website „SkepticalScience“ betreibt in seinem Blog,

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

Nur in einer Hinsicht behielt Frau Dr. Zink recht: Cook ist kein Australier, sondern US-Amerikaner. Ich hatte ihn in der Eile in Bezug auf seine Landsmannschaft mit seinem Bruder im Geiste Lewandowski verwechselt. Der ist Australier.

Aber obwohl diese Cook Studie, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant ist, wird sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt.

Es scheint ja so gut zu passen. Mit dem Strom schwimmen ist eben leichter als gegen den Strom, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“

Wird fortgesetzt


[1] ‘CLIMATE CHANGE Response to Carteret al.’, World Economics, 8 (1): 221228. –

[2] Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records H.-J. Ludecke ¨ 1,*, A. Hempelmann2 , and C. O. Weiss3,*

[3] Man sehe z.B. den SPM Seite 18 figure SPM.6. In der Bildunterschrift steht u.a „:::Comparison of observed and simulated climate change based on three large-scale indicators in the atmosphere, the cryosphere and the ocean: change in continental land surface air temperatures (yellow panels), Hervorhebung von mir.

[3a] IPCC (2013): Climate Change 2013, Working Group I: The Science of Climate Change, Box 12.2

[4] „Die Fußnote lautet: No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies. Quelle SPM AR5 final, S 16 hier

[5] Quellen: [6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[6] Prof. Reinhard Zellner in Nachrichten aus der Chemie, S 213 Mai 2014 Mitglied u.a Enquetekommissionen – „Schutz der Erdatmosphäre“ und „Schutz des Menschen in der Umwelt“

[7] Das genaue Zitat geht so: Stefan Rahmstorf am 3.2.2007 (Die Welt): Wir Klimaforscher können nur nach dem Wenn-dann-Prinzip sagen: Wenn so und so viel CO2 ausgestoßen wird, dann wird das Klima sich so und so stark erwärmen.“

[8] Siehe auch ergänzend hierzu diesen Beitrag von Limburg & Willis Eschenbach

[9] Details zu den unglaublichen Fakten über das IPCC finden Sie hier

[10] Auf der  IPCC Website unter  Mandate findet man .”… Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change::”

[11] Den Erlebnisbericht dazu finden Sie hier

[12] Legates et al ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ in Science and Education




PRISM das moderne Entsorgungszentrum? Teil 1

In England wird seit einigen Jahren ernsthaft über den Bau des sogenannten Power Reactor Innovative Small Module (PRISM) von GE-Hitachi diskutiert. Hintergrund ist der stetig wachsende Plutoniumberg aus der Wiederaufbereitungsanlage. Inzwischen lagern zwischen 100 und 150 Tonnen auf der Insel. Es geht dabei um die sinnvollste Verwendung. Ein “verbuddeln und vergessen” nach deutschen Vorstellungen, scheidet für GB ohnehin aus. Vielmehr ist man bestrebt, das Gefahrenpotential des “Atommülls” auf einige hundert Jahre zu begrenzen. Ein Zeitraum, den man unstrittig durch technische Bauten sicher beherrschen kann. Man holt dadurch das Problem von der wenig fassbaren moralischen Ebene – irgendwelcher “Ethikkommissionen” – auf die berechenbare Ebene der Ingenieurwissenschaften zurück.

Ein Weg – und beileibe nicht der einzige – ist die Nutzung und Beseitigung abgebrannter Brennelemente durch einen mit Natrium gekühlten Reaktor mit schnellem Neutronenspektrum und metallischem Brennstoff: Dem PRISM. Nichts von der Erfindermesse, sondern ein Stück erprobter Technik. Sein unmittelbarer Vorläufer, der EBR II, war 30 Jahre erfolgreich in Betrieb (bis 1994). Ein PRISM-Kraftwerk mit 1866 MWel würde rund zwei Tonnen abgebrannter Brennelemente pro Jahr verbrauchen und damit die gleiche Menge Strom erzeugen, wie Kohlekraftwerke durch die Verbrennung von sechs Millionen Tonnen Steinkohle.

Warum schnelle Neutronen?

Mit hinreichend schnellen Neutronen kann man alle schweren Kerne spalten. Ausdrücklich auch 238-U, alle Plutoniumisotope und die minoren Aktinoiden (Americium, Curium, Neptunium usw.). Letztere sind für die Langlebigkeit des Atommülls verantwortlich. Gelingt es sie zu spalten, bleiben nur noch Spaltprodukte mit einer Halbwertszeit von unter 30 Jahren übrig. Allerdings hat die Sache einen entscheidenen Haken: Die Reaktionsquerschnitte sind nicht nur stoffabhängig, sondern auch sehr stark energieabhängig. Mit anderen Worten, nimmt die Wahrscheinlichkeit für eine Spaltung mit schnellen Neutronen stark ab.

Eine selbsterhaltende Kettenreaktion läßt sich nur mit 235-U (in der Natur vorkommend) und 233-U (aus Thorium erbrütet), sowie 239-Pu (aus Uran erbrütet) aufrecht erhalten. Auch deren Spaltquerschnitte sind für langsame thermische Neutronen um Größenordnungen geeigneter. Will man also einen schnellen Reaktor bauen, braucht man wesentlich höhere Anteile an Spaltmaterial. Allerdings steigt auch die Anzahl der freigesetzten Neutronen mit der Energie der spaltenden Neutronen an.

An dieser Stelle ergeben sich die drei Varianten des PRISM-Reaktors, die sich nur durch die Zusammensetzung des Kerns unterscheiden:

1.     Der Brenner. Er verbraucht – wie ein Leichtwasserreaktor – mehr Spaltstoff als beständig neu entsteht. Man muß diese Verluste stetig aus abgebrannten Brennelementen ersetzen. Dies wäre eine reine “Abfallverbrennungsanlage”.

2.     Der Selbsterhalter. Er stellt ziemlich genau so viel 239-Pu beim Betrieb gleichzeitig her, wie er auch verbraucht. Die Spaltungen müssen nur durch 238-U – z. B. aus dem Abfall der Anreicherungsanlagen – ergänzt werden.

3.     Der Brüter. Dies ist die wohl bekannteste Variante. Ein solcher Kern erzeugt mehr 239-Pu, als er selbst verbraucht. Entscheidendes Maß ist bei diesem Typ die sogenannte Verdoppelungszeit. Damit ist die Zeitdauer gemeint, in der ein Reaktor so viel Überschussplutonium produziert hat, wie man braucht, um damit einen zweiten Reaktor in Betrieb nehmen zu können. Diese Variante wird erst attraktiv, wenn die Preise für Natururan explodiert sind. Also erst in sehr ferner Zukunft.

Es ist bei allen drei Varianten sinnvoll, die Spaltprodukte von Zeit zu Zeit abzutrennen. Allerdings haben sie nicht die Bedeutung, die sie bei Leichtwasserreaktoren haben, da ihre Einfangquerschnitte (und dadurch verursachte Neutronenverluste) für hohe Energien recht klein sind. Der Abbrand kann bei schnellen Reaktoren rund fünfmal so hoch sein, wodurch sich eine Wiederaufbereitung wesentlich vereinfacht und nicht so oft geschehen muß (Kosten).

Warum Natrium als Kühlmittel?

Wenn man einen schnellen Reaktor bauen will, muß man ein Kühlmittel verwenden, das Neutronen praktisch nicht abbremst. In diesem Sinne, kommen praktisch nur drei Stoffe in Frage: Natrium, Blei und Helium. Natrium besitzt in allen relevanten Eigenschaften klare Vorteile, sodaß es nicht verwunderlich ist, daß praktisch alle schnellen Reaktoren (über 20 in 8 Ländern) mit Natrium gekühlt wurden. Einzige Ausnahme bilden die sieben Blei-Wismut-Reaktoren der U-Boote der Alpha-Klasse in der Sowjetunion. Sie sind gerade an den Eigenschaften des Blei gescheitert (hohe Schmelztemperatur, die eine ständige Beheizung erfordert; große Korrosionsprobleme; hohe Pumpleistung; starke Aktivierung durch die Bildung von 210-Po). Je eingehender man sich mit Kühlmitteln beschäftigt, gibt es für ein Kernkraftwerk (zur reinen Stromerzeugung) lediglich zwei optimale Kühlmittel: Wasser für thermische und Natrium für schnelle Reaktoren.

Natrium ist wegen seines elektrischen Widerstandes hervorragend für den Bau von elektromagnetischen Pumpen ohne bewegliche Teile und damit ohne Dichtungsprobleme geeignet.

Bei Natrium braucht man immer einen zusätzlichen Zwischenkreislauf. Der Neutronenfluß bildet 24-Na, welches ein harter γ-Strahler ist. Das primäre Natrium muß deshalb gut abgeschirmt werden. Außerdem besteht bei Leckagen im Dampferzeuger die Gefahr der Wasserstofferzeugung und der Bildung von NaOH. Wasserstoff ist ein guter Moderator, der zu einer Beschädigung des Kerns durch einen Reaktivitätssprung führen könnte.

Die Gefahr von Natriumbränden wird meist überschätzt. Natrium hat eine hohe Verdampfungswärme bei hoher Verdampfungstemperatur. Dies führt zu einer geringen Verdampfungsrate während der Verbrennung – dem Feuer mangelt es an Nahrung. Die Verbrennung von Natrium in Luft, setzt nur etwa ein Viertel der Energie, wie Benzin frei. Bei dem klassischen Brandversuch in einer offenen Wanne, bilden sich nur wenige Zentimeter hohe Flammen und in einem Meter über den Flammen herrscht nur eine Temperatur von rund 100 °C. Die bei der Verbrennung entstehenden Na2O und NaO-Aerosole reagieren in Luft unter Anwesenheit von Wasserdampf und Kohlendioxid weiter zu NaOH und Na2CO3. Diese Aerosole erfordern anschließend gründliche Reinigungsarbeiten, da sie elektrische Anlagen zerstören können und giftig sind.

Natrium besitzt sehr gute Korrosionsschutzeigenschaften, da es leicht mit Sauerstoff reagiert. Erst oberhalb von 50 ppm besteht für gewisse Stähle eine Korrosionsgefahr im flüssigen Natrium. Dieser Wert ist problemlos über eine Kältefalle (Im Prinzip ein Topf, durch den ein Teilstrom von weniger als 5% des Kreislaufes sehr langsam hindurch strömt) auf 10 bis 25 ppm zu halten. In der Kältefalle kristallisiert das Na2O a bei unter 200 °C aus.

Warum metallischer Brennstoff?

Metallische Brennstoffe ermöglichen die höchsten Brutraten, da sie vollständig aus spaltbarem und brutfähigen Material bestehen könnten. Sie liefern das härteste Neutronenspektrum, da sie nur aus den schwersten Kernen bestehen. Die Folge ist, daß rund 25% der erzeugten Energie aus der direkten Spaltung von 238-U stammen können.

Metalle sind ausgezeichnete Wärmeleiter und vertragen sehr schnelle Temperaturänderungen. Im Gegensatz dazu sind Uranoxide – wie sie in allen Leichtwasserreaktoren verwendet werden – Keramiken, mit bekannt schlechter Wärmeleitung und Sprödigkeit. Sie können im Inneren bereits aufschmelzen, wenn sich ihre Randtemperatur noch kaum geändert hat und können bei schockartiger Abkühlung wie eine Teetasse zerspringen.

Metallische Brennstoffe vertragen sich ausgezeichnet mit dem flüssigen Natrium. Chemische Reaktionen, wie zwischen den Brennstabhüllen aus Zr bei Leichtwasserreaktoren und Wasserdampf, gibt es nicht (Wasserstoffexplosionen in Fukushima).

Metallischer Brennstoff schwillt durch die Strahlenbelastung um bis zu 30% an. Die Brennstäbe müssen deshalb sehr viel Raum für Spaltgase besitzen. Der notwendige Anfangsspalt zwischen Hüllrohr und Brennstoff wird mit Natrium als Wärmebrücke ausgefüllt.

Man kann bei Metallen die Eigenschaften durch Legierung gezielt verändern. Plutonium hat eine zu geringe Schmelztemperatur. Der Brennstoff kann mit den Legierungsbestandteilen der Stahlhülle schädliche Eutektika bilden usw. Dies alles, hat in den USA Jahrzehnte Forschung und Entwicklung und den Test von hunderttausenden von Brennstäben erfordert. Als Optimal hat sich eine Brennstofflegierung aus Uran und Plutonium mit etwa 10% Zr in einer Hülle aus austenitischem Stahl herausgestellt.

S wie small

Von Anfang an, stand bei der Entwicklung die geometrische Größe des Reaktors im Vordergrund: Man wollte den kompletten nuklearen Teil in einer Fabrik fertigen und testen und anschließend (möglichst) mit der Eisenbahn zum Standort transportieren. Alle Einbauten, der Kern, die Pumpen, die Zwischen-Wärmeübertrager, die Lademaschine mit dem Zwischenlager und die Regelstäbe werden in einen Topf aus Edelstahl eingebaut und mit dem Deckel gasdicht verschweißt. Diesen Reaktorbehälter umschließt noch ein zweiter Sicherheitsbehälter und die Luftkühlung. All das, wird in einer Fabrik zusammengebaut und getestet und anschließend zur Baustelle transportiert und dort in das örtlich gefertigte Betonsilo eingesetzt. Damit ist die geplante Leistung auf etwa 840 MWth begrenzt. Durch die Serienfertigung in einer spezialisierten Fabrik, verspricht man sich einen bedeutenden Kostenvorteil.

M wie modular

Die Modularität bezieht sich sowohl auf einen Block selbst, wie auch auf ein Kraftwerk:

·       Jeder Block besteht aus dem nuklearen Teil in einem unterirdischen Betonsilo, der oberirdischen Dampferzeuger-Anlage und den konventionellen Stromerzeugungsanlagen.

·       Ein komplettes Kernkraftwerk könnte z. B. eine elektrische Leistung von 1866 MWel haben und müßte dann aus sechs Reaktoren (je 840 MWth) bestehen, die jeweils paarweise auf eine Turbine (je 622 MWel) wirken und insgesamt drei Turbinen haben. Alle sonstigen Einrichtungen (Werkstatt, Sozialgebäude usw.) würden gemeinsam genutzt. Ein solches Kraftwerk könnte auch eine integrierte Wiederaufbereitungsanlage beinhalten.

Die interne Unterteilung zielt auf eine potentielle Kosteneinsparung ab: Lediglich der Reaktor in seinem Betonsilo müßte dem Sicherheitsstandard “nuclear grade” entsprechen. Bereits die Dampferzeugungsanlage in ihrem separaten Gebäude sollte – nach Meinung von GE – nur einen “gehobenen Industriestandard” haben. In wie weit, die Genehmigungsbehörden dieser Argumentation folgen werden, ist noch nicht ganz eindeutig zu beantworten.

Die Zusammenfassung von zwei Reaktoren mit Dampferzeuger und einer Turbine zu jeweils einer Einheit, zielt auf eine hohe Verfügbarkeit und einen kostengünstigen Ausbau eines Standortes ab. Sobald eine Einheit fertig ist, kann diese bereits Geld verdienen, während der Ausbau des Kraftwerkes weiter läuft. Die heute übliche Vorfinanzierung der gesamten Summe entfällt. Später, hat das Kraftwerk eine sehr hohe Verfügbarkeit bei guten Wirkungsgraden. Letztendlich muß die Praxis zeigen, welcher Weg der günstigere ist. Rußland beispielsweise, versucht es über möglichst große Blöcke.

Das Sicherheitskonzept

PRISM setzt konsequent auf eine passive oder inhärente Sicherheitstechnik. Der völlige Stromausfall (Station-Blackout) ist kein Problem mehr. Es wird lediglich eine elektrische Leistung von weniger als 200 kW für Instrumentierung, Notbeleuchtung, Rechner und Bildschirme usw. benötigt. Diese kann problemlos über Batterien bereitgestellt werden. Notstromdiesel (als Sicherheitstechnik) sind nicht mehr nötig. Die Nachzerfallswärme wird ausschließlich über eine Luftkühlung mit Naturzug abgeführt. Dazu wird die Wärme über das Reaktorgefäß und den Sicherheitsbehälter an einen umgebenden Luftspalt abgegeben. Die erwärmte Luft steigt über vier Kamine auf. Das System ist so bemessen, daß auch bei erheblichen Verstopfungen (z. B. durch Erdbeben oder Anschläge) oder dem kompletten Ausfall von zwei Kaminen oder einem völligen Verschluß der Zuluftöffnungen die Kühlung stets gewährleistet ist. Selbst bei einem völligen Ausfall von 36 Stunden, tritt noch keine Kernschmelze auf. Ein Unfall wie in Fukushima, wäre damit ausgeschlossen.

Der gesamte Reaktor ist elastisch auf Federn und Dämpfern gelagert. Da sich alle Rohrleitungen und Pumpen etc. in dem Reaktorgefäß befinden, ergibt sich ein optimaler Erdbebenschutz. Dies gilt auch für Flugzeugabstürze und sonstige Einwirkungen von außen, da sich der Reaktor in einem unterirdischen Betonsilo befindet. Die Verbindung zum Dampferzeuger besteht aus Vor- und Rücklauf des Natrium-Zwischen-Kreislaufes, die ebenfalls in einem Betongraben verlegt sind. Diese Leitungen sind als Rohr in Rohr Konstruktion ausgeführt, um Natrium-Leckagen zu verhindern.

Der Dampferzeuger ist ebenfalls mit einem Mantel zur Luftführung umgeben. Wenn die eigentliche Kühlung des Kraftwerks ausfällt, kann die Wärme auch darüber abgeführt werden. Dies ist jedoch kein nukleares Sicherheitssystem im engeren Sinne, sondern dient dem Anlagenschutz.

Die Lagerung der Brennelemente

Die Handhabung der Brennelemente verläuft bei diesem Reaktor gänzlich anders, als bei Leichtwasserreaktoren. Der Reaktor kann wegen des flüssigen Natriums mit seiner hohen Temperatur und Brandgefahr nicht einfach geöffnet werden. Zuerst wird das Helium als Schutzgas und Ausgleichsraum abgesaugt und durch frisches Gas ersetzt. Damit soll die Gefahr der Freisetzung radioaktiver Gase in den Sicherheitsbehälter vermieden werden. Die fest im Reaktor installierte Lademaschine entnimmt abgebrannte Brennelemente und lagert sie oberhalb des Kerns in ein Lagergestell ein. Anders als bei Leichtwasserreaktoren, verbleiben sie für mindestens 20 weitere Monate zur Abkühlung im Reaktor. Ihre Wärmeentwicklung durch den radioaktiven Zerfall ist dann soweit abgeklungen, daß sie auch ohne spezielle Kühlung keine Temperatur von 400 °C mehr überschreiten können. Dies ist für ihren metallischen Kern und die Hüllrohre aus Stahl kein Problem. Ein Brennelemente-Lagerbecken ist nicht nötig.

Ein vollautomatisches Transportfahrzeug dockt an den Reaktordeckel an, entnimmt die zu entladenden Brennelemente und fährt sie anschließend zum zentralen Lagergebäude.

All das, geschieht vollautomatisch und unter Schutzgas. Trotzdem ist ein Auslegungsstörfall der Brand des Natriums im Reaktor. Der Sicherheitsbehälter oberhalb des Reaktors ist so bemessen, daß er die freigesetzte Energie und die Temperaturen aushält. Automatische Löschanlagen mit Schutzgasen sind vorhanden.

Die Auslegungsstörfälle

Schnelle Reaktoren (SR) und Leichtwasserreaktoren (LWR) unterscheiden sich stark in ihrem Unfallverhalten. LWR stehen unter hohem Druck und werden nahe dem Verdampfungspunkt betrieben. Schon bei einem relativ kleinem Leck, baut sich der Druck stark ab und das “Kühlwasser” verdampft. Die Temperatur im Kern steigt damit steil an und nähert sich schnell den Grenzwerten. Gelingt es nicht, das Kühlwasser schnell zu ersetzen, wird der Kern zerstört (Unfall in Harrisburg). Auch nach erfolgreicher Abschaltung, kann die Nachzerfallswärme noch zur Kernschmelze führen (Unfall in Fukushima). Es kommt im weiteren Verlauf dann zur Reaktion zwischen Wasserdampf und den Brennstabhüllen mit starker Wasserstoffproduktion (zerstörende Explosionen in Fukushima).

Bei einem SR sieht der Ablauf gänzlich anders aus. Die Kombination aus metallischem Brennstoff, Brennstabhüllen aus Edelstahl und Natrium als Kühlmittel ergibt eine sehr gute Wärmeübertragung mit hoher Temperaturbeständigkeit. Chemische Reaktionen zwischen den Unfallbeteiligten sind praktisch nicht vorhanden. Mit anderen Worten: Es wird recht schnell und gleichmäßig heißer im Reaktor. Wegen der hohen Verdampfungstemperatur kann es deutlich heißer werden, ohne daß sich wesentliches ändert. Bei einem LWR reicht selbst die Nachzerfallswärme aus, den Kern zum Schmelzen zu bringen, wenn er nicht mehr mit flüssigem Wasser bedeckt ist. Bei einem SR führt die starke Temperaturerhöhung lediglich zu einem neuen Gleichgewicht zwischen “Notkühlluft” und Reaktorgefäß. Die neue Gleichgewichtstemperatur ist so bemessen, daß sie sich noch weit von Materialgrenzwerten entfernt einstellt. Der Reaktor ist “inhärent sicher”.

Bei jedem Reaktor führen gewisse Grenzwerte zur sofortigen und automatischen Abschaltung. Beim PRISM fallen zu diesem Zweck sechs Regelstäbe in den Kern ein. Die Kettenreaktion wird dadurch in Sekundenbruchteilen unterbrochen. Zur dauerhaften Abschaltung gibt es noch ein zweites System, das Kugeln aus Borkarbid in den Kern einführt. Insofern unterscheiden sich LWR und SR kaum.

Man geht aber beim PRISM-Reaktor noch einen Schritt weiter, in dem man sich den starken Temperaturanstieg nutzbar macht. Dieser führt zu einer Reihe von Auswirkungen, die neutronenphysikalisch wirken (Dopplereffekt, Dichteänderung des Natrium, Axiale und radiale Ausdehnungen des Brennstoffs, usw.). Wichtig ist die konstruktive Gestaltung, damit der Temperaturkoeffizient der Reaktivität immer negativ bleibt (In Tschernobyl war er positiv!). In Alltagssprache: Je heißer der Reaktor wird, um so schneller bricht die Kettenreaktion von selbst zusammen. Wird die Kühlung – aus welchen Gründen auch immer – unterbrochen, schaltet sich der Reaktor von selbst ab. Er ist also auch im Betrieb “inhärent sicher”.

Der Ausfall der Umwälzpumpen im Reaktor (vier Stück) kann zu einer lokalen Überhitzung führen, die örtlich sogar zu einem Verdampfen des Natriums führen könnte. Dadurch könnte der Neutronenfluß lokal weiter ansteigen und Teile des Kerns beschädigen. Ursache sind die elektromagnetischen Pumpen, die keine rotierenden Massen haben und somit sofort ausfallen, wenn der Strom weg ist (Station-Blackout). Sie werden deshalb mit Synchronmotoren, mit extra großen Schwungmassen, parallel betrieben. Die Synchronmaschinen erzeugen im Normalbetrieb Blindleistung und schalten bei Stromausfall automatisch in den Generatorbetrieb um. So entsteht ein mehrere Minuten dauernder Auslauf der Pumpen, der lokale Überhitzungen verhindert und sanft in einen Naturumlauf überführt.

Versagt auch dieses System, werden die Gasraum-Ausdehner wirksam. Sie funktionieren nach dem Prinzip eines umgedrehten Glas im Spülbecken: Je weiter man es eintaucht, um so kleiner wird das Luftpolster infolge des steigenden Wasserdrucks. Im PRISM spielt nun der Pumpendruck auf das Natrium mit einem Gaspolster aus Argon zusammen. So wie der durch die Pumpen erzeugte Druckanstieg kleiner wird, dehnt sich das Argonpolster aus. Da das Gas eine wesentlich geringere Dichte als das flüssige Natrium hat, kann es auch weniger Neutronen in den Kern zurück streuen. Der Ausfluß erhöht sich und die Kettenreaktion bricht zusammen. Ein weiteres, völlig passives, Sicherheitssystem.

 Natriumbrand im Dampferzeuger

Ein spezielles Sicherheitsproblem, ist die Reaktion zwischen Wasser und Natrium. Bei ihr wird neben Energie auch Wasserstoff frei bzw. es entstehen Reaktionsprodukte, die Wasserstoff enthalten. Daraus ergeben sich folgende Ansprüche:

·       Der Dampferzeuger sollte in einem separaten Gebäude – streng getrennt vom Reaktor – stehen. Da es nur hier eine Schnittstelle zwischen Wasser und Natrium gibt, können alle Auswirkungen besser beherrscht und lokal begrenzt werden.

·       Es sollte eine Isolierung zwischen Dampferzeuger und Reaktorteil geben, um Rückwirkungen auf die Wärmetauscher im Reaktor zu verhindern.

·       Es müssen ausreichend große Abblasetanks vorhanden sein, um Natrium und Wasser möglichst schnell voneinander zu trennen, damit die Brandlasten klein bleiben. Entstandener Wasserstoff muß rekombiniert bzw. sicher abgeleitet werden, um Explosionen zu verhindern (nicht wie in Fukushima, auch noch benachbarte Gebäude zerstören.)

Der Dampferzeuger des PRISM ist ein schlanker, aufrecht stehender Behälter. Er ist nicht vollständig mit Natrium gefüllt, sondern besitzt oben einen mit Argon gefüllten Raum. Dieses Gaspolster, kann bei Störfällen, etwaige Druckwellen, bereits erheblich mindern. In dieses Natriumbad tauchen, zu einer Spirale gewickelte Rohre, ein. In diesen strömt das Wasser und verdampft. Würde ein Rohr undicht werden, strömt Wasser bzw. Dampf unter hohem Druck in das Natrium ein und reagiert dort sofort. Die zusätzliche Energieproduktion kann zu einem Temperaturanstieg im Dampferzeuger führen. Wichtigste Gegenmaßnahme ist nun die Absperrung sowohl der Wasser- und Dampfleitungen wie auch der Natriumleitungen. Dabei sind kleine Leckagen kein Problem, da sie ein langsames Abfahren der Anlage ermöglichen.

Kommt es hingegen zu massiven Wassereinbrüchen, kann es zu einer stärkeren Temperaturerhöhung und einem steilen Druckanstieg führen. Wichtigstes Ziel ist nun, die Druckspitze zu begrenzen und die Druckwelle möglichst von den Zwischenwärmetauschern im Reaktor fern zu halten. Zur Dämpfung dient bereits das Gaspolster im Dampferzeuger. Wird der vorgesehene Druck überschritten, bersten zwei Scheiben in der Verbindungsleitung zum Abblasetank. Der Abblasetank trennt die Gase (insbesondere den entstandenen Wasserdampf) vom flüssigen Natrium. Das Natrium strömt dann weiter in Reservetanks. Bereits gebildeter Wasserstoff wird rekombiniert, um etwaige Explosionen zu vermeiden. Die Restwärme wird über die Außenluft abgeführt.

Unmittelbar hinter dem Sicherheitsbehälter des Reaktorgebäudes befinden sich Isolierventile, die sofort und automatisch schließen. Dadurch wird verhindert, daß überhaupt Reaktionsprodukte zum Reaktor gelangen können.

Schlußbetrachtung

Es gibt international viel Erfahrung aus einigen hundert Betriebsjahren mit natriumgekühlten schnellen Reaktoren. Allein in den USA ist der BER II über 30 Jahre erfolgreich gelaufen. Man hat in ihm über 100000 Brennelemente getestet und umfangreiche Experimente der Sicherheitssysteme durchgeführt. Mehrfach wurde bei voller Leistung die Wärmesenke einfach abgestellt, um beispielsweise die Richtigkeit der Rechenprogramme zu überprüfen. Die Entwicklung ist seit dem – wenn auch stark reduziert – kontinuierlich weitergeführt worden. Bereits 1994 wurde das eingereichte Konzept von der NRC in einem 400seitigen Abschlussbericht positiv beurteilt. Seit dem, könnte eigentlich ein Kraftwerk als Demonstrationsanlge gebaut werden – wenn der politische Wille vorhanden wäre. Ob auch hier wieder China voranschreiten wird oder kann Europa (GB) noch den Anschluß halten?

Ausblick

Der zweite Teil, wird sich mit der Wiederaufbereitung und der Herstellung der metallischen Brennelemente beschäftigen.

http://www.nukeklaus.de/home/prism-das-moderne-entsorgungszentrum-teil-1/




Solarflugzeug Solar Impulse – Spirit of bullshit

Die tollkühnen Eidgenossen wechseln sich am Steuer des 72 Meter breiten Carbonfaservogels ab. Denn der 2,3 Tonnen schwere, 90 km/h schnelle Ökoflieger verträgt außer einem einzigen Piloten an Bord so gut wie keine Zuladung.

Nachdem Boschberg in China wochenlang auf günstiges Wetter gewartet hatte, brachte er die fliegende Solarkiste via Japan schließlich in Hawaii stolz wie Bolle zur Landung. Da jubelte nicht nur das 30-köpfige Kontrollzentrum in Monaco, von wo aus das etliche Millionen teure Projekt gesteuert wird (Sponsor u.a.: die Luxusmarkengruppe Moet/Hennessy). Es jubelte auch die Pressemeute, als ihr Borschberg den kühnen Satz ins Notizbüchlein diktierte: „Niemand kann jetzt mehr sagen, dass Erneuerbare Energien nicht das Unmögliche vollbringen können.“

Alle Medien berichteten selig, von der dpa bis zu „Spiegel online“, von der „Zeit“ bis zur „Süddeutschen“. Und die Jungs und Deerns von der „taz“ machten sich fast die Büxen nass ob des Projekts. Welches für sie „kein Flugzeug“, sondern „ein Statement“ ist. In dem die Genossen gar das Zeichen für „eine epochale Wende der Menschheit“ zu erkennen wähnten.

Natürlich schielt die Aktion der Schweizer Luftikusse auf Charles Lindbergh, dem 1927 die erste nonstop und allein unternommene Atlantiküberquerung gelang. Lindbergh war ein Luftfahrtpionier in dem Sinne, dass sein Flug im einmotorigen Hochdecker Ryan NYP, getauft auf den Namen „Spirit of St. Louis“, tatsächlich bahnbrechend war. Gut zehn Jahre danach flogen auch Passagiermaschinen über den Atlantik.

Die Schönwetterpiloten in ihrer gesponserten Hobbymühle dagegen bewegen gar nichts, abgesehen von den eigenen Ärschen. Stromerzeugung mittels der erratischen Solartechnik ist schon am Boden weitgehend sinnlos, weil immer konventionelle Kraftwerke im Hintergrund mitlaufen oder bereit gehalten werden müssen. Für richtige Flugzeuge wäre ein Antrieb per Solarkraft ungefähr so effektiv wie ein Eis am Stiel zur Kühlung einer Fischfabrik. Es sei denn, man gäbe jedem Solarliner ein konventionelles Flugzeug mit auf den Weg, das den Sonnenvogel bei Bedarf auf den Haken nimmt.

Und auch für das Nichts-ist-unmöglich-Getröte der Solarlobby eignet sich das Solarmobil schlecht. Dermaßen dämlich, einen teuren Spleen von zwei aufmerksamkeitssüchtigen Geschaftlhubern mit dem Durchbruch der Solarenergie zum Global Player zu verwechseln, sind die meisten Menschen denn doch nicht. Wie die Reaktionen vieler Leser zeigten, die sich über den grotesken Medienhype des jämmerlichen Aeroplans ärgerten. Einer brachte die Kosten-Nutzen-Rechnung auf den Punkt: „Sorry, das Ding kostet schlicht Millionen und kann nichts.“ Ganz ähnlich der Solarenergie als solcher.

Demnächst fliegt die Solar Impulse 2 weiter in Richtung Festland-Amerika. The spirit of bullshit never dies.

Übernommen von ACHGUT hier




Das Erdkabel ist kein Patentrezept

Für die konventionelle Drehstrom-Freileitung sprechen die geringeren Baukosten und die Erfahrungen bei Bau und Betrieb. Außerdem ist sie im Gegensatz zum Gleichstrom-Erdkabel unterwegs mit dem vorhandenen Leitungsnetz verknüpfbar. Das ist für die Netzstabilität ein Wert an sich. Das Gleichstrom-Erdkabel ist wie eine Autobahn ohne Anschlußstellen. Im Netz ist sie ein Fremdkörper. Für die Gleichstrom-Erdverkabelung sprechen lediglich landschaftsästhetische Belange und der Schutz der Vogelwelt.

Technisch-ökonomisch ist es erforderlich, daß man sich für eine von beiden Lösungen konsequent entscheidet. Der abschnittsweise Wechsel zwischen Hochspannungsfreileitung für Drehstrom und Erdverkabelung für Gleichstrom ist sündhaft teuer, da jede Umformung des Stroms etwa 50 bis 100 Mio. € an Investitionsaufwendungen erfordert. Wie weit das den Politkern klar ist, wird sich zeigen.

Die Freileitungsgegner behaupteten, eine Verkabelungstrasse sei kürzer, über dem Kabel könne Landwirtschaft betrieben werden und die Trassenbreite sei geringer.

Die Trassenbreite ist beim Kabel tatsächlich deutlich geringer. Mit der landwirtschaftlichen Nutzung ist das aber so eine Sache. Über oder neben der Leitung muß dauerhaft eine Straße oder ein befestigter Weg unterhalten werden, der den Zugang zum Kabel gewährleistet, um an die Muffen und an die Kabel jederzeit heranzukommen. Wegen dieser Straße, die man auch schon als Baustraße benötigt, kommt die Trassierung über Schluchten und steile Berghänge nicht in Betracht. Man kann nur so trassieren, daß die Leitung an einer befahrbaren Straße liegt. Da ist bei etwas mehr als 10 % Längsgefälle Schluß, weil die Befahrbarkeit auch im Winter gewährleistet sein muß. Ob die Verkabelungstrasse unter diesen Bedingungen kürzer wird ist eine gute Frage: im Gebirge ganz bestimmt nicht. Im Gegenteil wird sie länger. Außerdem werden durch die Straße die Bewirtschaftungseinheiten (Felder) der Bauern zertrennt. Und direkt über der Leitung wird der Bauer mit Abwärme und Verdunstung zu kämpfen haben. Naturschutzrelevante Flächen werden durch Bau und Betrieb einer Stromkabeltrasse gefährdet, alleine auch durch die Abwärme der Leitung im Betrieb. Die Naturschützer werden Umgehungsvarianten fordern, was auch der Gesetzeslage entspricht und weitere Trassenverlängerungen mit sich bringt.

Der Tiefbaupraktiker weiß, daß es Leitungskreuzungen, Kreuzungen mit Straßen, Eisenbahnen, Wegen und Gewässern gibt. Mit Freileitungen ist man da relativ flexibel, weil man alle Hindernisse überspannt. Mit dicken ummantelten Kabeln nicht. Jede Kreuzung erfordert bei Kabeln Dükerungen oder Bohrungen bzw. Umverlegungen von anderen Medien. Größere Medienleitungen sind teuer anzupassen, bzw. der Trassenverlauf ist auf vorhandene Leitungen und Kabel abzustimmen. Das können Erdgasleitungen, Produktenleitungen oder Fernwasserleitungen sein. Den Kreuzungsaufwand für kleine Leitungen und Kabel ist nicht übermäßig groß, doch die Summe machts. In der Lüneburger Heide kommt man mit etwas Glück auf 1 bis 3 Kreuzungen pro Kilometer, in dicht besiedelten Bereichen können es schnell 10 bis 20 werden.

Der Bauaufwand für eine Verkabelung ist hinsichtlich der baubedingten Störungen des Naturhaushalts nicht unbeträchtlich. Der Laie unterschätzt, wie die Baustelle einer Dükerung oder einer Leitungskreuzung aussieht. Die Freileitungstrasse erfordert baubedingt wesentlich geringere Eingriffe. Überhaupt ist die Freileitung deshalb billiger, weil zu ihrer Errichtung deutlich weniger Energie verbraucht wird, Baukosten sind in der letzten Konsequenz Energiekosten.

Für die Gleichstrom-Kabelvariante ergeben sich etwa die sechsfachen Baukosten wie für die Drehstrom-Freileitungsvariante. Wobei die Verkabelung eine Experimentalbauweise ist, für die es kaum belastbare Erfahrungen gibt. Bisher wurden solche Hochspannungs-Gleichstrom-Kabel (HGÜ-Kabel) als Seekabel gebaut. In Berlin gibt es ein Pilotprojekt an Land, welches zu klein ist, um alle Fragen zu beantworten.

Wenn wir mal konservativ annehmen, daß 10 Mrd. € Mehraufwand für die Verkabelung beider Nord-Süd Kabel-Stromtrassen entstehen, so sind das pro Bürger 124 € oder für eine vierköpfige Familie 500 €. Oder für einen sozialversicherungspflichtig Beschäftigten etwa 350 €. Alles für die Abschaltung der Kernkraftwerke.

Andreas Mihm von der FAZ resumiert nach dem Regierungskompromiß heute: „Nur so viel ist gewiss: Die Energiewende wird noch komplexer, noch schwieriger – und noch teurer.“ Jürgen Trittin hatte 2004 in seiner  Zeit als Bundesminister versprochen: “Es bleibt dabei, dass die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis.” 2014 hatte Volker Zastrow von der FDP errechnet, daß die monatliche Kugel Eis für eine vierköpfige Familie 355 € im Jahr kostet, also genau das 30fache der Prognose des Bundesministers. Mit der teuersten Variante des Netzausbaus und dem weiteren Zubau von nachhaltig instabiler Energie werden es wohl bald jedes Jahr die Einrichtungskosten einer Eisdiele werden.

Übernommen von Prabelsblog hier




Neues „Klimaschutz“-Paket der Regierung bürdet Verbrauchern weitere 10 Mrd Kosten auf, Klimawirkung bleibt null

Reuters beschreibt das Kompromisspaket so:

Klimapaket mit Milliarden-Kosten ersetzt Kohle-Abgabe

Berlin (Reuters) – Die große Koalition hat für ihre Klimaziele ein Paket mit Milliardenkosten für Stromverbraucher und Steuerzahler geschnürt.

Das Konzept zur Umsetzung der Energiewende wird um fast zehn Milliarden Euro teurer als die ursprünglich geplante Abgabe für alte Braunkohlekraftwerke, die die Spitzen der Koalition auf Druck der Industrie in der Nacht zum Donnerstag verwarfen. Stattdessen sollen nun umweltfreundliche Kraft-Wärme-Kopplungsanlagen (KWK) gefördert, mehr in Energie-Effizienz investiert und die Kapazität von etwa fünf großen Braunkohlemeilern vom Netz genommen werden. Sie sollen aber als Reserve dienen und weiter von den Stromkunden bezahlt werden. Außerdem verständigten sich Kanzlerin Angela Merkel (CDU), Wirtschaftsminister Sigmar Gabriel (SPD) und CSU-Chef Horst Seehofer auf neue Trassenführungen für Leitungen, die Windstrom nach Süden bringen sollen.

Ziel des Pakets ist es, dass Deutschland sein Klimaziel für 2020 noch erreicht. Es sieht eine CO2-Verringerung von 40 Prozent gegenüber 1990 vor. Die Energiewirtschaft sollte dafür 22 Millionen Tonnen CO2 zusätzlich einsparen. Die ursprünglich geplante Abgabe für alte Braunkohlemeiler traf aber auf Widerstand bei Gewerkschaften sowie der Konzerne RWE und Vattenfall. Deren Aktien legten in Folge der Beschlüsse am Donnerstag an der Börse zu. Die Konzerne lobten das Aus für die Klimaabgabe ebenso wie die Gewerkschaft IG BCE…

Und  DIE WELT meldet: 03.07.15

Koalition schnürt Klimapaket mit Milliardenkosten 

Die große Koalition hat für ihre Klimaziele ein Paket mit Milliardenkosten geschnürt. Das Konzept wird für die Bürger um fast zehn Milliarden Euro teurer als die ursprünglich geplante Klimaabgabe für alte Braunkohlekraftwerke, die die Spitzen der Koalition in der Nacht zum Donnerstag verwarfen. Stattdessen soll die Kraft-Wärme-Kopplung gefördert, mehr in Energieeffizienz investiert und die Kapazität von fünf Braunkohlekraftwerken vom Netz genommen werden. Darüber hinaus verständigten sich Kanzlerin Angela Merkel (CDU), Wirtschaftsminister Sigmar Gabriel (SPD) und CSU-Chef Horst Seehofer auf neue Trassenführungen für Leitungen nach Süddeutschland. Mit dem Paket sollDeutschland sein Klimaziel für 2020 erreichen. Es sieht eine CO2-Verringerung von 40 Prozent gegenüber 1990 vor. Bundesumweltministerin Barbara Hendricks (SPD) ging auf Distanz zu den Beschlüssen des Gipfels. Die Union habe mit ihrer Ablehnung der Kohleabgabe „eine deutlich teurere Alternative erwirkt“, schreibt Hendricks in einem Gastbeitrag für die „Welt“.

Die Konsequenz daraus ist, dass die zuverlässig Strom liefernden konventionellen Kraftwerke weiter herunter- und zusätzlich auf Verschleiß gefahren werden, dafür aber die Verbraucher viele Milliarden zusätzlich aufbringen müssen, um die Investoren an einem sofortigem Ausstieg aus diesem unrentablen Geschäft zu hindern. Sie bekommen Geld fürs Nichtstun. Eine brilliante Idee des Gewerkschaftsführers Michael Vassiliadis von der IGBCE und des SPD NRW Wirtschafts-Ministers Garrett Duin.

Damit wird die Dominanz der Nachhaltig Instabilen Energien (NIE) in der deutschen Stromversorgung weiter erhöht. 

Dem Industriestandort Deutschland wird jetzt endgültig das letzte Stündlein eingeläutet. Denn wie es weitergeht, daran ließ der Wirtschaftsminister Gabriel auf der BDEW Jahrestagung keinen Zweifel. Handelt es sich bei dem jetzigen Paket nur um läppische 20 Mio t CO2 Reduktion, so werden von 2020 bis 2030 sogar 200 Mio t verlangt und bis 2040 sogar 400 Mio t. Die restlichen 400 Mio t sollen dann bis 2050 erbracht werden.

Video der Rede von Bundeswirtschaftsminister Gabriel auf der BDEW Jahrestagugn 2015.

Und so sehen die Fakten der „Energiewende“ aus, wenn man sich nur die hoch gelobte Energieproduktion aus Offshore Windanlagen anschaut , die mit den gerade beschlossenen neuen – überwiegend 3 bis 10 x teuren- Erdleitungen nach Bayern geleitet werden sollen. Um u.a. das soeben abgeschaltete Kerkraftwerk Grafenrheinfeld zu ersetzen.

Bild rechts oben: TenneT Offshore-Einspeisung 2015; Datenquelle: https://transparency.entsoe.eu/generation

zum Vergrößern anklicken.

Das ist der windabhängig eingespeiste Strom (nicht das, was auf den Windkraftanlagen als theoretische Nennleistung draufsteht). Egal, ob man Atomkraftwerke befürwortet oder nicht, hier wird deutlich, dass mit diesem unsteten Zappelstrom noch nicht  einmal eine Energiesparlampe verlässlich zum Leuchten gebracht werden, geschweige denn die zigtausend Haushalte, die ein Windpark angeblich  mit Strom versorgen kann. Und diese Nummer nennt sich „Energiewende“, für die, die  sich die Hose mit der Kneifzange zumachen? Ohne Wärmekraftwerke ist also eine verlässliche und regelnde (siehe die lückige Einspeisung der Grafik mit Nulleinspeisung!) Stromeinspeisung für eine Industrienation gar nicht möglich.

Mit Dank an Wattenrat und Dr. Zielinski für den Fund und Kommentar

Quelle: Dipl.Ing. Wilfried Heck: http://wilfriedheck.de/  , 30.06.2015