Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #28 bis #31

Nun müssen Fernsehsendungen nicht zwangsläufig falsche Zahlen verbreiten, aber in einer Doktorarbeit darf man schon etwas mehr Gründlichkeit erwarten, zumal Hohmeyers gesamte weitere Rechnung zur "Bösartigkeit" der Kernenergie auf dieser Zahl aufbaut. Hier lediglich eine Fernsehsendung zu zitieren hätte seinem Betreuer Rudolf Hickel eigentlich auffallen müssen, aber es lag wohl nicht in seinem Interesse, hier ehrlich zu sein. Auch können 1 Jahr nach dem Vorfall kaum zuverlässige Schätzungen vorgelegen haben. Hinzu kommt, dass diese hypothetische Dosis ja nicht wie bei Hiroshima und Nagasaki in Sekundenbruchteilen, sondern über lange Zeiträume verabreicht worden wäre (s.a. hier).
Jedenfalls wurde diese Zahl nun zur Grundlage für Risikoabschätzungen, Versicherungssummen und "versteckten" Strompreisen. Durch die von der Universität Bremen abgesegnete Doktorarbeit wurde diese freie Erfindung des Fernsehjournalisten Gerhard Bott zur Wissenschaft, und Hohmeyers Arbeit wurde oft zitiert. Die Zahl wanderte in Studien und Bücher, wobei ihr wissenschaftlicher "Wert" dadurch weiter gesteigert wurde, und immer konnte man sich auf die Universität Bremen berufen, statt auf einen Fernsehjournalisten. Der Höhepunkt war offensichtlich eine Studie der Prognos AG im Auftrag des Bundeswirtschaftsministeriums von 1992, die auf der Doktorarbeit aufbaute. Seitdem gilt es in Antiatomkreisen als gesichertes Wissen.
In den "100 guten Gründen" wird diese Studie allein 6 mal zitiert, in weiteren Gründen verwendete Behauptungen leiten sich daraus ab. In den deutschen Bibliotheken wird sie allerdings nicht geführt. Die Datenbanken der Prognos AG reichen bis 1992 zurück, sie müsste also wenigstens dort auffindbar sein, ist sie aber nicht. Offensichtlich war es der Prognos AG zu peinlich, diesen Unsinn weiter verbreiten. Im WWW kursiert eine Kopie, die Echtheit kann allerdings nicht überprüft werden. Glaubt man dem Inhalt, stammen die Zahlen von Hohmeyer, und damit ausschließlich aus der erwähnten Fernsehsendung. Einmal mehr bleibt nur, den Sladeks zu gratulieren, die Methode des wissenschaftlichen "Reinwaschens" verbreitet und damit gefördert zu haben. Lügen zahlt sich eben aus, aber man muss es auch gut machen.
Natürlich sind weitere Übertreibungen davon unbenommen. Aufbauend auf der unauffindbaren Studie der Prognos AG ergibt sich gleich eine Vielzahl an Möglichkeiten, die in den folgenden Gründen ausgeschöpft wird. Da wären die übliche Verwechslung eines Schadensfalls mit einem "Super-GAU", was es erlaubt, die Wahrscheinlichkeiten mal eben mit 100 zu multiplizieren (#29) und aufbauend auf den nochmals weiter hochgerechneten Hohmeyerzahlen exorbitante Versicherungssummen (#28), noch gewürzt mit der dreisten Lüge, die Haftung sei grundsätzlich gedeckelt. Aber es gibt auch wieder einen Favoriten, nämlich Grund #30, in welchem den deutschen Kernkraftwerken unterstellt wird, Wasserstoffexplosionen seien im internationalen Vergleich "besonders wahrscheinlich". Sehr originell. Und natürlich genügt ein Unwetter (#31), und wir müssen schon wieder betroffen zusehen, wie Ursula und Michael Sladeks Teil eines Weltuntergangs werden. Es will einfach nicht aufhören.
Nun zu den Antworten #28 bis #31, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013 und 26.4.2013.

#28: Versicherungsschutz

Behauptung: 50 Autos sind zusammen besser versichert als ein Atomkraftwerk.

Die EWS behaupten

Ein Super-GAU in einem Atomkraftwerk in Deutschland verursacht Gesundheits-, Sach- und Vermögensschäden in Höhe von 2.500 bis 5.500 Milliarden Euro. Das hat die Prognos AG 1992 in einem Gutachten für das FDP-geführte Bundeswirtschaftsministerium errechnet.
Die Haftpflichtversicherung aller Atomkraftwerksbetreiber zusammen deckt ganze 2,5 Milliarden Euro ab – also 0,1 Prozent des zu erwartenden Schadens. 50 Autos auf dem Parkplatz eines Atomkraftwerks sind zusammengenommen besser versichert als das Atomkraftwerk selbst!
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Behauptung ist falsch, denn die Haftung ist grundsätzlich unbeschränkt und erstreckt sich sogar auf das Ausland (§31 und §25 AtG). Eine vergleichbare Haftung ist für Autos undenkbar. Nur in Fällen höherer Gewalt, Unruhen, Kriegen u.ä. ist die Haftung auf 2,5 Mrd. Euro beschränkt (§25 Absatz 3). Und dies auch nicht für „alle Atomkraftwerksbetreiber zusammen” sondern für jede Anlage einzeln.
Es ist weiterhin falsch, dass die Prognos AG selbst ein „Gutachten” erstellt hat. Dort werden lediglich Behauptungen aus der 1988 angefertigten Doktorarbeit des Volkswirten Olav Hohmeyer kopiert. Das „Gutachten” ist im Zentralregister der deutschen Bibliotheken nicht verzeichnet und im Archiv der Prognos AG nicht auffindbar. Hohmeyers Doktorarbeit hingegen schon, aber dort muss man mit Schrecken feststellen, dass dieser seine Basisdaten aus einer 1987 ausgestrahlten Fernsehsendung des NDR bezogen hat. Daten aus Fernsehsendungen sind in Ingenieurs- und Naturwissenschaften alles andere als wissenschaftlicher Standard.
Quellen von KRITIKALITÄT


#29: Super-GAU

Behauptung: Der Super-GAU kann jeden Tag passieren.

Die EWS behaupten

Die ›Deutsche Risikostudie Kernkraftwerke Phase B‹ von 1989 beziffert das Risiko eines Super-GAUs aufgrund technischen Versagens in einem westdeutschen Atomkraftwerk mit 0,003 Prozent pro Jahr. Das klingt wenig. Aber allein in der EU gibt es (Stand Ende 2007) 146 Atomkraftwerke. Bei einer Betriebszeit von 40 Jahren käme es hier demnach mit einer Wahrscheinlichkeit von über 16 Prozent zu einem Super-GAU. Viele mögliche Störfallszenarien und gefährliche Altersmängel in den Reaktoren sind dabei gar nicht berücksichtigt – genauso wenig wie alle Unfälle, die, wie Harrisburg und Tschernobyl, unter anderem durch menschliches Versagen passieren.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die angeführte Studie schätzt das Eintreten sogenannter Schadensfälle ab, der Begriff „Super-GAU” ist eine Erfindung der Antiatombewegung. Ein Schadensfall muss noch lange nicht zu einer Kernschmelze führen, eine Kernschmelze noch lange nicht zur Freisetzung größerer Mengen Radioaktivität, und freigesetzte Radioaktivität noch lange nicht zu gesundheitlichen Folgen. Die absolute Wahrscheinlichkeit, soviel Radioaktivität wie in Fukushima oder mehr freizusetzen, ist nach der ›Deutschen Risikostudie Kernkraftwerke Phase B‹ nochmal etwa um einen Faktor 100 geringer.
Der Vergleich der Unfälle Tschernobyl und Harrisburg wäre etwa so, als vergleiche man für die Insassensicherheit den Aufprallschutz eines Trabants mit einem Panzer. In Harrisburg kam es zur Kernschmelze, die Störungen wurden erst Stunden später bemerkt, der Aufwand der Gegenmaßnahmen hielt sich in Grenzen. Trotzdem kam kein Mensch zu Schaden, bereits nach 2 Wochen zog dort wieder der Alltag ein. In Fukushima schmolzen gleich 3 Kerne infolge eines sehr schweren Naturereignisses, das 20 000 Tote forderte, wobei bereits damals bekannt war, dass die Notstromdiesel gegen Hochwasser schlecht gesichert und keine Filter vorhanden waren. Es werden auch hier keine Strahlenopfer zu beklagen sein.
Dies zeigt, dass bereits die wassermoderierten Reaktoren extrem verzeihend auf Planungs- und Bedienfehler reagieren, die passiven Barrieren wirkten, wie vorgesehen. Die deutschen Reaktoren sind passiv mindestens so gut ausgerüstet wie Harrisburg. Es sind zukünftige Reaktoren baubar, bei denen eine Kernschmelze bzw. das Austreten nennenswerter Mengen von Radioaktivität bei intakten Strukturen nicht möglich ist.
Quellen von KRITIKALITÄT


#30: Sicherheitsranking

Behauptung: Deutsche Atomkraftwerke sind sogar im internationalen Vergleich unsicher.

Die EWS behaupten

Deutsche Atomkraftwerke gehören »zu den sichersten der Welt«? Von wegen! Bei einem internationalen Sicherheitsvergleich der OECD im Jahr 1997 schnitt das bundesdeutsche Referenz-Atomkraftwerk (Biblis B) hinsichtlich der Kernschmelz-Festigkeit am schlechtesten ab. Wasserstoffexplosionen seien besonders wahrscheinlich, der Sicherheitsbehälter aus Stahl besonders instabil, urteilten die Gutachter: In Biblis sei »die Gefahr extrem hoch, dass es bei einer Kernschmelze zu massiven Freisetzungen von Radioaktivität kommt«.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es empfiehlt sich, die OECD-Studie auch zu lesen. Dort steht nämlich, dass es beim Kernkraftwerk Biblis B statistisch seltener als alle 100 Millionen Jahre zur Freisetzung von Radioaktivität kommt. Es ist damit das mit Abstand sicherste unter allen untersuchten 19 Kernkraftwerken. Aus Angst vor Radioaktivität wurde es nun endgültig abgeschaltet. Sehr konsequent.
Auch dass Wasserstoffexplosionen in Biblis B besonders wahrscheinlich sind wurde der OECD-Studie falsch entnommen. Dort wird vielmehr darauf hingewiesen, dass Biblis B als eines unter wenigen Kernkraftwerken passive Wasserstoff-Rekombinatoren und Frühzünder einsetzt. Das schließt gefährliche Wasserstoffexplosionen praktisch aus. Somit ist auch der Sicherheitsbehälter nicht „instabil”, sondern lediglich für etwas geringere Drücke ausgelegt – denn große Wasserstoffexplosionen können nun nicht mehr auftreten. Außerdem befindet sich im Betrieb überhaupt kein Sauerstoff im Sicherheitsbehälter, der für Wasserstoffexplosionen nötig wäre.
Das Zitat, in Biblis B sei »die Gefahr extrem hoch, dass es bei einer Kernschmelze zu massiven Freisetzungen von Radioaktivität kommt« stammt auch nicht von den OECD-Gutachtern, sondern von selbsternannten „Fachleuten” des IPPNW. Denen kann man, wie gesagt, nur empfehlen: Erst lesen, dann darüber schreiben.
Quellen von KRITIKALITÄT


#31: Unwetter

Behauptung: Schon ein Gewitter kann das Aus bedeuten.

Die EWS behaupten

Ein Stromausfall im Atomkraftwerk, der sogenannte Notstromfall, gehört zu den gefährlichsten Situationen in einem Reaktor. Ohne intakte Notstromversorgung fällt dann die Kühlung aus, es droht die Kernschmelze. Als Auslöser genügt oft schon ein simples Unwetter. Achtmal zwischen 1977 und 2004 führten Blitz oder Sturm in einem westdeutschen Atomkraftwerk zum Ausfall wichtiger Instrumente, zum gefürchteten Notstromfall oder gar, wie am 13. Januar 1977 im Atomkraftwerk Gundremmingen A, zum Totalschaden. Gefahren drohen auch durch Überschwemmungen: Im französischen Atomkraftwerk Blayais an der Atlantikküste fallen deswegen regelmäßig Teile der Kühlsysteme aus.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auslöser des Unglücks in Gundremmingen A 1977 war kein Unwetter am Reaktor, sondern ein Ausfall der externen Hochspannungsleitungen, wodurch der Strom nicht mehr abtransportiert werden konnte und eine Drosselung der Leistung notwendig wurde. Hier kam es zu Fehlschaltungen, die in einer kontrollierten Flutung des Reaktorgebäudes mit Primärkühlwasser endeten. Zu der Schadensbeseitigung, die überschaubar gewesen wäre (das Wasser wurde abgepumpt, Dekontamination wäre denkbar gewesen), kamen durch Behördenauflagen noch weitere 180 Millionen DM an Kosten dazu. Da zwei weitere Reaktorblöcke bereits im Bau waren, hat man Block A stillgelegt.
Diesen 35 Jahre zurückliegenden Vorfall am ersten deutschen Leistungsreaktor als repräsentativ darzustellen ist so, als zöge man wegen Haarrissen an einer De Havilland Comet die Sicherheit moderner Linienmaschinen in Zweifel. In allen Fällen zeigt sich die Wirkung redundanter Sicherheitssysteme. So in Blaylais, wo trotz hochwassergefluteten Kühlsystems und gewittergeschädigter Hochspannungsleitungen die Schnellabschaltung samt Notkühlung funktionierten – wie bei der Auslegung geplant.
Wer jeden Instrumentenausfall als „kurz vor dem Super-GAU” darstellt weiss es offenbar besser als internationale Fachgremien, Einrichtungen zur Reaktorsicherheitsforschung mit jahrzehntelanger Erfahrung und weltweit vernetzte Atomaufsichtsbehörden. Die ordnen fast allen derartigen Vorfällen nämlich nur geringe oder keine Relevanz zu.
Quellen von KRITIKALITÄT





Schellnhubers Brüsseler Märchenstunde

Update: FDP blockiert Klima-Experten Schellnhuber vom PIK und Schneidewind vom Wuppertalinstitut!

Die SZ schreibt empört: 

Was seinen Rang in der Klimaforschung angeht, ist der Begriff "Koryphäe" für Hans-Joachim Schellnhuber ganz gewiss nicht zu hoch gegriffen. Seit 1992 ist er Direktor des Potsdam-Instituts für Klimafolgenforschung, das er selbst gegründet hatte. Er ist national und international x-fach ausgezeichnet, unter anderem von der Queen, er spricht zu und mit Potentaten in aller Welt. Zuletzt berief ihn EU-Kommissionspräsident José Manuel Barroso in einen neuen Wissenschaftler-Beirat. Nur aus Deutschland bekommt der Physiker, einst oberster Klimaberater der Bundeskanzlerin, neuerdings Gegenwind. Genauer gesagt: aus dem Bundeswirtschaftsministerium….Das Haus von Minister Philipp Rösler (FDP) stemmt sich gerade mit aller Kraft gegen eine neue Berufung Schellnhubers an die Spitze des "Wissenschaftlichen Beirats globale Umweltveränderungen", kurz WBGU….Nicht nur die Berufung Schellnhubers, auch die des Ökonomen Uwe Schneidewind stößt dem Vernehmen nach auf Vorbehalte. Er leitet das Wuppertal-Institut, einen weiteren Klima-Thinktank. Nach SZ-Informationen schlägt das Ministerium als Alternativen für Schellnhuber und Schneidewind zwei Wirtschaftswissenschaftler vor: den Kölner Professor Axel Ockenfels und den Magdeburger Umweltökonomen Joachim Weimann….

Weiterlesen hier
Mit Dank an Spürnase Michael Schneider.

Von der Stakeholders-Konferenz am 17. 4. 13 in Brüssel

Von P. Gosselin, 27. April 2013
Es sieht so aus, also der Artikel, den ich über Prof. Schellnhuber vor ein paar Tagen geschrieben habe, einen Kommentar von Dr. Hans Labohm (ehem. Fachgutachter für das IPCC) ausgelöst hat:
Führender niederländischer Blog/Wirtschaftswissenschaftler ohrfeigt Schellnhuber: “Völlig abgehoben von der Realität … Alice im Wunderland”!
Der Kommentar erschien auch im De Dagelijkse Standaard mit dem Titel: Hans Joachim Schellnhuber: Het is nog erger dan we dachten.’  (Es ist noch schlimmer als wir dachten)
Die Konferenz war für den 17. 4. von Klimakommissarin Hedegaard nach Brüssel einberufen worden. Schellnhuber hielt die Eröffnungsrede. Die Video-Aufzeichnung steht im Netz, ist aber nur abspielbar, wenn man die im rechten Bild angebotene Darstellungsprogramm heruntergeladen und installiert hat.

Stakeholders Conference on the 2015 Agreement, Shaping International Climate Policy Beyond 2020.

Labohm verfasste folgenden Kommentar.

Schon der Untertitel unter dem großen Foto von Schellnhuber verweist auf das, was zu erwarten ist: “Völlig von der Realität abgehoben“.
Labohm nennt den IPCC Prozeß  “gespenstisch” und die Stakeholer-Konferenz

"Teil eines Klima-Rituals, das nun schon seit Jahrzehnten von einer gackernden Schar von Leuten vorangequält wird, die “ihren Lebensunterhalt damit verdienen, dass sie die Klima-Hype aufrechterhalten.”

Schellnhubers Rede war gekennzeichnet von ”Rosinenpickerei”, “Verdrehungen” und “Angstmacherei”:

„Da wurde sie wieder angestimmt, die altbekannte Propagandamelodie – die alles andere ist als Wissenschaft.”

Schellnhuber musste notgedrungen eingestehen, dass die Klimaerwärmung noch weitere zehn Jahre auf sich warten lassen könnte; das Altbekannte, was wir stets von den Untergangspropheten hören. "Immer, wenn deren Vorhersagen nicht eintreffen, verschieben sie sie einfach in die Zukunft. Und am liebsten so weit, dass sie niemals zur Rechenschaft gezogen werden können.”
Labohm meint, dass Schellnhuber die Öffentlichkeit hinters Licht führt, wenn er behauptet, dass ein globaler Konsens unter den Fachleuten bestünde. Das ist überhaupt nicht so: "… da viele prominente Warmisten schon das sinkende Schiff verlassen haben. Von einer Anzahl internationaler Qualitätsmedien wurde es bemerkt.”
Schellnhubers Behauptung, dass der Einfluß des CO2 auf das Klima eine anerkannte wissenschaftliche Erkenntnis wäre, ist ebenfalls eine Illusion.  Das Maß der Auswirkung von CO2 auf das Klima wird immer stärker diskutiert. Laut Labohm ignoriert Prof. Schellnhuber:

“… Studien, die zu dem Ergebnis kommen, dass die Sensitivität unbedeutend sei (d. h. die Erwärmungswirkung, die von einer Verdoppelung der CO2-Konzentration in der Atmosphäre ausgehen soll).”

Labohm zeigt auf, dass Schellnhubers Erklärung für den Stopp der Erwärmung (angeblich würde die Wärme in den tieferen Schichten der Meere gespeichert) völlig mit Unbekannten durchtränkt ist, und dass dies nur bedeutet, dass das IPCC nun zugeben muss, dass natürliche Mechanismen in der Tat eine große Rolle spielen und zu Abkühlung führen können, und dass mit ihnen auch frühere Warmperioden erklärt werden können. Die Modellierer müssen also noch einmal anfangen – und wirklich von ganz vorne.
An einem anderen Beispiel demonstriert Labohm, dass Professor Schellnhuber entweder täuscht oder von der Realität abgekoppelt ist:  die Sache mit dem "Marcott Hockey–Stick". Er schreibt dazu:

„Auch ignoriert er (Schellnhuber) die Tatsache, dass nach dessen Veröffentlichung der Autor [Marcott] explizit und öffentlich zugeben musste, dass die Daten für das 20. Jahrhundert nicht gesichert waren.”

“Alice im Wunderland” nennt Labohm Schellnhubers düstere Szenarien der Zukunft, wie die 8°C Erwärmung, die abschmelzenden Pol-Eiskappen, usw.
Vehement weist der Wirtschaftswissenschaftler Labohm Schellnhubers Behauptung zurück, dass die Durchführung einer Klima-Politik mit dem 2°C-Ziel das globale Bruttosozialprodukt nur ein Prozent kosten würde. Labohm verweist darauf, dass der “Stern-Bericht” zu dem gleichen Schluss gekommen wäre, aber nachher von “Umwelt-Ökonomen wie Richard Tol auseinander genommen worden ist“. Labohm:

“Ich wäre erstaunt, wenn die Widerlegung des Artikels/Berichts nicht schon nach ein paar Tagen käme. Die Argumentation ist einfach. Es gibt eine starke Korrelation zwischen dem Energieverbrauch (vorwiegend fossil) und Wirtschaftswachstum.”

Wen wundert es noch, dass Deutschland und Japan kürzlich den Bau neuer, moderner Kohlekraftwerke ankündigten. Alles andere wäre unbezahlbar.
Zum Schluss schreibt Labohm seinen Lesern, dass “die Zeit für Schellnhuber und Genossen abgelaufen sei”, und er zitiert James Delingpole:

Die EU ist das globale Laboratorium für das Ausprobieren der Grünen Politik und für den Nachweis, dass es funktioniert. Heute ist Tatsache, dass das Versuchskaninchen verschieden ist; Das wichtigste Stück der Grünen Einmischung in die Weltgeschichte ist zu einem teuren und beschämenden Flopp geworden. Man kann die Auswirkung auf die Umweltaktivisten in aller Welt kaum überschätzen: Wenn die EU die Grüne Politik nicht zum Laufen bringen kann, ist es sehr unwahrscheinlich, dass irgend jemand sonst woanders dies versuchen wird.

===================================
Und hier folgt P. Gosselins Kommentar, den er unmittelbar nach der Betrachtung des Videos von Schellnhubers Vortrag schrieb:
Schellnhuber verschiebt die Erwärmung um eine weitere Dekade! Jetzt erst im Jahre 2200 um +8°C wärmer!
P. Gosselin, 24. April 2013
Professor Hans-Joachim Schellnhuber hat vergangene Woche auf der Stakeholders Conference zur 2015er Vereinbarung gesprochen.
Man kann seine Rede hier betrachten 2:30 – 37:00 Marke.
[Anm. d. Ü.: leider ist das Video nicht von Jedermann zugreif- und anschaubar].
Er machte überraschende Aussagen.
Er beginnt mit der Behauptung, dass Pressemeldungen über die Nicht-Existenz eines “Konsensus” falsch seien und nur der Verbreitung von Unsicherheit dienten. Weiter behauptet er, dass es keinen Streit darüber gäbe, ob CO2 Wärme speichere.
Damit aber lenkt er vom eigentlichen Problem ab: der CO2-Sensitivität und der Rückkoppelung.
Ja, CO2 ist ein Treibhausgas. Die Frage ist nur, wieviel Erwärmung wird von einer Verdoppelung des CO2 resultieren? Nicht viel, oder eine ganze Menge?
Darüber wird heiß diskutiert. Eine ganze Anzahl von fachbegutachteten Studien und Daten zeigen, dass die Erwärmung tatsächlich nur geringfügig sein wird.
Um das Klimawandel-Katastrophen-Szenario am Leben zu halten, pickt sich Schellnhuber in seiner Rede nur die Literatur heraus, die für eine massive Erwärmung spricht. Andere Papiere ignoriert er, die nur eine deutlich verminderte Sensitivität erkennen und auf natürliche Faktoren verweisen.
Er gibt zu, dass die Erwärmung aufgehört hat. Es läge am Meer.
An der 10-Minuten-Marke glaubt Schellnhuber, er könnte sich auf das völlig diskreditierte Marcott-Papier berufen, um die AGW-Theorie zu unterstützen! Dem unwissenden Auditorium wird damit ein Aha-Effekt präsentiert.
Man muss sich fragen, ob Schellnhuber sein Auditorium böswillig hinters Licht führt, oder ob er völlig abgehoben von der Realität ist und nicht merkt, dass das Marcott-Papier nichts taugt?
An der 11:25 Marke gibt er zu, dass die Erwärmung aufgehört hat. Er nennt es “Verlangsamung”. Die Pause sei verursacht von verborgenen planetarischen Mechanismen, die die Wärme wegfangen und verbergen würden. Er sagt, die Erwärmung existiere – wenn man über die Abkühlung hinwegsähe!
An der 12:30 Marke führt Schellnhuber weiter aus, dass die Erwärmung tatsächlich “nicht wirklich aufgehört hätte, sie hätte sich nur verlangsamt“. Dafür seien La Ninas aus den 2000ern ursächlich, die die Wärme aufgesogen hätten. “Da geht etwas im Meer vor sich. […] Wir kennen alle Mechanismen noch nicht.”
Das Meer hat die „schreckliche“ Hitze „aufgefressen“
, erklärt er.
Das könnte ja wirklich bedeuten, dass Schellnhuber zum ersten Mal die Rolle des Meeres zugibt. Wenn er die Ozeane dafür heranzieht, dass sie die Wärme aufsaugen würden und die Erde während der letzten 10 Jahre abkühlten, dann muss er auch zugeben, dass sie Wärme freigeben können und eine Erwärmung verursachen können, wie im Zeitraum von 1975 – 2000, als die AMO und die PDO-Indizes anstiegen. Man kann die Ozeane nicht nur zur Erklärung heranziehen, wenn es abkühlt, und dann das CO2, wenn es wärmer wird. Es wird Zeit für Schellnhuber, ozeanische Zyklen in die Modelle einzubauen.
Dann meint er, dass wir ein weiteres Jahrzehnt Abkühlung erleben könnten. Deutlich wird das an der 16:40er Marke:

"Wir könnten eine weitere Dekade mit verlangsamter Erwärmung erleben.”

Professor Schellnhuber! Weitere 10 Jahre würden ein Vierteljahrhundert ohne Erwärmung bedeuten!
Kein einziges Modell hat das vorhergesagt. Deshalb sind die Modelle Müll, auf die Sie sich berufen mit Ihren Katastrophen-Szenarios. Das kauft Ihnen niemand mehr draußen im Lande ab.

Falls es eine Debatte gäbe, würde Schellnhuber nicht einmal die ersten 10 Minuten überstehen.
Dann nimmt er sich den Economist vor: An der 17:45 Marke greift Schellnhuber die Zeitung an, weil man es dort gewagt hätte, die alarmistische Wissenschaft in Frage zu stellen.
Der Video-Betrachter achte darauf, wie der auf seine Notizen schaut, und damit zeigt, dass er genau das vorhatte.

"Übrigens, es hat eine Menge Gerede gegeben … der beste und führende Klimatologe, der im Redaktionsstab des Economist sitzt … das ist ein Scherz, Sie dürfen lachen … ha, ha, … hat doch tatsächlich gesagt, dass die Klimasensitivität geringer ist, als wir meinen.“

Wie kann es der unqualifizierte Economist wagen, die Autorität von Wissenschaftlern in Frage zu stellen!!
Zum Schluss, etwa bei der 20-Minuten Marke, kommt er zu den zukünftigen Katastrophen-Szenarien, die uns bevorstünden. Er zeigt ein Bild mit der +8°C Erwärmung für das Jahr 2200.

Das bedeutet natürlich, dass “die globalen Institutionen destabilisiert und zum Einsturz gebracht werden“. Man sieht, “schreckliche Mengen von Hitze werden von der irdischen Machinerie erzeugt werden und sie werden sich rächen (nach unserem Tode)!

Was für eine Verhohnepiepelung!
Menschenwürde oder Tod … 9 Milliarden Menschen sind zu viel
Bei der 8:30er Marke zeigt er eine Grafik , die das Klima während der letzten 100.000 Jahre darstellt. Dabei erwähnt er, dass das natürliche Klima oft sehr instabil ist, und dass die letzten 10.000 Jahre eine “Gnadenzeit” für die Menschheit gewesen wären.

Und dann stellt er den Zuhörern die schreckliche Frage:

"Können wir erwarten, dass ein derart wild schwankendes Klima ein menschenwürdiges Leben von 9 Milliarden unterstützen würde? Ich glaube das nicht.”

Was er damit meint, möge der Interpretation überlassen bleiben. Aber erinnern wir uns daran, dass er einst sagte, dass die optimale Bevölkerungszahl für die Erde etwa bei einer Milliarde läge, und dass “bei 9 Milliarden die Erde explodieren würde.”
=====================
Titel des Schellnhuber-Vortrags: The Scope of the Challenge: Latest Scientific Insights
Prof. Schellnhuber (Potsdam Institute)
Verweis auf die Nachricht hier.
Verweis auf die Veröffentlichung der EU:
Following the European Commission’s strategy and action plan for a sustainable European Bioeconomy, the Directorate-General for Research and Innovation is pleased to invite you to a series of events taking place in 2012 and 2013 in both in Brussels and in some of the Member States : http://eubioeconomy.teamwork.fr/
===========================
Übersetzung und Bearbeitung: Helmut Jäger, EIKE




Der Dual Fluid Reaktor – ein neues Konzept für einen Kernreaktor

Das IFK ist ein unabhängiges Forschungsinstitut, das momentan weder private noch öffentliche Unterstützung erhält. Die Mitglieder des IFK engagieren sich aus Leidenschaft unentgeltlich für das DFR-Projekt. Der Dual Fluid Reaktor (und hier) wird vom IFK nicht als Forschungsprojekt verstanden, denn er lässt sich mit heute verfügbaren Techniken bauen. Im Gegensatz zu allen anderen neuen Reaktorkonzepten insbesondere der Generation IV liegt für den DFR auch eine wirtschaftliche Abschätzung vor. Es ergeben sich Overnight-Herstellungskosten von weniger als 0,6 cent/kWh für Strom sowie 20-40 cent pro Liter benzinäquivalenten Kraftstoffs. Der Umstellungsaufwand heutiger Fahrzeuge wäre mit dem auf Autogas vergleichbar.
Der folgende Beitrag ist eine Beschreibung des Konzepts durch das IFK. Weitere Informationen finden Sie auf der DFR-Einstiegsseite dual-fluid-reaktor.de (seit heute mit weiteren Details aktualisiert) sowie auf der DFR-Seite des IFK (mit mehr englischsprachigen Fachinformationen). Hilfreich sind auch Diskussionen in Foren, z.B. im englischsprachigen energyfromthorium.com, auf dem deutschsprachigen Blog Skeptical Science, sowie in der ebenfalls deutschsprachigen Patentschrift.

Beschreibung des Dual Fluid Reaktors

Institut für Festkörper-Kernphysik, Berlin
Schon in den 1960er Jahren lief am Oak Ridge National Laboratory das „Molten Salt Reactor (MSR) Experiment”, MSRE. Es wurde erfolgreich abgeschlossen, musste aber der Entwicklung von metallgekühlten Reaktoren weichen. Letztere wurden zwar dann in den USA auch nicht umgesetzt, aber die Entwicklung von Flüssigsalzreaktoren kam dadurch zum Erliegen. In letzter Zeit ist das MSRE-Konzept wiederentdeckt worden, wie z.B. im WAMSR von Transatomic Power, und im MSR-Konzept der Generation IV, allerdings sind hier bis auf den Übergang zu Schnellspaltreaktoren keine grundsätzlich neuen Entwicklungen zu verzeichnen. Dies gilt auch für das beschleunigergetriebene System GEM*STAR der amerikanischen ADNA Corporation.
Beim MSRE wurde das Hauptaugenmerk auf einen flüssigen homogenen Reaktorkern gelegt, ohne dass die dadurch entstehenden Nachteile Beachtung fanden. Das Flüssigsalz sollte gleichzeitig die Wärme abführen. Dies sah zunächst nach einer Vereinfachung aus, führte aber zur weitgehenden Aufhebung der Vorteile von Flüssigsalzen, welche nun extrem schnell zirkulieren mussten, um die Nutzwärme abführen zu können. Und damit nicht genug, der eigentliche Brennstoff musste extrem verdünnt werden, um nicht zu viel Wärme zu produzieren. Durch die schnelle Zirkulation konnte das Flüssigsalz nicht bei laufendem Reaktor aufgearbeitet werden. Außerdem war durch die Verdünnung die Aufarbeitung sehr aufwendig und die Leistungsdichte stark beschränkt, was den Konstruktionsaufwand erheblich vergrößerte und die energetische und damit wirtschaftliche Effizienz stark reduzierte. Dies hat sich in den neueren MSR-Konzepten grundsätzlich nicht verbessert.
Im Konzept des Dual Fluid Reaktors, DFR, wird dieses Manko nun korrigiert, indem die beiden Funktionen Brennstoff und Wärmeabfuhr getrennt werden. Auch wenn dies zunächst ein Verkomplizieren darstellt, ergeben sich daraus erhebliche Vereinfachungen an anderen Stellen sowie Synergien, die zu einer enormen Effizienzsteigerung führen. Durch den Wegfall der Doppelfunktion des Salzes konnten wir uns bei der Entwicklung des DFR-Konzepts ganz auf die Ausnutzung der Vorteile einer Online-Aufbereitung eines unverdünnten Brennstoffflüssigkeit einerseits sowie einer effektiven Wärmeabfuhr andererseits konzentrieren. Für letzteres eignen sich besonders Flüssigmetalle.
Die Verwendung von salzförmigen Spaltmaterialien als Brennstoff ist übrigens nicht zentraler Bestandteil des DFR-Patents, entscheidend ist vielmehr, dass im Reaktorkern allgemein zwei Flüssigkeiten laufen, wovon eine den Brennstoff bereitstellt und die andere die Nutzwärme abführt (Kühlmittel). Insofern ist der DFR nicht automatisch ein Flüssigsalzreaktor, im Gegenteil, eine Brennstoffzufuhr in Form von Flüssigmetallen würde die Effizienz nochmals erheblich steigern und an die Grenze des Potentials der Kernspaltung führen.
Bei der Spaltung eines Atomkerns wird 100 Millionen mal so viel Energie freigesetzt wie bei der Verbrennung eines Kohlenstoffatoms. In Anbetracht dieses Verhältnisses ist es erschreckend, dass heutige Nukleartechnik nur 3-4 mal so effektiv Strom erzeugt wie Kohle- und Gaskraftwerke. Natürlich ist für die Nutzung eines Energieträgers mit derartig hoher Dichte auch ein höherer Aufwand erforderlich, auch ist der Förderaufwand von Uran und Thorium größer als der von Kohle, Gas und Öl. Die eigentliche Ursache dieses extremen Missverhältnisses liegt jedoch im militärischen Ursprung der Kerntechnik, der zu mehreren Fehlentwicklungen geführt hat, allem voran die Verwendung fester Brennelemente. Für das Militär steht eben die Wirtschaftlichkeit nicht im Vordergrund, sondern die Effektivität im Kriegseinsatz.
Als erster Entwicklungsschritt des DFR, insbesondere in Hinsicht auf die Online-Aufbereitung, ist die Verwendung von Flüssigsalzen jedoch zunächst die bevorzugte Variante. Dadurch vereinfacht sich der Entwicklungsafwand, und ein kommerzielles Kraftwerk kann früher realisiert werden.
Zur Wärmeabfuhr eignet sich Blei besonders gut. Es wird kaum durch den hohen Neutronenfluss aktiviert und kann ohne Zwischenkreislauf direkt in den konventionellen Teil geleitet werden, wo sich der Wärmetauscher befindet. Die Arbeitstemperatur beträgt 1000 °C, was eine effektive Stromproduktion ermöglicht. Bei diesen Temperaturen öffnet sich auch die gesamte Kette der Prozesschemie, da nun die wettbewerbsfähige Produktion von Wasserstoff möglich wird. Damit können auch sehr kostengünstig synthetische Kraftstoffe als Benzinersatz hergestellt werden.
Die Aufbereitung findet im Containment des Reaktors im automatischen Betrieb statt. Bevorzugt sind hier Methoden der fraktionierten Destillation und Rektifikation, wie sie in der Großindustrie täglich zum Einsatz kommen. Für das Flüssigsalz des DFRs genügt allerdings eine Kleinanlage, die „Pyrochemical Processing Unit”, PPU, die direkt in den Kreislauf des Flüssigsalzes mit dem Reaktorkern verbunden ist. Dort erfolgt die Auftrennung nach Siedepunkten, was sehr hoher Temperaturen (bis zu 2000 °C) bedarf, wobei die Restzerfallswärme der hochradioaktiven Spaltprodukte hierbei sogar unterstützend wirkt.
Materialien, die den Bedingungen im Reaktorkern (Blei, Salz, 1000 °C, Neutronenfluss) standhalten können, sind seit Jahrzehnten bekannt. Dazu gehören insbesondere Legierungen aus der erweiterten Gruppe der Refraktärmetalle. Diese überaus widerstandsfähigen Legierungen konnten in der Vergangenheit nicht hinreichend verarbeitet werden, mittlerweile ist die Fertigungstechnik jedoch so weit vorangeschritten, dass derartige Legierungen in allen Bereichen der Industrie immer mehr Anwendungen finden. Als weitere Option kommen neue Keramiken als Beschichtungen oder in Form neuartiger faserverstärkter Komposit-Werkstücke hinzu. Mikrokristalline Schäden durch den hohen Neutronenfluss sowie thermischer Stress werden bei der hohen Temperatur automatisch ausgeheilt (Ausglüheffekt). In der PPU gibt es sogar noch weniger Einschränkungen, da Neutronenversprödung und Wärmeleitung hier keine Rolle mehr spielen.

Gute Neutronenökonomie und ihre Folgen

Im DFR behalten die Neutronen wegen der vielen massereichen Atomkerne (Aktinide und Blei) ihre hohe Energie. Blei selbst absorbiert ohnehin wenig Neutronen, und die Neutronenverluste in den Strukturmaterialien sind bei diesen Energien sehr gering. Auf der anderen Seite werden durch die schnellen Neutronen aber besonders viele davon nachgebildet, nämlich durchschnittlich 3 oder mehr pro Spaltvorgang. Bei fast allen Reaktoren ist das weniger, bei Leichtwasserreaktoren deutlich weniger. Diese Neutronen werden nun unterschiedlich "verbraucht".
Eines der 3 Neutronen wird gebraucht, um die nukleare Kettenreaktion aufrecht zu erhalten, ein weiteres, um den eigenen Spaltstoff nachzubrüten. Da die Verluste gering sind (weniger als 0,5 Neutronen durch unerwünschte Einfänge), bleiben noch mindestens 0,5 Neutronen pro Spaltung für andere Anwendungen übrig, mehr als bei allen anderen Reaktoren. Mit diesem hohen Überschuss kann man nun in erheblich kürzeren Zeiträumen als bei anderen "schnellen Brütern" z.B. Plutonium (hier nicht waffenfähig) erbrüten und damit zügig die nächste Generation von Reaktoren installieren. Auch der Thorium-Uran-Prozess mit seiner kernphysikalisch bedingt niedrigeren Neutronenausbeute ist aufgrund der sehr guten Neutronenökonomie des DFR im Vergleich zu anderen Schnellspaltreaktoren besonders gut handhabbar. Alternativ können auch sehr effektiv problematische langlebige Spaltprodukte z.B. aus heutigen Reaktoren transmutiert und damit abgebaut werden. Sehr effizient ist aber auch die Bildung erwünschter Radioisotope, etwa für die Medizin. Die PPU erfüllt hier eine wichtige Aufgabe, die ständige chemische Trennung von Stoffen untereinander und vom Brennstoff, was auch die Minimierung von "Neutronenfängern", sogenannten Neutronengiften und damit auch die Neutronenverluste reduziert.
Letzteres ist übrigens auch für die Leistungsregelung des DFR sehr günstig. Durch den permanent immer sehr "sauberen" Reaktorkern muss man keine überschüssigen Spaltstoffe einbringen, die über ein kompliziertes Regelsystem (Steuerstäbe) während ihres Abbrandes ausgeglichen werden müssten, wie etwa in heute gängigen Leichtwasserreaktoren. Dies begünstigt auch einen sogenannten "unterkritischen" Betrieb, bei dem fehlende Neutronen durch ein Beschleunigersystem nachgeliefert werden ("Accelerator Driven Subcritical System", ADS). Je näher man sich stabil der Kritikalität nähern kann, desto kleiner darf der Beschleuniger sein. Beim DFR könnte der Beschleuniger nun auf eine Länge von wenigen Metern reduziert werden, im Vergleich z.B. mit dem belgischen ADS-Projekt "MYRRHA", welches einen mehrere 100 Meter langen Beschleuniger benötigt.
Zudem reagiert ein flüssiger Reaktorkern auf eine Temperaturerhöhung sehr schnell mit Ausdehnungen, genauso auch das Blei, was diesen außen umgibt. Die Abstände der Atomkerne werden bei Temperaturerhöhung größer, wodurch gleich zwei Wahrscheinlichkeiten sinken, zum einen dass ein Neutron im Flüssigsalz eine Spaltung induziert, zum anderen dass es am Blei reflektiert wird. Somit fällt die Leistung mit einer Temperaturzunahme sehr schnell ab. Dieser negative "Temperaturkoeffizient" ist durch das Dual-Fluid-Prinzip so stark ausgeprägt, dass bereits innerhalb eines Temperaturanstiegs von wenigen 10 Kelvin die Leistung eingestellt werden kann. Die Spaltrate folgt somit zügig der Leistungsentnahme, welche wiederum durch die Geschwindigkeit der Bleizirkulation eingestellt werden kann. Da dieser Mechanismus ohne technisches Eingreifen aufgrund physikalischer Gesetze immer funktioniert, kann der Reaktor auch nicht durch einen unkontrollierten Leistungsanstieg "durchgehen" – er ist in diesem Punkt inhärent sicher.

Fazit

Der DFR ist in der Lage, die Effizienz der Kernenergie um mindestens eine Größenordnung zu steigern und damit die fossilen Kraftwerke um zwei Größenordnungen zu übertreffen. Dies schafft die notwendige Voraussetzung für die Steigerung des Wohlstandsniveaus um den gleichen Faktor. Nur wenn die Kernenergie der Gesellschaft einen offensichtlichen Vorteil bietet, kann sie sich durchsetzen. Dass sie das bisher nicht oder zu wenig bietet, ist der eigentliche Grund des schleppenden Ausbaus seit den 70er Jahren.

Abbildungen

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Erntefaktor-DFR.png
Bild 1: Erntefaktor verschiedener Energietechniken (siehe Publikation hier) im Vergleich mit dem Dual Fluid Reaktor
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/DFR-Kern.png
Bild 2: DFR-Reaktorkern
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/DFR-Kraftwerk.png
Bild 3: Kraftwerk um den Dual Fluid Reaktor




Erinnerung:1. Bürgerschutz-Tag am 12.5.13 in Nürnberg

„Es geht an diesem Tage um den Schutz des fleißigen, anständigen, vor allen aber zahlenden Bürgers“, erklärt Norbert Deul, Organisator der Veranstaltung. „Wer informiert den Bürger ohne Eigeninteressen? Der Staat, Politiker, Konzerne, Banken, Handwerker, Immobilienverwalter? Können wir da heute noch sicher sein?“ fragt dazu Norbert Deul
Ein Beispiel von vielen, warum solch ein Tag wichtig ist und notwendig ist:
So heißt es von oben und allen bestens vernetzten selbsternannten „Klimaschützern”:
Weil eine sogenannte Globaltemperatur explodiert, müssten die Bürger die angeblich menschgemachte Klimaveränderung mit Billionen Euro stoppen.
Aber die Durchschnittstemperatur steigt nicht. Und wie hoch soll sie eigentlich sein? Laut Bundesdrucksache 12/2400 vom 31.3.1992 sind es 15,5 Grad, im Weltklimabericht von  2007 nur 14,5 Grad. Doch was wird behauptet und geschrieben? Es gibt einen bedrohlichen Temperaturanstieg! Höchstens 2 Grad dürfte dieser sein. Und dafür sollen wir alle sparen, sparen und nochmals sparen. Wir als deutsche Bürger könnten das Weltklima beeinflussen, heißt es.

Das ist nicht die einzige Unwahrheit auf unsere Kosten.

Müssen wir denn unsere Häuser immer weiter abdichten und dämmen, trotz Schimmel und ungenügendem Spareffekt? 862 Milliarden € sollen dafür ausgegeben werden, um damit 372 Milliarden an Energiekosten sparen zu können, so besagt es die Prognos-Studie der KfW-Bank. Müssen wir immer höhere Stromkosten zahlen – eine Billion € soll es an zusätzlichen Kosten werden? Das sind 25.000 € für jeden Haushalt im Durchschnitt.
Und müssen wir die Schulden von EU-Ländern übernehmen, die über ihre Verhältnisse gelebt haben? Ist das alles wirklich alternativlos, wie es immer behauptet wird?

NEIN! heißt es am “1. Bürgerschutz-Tag” am 12. Mai in Nürnberg!

Und deshalb sind Sie als betroffener Bürger herzlich eingeladen, um zu diskutieren, in welche Richtung es gehen soll. Bürgerinitiativen, Verbraucherschützer und Fachleute klären Sie in Nürnberg auf.
Nur gemeinsam sind wir stark.
Welche Themen werden am 1. Bürgerschutz-Tag behandelt, welche Referenten kommen und mit wem können Sie diskutieren?
Das gesamte Programm mit allen Details hier:
Auszüge daraus:

Teil 1 – Die Folgen der Energiewende und verkraftbare Strompreis

Dr. phys. Jürgen Langeheine, München:
„Energiewende De-Industrialisierung Deutschlands?“
Bettina Marowke:
„Windkraft – Auswirkungen auf Mensch und Umwelt“

Teil 2 – Sinnvoller und verträglicher Umweltschutz

Dr. Wolfgang Thüne, Dipl.-Metereologe, Oppenheim:
„Warum der Klimawandel nicht angehalten werden kann“
Dipl.-Ing. Michael Limburg, Potsdam:
„Energiewende und Klimaschutz – passt das zusammen?“

Teil 3 – Preisgünstiges, energiesparendes und gesundes Bauen und Sanieren

Dipl.-Ing. Architekt Konrad Fischer, Hochstadt:
„Wie man sich vom Behördenzwang befreit und Altbauten kostengünstig saniert!“
Rechtsanwalt Wolfgang Haegele, Pegnitz
„Möglichkeit zum Schadensersatz gegen unseriöse Energieberater“

Teil 4 – Bezahlbares Wohnung und Mieten

Norbert Deul, Pommelsbrunn
„Werden die Wohnnebenkosten, Immobilienpreise und Mieten unerschwinglich für Normalbürger?“

Teil 5 – Schutz vor der EU-Schuldenspirale, bürokratischen EU-Diktat und Unrecht

Beatrix von Storch, Berlin:
„Die Euro-Krise in Zahlen – und was jetzt zu tun ist“
Prof. Dr. jur. Norbert  Geng, München:
„Enteignen und entmündigen – in den Klauen von Staat und Politik“
Horst Trieflinger, Frankfurt:
Ist die Bundesrepublik Deutschland noch ein Rechtsstaat?

Was ist noch wichtig:

Alle Eintrittkarten nehmen an einer Tombola teil. Und die Mütter – es ist schließlich Muttertag – erhalten vom Veranstalter und Organisator Norbert Deul ein kleines Begrüßungspräsent. Alle teilnehmenden Verbraucherschutzvereine und Aktionsgruppen stehen den Besuchern für Auskünfte zur Verfügung und halten Infomaterial bereit. 
* Änderungen vorbehalten

Das sollte allen Bürgern in Erinnerung bleiben, was der Premierminister Jean-Claude Juncker seinen Kollegen zur EU-Demokratie erklärte (Spiegel 52/1999):

„Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter –Schritt für Schritt.“ bis es kein Zurück mehr gibt.“




Die unendliche Geschichte vom Hockey-Schtick

Solare Aktivität and Klima

Hiroko Miyahara, The University of Tokyo

Professor Miyamara und sein Team legen in ihrer Präsentation dar, dass sowohl die solare geomagnetische Aktivität als auch deren Polarität deutliche Effekte auf die Kosmische Strahlung und die Wolkenbildung haben. Die Polarität der solaren geomagnetischen Aktivität kehrt sich in einem 22-jährigen Zyklus um, wobei Perioden negativer Polarität [wie z. B. im derzeitigen solaren Zyklus] einen größeren Effekt auf die kosmische Strahlung und Wolkenbildung haben.
Die Autoren haben eine bemerkenswerte Korrelation zwischen den solaren Rotationssignalen, der Wolkenhöhe und der Madden-Julian Oszillation gefunden. Das könnte einen weiteren Mechanismus darstellen, durch welchen kleine Veränderungen in der solaren Aktivität zu Verstärkern von großen Veränderungen beim Klima werden könnten. Weitere Verstärkungsmechanismen finden sich auch in Meeres-Oszillationen, im Ozon und dem Verhältnis von Sonnenscheinstunden zu Bewölkung.
Hier kann man die Präsentation
undefinedherunterladen

Solare Aktivität and Klima

Hiroko Miyahara, The University of Tokyo

Abstract:

1. Einleitung.
Gemessene oder rekonstruierte Klima-Veränderungen aus der Vergangenheit zeigen oft eine positive Korrelation mit der solaren Aktivität auf Skalen mit langen Zeiträumen – von monatlich (Takahashi et al., 2010) bis tausenjährig (Bond et al., 2001). Die Mechanismen dieser Zusammenhänge sind noch nicht aufgeklärt. Mögliche solar-bezogene Parameter die einen Klimawandel antreiben können sind: Gesamt-Sonneneinstrahlung (TSI), solare UV-Strahlung (UV), Sonnenwind (SW) und galaktische kosmische Strahlungen (GCRs).
Die galaktischen kosmischen Strahlungen werden vom sich ändernden solar-magnetischen Feld in der Heliosphäre abgeschwächt, in jener Region, wo sich der Wind von solarem Plasma und die Magnetfelder ausdehnen. Der beobachtete Fluss von GCRs zeigt eine inverse Korrelation zur solaren Aktivität. Man weiß, dass aus einer Veränderung im  kosmischen Strahlungsflux eine Veränderung in der Ionisationsrate in der Atmosphäre resultiert. Wir vermuten, dass dies die Änderung in der Bewölkung verursachen könnte.
2. Änderung der Galaktischen Kosmischen Strahlung im Maunder Minimum.
Es ist schwierig, den exakten Anteil eines jeden der oben erwähnten solaren Parameter zu bemessen. Die Schwierigkeit liegt darin, dass die meisten von ihnen während des Zeitraums der Instrumentalmessungen mehr oder weniger synchronisiert verliefen. Aber die Veränderungen der solaren Strahlung und der GCRs hätte durchaus anders sein können während des Maunder Minimums (AD1645-1715). Das Maunder Minimum ist eine etwa 70-jährige Periode des Fehlens von Sonnenflecken.
Seit Beginn des 18. Jh. hat die Sonne periodische Veränderung mit einer  ~11-Jahres-Periode gezeigt. Als aber die Sonnenflecken fast verschwunden waren, hatte der ~11-Jahres-Zyklus im Maunder Minimum aufgehört. Das bedeutet, dass die solare Aktivität außergewöhnlich schwach war und dass die Umgebung der Heliosphäre anders war als heute. Wir haben erkannt, dass die Veränderung der GCRs während jenes Zeitraums ganz eigenartig war.
Die Veränderung der GCRs wurde entdeckt durch die Messungen der von der kosmischen Strahlung induzierten Verhältnisse in Baumringen und Eiskernen von Radio-Isotopen, wie z. B. Karbon-14 und Beryllium-10. Der Gehalt an Radio-Isotopen zeigt, dass der solare Zyklus andauerte während des langanhaltenden Fehlens von Sonnenflecken, aber mit einer ~14-Jahresperiode.
Es zeigte sich auch, dass der 22-jährige Zyklus – der Zyklus der periodischen Umkehrung des solaren bipolaren Magnetfeldes – auch weiterbestand, aber mit einer ~28-jährigen Periode, und er veränderte sich auch noch während jenes Zeitraums. Die Polarität der Sonne kippt auf den Maxima der solaren Zyklen und stellt so eine ~22-jährige Periode dar.
Ein ~22- jähriger Zyklus zeigt sich nicht in den Veränderungen der solaren Strahlung; er zeigt sich aber in den Veränderungen der GCRs, die hauptsächlich aus veränderten Partikeln bestehen. Die Veränderungen in der Umgebung der Heliosphäre haben vermutlich zu einer Ausdehnung des 22-jährigen Zyklus der GCRs geführt.
3. Veränderung des Klimas und die Beziehung zur kosmischen Strahlung.
Wir haben entdeckt, dass die rekonstruierten Klimadaten einzigartige Veränderungen aufweisen, ganz ähnlich denen bei den GCRs während des Maunder Minimums. So sind z. B. die Temperaturen auf der Nordhalbkugel deutlich abhängig von der Richtung des solaren dipolaren Magnetfeldes. In Phasen negativer Polarität des dipolaren Magnetfeldes, wenn die GCRs eine Zunahme-Anomalie zeigen, haben wir kälteres Klima. Die Abhängigkeit des Klimawandels vom solaren dipolaren Magnetfeld führt zur Herausbildung eines 22-jährigen Zyklusses beim Klimawandel.
Die Ursache von dekadischen bis hin zu multi-dekadischen Klima-Veränderungen ist bislang noch nicht aufgeklärt, aber unsere Studienergebnisse zeigen in die Richtung, dass für diese Zeiträume die GCRs eine wichtige Rolle beim Klimawandel spielen könnten.
Zusammenfassung.
Weitere detaillierte Studien sind nötig, um die Mechanismen des Einflusses der Sonne auf den Klimawandel zu klären; unsere Studie verweist auch darauf, dass nicht nur die Sonnenstrahlung, sondern auch die magnetischen Eigenheiten eine wichtige Rolle beim Klimawandel spielen durch die Veränderungen im Fluss der GCRs. In zukünftigen Studien sollte geklärt werden, wie die Mechanismen der kosmischen Strahlung die Bewölkungseigenschaften verändern.
Referenzen
G. Bond et al., Persistent Solar Influence on North Atlantic Klima During the Holocene, Science, 7, 294, 2130, 2001.
H. Miyahara, Y. Yokoyama & K. Masuda, Possible link between multi-decadal Klima Zykluss and periodic reversals of solar magnetisch field Polarität, Earth Planet. Sci. Lett., 272, 290-295, 2008.
Y. Takahashi, Y. Okazaki, M. Sato, H. Miyahara, K. Sakanoi, and P. K. Hong, 27-day Veränderung in Wolken amount and relationship to the solar Zyklus, Atmos. Chem. Phys., 10, 1577-1584, 2010.
Weitere Artikel zum Thema
It’s the Sun stupid – The minor significance of CO2 (wattsupwiththat.com)
Current solar Zyklus data seems to be past the peak (wattsupwiththat.com)