Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #28 bis #31

Nun müssen Fernsehsendungen nicht zwangsläufig falsche Zahlen verbreiten, aber in einer Doktorarbeit darf man schon etwas mehr Gründlichkeit erwarten, zumal Hohmeyers gesamte weitere Rechnung zur "Bösartigkeit" der Kernenergie auf dieser Zahl aufbaut. Hier lediglich eine Fernsehsendung zu zitieren hätte seinem Betreuer Rudolf Hickel eigentlich auffallen müssen, aber es lag wohl nicht in seinem Interesse, hier ehrlich zu sein. Auch können 1 Jahr nach dem Vorfall kaum zuverlässige Schätzungen vorgelegen haben. Hinzu kommt, dass diese hypothetische Dosis ja nicht wie bei Hiroshima und Nagasaki in Sekundenbruchteilen, sondern über lange Zeiträume verabreicht worden wäre (s.a. hier).
Jedenfalls wurde diese Zahl nun zur Grundlage für Risikoabschätzungen, Versicherungssummen und "versteckten" Strompreisen. Durch die von der Universität Bremen abgesegnete Doktorarbeit wurde diese freie Erfindung des Fernsehjournalisten Gerhard Bott zur Wissenschaft, und Hohmeyers Arbeit wurde oft zitiert. Die Zahl wanderte in Studien und Bücher, wobei ihr wissenschaftlicher "Wert" dadurch weiter gesteigert wurde, und immer konnte man sich auf die Universität Bremen berufen, statt auf einen Fernsehjournalisten. Der Höhepunkt war offensichtlich eine Studie der Prognos AG im Auftrag des Bundeswirtschaftsministeriums von 1992, die auf der Doktorarbeit aufbaute. Seitdem gilt es in Antiatomkreisen als gesichertes Wissen.
In den "100 guten Gründen" wird diese Studie allein 6 mal zitiert, in weiteren Gründen verwendete Behauptungen leiten sich daraus ab. In den deutschen Bibliotheken wird sie allerdings nicht geführt. Die Datenbanken der Prognos AG reichen bis 1992 zurück, sie müsste also wenigstens dort auffindbar sein, ist sie aber nicht. Offensichtlich war es der Prognos AG zu peinlich, diesen Unsinn weiter verbreiten. Im WWW kursiert eine Kopie, die Echtheit kann allerdings nicht überprüft werden. Glaubt man dem Inhalt, stammen die Zahlen von Hohmeyer, und damit ausschließlich aus der erwähnten Fernsehsendung. Einmal mehr bleibt nur, den Sladeks zu gratulieren, die Methode des wissenschaftlichen "Reinwaschens" verbreitet und damit gefördert zu haben. Lügen zahlt sich eben aus, aber man muss es auch gut machen.
Natürlich sind weitere Übertreibungen davon unbenommen. Aufbauend auf der unauffindbaren Studie der Prognos AG ergibt sich gleich eine Vielzahl an Möglichkeiten, die in den folgenden Gründen ausgeschöpft wird. Da wären die übliche Verwechslung eines Schadensfalls mit einem "Super-GAU", was es erlaubt, die Wahrscheinlichkeiten mal eben mit 100 zu multiplizieren (#29) und aufbauend auf den nochmals weiter hochgerechneten Hohmeyerzahlen exorbitante Versicherungssummen (#28), noch gewürzt mit der dreisten Lüge, die Haftung sei grundsätzlich gedeckelt. Aber es gibt auch wieder einen Favoriten, nämlich Grund #30, in welchem den deutschen Kernkraftwerken unterstellt wird, Wasserstoffexplosionen seien im internationalen Vergleich "besonders wahrscheinlich". Sehr originell. Und natürlich genügt ein Unwetter (#31), und wir müssen schon wieder betroffen zusehen, wie Ursula und Michael Sladeks Teil eines Weltuntergangs werden. Es will einfach nicht aufhören.
Nun zu den Antworten #28 bis #31, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013 und 26.4.2013.

#28: Versicherungsschutz

Behauptung: 50 Autos sind zusammen besser versichert als ein Atomkraftwerk.

Die EWS behaupten

Ein Super-GAU in einem Atomkraftwerk in Deutschland verursacht Gesundheits-, Sach- und Vermögensschäden in Höhe von 2.500 bis 5.500 Milliarden Euro. Das hat die Prognos AG 1992 in einem Gutachten für das FDP-geführte Bundeswirtschaftsministerium errechnet.
Die Haftpflichtversicherung aller Atomkraftwerksbetreiber zusammen deckt ganze 2,5 Milliarden Euro ab – also 0,1 Prozent des zu erwartenden Schadens. 50 Autos auf dem Parkplatz eines Atomkraftwerks sind zusammengenommen besser versichert als das Atomkraftwerk selbst!
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Behauptung ist falsch, denn die Haftung ist grundsätzlich unbeschränkt und erstreckt sich sogar auf das Ausland (§31 und §25 AtG). Eine vergleichbare Haftung ist für Autos undenkbar. Nur in Fällen höherer Gewalt, Unruhen, Kriegen u.ä. ist die Haftung auf 2,5 Mrd. Euro beschränkt (§25 Absatz 3). Und dies auch nicht für „alle Atomkraftwerksbetreiber zusammen” sondern für jede Anlage einzeln.
Es ist weiterhin falsch, dass die Prognos AG selbst ein „Gutachten” erstellt hat. Dort werden lediglich Behauptungen aus der 1988 angefertigten Doktorarbeit des Volkswirten Olav Hohmeyer kopiert. Das „Gutachten” ist im Zentralregister der deutschen Bibliotheken nicht verzeichnet und im Archiv der Prognos AG nicht auffindbar. Hohmeyers Doktorarbeit hingegen schon, aber dort muss man mit Schrecken feststellen, dass dieser seine Basisdaten aus einer 1987 ausgestrahlten Fernsehsendung des NDR bezogen hat. Daten aus Fernsehsendungen sind in Ingenieurs- und Naturwissenschaften alles andere als wissenschaftlicher Standard.
Quellen von KRITIKALITÄT


#29: Super-GAU

Behauptung: Der Super-GAU kann jeden Tag passieren.

Die EWS behaupten

Die ›Deutsche Risikostudie Kernkraftwerke Phase B‹ von 1989 beziffert das Risiko eines Super-GAUs aufgrund technischen Versagens in einem westdeutschen Atomkraftwerk mit 0,003 Prozent pro Jahr. Das klingt wenig. Aber allein in der EU gibt es (Stand Ende 2007) 146 Atomkraftwerke. Bei einer Betriebszeit von 40 Jahren käme es hier demnach mit einer Wahrscheinlichkeit von über 16 Prozent zu einem Super-GAU. Viele mögliche Störfallszenarien und gefährliche Altersmängel in den Reaktoren sind dabei gar nicht berücksichtigt – genauso wenig wie alle Unfälle, die, wie Harrisburg und Tschernobyl, unter anderem durch menschliches Versagen passieren.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die angeführte Studie schätzt das Eintreten sogenannter Schadensfälle ab, der Begriff „Super-GAU” ist eine Erfindung der Antiatombewegung. Ein Schadensfall muss noch lange nicht zu einer Kernschmelze führen, eine Kernschmelze noch lange nicht zur Freisetzung größerer Mengen Radioaktivität, und freigesetzte Radioaktivität noch lange nicht zu gesundheitlichen Folgen. Die absolute Wahrscheinlichkeit, soviel Radioaktivität wie in Fukushima oder mehr freizusetzen, ist nach der ›Deutschen Risikostudie Kernkraftwerke Phase B‹ nochmal etwa um einen Faktor 100 geringer.
Der Vergleich der Unfälle Tschernobyl und Harrisburg wäre etwa so, als vergleiche man für die Insassensicherheit den Aufprallschutz eines Trabants mit einem Panzer. In Harrisburg kam es zur Kernschmelze, die Störungen wurden erst Stunden später bemerkt, der Aufwand der Gegenmaßnahmen hielt sich in Grenzen. Trotzdem kam kein Mensch zu Schaden, bereits nach 2 Wochen zog dort wieder der Alltag ein. In Fukushima schmolzen gleich 3 Kerne infolge eines sehr schweren Naturereignisses, das 20 000 Tote forderte, wobei bereits damals bekannt war, dass die Notstromdiesel gegen Hochwasser schlecht gesichert und keine Filter vorhanden waren. Es werden auch hier keine Strahlenopfer zu beklagen sein.
Dies zeigt, dass bereits die wassermoderierten Reaktoren extrem verzeihend auf Planungs- und Bedienfehler reagieren, die passiven Barrieren wirkten, wie vorgesehen. Die deutschen Reaktoren sind passiv mindestens so gut ausgerüstet wie Harrisburg. Es sind zukünftige Reaktoren baubar, bei denen eine Kernschmelze bzw. das Austreten nennenswerter Mengen von Radioaktivität bei intakten Strukturen nicht möglich ist.
Quellen von KRITIKALITÄT


#30: Sicherheitsranking

Behauptung: Deutsche Atomkraftwerke sind sogar im internationalen Vergleich unsicher.

Die EWS behaupten

Deutsche Atomkraftwerke gehören »zu den sichersten der Welt«? Von wegen! Bei einem internationalen Sicherheitsvergleich der OECD im Jahr 1997 schnitt das bundesdeutsche Referenz-Atomkraftwerk (Biblis B) hinsichtlich der Kernschmelz-Festigkeit am schlechtesten ab. Wasserstoffexplosionen seien besonders wahrscheinlich, der Sicherheitsbehälter aus Stahl besonders instabil, urteilten die Gutachter: In Biblis sei »die Gefahr extrem hoch, dass es bei einer Kernschmelze zu massiven Freisetzungen von Radioaktivität kommt«.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es empfiehlt sich, die OECD-Studie auch zu lesen. Dort steht nämlich, dass es beim Kernkraftwerk Biblis B statistisch seltener als alle 100 Millionen Jahre zur Freisetzung von Radioaktivität kommt. Es ist damit das mit Abstand sicherste unter allen untersuchten 19 Kernkraftwerken. Aus Angst vor Radioaktivität wurde es nun endgültig abgeschaltet. Sehr konsequent.
Auch dass Wasserstoffexplosionen in Biblis B besonders wahrscheinlich sind wurde der OECD-Studie falsch entnommen. Dort wird vielmehr darauf hingewiesen, dass Biblis B als eines unter wenigen Kernkraftwerken passive Wasserstoff-Rekombinatoren und Frühzünder einsetzt. Das schließt gefährliche Wasserstoffexplosionen praktisch aus. Somit ist auch der Sicherheitsbehälter nicht „instabil”, sondern lediglich für etwas geringere Drücke ausgelegt – denn große Wasserstoffexplosionen können nun nicht mehr auftreten. Außerdem befindet sich im Betrieb überhaupt kein Sauerstoff im Sicherheitsbehälter, der für Wasserstoffexplosionen nötig wäre.
Das Zitat, in Biblis B sei »die Gefahr extrem hoch, dass es bei einer Kernschmelze zu massiven Freisetzungen von Radioaktivität kommt« stammt auch nicht von den OECD-Gutachtern, sondern von selbsternannten „Fachleuten” des IPPNW. Denen kann man, wie gesagt, nur empfehlen: Erst lesen, dann darüber schreiben.
Quellen von KRITIKALITÄT


#31: Unwetter

Behauptung: Schon ein Gewitter kann das Aus bedeuten.

Die EWS behaupten

Ein Stromausfall im Atomkraftwerk, der sogenannte Notstromfall, gehört zu den gefährlichsten Situationen in einem Reaktor. Ohne intakte Notstromversorgung fällt dann die Kühlung aus, es droht die Kernschmelze. Als Auslöser genügt oft schon ein simples Unwetter. Achtmal zwischen 1977 und 2004 führten Blitz oder Sturm in einem westdeutschen Atomkraftwerk zum Ausfall wichtiger Instrumente, zum gefürchteten Notstromfall oder gar, wie am 13. Januar 1977 im Atomkraftwerk Gundremmingen A, zum Totalschaden. Gefahren drohen auch durch Überschwemmungen: Im französischen Atomkraftwerk Blayais an der Atlantikküste fallen deswegen regelmäßig Teile der Kühlsysteme aus.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auslöser des Unglücks in Gundremmingen A 1977 war kein Unwetter am Reaktor, sondern ein Ausfall der externen Hochspannungsleitungen, wodurch der Strom nicht mehr abtransportiert werden konnte und eine Drosselung der Leistung notwendig wurde. Hier kam es zu Fehlschaltungen, die in einer kontrollierten Flutung des Reaktorgebäudes mit Primärkühlwasser endeten. Zu der Schadensbeseitigung, die überschaubar gewesen wäre (das Wasser wurde abgepumpt, Dekontamination wäre denkbar gewesen), kamen durch Behördenauflagen noch weitere 180 Millionen DM an Kosten dazu. Da zwei weitere Reaktorblöcke bereits im Bau waren, hat man Block A stillgelegt.
Diesen 35 Jahre zurückliegenden Vorfall am ersten deutschen Leistungsreaktor als repräsentativ darzustellen ist so, als zöge man wegen Haarrissen an einer De Havilland Comet die Sicherheit moderner Linienmaschinen in Zweifel. In allen Fällen zeigt sich die Wirkung redundanter Sicherheitssysteme. So in Blaylais, wo trotz hochwassergefluteten Kühlsystems und gewittergeschädigter Hochspannungsleitungen die Schnellabschaltung samt Notkühlung funktionierten – wie bei der Auslegung geplant.
Wer jeden Instrumentenausfall als „kurz vor dem Super-GAU” darstellt weiss es offenbar besser als internationale Fachgremien, Einrichtungen zur Reaktorsicherheitsforschung mit jahrzehntelanger Erfahrung und weltweit vernetzte Atomaufsichtsbehörden. Die ordnen fast allen derartigen Vorfällen nämlich nur geringe oder keine Relevanz zu.
Quellen von KRITIKALITÄT





Der Dual Fluid Reaktor – ein neues Konzept für einen Kernreaktor

Das IFK ist ein unabhängiges Forschungsinstitut, das momentan weder private noch öffentliche Unterstützung erhält. Die Mitglieder des IFK engagieren sich aus Leidenschaft unentgeltlich für das DFR-Projekt. Der Dual Fluid Reaktor (und hier) wird vom IFK nicht als Forschungsprojekt verstanden, denn er lässt sich mit heute verfügbaren Techniken bauen. Im Gegensatz zu allen anderen neuen Reaktorkonzepten insbesondere der Generation IV liegt für den DFR auch eine wirtschaftliche Abschätzung vor. Es ergeben sich Overnight-Herstellungskosten von weniger als 0,6 cent/kWh für Strom sowie 20-40 cent pro Liter benzinäquivalenten Kraftstoffs. Der Umstellungsaufwand heutiger Fahrzeuge wäre mit dem auf Autogas vergleichbar.
Der folgende Beitrag ist eine Beschreibung des Konzepts durch das IFK. Weitere Informationen finden Sie auf der DFR-Einstiegsseite dual-fluid-reaktor.de (seit heute mit weiteren Details aktualisiert) sowie auf der DFR-Seite des IFK (mit mehr englischsprachigen Fachinformationen). Hilfreich sind auch Diskussionen in Foren, z.B. im englischsprachigen energyfromthorium.com, auf dem deutschsprachigen Blog Skeptical Science, sowie in der ebenfalls deutschsprachigen Patentschrift.

Beschreibung des Dual Fluid Reaktors

Institut für Festkörper-Kernphysik, Berlin
Schon in den 1960er Jahren lief am Oak Ridge National Laboratory das „Molten Salt Reactor (MSR) Experiment”, MSRE. Es wurde erfolgreich abgeschlossen, musste aber der Entwicklung von metallgekühlten Reaktoren weichen. Letztere wurden zwar dann in den USA auch nicht umgesetzt, aber die Entwicklung von Flüssigsalzreaktoren kam dadurch zum Erliegen. In letzter Zeit ist das MSRE-Konzept wiederentdeckt worden, wie z.B. im WAMSR von Transatomic Power, und im MSR-Konzept der Generation IV, allerdings sind hier bis auf den Übergang zu Schnellspaltreaktoren keine grundsätzlich neuen Entwicklungen zu verzeichnen. Dies gilt auch für das beschleunigergetriebene System GEM*STAR der amerikanischen ADNA Corporation.
Beim MSRE wurde das Hauptaugenmerk auf einen flüssigen homogenen Reaktorkern gelegt, ohne dass die dadurch entstehenden Nachteile Beachtung fanden. Das Flüssigsalz sollte gleichzeitig die Wärme abführen. Dies sah zunächst nach einer Vereinfachung aus, führte aber zur weitgehenden Aufhebung der Vorteile von Flüssigsalzen, welche nun extrem schnell zirkulieren mussten, um die Nutzwärme abführen zu können. Und damit nicht genug, der eigentliche Brennstoff musste extrem verdünnt werden, um nicht zu viel Wärme zu produzieren. Durch die schnelle Zirkulation konnte das Flüssigsalz nicht bei laufendem Reaktor aufgearbeitet werden. Außerdem war durch die Verdünnung die Aufarbeitung sehr aufwendig und die Leistungsdichte stark beschränkt, was den Konstruktionsaufwand erheblich vergrößerte und die energetische und damit wirtschaftliche Effizienz stark reduzierte. Dies hat sich in den neueren MSR-Konzepten grundsätzlich nicht verbessert.
Im Konzept des Dual Fluid Reaktors, DFR, wird dieses Manko nun korrigiert, indem die beiden Funktionen Brennstoff und Wärmeabfuhr getrennt werden. Auch wenn dies zunächst ein Verkomplizieren darstellt, ergeben sich daraus erhebliche Vereinfachungen an anderen Stellen sowie Synergien, die zu einer enormen Effizienzsteigerung führen. Durch den Wegfall der Doppelfunktion des Salzes konnten wir uns bei der Entwicklung des DFR-Konzepts ganz auf die Ausnutzung der Vorteile einer Online-Aufbereitung eines unverdünnten Brennstoffflüssigkeit einerseits sowie einer effektiven Wärmeabfuhr andererseits konzentrieren. Für letzteres eignen sich besonders Flüssigmetalle.
Die Verwendung von salzförmigen Spaltmaterialien als Brennstoff ist übrigens nicht zentraler Bestandteil des DFR-Patents, entscheidend ist vielmehr, dass im Reaktorkern allgemein zwei Flüssigkeiten laufen, wovon eine den Brennstoff bereitstellt und die andere die Nutzwärme abführt (Kühlmittel). Insofern ist der DFR nicht automatisch ein Flüssigsalzreaktor, im Gegenteil, eine Brennstoffzufuhr in Form von Flüssigmetallen würde die Effizienz nochmals erheblich steigern und an die Grenze des Potentials der Kernspaltung führen.
Bei der Spaltung eines Atomkerns wird 100 Millionen mal so viel Energie freigesetzt wie bei der Verbrennung eines Kohlenstoffatoms. In Anbetracht dieses Verhältnisses ist es erschreckend, dass heutige Nukleartechnik nur 3-4 mal so effektiv Strom erzeugt wie Kohle- und Gaskraftwerke. Natürlich ist für die Nutzung eines Energieträgers mit derartig hoher Dichte auch ein höherer Aufwand erforderlich, auch ist der Förderaufwand von Uran und Thorium größer als der von Kohle, Gas und Öl. Die eigentliche Ursache dieses extremen Missverhältnisses liegt jedoch im militärischen Ursprung der Kerntechnik, der zu mehreren Fehlentwicklungen geführt hat, allem voran die Verwendung fester Brennelemente. Für das Militär steht eben die Wirtschaftlichkeit nicht im Vordergrund, sondern die Effektivität im Kriegseinsatz.
Als erster Entwicklungsschritt des DFR, insbesondere in Hinsicht auf die Online-Aufbereitung, ist die Verwendung von Flüssigsalzen jedoch zunächst die bevorzugte Variante. Dadurch vereinfacht sich der Entwicklungsafwand, und ein kommerzielles Kraftwerk kann früher realisiert werden.
Zur Wärmeabfuhr eignet sich Blei besonders gut. Es wird kaum durch den hohen Neutronenfluss aktiviert und kann ohne Zwischenkreislauf direkt in den konventionellen Teil geleitet werden, wo sich der Wärmetauscher befindet. Die Arbeitstemperatur beträgt 1000 °C, was eine effektive Stromproduktion ermöglicht. Bei diesen Temperaturen öffnet sich auch die gesamte Kette der Prozesschemie, da nun die wettbewerbsfähige Produktion von Wasserstoff möglich wird. Damit können auch sehr kostengünstig synthetische Kraftstoffe als Benzinersatz hergestellt werden.
Die Aufbereitung findet im Containment des Reaktors im automatischen Betrieb statt. Bevorzugt sind hier Methoden der fraktionierten Destillation und Rektifikation, wie sie in der Großindustrie täglich zum Einsatz kommen. Für das Flüssigsalz des DFRs genügt allerdings eine Kleinanlage, die „Pyrochemical Processing Unit”, PPU, die direkt in den Kreislauf des Flüssigsalzes mit dem Reaktorkern verbunden ist. Dort erfolgt die Auftrennung nach Siedepunkten, was sehr hoher Temperaturen (bis zu 2000 °C) bedarf, wobei die Restzerfallswärme der hochradioaktiven Spaltprodukte hierbei sogar unterstützend wirkt.
Materialien, die den Bedingungen im Reaktorkern (Blei, Salz, 1000 °C, Neutronenfluss) standhalten können, sind seit Jahrzehnten bekannt. Dazu gehören insbesondere Legierungen aus der erweiterten Gruppe der Refraktärmetalle. Diese überaus widerstandsfähigen Legierungen konnten in der Vergangenheit nicht hinreichend verarbeitet werden, mittlerweile ist die Fertigungstechnik jedoch so weit vorangeschritten, dass derartige Legierungen in allen Bereichen der Industrie immer mehr Anwendungen finden. Als weitere Option kommen neue Keramiken als Beschichtungen oder in Form neuartiger faserverstärkter Komposit-Werkstücke hinzu. Mikrokristalline Schäden durch den hohen Neutronenfluss sowie thermischer Stress werden bei der hohen Temperatur automatisch ausgeheilt (Ausglüheffekt). In der PPU gibt es sogar noch weniger Einschränkungen, da Neutronenversprödung und Wärmeleitung hier keine Rolle mehr spielen.

Gute Neutronenökonomie und ihre Folgen

Im DFR behalten die Neutronen wegen der vielen massereichen Atomkerne (Aktinide und Blei) ihre hohe Energie. Blei selbst absorbiert ohnehin wenig Neutronen, und die Neutronenverluste in den Strukturmaterialien sind bei diesen Energien sehr gering. Auf der anderen Seite werden durch die schnellen Neutronen aber besonders viele davon nachgebildet, nämlich durchschnittlich 3 oder mehr pro Spaltvorgang. Bei fast allen Reaktoren ist das weniger, bei Leichtwasserreaktoren deutlich weniger. Diese Neutronen werden nun unterschiedlich "verbraucht".
Eines der 3 Neutronen wird gebraucht, um die nukleare Kettenreaktion aufrecht zu erhalten, ein weiteres, um den eigenen Spaltstoff nachzubrüten. Da die Verluste gering sind (weniger als 0,5 Neutronen durch unerwünschte Einfänge), bleiben noch mindestens 0,5 Neutronen pro Spaltung für andere Anwendungen übrig, mehr als bei allen anderen Reaktoren. Mit diesem hohen Überschuss kann man nun in erheblich kürzeren Zeiträumen als bei anderen "schnellen Brütern" z.B. Plutonium (hier nicht waffenfähig) erbrüten und damit zügig die nächste Generation von Reaktoren installieren. Auch der Thorium-Uran-Prozess mit seiner kernphysikalisch bedingt niedrigeren Neutronenausbeute ist aufgrund der sehr guten Neutronenökonomie des DFR im Vergleich zu anderen Schnellspaltreaktoren besonders gut handhabbar. Alternativ können auch sehr effektiv problematische langlebige Spaltprodukte z.B. aus heutigen Reaktoren transmutiert und damit abgebaut werden. Sehr effizient ist aber auch die Bildung erwünschter Radioisotope, etwa für die Medizin. Die PPU erfüllt hier eine wichtige Aufgabe, die ständige chemische Trennung von Stoffen untereinander und vom Brennstoff, was auch die Minimierung von "Neutronenfängern", sogenannten Neutronengiften und damit auch die Neutronenverluste reduziert.
Letzteres ist übrigens auch für die Leistungsregelung des DFR sehr günstig. Durch den permanent immer sehr "sauberen" Reaktorkern muss man keine überschüssigen Spaltstoffe einbringen, die über ein kompliziertes Regelsystem (Steuerstäbe) während ihres Abbrandes ausgeglichen werden müssten, wie etwa in heute gängigen Leichtwasserreaktoren. Dies begünstigt auch einen sogenannten "unterkritischen" Betrieb, bei dem fehlende Neutronen durch ein Beschleunigersystem nachgeliefert werden ("Accelerator Driven Subcritical System", ADS). Je näher man sich stabil der Kritikalität nähern kann, desto kleiner darf der Beschleuniger sein. Beim DFR könnte der Beschleuniger nun auf eine Länge von wenigen Metern reduziert werden, im Vergleich z.B. mit dem belgischen ADS-Projekt "MYRRHA", welches einen mehrere 100 Meter langen Beschleuniger benötigt.
Zudem reagiert ein flüssiger Reaktorkern auf eine Temperaturerhöhung sehr schnell mit Ausdehnungen, genauso auch das Blei, was diesen außen umgibt. Die Abstände der Atomkerne werden bei Temperaturerhöhung größer, wodurch gleich zwei Wahrscheinlichkeiten sinken, zum einen dass ein Neutron im Flüssigsalz eine Spaltung induziert, zum anderen dass es am Blei reflektiert wird. Somit fällt die Leistung mit einer Temperaturzunahme sehr schnell ab. Dieser negative "Temperaturkoeffizient" ist durch das Dual-Fluid-Prinzip so stark ausgeprägt, dass bereits innerhalb eines Temperaturanstiegs von wenigen 10 Kelvin die Leistung eingestellt werden kann. Die Spaltrate folgt somit zügig der Leistungsentnahme, welche wiederum durch die Geschwindigkeit der Bleizirkulation eingestellt werden kann. Da dieser Mechanismus ohne technisches Eingreifen aufgrund physikalischer Gesetze immer funktioniert, kann der Reaktor auch nicht durch einen unkontrollierten Leistungsanstieg "durchgehen" – er ist in diesem Punkt inhärent sicher.

Fazit

Der DFR ist in der Lage, die Effizienz der Kernenergie um mindestens eine Größenordnung zu steigern und damit die fossilen Kraftwerke um zwei Größenordnungen zu übertreffen. Dies schafft die notwendige Voraussetzung für die Steigerung des Wohlstandsniveaus um den gleichen Faktor. Nur wenn die Kernenergie der Gesellschaft einen offensichtlichen Vorteil bietet, kann sie sich durchsetzen. Dass sie das bisher nicht oder zu wenig bietet, ist der eigentliche Grund des schleppenden Ausbaus seit den 70er Jahren.

Abbildungen

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Erntefaktor-DFR.png
Bild 1: Erntefaktor verschiedener Energietechniken (siehe Publikation hier) im Vergleich mit dem Dual Fluid Reaktor
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/DFR-Kern.png
Bild 2: DFR-Reaktorkern
http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/DFR-Kraftwerk.png
Bild 3: Kraftwerk um den Dual Fluid Reaktor




IPCC-Berichts-Chef Thomas Stocker zeigt im Weltwoche-Interview unerklärliche Gedächtnislücken: Die Gesprächsanalyse von Vahrenholt und Lüning

Die Wochenzeitung Weltwoche brachte in ihrer am 11. April 2013 erschienenen Ausgabe ein äußerst lesenswertes Interview mit Thomas Stocker, dem Vorsitzenden des wissenschaftlichen Grundlagenkapitels im kommenden IPCC-Bericht. Dabei sprach der Weltwoche-Gesprächsleiter Markus Schär eine Reihe von unbequemen Themen an, wie etwa den seit 17 Jahren anhaltenden Erwärmungsstopp, fehlgeschlagene IPCC-Prognosen oder natürliche klimatische Zyklen. Schär scheute sich nicht, beim Berner Professor konsequent nachzuhaken, wenn die eigentliche Frage unbeantwortet blieb oder wichtige Aspekte unerwähnt blieben. Im Folgenden wollen wir – mit freundlicher Genehmigung der Weltwoche – längere Auszüge aus dem Interview wiedergeben, einige Details ergänzen und Zusammenhänge diskutieren, die der Berner Professor im Eifer des Gefechts vergaß zu erwähnen. Im eingerückten Interviewtext sind die Fragen der Weltwoche in Fettschrift und die Antworten von Stocker in Normalschrift gehalten.

WELTWOCHE: Wie erklären Sie den Leuten die kälteren Winter der letzten Jahre?
STOCKER: Es gibt in der Schweiz keine lange Serie von kalten Wintern, jeder war anders. Grundsätzlich sage ich den Leuten: «Sie dürfen nicht auf die Temperaturen in einem Winter und von einer Station schauen, sondern müssen die vielen Jahre von sehr präzisen Beobachtungen betrachten, wenn Sie den langfristigen Trend erkennen wollen.» Und spezifisch zu diesem Winter gibt es ja Erklärungsansätze in der Wissenschaft. 

Jeder Winter war anders? Schauen wir eben mal nach Deutschland hinüber. Irgendwie haben die letzten 5 Winter hier doch etwas gemeinsam. Diplom-Meteorologe Dominik Jung von wetter.net berichtete im Februar 2013: „Mit dem aktuellen Winter sind nun fünf Winter in Folge kälter als das langjährige Mittel ausgefallen!“ (siehe unseren Blogartikel „Diplom-Meteorologe Dominik Jung: Der fünfte zu kalte Winter in Deutschland in Folge – Rekord!“). Stocker ist dies sichtlich unangenehm, daher lässt er diesen Umstand einfach aus und hofft, dass es keiner merkt.

Einige Kollegen führen die hartnäckigen Bisenlagen [in der Schweiz kalte winterliche Winde aus Nordosteuropa] gerade auf das Abschmelzen des Eises in der Arktis zurück. 
Ja, es gibt Hinweise aus einzelnen Studien – ich würde noch nicht von robustem Wissen sprechen –, dass die geringere Eisbedeckung der Arktis die Statistik beeinflusst, wie häufig dort Hochdruckgebiete auftreten. Diese wirken sich ja stark auf das Witterungsgeschehen in unseren Breitengraden aus, wie wir täglich erleben.
Die deutschen Kollegen, die diese Hypothese entwickelt haben, verkünden sie in den Medien als Wahrheit.
Ich verfolge nicht, was diese Kollegen sagen, und es ist nicht an mir, das zu kommentieren. Klar ist einfach: Wir müssen das Kommunizieren des grossen Problems der Klimaerwärmung rational angehen, also faktenorientiert informieren – dies gilt für alle Beteiligten. Das ist heute eine grosse Herausforderung, da alles in die 140 Zeichen eines Tweets passen soll. Bei einem so komplexen Thema geht das nicht: Wir müssen einerseits die Fakten kommunizieren, anderseits aber gerade auch die Unsicherheiten.
Die Erkenntnis der Kollegen liess sich locker vertwittern: «Die kalten Winter kommen von der Klimaerwärmung.»
Das ist die Aussage von ein, zwei Publikationen, aber noch kein wissenschaftlicher Konsens; einen Konsens zu bilden, ist ein harter Job. Wir können beim IPCC nicht jede einzelne Studie von allen Instituten weltweit aufnehmen. Es ist möglich, dass es im kommenden Bericht eine Aussage dazu gibt, wie die Eisbedeckung der Arktis die Statistik von Hochdruckgebieten beeinflusst. Aber vorläufig sind wir da noch am Arbeiten.

Ein herber Schlag für die Kollegen vom Potsdam-Institut für Klimafolgenforschung (PIK), die sich die Arktiseis-Theorie schnell ausgedacht hatten, nachdem die ersten Winter kälter als erlaubt ausfielen. Im Brustton der Überzeugung wurde der fragwürdige Repair-Patch dann in den Medien als Lösung des Winter-Paradoxons präsentiert. Nun ist es also amtlich: der IPCC Berichts-Chef sieht in der Potsdamer Idee kein robustes Wissen und keinen wissenschaftlichen Konsens.
Schön wäre an dieser Stelle gewesen, wenn Stocker auf eine andere Studie hingewiesen hätte, nämlich die von Mike Lockwood und Kollegen aus dem Jahre 2010. Diese hatten nämlich einen recht überzeugenden Mechanismus gefunden, bei dem kalte europäische Winter während solarer Schwächephasen entstehen können. Und was für ein Zufall, der aktuelle Sonnenzyklus ist der schwächste seit einhundert Jahren (siehe unseren Blogbeitrag „Wer ist Schuld am Kältewinter? MPI-Studie weist eher auf die schwache Sonne anstatt des arktischen Meereises hin. Die Sonne im März 2013“). Alles nur Theorie? Aus Stockers eigenem Institut, dem Oeschger-Zentrum für Klimaforschung in Bern kam im Januar 2013 eine Studie unter Leitung von Ulf Büntgen, die bestätigte, dass sich osteuropäische Kältephasen während der letzten 1000 Jahre in der Regel während solar inaktiver Zeiten ereigneten (siehe unseren Blogbeitrag „Osteuropäische Kälteperioden während solarer Schwächephasen“). Es ist schwer vorstellbar, dass sich Stocker plötzlich nicht einmal an die neuesten Forschungsergebnisse aus dem eigenen Hause erinnern kann, vermutlich eher nicht erinnern will. Passt halt nicht in Stockers Erzählstrang.

Wir Laien hätten einfach lieber Experten, die voraussagen, was kommt, als Experten, die hinterher erklären, warum es nicht so gekommen ist.
Das ist richtig. Deshalb schauen wir beim IPCC auch regelmässig zurück: Was haben wir im ersten Bericht von 1990 gesagt, was im zweiten von 1995, im dritten von 2001 und im vierten von 2007? Wir können nachvollziehbar zeigen, dass die Projektionen der mittleren globalen Temperatur bereits 1990 extrem gut lagen. Wir hatten also schon damals die wichtigen Blöcke des Wissens beisammen, um – selbstverständlich innerhalb der Unsicherheiten – die Temperaturentwicklung zuverlässig abzuschätzen. Aber wir behaupteten früher nie und behaupten jetzt nicht, wir könnten die Temperatur in zehn Jahren prophezeien. Eine solche kurzfristige Voraussage ist nicht möglich und wird nie möglich sein. Es gibt den Trend, aber er wird überlagert von kurzfristigen Schwankungen. Das haben wir immer so kommuniziert.

An dieser Stelle wird es für Stocker dann richtig brenzlig. Stocker behauptet forsch, die IPCC-Projektionen würden samt und sonders „extrem gut liegen“. Dies ist offensichtlich unwahr – und Stocker weiß es. Der real gemessene Temperaturverlauf ist gerade dabei, vollständig aus dem vom IPCC übersteigert vorhergesagten Temperaturband herauszulaufen, und Stocker ignoriert diesen Fakt stillschweigend und findet die fehlgegangenen Projektionen trotzdem „extrem gut“. Es ist gar nicht anders möglich, als diese Einlassung als bewusste Irreführung der fachfremden Leserschaft zu deuten. Die Weltwoche hat jedoch ihre Hausaufgaben gemacht und fällt zum Glück nicht darauf hinein. Einige Momente später wird die Zeitung Stocker darauf ansprechen. Zunächst jedoch muss der Redakteur einer anderen Pflicht nachkommen, nämlich die eigentliche Frage wiederholen, welcher Stocker versuchte plump auszuweichen.

Wir würden die Theorie der kalten Winter eher glauben, wenn sie nicht von denselben Leuten käme, die noch vor zehn Jahren sagten, unsere Kinder würden keinen Schnee mehr erleben.
Genau darum halten wir uns beim IPCC mit solchen Aussagen zurück.

Stocker opfert an dieser Stelle seinen klimaalarmistischen Mitstreiter Mojib Latif und distanziert sich vorsichtshalber von dessen Fehlprognose und medialer Panne, um selbst nicht in den Strudel mit hineingezogen zu werden. Ein weiser Schachzug. Nachdem dies geklärt ist, wird Stocker auf seine Flunkerei hinsichtlich der IPCC-Projektionen angesprochen.

Sie betonen, Sie hätten die Temperaturentwicklung richtig voraussagt. Aber genau das ist doch umstritten. Im Entwurf Ihres Berichtes, der im Herbst 2012 in die Begutachtung ging, zeigten Sie selber in einer Grafik, dass die Temperaturen der letzten Jahre tiefer liegen als alle Projektionen des IPCC. 
Wir sind gegenwärtig am unteren Rand, wenn Sie die letzten zehn Jahre anschauen, aber innerhalb der kommunizierten Unsicherheiten.

Zähneknirschend muss Stocker einräumen, dass die Projektionen doch nicht so „extrem gut“ liegen, wie er es zuvor behauptet hatte. Aber einen Versuch war es wert. Den meisten anderen Zeitungen wäre der Fehler gar nicht aufgefallen und Stocker wäre mit seiner Version durchgekommen. Jetzt will es die Weltwoche wissen und bohrt weiter nach:

Der allerunsichersten Unsicherheiten.  
Genau deswegen geben wir Unsicherheiten an. Aber wir müssen auch schauen: Gab es früher schon Perioden, in denen die globale Temperatur zehn oder fünfzehn Jahre stagnierte? Tatsächlich finden Sie mehrere solche Fenster in den letzten hundert Jahren. Das ist also nichts Aussergewöhnliches. 

Natürlich gab es bereits Kältephasen in der Vergangenheit. Und es fällt auf, dass die Kälte stets mit den kalten Phasen pazifischer und atlantischer Ozeanzyklen zusammenfiel, die im 60-Jahresrhythmus operieren. Den Zusammenhang will der IPCC jedoch nicht wahrhaben und behauptet munter, die Kälte würde keinem System folgend auftauchen und dann wieder verschwinden. Nur so konnte der IPCC so grandios an der Temperaturentwicklung der letzten anderthalb Jahrzehnte scheitern. Der Ozeanzyklus der sogenannten Pazifischen Dekadischen Oszillation (PDO) begann um 2000 von ihrem Scheitelpunkt abzusacken. Da war bereits klar, dass von der PDO in den kommenden Jahrzehnten nur noch Abkühlung zu erwarten war. Hätte der IPCC dieses empirische Vorhersagewerkzeug akzeptiert, würde er jetzt ein Problem weniger haben. Es gibt jedoch einen guten Grund, warum der IPCC den offensichtlichen PDO-Einfluss auf die globalen Temperaturen nicht zulassen wollte: Während der Haupterwärmungsphase 1977-2000 kletterte die PDO stetig nach oben und verharrte dann auf einem wärmenden Plateau. Offensichtlich drückte dies die Temperaturen einige Zehntelgrade nach oben, eine Erwärmung die der IPCC jedoch bereits dem CO2 zugemessen hatte. Und da man das CO2 in seiner Wirkung nicht reduzieren wollte, musste die PDO kurzerhand dran glauben, was sich in der Folge böse rächte.
Die Weltwoche spricht Stocker dann auf einen Umstand an, der manchem IPCCler wohl bereits schlaflose Nächte bereitet hat:

Der IPCC-Vorsitzende Rajendra Pachauri räumte kürzlich ein, bei der Klimaerwärmung gebe es inzwischen siebzehn Jahre Stillstand. 
Ich kann nicht vorschreiben, was irgendwelche Kollegen sagen.

Wie bitte? Kennt Stocker die real gemessenen Temperaturkurven nicht? Der Erwärmungsstillstand ist Fakt. Nach längerem Herumgeeiere musste schließlich sogar Pachauri die Pause einräumen. Ist Stocker ernsthaft der Meinung, Pachauri hat hier einen Fehler gemacht? Die Weltwoche gibt zu bedenken:

Er ist immerhin Ihr Chef. 
Meine Funktion ist es, mit dem internationalen Autorenteam den Stand des Wissens zusammenzufassen; daran arbeiten wir im Moment. Aus den Studien zu genau dieser Frage geht hervor: a) ist eine solche Stagnation nicht ungewöhnlich, b) werden wir solche Phasen auch in Zukunft sehen, und c) das ist wohl der wichtigste Punkt, gibt es Inzwischen über hundert Simulationen der Klimaentwicklung mit den neusten Modellen. Die Frage stellt sich also: Sehen wir Simulationen, die im Zeitraum zwischen 1998 und 2012 keine starke Erwärmung zeigen? Und solche Simulationen werden wir finden, nicht viele, aber eine oder zwei. Wir leben einfach in einer Realisierung des Klimasystems mit seinem Chaos der natürlichen Variabilität – in der einzigen beobachteten von vielen physikalisch möglichen.

Hier breitet Stocker die ganze IPCC-Herrlichkeit aus. Wortreich versucht er Gründe für den Erwärmungsstop zu finden und kann trauriger Weise kein einziges überzeugendes Argument nennen. Wie nicht anders zu erwarten, zaubert Stocker das mittlerweile deutlich überalterte Chaos-Modell aus dem Hut. Er hofft, dass einige wenige von den hunderten von Simulationen einen Erwärmungsstop in den letzten anderthalb Jahrzehnten zeigen könnten. Dies wäre dann der Beweis, dass die Modelle „extrem gut liegen“. Ist Stocker wirklich so naiv zu glauben, dass ihm irgendwer noch diese Art der Beweisführung abnimmt? Das ist so, als wenn man alle 49 Lottozahlen tippt und sich dann freut, dass bei der Ziehung dann alle stimmen. Fragwürdige Taschenspielertricks im Zeitalter der vermeintlich allwissenden Supercomputer.

Sie würden also nie sagen, dass wir siebzehn Jahre Stillstand der Klimaerwärmung beobachten? 
Nein, schon die Assoziation von «siebzehn Jahre» und «Klimaerwärmung» ist falsch. Wenn wir von der Klimaerwärmung reden, meinen wir den langfristigen Trend, den wir in der zweiten Hälfte des 20. Jahrhunderts sehen.

Das ist schon ein wenig mysteriös. In einer 2011 erschienenen Arbeit hatte nämlich Stockers ehemaliger IPCC-Kollege Ben Santer zusammen mit 16 Co-Autoren festgestellt, dass 17 Jahre durchaus ausreichen, um Klimatrends zu erkennen. Nun sind 17 Jahre seit Beginn des Erwärmungsstopps rum und plötzlich müssen es noch ganz viel mehr Jahre sein, bevor es zählen kann. Was nicht passt, wird passend gemacht. Nachhaltige Wissenschaft sieht anders aus.

Bei den Temperaturen sehen wir ihn gerade nicht.
Doch, wir erkennen die Signale in allen Komponenten des Klimasystems: an den Eisschilden, die an Masse verlieren; in den Ozeanen, die sich bis in 4000 Meter Tiefe messbar erwärmen; in der Atmosphäre, die sich in den tieferen Schichten erwärmt und oberhalb von 15 Kilometern abkühlt, also den Fingerabdruck des CO2 zeigt. Die Last der Evidenz von 130 Jahren Beobachtungen und Prozessverständnis wiegt so schwer, dass es mehr braucht als ein paar Jahre Stagnation, um ein solches in sich schlüssiges Gebäude zu zerstören. 

Erneut verstrickt sich Stocker in wissenschaftlich fragwürdige Argumentationen. Ist ihm wirklich nicht bekannt, dass die Antarktis insgesamt an Eismasse dank der Ostantarktis in den letzten Jahren zugenommen hat? (siehe unseren Blogbeitrag „Neue ICEsat-Satellitendaten sind da: Antarktischer Eisschild hat an Masse zugelegt“)? Auch wenn der grönländische Eispanzer derzeit abschmilzt (was er übrigens auch während der Mittelalterlichen Wärmeperiode vor 1000 Jahren getan hat), darf Stocker als IPCC-Führungskraft hier nicht einfach pauschalisieren und Rosinenpickerei betreiben, nur um seine persönliche Klimaalarm-Überzeugung zu stärken. Noch schlimmer ist der Hinweis auf den CO2-Fingerabdruck in der Stratosphäre. Neue Arbeiten haben dieses Konzept mittlerweile vollständig diskreditiert (siehe unsere Blogbeiträge „Keine guten Nachrichten für Mojib Latif: Neue Studie im Journal of Geophysical Research hinterfragt den stratosphärischen CO2-Fingeradruck“ und „CO2-Fingerabdruck löst sich in Luft auf: Neue Studie belegt Ozonwirkung auf Temperatur in der mittleren Atmosphäre“). Es ist ein Armutszeugnis, dass Stocker noch immer diesen „Beweis“ anführt der gar keiner ist. Erneut scheint er auf die Fachfremdheit der Leserschaft zu hoffen. Das angeblich so „schlüssige Gedankengebäude“ ist bei Tageslicht nichts weiter als eine wackelige Ruine, die jeden Moment einstürzen könnte.

Was würde es denn brauchen, dass Sie einen Stillstand der Klimaerwärmung einräumen? 
Sie wollen einfach eine Jahreszahl.
Nein, nur eine Grössenordnung: Reden wir von zehn oder von fünfzig Jahren?
Galileo sagte einst: «Und sie [die Erde] dreht sich doch.» Wir können sagen: «Und sie erwärmt sich doch.» Alle Indikatoren, die ich Ihnen genannt habe, deuten zusammen auf eine schlüssige Erklärung: Das CO2 ist verantwortlich für die Erwärmung. Ein Thema, das wir im neuen Bericht auch ansprechen, ist aber die Klimasensitivität. 
Also die Frage, wie stark die Temperatur steigt, wenn sich der CO2-Anteil in der Atmosphäre (vorindustriell rund 280, heute gegen 400 Teilchen pro Million) verdoppelt.
Im letzten Bericht von 2007 kamen wir auf einen Wert von 2 bis 4,5 Grad. Die Frage stellt sich jetzt: Geben die letzten fünfzehn Jahre einen Hinweis darauf, dass die Klimasensitivität eher im unteren Bereich liegt? Diese Diskussion läuft in der Wissenschaft, auch mit skeptischen Kollegen – da kann ich Sie beruhigen.

In der Tat gibt es hier eine Diskussion, in der sich die Anzeichen mehren, dass die sogenannte Klimasensitivität signifikant überschätzt wurde. Dazu muss man allerdings wissen, dass die Klimamodelle für den gerade entstehenden Bericht alle bereits gerechnet sind und hier keine Möglichkeit zur Änderung mehr besteht, ohne wieder ganz von vorne anzufangen und dabei das Gesicht zu verlieren. Der IPCC wird daher von seinem Mittelwert von 3 Grad pro CO2-Verdopplung kaum abrücken können. Dadurch wird Stockers Weltklimarat immer mehr manövrierunfähig und realitätsferner.
Die Weltwoche spricht dann eine Vermutung aus, die wohl die meisten schon einmal zumindest insgeheim gedacht hatten.

Schieben Sie Ihre Voraussagen nicht einfach so weit hinaus, damit wir alle nicht mehr erleben, ob sie tatsächlich eintreffen?

Wenn man es näher überlegt, ist dies in der Tat eine totsichere Strategie, um auch in mittlerer Zukunft keine positiven Simulationsresultate vorweisen zu müssen. Jeder Politiker, der einmal in Bedrängnis geriet und dessen Volk Resultate einforderte, kennt den Trick aus dem ‚Handbuch für wendige Machthaber‘. Stocker gibt vor, er würde sich über die Frage freuen und erzählt dann von Zukunftsprojekten, deren Qualität ebenfalls noch nicht bewertbar ist – und auch noch lange unbewertbar bleiben wird.

Merci für diese Frage, das ist eine super Steilvorlage. Ich kann Sie auf das Inhaltsverzeichnis unseres Berichts verweisen. Wir sagten 2009, wir hätten gerne ein Kapitel, das in die nähere Zukunft schaut, also Wettervorhersage und Klimaprojektionen zusammenbringt. Es heisst: Near-term climate change and predictability. «Voraussagbarkeit» ist das entscheidende Wort. Dieser Zweig der Klimaforschung ist noch relativ jung. Wir können nicht sagen, wie warm oder wie nass zum Beispiel das Jahr 2025 sein wird. Im Zeithorizont bis zirka 2035 müssen wir die verschiedensten Faktoren abschätzen: Was beeinflusst die Unsicherheiten, und wie gross sind sie? 
Dann müssen wir bis 2035 warten, um zu überprüfen, ob Sie recht bekommen?
Nein. Wie gesagt, beurteilen wir beim IPCC seit 1990 Klimaprojektionen, und diese sind bis heute messbar eingetreten. Wenn Sie mich fragen: Falls es mir vergönnt ist, das Jahr 2035 geistig fit zu erleben, werde ich zurückblicken auf eine kurze Phase der Temperaturstagnation, zu der eine Kombination von verschiedenen Effekten führte – falls nicht bis dann ein grosser Vulkan ausbricht.

Aber Herr Professor Stocker, das hatten wir doch alles schon. Die IPCC Temperaturprognosen seit 1990 sind „nicht messbar eingetreten“ sondern eher dürftig bis untauglich. Braucht der IPCC wirklich diesen dünnen Strohhalm, um nicht unterzugehen? Ein leichter Windstoß, und der IPCC-Kahn würde in den Tiefen des Ozeans versinken. Sieht so moderne Wissenschaft aus? Um etwas konkreter zu werden: Der Ozeanzyklen-Spezialist Mojib Latif warnte uns kürzlich aufgrund der kühlenden Phase der atlantischen und pazifischen Zyklen, dass auch im kommenden Jahrzehnt nicht unbedingt mit einer Erwärmung zu rechnen sei. Dies ist durchaus plausibel und entspricht dem empirischen Befund der letzten Jahrhunderte. Es ist daher vermutlich nur noch eine Frage von wenigen Jahren, dass die realen Temperaturen endgültig aus dem „unteren Rand“ des simulierten Temperaturbandes in vom IPCC für bislang unmöglich gehaltene Bereiche abdriftet. Dann bricht auch dieser letzte Strohhalm weg. Unangenehmerweise wird der heute 54-jährige Stocker dieses Ereignis wohl noch deutlich vor seiner Pensionierung erleben müssen. Ob er dann vielleicht irgendwann die Courage haben wird, über Fehler in den IPCC-Simulationen offen zu diskutieren? Aber warum bis dahin überhaupt warten? Bereits heute wäre es höchste Zeit, der Realität ins Auge zu schauen und die Abneigung gegenüber den natürlichen Klimafaktoren allmählich abzulegen.

Der Konsens des IPCC beruht darauf, dass das menschgemachte CO2 als Treibhausgas zur Klimaerwärmung führt. Aber dieser Zusammenhang lässt sich nur für die letzten 150 Jahre beobachten.
Schauen Sie das Plakat zu unseren Messungen am Eis aus der Antarktis über die letzten 800 000 Jahre an: Wenn das keine Korrelation zwischen Temperatur und CO2 ist! Der CO2-Gehalt, den wir im Eis messen können, war in Warmzeiten hoch und in Eiszeiten niedrig.

Bereits Al Gore tappte mit seinem Film in diese Falle. Hier werden offensichtlich Ursache und Wirkung vertauscht. Wird es wärmer, weil der CO2-Gehalt anstieg? Oder war es vielmehr andersherum und aus dem erwärmten Meerwasser sprudelte verstärkt CO2, da kaltes Wasser mehr Gase aufnehmen können als warmes? Die Weltwoche hat aufgepasst:

Doch die CO2-Werte stiegen nach den Temperaturen an, das CO2 kann also nicht die Erwärmung verursacht haben.
Über das Nachhinken der CO2-Werte haben wir mehrmals berichtet. Allerdings muss ich aufgrund neuerer Studien wohl langsam umdenken – doch nicht in die Richtung, die Sie gerne hätten: Die Studien zeigen, dass CO2-Werte und Temperaturen gleichzeitig stiegen. Getrieben wird die Abfolge von Warm- und Eiszeiten über 100 000 Jahre aber von den Zyklen, die der Geophysiker Milankovic 1920 beschrieb: Es kommt auf die Stellung und Schiefe der Erdachse und auf die Umlaufbahn um die Sonne an.

Das Nachhinken des CO2 gegenüber der Temperatur war dem IPCC lange ein Dorn im Auge. Deshalb machten sich IPCC-nahe Forscher daran, neue Studien zu produzieren, die diese zeitliche Abfolge mit fragwürdigen Methoden versuchten aufzuweichen (siehe unseren Blogbeitrag „Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“). Unter Zuhilfenahme dieser Maßanfertigungen kann Stocker nun den alten Al Gore Trick der ahnungslosen Leserschaft wieder als angeblichen Beweis präsentieren. Eine traurige Geschichte.
Viel wichtiger als die langperiodischen Milankovic-Erdbahn-Zyklen sind jedoch für unser heutiges Klimageschehen die Aktivitätsschwankungen des Sonnenkraftwerks. Die Weltwoche spricht Stocker darauf an:

Eben. Können wir mit dem Einfluss der Sonne die Klimazyklen nicht viel besser erklären?
Das gilt für die vorindustrielle Zeit, als der CO2-Anteil mehr als 30 Prozent geringer war als heute: Wir brauchen die Sonne immer als Teil der Erklärung – da haben wir keine Differenz. Aber die letzten fünfzig bis siebzig Jahre, vor allem auch die räumliche Ausprägung der Erwärmung, können wir ohne menschgemachte Faktoren nicht mehr schlüssig erklären. Warum stieg die Temperatur im 20. Jahrhundert um 0,8 Grad? Das ist ohne CO2 nicht zu begründen.

Genau, warum stieg eigentlich die Temperatur im 20. Jahrhundert um 0,8 Grad an? Brauchen wir wirklich das CO2 dazu? Und wenn ja, wie viel? Hat es in der Vergangenheit noch niemals derartige Erwärmungsschübe gegeben? Stocker schweigt hierzu eisern. Denn die wissenschaftlichen Fakten sind an dieser Stelle für ihn unangenehm und eindeutig. In den letzten 10.000 Jahren hat es derartige Erwärmungsphasen mehrfach in ähnlicher Höhe im Millenniumstakt gegeben. Und noch eine Überraschung: Der Hauptantrieb hierfür waren Sonnenaktivitätsschwankungen, wie zahlreiche Studien eindrucksvoll belegen konnten. Als hätte es bereits jemand geahnt, kommt hier bereits das nächste Puzzleteil: Laut einer Reihe von neueren Untersuchungen, die in namhaften Fachzeitschriften erschienen, zählte die zweite Hälfte des 20. Jahrhunderts zu den solar aktivsten der gesamten letzten 10.000 Jahre. Was für ein überaus großer Zufall. Leider entschied sich der IPCC, diesem Umstand keine gesteigerte Bedeutung zuzumessen. Neben dem PDO-Lapsus ein weiterer schwerer Defekt im IPCC-Gebäude.
Die Weltwoche weist Stocker auf die natürliche Zyklik hin, in deren Grundmuster sich die Erwärmung des 20. Jahrhunderts gut einpasst. Die Kleine Eiszeit war durch eine ausgeprägte Sonnenflaute geprägt.

Es gibt eine banale Erklärung: Bis ins 19. Jahrhundert herrschte eine kleine Eiszeit, um 1860 erreichten die Gletscher einen Höchststand. Da ist es doch ganz normal, dass es wieder etwas wärmer wurde.
Das gilt tatsächlich für die Gletscher ein Stück weit. Aber es erklärt nicht, wie schnell sie in den letzten dreissig, vierzig Jahren abschmolzen und wie stark die Erwärmung seit Beginn des 20. Jahrhunderts war. 

Die Sonne war in den letzten 50 Jahren so stark wie kaum zuvor und dies soll so rein gar nichts mehr mit der Temperatur- und Gletscherentwicklung zu tun haben? Und früher soll die Sonne und natürliche Zyklik dann doch eine Rolle gespielt haben, wobei unser Mutterstern dann ganz plötzlich in den letzten Jahrzehnten seine gesamte Klimakraft eingebüßt haben soll? Mit Verlaub, Herr Stocker, das macht nun wirklich keinen Sinn.

In der Römerzeit, als Hannibal mit Elefanten über die Alpen zog, gab es noch weniger Gletscher.
Ja, aber wir müssen uns fragen: Was war denn anders vor 2200 Jahren? Da kommt schon die Sonne ins Spiel: Aufgrund der Neigung der Erdachse gab es damals im Sommer mehr Sonneneinstrahlung, etwa 10 Watt pro Quadratmeter. Es ist offensichtlich, dass es da wärmer war.

Vor 2200 Jahren herrschte die Römische Wärmeperiode, eine der wiederholt aufgetretenen Wärmephasen im Millenniumstakt, die sich zu sonnenaktiven Zeiten ereigneten. Anstatt hierauf einzugehen, driftet Stocker lieber wieder zu seinen langperiodischen Milankovic-Zyklen ab, die im heutigen Klimageschehen keine Rolle spielen, und deren Wirkung er daher gerne zugeben kann. Ein durchsichtiges Ablenkungsmanöver. Wenn Stocker hier schon wieder Milankovic zitiert, hätte er doch gerne über das mittelholozäne Klimaoptimum 7000-5000 Jahre vor heute sprechen können, als es bereits 1 Grad wärmer als heute war. Ursache war damals in der Tat eine spezielle Milankovic-Erdbahngeometrie. Aber da diese lange, warme Phase der Vergangenheit nicht in das klimaalarmistische Konzept passt, geht Stocker nicht darauf ein.

Wird es Ihnen nicht mulmig, wenn die Astrophysiker sagen, dass die Sonne derzeit so schwächelt wie in der Kleinen Eiszeit des 17. Jahrhunderts?
Nein, denn die Voraussage der Sonnenaktivität ist heute noch nicht möglich, da fehlen leider genaue Daten und Modelle. Aber wir können auch nicht ausschliessen, dass eine solche Phase bereits begonnen hat. Sie wird jedoch wieder einmal enden – in der Zwischenzeit steigt der CO2-Gehalt aber weiter, das würde nachher zu einer umso stärkeren Erwärmung führen.

Oh lala. Nicht gut, Professor Stocker. Mittlerweile kann man schon fast von einem Konsens unter den Astrophysikern sprechen, dass die Sonne in den kommenden Jahrzehnten ihre Aktivität auf kleiner Flamme köcheln lassen wird. Zuletzt erschien hierzu sogar ein schweizerisches Paper von Steinhilber und Beer (siehe letzter Absatz in unserem Blogartikel „Wer ist Schuld am Kältewinter? MPI-Studie weist eher auf die schwache Sonne anstatt des arktischen Meereises hin. Die Sonne im März 2013“). Es gibt mittlerweile kaum noch eine Arbeit, die diesem Konzept widerspricht. Es nutzt daher nichts, sich an dieser Stelle dumm zu stellen und wie bei den Erwärmungspausen zu sagen, man wisse gar nichts und alles wäre nur Chaos. Dafür sind die Rekonstruktionen der Sonnenaktivität der vergangenen Jahrtausende dann doch zu regelmäßig, als dass man das Muster komplett ignorieren könnte. Noch schlimmer dann jedoch Stockers Verwechslung mit der Milankovic-Zyklik. Es geht hier um PRIMÄRE Sonnenaktivitätsschankungen mit Zyklen-Perioden von 11 bis 2000 Jahre, also Veränderungen in der Intensität des Wasserstoffreaktors auf der Sonne. Stockers Hinweis auf CO2-Veränderungen im Takte der Milankovic-Zyklik, also mit Perioden von 20.000 Jahren aufwärts geht vollständig am Thema vorbei. Kennt sich Stocker mit dem Thema wirklich nicht aus und kann die beiden Mechanismen nicht auseinanderhalten? Oder ist dies ein weiterer Versuch, die Diskussion ins Leere laufen zu lassen?
Der Schlussteil des Interviews spricht für sich und bedarf kaum eines Kommentars.

Kommen wir zum Grundsätzlichen. Der Soziologe Gerhard Schulze sagt: «Wissenschaft ist eine Veranstaltung der organisierten Skepsis.»
Das habe ich so noch nie gehört. 
In der Klimaforschung ist «Skepsis» ein Schimpfwort.
Der Begriff «Klimaskeptiker» wird oft verwendet, das ist so. Aber die Skepsis ist die treibende Kraft der Wissenschaft. Auch wir fragen: Ist das wirklich so? Haben wir das tatsächlich verstanden? Da unterscheidet sich die Klimaforschung überhaupt nicht von den anderen Wissenschaften.
Ihr Kollege Hans von Storch sagt aber in seinem aktuellen Buch «Die Klimafalle», die Klimaforscher hätten nicht genug über die Falsifikation nachgedacht, also das Widerlegen von Hypothesen, das allein eine Wissenschaft weiterbringt.
Das ist seine Sichtweise. Als wir damit begannen, die Klimaentwicklung der letzten fünfzig Jahre zu erforschen, arbeiteten wir doch gerade falsifizierend, indem wir alle möglichen Erklärungen testeten. Wir hätten auch zum Ergebnis kommen können: Die Erwärmung kommt zu 90 Prozent von der Sonne und zu 10 Prozent vom CO2. Aber alle Berechnungen zeigten das Gegenteil. 
War Ihr Ergebnis nicht schon in den Auftrag eingebaut, den das IPCC 1989 bekam?
Nein, der Auftrag lautete, offen und umfassend über den Stand des Wissens zur anthropogenen Klimaveränderung zu berichten. 
Eben: Dass die Klimaveränderung menschgemacht ist, stand von Anfang an fest. 
Überhaupt nicht. Millionen von Messdaten und das physikalische Verständnis bilden das Fundament dieser Aussage. 
Hans von Storch sagt auch: «Die Debatte darüber, dass wir uns irren könnten, ist tabuisiert. » Fragen Sie sich das nie?
Die Debatte über die Periode der geringen Erwärmung kam ja vor etwa drei Jahren auf. Im IPCC wird sie nicht tabuisiert, sondern eine Gruppe sichtet und beurteilt die publizierten wissenschaftlichen Studien – also nicht irgendwelche Blogposts oder Traktate – zu dieser Frage: Wie oft gab es in der Vergangenheit ähnliche Phasen der Stagnation? Wie wahrscheinlich sind sie in der Zukunft? Und welche Erklärungen gibt es dafür? Daraus machen wir im Bericht eine Box von drei, vier Seiten, also eine Gesamtschau zu diesem wichtigen Thema.
Was sind die Hauptaussagen Ihres Berichts?
Das kann ich heute der Weltwoche ebenso wenig sagen wie der New York Times.
Anders gefragt: Welche Reaktionen erwarten Sie in der Politik?
Das ist schwierig vorauszusagen. Die Klimaproblematik, das ist meine persönliche Einschätzung, steht derzeit sicher nicht zuoberst auf der Agenda, aber sie ist eng verknüpft mit der Energie und der Ressourcenpolitik. Wir können nur hoffen, dass die Klimapolitik wieder explizit zurück auf die Agenda kommt: Viele Entscheide, die wir jetzt fällen, etwa über die Energiesysteme, wirken auf Jahrzehnte hinaus – der Bericht soll deshalb einen Beitrag leisten, damit wir sie in Kenntnis aller Tatsachen treffen. 
Schon unzählige Male in den letzten Jahrzehnten sagten Klimaforscher, wenn bis zu einem bestimmten Datum nichts geschehe, sei es zu spät. Diese Daten sind alle verfallen, ohne dass etwas geschah.
Mit solchen Aussagen muss man extrem vorsichtig sein. Aber es gibt beim Klimawandel in der Tat Entwicklungen, die ab einem bestimmten Zeitpunkt nicht mehr umkehrbar sind. Ich schrieb deshalb letztes Jahr einen Artikel über «The Closing Door of Climate Targets»: Es fehlt die Erkenntnis, dass gewisse Klimaziele, zum Beispiel die Erwärmung unter 2 Grad zu halten, bald nicht mehr zu erreichen sind. Wir rasen in einem Auto auf die Wand zu und geben noch Gas, obwohl wir wissen, dass der Bremsweg kaum mehr reicht.
Das heisst: Die Menschheit begeht kollektiven Suizid.
Nein, aber die Anpassung an den Klimawandel und seine Auswirkungen wird sehr viel Geld kosten, also Ressourcen fordern, die wir sinnvoller hätten einsetzen können. Und sie wird zu Konflikten um diese Ressourcen führen.
Sie machen trotzdem keinen depressiven Eindruck.
Nein, wenn ich depressiv wäre, würde das meine Fähigkeit beeinträchtigen, die Erkenntnisse der Wissenschaft zu verbreiten. Sollte ich in die innere Emigration gehen und nicht mehr über das Problem reden? Das mache ich nicht: Das Problem ist da, es ist eines der grössten der Menschheit, und wir haben die Wahl, wie gross es sein wird. Darüber will ich informieren. 

Es dauerte ganz bis zum Schluss, bis sich Stocker als Aktivist outet: „Das Problem ist da, es ist eines der grössten der Menschheit“, sagt er. Es sollte bedenklich stimmen, wenn sich ein IPCC-Oberschiedsrichter, der eigentlich unvoreingenommen die Fachliteratur sichten und zusammenfassen sollte, persönlich eindeutig für die klimaalarmistische Seite entschieden hat. Wie stehen in solch einem Fall die Chancen, dass der IPCC angesichts der starken Hinweise auf die maßgebliche Beteiligung von natürlichen Klimafaktoren an der Klimaerwärmung seine überzogenen Temperaturprojektionen revidiert und seine Modelle modifiziert? Wie würde Stocker plötzlich dastehen, wenn es zwar einen gemäßigten anthropogenen Klimawandel gibt, dieser aber weit weniger dramatisch ausfällt als von ihm in der Vergangenheit und auch heute noch so vehement verkündet? Eine der wichtigsten Aufgaben für den IPCC in den kommenden Jahren wird es sein, persönliche Interessenskonflikte wie diesen zu verhindern und für einen ausgewogeneren, skeptischeren Umgang mit Forschungsresultaten zu sorgen. Bis dahin werden die IPCC-Berichte leider auch weiterhin keinen vernünftigen Beitrag zu einem besseren Verständnis der komplexen klimatischen Zusammenhänge liefern können.

Ein abschließender EIKE-Kommentar

Die Antworten von Stocker und die zugehörigen Kommentare von Vahrenholt/Lüning sprechen für sich. Wir gratulieren dem Redakteur der Weltwoche, Markus Schär, für seine geschickte Interviewführung und seine – gemessen an den üblichen Kenntnissen von Fachredakteuren – gute Expertise zur komplexen Klima-Materie.
Unsere Meinung zu Stocker deckt sich mit der von Vahrenholt/Lüning. Stocker ist ein AGW-Aktivist, der Objektivität in seinen wissenschaftlichen Verlautbarungen leider vermissen lässt. Stellvertretend hierzu seine Aussage
"Es fehlt die Erkenntnis, dass gewisse Klimaziele, zum Beispiel die Erwärmung unter 2 Grad zu halten, bald nicht mehr zu erreichen sind. Wir rasen in einem Auto auf die Wand zu und geben noch Gas, obwohl wir wissen, dass der Bremsweg kaum mehr reicht".
Diese Aussage muss angesichts des aktuellen Stands der Fachliteratur als absurd bezeichnet werden. Bis heute gibt es nämlich keine einzige begutachtete Veröffentlichung, die einen anthropogenen Einfluss auf die mittlere Globaltemperatur belegen kann. Von einem 2 °C Ziel ist in der Fachliteratur nichts aufzufinden. Die Klimasensitivität des CO2, gewonnen aus Labormessungen, liegt zwischen 0,4 und 1,1 °C (Harde und IPCC). Diese Werte sind völlig unbedeutend. Verdoppelung der CO2 Konzentration (darauf bezieht sich die Definition der Klimasensitivität des CO2) ist ohnehin nur mit dem Verfeuern aller fossiler Brennstoffressourcen erreichbar.
Stocker und dem IPCC ist es selbstverständlich "unbekannt", dass Ballon- und Satellitenmessungen Gegenkoppelungen an Stelle der fiktiven Klimamodellrückkopelungen auffinden (s. die zahlreichen References hier). Erst Klimamodell-Phantasieprodukte lassen politische Aussagen wie von einem 2 °C Ziel überhaupt zu. Man kann das fachlich unbelegbare 2 °C Ziel oder gar das Stocker’sche "gegen die Wand fahren" getrost dem Papierkorb überantworten. Die Interviewaussagen von Stocker sind erhellend, denn sie lassen desaströse Zustände und eine einzigartige politisch-ideologische Korrumpierung in großen Teilen der heutigen Klimaforschung zu Tage treten.
Der nachfolgende Leserbrief ist von Prof. Friedrich-Karl Ewert an die Weltwoche geschickt worden, ob er veröffentlicht wurde, ist uns nicht bekannt:
Leserbrief zum Interview mit Prof. Stocker, „Und die Erde erwärmt sich doch“:
 „Und die Erde erwärmt sich doch“ meint Thomas Stocker und scheint das eher zu fürchten, obwohl das Leben auf der Erde in Warmzeiten immer besser gediehen ist als in kühlen. Diese haben vor mindestens 15 Jahren wieder mal begonnen, und keiner weiß, ob und wie lange sie dauern. Denn die offiziellen Klimaprognosen beginnen ja immer erst nach dem eigenen Pensionsalter.
Wer zum Wettergeschehen sagt “Seine natürlichen Variationen konnten wir in den letzten 130 Jahren mit einem globalen Messnetz beobachten; wir können also die normalen Schwankungen abschätzen“ mag seine Schulphysik kennen, von der Erde hat er nicht nur keine Ahnung, sondern er weiß auch nicht, dass er das nicht weiß. Universalgelehrte gibt es schon lange nicht mehr, Teilwissen ist also die Regel. So weit, so gut, weil nicht mehr zu ändern. Aber was soll man von Klimaforschern halten, die nicht wissen, dass unsere Klimageschichte schon 4,5 Mrd Jahre dauert, und dass die Erde in 130 Jahren noch nicht mal einen Bruchteil jener Möglichkeiten erfahren hat, mit denen das Wetter die jeweils Lebenden verwöhnt oder malträtiert hat – und die auch immer wieder eintreten können? Dass es schon lange vor unserer Zeit Erwärmungen von bis zu 5° in 10 Jahren gab?  Dass der Globus trotz vielfach größerer atmosphärischer CO2-Gehalte bis zum 35sten Breitengrad vergletschert war? Dass das Mittelalter warm und die Barockzeit kalt waren? Weitere Beispiele wären jetzt peinlich, denn ein paar Buchstaben des Kleinen Alphabets wird ja wohl auch der klimaforschende Physiker kennen, dem das Fach Geschichte unsympathisch war – was immerhin den Vorteil hat, auf dem Weg zum prominenten Klimaforscher keine Skrupel überwinden zu müssen. Wie auch immer: 130 Jahre sind für die Erdgeschichte weniger als ein Wimpernschlag – es sind der 34 Millionen, 615 Tausend und 284ste Teil der Erdgeschichte.
Globales Messnetz? Aus zwei Gründen falsch! 1) Um Entwicklungen zu beurteilen, braucht man Vergleiche. Die sind bestenfalls in 30 Jahren möglich, denn ungefähr solange funktioniert die Sattelitenbeobachtung schon, und die nächsten 30 Jahre brauchen wir noch, wollen wir der Klimadefinition der WMO gerecht werden. 2) Und vorher? Ozeane, Seen, Gebirge, Wüsten, Sümpfe, Urwälder und die Polargebiete blieben unbeobachtet, so dass die dortigen Entwicklungen nicht bekannt sein können. Wenn es viel ist, kennen wir die Entwicklung vielleicht von 15% der Erdoberfläche
Und nun die Eisbohrkerne. Ihre Lufteinschlüsse sollen die Luftzusammensetzung der Atmosphäre anzeigen. Was wäre vor ihrer ja nicht billigen Entnahme zu klären? Wenn der Schnee frisch gefallen ist, hat er ein sehr großes luftgefülltes Porenvolumen. Die Luft wurde bei der Zusammenpressung des Schnees über Firn zum Eis größtenteils ausgepresst. Alle seine Komponenten im gleichen Maße?  Außerdem: Die beim Schneefall eingeschlossene Luft repräsentierte ein nivales Klima. Darf man annehmen, ihre Zusammensetzung über den warmen oder kalten Ozeanen, den warmen oder kalten Trockengebieten und den feuchtwarmen Tropen war die gleiche wie über den Kaltgebieten?
In seinem Vortrag beim Treffen der Nobelpreisträger 2012 in Lindau hat Ivar Giaever die Klimaforschung als Pseudowissenschaft charakterisiert – und den Klimawandel als Pseudoreligion. Thomas Stocker beweist mit seinem Interview, dass es nun auch den Gläubigen Thomas gibt.
Friedrich-Karl Ewert, Michael Limburg, Horst-Joachim Lüdecke, Klaus-Eckart Puls, Carl Otto Weiss




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #25 bis #27

..Kernkraftwerke müssen 200 mal so stark wie Krankenhäuser gegen Erdbeben abgesichert sein, aber nur bei Kernkraftwerken gibt es in der Sladek-Welt Verletzte (#25). Außerdem sind Kernkraftwerke wahre Flugzeug-Magneten (#26). Der doppelt gepanzerte und von Betriebsgebäuden eingerahmte Europäische Druckwasserreaktor EPR wird von Flugzeugen natürlich locker durchschlagen (#27), und alles, was möglich ist, tritt in der Katastrophenwelt der Sladeks auch prompt ein. Dabei wird permanent der Reaktorkern mit der Außenhülle, und der Schadensfall mit einer internationalen Katastrophe verwechselt. Nur der kleinste Riss in der Außenhülle, und die Welt ist verloren. Wir trauern schon jetzt um die Sladeks.
Hundert gute Antworten #25 – #27, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013.

#25: Erdbebengefahr

Behauptung: Atomkraftwerke sind nicht ausreichend gegen Erdbeben geschützt.

Die EWS behaupten

Fessenheim bei Freiburg, Philippsburg bei Karlsruhe und Biblis bei Darmstadt – alle drei Atomkraftwerke stehen im Oberrheingraben, der seismisch aktivsten Zone Deutschlands. Trotzdem sind sie wie alle Reaktoren in Deutschland;nur leicht gegen Erdbeben gesichert.
Das Atomkraftwerk Fessenheim etwa würde ein Beben, wie es 1356 die Stadt Basel zerstörte, nur überstehen, wenn das Epizentrum mindestens 30 Kilometer entfernt wäre. Ob sich die Kräfte im Untergrund daran wohl halten?
Das Atomkraftwerk Biblis ist nur gegen Erdbeschleunigungen von 1,5 m/s2 ausgelegt. Seismologen erwarten zwischen Mannheim und Darmstadt allerdings deutlich stärkere Stöße. Und im kalkigen Untergrund des AKW Neckarwestheim wäscht das Grundwasser Jahr für Jahr bis zu 1.000 Kubikmeter neue Hohlräume aus.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auch ein Vielfaches der 1,5 m/s2 ist technisch kein Problem, wie japanische Reaktoren zeigen. Da derartige seismische Beschleunigungen an einem in Deutschland stehenden Kernkraftwerk statistisch aber nur alle 100.000 Jahre zu erwarten sind, ist eine höhere Auslegung nicht sinnvoll. Diesbezüglich hat sich sogar die EU-Kommission in ihrem letzten Stresstest geirrt, die offenkundig sämtliche Berichte deutscher Behörden und Betreiber zur Erdbebensicherheit nicht richtig gelesen hatte. Die seismischen Messinstrumente und Standsicherheiten gegen das oben genannte Bemessungserdbeben sind natürlich vorhanden sowie vorgeschrieben. Zum Vergleich, Notfalleinrichtungen wie Krankenhäuser sind auf seismische Aktivitäten ausgelegt, wie sie alle 500 Jahre auftreten. In diesen Einrichtungen sind dann Opfer garantiert, nicht aber bei Kernkraftwerken.
Außerdem gibt es eine große Sicherheitsmarge, so dass deutsche KKWs vermutlich auch die doppelte Erschütterung schadlos überstehen. Und auch hier gilt natürlich: Ein Schadensfall bedeutet noch lange keine Kernschmelze, und eine Kernschmelze noch lange keine nennenswerten Kontaminationen bei der Bevölkerung.
Quellen von KRITIKALITÄT


#26: Flugzeugabsturz

Behauptung: Atomkraftwerke sind nicht gegen Flugzeugabstürze geschützt.

Die EWS behaupten

Kein Atomkraftwerk in Deutschland würde den Absturz eines vollgetankten Passagierflugzeuges überstehen. Das hat die Gesellschaft für Reaktorsicherheit in einem – ursprünglich geheimen – Gutachten für das Bundesumweltministerium erläutert.
Sieben Reaktoren haben sogar nur so dünne Betonwände, dass bereits der Absturz eines Militärjets oder ein Angriff mit panzerbrechenden Waffen eine Katastrophe auslösen kann.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Statistisch gesehen muss ein deutsches Kernkraftwerk alle 1,6 Millionen Jahre mit einem Treffer durch ein Verkehsflugzeug rechnen. Selbst für die sieben älteren Reaktortypen, die nicht explizit gegen Flugzeugabstürze gesichert sind, führt dies nur mit einer Wahrscheinlichkeit von 15% zum Durchschlagen der äußeren Hüllen. Die neueren Reaktoren haben deutlich dickere Außenwände, der EPR, den Deutschland maßgeblich mitentwickelt hat, aber nun nicht mehr haben will, sogar eine Doppelwand.
Und selbst wenn das Flugzeug ein Loch reisst und es innen zu Bränden und Kühlmittelverlust käme – eine Kernschmelze zu bewerkstelligen ist extrem schwierig, da die Sicherheitsvorrichtungen überall verteilt sind. Die mehrere Meter dicke innere Barriere (biologischer Schild und Reaktordruckbehälter) schirmt den schmelzenden Kern ab, über einen separaten Kamin kann gefiltert entlastet werden – die Folgen für die Bevölkerung wären dieselben wie 1979 in Harrisburg, nämlich außer einer kurzen (unnötigen) Evakuierung, keine. Panzerbrechende Geschosse scheitern zwangsläufig an den viel zu dicken inneren Barrieren.
Flugzeuganschläge auf Kernkraftwerke haben nicht mal versuchsweise stattgefunden. So makaber es klingt – Terroristen können offensichtlich rechnen.
Quellen von KRITIKALITÄT


#27: Einstürzende Neubauten

Behauptung: Selbst neue Reaktortypen sind nicht sicher.

Die EWS behaupten

Auch bei dem angeblich so hochmodernen Europäischen Druckwasserreaktor (EPR), an dem der französische Atomkonzern AREVA derzeit in Finnland und Frankreich baut, sind schwere Unfälle bis hin zur Kernschmelze möglich. Große Mengen radioaktiver Stoffe könnten in die Umgebung gelangen. Die Leittechnik, die den Reaktor steuern und im Notfall sicher herunter fahren soll, halten die finnische, die britische und die französische Atomaufsicht gar für so riskant, dass sie dagegen mit einer gemeinsamen Erklärung protestierten.
Noch nicht einmal gegen einen simplen Flugzeugabsturz ist der angeblich supersichere neue Reaktor geschützt. Anstatt dessen Bau zu stoppen, stempelte die französische Regierung die brisante Expertise lieber zur militärischen Verschlusssache.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es handelt sich mitnichten um eine Protestnote. Die drei Aufsichtsbehörden haben lediglich ihren Job getan und Verbesserungen vorgeschlagen, die von AREVA sofort umgesetzt wurden. In der gleichen Note werden die gute Zusammenarbeit und die hohen Sicherheitsstandards gelobt.
Allgemeinplätze wie „schwere Unfälle sind möglich” sind bedeutungslos, wenn keine Wahrscheinlichkeiten dafür angegeben werden. Die sind nämlich extrem gering, wie umfangreiche Studien zeigen. Die Wahrscheinlichkeit eines Schadensfalls, der noch lange nicht zu einer Kernschmelze führt, ist beim EPR 1:1.000.000 pro Jahr. Sogar ein komplett geschmolzener Reaktorkern, wie es ihn in der ganzen Geschichte noch nie gegeben hat, kann hier noch kontrolliert gespeichert und gekühlt werden.
Gerade gegen Attacken von außen wie Flugzeugabstürze ist der EPR durch die gesamte Bauweise (meterdicke doppelwandige Stahlbetonsicherung) und die kompakte Anordnung der umliegenden Gebäude extrem gut gesichert, das kann sogar ein Laie erkennen. Nur noch die allergrößten Jumbojets könnten bei einem gezielten Anflug mit hoher Geschwindigkeit rein hypothetisch die Kuppel beschädigen, kaum aber das Innenleben, und schon gar nicht den Reaktorkern. Dass der EPR „nicht einmal gegen einen simplen Flugzeugabsturz” geschützt sei, ist eine freie Erfindung. Oder eine freche Lüge.
Quellen von KRITIKALITÄT





Der Mythos vom wissenschaftlichen Konsens: Faktencheck von Schellnhubers „Drei bequeme Unwahrheiten“

Artikel von Schellnhuber aus den Salzburger Nachrichten

Die Angriffe der „Klimaskeptiker“erfordern fächerübergreifende Solidarität. Sie wollen am System der Wissenschaft rütteln und sind von einem Geist der Antiaufklärung getragen.
Die Hassmails sind das Geringste. Als Betrüger und Lügner werden Klimawissenschafter tagtäglich beschimpft; jedenfalls die unter ihnen, die in den Medien sichtbar sind. Schon gravierender sind manche Drohungen: Bei einem Vortrag in Australien reckte mir jemand eine Henkersschlinge entgegen, und Forscherkollegen an der Universität Canberra wurden vor Kurzem in sogenannte sichere Büros umgesiedelt.
Vollends bizarr aber ist, wie in der öffentlichen Debatte über die Erderwärmung sogenannten Klimaskeptikern Raum gegeben wird. Dabei werden etwa Ansichten von Kohle-Lobbyisten oder von eifrig-eifernden Pensionisten, die in ihrem Berufsleben möglicherweise tüchtige Ingenieure waren, gern mit den nach den Regeln des Wissenschaftssystems gewonnenen Erkenntnissen auf eine Stufe gestellt.
Um drei bequeme Unwahrheiten geht es dabei.
Die erste: „Es gibt keine vomMenschen verursachte globale Erwärmung.“
Dabei ist gerade in diesem Fall das SystemWissenschaft so einig wie sonst selten. Von 13.950 zwischen 1991 und 2012 veröffentlichten Studien, deren Erkenntnisse im bewährten Verfahren der peer review – der Begutachtung durch andere und durchaus konkurrierende Forscher – erhärtet wurden, sehen nur 24 keinen anthropogenen (also vom Menschen verursachten) Treibhauseffekt.
Damit stehen 99,87 Prozent 0,17 Prozent gegenüber; eindeutiger kann freie Forschung nicht sein. Die zweite bequeme Unwahrheit: „Es mag den Klimawandel geben, aber er ist unschädlich, wenn nicht gar nutzbringend.“Die Wissenschaft jedoch zeigt klar auf, wie drastisch die negativen Auswirkungen ausfallen dürften – auch wenn ihr genaues Ausmaß, der Zeitpunkt ihres Eintretens, die regionale Verteilung weiter Gegenstand intensiver Forschung sind.
Die Zunahme von Wetterextremen, der Anstieg des Meeresspiegels, Veränderungen des etwa für arme Reisbauern in Indien lebenswichtigen Monsuns et cetera sind gut belegte Projektionen. Die Weltbank hat erst kürzlich einen Bericht des Potsdam-Instituts für Klimafolgenforschung zu einer vier Grad Celsius wärmeren Welt auf die globale politische Tagesordnung gesetzt.
Es ist ein Gebot der Vorsorge, jetzt zu handeln, trotz fortbestehender Unsicherheiten. Die dritte bequeme Unwahrheit: „Es gibt gefährlichen Klimawandel, aber der Kampf dagegen ist längst verloren.“
Aus der Sicht des Physikers ist es jedoch sehr wohl weiter möglich, durch die scharfe Minderung der Emission von Treibhausgasen umzusteuern. Nichts im Erdsystem steht dem dagegen. Auch die Ökonomen rechnen vor, dass es die Welt nur wenige Prozentpunkte Wirtschaftswachstum kosten würde, den fossil-nuklearen Entwicklungspfad zu verlassen – während die Kosten des Klimawandels erschreckend hoch ausfallen könnten.
Nun sagen Skeptiker, dass der notwendige politische Wandel unrealistisch sei.
Das allerdings hat mit Wissenschaft nichts zu tun. Und wer auf die wahrscheinlichen Folgen der ungebremsten Erwärmung blickt, kann solch bequeme Resignation nur zynisch finden.
Verblüffenderweise löst all dies keinen Aufschrei aus. Nicht in der Öffentlichkeit, wo so manche in Politik und Medien es „unterhaltsam“ finden, wenn die Erkenntnisse der Wissenschaft diffamiert werden.
Auch nicht bei den Forschern anderer Fächer, obwohl von den Klimaskeptikern das System derWissenschaft als solches angegriffen wird.
Der US-Wissenschafter Benjamin Barber hat die Attacken auf die Klimaforschung als anti aufklärerisch bezeichnet. Sie seien vom gleichen Geist getragen wie der Kampf von bibeltreuen Anhängern der Schöpfungslehre gegen die von Darwin entwickelte Wissenschaft von der Entstehung der Arten. Deshalb ist der Konflikt um die Klimaforschung einer, der alle Geistesarbeiter angeht.
Es wäre somit ein Präzedenzfall für fächerübergreifende Solidarität. Hans Joachim Schellnhuber ist Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK) und Professor für Theoretische Physik an der Universität Potsdam. Schellnhuber ist Vorsitzender des Wissenschaftliche Beirats der deutschen Bundesregierung Globale Umweltveränderung und langjähriges Mitglied desWeltklimarates (IPCC).

So weit Schellnhuber in den Salzburger Nachrichten vom 2. April 2013. Treffen seine Vorwürfe an die sogenannten Klimaskeptiker zu? Wir machen den Faktencheck.
Vor unserem Faktencheck einige klärende Anmerkungen
Zunächst ist ein Kommentar erforderlich zur Beschwerde Schellnhubers über Hassmails und ein Ereignis anlässlich einer seiner Vorträge in Australien, wo ihm eine Henkersschlinge entgegengehalten wurde. Wir schließen uns der Beschwerde Schellnhubers an. Solche Vorgänge sind nicht hinnehmbar. Die Klimadiskussion darf die Sachebene und angemessene Umgangsformen dem Meinungsgegner gegenüber niemals verlassen. Der Stil von Internet-Veröffentlichungen, wie man sie jüngst hier, hier oder hier auffinden kann, ist nicht tolerabel, selbst wenn man ihren sachlichen Inhalten teilweise zustimmt.
Allerdings können wir auch Schellnhuber Vorwürfe nicht ersparen. Klimaskeptiker als „Kohle-Lobbyisten“ oder „eifrig-eifernde Pensionisten“ zu diffamieren, entspricht nicht den geforderten Umgangsformen. Auch offensichtliche Propagandalügen sind inakzeptabel, so wie: „Vollends bizarr aber ist, wie in der öffentlichen Debatte über die Erderwärmung sogenannten Klimaskeptikern Raum gegeben wird“. In welcher TV-Sendung, welchem Rundfunkprogramm oder welchen überregionalen Zeitungen wird „Klimaskeptikern Raum gegeben„, wo werden sie eingeladen, um ihre Argumente vorzubringen? Eine bewusste Unwahrheit Schellnhubers oder ein Fall von kognitiver Dissonanz?
Schellnhuber als Klimaberater der Kanzlerin Angela Merkel kann sich über zu wenig Raum zur Verbreitung seiner Auffassung in den Medien nicht beschweren. Wäre er ein echter Wissenschaftler müsste er freilich jede Gegenmeinung und jede Diskussion begrüßen, denn für die wissenschaftliche Wahrheitsfindung sind kontroverse Diskussionen das Salz in der Suppe, genauer, sie sind für eine ordentliche wissenschaftliche Kultur unabdingbar. Seine Beschwerde, Skeptikern werde zu viel Raum gegeben, ist nicht nur sachlich falsch, sie bezeugt zudem unübersehbar einen Hang zum wissenschaftlichen Dogmatismus.
„Fächerübergreifende Solidarität“, wie von Schellnhuber gewünscht, wäre das Ende jeder freien Wissenschaft, denn sie entspräche den wohlbekannten Unterdrückungsmethoden in Diktaturen. Tatsächlich ist „fächerübergreifende Solidarität“ die Forderung nach Befolgung eines von selbsternannten Wissenschaftshütern aufgestellten wissenschaftlichen Dogmas. Sie kann nur dazu dienen, „Abweichler“ unter den Kollegen auszugrenzen und in Reihe zurück zu zwingen. „Fächerübergreifende Solidarität“ ist undemokratisch, freiheitsfeindlich, meinungsgleichschaltend und völlig unwissenschaftlich. Man kann solchen Forderungen nur mit allen gebotenen Mitteln entgegentreten. Die Solidaritätsforderungen Schellnhubers sind die Samen der späteren Gewächse von wohlbekannten Welterlösungslehren (Kommunismus), deren Wege bekanntlich Millionen Menschenopfer pflasterten.
Schellnhubers Forderung „trotz der bestehenden Unsicherheiten“ zu handeln, ist verantwortungslos. Sie verhindert wirksamen Naturschutz und ist nur unter einem ideologisch motivierten Drang zur Gesellschaftsveränderung zu verstehen, die nicht zu den Aufgaben eines Wissenschaftlers gehört. Es gibt nämlich unzählige Schädigungen, die die Menschheit verantwortet. So sind wir, um einige stellvertretende Beispiele zu nennen, auf dem besten Wege, den Fischbestand der Weltmeere zu vernichten, die Trinkwasserressourcen in Dürreländern aufzubrauchen, die Tropenwälder zu zerstören und die Artenvielfalt maßgebend zu reduzieren. Welche Remedur soll aber angesichts unserer begrenzten Mittel Vorrang haben? Immerhin gibt es beim Schutz der Weltmeere oder der Tropenwälder NICHT die von Schellnhuber eingestandenen „BESTEHENDEN UNSICHERHEITEN“. Hier ist jeder ausgegebene Euro (Dollar) auf seine Wirkung hin überprüfbar. Vom Schutz der Weltmeere und den weiteren hier genannten Naturschutzmaßnahmen hört man hierzulande freilich nichts mehr. Selbst Greenpeace scheint sich vom Naturschutz (Tiere) inzwischen verabschiedet und auf die lukrativeren Themen „Klimaschutz“, die Bekämpfung von Gentechnik und der Kernenergienutzung verlegt zu haben.
Bei der CO2–Vermeidung kann von Wirksamkeitsüberprüfung nicht die Rede sein. Viele Klimawissenschaftler (siehe „Mythos Konsens“ weiter unten) bezeugen, dass die extrem teuren CO2-Vermeidungsmaßnahmen völlig unwirksam sind. Der Autor schließt sich dieser Einschätzung an. Wir würden daher gerne von Schellnhuber hören, wie er seine apokalyptischen Warnungen und Handlungsdirektiven angesichts der von ihm genannten Unsicherheiten WISSENSCHAFTLICH begründen kann. Von seinem politischen 2 °C Ziel ist jedenfalls in der begutachteten Klima-Fachliteratur nichts aufzufinden.
Ein weiter Beleg, der an der Ehrlichkeit der Motive von Schellnhuber Zweifel aufkommen lässt, ist seine Forderung, „den fossil-nuklearen Entwicklungspfad zu verlassen“. Die Forderung, den fossilen Pfad zu verlassen, können wir zumindest nachvollziehen, denn sie fügt sich in seine AGW-Hypothese ein. Aber den nuklearen Pfad verlassen? Kernenergie ist bekanntlich CO2-frei. Was hat Schellnhuber gegen die nukleare Energienutzung von bekanntlich höchster Wirtschaftlichkeit? Die Welt um uns herum handelt ersichtlich anders, denn der Siegeszug der Kernkraft ist unaufhaltbar. Schellnhubers nukleare Antipathie ist unlogisch und irrational, hier spielen offenbar andere Ziele mit. Der Glaubwürdigkeit seiner wissenschaftlichen Aussagen hilft dies kaum weiter.
Nun aber endlich zu Schellnhubers drei bequemen Unwahrheiten, die seiner Meinung nach die Kernaussagen der Klimaskeptiker bilden!
Unser Faktencheck

Erste „bequeme Unwahrheit“ nach Schellnhuber

„Es gibt keine vom Menschen verursachte globale Erwärmung“. Schellnhuber nennt hierbei 13.950 begutachtete Studien zwischen 1991 und 2012, die seiner Meinung nach das Gegenteil erhärten würden und nur 24 Studien, die keinen vom Menschen verursachte Treibhauseffekt sehen.

Richtig ist….

Gutachter (Peer Reviewer) sind ausgesuchte Experten, die, zumindest im Prinzip, die Kriterien „Neutralität“ und „beste Fachkenntnisse“ erfüllen. Daher müssten selbst 24 BEGUTACHTETE Studien schon zu berechtigter Skepsis an der AGW-Hypothese Anlass geben. Es gibt aber tatsächlich bis heute KEINE EINZIGE begutachtete Publikation, die die Frage nach dem Einfluss des anthropogenen CO2 auf Erdtemperaturen auch nur annähernd beweiskräftig angehen konnte. Dazu ist der Erwärmungseffekt des anthropogenen CO2 zu klein, er geht im Rauschen der natürlichen Temperaturvariationen unter und kann nicht direkt gemessen werden. Wie Schellnhuber auf seine Zahlen (13.950 gegen 24) kommt, bleibt daher sein Geheimnis. Die folgenden Quellen hier und hier, die jede Publikation beim Namen nennen, sagen etwas komplett anderes aus. Schellnhubers 24 ist absurd, allein schon der Autor kann auf Anhieb und ohne nachzusehen bereits mehr als 24 skeptische, begutachtete Klima-Fachveröffentlichungen nennen. Unter diesen skeptischen Publikationen befinden sich sogar zwei aus der Feder SCHELLNHUBERS selber. Eine analysierte die Temperaturentwicklung des 20. Jahrhunderts, die andere übte fachliche Kritik an Klimamodellen.
Schellnhuber hat tatsächlich selber wissenschaftlich gearbeitet, bevor er sich der politischen Agitation mit Hilfe der AGW-Hypothese zuwandte, dies könnte angesichts seiner politischen Aktivitäten leicht in Vergessenheit geraten. In seiner Veröffentlichunghttp://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild1.jpg
Bild 1: Veröffentlichung mit Schellnhuber als Koautor.

ist in der Zusammenfassung zu lesen

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild2.jpg
Bild 2: Die Aussage Schellnhubers et al. in der Zusammenfassung der in Bild 1 gezeigten Publikation ins Deutsche übertragen lautet „In der weit überwiegenden Zahl von Stationen haben wir keine Anzeichen für eine globale Erwärmung der Atmosphäre erkennen können„.
Wir können uns nicht erklären, wie solch eine unzweideutig entwarnende Aussage (es ist noch nicht einmal vom anthropogenen CO2 die Rede) nur wenige Jahre später zu dem von Schellnhuber beschworenen Weltuntergangsszenario einer globalen Erwärmung führen konnte. Immerhin ist es global seit über 15 Jahren kühler geworden, so dass man sich zudem fragt, wie Schellnhuber auf seine „ungebremste“ globale Erwärmung kommt. Hat er diesen Winter nicht irgendwann einmal aus dem Fenster gesehen?

Zweite „bequeme Unwahrheit“ nach Schellnhuber

„Es mag den Klimawandel geben, aber er ist unschädlich, wenn nicht gar nutzbringend“. Die Wissenschaft jedoch zeigt klar auf, wie drastisch die negativen Auswirkungen ausfallen dürften – auch wenn ihr genaues Ausmaß, der Zeitpunkt ihres Eintretens, die regionale Verteilung weiter Gegenstand intensiver Forschung sind. Die Zunahme von Wetterextremen, der Anstieg des Meeresspiegels, Veränderungen des etwa für arme Reisbauern in Indien lebenswichtigen Monsuns et cetera sind gut belegte Projektionen.

Richtig ist….

Kein vernünftiger Mensch bezweifelt den natürlichen Klimawandel. Das Klima in allen Klimazonen der Erde (polar bis tropisch) hat sich seit Bestehen der Erde stets gewandelt, oft heftiger und schneller als im 20. Jahrhundert, und es wird dies auch zukünftig weiter tun. Konstantes Klima ist unmöglich. Nach seinem ersten Satz werden Schellnhubers Ausführungen dann vollends irreführend. Über die Extremwetterentwicklung der letzten Jahrzehnte bis zum heutigen Tage gibt schließlich das hier wohl unverdächtige IPCC erschöpfende Auskunft. Zum ersten Mal in seinem Bericht vom Jahre 2001, the scientific bais, Chapter 02, Kap. 2.7 S. 155 (hier), danach im Extremwetterbericht von 2012 (hier). Die gesamte meteorologische Fachliteratur bezeugt Gleiches: Es ist bis heute keine Zunahme von Extremwetterereignissen in Klimazeiträumen feststellbar. Schellnhuber spricht formal korrekt zwar nur von „gut belegte Projektionen“, seine Aussage ist aber so konstruiert, dass sie eine Extremwetterzunahme als aktuell gegeben suggeriert. Zufall oder Absicht? Die Begründung für „gut belegt“ bleibt er uns natürlich schuldig. Die Projektionen von Klimamodellen haben sich bekanntlich nicht besser als Kaffeesatzleserei erwiesen (s. unter anderem hier). Zur Frage der restlichen Themen, angefangen von Meeresspiegeln bis hin zu Gletschern bezeugt die Fachliteratur, dass sich bis heute und nirgendwo auf der Erde über das historisch bekannte Maß hinausgehende Veränderungen haben nachweisen lassen. Im Gegenteil, viele Veränderungen der Klimavergangenheit waren ungleich stärker.

Die dritte „bequeme Unwahrheit“ nach Schellnhuber

„Es gibt gefährlichen Klimawandel, aber der Kampf dagegen ist längst verloren.“

Richtig ist….

WER sagt so etwas? Zunächst bestreitet sicher niemand, dass es gefährlichen Klimawandel gibt. Die Historie der Menschheit belegt unzählige Klimakatastrophen – logischerweise ohne die „Mithilfe“ des anthropogenen CO2. Es waren übrigens stets Abkühlungs-, niemals Erwärmungskatastrophen! Falsch ist dann die den Klimaskeptikern in den Mund geschobene Behauptung, der Kampf gegen solch eine zukünftige Katastrophe sei verloren. Deiche gegen Sturmfluten, solidere Häuser in tropischen Regionen gegen die gefährlichen Taifune und vieles weitere mehr sind wichtige Hilfen in einem Kampf, der keineswegs verloren ist. Die Technik gibt uns immer bessere Mittel in die Hände. Von keinem Zeitgenossen oder gar Klimaskeptiker, der einigermaßen klar im Kopf ist, wird man Schellnhubers dritte „bequeme Unwahrheit“ vernehmen.
Zu den weiteren Behauptungen Schellnhubers
Uns ist kein seriöser Klimaskeptiker bekannt, der – so Schellnhuber – „das System der Wissenschaft angreift“. Das genaue Gegenteil ist der Fall. Klimaskeptiker fordern eine objektive, freie Wissenschaft, so wie es die Aufklärung propagierte. Angegriffen werden lediglich und völlig zu recht wissenschaftliche Vertreter eines Zweiges der Klimaforschung, die mit fragwürdigen Methoden ihre Ergebnisse für politische Zwecke instrumentalisieren und damit in WIRKLICHKEIT die von Schellnhuber zitierte „ANTIAUFKLÄRUNG“ betreiben. Zur Aufklärung und „Antiaufklärung“ Schellnhubers ist eine Anmerkung erforderlich: In der empfehlenswerten Biographie über Voltaire von Jean Orieux ist eine Kernaussage des Vaters der Aufklärung zu lesen. Voltaire schrieb seinem erbittertsten Gegner in einem offenen Brief: Sire, Eure Auffassung bekämpfe ich, würde aber mein Leben dafür hingeben, dass Ihr sie öffentlich äußern dürft“. Ob Schellnhuber und seine Kollegen vom PIK Rahmstorf, Edenhofer, Gerstengarbe etc. diesen Brief Voltaires verstehen können?
Echte Wissenschaft ist grundsätzlich immer WERTFREI, stellt sich stets in Frage und ist prinzipiell gegen jede, auch die eigenen Resultate SKEPTISCH. Ohne Skepsis gibt es gar keine Wissenschaft. Wissenschaft darf sich niemals außerwissenschaftlichen Zwecken zur Verfügung stellen und mögen diese noch so ehrbar daherkommen. Ohne eine Verbindung mit der AGW-Hypothese herstellen zu wollen, darf an die Biologen und Mediziner des dritten Reichs erinnert werden, die auf der Basis ungesicherter wissenschaftlicher Erkenntnisse eine Rassenlehre zum Dogma erklärten und mit Hilfe der Politik zum Kanon machten. Die in die Millionen gehenden Opfer dieses Irrtums sind bekannt.
Trotz Schellnhubers unzureichender Diskussionsbasis gibt es aber doch Hoffnung auf mehr Substabtielles. Wir ergreifen nun nämlich die Gelegenheit, detaillierter auf seinen Mythos vom wissenschaftlichen Konsens einzugehen. Schellnhuber versteigt sich zu der Behauptung „Dabei ist gerade in diesem Fall das System Wissenschaft so einig wie sonst selten“. Trifft dies zu? Prüfen wir seine Behauptung nach!
Der Mythos vom wissenschaftlichen Konsens
Es ist eine Sache, eine andere Meinung zu haben. Es ist aber etwas völlig anderes, vorzutäuschen, andere als die eigene Meinung würden gar nicht existieren, oder zu behaupten, solche Meinungen verdienten keine Aufmerksamkeit (Zitat Donna Laframboise).
Der Begriff “Konsens der Wissenschaft“ ist mit Vorbehalt zu verwenden. Zunächst sagt er nichts darüber aus, ob eine wissenschaftliche Hypothese oder Theorie zutrifft. Dies haben immer wieder Forscher belegt, die sich – meist unter Anfeindungen – mit anderer Auffassung über Jahrzehnte gegen eine übermächtige Phalanx von Fachkollegen durchsetzten. Oft folgten auf solche wissenschaftlichen Siege die verdienten Nobelpreise. Dennoch würde ein Konsens von vielleicht mehr als 95% aller Forscher eines Fachgebiets eine hohe Wahrscheinlichkeit beinhalten, dass diese Mehrheitsauffassung sachlich zutrifft.
Da es hier nur um die Frage eines maßgebenden Einflusses des menschgemachten CO2 auf Globaltemperaturen geht, können wir die “Konsenfrage“, wie folgt, eingrenzen. Ausgangspunkt ist der heutige Stand der Klimaforschung, dokumentiert in unzähligen Fachpublikationen, die zumindest in folgendem Punkt absolut keinen Zweifel lassen: Die Frage nach einem messbaren anthropogenen Einfluss auf Klimawerte muss bis heute mit einem “noch nicht aufgefunden“ beantwortet werden. Daher verbleiben jetzt nur noch die im hier interessierenden Zusammenhang entscheidenden zwei Fragen:
– Wie viele Klimaforscher teilen den Klima-Alarmismus des IPCC?
– Wie viele Klimaforscher (nennen wir sie “Klimaskeptiker“) widersprechen?
Aber zuerst, welche Naturwissenschaftler sind eigentlich Klimaforscher? Eine Definition könnte sein: Solche, die Klimaforschung betreiben und in begutachteten Fachzeitschriften publizieren. Falls man hiermit einverstanden sein kann, gehört auch der Autor – obwohl nicht von der Pike auf in der Klimaforschung tätig – zur Gruppe der Klimaforscher (hier, hier, hier, hier); Pardon, gemäß Kollegen Schellnhuber ist er allerdings zur Gruppe der „eifrig-eifernden Pensionisten“ zu zählen, denn er befindet sich schließlich im Ruhestand.
Klimaforscher kommen aus vielen Disziplinen, vorwiegend der Physik, denn
Klimawissenschaft, wie die eng verwandte Meteorologie, verwendet das
Handwerkszeug der Physik. Unter den Klimaforschern finden sich
neben den Physikern Meteorologen, Chemiker, Biologen, Mathematiker und Ingenieure. Schauen wir jetzt gemäß unserer Definition zunächst nach, wie viele Klimapublikationen, die dem IPCC widersprechen, in internationalen begutachteten Fachjournalen aufzufinden sind! Sie sind bereits unter der ersten bequemen Unwahrheit von uns in der Richtigstellung genannt worden. Momentan werden über 1100 Publikationen explizit aufgeführt, und es kommen laufend neue hinzu. Infolgedessen sind die Verlautbarungen von Medien, Politik und schlussendlich von Schellnhuber über einen wissenschaftlichen Konsens und die angeblich fehlenden Gegenstimmen falsch.
Die Klimaskeptiker übertreffen die Klima-Alarmisten in Anzahl und wissenschaftlichem Ansehen um Längen. Zu den Skeptikern gehören die beiden Physik-Nobelpreisträger Ivar Glaever und Robert Laughlin, einen Physiker aus dem IPCC-Lager als Nobelpreisträger gibt es dagegen nicht. Ferner sind die weltberühmten Physiker Freeman Dyson, Edward Teller, Frederick Seitz, Robert Jastrow und William Nierenberg Klimaskeptiker, eine ähnliche Reputation ist von den dem IPCC nahe stehenden Forschern unbekannt. Die beiden Links (hier und hier) auf die ausführlichen Zusammenstellungen sind auf unserer Replik zu der ersten „bequemen Unwahrheit“ bereits genannt worden.
Auf Anhieb können 9000 promovierte Naturwissenschaftler und Hunderte fachnahe Professoren der klimaskeptischen Seite benannt werden. Es handelt sich hierbei allein um das Oregon Petitition Project (hier und hier). Betrachten wir nun die Gegenseite! Das IPCC benennt gerade einmal 62 Personen, die das kritische Kapitel 9 des IPCC-Berichts von 2007 “Understanding and Attributing Climate Change“ begutachteten, darunter viele, die nichts anders taten, als ihren eigenen Beitrag zu bestätigen.
Die Unterzeichner der vielen, nachfolgend aufgeführten Petitionen und Manifeste gegen die IPCC-Politik sind freilich nicht immer Klimawissenschaftler. Ist es hier gerechtfertigt, auch andere Naturwissenschaftler als kompetente Skeptiker zuzulassen? Die Antwort muss “Ja“ lauten. Die meisten Klima-Fachpublikationen decken nämlich physikalische Bereiche ab, die auch von physikalischen Nebenfächlern, wie beispielsweise Chemikern oder Ingenieuren, nach entsprechender Einarbeitung verstanden und nachvollzogen werden können. Das physikalische Abstraktionsniveau ist hier in der Regel nicht von einer nur für Spezialisten zugänglichen Höhe, wie etwa in der Quantenfeld-, allgemeinen Relativitäts- oder Stringtheorie. Dies heisst natürlich nicht, dass nicht auch in der Klimaforschung schwer zugängliche Spezialgebiete existieren.
Die historische Entwicklung der klimaskeptischen Verlautbarungen klärt über die wahren Verhältnisse auf. Es beginnt 1992 in Rio de Janeiro mit der ersten großen UN-Umweltkonferenz. Hier haben die Vertreter von 170 Regierungen und weiteren Nichtregierungsinstitutionen (NGO) vor einer gefährlichen globalen Erwärmung durch die steigende Emission von CO2 in der Atmosphäre infolge Nutzung der fossilen Brennstoffe gewarnt. Drastische Maßnahmen, Energiesteuern und Umweltabgaben wurden gefordert.
1) Als erste Antwort auf die Forderungen von Rio de Janeiro haben 425 Wissenschaftler, darunter 62 Nobelpreisträger den „Heidelberg Appeal“ unterschrieben. Sie fordern, die wissenschaftliche Ehrlichkeit nicht dem politischen Opportunismus und einer irrationalen Ideologie zu opfern. Inzwischen sind diesem Appell mehr als 4000 Wissenschaftler, darunter inzwischen insgesamt 72 Nobelpreisträger aus 106 Ländern beigetreten (hier).
2) Das Global Warming Petition Project, auch als Oregon Petition
bekannt, wurde bereits oben erwähnt. Es führt über 30.000 akademische Unterzeichner auf, davon rund 9000 promovierte Personen, meist Naturwissenschaftler. Der Internet-Link wurde oben bereits angegeben.
3) Das „Leipziger Manifest“ ging aus einem internationalen Symposium über die Treibhauskontroverse in Leipzig im November 1995 und 1997 hervor. Es wurde 2005 überarbeitet. Die Unterzeichner, 80 Wissenschaftler aus dem Bereich der Forschung zum Zustand der Atmosphäre und des Klimas sowie 25 Meteorologen, bekunden: “Auf der Basis aller vorhandenen Messungen können wir eine politisch inspirierte Weltsicht nicht akzeptieren, die Klimakatastrophen vorhersagt und überstürzte Aktionen verlangt… In einer Welt, in der die Armut die größte soziale Verschmutzung darstellt, sollte jegliche Einschränkung an Energie, die das ökonomische Wachstum verhindert (in diesen Ländern), mit äußerstem Bedacht vorgenommen werden.“ (hier).
4) Im Dezember 2008 und ergänzt im März 2009 wendeten sich über 700
Wissenschaftler mit dem sogenannten „U.S. Senate Minority Report“ (auch als Inhofe Report bezeichnet) an den Senat der USA. Die Unterzeichner wehrten sich gegen den vorgeblichen Konsens, dass der Mensch für die Erwärmung hauptsächlich verantwortlich gemacht werden kann. Der Report stellt fest, dass die 700 Wissenschaftler die Zahl der an der “Zusammenfassung für Politiker“ des IPCC beteiligten Wissenschaftler (52) um das mehr als 13-fache übersteigt. Sie führten insbesondere Messungen an, die die alarmistischen, von Modellen unterstützten Prophezeiungen widerlegen (hier).
5) In einem offenen Brief vom Juli 2007 an die Physikerin und Kanzlerin Angela Merkel forderten 410 Wissenschaftler und engagierte kompetente Bürger, “die Kanzlerin möge ihre Position zum Klimakomplex gründlich überdenken und ein vom Potsdamer Institut für Klimafolgenforschung unabhängiges ideologiefreies Gremium einberufen.“ (hier). Dieser Brief wurde bemerkenswerterweise nicht einmal einer Eingangsbestätigung des Bundeskanzleramts für würdig erachtet, obwohl in §17 des deutschen Grundgesetzes Bürgern ausdrücklich das Recht eingeräumt wird, sich bei drängenden Problemen oder Fragen an die zuständigen Stellen und an die Volksvertretung zu wenden (hier).
6) Gegen die Aussage des US-Präsidenten Barrack Obama “Wenige Herausforderungen denen sich Amerika und die Welt gegenübersieht, sind wichtiger als den Klimawandel zu bekämpfen. Die Wissenschaft ist jenseits aller Diskussion und die Fakten sind klar“ wendeten sich mehr als 150 fachnahe Wissenschaftler mit dem Protest: “With all due respect Mr. President, that is not true“ (hier).
7) In einem offenen Brief an den kanadischen Ministerpräsidenten, am 11.4.2008 in der National Post veröffentlicht, wendeten sich 60 Klimawissenschaftler gegen die Unterzeichnung eines neuen Kyoto Vertrages. Sie heben hervor, dass “es keine beobachtbaren Nachweise gibt, die die Computermodelle verifizieren. Deshalb gibt es keinen Grund, den Vorhersagen der Computermodelle zu vertrauen…. Wir schlagen vor, eine ausgewogene, umfassende, öfentliche Sitzung abzuhalten, um die wissenschaftliche Basis zu Plänen der Regierung in Bezug auf den Klimawandel zu schaffen“ (hier).
8) Im Jahre 2007 veröffentlichten die Klimawissenschaftler Hans von Storch und Dennis Bray (GKSS Forschungszentrum Geesthacht) eine anonyme Umfrage unter ca. 1250 Klimawissenschaftlern, von denen 40% antworteten (hier), was für derartige Umfragen als eine sehr hohe Antwortrate bezeichnet werden darf. Die Frage “Ist der gegenwärtige Stand der Wissenschaft weit genug entwickelt, um eine vernünftige Einschätzung des Treibhausgaseffektes zu erlauben?“ beantworteten nur 69% mit Zustimmung. Die Frage “Können Klimamodelle die Klimabedingungen der Zukunft voraussagen?“ beantworteten 64% ablehnend! Da die Vorhersagen der Klimakatastrophe alleine auf Klimamodellen beruhen und damit ebenfalls ein theoretisches Konstrukt sind, darf dieses Ergebnis für die Vertreter eines Klimakatastrophen-Konsens zutreffend als Schlag ins Gesicht bezeichnet werden. Denn umgekehrt ausgedrückt: Es besteht ein Konsens von 64%, dass die Vorhersage eines die Menschheit gefährdenden Klimawandels durch eine von Menschen gemachte
Temperaturerhöhung infolge der anthropogenen CO2 Emissionen auf der Basis von Klimamodellen wissenschaftlich unzulässig ist.
9) Im September 2008 veröffentlichten Hans M. Kepplinger und Senja Post von der Universität Mainz in deren Forschungsmagazin eine Online-Umfrage unter den 239 identifizierten deutschen Klimawissenschaftlern. 133 (44%) von ihnen nahmen an der Befragung teil. Kepplinger: “Die Mehrheit der Wissenschaftler war der Ansicht, dass die Voraussetzungen für eine Berechenbarkeit des Klimas gegenwärtig noch nicht gegeben ist. Dies betrifft die Menge und Qualität der empirischen Daten, die Qualität der Modelle und Theorien sowie die Kapazität der verfügbaren Analysetechniken. Nur eine Minderheit von 20% glaubt, dass die empirischen und theoretischen Voraussetzungen für die Berechnung des Klimas heute schon gegeben seien“ (hier und hier).
10) Am 30.Nov.2012 veröffentlichte die kanadische Financial Post einen offenen Brief von 125 Wissenschaftlern an den UN Generalsekretär H.E. Ban Ki-Moon. Die FP führt dabei alle Namen, Fachgebiete und Forschungsschwerpunkte der Unterzeichner detailliert auf (hier). Es handelt sich in der weit überwiegenden Anzahl um Klimawissenschaftler. Der Originaltext des offenen Briefs lautet:
On November 9 this year you told the General Assembly: “Extreme weather due to climate change is the new normal – Our challenge remains, clear and urgent: to reduce greenhouse gas emissions, to strengthen adaptation to – even larger climate shocks – and to reach a legally binding climate agreement by 2015 – This
should be one of the main lessons of Hurricane Sandy.“ On November 13 you said at Yale: “The science is clear; we should waste no more time on that debate.“ The following day, in Al Gore’s “Dirty Weather“ Webcast, you spoke of “more severe storms, harsher droughts, greater floods“, concluding: “Two weeks ago, Hurricane Sandy struck the eastern seaboard of the United States. A nation saw the reality of climate change. The recovery will cost tens of billions of dollars. The cost of inaction will be even higher. We must reduce our dependence on carbon emissions.“ We the undersigned, qualified in climate-related matters, wish to state that current scientific knowledge does not substantiate your assertions.

Danach folgt eine ausführlichere sachliche Widerlegung der Behauptungen von Ki-Moon. Auf die Wiedergabe dieses Teils des offenen Briefs wird hier verzichtet.
Alle hier aufgeführten Manifeste, Petitionen und Umfragen wurden von den deutschen Medien bis heute nicht zur Kenntnis genommen, geschweige denn veröffentlicht. Und dies angesichts von Kosten der CO2-Vermeidung, die in Hunderte Milliarden Euro gehen.

Eine Diktatur beginnt nicht mit dem Einsperren der Meinungsgegner, sondern mit der Unterdrückung ihrer Meinung.

Related Files