Fukushima — ein Zwischenbericht

…da warn´s nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der "Reaktorhalle" zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche "Betonhülle" um das Kernkraftwerk gebaut hätte. Um es auch unserer — von der japanischen Industriegesellschaft so enttäuschten — Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.
An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.
Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein "Bankpalast" aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.
Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von "Windmühlen" und "Sonnenkollektoren" hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.
Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen in Köln hunderte male stärker, als die Strahlenbelastung aus Fukushima). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die "Flugbahnen" der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine — auch gegenüber allen Baustoffen, wie Stahl, Beton usw. — außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.
Ein weiterer Weg ist die Analyse durch "nachrechnen" des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine "Aufnahmen" der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden. Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m^3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden. An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt. Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die "Eiswände" fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch "gut verschlossen" ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit "Wischern" und "Staubsaugern" ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.
Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man "taucht" heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik — nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren — ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr  zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit — und ganz besonders in Deutschland — zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten "Experten", die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch "Festigkeit im Rechten-Glauben" ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.
Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?
Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.
Viel bedenklicher — aber anscheinend nicht so offensichtlich — ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten — und längst überprüften und für sicher befundenen — Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. "Wind und Sonne" sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.
Parallel läuft ein Überwachungsprogramm von 360 000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der "Krebstoten" nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung "Krebs" früher erkannt und besser behandelt werden kann.
Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78 000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.
Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.
Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen ("Atomexperte"), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell "Strahlenangst" erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.
Dr. Klaus-Dieter Humpich
Der Beitrag erschien zuerst bei Nukeklaus hier




Sommer 2014 in Deutschland: Ungewöhnlich nass und schwül, zu heiß oder doch eher normal?

Anhand amtlicher Messwerte zeigt sich: Der Sommer 2014 war zwar deutlich zu nass, wies aber bei weitem nicht überall rekordverdächtige Niederschlagsmengen auf. Trotz des vielen Regens erreichte die Sonnenscheindauer im Juni/Juli vielerorts ihr langjähriges Mittel oder überschritt es sogar leicht, und der Juni fiel in den meisten Gebieten sogar zu trocken aus. Ein geringfügig zu warmer Juni, ein angenehm warmer Juli und ein zu kalter August bescherten uns einen insgesamt fast temperaturnormalen Sommer. Der Nordosten Deutschlands bekam mehr Wärme ab als der Südwesten, was neben der Nässe als Besonderheit auffiel. Bliebe noch zu klären, wie sich die Sommertemperaturen in naher Zukunft entwickeln könnten.
Bild rechts: Zeitiger Herbst- Kühle sorgte schon Mitte August 2014 stellenweise für den Beginn der Laubfärbung. Quelle: lubera.com
Doch nun der Reihe nach: Anfang Juni trat zu Pfingsten eine erste Hitzewelle auf, danach setzte sich jedoch zunehmend wechselhaftes, kühles Wetter mit Höchsttemperaturen teils unter 20°C und gelegentlichen, aber meist wenig ergiebigen Niederschlägen durch. Erst Anfang Juli gab es eine erneute Hitzewelle, doch schnell kamen heftige Regenfälle und Gewitter auf, und in Südwestdeutschland kühlte es sich vorübergehend auf herbstliche Temperaturen ab. Bis zum 10. August dominierte dann eine schwül- warme Witterung, dabei war es im Nordosten und an den Küsten am freundlichsten und am trockensten. Nach dem 10. August beendete sehr windiges, überall wechselhaftes und oft herbstlich kühles Wetter den Hochsommer vorfristig. Nach diesem kurzen Rückblick wollen wir einmal die häufigsten, immer wieder geäußerten Behauptungen über den Sommer 2014 kritisch beleuchten.
Erste Behauptung: „Der Sommer war extrem nass und völlig verregnet.“
Die erste Grafik zeigt den Verlauf der sommerlichen Niederschlagssummen an der Station Potsdam (Datenquelle: PIK) seit 1893. Der Wert für 2014 ist geschätzt, weil zu Redaktionsschluss dieses Beitrages zwar die Juni- und Juliwerte vorlagen, aber der Augustwert noch fehlte. Zur Sicherheit wurde der August- Wert reichlich unter Berücksichtigung der bis zum 26. August vorliegenden Werte geschätzt:

Grafik 1: Der sehr regenreiche Sommer 2014 gehörte in Potsdam mit etwa 270 mm nicht zu den 15 nassesten Sommern seit 1893 (Roter Pfeil). Es gab aber auch niederschlagsreichere Orte, beispielsweise Erfurt (etwa 400 mm), doch liegen für diese Stationen meist keine über 100- jährigen Messreihen vor, was eine Langfristbetrachtung erschwert (in Thüringen fielen jedoch in fernerer Vergangenheit die Sommer 1910, 1924, 1926, 1927, 1954, 1956 und 1966 ebenfalls sehr nass aus).
In Potsdam schien außerdem die Sonne im Juli mit etwa 278 Stunden und im Juni mit über 230 Stunden überdurchschnittlich lange. Der August fiel meist etwas zu sonnenscheinarm aus, so dass der Sommer insgesamt sein Sonnenschein- Soll gut erfüllte, im Nordosten auch übererfüllte, nur der Südwesten war stellenweise zu sonnenscheinarm. Ein „verregneter“ Sommer wäre viel sonnenscheinärmer; so etwa 1927, 1954, 1955 und 1956, die auch allesamt sehr nass waren und daher als „verregnet“ gelten können. An den Küsten zeigte sich das Tourismusgewerbe mit dem Sommer 2014 sehr zufrieden, und auch die meisten Schwimmbäder wurden zumindest zwischen Anfang Juli und Mitte August gut besucht, im Süden war meist schon Anfang des Monats Schluss. So meldete die Stadt Aalen Ende August für diesen Sommer 30% weniger Besucher im Vergleich zum Schnitt der letzten 10 Jahre.
Zweite Behauptung: „Im Sommer 2014 gab es ungewöhnlich viele Gewitter. Das ist eine mögliche, erste Folge des Klimawandels, weil die Atmosphäre immer mehr Energie enthält.“
Anhand der Gewittertage wird klar, dass nur der Juli in diesem Sommer sehr gewitterreich war. In Potsdam gewitterte es an 12 Juli- Tagen, fast doppelt so häufig, wie im langjährigen Mittel von 6,3 Tagen. Der Rekord von 16 Tagen (Juli 1914) bleibt aber unerreicht. Der Juni traf mit 6 Tagen praktisch das langjährige Mittel von 5,7 Tagen, und auch der August, dessen Werte noch nicht vorliegen, verlief eher durchschnittlich. Besonders interessant ist jedoch die langfristige Entwicklung der Häufigkeit der sommerlichen Gewittertage (zweite Grafik):

Grafik 2: Eine Zunahme der Häufigkeit von Gewittertagen im Sommer ist nicht erkennbar- im Gegenteil!
Der Sommer 2014 wird sich mit etwa 20 bis 26 Gewittertagen in Potsdam knapp hinter der Spitzengruppe einordnen. Diese Werte lassen sich nicht einfach auf ganz Deutschland übertragen. Sie zeigen aber, dass der Sommer 2014 nicht rekordverdächtig gewitterreich war. Bisher fehlt außerdem eine langfristige Gewitterzunahme, die auf einen „Klimawandel“ hindeuten könnte.
Dritte Behauptung: „Die geradezu monsunartigen Starkregenfälle bei der großen Schwüle des Sommers 2014 sind ein Hinweis, dass unsere Sommer immer heißer und feuchter werden.“
Diese Behauptung gehört eindeutig unter die Rubrik „Wie’s gerade passt!“, denn vor noch gar nicht langer Zeit, so im heißen, trockenen Sommer 2003 und im heißen Juli 2006, wurde stets behauptet, es werde „wegen des Klimawandels“ immer heißere und trockenere Sommer geben. Was tatsächlich mit den Niederschlägen und den Sommertemperaturen in Potsdam geschah, zeigt die dritte Grafik:

Grafik 3: Niederschlag (blau, unten), Sommermittel der Lufttemperatur für Potsdam (gelblich) und die AMO- Werte (eine Schwankung der Wassertemperaturen im Nordatlantik (grün, ganz oben). Beim Niederschlag ist keine langfristige Zunahme erkennbar, wohl aber bei den Lufttemperatur- und AMO- Werten, die außerdem einer fünfzig- bis siebzigjährigen Rhythmik unterliegen und um das Jahr 2000 ihr Maximum hatten. Das Ende des etwa 210- jährigen Hauptsonnenzyklus im Jahr 2003, nach welchem ein Rückgang der Temperaturwerte einsetzte, wurde markiert (roter Pfeil und rotes Kreuz).
Eine Abbildung aus der Arbeit von Christian-D. Schönwiese & Silke Trömel „Langzeitänderungen des Niederschlags in Deutschland“, Quelle http://www.climateservice-center.de/imperia/md/content/csc/warnsignalklima/Warnsignal_Klima_Kap3.1_3.1.6_ Scho__nwiese.pdf. bei der aus allen Deutschen Stationen ein „Deutschland- Mittel“ für den Sommer (J, J, A) errechnet wurde, zeigt folgenden Niederschlagstrend:

Grafik 4: Bislang ist deutschlandweit kein eindeutiger Trend einer sommerlichen Niederschlagszunahme oder -abnahme zu erkennen.
Also fehlen eindeutige Anzeichen für immer feuchtere Sommer. Leider wird das von den Medien ebenso wenig zur Kenntnis genommen wie die Tatsache, dass einzelne, heiße Sommer oder Sommermonate kein Hinweis auf den „Klimawandel“ sind. Die wohl schönste journalistische Stilblüte stammt von der ARD aus dem Hitze- Juli 2006, als ein Nachrichtensprecher am 20. Juli ankündigte: „Zur Hitze bringt das Erste einen Brennpunkt gleich nach der Tagesschau.“ Völlig unsinnigerweise sprach man damals auch vom „Sahara- Sommer“, ohne sich darüber im Klaren zu sein, dass in der Sahara um über 10°C höhere Juli- Mittel auftreten, als im deutschen Rekord- Juli- von 2006 mit seinen nur 22°C! Siehe „DIE WELT“ vom 20.07.2006 unter http://www.welt.de/vermischtes/article230960/Sahara-Sommer-Hitzerekord-in-Sachsen-Anhalt.html .
Und zum Sommer 2014 sei noch angemerkt, dass die schwüle, gewittrige Phase mit kurzen Unterbrechungen nur knappe 6 Wochen, nämlich vom 4. Juli bis zum 10. August, dauerte. Momentan ist das sommerliche Temperaturniveau noch recht hoch, aber mit der weiter nachlassenden Sonnenaktivität und fallenden AMO- Werten (die aktuelle AMO- Warmphase geht ihrem Ende entgegen) werden sich auch die deutschen Sommer eher etwas abkühlen. Wir sind schon gespannt darauf, wie der irgendwann kommende, nächste kühle Sommer im Sinne des „Klimawandels“ interpretiert wird!
Vierte Behauptung: „Die Klimaerwärmung nimmt weiter zu. Grund ist die Zunahme des Treibhausgases Kohlendioxid.“
Wem von den EIKE-Lesern noch nicht bekannt war, dass die Jahrestemperaturen Deutschlands bereits vor der Jahrtausendwende einen abnehmenden Trend genommen haben, dem sei folgende Grafik nochmals in Erinnerung gerufen:

Grafik 5: Richtig ist: Die CO2 Konzentrationen nehmen weiter zu (kleine eingeblendete Grafik links unten), trotzdem sind die Jahrestemperaturen seit 1997 im Sinken. Somit nimmt die Klimaerwärmung nicht weiter zu, denn seit 17 Jahren wird es kälter. Diese Grafik zeigt deutlich, dass mehr CO2 keinesfalls zu einer weiteren Erwärmung führt. (Alle Temperaturangaben sind Originalwerte des Deutschen Wetterdienstes in Offenbach)
In früheren Artikeln haben wir – Leistenschneider, Kämpfe, Kowatsch- berichtet, dass die Wintertemperaturen den anderen Jahreszeiten vorauseilen. Denn bereits seit 25 Jahren haben die drei Wintermonate einen fallenden Temperaturtrend. Siehe http://www.eike-klima-energie.eu/news-cache/die-winter-werden-in-deutschland-seit-einem-vierteljahrhundert-deutlich-kaelter/ Wie verhalten sich nun die drei Sommermonate Juni/Juli/August? Fangen wir bei den Temperaturbetrachtungen im Folgenden mit den einzelnen Monaten im Vergleich zum Jahresschnitt an und enden dann mit der Gesamtbetrachtung der drei Monate.
Dass der Übergang zum sommerlichen Abkühlungstrend auch bereits begonnen hat, wollen wir im Folgenden näher beleuchten.
Der Monat Juni- der erste Sommermonat
1998 war weltweit das wärmste Jahr und in Deutschland war es das Jahr 2000. Betrachten wir den ersten Sommermonat Juni seit 1998, dann stellen wir fest, dass mit 16,5°C zu 16,1°C kein großer Unterschied erkennbar ist. Dieser Juni 2014 war lediglich etwas kälter als der Juni 1998. Der deutlich wärmste Juni liegt 11 Jahre zurück und war im Jahre 2003. Davor und danach blieben die Juni-Temperaturen etwa gleich. Die Trendlinie für den Juni ist trotzdem leicht fallend in diesem Zeitraum, da 2003 noch zur ersten Hälfte der Grafik zählt.

Grafik 6: Der Juni zeigt eine leicht fallende Trendlinie, obwohl die CO2-Konzentration über den ganzen Zeitraum gestiegen ist.
Der Hochsommermonat Juli – wird immer noch wärmer
Die meisten Menschen verbinden den Juli mit dem eigentlichen Sommer. Und da werden sie vom Gefühl nicht getäuscht. Die Jahreshitzerekorde, also der wärmste Tag des Jahres eines Ortes, liegen überwiegend im Juli. Auch im Juli 2014 wurden bei vielen Klimastationen in den Städten neue Wärmerekorde erzielt. Der Monat Juli hat sich in Deutschland in den letzten Jahren zum eigentlichen Hochsommermonat entwickelt.

Grafik 7: Im Gegensatz zum Juni ist die lineare Trendlinie beim Juli immer noch steigend. Der wärmste Juli in diesem Zeitraum seit 1998 war auch nicht 2003, sondern der Juli 2006.
Auch der Juli 2014 war mit seinem Gesamtschnitt von 19,2°C der heißeste Monat des Jahres. Vor allem in den Städten gab es neue Temperaturrekorde, was natürlich nicht auf steigende CO2- Gehalte zurückzuführen ist. Nur zufällig ähnelt die Entwicklung der Juli- Temperaturen denen der CO2- Konzentration (Schein- oder Nonsens- Korrelation). Dass der Juli vor allem in den Städten noch wärmer wird, ist eher auf die zunehmende Ausuferung der Bebauung zurückzuführen, siehe unsere Beiträge bei EIKE zum zunehmenden flächenhaften Wärmeinseleffekt, unter anderem beim EIKE hier oder hier.
Unsere Aussagen zur überwiegend nur in den Städten erfolgenden Erwärmung wurden auch durch neueste Veröffentlichungen in den USA bestätigt: hier bei WUWT.
Vor allem werden die Frischluftschneisen der Städte bereits außerhalb verbaut, so dass beispielsweise das Isartal, welches München bislang stets zuverlässig auch im Sommer aus den Alpen mit kühlender Luft versorgt hat, die Landeshauptstadt Bayerns immer weniger erreicht und die nächtliche Abkühlung bereits vor den Toren Münchens aufgezehrt ist.
Der August – deutlich fallende Temperaturtendenz.
Der Monat August passt sich deutlich der fallenden Jahrestendenz, siehe lineare Trendlinie bei Grafik 5, an und übertrifft diese sogar. Vor allem die zweite Monatshälfte zeigt mittlerweile deutlich den Übergang in den Herbst, oftmals beginnt schon die Laubfärbung. So auch in Weimar 2014, als sich um den 20. August schon die ersten Ebereschen oder der Wilde Wein zu färben begannen und bei empfindlicher Morgenkühle zwischen 4 und 7°C die ersten Passanten eine Mütze trugen. Die kleine, in den Grafiken 8a und b eingeblendete Entwicklung der C02-Konzentationen von Stefan Kämpfe zeigt für den August deutlich die gegenläufige Korrelation von CO2 und Augusttemperaturen und beweist einmal mehr, dass Kohlendioxid keinen oder fast keinen Einfluss auf die Temperaturen in Deutschland und auch global, hat.

Grafik 8a: Die Augustmonate zeigen eine deutlich fallende Temperaturtendenz im Gegensatz zur steigenden CO2-Kurve (siehe eingeblendete kleine Grafik). Der August ist seit einigen Jahren nicht mehr der wärmste Monat des Jahres.
Bemerkenswert ist aber, dass die Abkühlungstendenz nicht erst kurz vor der Jahrtausendwende beginnt, sondern ähnlich wie die der Wintertemperaturen bereits vor 25 Jahren eingesetzt hat. Der Sommermonat August wird also seit 25 Jahren bereits kälter. Das zeigt uns die nächste Grafik 8b:

Grafik 8b: Der Monat August hat bereits seit 25 Jahren eine fallende Trendlinie. In der 2.ten Augusthälfte kündigt sich oftmals bereits der Herbst mit kalten Nächten an. Der August 2014 war geradezu ein Beweis dieser Tendenz. (Wir gehen davon aus, dass die vorläufigen 16C vom August 14 noch nach unten korrigiert werden.)
Aufgrund dieser Grafiken, alle basierend auf den Daten des Deutschen Wetterdienstes (DWD) in Offenbach, ergibt sich für den Sommer in Deutschland eine einfache Grundaussage:

  1. Der Monat Juni zeigt ein leichte Tendenz zu kälter

  2. Der Monat Juli hat immer noch eine deutlich steigende Temperaturtrendlinie

  3. Der August hat eine fallende Trendlinie schon seit 25 Jahren.

Auch durch das Temperaturverhalten der drei Sommermonate wird also das immer noch propagierte Märchen von der ewigen Klimaerwärmung aufgrund zunehmender anthropogener CO2-Konzentration nicht bestätigt.
In der Zusammenschau aller drei Sommermonate zur Jahreszeit Sommer ergibt sich für Deutschland:
Der Sommer in Deutschland zeigt keinen signifikanten Temperaturtrend. Die lineare Trendlinie ist nahezu ausgeglichen. Der wärmste Sommer war im Jahre 2003. An der polynomischen Trendlinie ist aber zu erahnen, dass auch der sommerliche Abkühlungstrend bereits begonnen hat. In der freien Fläche, weitab der Wärmezonen der menschlichen Ansiedlungen, ist dies bereits Fakt. Wenn man berücksichtigt, dass die Sonne, der wesentliche Taktgeber des Klimas, immer inaktiver wird (der gegenwärtige Sonnenfleckenzyklus Nr. 24 ist der schwächste seit fast 200 Jahren), so ist bei der von den meisten Astrophysikern prognostizierten solaren Inaktivität eher eine mehr oder weniger deutliche Abkühlung aller Jahreszeiten in Deutschland zu erwarten. Näheres zur Sonnenaktivität unter anderem in dem aktuellen EIKE- Beitrag „Ist es doch die Sonne?“ unter http://www.eike-klima-energie.eu/news-cache/ist-es-doch-die-sonne/ Freilich sind solche Vorhersagen immer mit großen Unsicherheiten behaftet, und selbst wenn es sich abkühlen sollte, so wird es auch in Zukunft noch heiße Sommer geben, wenngleich seltener, als in der jüngsten Vergangenheit.
In der letzten Grafik sind die Temperaturen der drei Sommermonate zur Jahreszeit „Sommer“ zusammengefasst.

Grafik 9: Die polynomische Trendlinie zeigt, dass auch der Sommer –ähnlich wie die Gesamtjahre in Grafik 5 – allmählich in eine Abkühlungsphase übergeht. In den unbebauten, naturnahen Flächen Deutschlands, außerhalb der Wärmeinseln der Bebauung, ist diese Abkühlungsphase bereits deutlicher zu beobachten.
Gesamtergebnis: Der Sommer 2014 in Deutschland war eher normal, er zeigte allerdings mit der deutlichen Abkühlung ab Mitte August schon verfrüht herbstliche Züge.
Josef Kowatsch, Hüttlingen
Stefan Kämpfe, Weimar




Deutschlands teures Vabanquespiel mit Erneuerbarer Energie

Auf der Stromautobahn, wie sie offiziell genannt wird, werden keine Audis oder BMWs fahren, sondern Hochspannungsstrom über Hunderte Kilometer durch Aluminium- und Stahlkabel, die sich von der Nordsee bis zu Deutschlands wichtigstem Industriegebiet im Süden erstreckt.
Das Projekt ist der Dreh- und Angelpunkt der deutschen Energiewende, einem Billionen Euro teuren Mammutplan, dem Land bis zur Mitte dieses Jahrhunderts den Verbrauch von Kernkraft und fossilen Treibstoffen abzugewöhnen. Er steht in der heimischen Prioritätenliste von Kanzlerin Angela Merkel an oberster Stelle.
Aber viele Unternehmen, Ökonomen und selbst die Nachbarn Deutschlands befürchten, dass die enormen Kosten, ein bis vor kurzem reibungslos funktionierendes System auszutauschen, die industrielle Basis des Landes unterminieren wird und sich negativ auf die gesamte Wirtschaft Europas auswirkt. Der Rückgang des deutschen BIP im zweiten Quartal dieses Jahres um 0,6%, über den wir kürzlich berichtet haben, verpasste dem Wachstum in der Eurozone einen Dämpfer und hinterließ einen stagnierenden Verlauf im Quartal. 
Die mittleren Strompreise für Unternehmen sind während der letzten fünf Jahre in die Höhe geschnellt, und zwar wegen der Kosten, die als Teil der Regierungs-Subventionen an die Erzeuger erneuerbarer Energie an die Kunden weitergereicht worden sind. Die Preise liegen jetzt mehr als doppelt so hoch wie in den USA. „Die deutsche Industrie wird allmählich ihre Wettbewerbsfähigkeit verlieren, falls dieser Trend nicht bald umgekehrt wird“, sagte Kurt Bock, leitender Direktor von BASF SE, dem weltgrößten Chemieunternehmen.

Weiterlesen bei Wallstreet Journal Deutschland hier




Ein aufreibendes Klima

Bild rechts: Der Wissenschaftler Murry Salby argumentiert, dass ein Schlüsselfaktor hinter steigenden Temperaturen der Wärmeaustausch zwischen Atmosphäre und Ozean ist. Bild: Edward Frazer/Corbis
Und doch weisen hoch ausgezeichnete Wissenschaftler einschließlich des Physik-Nobelpreis-Gewinners Ivar Giaever zurück, was unter der Bezeichnung „Klimakonsens“ bekannt ist. Giaever ist aus der American Physical Society ausgetreten aus Protest gegen das Statement dieses Vereins, dass die Beweise für die globale Erwärmung „unwiderlegbar“ seien und dass die Regierungen sofort handeln müssten, um die Treibhausgas-Emissionen zu reduzieren. Sechzehn angesehene Wissenschaftler unterzeichneten im Jahr 2012 einen Artikel im Wall Street Journal, in dem sie argumentierten, dass die Durchführung drastischer Maßnahmen, um die Weltwirtschaft zu „dekarbonisieren“, durch die beobachteten wissenschaftlichen Beweise nicht gerechtfertigt war – zumal dieser Vorgang erhebliche Auswirkungen auf das Wirtschaftswachstum und die Lebensqualität haben würde, vor allem in Entwicklungsländern. Und genau wie Giaever stellten sie einen Klimakonsens in Abrede – und auch das unwissenschaftliche Abwürgen von Untersuchungen und die Marginalisierung von Abweichlern als „Ketzer“. Erst vor kurzem hat sich der berühmte Klimawissenschaftler Lennart Bengtsson von seinem Posten in einer klimaskeptischen Denkfabrik zurückgezogen, nachdem er hunderte wütender E-Mails von anderen Wissenschaftlern bekommen hatte. Er bezeichnete den Druck als „nahezu untragbar“.
Ein anderer Abweichler, der amerikanische Atmosphärenphysiker Murry Salby, hat eine grundlegende Analyse durchgeführt, die wesentliche Hypothesen der AGW-Sichtweise unterminiert. Seine Arbeit und deren Aufnahme illustrieren, wie wenig „settled“ die Klimawissenschaft bleibt – und wie bestimmt AGW-Befürworter einen Konsens erzwingen wollen zu einer der großen Fragen unserer Zeit.
Im April 2013 wollte Salby nach einer Vortragsreise seiner Arbeiten durch Europa vom Pariser Flughafen Charles de Gaulle nach Australien zurückfliegen, wo er ein Professor der Klimawissenschaft an der Macquarie University war. Er musste zu seinem Verdruss erfahren, dass die Universität sein nicht ersetzbares Rückflugticket annulliert hatte. Während Salby also in Paris gestrandet war, hat man bei Macquarie rasch ein Verfahren wegen Fehlverhaltens gegen ihn eingeleitet, das schnell zu seinem Rauswurf führte. Die Universität behauptete, dass sie Salby nicht wegen seiner Ansichten zum Klima gekündigt hatte, sondern weil er nicht „seine akademischen Verpflichtungen erfüllt hatte einschließlich seines Lehrauftrags“, und weil er „gegen die Universitätsordnung verstoßen hatte hinsichtlich seiner Reise und dem Gebrauch von Mitteln der Universität“.
Salby und seine Unterstützer können die Behauptungen der Hochschule kaum glauben. Salbys Gegner verweisen auf Berichte einer Untersuchung durch die National Science Foundation NSF gegen ihn mit dem Vorwurf ethischer Ungehörigkeit – Behauptungen, die auf einem Anti-Klimaskeptiker-Blog aufgetaucht waren, zusammen mit Gerichtspapieren in Bezug auf seine Scheidung. Salby lag tatsächlich im Konflikt mit der NSF – die Organisation verbot ihm für drei Jahre die Annahme von Forschungsgeldern, obwohl er als Dozent in Australien dazu gar nicht berechtigt war – und mit der University of Colorado, wo er zuvor gelehrt hatte und in einem Jahrzehnte langen Disput mit einem anderen Akademiker lag. Einmal hat die NSF das Verschwinden von 100.000 Dollar Forschungsgelder für Salby untersucht, die nach der Untersuchung an Salbys Gruppe zurückgeflossen waren. Wie auch immer, bei all diesen Dingen ging es um bürokratisches Klein-Klein. Sie haben keinen Bezug zu seiner Wissenschaft. Und Salby hatte sich als Wissenschaftler hohe Verdienste erworben. Er war ursprünglich Ausbilder als Luft- und Raumfahrtingenieur, bevor er zur Atmosphärenphysik wechselte und eine hoch geachtete Karriere durchlief. Er lehrte an der Georgia Tech, Princeton, Hebrew und Stockholm Universities, bevor er an die University of Colorado wechselte. Und er war involviert als Begutachter in den ersten beiden IPCC-Zustandsberichten.
Ende der neunziger Jahre begann Salby ein Projekt mit dem Ziel der Analyse von Änderungen des atmosphärischen Ozons. Seine Forschungen ergaben Beweise für eine systematische Erholung des Ozons, was die Wissenschaft hinter dem Montreal-Protokoll von 1987 validierte, dem zufolge spezielle Schritte unternommen werden sollten, Ozon zerstörende Gase zu verbannen. Mit der Vorbereitung zum Verfassen eines Lehrbuches für Studenten mit dem Titel Physics of the Atmosphere and Climate, das später von Cambridge University Press veröffentlicht worden und von einem Begutachter als „unerreicht in Breite, Tiefe und Klarheit“ gelobt worden ist, hat Salby dann eine methodische Untersuchung von AGW durchgeführt. Deren Ergebnis hat ihn „absolut überrascht“.
Die meisten AGW-Diskussionen drehen sich um die klimatischen Auswirkungen eines steigenden Gehalts von Kohlendioxid in der Atmosphäre. Wie es dorthin überhaupt gekommen war – die Hypothese ging davon aus, dass die Zunahme zum allergrößten Teil durch menschliche Aktivitäten ausgelöst worden ist – wird oft als gegeben hingenommen. Und doch glaubte Salby, dass er klare Beweise dafür entdeckt hatte, dass dies nicht der Fall war, und seine Europareise diente dazu, diesen Fall öffentlich vorzutragen.
Das IPCC schätzt, dass die Menschen seit der Industriellen Revolution 365 Milliarden Tonnen Kohlenstoff durch das verbrennen fossiler Treibstoffe in die Atmosphäre eingebracht haben. Jährliche Emissionen einschließlich jener aus Entwaldung und Zementproduktion, betragen weniger als 9 Milliarden Tonnen. Und doch enthält der natürliche Kohlenstoffzyklus einen jährlichen Austausch von Kohlenstoff zwischen der Atmosphäre, dem Festland und dem Ozean, der viele Male größer ist als Emissionen durch menschliche Aktivitäten. Das IPCC schätzt, dass 118,7 Milliarden Kohlenstoff pro Jahr aus dem Festland und 78,4 Milliarden Tonnen aus den Ozeanen emittiert werden. Folglich beträgt der menschliche Beitrag von 9 Milliarden Tonnen pro Jahr weniger als 5% der Gesamt-Emissionen. Die AGW-Hypothese ebenso wie die davon abhängigen politischen Maßnahmen zur Klimaänderung gehen davon aus, dass die 5% menschlicher Beitrag die Gesamtänderung der CO2-Menge in der Atmosphäre treibt – und dass die anderen 95% aus natürlichen Emissionen ausgeglichen werden durch Absorption des atmosphärischen CO2 durch natürliche Prozesse. Alles in allem erklärte das IPCC in seinem 4. Zustandsbericht 2007: „Es ist bekannt, dass die Zunahme des atmosphärischen CO2-Gehaltes menschlichen Aktivitäten geschuldet ist“.
Salby verficht den Standpunkt, dass die IPCC-Behauptung nicht durch Beobachtungen gestützt wird. Das Verständnis der Wissenschaftler hinsichtlich der komplexen Klimadynamik ist unterentwickelt, nicht zuletzt weil die Wärmekapazität der Ozeane 1000 mal größer ist als die der Atmosphäre und relevante physikalische Beobachtungen der Ozeane so selten sind. Solange dieser Umstand nicht beseitigt ist, kann die Wissenschaft nicht ,settled‘ sein. Salby zufolge zeigen die Beweise in Wirklichkeit, dass die AGW zugrunde liegende Kausalität umgekehrt werden sollte. Anstatt dass ein steigender CO2-Gehalt in der Atmosphäre einen globalen Temperaturanstieg auslöst, steigen die Temperaturen zuerst – und sind die Ursache für die große Mehrheit der Änderungen der Gesamtemissionen von CO2, wobei Änderungen der Feuchtebedingungen im Erdboden für den Rest sorgen. Außerdem erklären diese beiden Faktoren Änderungen der Gesamt-Methanemissionen, dem zweitwichtigsten „menschlichen“ Treibhausgas. Hinsichtlich der Gründe für einen globalen Temperaturanstieg sagt Salby, dass einer der wichtigsten, die Temperatur beeinflussenden Faktoren der Wärmeaustausch zwischen Atmosphäre und Ozean ist.
Warum ist sich das IPCC so sicher, dass die 5 % menschlicher Beitrag verantwortlich sind für die jährliche Zunahme des CO2-Niveaus? Ohne andere mögliche Hypothesen auch nur in Erwägung zu ziehen argumentiert das IPCC, dass das Verhältnis von schweren zu leichten Kohlenstoffatomen in der Atmosphäre „sich in einer Art und Weise verändert hat, dass man die Zunahme des Kohlenstoffs fossilen Treibstoffen zuordnen kann“ – wobei leichter Kohlenstoff steigt. Fossile Treibstoffe wurden natürlich aus Pflanzen und Tieren gebildet, die vor hunderten Millionen Jahren lebten; das IPCC führt aus, dass CO2-Emissionen aus der Verbrennung fossiler Treibstoffe den Anteil schwerer Kohlenstoffatome in der Atmosphäre verringert, seit Pflanzen dazu tendieren, mehr leichten als schweren Kohlenstoff zu absorbieren. Aber Salby verweist auf viel größere natürliche Prozesse wie Emissionen aus der Verrottung von Pflanzen, die ebenfalls den Anteil schweren Kohlenstoffs reduzieren. Die Temperatur beeinflusst stark die Rate mikrobakterieller Aktivitäten, die bei diesen natürlichen Prozessen inhärent sind, und Salby schreibt, dass der Anteil von schwerem Kohlenstoff an den Emissionen zurückgeht, immer wenn es warm ist. Noch einmal, die Temperatur ist der wahrscheinlichere Grund für beobachtete atmosphärischen Änderungen, und nicht deren Auswirkungen.
Außerdem präsentiert Salby Satellitenbeobachtungen, die zeigen, dass sich die höchstens CO2-Niveaus nicht über industrialisierten Gebieten finden, sondern über dünn besiedelten und nicht industrialisierten Gebieten wie z. B. dem Amazonas. Und falls die menschlichen Emissionen hinter dem steigenden Niveau des CO2 stecken, argumentiert er, dann sollte die jährliche Änderung des CO2-Gehaltes die Haupt-Verbrennungsgebiete fossiler Treibstoffe abbilden – wobei die natürlichen CO2-Emissionen herausgefiltert werden durch Senken auf dem Festland und dem Ozean. Aber die jährlichen CO2-Änderungen folgen nicht den jährlichen CO2-Emissionen durch Verbrennung fossiler Treibstoffe, wie die Abbildung zeigt. Darin erkennt man, dass dass eine jährliche Zunahme von 1 ppm in etwa äquivalent ist mit einer jährlichen Wachstumsrate von 0,25%.
Während es von 1972 bis 1993 zu einer Zunahme der Emissionen aus fossilen Treibstoffen um 30% gekommen war, gab es keine Zunahme der jährlichen Gesamt-Emission – das heißt, natürliche plus menschliche Emissionen, weniger Re-Absorption in Kohlenstoff-Senken. Diese Daten, beobachtet Salby, sind inkonsistent mit der Behauptung des IPCC hinsichtlich der Gewissheit bzgl. des Menschen als Ursache des steigenden CO2-Niveaus in der Atmosphäre. Fast zwei Jahrzehnte lang hat sich das IPCC abgemüht, die große Variabilität der Gesamt-CO2-Emissionen von Jahr zu Jahr zu erklären (die gezackte untere Linie in der Abbildung). Verschiedene Gründe sind angeführt worden für die Verlangsamung der CO2-Zunahme, „aber keiner davon erklärt ausreichend dieses ungewöhnliche Verhalten des Kohlenstoff-Kreislaufes“, gibt das IPCC in seinem 3. Zustandsbericht zu.
Das IPCC fällt in seiner Unfähigkeit, die natürlichen Änderungen der CO2-Emissionen zu erklären, zurück auf seine Hypothese einer starken natürlichen Tendenz hin zu einem Gleichgewicht: mit der Zeit gleichen sich Emissionen und Absorptionen aus, was den Menschen als Verantwortlichen für das Ungleichgewicht in der Natur zurücklässt. Aber, wie Salby beobachtet, postuliert das IPCC diese Tendenz bloß ohne sie zu zeigen. Das Vertrauen des IPCC in die Zuordnung der Erwärmung zu menschlichen Aktivitäten ist folglich höchst fragwürdig – besonders, weil die Lufttemperaturen während der letzten eineinhalb Jahrzehnte nicht gestiegen sind, selbst trotz des stetig zunehmenden CO2-Gehaltes. Weiter: während die gemessene globale Temperatur im vorigen Jahrhundert nur um weniger als 1°C gestiegen ist, erfolgte dies nicht als stetige Erwärmung. Fast die gesamte Erwärmung im 20. Jahrhundert erfolgte in vier Jahrzehnten – ein Teil in den Jahren zwischen den Weltkriegen und ein Teil in den achtziger und neunziger Jahren – weniger als ein Drittel der gesamten Temperaturaufzeichnung.
Ginge es nicht um die Implikationen für AGW, wären Salbys Forschungen zum Kohlenstoff-Kreislauf ein Segen für die in Schwierigkeiten steckenden Bemühungen des IPCC, die Variabilität von Jahr zu Jahr der CO2-Emissionen zu erklären. Seine Arbeit bietet ein kohärentes Bild der Änderungen der Gesamtemissionen, wo die Änderungen eng Vorgaben einer Kombination von Temperatur und Bodenfeuchtigkeit folgen – was sowohl die niedrigen Gesamtemissionen Anfang der neunziger Jahre und den Spitzenwert im Jahre 1998 erklären kann. Salby betont auch, dass die Temperatur allein zum großen Teil verantwortlich sein kann für den Anstieg des atmosphärischen CO2 in der ersten Hälfte des 20. Jahrhunderts, wobei die Daten der Bodenfeuchtigkeit unzureichend sind. Die Gesamt-Methan-Emissionen folgen den natürlichen Bedingungen an der Oberfläche sogar noch enger.
Ein weiterer Punkt im Falle des IPCC war die Behauptung aufgrund von Aufzeichnungen des CO2-Gehaltes in Eisbohrkernen, dass das gegenwärtige CO2-Niveau beispiellos ist. Aber hier, stellt Salby fest, war die Lösung des im Eis eingeschlossenen CO2 – was zuvor ignoriert worden war – ein Vorgang, der das Bild prähistorischer Änderungen des atmosphärischen CO2-Gehaltes radikal verändert hat. Selbst eine nur geringe Lösung würde bedeuten, dass derartige Änderungen bis jetzt signifikant unterschätzt worden sind – und es würde auch implizieren, dass jüngste Änderungen des CO2-Gehaltes eben nicht beispiellos sind. Falls Salby recht hat, ist die unmissverständliche Behauptung des IPCC, dass das gegenwärtige CO2-Niveau das höchste seit mindestens 800.000 Jahren ist, nicht mehr haltbar.
Tatsächlich weist der jüngste IPCC-Bericht 2013 in die von Salby vorgegebene Richtung. Die Eisbohrkern-Aufzeichnungen des atmosphärischen CO2 zeigen „interessante Variationen“, heißt es darin, die mit klimainduzierten Änderungen des Kohlenstoff-Kreislaufes erklärt werden können. Der Bericht räumt auch zögernd ein, dass die 15-jährige Stagnation der CO2-Zunahme seit 1940 „möglicherweise“ verursacht worden ist durch leicht sinkende Temperaturen auf dem Festland der Nordhemisphäre.

Salby hat nicht im luftleeren Raum gearbeitet. Der schwedische Klimawissenschaftler Pehr Björnbom hat sein Ergebnis nachvollzogen, dass die Temperatur der Treiber von CO2-Emissionen ist. Der Geowissenschaftler Prof. Ole Humlum von der University of Oslo veröffentlichte im Jahre 2012 eine wegweisende Studie, in der er zeigte, dass Änderungen des CO2-Gehaltes Temperaturänderungen folgen, was den gleichen Effekt von Ursache und Wirkung zeigt. Richard Lindzen, ein Atmosphären-Physiker am MIT glaubt, dass Salby recht hat hinsichtlich des Unvermögens des IPCC, die Auswirkungen der Lösung im Eis aus Proxy-CO2-Aufzeichnungen zu evaluieren sowie hinsichtlich anderer Quellen leichten Kohlenstoffes als die Verbrennung fossiler Treibstoffe. Salby ist ein „ernsthafter Wissenschaftler“, dessen Argumente es verdient haben, angehört zu werden, sagt Lindzen. Fritz Vahrenholt, ehemals Direktor eines großen Erneuerbare-Energien-Unternehmens und gleichzeitig einer der führenden Klimaskeptiker Deutschlands, fand Salbys Analyse, dass CO2-Änderungen den Temperaturänderungen hinterher hinken, überzeugend. „Murry Salby öffnete eine Tür für mehr Untersuchungen und weitere wissenschaftliche Arbeit“, sagt Vahrenholt.
Wird die wissenschaftliche Gemeinschaft den von Salby aufgeworfenen Fragen nachgehen? Vahrenholt hat seine Zweifel. „AGW-Vertreter nehmen nicht an Diskussionen teil, in denen ihre orthodoxe Sichtweise herausgefordert wird“, beklagt er sich. Ein Weg, Untersuchungen zu blockieren, ist es sicherzustellen, dass Studien von Klimawissenschaftlern mit abweichenden Standpunkten nicht in der begutachteten Literatur erscheinen – ein Problem, mit dem Lindzen und Bengtsson konfrontiert waren. Tatsächlich ist das auch Salby widerfahren. Er reichte dem Journal of the Atmospheric Sciences eine Studie ein. Man fand keine Fehler – ein Begutachter nannte das „absolut erstaunlich“ – doch forderte das Journal eine kleine Überarbeitung. Bevor Salby die überarbeitete Studie zur Veröffentlichung erneut einreichen konnte, ist der Herausgeber eines anderen Journals, Remote Sensing zurückgetreten wegen der Veröffentlichung einer Studie, die von der IPCC-Position abgewichen war, und zwar mit der erbärmlichen Begründung: „Aus rein formaler Sicht gab es keine Fehler im Begutachtungs-Prozess. Aber so, wie die Dinge jetzt stehen, hat das Redakteursteam unabsichtlich drei Begutachter gewählt, die möglicherweise einige der skeptischen Ansichten der Autoren teilen“. Kurz danach hat Salby einen Brief erhalten, in dem seine überarbeitete Studie abgelehnt wurde aufgrund der Behauptung eines zweiten Begutachters, der im Widerspruch zum ersten Begutachter behauptet hatte, dass seine Studie nichts Neues zeige und dass alles darin bereits von den IPCC-Berichten abgedeckt war.
Salbys vorherige Ergebnisse führten ihn zu einer erweiterten Studie, in der er unter Anderem berechnete, dass die beobachtete Beziehung zwischen der globalen Temperatur und CO2 fundamental von der in den Modellen beschriebenen Beziehung abweicht. Seine Bemühungen zur Veröffentlichung der Studie endeten, zumindest vorläufig, mit seinem Rauswurf aus seiner akademischen Position bei Macquarie. Bis jetzt sind Salbys Klimaanalysen nur in vorläufiger Form in seinem begutachteten Buch erschienen, dass von Cambridge University Press veröffentlicht worden ist.
Es war keine Überraschung, dass auch danach der Konsens-Standpunkt zum Kohlenstoff-Kreislauf war, dass menschliche CO2-Emissionen „fast mit Sicherheit“ der dominante Faktor hinsichtlich der gegenwärtigen CO2-Konzentration seien. In einer Aktualisierung des Katechismus‘ zur globalen Erwärmung, durchgeführt in Zusammenarbeit von der National Academy of Sciences und der Royal Society, erklärten die beiden Gesellschaften: „Die fortgesetzten Emissionen dieser Gase werden zu einer weiteren Klimaänderung führen einschließlich einer substantiellen Zunahme der globalen mittleren Temperatur“.
Falls sie den Standards der wissenschaftlichen Revolution vor drei Jahrhunderten gefolgt wären, hätten die Akademien derartige definitive Behauptungen nicht aufstellen können. Der Astronom und Philosoph John Herschel forderte im 19.Jahrhundert, dass der Wissenschaftler die Rolle eines Antagonisten gegen seine eigenen Theorien einnehmen sollte; die Güte einer Theorie wurde ausschließlich belegt durch das Standhalten gegen solche Angriffe. Einstein begrüßte Versuche, die Theorie der Allgemeinen Relativität zu widerlegen: „Auch noch so viele Experimente können niemals beweisen, dass ich recht habe; aber ein einziges Experiment kann mich widerlegen“, sagte er einmal. Der Philosoph Karl Popper begründete dies einmal: Wir können in der Wissenschaft nicht sicher sein, was die Wahrheit ist, aber wir können in Erfahrung bringen, was falsch ist. Man nähert sich der Wahrheit nur durch Widerlegung dessen, was als falsch apostrophiert wird. Popper begründete das Prinzip der Falsifizierbarkeit, was die wissenschaftliche Theorie von den Pseudowissenschaften von Freud und Marx absetzte. Deren Jünger fanden Erhärtungen, wo auch immer sie hinschauten.
Das IPCC und andere führende wissenschaftliche Institutionen [ist das IPCC überhaupt eine solche? Anm. d. Übers.] scheinen ebenfalls einer vorwissenschaftlichen Denkweise anzuhängen: „Suche, und du wirst finden!“. Die Formulierungen „konsistent mit“ und „viele Beweislinien“ ziehen sich durch alle IPCC-Berichte. Der 5. Zustandsbericht, veröffentlicht 2013, zog sich ein wenig zurück aus der in früheren Berichten kolportierten Gewissheit, dass der menschliche Beitrag ausschlaggebend für den Gesamt-CO2-Gehalt war. Jetzt drückte das IPCC ein „sehr hohes Niveau von Sicherheit“ aus, das, so sagt es, „auf vielen Beweislinien basiert, die konsistent sind“ mit dieser Behauptung. Konsistenz mit einem Vorschlag ist Wissenschaft in schwacher Form – schließlich ist der Umstand, dass der Mond die Erde umkreist, konsistent mit der prä-kopernikanischen Astronomie – und eine Sache der Pseudowissenschaften, die Popper Anfang des 20. Jahrhunderts in Wien gefunden hatte. Zusätzlich zum Trachten nach Sicherheit gebenden Beweisen übernehmen die AGW-ler oftmals das wissenschaftliche Äquivalent von frage nicht, sage nichts, wenn es um Lücken in den wissenschaftlichen Erkenntnissen geht – vor allem, wenn es um jene Lücken geht, die, wenn man sie ausfüllt, ihre Position absehbar falsifizieren können. Das Paper der National Academy/Royal Society aus dem Jahr 2014 ignoriert vollständig die Frage der Variabilität der Gesamt-CO2-Emission von Jahr zu Jahr. Anstatt diese einer Überprüfung als Antagonisten á la Herschel zu unterziehen, wurden das IPCC und die nationalen Wissenschafts-Akademien zu dessen Cheerleaders.
Das National Academy/Royal Society-Paper besteht darauf, dass „die Klimaänderung eine der grundlegenden Themen unserer Zeit ist. Es ist auf der Grundlage vieler Beweislinien jetzt sicherer als je zuvor, dass die Menschen das Klima der Erde verändern … Allerdings ist wegen der Natur der Wissenschaft nicht jedes einzelne Detail jemals total settled oder absolut sicher“. Hinsichtlich des Kohlenstoff-Kreislaufes ist dies eine ernste Fehlinterpretation: Diese ist kein Detail, sondern fundamental für die wissenschaftliche Grundlage von AGW. Die Implikationen für AGW durch Salbys Analyse, falls diese Bestand hat, sind enorm: Falls AGW bedeutet, dass menschliche CO2-Emissionen signifikant die globalen Temperaturen verändern; oder stärker, dass sie die Entwicklung der globalen Temperatur steuern; oder noch stärker, dass sie die Temperaturen dazu bringen, katastrophal zuzunehmen, dann ist AGW durch das beobachtete Verhalten falsifiziert.
Sein 5. Zustandsbericht 2013 war des IPCC letzte große Chance, vor der Klimakonferenz in Paris im Dezember 2015 Abkündigungen zu machen. Trotz des leichten Rückzugs von der Position der menschlichen Rolle hinsichtlich des zunehmenden CO2 hat das IPCC sein Niveau von Sicherheit hinsichtlich der menschlichen Verantwortung der Temperaturzunahme noch angehoben – von 90 Prozent in früheren Berichten auf 95 Prozent jetzt, obwohl diese Zunahme großenteils das Ergebnis einer Änderung der Definition war. Die Autoren des Berichtes haben nichts dazu gesagt, warum es während der letzten Jahre keine Erwärmung gegeben hatte, und zwar mit der Begründung, dass zu diesem Thema noch nicht genug veröffentlicht worden sei. Dieser Mangel sollte für niemanden überraschend kommen, der mit dem Zustand der Klimawissenschaft vertraut ist.
Aufrichtige wissenschaftliche Untersuchungen werden degradiert, wenn die Wissenschaft politisiert wird. Die Standards, die seit der wissenschaftlichen Revolution in Kraft waren, stehen im Konflikt mit der notwendigen Befürwortung politischer Maßnahmen, und AGW wäre als Grundlage politischer Programme erledigt, falls das Vertrauen in den wissenschaftlichen Konsens unterminiert werden würde. Wenn dessen Befürworter rigorosen Falsifizierungs-Tests ausweichen, zeigt dies die Schwäche von AGW als Wissenschaft. Als akademischer Kritiker der Wissenschaft, auf der AGW beruht, kann Murry Salby vorerst zum Schweigen gebracht worden sein. Das beobachtete Verhalten der Natur, aus dem er seine Analyse ableitete, kann aber nicht so einfach beiseite geschoben werden.
Rupert Darwall is the author of The Age of Global Warming: A History, published by Quartet (2013).
Link: http://www.city-journal.org/2014/24_3_global-warming.html
Übersetzt von Chris Frey EIKE




Blackout gefällig?

Münsterland als Vorbote

Der letzte größere Blackout in Deutschland geschah am 28. November 2005 im Münsterland. Ein heftiger Schneefall brach über diese Gegend herein, der nasse Schnee klebte an den Stromleitungen und Masten, bis diese schließlich unter diesem Gewicht zusammenkrachten. In der Folge knickten weitere Masten unter der Schneelast, sodass ein großer Landstrich mit 250.000 Bewohnern ohne Strom war. Der Verkehr kam sofort zum Erliegen, aber auch die vielen Kühe dieser ländlichen Gegend konnten nicht zur gewohnten Zeit gemolken werden, was einen besonderen Stress für diese Tiere bedeutete. Das Technische Hilfswerk musste mit Notstromaggregaten ausrücken, um die Melkmaschinen in Gang zu setzen.
Wegen der umfangreichen Störungen im Verteilnetz, dauerte es über eine Woche, bis die Gegend wieder vollständig mit Strom versorgt werden konnte. Für Deutschland war ein so langer Stromausfall über lange Zeit eine Ausnahme. Der Schaden hielt sich jedoch in Grenzen, weil viel nachbarschaftliche Hilfe gewährt wurde und die umliegenden größeren Städte von diesem Blackout verschont blieben. 

Planspiele der Bundesregierung

Der Münsteraner Blackout war für die Bundesregierung der Anlass, ein Expertengremium darüber beraten zu lassen, was so alles bei einem wirklich großräumigen Stromausfall passieren könnte. 
Im Folgenden werden die Erkenntnisse dieser Fachleute stichpunktartig zusammengefasst:
– Die Festnetztelefone fallen sofort aus, die Mobiltelefone einige Tage später.
– Fernseher und Radio fallen sofort aus, sofern nicht batteriebetrieben.
– Alle Internetverbindungen sind gestört, weil die Router ausfallen.
– Der Schienenverkehr bricht sofort zusammen; Passagiere müssen aus Tunnels geborgen werden.
– Die Schranken der Tiefgaragen blockieren.
– Die Tankstellen fallen aus, da Pumpen nicht betriebsbereit.
– Alle Fahrstühle und Rolltreppen kommen abrupt zum Stillstand.
– Die gesamte Beleuchtung einschließlich der nächtlichen Straßenlaternen fällt aus.
– Alle Heizungen und Klimaanlagen fallen aus.
– Alle Industrie- und Handwerksbetriebe müssen die Arbeit einstellen.
– Das Trinkwasser fällt aus, weil die Pumpen ohne Strom sind.
– Die Abwasseranlage- und Toiletten funktionieren nicht mehr.
– Milchvieh, Schweine und Geflügel sind schon nach wenigen Stunden extrem gefährdet.
– Die Geschäfte müssen schließen, da Ladenkassen nicht funktionieren. 
– Die Lebensmittelversorgung bricht mangels Nachschub zusammen.
– Die Bankfilialen bleiben geschlossen, da die Geldautomaten nicht funktionieren. 
– In den Krankenhäusern kommen die OP- und Dialysestationen in große Schwierigkeiten.
– Die Polizei kann mangels Mobilität ihre Aufgaben nicht mehr erledigen.
– Die Kriminalität nimmt rasch zu.
– etc. etc. etc.
Die oben genannten Experten haben auch die volkswirtschaftlichen Kosten eines Blackouts berechnet. Sie kommen auf 10 Euro pro nicht gelieferter Kilowattstunde. Dazu ein Rechenbeispiel:
Nehmen wir an, im Spätherbst passiere in Deutschland flächendeckender Stromausfall. Zu dieser Jahreszeit würden etwa 70 Gigawatt, entsprechend 70 Millionen Kilowatt Leistung ausfallen. Dann gilt für 1Stunde Stromausfall folgende Rechnung: 70 Millionen kWh mal 10 Euro = 700 Millionen Euro. Für 10 Stunden wären wir bereits bei 7 Milliarden Euro angelangt; in einer knappen Woche bei 70 Milliarden Euro. Wahnsinnige volkswirtschaftliche Kosten!

Ursachen und deren Behebung

Sieht man von menschlichem Versagen ab, so können Blackouts vor allem als Folge eines Spannungskollapses passieren oder aus Netzüberlastung. Ersteres ist denkbar, wenn große Energiemengen über weite Entfernungen transportiert werden müssen. Dabei kann die Spannung auf unzulässig niedrige Werte fallen, sofern nicht ausreichend Blindleistung vorhanden ist. Das Absinken der Spannung lässt bei unverminderten Leistungsbedarf den Strom weiter ansteigen, was zu einer Spirale nach unten führt, falls nicht umgehend Verbraucher abgeschaltet werden. Die Überlastung kann eintreten, wenn beispielsweise im Norden Deutschlands viel Windstrom eingespeist wird, bei insgesamt niedrigem Verbrauch.
Nach einem Blackout – sofern keine Leitungsschäden vorhanden sind – gibt es meist noch Netzteile die unter Spannung stehen. An sie wird, Stück für Stück, das restliche Netz vorsichtig zugeschaltet. Sollte kein Netzabschnitt mehr unter Spannung stehen, so müssen Kraftwerke für eine schnelle Stromproduktion in Anspruch genommen werden. Häufig benutzt man "schwarzstartfähige" Kraftwerke, das sind Gasturbinen oder Wasserkraftwerke, die besondere Ausrüstungen dafür besitzen.
Bei der Restrukturierung eines Stromnetzes sind die regenerativen Erzeugungseinheiten, also Wind- und Sonnenstrom meist nicht hilfreich. Wegen ihrer volatilen Einspeisung liefern sie keinen kalkulierbaren Beitrag zum Netzaufbau. Das unkontrollierte Zuschalten von Erzeugungsleistung kann die Frequenz in einer instabilen Netzinsel erheblich beeinflussen. Wenn die dadurch verursachte Erhöhung der Frequenz die zulässigen Grenzen überschreitet, so resultieren daraus wieder 

Über den Autor

Willy Marth,, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.
Der Beitrag erschien zuerst hier auf dem Blog des Autors