Ökodiktatur auf Samtpfoten?

Seit nicht nur der Kollege Maxeiner in der „Welt“ vom 14. Mai und an dieser Stelle, sondern am Tag darauf auch der Kollege Winand von Petersdorff in der Frankfurter Allgemeinen Sonntagszeitung vom 15. Mai 2011 im neuen WBGU-Gutachten „Welt im Wandel. Gesellschaftsvertrag für eine Große Transformation“ klar Schritte in Richtung auf eine „herzliche Ökodiktatur“ ausgemacht haben, fühlen sich die Mitglieder des WBGU, deren Ansichten in den „Qualitätsmedien“ längst zum Mainstream geworden sind, offenbar unter Rechtfertigungsdruck. Niemand wolle eine Ökodiktatur, beteuert Leggewie, denn dieser Begriff komme im genannten Gutachten gar nicht vor. Wie beruhigend!

Notorische Leugner des Klimawandels, bekennende Autonarren und verwirrte Berufspolemiker ließen ihren Vorurteilen freien Lauf, wenn sie im WBGU-Gutachten eine totalitäre Verschwörung wittern, meint Leggewie.

 

Prof. Dr. Claus Leggewie; Mitglied des WBGU

Demgegenüber will er klarstellen: „Der von uns entworfene Gesellschaftsvertrag sieht deutlich mehr, nicht weniger Demokratie vor. Der gestaltende Staat, der den Primat erneuerbarer Energien mit parlamentarischer Mehrheit und transparenter Gesetzgebung durchsetzen soll, muss sich durch erweiterte Bürgerbeteiligung Legitimation verschaffen.“ Doch gerade das hatte der Kollege von Petersdorff als Beleg für die in Deutschland heraufziehende Ökodiktatur gewertet, indem er den englischen Liberalen Lord Action zitierte, der einmal bemerkte: „Es ist schlimm, von einer Minderheit unterdrückt zu werden, aber es ist schlimmer, von einer Mehrheit unterdrückt zu werden.“ Von Petersdorff listet eine ganze Reihe von Beispielen grüner Zwangsmaßnahmen von der Einführung von Biosprit über die Verpflichtung der Verbraucher zur Abnahme von überteuertem Öko-Strom bis zur gesundheitlich bedenklichen Wärmedämmung von Wohngebäuden auf und stellt fest: „Es wächst eine Ökotyrannei in Deutschland, sie stützt sich auf eine große Mehrheit. Und die Bundesregierung steht an der Spitze.“

Ich vermute, dass Leggewie als Politikwissenschaftler die gängigen Definitionen von Totalitarismus geläufig sind. Eine davon lautet: „Massenmobilisierung für unerreichbare Ziele.“ Diese Massenmobilisierung setzt keine Verschwörung voraus, wohl aber eine auf einer eingängigen Fiktion beruhende diesseitige Heilslehre. Um eine solche handelt es sich bei der vom IPCC vertretenen „Klimawissenschaft“ zweifelsohne. Wir wissen über das Zusammenspiel möglicher Ursachen des Klimawandels so wenig, dass jeglicher Versuch, ihn mithilfe einer „Klimapolitik“ systematisch zu bekämpfen, auf einer Fiktion aufbauen muss. Um die Fiktion aufrecht zu erhalten, müssen abweichende Meinungen bekämpft, Skeptiker kaltgestellt und mit gesellschaftlicher Isolierung bestraft werden. Wie der „gestaltende Staat“ das erreichen kann, hat der WBGU in seinem Gutachten detailliert aufgezeigt.

Totalitäre Bewegungen finden, wie Hannah Arendt in ihrem Werk „Elemente und Ursprünge totalitärer Herrschaft“ gezeigt hat, ihr Ende nicht durch eine wissenschaftliche Widerlegung, sondern an der Wand. Dieses Ende zeichnet sich auch für die in Deutschland von einer breiten Mehrheit getragene „Energiewende“ ab. Der vom WBGU-Gutachten empfohlene gleichzeitige Ausstieg aus der der Nutzung der Kern- und der Kohleenergie stört nicht nur, wie Leggewie meint, die „buchhalterische Bedenkenträgerei“ einiger „schlecht gelaunter Spießer“, sondern widerspricht, wie ausländische Beobachter leicht feststellen konnten, dem kleinen Einmaleins.

Edgar L. Gärtner (EIKE) 

Website von Claus Leggewie mit ausgewählten Forschungsschwerpunkten

„FORSCHUNGSSCHWERPUNKTE“ von Leggewie

KlimaKultur: Kulturelle Voraussetzungen der Anpassung moderner Gesellschaften an die Auswirkungen des Klimawandels; InterKultur: Voraussetzungen und Folgen der kulturellen und religiösen Globalisierung; ErinnerungsKultur: Europäische Erinnerungskonflikte und Geschichtspolitiken. Ferner: Politische und wissenschaftliche Kommunikation via digitale Medien, Demokratisierung nichtwestlicher Gesellschaften.

Update: Essay von Fritz Vahrenholt in Die Welt vom 27.5.11

Ökodiktatur pur

http://www.welt.de/print/die_welt/debatte/article13397280/Oekodiktatur-pur.html

Auszug:

…..Der WBGU vergleicht die Dekarbonisierung der Weltwirtschaft mit der Neolithischen und der Industriellen Revolution. Er liegt nicht richtig mit der Aussage, eine bewusst geplante, radikale Umgestaltung ökonomischer und sozialer Großsysteme sei ohne geschichtliches Vorbild. Zumindest partielle Vorbilder hierfür sind die Industrialisierung der UdSSR in den 20er- und 30er-Jahren oder der „Große Sprung nach vorne“ sowie die „Kulturrevolution“ im China Maos.

Ob geplant oder nicht – revolutionäre Transformationen wirtschaftlicher Großsysteme sind immer mit Entbehrungen für die Generation verbunden, die sie gerade erlebt. Bestehende produktive Wirtschaftsstrukturen werden eingerissen und ganz neue erst aufgebaut werden. Der Preis für den utopischen Klima-Jakobinismus des WBGU ist zu hoch. Demokratische Institutionen, die Freiheit der Lebensführung und das Recht auf materiellen Wohlstand dürfen ihm nicht geopfert werden. Vernünftig ist es, den Weg in die klimafreundliche Wirtschaft der Zukunft über eine ausreichend lange Brücke zu gehen, die von sicher verfügbarer und bewährter Technologie sowie von Marktmechanismen gestützt wird. So bleibt Klimaschutz selbst demokratisch zustimmungsfähig. Dabei mehren sich ohnehin die Zeichen, dass das Antriebsmoment für die „Große Transformation“ erlahmen wird, da die Klimaerwärmung seit 12 Jahren zum Stillstand gekommen ist und sich die wissenschaftlichen Stimmen (außerhalb des WGBU und des Potsdam-Institutes) mehren, dass wir vor einer langjährigen Abkühlungsphase des Klimas stehen.




Jetzt bekannt: Sechs schwere Sicherheitsmängel in Fukushima! Und Fakten zur Kernkraftwerken der IV Generation

Politiker erklären jetzt, dass ihnen die Fukushima-Katastrophe die Größe des Restrisikos deutscher Kernkraftwerke klar gemacht hätte. Welch ein Unsinn. Das ist nur dasjenige Risiko, das bei einem richtig ausgelegten, bestens konstruierten und auch später sicherheitstechnisch nachgerüsteten Kraftwerk am Ende übrig bleibt. Bei den japanischen Reaktoren war das bei Weitem nicht der Fall.

Es gab dort 6 schwere Fehler

Fehler 1

Der Reaktor war auf ein stärkstes Erdbeben von 8,4 ausgelegt – wie es aber schon 1933 auftrat. Es gab keine Sicherheitsreserve darüber – und so übertraf das Beben vom 11.März  die Belastungsgrenze des Reaktors um 25%.

Fehler Nr. 2

war die krasse Mißachtung der Höhe eines Tsunamis, denn im Mittel alle 30 Jahre gab es Tsunamis mit Wellenhöhen über 10 m, oft weit darüber.  Der Betonwall am Meer hatte 5,7 m – dazu kamen 4,3 m vom höher gelegenen Kraftwerk. Die reale Tsunamiwelle hatte aber 14 m. Damit verbunden war

Fehler Nr. 3:

Die Diesel für die Notkühlung befanden sich im Untergeschoß und dieser Raum war auch nicht gegen Hochwasser abgedichtet. Die Diesel soffen ab, die Kühlung fiel aus.

Fehler Nr. 4

war die Unterlassung einer Nachrüstung der zu schwachen Druckentlastungs-Leitungen in der US-Konstruktion. Diese können im Falle einer Kernaufheizung durch den Druck von Dampf und Wasserstoff Lecks bekommen, wodurch alles in das Reaktorgebäude gelangen kann. In den USA wurde das erkannt und die Leitungen verstärkt – in Japan nicht.

Fehler Nr.5:

Weil diese Druckentlastung keine Filter enthielt, konnten radioaktive Aerosole und Partikel entweichen und nach außen gelangen. Deutsche Reaktoren haben diese Filter, die 99,9% zurück halten.

Fehler Nr. 6:

Der im Reaktorgebäude angesammelte Wasserstoff – siehe Nr.5 – konnte explodieren, weil die japanischen Reaktoren im Gegensatz zu unseren nicht über Rekombinatoren verfügen, die Wasserstoff zu Wasser umwandeln. So kam es zu den Explosionen und zur Verbreitung radioaktiver Substanzen. Deshalb lag das tatsächliche Risiko der Fukushima-Reaktoren um das Zig-Tausendfache über dem theoretischen Restrisiko.

Die in Japan unbegreiflicherweise unterlassenen Maßnahmen sind in deutschen KKW lange verwirklicht. Keinen dieser Fehler und Unterlassungen hätte unsere Reaktorsicherheits-Kommission RSK durchgehen lassen – die übrigens von 2002 bis 2006 von Michael Sailer, Mitglied der Geschäftsführung des Öko-Instituts Darmstadt,  geleitet wurde, der heute noch RSK-Mitglied ist.

Dr.-Ing. Günter Keil, Sankt Augustin 18.5.2011

Update: aus 

Grüne surfen auf dem Tsunami an die Macht

…..Niemand hat sich gefragt, warum das Kraftwerk Fukushima nach dem Erdbeben genauso aussah wie vor dem Erdbeben, abgesehen von der geborstenen Betonhülle des Reaktorbaus, welche erst nachträglich durch eine Wasserstoffexplosion aufbrach. Eigentlich hätten die Gebäude doch in Mitleidenschaft gezogen werden müssen bei Horizontalbeschleunigungen von bis zu 550 cm/s2, die auf dem Kernkraftwerksgelände in Ost-West-Richtung gemessen wurden. Die Erdbebensicherheit der Konstruktion hatte seine Aufgabe erfüllt. Alle Sicherheitseinrichtungen taten planmäßig ihren Dienst. Auch die Zerstörung der örtlichen Stromversorgung konnte dem Kraftwerk nichts anhaben, dann aber passierte es. Etwa eine Stunde nach dem verheerenden Beben erreichte ein an dieser Stelle ca. 14 m hoher Tsunami die Küste. Mühelos überwand er die 5,7 m hohe Steinbarriere im Meer, die zweifellos zu niedrig ausgelegt war und spülte ins Kraftwerk hinein bis in die Höhe der Notstromdiesel, die daraufhin ihren Dienst versagten. Im Folgenden konnte die Kühlung nur noch für eine kurze Zeit aufrechterhalten werden, der Rest ist bekannt…

Weiterführender Link zu den Ursachen der Fukushima Havarie hier

Fragen zu KKW der IV Generation: Erläuterungen von Konstantin Foskolos; Deputy Head Nuclear Energy and Safety Research Department Paul Scherrer Institut*

http://www.psi.ch/

Sehr geehrter Herr XXXXXXX Stefan Hirschberg leitete Ihre Anfrage an mich weiter. Hier ein Paar kurze Antworten zu Ihren Fragen: 

F. Wenn ich es richtig verstanden habe, wird bei der heutigen Reaktorgeneration (III) das Energiepotential von Uran nur zu einem verschwindend geringen Teil genutzt. Zahlen zwischen 1 und 3% werden genannt. Stimmt das, und wenn ja, woran liegt das? Was geschieht mit den restlichen ca. 97%? Sind die allesamt "nuklearer" Abfall?

A. Ja, das stimmt. Dies liegt daran, dass in Leichtwasserreaktoren (LWR, welche die Mehrheit der heute in Betrieb stehenden Anlagen ausmachen) die Kernspaltung durch den Aufprall von langsamen („thermischen“) Neutronen auf die spaltbaren Kerne verursacht wird. Das Uran in der Natur besteht aus zwei Isotopen, U-235 (0.7%) und U-238 (99.3%), wovon nur das erste mit thermischen Neutronen gespalten werden kann. Über die Anreicherung wird der Anteil von U-235 auf bis zu 5% erhöht, und dies gelangt in den Reaktor. Allerdings wird der Brennstoff herausgenommen, bevor das U-235 völlig gespalten wird; der „abgebrannte“ Brennstoff enthält noch 1-2% U-235. Der Rest besteht hauptsächlich aus „Ballast“, d.h. U-238. Allerdings wird ein kleiner Teil des U-238 über den Einfang von Neutronen zu Plutonium verwandelt, welches wiederum mit thermischen Neutronen spaltbar ist. 

F. Was geschieht bei der "Wiederaufbereitung"? Wird daraus wieder verwendbares Reaktormaterial gewonnen?

A. Bei der Wiederaufarbeitung wird der abgebrannte Brennstoff in Salpetersäure aufgelöst und seine verschiedenen Bestandteile mittels chemischer Bindestoffe separiert. So gewinnt man separat Uran (wie gesagt noch 1-2% angereichert), Plutonium, und ein Gemisch aus Spaltprodukten und den sog. „höheren Actiniden“ (Americium, Curium)“. Dieses Gemisch bildet den eigentlichen Abfall, der nach der Abtrennung mit Sand vermischt, geschmolzen und verglast wird. Die daraus entstehenden (hochradioaktiven) Glaszylinder werden in Stahlbehältern eingepackt und mit Castor-Behältern von der Wiederaufbereitungsanlage zur Zwischen- und Endlagerung geführt. Wiederaufarbeitungsanlagen gibt es in Frankreich (La Hague), Grossbritannien (Sellafield), Japan (Rokkasho) und Russlad (Mayak). Findet keine Wiederaufarbeitung statt, so transportieren die Castor-Behälter ganze Brennelemente vom jeweiligen Reaktor zum Zwischenlager und später zum Endlager. 

F. Wenn ja, was geschieht damit? Nach Deutschland kommen doch nur die Castor Behälter zur "Endlagerung" zurück.

A. Das abgetrennte Uran und Plutonium sind wertvolle Rohstoffe, die wieder in den Reaktor eingesetzt werden können. Allerdings waren bis vor kurzem die Uranpreise auf dem Spotmarkt so tief, dass es sich nicht lohnte, rezykliertes Material einzusetzen. Die sich abzeichnende Wiedergeburt der Kernenergie mit weltweit erhöhtem Bedarf an spaltbaren Materialien und die steigenden Uranpreise werden vermutlich zu einem nachhaltigeren Umgang mit dieser Ressource und zur Nutzung auch von rezykliertem Material führen. Allerdings besteht mancherorts entweder eine politische Verhinderung für Wiederaufarbeitung (D: Verbot, CH: Moratorium), andere Länder haben bewusst davon abgesehen (USA), in der Hoffnung damit das Proliferationsrisiko zu reduzieren. Tatsache ist, dass es heute keine technischen Massnahmen gibt, welche einen Missbrauch des abgetrennten Plutoniums deterministisch ausschliessen können – man nutzt internationale Kontrollen und prozedurale Massnahmen. Tatsache ist auch, dass solcher „Missbrauch“ bisher nur von Staaten, aber nie von sonstigen Gruppierungen ausgeübt wurde. 

F. Wie hoch wäre die "Ausbeute" bei der VI. Generation von Kernreaktoren?

A. Reaktoren der Generation IV arbeiten mehrheitlich mit schnellen Neutronen, welche alle spaltbaren Isotope spalten können. Damit kann theoretisch der gesamte energetische Inhalt des Urans genutzt, und auch das Plutonium und die höheren Actiniden gespalten werden. Nach mehrfacher Wiederaufarbeitung und Rezyklierung blieben somit theoretisch nur Spaltprodukte übrig, die endgelagert werden müssten; allerdings haben diese viel kürzere Halbwertszeiten und zerfallen somit viel schneller zu nicht-radioaktiven Isotopen. Damit lassen sich die erforderlichen Endlagerzeiten massiv verkürzen, von heute einigen 100000 Jahren auf einige 100 Jahre. Gegenüber LWR steigt die Nutzung von Uran bei schnellen Reaktoren um mindestens einen Faktor 50 – was auch die Frage der Ressourcenverfügbarkeit wesentlich entschärft. 

F. Worin liegt das "Neue" von "Transmutation" im Vergleich zur Wiederaufbereitung?

A. Transmutation ist die Verwandlung von einem Isotop in ein anderes. Allgemein wird damit die Umwandlung durch Spaltung von höheren Actiniden mit sehr langen Halbwertszeiten in wesentlich kurzlebigere Spaltprodukte gemeint; solche Spaltungen finden in Reaktoren mit schnellen Neutronen statt, also Reaktoren der Generation IV. Wiederaufarbeitung ist ein der Transmutation vorgelagerter Prozess, um die zu rezyklierenden und zu transmutierenden Isotope von den Spaltprodukten zu separieren. Parallel zur Entwicklung neuer Reaktoren der Generation IV werden fortgeschrittene Wiederaufarbeitungsmethoden entwickelt, welche kompakter und effizienter sind und weniger Abfall produzieren; es wäre möglich, solche kleine Wiederaufarbeitungsanlagen mit dem Reaktor auf dem gleichen Standort zu kombinieren und somit die lästigen Castor-Transporte massiv zu reduzieren.

Ich hoffe damit Ihre Fragen im Wesentlichen beantwortet zu haben. Sie finden eingehendere Information zu Reaktoren der Generation IV unter http://gif.inel.gov/roadmap/ und zur Kerntechnik allgemein im ausgezeichneten Lexikon zur Kernenergie des Forschungszentrums Karlsruhe: http://iwrwww1.fzk.de/kernenergielexikon/ .

Freundliche Grüsse,
 
Konstantin Foskolos
Deputy Head
Nuclear Energy and Safety Research Department
Paul Scherrer Institut http://www.psi.ch/

Das Paul Scherer Institut ist eine international anerkannte private Forschungseinrichtung in der Schweiz. Es arbeitet eng mit dem Gen IV Forum GIF zusammen:

The Generation IV International Forum (GIF) is a cooperative international endeavor organized to carry out the research and development (R&D) needed to establish the feasibility and performance capabilities of the next generation nuclear energy systems.

Zum Transmutationsverfahren der Vermeidung und weitgehenden Unschädlichkeitsmachung des Kernbrennstoff-Abfalls s. auch die EIKE-News von Pressesprecher Prof. Dr. Horst-Joachim Lüdecke hier




Temperaturverzerrungen aufgrund der Örtlichkeit der Messungen am Königlich Niederländischen Meteorologischen Institut KNMI

Die Angelegenheit wurde zur Hauptnachricht auf allen  Titelseiten der Medien, weil die KNMI Klimadaten von einem privaten Anbieter meteorologischer Leistungen in Frage gestellt worden waren, weil sie immer zu warm waren:

Wetterexperten der Firma Meteo Consult mit Zentrale in Wageningen haben jahrelang ihr Misstrauen bekundet, weil die Messungen in De Bilt immer ein wenig wärmer waren als im 16 km entfernten Cabau, wo es ebenfalls ein Thermometer des KNMI gibt. Die Lage beider Standorte kann Meteo Consult zufolge diesen Unterschied von einem halben Grad Celsius nicht erklären. Außerdem wurde nicht berücksichtigt, dass die Station De Bilt in einer Umgebung mit viel stärkerer Bebauung liegt und damit wärmer ist als die Umgebung von Cabau bei Ijsselstein.

Link: http://wattsupwiththat.com/2011/05/18/temperature-related-siting-bias-at-the-dutch-meteorlogical-institute/

Oben: Temperaturplot von GISS für die Station De Bilt KNMI – man beachte die Stufenfunktion.

Zugunsten von KNMI muss man sagen, dass man dort eine umfangreiche Parallelstudie durchgeführt hat, um die Größenordnung der Auswirkungen durch Änderungen des Aufstellortes zu ermessen. Die Ergebnisse und die Schlussfolgerung daraus zeigen sehr deutlich, dass die Örtlichkeit sehr wohl von Bedeutung ist.

Dr. Roger Pielke Sr. schreibt:

Important New Report “Parallel Air Temperature Measurements At The KNMI observatory In De Bilt (the Netherlands) May 2003 – June 2005? By Theo Brandsma

(Übersetzung des Links: Wichtiger neuer Bericht: „Parallele Messungen der Lufttemperatur am KNMI-Observatorium in De Bilt (Niederlande) von Mai 2003 bis Juni 2005“ von Theo Brandsma)

Es gibt einen wichtigen und dringend benötigten Zusatz zur wissenschaftlichen Literatur hinsichtlich unserer Schlussfolgerungen in:

Fall, S., A. Watts, J. Nielsen-Gammon, E. Jones, D. Niyogi, J. Christy, and R.A. Pielke Sr., 2011: Analysis of the impacts of station exposure on the U.S. Historical Climatology Network temperatures and temperature trends. J. Geophys. Res., in press. Copyright (2011) American Geophysical Union.

Darin beschreiben wir, dass die Örtlichkeit einer Klimareferenzstation sehr wohl eine Rolle spielt hinsichtlich langzeitlicher Temperaturtrends und –anomalien. Dieser neue Bericht heißt:

Parallel air temperature measurements at the KNMI observatory in De Bilt (the Netherlands) May 2003 – June 2005
(16 MB PDF von der Site des KNMI – einen alternativen, schnelleren Download gibt es hier: KNMI_DeBilt_WR2011-01)

Die Zusammenfassung lautet wie folgt (Hervorhebung von mir {Watts}):

Die Messungen der Lufttemperatur am KNMI-Observatorium in De Bilt sind wichtig, hauptsächlich weil es dort eine lange und relativ homogene Reihe gibt und weil dessen Beobachtungen häufig als Indikator für Änderungen des Klimas in den Niederlanden als Ganzes dienen. Unter Anderem beeinflussen örtliche Verlegungen der Station sowie (graduelle) Änderungen der Umgebung die Messungen. Um die Homogenität der langfristigen Temperaturaufzeichnungen zu verbessern und um die Repräsentativität der jüngsten Messungen zu untersuchen, wurde ein Programm mit Parallelmessungen vom KNMI in De Bilt durchgeführt, und zwar von Mai 2003 bis Juni 2005.

Fünf Messorte am KNMI-Observatorium einschließlich des (zu jener Zeit) operationellen Messortes WMO 06260 (im Folgenden DB260) wurden mit identischen (operationellen) Instrumenten zur Messung von Temperatur und Windgeschwindigkeit in einer Höhe von 1,5 m ausgerüstet. Die Instrumente wurden jedes halbe Jahr kalibriert, und die Kalibrierungskurven wurden für die Korrektur der Daten genutzt, um Instrumentenfehler zu minimieren. Mit den Messungen an der Test4-Station (operationell seit September 2008) als Referenz wurden die Temperaturunterschiede zwischen den Stationen in Zusammenhang der lokalen Windgeschwindigkeit und deren Differenzen sowie den operationell gemessenen Wettervariablen am KNMI-Observatorium untersucht. Im September/Oktober 2004 wurde das Gebiet westlich von DB260 in einen Landschaftspark umgestaltet. Seit 1999 veränderte sich das Gebiet allmählich von Grasland in eine vernachlässigte Landschaft mit Büschen (Ödnis). Die Parallelmessungen boten die Möglichkeit, die Auswirkungen dieser neuen Inhomogenität im Detail zu untersuchen.

Die Ergebnisse zeigen, dass Veränderungen der Umgebung die Korrektur von Messungen der Vergangenheit  aufgrund von aktuellen Messungen kompliziert oder erschwert. Zum Beispiel sorgte das (vertikale) Wachstum der Büsche in der Ödnis westlich von DB260 für zunehmende Temperaturdifferenzen zwischen der operationellen Station DB260 und benachbarten Stationen. Am deutlichsten zeigten sich die Auswirkungen im trockenen Sommer 2003, als die mittleren monatlichen Maxima der Temperatur bis zu 0,4°C höher lagen als an der Referenzstation Test4. Diese Zunahme wurde mehr als kompensiert durch eine Abnahme der mittleren monatlichen Minima bis zu 0,6°C. Nach der Neugestaltung der Ödnis verringerten sich die Gegensätze zwischen DB260 und Test4 bis zu nahe Null (< 0,1°C). Der Vergleich von DB260 mit vier benachbarten Stationen zeigte, dass die Neugestaltung die Temperaturdifferenzen von vor 1999 in gewisser Weise wieder herstellte. Jedoch wurde die Landschaft westlich von DB260 permanent verändert (kein Grasland wie zwischen 1951 und 1999, sondern ein Landschaftspark mit Seen). Dadurch wurden die Messungen an DB260 problematisch, und KNMI entschloss sich, die operationelle Station im September 2008 zum Messort Test4 zu verlegen. Die Test4-Station ist die am freiesten gelegene Station der fünf in der Studie untersuchten Standorte.

Die Ergebnisse vergrößern unser Verständnis von Temperaturdifferenzen zwischen verschiedenen Messorten. Einer der wichtigsten Gründe für diese Unterschiede liegt in der unterschiedlichen Abschirmung (sheltering) der Messorte. Eine Abschirmung begünstigt die Bildung einer nächtlichen stabilen Grenzschicht, behindert die langwellige Ausstrahlung, lässt die Wetterhütte in den Stunden nach Sonnenaufgang und vor Sonnenuntergang im Schatten liegen und steigert den Strahlungsfehler der Wetterhütten wegen der verringerten natürlichen Ventilation. Abhängig von Grad und Natur der Abschirmung kann die letztendliche Auswirkung eine Temperaturzu- oder –abnahme sein. DB260 ist ein Messort, wo die Abschirmung zu einer Abnahme der Mitteltemperatur führt (vor der Neugestaltung). Der frühere historische Messort Test1 ist ein Beispiel für eine Temperaturzunahme. Die monatliche mittlere Minimumtemperatur am Messort Test1 liegt um 1,2°C höher als der Referenzwert, und die Höchsttemperatur ist bis zu 0,5°C höher als am Messort Test4. Die Mitteltemperatur an Test1 liegt jedoch nur wenig höher als das Mittel an Test4. Ursache hierfür sind die relativ niedrigen Temperaturwerte in den Stunden nach Sonnenaufgang und vor Sonnenuntergang, wenn sich die Hütte von Test1 im Schatten befindet. Sowohl die Station Test1 als auch Test4 sind möglicherweise von der Neugestaltung nicht betroffen.

Die Neugestaltung der Ödnis führte nicht nur zu einer Verschiebung des Messpunktes und der täglichen Temperaturdifferenzen, sondern auch zu einer Veränderung von deren Ausprägung. Dies bedeutet, dass es zur Homogenisierung der täglichen Temperaturreihen nicht ausreichend ist, nur das Mittel zu korrigieren.

Wir haben gezeigt, dass die Größenordnung der Temperaturunterschiede zwischen den verschiedenen Messorten stark abhängig ist von der Windgeschwindigkeit und der Bewölkung. Im Allgemeinen nehmen die Unterschiede bei abnehmender Windgeschwindigkeit und zurückgehender Bewölkung zu. Veränderungen der Messorte beeinflussen direkt die Windgeschwindigkeit, weil sie normalerweise mit Änderungen in der Wetterhütte einhergehen. Einige Auswirkungen, wie die Ausbildung und der (teilweise) Zusammenbruch einer stabilen oberflächennahen Grenzschicht sind hochgradig nicht-lineare Prozesse und daher schwer zu modellieren. Die Tatsache, dass diese Prozesse bei geringer Windgeschwindigkeit (<1.0 m/s in einer Höhe von 1,5 m) am besten  ausgeprägt sind, kompliziert die Modellierung noch mehr. Reguläre Schalensternanemometer sind nicht wirklich in der Lage, geringe Windgeschwindigkeiten zu messen. Operationell haben diese Anemometer einen Schwellenwert um etwa 0,5 m/s, und diese grenzwertige Windgeschwindigkeit nimmt oft mit der Zeit, in der das Anemometer im Feld ist,  zu. Außerdem befinden sich die Anemometer meistens in einer Höhe von 10 m, und die Windgeschwindigkeit in Höhe der Wetterhütte ist schwach. Dies kompliziert die Homogenisierung täglicher Temperaturreihen.

Link: http://wattsupwiththat.com/2011/05/18/temperature-related-siting-bias-at-the-dutch-meteorlogical-institute/

Übersetzt von Chris Frey für EIKE




Die neue Wissenschaft vom Klimawandel!

Aber wie auch immer, für die Suche nach Messfehlern bei der Ermittlung der Bodendaten scheint es eine gute Idee zu sein, die Datensätze der globalen Mitteltemperatur zur Hand zu haben, nur so als Referenz. Man weiß nie, wann diese zur Verfügung stehen.

Ich verfügte bereits [über die Datensätzen von] GISSTEMP 2007 und 2010 von der GISS-Website (2) sowie über die CRU-Daten 2005 als Download von der Site des Carbon Dioxide Information Analysis Center (CDIAC) (3). Aber frühere Daten zu erhalten erschien ebenfalls sinnvoll. Wie zu erwarten war, hat sich herausgestellt, dass diese interessante Eigenschaften haben.

Ich wollte die Datensätze so, wie sie veröffentlicht worden waren und habe sie deshalb direkt aus den veröffentlichten Graphiken digitalisiert: GISS 1984 (4), 1988 (5), 1996 (6) und 1999 (7), ferner CRU 1994 (8) und 2003 (9). Bei den Jahreszahlen handelt es sich um die Jahre der Veröffentlichung, daher enden die Datensätze ein oder zwei Jahre früher. In jedem Falle habe ich nur die ungeglätteten Daten digitalisiert, und jeder digitalisierte Punkt wurde in die Mitte des veröffentlichten Punktes gestellt. Unter Berücksichtigung der gewählten Auflösung der veröffentlichten Graphiken schätze ich die digitalisierte Präzision auf ± 0,002°C.

Eines der ersten Dinge, die ich fand, war etwas unerwartet – wie Jim Hansen 1988 vor dem Kongress aussagen konnte, dass er zu 99% sicher war, den menschlichen Fingerabdruck in der Klimaerwärmung zu sehen. Im Januar 1988 veröffentlichte er eine Studie über den Trend der globalen Temperatur an der Erdoberfläche (5), in der er die Normalisierung von 1951 bis 1980 eine 1-sigma globale Temperaturvariabilität von ± 0,13°C zeigte. Dies präsentierte er als die Grenzen der natürlichen Variabilität seit 1880 und sagte: „Falls eine Erwärmung um 3-sigma erreicht werden würde (d. h. 0,39°C – P), würde dies einen Trend nahe einem Vertrauenslevel von 99% Signifikanz repräsentieren“.

Er wurde ein wenig zweideutig in dieser Studie vom Januar, wiederholte aber die Abgrenzung in seiner Studie vom Juni 1988, in der er die Vorhersagen  über einen „robusten“ 3-sigma-Antrieb aus dem GISS-Modell II (10) vorstellte. JH sagte weiter, dass „(eine persistente globale Erwärmung von) 0,4°C einen überzeugenden Beweis für die Beziehung von Ursache und Wirkung darstellen würde, d. h. eine „rauchende Kanone“ in der gegenwärtigen Umgangssprache“.

Der globale Anomalietrend von GISS 1996 zeigte, dass er sich im Jahre 1988 zügig der 3-sigma-Marke näherte, was sein Vertrauen gefestigt haben könnte. Aber die gesamte Basis für die 99%-Gewissheit, die Jim vor dem Kongress beschworen hatte, beruhte darauf, dass der Trend von 1951 bis 1980 als definitive Größe der natürlichen Variabilität für die letzten Jahrtausende des Klimas im Holozän stehen würde. Das können Sie nun selbst beurteilen, aber ich sehe das als wissenschaftlichen Blödsinn.

Wie auch immer, als ich nun alle Datensätze zur Hand hatte, schien es mir eine gute Idee, die früher veröffentlichten Trends mit den später veröffentlichten zu vergleichen. Sie würden diesen Artikel nicht lesen, wenn sich nicht interessante Dinge herausgestellt hätten. Hier kommen sie!

Eine unkritische Entdeckung war, dass die Anomalien von GISS 1987 zufällig mit einem positiven Abstand von 0,1°C von der Null-Linie geplottet worden waren. Ansonsten sind die Anomalien von 1987 identisch mit denen von GISS 1988. Beide Datensätze wurden auf das Mittel des Zeitraumes 1951 bis 1980 bezogen, so dass der Abstand von der Null-Linie nicht aufgrund von Normalisierungsverfahren zustande gekommen ist. Hansen und Lebedeff haben 1988 nichts zu dem Irrtum des Abstandes gesagt, den sie 1987 veröffentlicht hatten, und keines der beiden Studien hatte ein Korrigendum bis zum 1. Mai 2011. Vielleicht haben sich die Autoren gedacht, dass jeder das selbst herausfinden kann.

Aber weiter: Abbildung 1 zeigt die globale mittlere Temperatur, wie sie 1988 und 1999 veröffentlicht worden war. Die beiden Trendlinien scheinen sich gut zu überlagern, außer in der Zeit um 1880 bis 1890.

Abbildung 1: Anomalien der jährlichen globalen Mitteltemperatur, wie veröffentlicht in den Jahren 1988 und 1999. Die Unterschiede der Jahre 1996 bis 1988 und 1999 bis 1988 in den Datensätzen sind darunter geplottet.

Unten in der Abbildung 1 habe ich den Unterschied in den Trends geplottet: 1999 minus 1988 und 1996 minus 1988. Dieser Plot der Unterschiede zeigt, dass zwischen den Jahren 1925 und 1988 die globalen Temperaturtrends von 1996 und 1999 nicht wesentlich von dem Trend des Jahres 1988 unterscheiden. Aber 1996 und 1999 wurden die Jahre von 1880 bis 1925 plötzlich wärmer , als sie 1988 gewesen sein sollen. Und im Jahre 1999 erschienen die Jahre 1880 bis 1920 sogar noch wärmer als in 1996. Dies ist eine anthropogene globale Erwärmung, die wirklich jenseits der natürlichen Variabilität liegt.

Wir alle wissen, dass wir in einer wärmeren Welt leben. Aber wenn man die Aufzeichnungen des frühen 20. Jahrhunderts erhöht, reduziert sich die Erwärmungsrate bis zum Ende des 20. Jahrhunderts. 1988 lag die Erwärmungsrate bei 0,55°C pro Jahrhundert, während es 1999 nur noch 0,48°C pro Jahrhundert war (und nur 0,41°C zwischen 1880 und 1988). Wenn die Erwärmungsrate 1999 15% unter der des Jahres 1988 liegt, würde es da nicht weniger Anlass zur Sorge geben? Warum die Veränderung hin zu einer wärmeren Vergangenheit?

 „Warum” könnte eine Frage der persönlichen Absicht sein, die unbekannt ist. Aber wir können ein „was?“ bemerken. 1988 schrieben Hansen und Lebedeff, dass „die Rate der Erwärmung zwischen Mitte der sechziger Jahre und der Gegenwart höher ist als die vorherige Periode einer rapiden Erwärmung zwischen 1880 und 1940“.

Das stimmt, aber nur, weil die Anomalie des Jahres 1964 ein starker Ausschlag nach unten war, während die achtziger Jahre mit einem ebenso großen Ausschlag nach oben begannen. Vielleicht wurden H&L wegen der Auswahl eines bequemen Startpunktes in den sechziger Jahren kritisiert, weil eine solche Feststellung in der Temperaturanomalie von GISS aus dem Jahr 1996 nicht auftauchte.

Aber im Jahre 1999 finden wir Beweise für eine erneute Durchsetzungskraft [assertiveness] in der Einführung: „Die Rate der Temperaturänderung war während der letzten 25 Jahre höher als jemals zuvor in dem Zeitraum mit instrumentellen Messungen“. 25 Jahre vor 1999, das bedeutet 1974, und 1976 zeigte sich erneut am Grund eines großen Ausschlags der Anomalie nach unten. Das hilft auch.

Aber schauen wir selbst. Hier folgt eine Tabelle von Erwärmungsraten nach GISS:

Tabelle 1: Mittlere dekadische Rate der Temperaturänderung (DDC)

Die Verzerrung (Bias) des Anfangspunktes 1964 ist ziemlich offensichtlich (Spalte 2 zu Spalte 3), also verpufft das zum Fenster hinaus. Das Jahr 1960 scheint einen viel weniger verzerrten Startpunkt für den Vergleich von Erwärmungsraten zu bieten, weil die Dekade wie 1880 und 1960 an der Spitze eines Anomalieausschlags begann.

Ich kann nicht darüber spekulieren, warum die Wissenschaftler beim GISS irgendwann zwischen 1960 und 1988 die Periode von 1880 bis 1920 systematisch erwärmt haben, aber Tabelle 1 zeigt die Auswirkung davon: Im Jahre 1988 erwärmte es sich von 1880 bis 1940 mit der gleichen Rate wie 1960 bis 1988 – also um etwa 0,1°C pro Dekade. Wie die Idsos sagen würden: ‚Hier ist nicht viel AGW!‘

Aber 1996 (Reihe 2) wurden von der Erwärmung pro Dekade im frühen 20. Jahrhundert 0,017°C abgezogen. Auf einmal lag die Erwärmungsrate von 1960 bis 1988 um 50% über der Rate von 1880 bis 1940. Vielleicht erschien ihnen das als eine gute Sache, weil 1999 (Reihe 3) weitere 0,019°C Erwärmung verschwanden. Also hat sich bis 1999 die Erde von  1960 bis 1988 doppelt so schnell erwärmt wie in den Jahren von 1880 bis 1940. Und diese für die NGOs vielversprechende Rate wurde gleich bis 1999 verlängert.

Abbildung 2: Die globalen jährlichen Temperaturtrends an der Erdoberfläche, wie sie 1988 und 1999 von GISS veröffentlicht worden waren. Blaue glatte Linie: Der Trend von 1880 bis 1940 aus dem Jahr 1988. Orange glatte Linie: Der Trend von 1880 bis 1940 nach den von GISS vorgenommenen Anpassungen der Daten. Rosa glatte Linie: die Rate von 1960 bis 1999. Dieser Trend verläuft auch eindeutig steiler als die Anomalien von 1988.

Abbildung 2 zeigt diesen Effekt visuell. Die blaue und die rosa Linie stellen die Glättungen der Temperaturen vor den Anpassungen dar. Sie verlaufen nahezu parallel. Also waren die Erwärmungsraten für die Zeiträume von 1880 bis 1940 und 1960 bis 1988 etwa gleich groß. Laut Tabelle 1 waren sie so ziemlich identisch, innerhalb der Fehlergrenzen.

Es wird ziemlich klar, dass man 1988 nicht behaupten konnte, dass es im späten 20. Jahrhundert schneller wärmer geworden ist als im frühen 20. Jahrhundert. Genau das konnte man jedoch 1999 sehr wohl behaupten. Wirklich?

Ist die verstärkte Erwärmung im späten 20. Jahrhundert die Erklärung für die seit 1988 von GISS vorgenommenen Änderungen bei der Anpassung? Ich weiß es nicht. Aber wir wissen sicher, dass die Anpassungen nach 1988 den Anpassern sehr geholfen haben.

Es wird jedoch noch ein wenig merkwürdiger. Danach verglich ich den GISS-Trend 1999 mit den GISS-Trends von 2007 und 2010. Und siehe da, Gräber öffneten sich und Wunder liefen durch das Land.

Abbildung 3 zeigt die Anomalietrends von GISS 1999 und 2010. Auch diese scheinen sich auf den ersten Blick nicht sehr zu unterscheiden. Aber man betrachte unten in Abbildung 3 den Unterschied 2010 minus 1999.

Abbildung 3: der globale mittlere Anoamlietrend der Temperatur nach GISS 1999 und 2010. Unten zeigt die blaue Linie den Unterschied 2010 minus 1999. Die orange Linie ist ein an den Unterschied angepasster Cosinus [?].

Das Wunder der Wissenschaft von der Klimaänderung besteht darin, dass sichere Klimaphänomene des 20. Jahrhunderts 1999 seltsam unsichtbar waren, sie wurden klar 2010 manifest. Die gleiche Cosinus-Differenz ergibt sich aus dem Reich der Wunder auch im Datensatz der globalen Temperatur nach GISS 2007, daher wissen wir, dass dieser Effekt vor 2007 in die Daten von 1999 eingegangen war.

Irgendwann zwischen 1999 und 2007 erschien ein Temperaturzyklus im Anomalietrend der globalen jährlichen Mitteltemperatur. Die Sinuskurven stehen für den gesamten signifikanten Unterschied der Anomalietrends zwischen 1999 und 2010 (einer spielt jedoch immer noch mit dem Zeitraum von 1880 bis 1890).

Ich habe eine exzellente Anpassung an den Unterschied zwischen 1999 und 2010 erhalten, und zwar durch Verwendung einer beliebigen Cosinus-Funktion. Die Periode ist 66 Jahre; leider nicht religiös signifikante 66,6 Jahre. 66 Jahre ist ein merkwürdiger Zyklus. Er ist etwas zu kurz für einen Gleissberg-Zyklus (60 bis 150 Jahre{11}) und scheint nicht zu irgendeinem der gewöhnlichen solaren Zyklen zu passen (http://en.wikipedia.org/wiki/Solar_variation). Also suchte ich in Google nach einem „66-Jahre-Zyklus“, und die ersten vier der über 88 Millionen Treffer führten mich zu Klimablogs.

Luboš (The Reference Frame, http://motls.blogspot.com/2011/03/is-there-66-year-cycle-in-temperatures.html) war der erste Treffer, und bei ihm findet sich eine gute Einführung in die Diskussion. Es scheint, dass Tamino über eine Studie bloggt, die einen 66-Jahre-Zyklus der Atlantischen Multidekadischen Oszillation innerhalb von 8000 Jahren in einem Eisbohrkern gefunden hatte. Tamino war skeptisch und Luboš stimmte zu, aber die AMO zeigt nicht die Aufzeichnungen der globalen jährlichen Mitteltemperatur. Das war also das. Wir haben keine Ahnung, was dieser wunderbare neue 66-Jahres-Zyklus repräsentiert. Vielleicht neu gefundene Zusammenhänge der AMO?

Noch mehr auf den Punkt gebracht: Welche legitime Anpassungsstrategie bringt ein Sinusoid in den Trend der globalen jährlichen Mitteltemperatur? Wird sie ‚entdeckt‘, wenn das nächste Mal jemand eine Wellenanalyse der instrumentellen Aufzeichnungen durchführt?

Man beachte, dass die Periodizität nicht sehr ersichtlich die Änderung des globalen mittleren Temperaturtrends zeigt. Hier folgt, welche Auswirkungen es auf die Temperaturtrends im frühen und im späten 20. Jahrhundert hat: das Sinusoid reduzierte 2010 die Erwärmungsrate zwischen 1960 und 1999 auf 20% unter die Rate im Datensatz von 1999, reduzierte jedoch den Trend zwischen 1880 und 1940 um 33%. Tabelle 2 zeigt die Zahlen.

Tabelle 2: GISS mittlere Dekadische Temperaturänderung mit Sinusoid (DDC)

Man sieht: als Ergebnis zeigt sich, dass die Erwärmung im späten 20.Jahrhundert bis 2010 2,8 mal schneller vonstatten ging als im frühen 20. Jahrhundert. 1999 lag das Verhältnis noch bei 2,3 mal schneller. Daraus folgt, dass das Sinusoid den gleichen Effekt hat wie die Erniedrigung der Temperatur von 1880 bis 1900: es verstärkt das Missverhältnis zwischen den Erwärmungsraten des frühen und des späten 20. Jahrhunderts. Aber es führt nicht dazu, dass sich die Trendlinien selbst aufsteilen. Der Effekt ist ziemlich subtil.

Die Änderung kommt – natürlich rein zufällig – jenen zupass, die nach einer noch nie da gewesenen Änderung anthropogenen Ursprungs suchen, aber wir alle wissen, dass wissenschaftliche Ergebnisse unabhängig von menschlichen Wünschen sind.

Aber vielleicht gibt es ja das Sinusoid wirklich, und es ist durch die primitiven Anpassungen vor 2007 nur zufällig verschwunden. Also beschloss ich, die analogen Datensätze der Climate Research Unit (CRU) der University of East Anglia zu untersuchen. Falls ein Temperaturzyklus mit den fortgeschrittenen Algorithmen des 21. Jahrhunderts wirklich enthüllt werden könnte, müssten die Differenztemperaturen CRU 2005 minus CRU 1994 das auch sicher zeigen. Gibt es einen 66-Jahres-Zyklus der Temperatur, der nur in späteren Datensätzen der CRU erscheint? Abbildung 4 zeigt die Antwort: Es gibt keinen Hinweis darauf. Wir bleiben zurück mit der Frage, was GISS sich bloß dabei gedacht hat.

Abbildung 4: Der Trend der mittleren globalen jährlichen Mitteltemperatur wie 1996 und 2006 von der CRU veröffentlicht. Unten zeigt die blaue Linie wieder die Differenz dieser Anomalien. Kein kryptisches Sinusoid ist zu sehen. Die y-Achse wird 1860 bei dem Wert -0,036°C geschnitten (Original: The fit y-intercept at 1860 is at -0.036 C).

Es ist interessant zu sehen, dass der Datensatz der CRU von 1994 kühler war als der Datensatz von CRU 2005, jedenfalls vor etwa 1940. 2005 hat das UK Met Office die Erstellung der globalen Temperaturanomalien in UK von der CRU übernommen. Daher dachte ich, dass das Met Office die Anpassungsmethoden vielleicht etwas verändert hätte. Aber die gleiche Kühle vor 1940 zeigte sich auch hier wieder, und jener Datensatz stammte ausschließlich von der CRU.

Was also auch immer der Fall ist, die Arbeitsgruppen der UEA CRU und des UK Met Office kühlten die Temperaturen vor 1940 mit den gleichen Methoden. Was bewirkte dies bei der Differenz der Anomalieraten zwischen dem frühen und dem späten 20. Jahrhundert? Tabelle 3 zeigt: fast nichts.

Aber die nach 1994 von CRU vorgenommene Anpassung hat den gesamten Anomalietrend von 1880 bis 1993 um 0,01°C pro Dekade zunehmen lassen.

Tabelle 3: CRU Mittlere dekadische Temperaturänderung (DDC)

Die Trends der CRU enthüllen auch etwas Interessantes bei den GISS-Trends: Die Hinzufügung des Sinusoids zu den GISS-Anomalien von 1999 zog ihre Trends von 2010 genau auf die Linie der CRU-Trends- Ein glücklicher Zufall? Ich weiß es nicht.

So verbleiben nach all dem mehr Fragen als Antworten. Aber die neue Wissenschaft von der Klimaänderung ist ganz klar umrissen: Sie hat sich von einem Studium des Klimas zu einem studierten Klima gewandelt.

Link: http://noconsensus.wordpress.com/2011/05/08/delta-t/

Autor: Pat Frank

References:

1.         Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A  Representative Lower Limit, Energy & Environment, 2010, 21 (8), 969-989; freely available by the generosity of Multi-Science http://meteo.lcd.lu/globalwarming/Frank/uncertainty_in%20global_average_temperature_2010.pdf.”>here</a>.

2.         Hansen, J. and Sato, M., GISS Surface Temperature Analysis, Goddard Institute for Space Studies, NASA, http://data.giss.nasa.gov/gistemp/graphs/, Last accessed on: 2 April 2011.

3.         Jones, P.D., Osborn, T.J., Briffa, K.R. and Parker, D.E., Global Monthly and Annual Temperature Anomalies (degrees C), 1856-2004 (Relative to the 1961-1990 Mean), CRU, University of East Anglia, and Hadley Centre for Climate Prediction and Research, http://cdiac.ornl.gov/ftp/trends/temp/jonescru/global.txt, Last accessed on: 27 November 2010.

4.         Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.

5.         Hansen, J. and Lebedeff, S., Global Surface Air Temperatures: Update through 1987, Geophys. Res. Lett., 1988, 15 (4), 323-326.

6.         Hansen, J., Ruedy, R., Sato, M. and Reynolds, R., Global surface air temperature in 1995: Return to pre-Pinatubo level, Geophys. Res. Lett., 1996, 23 (13), 1665-1668.

7.         Hansen, J., Ruedy, R., Glascoe, J. and M. Sato, M., GISS analysis of surface temperature change, J. Geophys. Res., 1999, 104 (D24), 30997–31022.

8.         Parker, D.E., Jones, P.D., Folland, C.K. and Bevan, A., Interdecadal changes of surface temperature since the late nineteenth century, J. Geophys. Res., 1994, 99 (D7), 14373-14399.

9.         Jones, P.D. and Moberg, A., Hemispheric and Large-Scale Surface Air Temperature Variations: An Extensive Revision and an Update to 2001, Journal of Climate, 2003, 16 (2), 206-223.

10.       Hansen, J., Fung, I., Lacis, A., Rind, D., Lebedeff, S., Ruedy, R., Russell, G. and Stone, P., Global Climate Changes as Forecast by Goddard Institute for Space Studies Three?Dimensional Model, J. Geophys. Res., 1988, 93 (D8), 9341-9364.

11.       Ma, L.H., Gleissberg cycle of solar activity over the last 7000 years, New Astronomy, 2009, 14 (1), 1-3.

Übersetzt von Chris Frey für EIKE




Unbedingt jetzt anhören: Die Klimakontroverse – Ein diskursiver Ausflug! MDR Figaro

Die Menschen hinterfragen immer weniger ihre Wirklichkeit und geraten zunehmend in einen Zustand ängstlichen Verharrens, allgemeinen Akzeptierens oder Gleichgültigkeit gegenüber den gewaltigen gesellschaftlichen Umwälzungen des kommenden Zeitalters. Die Sendung verschafft sich ein Bild im Dschungel der Wissenschaft, der medialen Fokussierung und politischen Korrektheit und lädt zu einer spielerischen Erkenntnisexpedition in die Arktis, die arabische Wüste und anderen Orten ein. Ein Feature mit:

Prof. Hauke Trinks   (Meereisforscher)
Prof. Steve Coulsen  (UNIS Terrestrische Ökologie)
Prof. Jørgen Berge    (UNIS Meeresbiologie)
Andreas Umbreidt    (Terra-Polaris)

Joachim Kundt (CEO Abu Dhabi Siemens)
Rene Umlauft (CEO Erneuerbare Energien Siemens)
Dolf Gehlen (CEO International Renewable Energy Agency)

Christoph Hein (Schriftsteller)
Mike Kess / Udo Schulze (Bürgerinitiative "CO2 Endlager")
Dr. Franz Berger  (Wetterstation Lindenberg )
Prof. Hartmut Grassl  (Hamburger Max Planck Institut)
Dr. Wolfgang Thüne (Metereologe)
Prof. Dr. Werner Kirstein (Institut für Geografie, Universität Leipzig)
Prof. Friedrich Wilhelm Gerstengarbe (Potsdam Institut für Klimafolgenforschung)
Michael Limburg  (Europäisches Institut für Klima und Energie)
Dr. Joachim Bublath (Wissenschaftspublizist)
Prof. Hans von Storch (Institut für Küstenforschung Gestach)
Prof. Jan Veizer (Evolutionsgeologe, University of Ottawa)
Dr. Nico Bauer  (Potsdam Institut für Klimafolgenforschung)
Prof. Dr. Claudia Kemfert (Deutsches Institut für Wirtschaft)

Erstsendung: Mittwoch 25. Mai
22 Uhr / MDR-Figaro 
22.04 Uhr rbb- Kulturradio