Verbraucherschützer Krawinkel unterstützt weiter das EEG

Auf dem 4. Energiepolitischen Dialog der CDU/CSU Fraktion im Deutschen Bundestag war auch (neben mehr als 300 Besuchern) Dr. Krawinkel anwesend. Seit längerem hatte ich versucht mit Krawinkel, als dem zuständigen Verbraucherschützer im Bundesverband der Verbraucherzentralen (VZBV), ins Gespräch zu kommen. Ich war der irrigen Ansicht, dass der Mann seinen Job als Verbraucherschützer ernst nähme. Wollte es zumindest testen.
Nach mehrmaligen höflichen Anfragen nach einem Gesprächstermin, die allesamt unbeantwortet blieben, ging der erneuten Kontaktaufnahme diese Mail vom 13.1.12 voraus:

Sehr geehrter Herr Dr. Krawinkel,
trotz zweier Anläufe meinerseits, war es Ihnen bisher leider nicht möglich mir einen Terminvorschlag, bzw. noch nicht mal auf meine Mails (vom 27.9.11 und 19.12.11, Ø s.u.) eine Antwort zu geben.
Da wir alle Verbraucher sind und immer noch davon ausgehen, dass Sie als zuständiger Bereichsleiter beim vzbw für die Verbraucher da sind, überdies aus Bundes- dh. auch unseren Steuermitteln, finanziert werden (so jedenfalls Ihre Website: Der Kernhaushalt wird zu etwa 85 Prozent durch Mittel aus dem Bundesministerium für Verbraucherschutz, Ernährung und Landwirtschaft (BMELV) finanziert….Diese Projekte werden von verschiedenen Bundesministerien, aber auch aus Mitteln der Europäischen Union finanziert.) und Ihr Verband nach landläufiger Ansicht sowie eigenem Bekunden unabhängig ist (Der Verbraucherzentrale Bundesverband ist an keinerlei Weisungen des Bundesverbraucherministeriums gebunden. Auch in Personalfragen, etwa bei der Berufung und Entlastung des Vorstands, ist der Verbraucherzentrale Bundesverband in seinen Entscheidungen völlig autonom. ) möchte ich Sie nochmals, sehr höflich aber auch nachdrücklich, um einen Terminvorschlag für ein Gespräch bitten.
Da am 18.1.11 14:30 Uhr der 4. Energiepolitische Dialog der CDU/CSU stattfindet und dazu zwei unserer Experten zusätzlich anreisen, würde ich es begrüßen, wenn Sie den 18.1.11 gegen 11:30 Uhr dafür reservieren könnten. Aber auch jeden andere Termin würden wir gerne annehmen,
Zu Ihrer Information sende ich Ihnen den jüngsten Artikel von Andreas Mihm aus der FAZ, den Sie sicher kennen, der aber nur einen Teil der traurigen Wahrheit über das ungehemmte Schröpfen der Verbraucher dank der Subventionen für "Erneuerbare" beleuchtet.
Ich verweise zudem auf den gut recherchierten und wichtigen Beitrag von Dr. Keil (ehemals am Bundesforschungsministerium) "Die Energiewende ist bereits gescheitert" den Sie hier einsehen (http://www.eike-klima-energie.eu/news-cache/die-energiewende-ist-schon-gescheitert-mit-update-4112/) bzw. herunterladen können.
Ich hoffe sehr auf Ihre Bereitschaft zum Dialog, wie auch von Ihnen anlässlich unserer kurzen Begegnung am 26.9.201 bekundet und wünschen Ihnen und Ihrem Team noch ein gutes und erfolgreiches Neues Jahr.
Mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/

Wie auch zuvor, erfolgte auf diese Mail keine Antwort.
Bei dem anschließenden Versuch meinerseits mit Herrn Krawinkel anlässlich der Tagung persönlich ins Gespräch zu kommen, wurde ich brüsk mit den Worten (sinngemäß) beschieden.

"Mit Ihnen spreche ich nicht. Ich habe mir Ihre Website angesehen, Sie sind ja dafür, das EEG komplett abzuschaffen. Das ist mit mir auf keinen Fall zu machen."

Sprach´s, drehte sich um und ließ mich stehen. Bei der anschließenden Podiumsdiskussion – das Thema war "Spannungsfeld Energieeffizienz" – verteidigte er die Energiewende vehement, allenfalls kosmetische Änderungen wollte er angehen.
Damit machte er sich u.E.n. erneut zum Büttel der Regierung, statt die berechtigen Interessen der Verbraucher zu vertreten. 
Der ebenfalls als Podiumsteilnehmer anwesende Dr. Stefan Kohler – seines Zeichens Chef der DENA– verteidigte in der Podiumsdiskussion ebenfalls vehement die Energiewendebeschlüsse und begründete dies u.a mit der Feststellung, dass doch jeder sehen müsse, dass diese nötig sei, weil z.B. die Strompreise für den Endverbraucher seit 8-10 Jahren von rd. 18 ct/kWh auf nunmehr knapp 26 ct/kWh gestiegen seien.
Er unterließ es aber darauf hinzuweisen, dass der beklagte Anstieg einzig und allein auf erhöhte Steuern und Abgaben zurückzuführen ist. Also  von einer Regierung angetrieben wird, die wiederum steigende Strompreise als Begründung heranzieht die Strompreise weiter zu steigern. Eine noch irreführendere Argumentation ist schwer vorstellbar. So sieht also Verbraucherschutz und "Energiekompetenz"(1) in Deutschland aus. Beides Worthülsen ohne Inhalt! Denn nach wie vor gilt das grüne Glaubensbekenntnis:

"Auch die kleinste Glühbirne lässt ein Stück Polkappe schmelzen*".

Michael Limburg EIKE
(1) Aus der Website der DENA

Die Deutsche Energie-Agentur GmbH (dena) ist das Kompetenzzentrum für Energieeffizienz, erneuerbare Energien und intelligente Energiesysteme. Das Leitbild der dena ist es, Wirtschaftswachstum zu schaffen und Wohlstand zu sichern – mit immer geringerem Energieeinsatz. Dazu muss Energie so effizient, sicher, preiswert und klimaschonend wie möglich erzeugt und verwendet werden – national und international.

* gefunden im wunderbaren Artikel von Richard Kämmerlings in "Die Welt" vom 20.1.12 "Wir sind schuld"




Tisdale nimmt sich Foster & Rahmstorf 2011 vor

UPDATE 2 (5. Januar 2012): BITTE LESEN! Drei Dinge: Erstens, ich habe den Unterschied zwischen einem „linearen Zeittrend“ (Foster und Rahmstorf, hiernach F&R) und einem „linearen Trend“ nicht verstanden. Meine Konfusion führte auch bei vielen Bloggern zu Konfusion, die meinen Beitrag gelesen und bei WattsUpWithThat kommentiert haben (hier). Dafür möchte ich mich entschuldigen. Für alle Interessierten: der „lineare Zeittrend“ wird unter der Überschrift „Data as trend plus noise” bei Wikipedia beschrieben (hier).
Zweitens habe ich zusätzlich zu MEI, AOD und TSI als unabhängige Variable fälschlich die Werte des linearen Trends verwendet, die EXCEL mit seiner LINEST-Funktion aus den monatlichen GISS-Daten als vierte unabhängige Variable berechnet hat. Und dies addiert sich zu der Konfusion jener, die die Gleichungen interpretiert haben. In der Rückschau denke ich, dass ich diese Gleichungen nicht hätte bringen sollen. Stattdessen hätte ich eine Tabelle bringen sollen, in der die Koeffizienten aufgelistet sind.
Drittens, in der Eile, mit der ich diesen Beitrag veröffentlicht habe, ist es mir nicht gelungen, die Schritte zur Bearbeitung der Daten zu erklären, was Vielen beim Betrachten der Gleichungen und Graphen konfus erscheinen mochte. Ich habe die Regressionsanalysen mit den „rohen“ monatlichen Daten durchgeführt; danach habe ich unter Verwendung der sich ergebenden Koeffizienten die monatlichen Daten angepasst. (Ich hatte einen Graphen unter Verwendung monatlicher Daten vorbereitet, ähnlich der Abbildung 4 bei F&R mit den Jahren 1979 bis 2010 als Basis. Aber ich hatte den Eindruck, dass meine Version ein unintelligenter Spaghetti-Graph mit wenig Aussagekraft war, also habe ich ihn nicht gebracht). Dann habe ich die angepassten Daten in jährliche Daten umgerechnet und schließlich 1979 bis 2010 als Basisjahre herangezogen.
Unter dem Strich: Obwohl ich einen linearen Trend mit einem linearen Zeittrend verwechselt habe, und obwohl ich nicht alle zusätzlichen Feinheiten in den von F&R (2011) verwendeten Daten eingeschlossen habe, ist es schwer, irgendeinen Unterschied zwischen der Abbildung 7 von mir und der Abbildung 5 von F&R zu erkennen. Es gab Kommentare von anderen Bloggern zu dem Beitrag auf WUWT, die mit unterschiedlichen Methoden zu ähnlichen Ergebnissen gekommen waren. Heißt das, dass die Ergebnisse von F&R (2011) so stichhaltig sind wie in einigen Kommentaren bei WUWT behauptet? Nein. ENSO ist ein Prozess, kein Index, und es kann nicht für lineare Regressionsanalysen herhalten. Dies wurde klar gezeigt und detailliert diskutiert unter der Überschrift ENSO IS NOT AN EXOGENOUS FACTOR.
Update 1: (3. Januar 2012): Unter dieser Überschrift habe ich den Wortlaut eines Satzes verändert und das Wort „create“ mit dem Wort „recharge“ ersetzt.

Übersicht

Dieser Beitrag befasst sich mit einem merkwürdigen Aspekt der multiplen linearen Regressionsanalyse von Foster and Rahmstorf der in ihrem 2011 Papier “Global Temperature Evolution 1979–2010” zu finden ist. Ich finde es sehr seltsam, dass der Faktor, auf denen das Papier zu beruhen scheint, nicht im Detail hier vorgestellt wird. Zur Klarstellung für diesen Teil des Beitrages, ich will nicht implizieren, dass  etwas falsch ist mit diesem spezifischen Aspekt des Papiers, aber ich bin auch nicht einverstanden mit ihm. Ich habe es jetzt zur Diskussion hier vorgelegt.
Der zweite Teil dieses Beitrags ist eine Diskussion über eine der exogenen Faktoren, den Foster und Rahmstorf (2011) versucht haben, zu entfernen. Das Problem dabei: Es ist kein exogener Faktor. Und gibt es eine dritte Diskussion über einen Datensatz in einem Tabellenblatt vom Hauptautor Grant Foster (aka Tamino), der aber seltsamerweise nicht im Paper selbst erwähnt wird.
Es ist nicht überraschend, das das Foster und Rahmstorf (2011) Papier  auf den Blogs der Befürworter der anthropogenen globalen Erwärmung die Runde gemacht hat. Joe Romm lobte es mit dem Post "Sorry, ihr Leugner, Die Studie des "True Global Warming Signals" zeigt eine "bemerkenswert stabile" Rate der menschgemachten Erwärmung seit 1979. Und SkepticalScience erläutert das Papier in seinem Beitrag zu Foster und Rahmstorf "Sie messen das Global Warming Signal". Und auch auf RealClimate gab es eine lobende Erwähnung durch die Aufnahme als eines der Themen in ihren Neuigkeiten zur globalen Temperatur.
Einführung
F&R (2011) haben versucht, aus 5 globalen Temperaturdatensätzen die linearen Effekte von drei Faktoren zu entfernen, von denen bekannt ist, dass sie Variationen der globalen Temperatur hervorrufen.
Sie überdeckten die Periode von 1979 bis 2010. Die offensichtliche Absicht der Studie ist es zu zeigen, dass die anthropogene globale Erwärmung unvermindert in allen Datensätzen andauert. Die unabhängigen Variablen, die im Abstract von F&R (2011) aufgelistet werden, sind El Niño-Southern Oscillation, vulkanische Aerosole und solare Variationen. F&R (2011) scheint eine viel klarere Version des Beitrags von Tamino (Grant Foster) vom 20. Januar 2011 zu sein: How Fast is Earth Warming? Nach der Veröffentlichung dieser Studie hat sie Tamino in seinem Beitrag The Real Global Warming Signal diskutiert und freundlicherweise die Quelldaten und den Code in seinem Beitrag Data and Code for Foster & Rahmstorf 2011 zur Verfügung gestellt. Die Daten von Tamino finden sich hier.  Es ist eine .zip-Datei, die Tamino in eine .xls-Datei umbenannt hat, um, wie er erklärt, „die Weltpresse glauben zu machen, dass es sich um eine Excel-Datei handelt. Man muss einen „Rechtsklick und dann Speichern unter…“ durchführen und dabei die Rückbenennung in eine .zip-Datei vornehmen, um sie öffnen zu können.
Wie oben erwähnt haben F&R (2011) die exogenen Faktoren aufgelistet, die als unabhängige Variable in der multiplen Regressionsanalyse als “El Niño/southern oscillation, volcanic aerosols and solar variability“ bezeichnet werden. Komischerweise haben F&R drei Absätze später bei der nochmaligen Auflistung der Faktoren bei der multiplen Regressionsanalyse eine vierte Variable eingeführt: linearer Trend. Der letzte Satz des dritten Absatzes unter der Überschrift „Introduction“ lautet:
„Der Einfluss exogener Faktoren wird durch eine multiple Regression der Temperatur in Abhängigkeit von ENSO, vulkanischer Einflüsse, der gesamtsolaren Einstrahlung und einem linearen Zeittrend durchgeführt, um die globale Erwärmung anzugleichen, die seit 32 Jahren Gegen¬stand der Analyse ist.“
Aber eine der Grundlagen dieser Studie ist es zu illustrieren, wie ähnlich sich die Trends sind, nachdem die Anpassungen für ENSO, Solarstrahlung und vulkanischer Aerosole vorgenommen worden waren, einschließlich der linearen Trends der Datensätze, die in der Regressionsanalyse als eigenartig auffielen. In der Folge machte ich mich daran, nach einem anderen Grund zu suchen, warum F&R diesen linearen Trend in ihre Regressionsanalyse einfließen lassen mussten. Wie ich im Folgenden anmerke, benutze ich kommerzielle Zusatzsoftware für EXCEL, um diese multiple Regressionsanalyse durchzuführen. Da ich keine anderen Mittel habe, die Resultate zu verifizieren, anders als die Ergebnisse eines ihrer Graphen zu reproduzieren, bitte ich Sie, die folgenden Ergebnisse zu bestätigen, wenn Sie diese Möglichkeit haben.
Warum haben sich F&R genötigt gesehen, einen linearen Trend in die multiple Regressionsanalyse einzuführen?
Den einzigen Grund, den ich dafür erkennen kann, ist Folgender: Der Anpassungsfaktor für die solaren Daten ist das falsche Vorzeichen, wenn in der multiplen Regressionsanalyse nur ENSO, solar und vulkanisches Aerosol als unabhängige Variable eingehen. Lassen Sie mich das detaillierter erklären. Aber noch einmal bitte ich zu verstehen, dass ich in diesem Abschnitt des Beitrags nicht impliziere, dass mit diesem spezifischen Aspekt der Studie etwas nicht stimmt; und noch einmal: ich stimme damit nicht überein. Ich fand es nur interessant.
Mit den von Tamino zur Verfügung stellten Daten, habe ich Analyse-It for EXCEL– Software benutzt, um eine multiple Regressionsanalyse durchzuführen. Meine ursprüngliche Analyse schließt ein Taminos Lieblingsdatensatz der Globalen Temperatur nach GISS als abhängige Variable und den mehrdimensionalen ENSO-Index (MEI), die totale Solarstrahlung (PMOD) und die Daten zur Dichte vulkanischen Aerosols (AOD) als unabhängige Variable. Ich habe meine MEI-Daten vier Monate verzögert dargestellt, die PMOD-Daten einen Monat und die AOD-Daten sieben Monate in Übereinstimmung mit Tabelle 1 von F&R (2011), die auch in diesem Beitrag Tabelle 1 ist. Und in dieser Analyse habe ich den GISTEMP linearen Trend als unabhängige Variable nicht berücksichtigt.

Tabelle 1:
Die multiple Regressionsanalyse allein mit den ENSO (MEI), Solar (PMOD) und vulkanische Aerosole (AOD) ergibt sich aus Gleichung 1:
EQUATION 1:
GISS = 123.6 + 0.06769MEI(4m lag) – 0.09025TSI.PMOD(1m lag)– 3.837AOD (7m lag)
[4m lag etc. = 4 Monate Verzögerung usw. Gilt auch für alle anderen Gleichungen. A. d. Übers.]
Ich habe den Term für die solare Variable [in der Gleichung] in Fettdruck dargestellt, um die Tatsache hervorzuheben, dass das Vorzeichen negativ ist. Er müsste positiv sein, um die Ergebnisse von F&R (2011) zu reproduzieren. Die Vorzeichen von ENSO und für das vulkanische Aerosol entsprechen dem, was man erwartet, siehe Abbildung 1. Gegensätzlich zu F&R ist lediglich das Vorzeichen des Solarkoeffizienten, wie Abbildung 2 zeigt (welche ihre Abbildung 7 ist).

Abbildung 1
HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH

Abbildung 2
Und das ergibt einen monumentalen Unterschied zum Ergebnis von F&R (2011). Wenn wir die GISS-Daten der Temperatur mit den Faktoren aus Gleichung 1 anpassen, ist der Anstieg nicht kontinuierlich. Siehe dazu Abbildung 3. Das Jahr mit der globalen Temperaturspitze der adjustierten GISS-Daten ist das Jahr 2002.

Abbildung 3
Um die Ergebnisse von F&R (2011) zu stützen, habe ich einen linearen Trend von 0,167°C pro Dekade zu den Anomaliedaten von GISS als unabhängige Variable hinzugefügt. Die Verzögerungen von ENSO (MEI), Solar (PMOD) und vulkanisches Aerosol (AOD) bleiben die gleichen wie zuvor.
Die multiple Regressionsanalyse mit ENSO (MEI), Solar (PMOD) und vulkanisches Aerosol (AOD) und dem linearen Trend ergibt sich aus Gleichung 2:
EQUATION 2:
GISS = -91.43 + 1.024Trend + 0.0761MEI(4m lag) + 0.06694TSI.PMOD(1m lag)– 2.334AOD (7m lag)
Das Vorzeichen des Koeffizienten der Sonneneinstrahlung stimmt jetzt mit F&R überein, wie Abbildung 4 zeigt. Man beachte, dass die Einführung des linearen Trends als unabhängige Variable auch die Skalierung der anderen drei Variablen verändert. Es hat den Skalierungsfaktor der ENSO-Daten etwas zunehmen lassen und den Skalierungsfaktor des vulkanischen Aerosols signifikant abnehmen lassen. Natürlich ergibt die Einführung des Trends als unabhängige Variable mit der Änderung des Vorzeichens der Solarstrahlung auch mit den GISS-Daten das von F&R gewünschte Ergebnis, Abbildung 5, mit einem relativ stetigen Temperaturanstieg während des 32-jährigen Zeitraumes. Und man beachte, dass der Trend von 0,172°C pro Dekade mit den Ergebnissen von F&R (2011) vergleichbar ist, die in Tabelle 1 gelistet sind.

Abbildung 4
HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH

Abbildung 5
Natürlich habe ich die Trendanpassung aus Gleichung 2 nicht eingeführt (und F&R (2011) konnten sie nicht einführen), als ich die korrigierten Daten in Abbildung 5 gezeigt habe. Nachdem die Trendanpassung mit eingeschlossen war, würden die korrigierten Daten keinen Trend aufweisen. Das bedeutet: wie es scheint, mussten F&R (2011) den Trend in den GISSTEMP-Daten in die Regressionsanalyse einführen, nur um das Vorzeichen des solaren Einflusses zu bekommen, das sie haben wollten.
F&R (2011) hätten ähnliche Faktoren der Skalierung für die ENSO (MEI)-, PMOD- und AOD-Daten erhalten, wenn sie die GISS-Temperaturdaten nur trendbereinigt hätten.
EQUATION 3:
Detrended GISS = -86.31 + 0.0759MEI(4m lag) + 0.0632TSI.PMOD(1m lag) – 2.37AOD (7m lag)
Das umgekehrte Vorzeichen des solaren Einflusses haben alle globalen Datensätze der Temperatur gemeinsam.
Nun könnte man geneigt sein zu fragen, ob der GISS-Datensatz der globalen Temperatur der einzige Datensatz mit diesen Ergebnissen ist. Die Antwort lautet nein. Wenn der lineare Trend nicht in die linearen multiplen Regressionsanalysen eingeführt wird, steht das Vorzeichen des Solarkoeffizienten immer im Gegensatz zu dem, was F&R (2011) hätten benutzen müssen für die NCDC und HADCRUT Land- plus Wassertemperaturdaten sowie für die Temperaturdaten der unteren Troposphäre von RSS und UAH. Die Gleichungen 4 bis 7 liegen den Regressionsanalysen dieser Datensätze zugrunde. Die Verzögerungen sind die gleichen wie in Tabelle 1 oben gelistet:
EQUATION 4 (NCDC Land Plus Meeresoberflächentemperatur):
NCDC = 109.1 + 0.05495MEI(2m lag) – 0.0796TSI.PMOD(1m lag)– 3.113AOD (5m lag)
EQUATION 5 (Hadley Centre HADCRUT Global Surface Temperature Anomalies):
HadCRUT3v = 92.21 + 0.06421MEI(3m lag) – 0.0673TSI.PMOD(1m lag)– 3.293AOD (6m lag)
EQUATION 6 (RSS MSU Lower Troposphere Temperature Anomalies):
RSS33 = 61.44 + 0.1285MEI(5m lag) – 0.04489TSI.PMOD(0m lag)– 4.863AOD (5m lag)
EQUATION 7 (UAH MSU Lower Troposphere Temperature Anomalies):
UAH = 72.94 + 0.1332MEI(5m lag) – 0.05338TSI.PMOD(0m lag)– 5.139AOD (6m lag)
Wenn wir diese Koeffizienten verwenden, ergibt sich aus den fünf Datensätzen keineswegs der nette kontinuierliche Anstieg der globalen Temperatur, den F&R so gerne präsentiert hätten, wie Abbildung 6 zeigt. Für die drei Datensätze (GISS, HADCRUT, NCDC) war das Jahr 2002 das wärmste. Lediglich die beiden Datensätze der Temperaturanomalien in der unteren Troposphäre zeigen 2010 als das wärmste Jahr.

Abbildung 6
Und wie zu erwarten war, wenn die linearen Trends der anderen globalen Temperaturdatensätze als unabhängige Variable mit einbezogen werden, wird das Vorzeichen des Solarkoeffizienten positiv. Siehe die Gleichungen 8 bis 11.
EQUATION 8 (NCDC Land Plus Ocean Surface Temperature, with trend):
NCDC = -106.7 + 1.085Trend + 0.06832MEI(2m lag) + 0.07813TSI.PMOD(1m lag)– 1.68AOD (5m lag)
EQUATION 9 (Hadley Centre HADCRUT Global Surface Temperature Anomalies, with trend):
HadCRUT3v = -119.2 + 1.093Trend + 0.07519MEI(3m lag) + 0.08723TSI.PMOD(1m lag)– 1.858AOD (6m lag)
EQUATION 10 (RSS MSU Lower Troposphere Temperature Anomalies, with trend):
RSS33 = -135.5 + 1.05Trend + 0.1342MEI(5m lag) + 0.09923TSI.PMOD(0m lag)– 3.479AOD (5m lag)
EQUATION 11 (UAH MSU Lower Troposphere Temperature Anomalies, with trend):
UAH = -105.7 + 0.9953Trend + 0.1381MEI(5m lag) + 0.07742TSI.PMOD(0m lag)– 3.871AOD (6m lag)
Schließt man die linearen Trends in die multiplen Regressionsanalysen mit ein, ergeben die Koeffizienten aus den obigen Gleichungen die Anpassungen, die F&R (2011) präsentiert haben, Abbildung 7. Ich habe ihre Abbildung 5 als Abbildung 8 als Referenz hier mitgezeigt.

Abbildung 7
HHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH

Abbildung 8

Die Annahme über den linearen Trend

Ich bin sicher, dass irgendeiner versuchen wird zu argumentieren, dass die Mitberücksichtigung des Trends in den Regressionsanalysen notwendig ist, da die auf Computermodellen basierenden Studien gezeigt haben, dass der Anstieg der globalen Temperatur in der Periode 1979 bis 2010 durch anthropogene Antriebe verursacht worden ist. Aber natürlich setzt diese Argumentation voraus, dass man die Klimamodelle verwenden kann, den Grund für einen Anstieg der globalen Temperatur während jeder beliebigen Periode zu bestimmen. Wir haben vor Kurzem gezeigt und diskutiert, dass die vom IPCC in ihrem 4. Zustandsbericht verwendeten  Klimamodelle die globalen Temperaturen in keiner Periode des 20. Jahrhunderts darstellen konnten. Siehe hierzu den zusammenfassenden Beitrag  hier. Das zweite Problem mit ihrer Annahme besteht darin, dass die globalen Ozeane, die etwa 70% der Erdoberfläche überdecken, während der Satellitenära keine Anzeichen einer anthropogenen globalen Erwärmung zeigen. Und das bringt uns zu…

ENSO ist kein exogener Faktor

F&R (2011) haben versucht, ENSO als einen exogenen Faktor von den Instrumentenaufzeichnungen abzuziehen. Aber ENSO ist kein exogener Faktor. ENSO ist ein gekoppelter Ozean-Atmosphäre-Prozess, der periodisch während eines El Niño Wärme in die Atmosphäre bringt. Der El Niño verursacht Änderungen in der atmosphärischen Zirkulation, was zu variierenden Temperaturen außerhalb des östlichen tropischen Pazifiks führt, teils Erwärmung, teils Abkühlung, aber insgesamt überkompensieren die warmen Gebiete die kühlen, und die globale Temperatur steigt als Reaktion auf einen El Niño. Die Verteilung von Erwärmung und Abkühlung während eines La Niña sind denen eines El Niño ähnlich, aber die Vorzeichen sind umgekehrt. Und das ist wirklich alles, worauf Studien wie die von F&R (2011) die Hoffnung begründen können, dass sich die Berücksichtigung von ENSO in den Regressionsanalysen auszahlt. Aber ENSO bedeutet noch viel mehr.
ENSO ist auch ein Prozess, der das vom El Niño selbst übrig gelassene Warmwasser umverteilt und die Verteilung des El-Niño-Warmwassers außerhalb des östlichen tropischen Pazifik verstärkt. Bei dieser Umverteilung wird warmes Wasser polwärts transportiert sowie in die angrenzenden Ozeanbecken während eines einem El Niño folgenden La Niña. La Niña-Ereignisse erwärmen auch einen Teil des Warmwassers verursacht durch El Niño. Manchmal „überladen“ La Niña-Ereignisse den tropischen Pazifik insofern, als sie mehr tropische Ozeanwärme des Pazifiks erzeugen als vorher durch El Niño entstanden war. Das war so während der La Niña-Ereignisse 1973/74/75/76 und 1995/96. Siehe Abbildung 9. Das La Niña-Ereignis von 1973/74/75/76 stellte den Initial-“Treibstoff” für den Super El Niño von 1982/83 und den mehrjährigen El Niño von 1986/87/88. Und der „El Niño des Jahrhunderts” 1997/98 wurde durch La Niña von 1995/96 angeregt. Der Prozess ENSO kann durch lineare Regression nicht in einem Index berücksichtigt werden. Dies wurde in der Einführung zu dem Beitrag ENSO Indices Do Not Represent The Process Of ENSO Or Its Impact On Global Temperature illustriert und diskutiert.

Abbildung 9
F&R (2011) bezogen sich auf Trenberth et al. (2002) Evolution of El Nino–Southern Oscillation and global atmospheric surface temperatures” als eine ihrer Referenzen zu ENSO. Aber Trenberth et al. (2002) erwähnen das folgende Dementi im zweiten Absatz ihrer Schlussfolgerungen (ihr Absatz 52, Fettdruck von mir):
Das in dieser Studie benutzte wesentliche Tool ist die Korrelation und Regressionsanalyse, die durch kleinste Quadrate-Anpassungen [?] dazu tendiert, größere Ereignisse zu betonen. Dies erscheint angebracht, weil in diesen Ereignissen das Signal ganz klar größer ist als das Rauschen. Mehr noch, diese Methode wichtet jedes Ereignis angemessen (anders als in vielen Komposit-Analysen). Obwohl es möglich ist, die Regression dazu zu verwenden, den linearen Anteil des globalen Temperatursignals in Zusammenhang mit ENSO zu eliminieren, weichen die regional zum globalen Mittel beitragenden Prozesse erheblich voneinander ab, und die lineare Annäherung verlässt wahrscheinlich ein ENSO Überbleibsel.
Die ENSO-„Reste” liefern einen signifikanten Beitrag zum Anstieg der globalen Wassertemperaturwährend der Satellitenära, wie wir noch sehen werden. Haben F&R (2011) diese Reste in ihren Analysen berücksichtigt? Nein. Sie haben angenommen, dass der Anstieg durch anthropogene Antriebe erfolgt ist, und sie vermuteten, dass ein linearer Trend dies repräsentiert.
Eine jüngere Studie ist von F&R (2011) übersehen worden. Compo und Sardesmukhs (2010) Beitrag “Removing ENSO-Related Variations from the Climate Record” scheint ein Schritt in die richtige Richtung zu sein. Sie schreiben (Fettdruck von mir):
Eine wichtige Frage bei der Abschätzung des Klimas im 20. Jahrhundert lautet, in welchem Ausmaß durch ENSO verursachte Variationen zum beobachteten Trend beigetragen haben. Diese Beiträge zu isolieren ist aus vielerlei Gründen eine Herausforderung, einschließlich Mehrdeutigkeiten, wie ENSO definiert wird. Im Besonderen kann die Definition von ENSO mit einem einzigen Index und die mit diesem ENSO in Zusammenhang stehenden Variationen als Regression über diesen Index, wie es in vielen früheren Studien getan worden ist, zu falschen Schlussfolgerungen führen. Diese Studie sagt, dass man ENSO am besten untersuchen kann, wenn man es nicht als Zahl, sondern als einen sich entwickelnden dynamischen Prozess für dieses Ziel betrachtet.
Und wie Compo und Sardeshmukh vermutet haben, kamen F&R (2011) zu den falschen Schlussfolgerungen.
Beachte: Compo und Sardeshmukh lagen bei einem sehr wichtigen Aspekt von ENSO daneben. Sie haben die Signifikanz der riesigen Menge warmen Wassers übersehen, die von den El Niño-Ereignissen übrig gelassen worden sind, und sie haben nicht den Beitrag dieses Vorgangs zum Anstieg der globalen Wassertemperatur-Anomalie seit etwa 1976 gesehen.
Wir wollen auch nicht die vielgepriesene Studie von Thompson et al. (2008) vergessen. Diese Studie von Thompson et al. (2008) für den neuen und verbesserten HADSST3-Datensatz der globalen Wassertemperatur-Anomalie vom Hadley Centre. Bei Thompson et al. (2008) wurde wie bei F&R (2011) gemogelt, weil sie versuchen, das ENSO-Signal aus den Aufzeichnungen globalen Temperaturaufzeichnung zu entfernen und dann behaupten, dass der restliche Temperaturanstieg durch anthropogene Antriebe verursacht wird. In ihrer Einführung schreiben Thompson et al. (2008) (Fettdruck von mir):
In dieser Studie werten wir eine Reihe neuer Methoden aus, um aus den ungeglätteten Datenreihen der globalen Land- und Wassertemperaturen die Varianz in Verbindung mit ENSO zu identifizieren und herauszufiltern, ebenso die dynamisch induzierte atmosphärische Variabilität und Vulkanausbrüche. Die Auswirkungen von ENSO und von Vulkanausbrüchen auf die globale mittlere Temperatur werden mit Hilfe eines einfachen thermodynamischen Modells der Reaktion der Durchmischungsschicht Atmosphäre – Ozean auf eine anomale Erwärmung geschätzt. Im Falle eines ENSO wird vermutet, dass die Erwärmung proportional zu den Anomalien der Wassertemperatur im östlichen Pazifik ist…
Das ist eine monumentale Hypothese, und es ist die gleiche bewusst irreführende Hypothese von F&R (2011).
Aber es war diese spezielle Sprache bei Thompson et al. (2008), die mich dazu veranlasst hat, die Anomalien der Wassertemperatur in die zwei Unter-Datensätze aufzuteilen. Einer zeigt die Anomalie im Ostpazifik von Pol zu Pol (90S – 90N, 180 – 80W) und der andere den Rest der Welt (Atlantik – Indischer Ozean – Westpazifik) von Pol zu Pol (90S – 90N, 80 W-180). Und rein zufällig habe ich den Datensatz der Wassertemperatur benutzt (Reynolds OI.v2), der auch für den Land-Ozean-Index von GISS benutzt wird, welcher Taminos bevorzugter Datensatz der Temperaturanomalien ist. Ich habe die Wassertemperaturen der beiden Datensätze zum ersten Mal am 3. März 2011 präsentiert, und zwar hier. (Für Interessierte gibt es ungefähr ein Dutzend zusätzliche Beiträge, in denen ENSO und die vieljährigen Folgewirkungen spezifischer ENSO-Ereignisse behandelt werden. Sie sind am Ende dieses Beitrags verlinkt.)
Die Anomalien der Wassertemperatur im Ostpazifik von Pol zu Pol, Abbildung 10, werden beherrscht von den Variationen im tropischen Pazifik, hervorgerufen durch ENSO, und als Folge imitieren die Variationen der Wassertemperatur im Ostpazifik ENSO, repräsentiert durch die skalierten NINO3.4-Anomalien der Wassertemperatur. Der Trend der Wassertemperatur im Ostpazifik ist relativ flach und beträgt 0,011°C pro Dekade.

Abbildung 10
Der Grund für diesen flachen Trend: Warmes Wasser an und unter der Oberfläche im Wärmepool des westlichen Pazifiks wird während eines El Niño ostwärts transportiert und breitet sich an der Oberfläche des östlichen tropischen Pazifiks aus, was dort zu einem Anstieg der Wassertemperatur führt. Und während der den El Niño folgenden La Niñas wird das übrig gebliebene Warmwasser in den westlichen tropischen Pazifik zurück transportiert. Wegen der gesteigerten Stärke des Passatwinde während eines La Niña kommt es zu einem verstärkten Aufquellen kälteren Tiefenwassers im östlichen äquatorialen Pazifik, so dass die Wassertemperatur dort sinkt. Mit anderen Worten, der Ostpazifik ist nichts weiter als ein Sammelpunkt für das warme Wasser eines El Niño-Ereignisses. Warmes Wasser schwappt in diesem Datensatz aus dem westlichen tropischen Pazifik und setzt Wärme frei, bevor das warme Wasser wieder zurück schwappt.
Aber das warme Wasser unter der Oberfläche des Wärmepools im Westpazifik während eines El Niño beeinflussen nicht nur die Wassertemperatur in allen globalen Ozeanen, und man kann sie nicht mit einem ENSO-Index darstellen. Das übrige Warmwasser wird während eines auf einen El Niño folgenden La Niña in den Westpazifik zurück geführt, wobei viel davon an der Oberfläche verbleibt. Die Wassertemperatur im westlichen Pazifik steigt daher. Auf einer Breite von etwa 10N transportiert auch eine sich langsam verlagernde Rossby-Welle übriggebliebenes Warmwasser vom östlichen tropischen Pazifik zurück zum westlichen Pazifik während eines La Niña. Meeresströmungen transportieren das warme Wasser polwärts in das erweiterte Strömungssystem Kuroshio – Oyashiro (KOE) östlich von Japan und zur südpazifischen Konvergenzzone (SPCZ) östlich von Australien, und der Indonesische Durchfluss [Indonesian Throughflow] (eine Meeresströmung) transportiert warmes Wasser in den tropischen Indischen Ozean. Und wie oben erwähnt quillt verstärkt kaltes Tiefenwasser während eines La Niña aufgrund der stärkeren Passatwinde im östlichen tropischen Pazifik auf, so dass die Wassertemperatur dort zurückgeht. Aber dieses Wasser, kälter als normal, wird während La Niña rasch erwärmt, da es durch die verstärkten Passatwinde westwärts strömt. Und der Grund, warum sich das Wasser bei dieser Westverlagerung so rasch erwärmt, ist Folgender: die verstärkten Passatwinde reduzieren die Wolkenbildung, so dass die kurzwellige Sonnenstrahlung (das sichtbare Sonnenlicht) das Wasser bis zu einer gewissen Tiefe erwärmt. Dieses zusätzliche Warmwasser hilft, die Wassertemperaturen im Westpazifik und dem Ostindischen Ozean während La Niña auf einem höheren Niveau zu halten, und es füttert auch den westpazifischen Wärmepool bis zum nächsten El Niño. Siehe nochmals Abbildung 9, aber man beachte dabei, dass diese Abbildung den ozeanischen Wärmegehalt für den gesamten tropischen Pazifik darstellt und nicht nur für den pazifischen Wärmepool.
Und was passiert, wenn ein starkes El Niño-Ereignis von einem La Niña gefolgt wird? Die Anomalien der Wassertemperatur für den Atlantik, den Indischen und den Westpazifischen Ozean (alle Ozeane außerhalb des Ostpazifik) nehmen als erstes zu, und zwar als Reaktion auf den El Niño; die El Niño-Ereignisse von 1986/87/88 und 1997/98. Danach werden die Wassertemperaturen dieser Ozeane durch La Niña auf einem erhöhten Niveau gehalten; die La Niña-Ereignisse 1988/89 und 1998/99/00/01. Die Folgen sind die offensichtlich steigenden Anomalien der Wassertemperatur in diesen Ozeanen von Pol zu Pol (90S-90N, 80W-180), wie in Abbildung 11 gezeigt.

Abbildung 11
Der Abfall und die Erholung mit Beginn im Jahre 1991 wurden verursacht durch die vulkanischen Aerosole der Explosion des Mount Pinatubo. Und der Grund dafür, warum die Wassertemperatur-Anomalien in den anderen Ozeanen so gering auf den Super-El Niño von 1982/83 reagieren, liegt darin, dass der Ausbruch des El Chichon im Jahre 1982 der Erwärmung entgegen wirkte.
Um den Lesern zu versichern, dass der Anstieg der Wassertemperaturen in den Ozeanen außerhalb des Pazifik mit den El Niño-Ereignissen von 1986/87/88 und 1997/98 zusammenfällt, habe ich einen ENSO-Index, NINO3.4 Wassertemperatur-Anomalien in Abbildung 12 eingezeichnet. Die NINO3.4 Wassertemperatur-Anomalien wurden (multipliziert mit dem Faktor 0,12) skaliert, um einen besseren augenscheinlichen Vergleich zu ermöglichen. Außerdem habe ich ihn um 6 Monate verschoben, um der Zeitverzögerung zwischen den Variationen in NINO3.4 und der Reaktion der Daten der übrigen Ozeane Rechnung zu tragen.

Abbildung 12
Aber der ENSO-Index rauscht sichtlich und lenkt von der Zunahme ab. Darum habe ich in Abbildung 13 die Daten zwischen den signifikanten El Niño-Ereignissen isoliert. Für diesen Zweck habe ich den  Oceanic Nino Index (ONI) der NOAA verwendet, um die offiziellen Monate dieser El Niño-Ereignisse zu bestimmen. Es gibt eine 6-monatige Zeitverschiebung zwischen den NINO3.4-Anomalien und der Reaktion der Wassertemperatur-Anomalien in den restlichen Ozeanen während der Entwicklungsphase des El Niño von 1997/98. Also wurden die ONI-Daten um sechs Monate verschoben, und die Daten der Wassertemperatur der übrigen Ozeane, die auf die El Niño-Ereignisse von 1982/83, 1986/87/88 und 2009/10 reagiert haben, wurden ausgeschlossen – übrig gelassen als schwarze gestrichelte Linien. Alle anderen Monate mit Daten verbleiben.

Abbildung 13
Und um den Anstieg weiter zu beleuchten, wurden in Abbildung 14 die mittleren Anomalien der Wassertemperatur zwischen großen El Niño-Ereignissen hinzugefügt.

Abbildung 14
Basierend auf früheren Beiträgen, in denen ich den gleichen Datensatz präsentiert habe, schlugen einige Kommentatoren vor, dass die Zeitspannen der Mitteltemperaturen irreführend sind, und verlangen, dass ich die linearen Trends illustriere. Abbildung 15 zeigt, wie flach die Trends zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 sowie zwischen denen von 1997/98 und 2009/10 waren.

Abbildung 15
Zurück zu den Daten aus dem Ostpazifik: Falls man die Anomalien der Wassertemperatur im Ostpazifik anpasst, um den Effekte vulkanischer Aerosole Rechnung zu tragen, ist der lineare Trend leicht negativ (Abbildung 16). Mit anderen Worten, für etwa 33% der Fläche der globalen Ozeane sind die Anomalien der Wassertemperatur seit 30 Jahren nicht gestiegen.

Abbildung 16
Bemerkung: Die Methode zur Anpassung bzgl. von Vulkanausbrüchen wird hier beschrieben, und zwar im Absatz unter der Überschrift ACCOUNTING FOR THE IMPACTS OF VOLCANIC ERUPTIONS.
Und wenn wir die Anomalien der Wassertemperatur in den übrigen Ozeanen bzgl. vulkanischer Eruptionen anpassen (Abbildung 17), reduzieren wir die Effekte des Abfalls und der Erholung durch die Eruption des Mount Pinatubo 1991. Und der Trend in diesen Ozeanen zwischen den El Niño-Ereignissen von 1986/87/88 und 1997/98 ist leicht fallend verglichen mit den nicht angepassten Daten (Abbildung 15), was den Trend noch flacher und leicht negativ macht.

Abbildung 17
Zusammenfassend: ENSO ist ein gekoppelter Ozean-Atmosphäre-Prozess, und seine Auswirkungen auf die globalen Temperaturen können nicht mit einem ENSO-Index dargestellt werden, wie es F&R (2011) versucht haben – und andere vor ihnen. Wir können einfach die Studie von F&R (2011) zu der Liste zahlreicher Studien hinzufügen, die den gleichen Fehler machen. Beispiele:
Lean and Rind (2009) How Will Earth’s Surface Temperature Change in Future Decades?
Und:
Lean and Rind (2008) How Natural and Anthropogenic Influences Alter Global and Regional Surface Temperatures: 1889 to 2006
Und:
Santer et al (2001), Accounting for the effects of volcanoes and ENSO in comparisons of modeled and observed temperature trends
Und:
Thompson et al (2008), Identifying signatures of natural climate variability in time series of global-mean surface temperature: Methodology and Insights
Und:
Trenberth et al (2002) Evolution of El Nino–Southern Oscillation and global atmospheric surface temperatures
Und:
Wigley, T. M. L. (2000), ENSO, volcanoes, and record-breaking temperatures
Außerdem haben F&R (2011) vermutet, dass das Signal der globalen Erwärmung linear ist und dass es durch anthropogene Antriebe verursacht wird, aber diese Vermutungen werden durch die Messungen der Wassertemperatur in der Satellitenära nicht gestützt, wie oben gezeigt wurde. Das Signal der globalen Erwärmung ist nicht linear, und es wurde gezeigt, dass die El Niño-Ereignisse von 1986/87/88 und 1997/98 der Grund für den Anstieg der Wassertemperatur war und nicht anthropogene Treibhausgase.

Die atlantische multidekadische Oszillation

Wenn man Taminos Datei allfit2.xls heruntergeladen hat (hier – und es danach zu einem .zip.file gemacht hat), wird man bemerken, dass die erste Spalte AA als „AMO“ bezeichnet ist. Und ja, das sind die Daten der multidekadischen Oszillation von der AMO website des NOAA Earth System Research Laboratory (ESRL).
Man beachte: Die jüngsten AMO-Daten und die in Taminos Datei aufgelisteten Daten sind etwas unterschiedlich. Der Grund: Die ESRL AMO-Daten entwickeln sich ständig. Jeden Monat nachdem die neuen Daten der Wassertemperatur im Nordatlantik (0 – 70N, 80W – 0) hinzugefügt worden sind, werden die Daten mit den neuen Daten trendbereinigt.
Man kann nur darüber spekulieren, warum Tamino die AMO-Daten mit aufgeführt hat – und warum die Daten auf dem Arbeitsblatt bis zum Jahr 1950 zurückreichen, wenn es in der Studie lediglich um den Zeitraum 1979 bis 2010 geht. Und man kann sich auch fragen, warum Tamino die ESRL AMO-Daten mitführt, welche auf den Kaplan-Anomaliedaten der Wassertemperatur im Nordatlantik basieren, wenn diese Kaplan-Daten in keinem anderen Datensatz genutzt werden (GISS, HADCRUT oder NCDC). Die Datensätze sind nicht die gleichen. Ich habe Tamino und seine Jünger schon auf diesen Fehler hingewiesen, und zwar in dem Beitrag Comments On Tamino’s AMO Post.
Aber die Neugier beispielsweise kann befriedigt werden. Nehmen wir an, man fragt sich, wie die Ergebnisse aussehen würden, wenn man auf den Einfluss der AMO auf die Temperaturen der Nordhemisphäre zählt, unter Verwendung einer linearen Regressionsanalyse mit den ESRL AMO-Daten als unabhängige Variable und den GISS-Daten der nordhemisphärischen Temperatur als die abhängige Variable. Wir begrenzen das Beispiel auf die von F&R (2011) betrachtete Zeitspanne von 1979 bis 2010. Siehe Abbildung 18. Die AMO-angepasste nordhemisphärische Temperatur besitzt einen linearen Trend, der lediglich 41% der nicht angepassten Daten der Nordhemisphäre ausmacht.
Hmm. Das würde bedeuten, dass die AMO für 59% des Temperaturanstiegs in der Nordhemisphäre verantwortlich war, wenn man die Regressionsanalyse zugrunde legt.

Abbildung 18
Und das liegt auf einer Linie mit der Generalisierung durch Taminos Erfüllungsgehilfen auf RealClimate und dort auf ihrer Atlantic Multidecadal Oscillation (“AMO”) – Website. Dort schreiben sie zur AMO:
Eine multidekadische Verteilung (50 bis 80 Jahre) der nordatlantischen Ozean-Atmosphäre-Variabilität, dessen Existenz durch Verweis auf die statistischen Analysen von beobachteten und Proxy-Daten begründet wird, und den Simulationen des gekoppelten Atmosphere-Ocean General Circulation Model (“AOGCM”). Von dieser Verteilung glaubt man, dass man mit ihr die beobachtete Erwärmung im frühen 20. Jahrhundert (zwanziger und dreißiger Jahre) erklären kann und auch einen Anteil, aber nicht der gesamten, der Erwärmung in hohen Breiten im ausgehenden 20. Jahrhundert. Der Term wurde in einer Zusammenfassung von Kerr (2000)  eingeführt, und zwar aufgrund einer Studie von Delworth und Mann (2000).
Tamino fährt fort, sich darüber zu beklagen, dass man keine Anpassungen wegen der AMO vornehmen kann, weil sie eine Komponente der globalen Erwärmung enthält. Zum Beispiel schreibt Tamino in einer Antwort auf einen Kommentar von Colin Aldridge am 22. Dezember 2011 (hier):
Wenn es um die AMO geht, IST es Temperatur, anders als ENSO (oder PDO in dieser Sache). Klar und einfach, nicht mehr und nicht weniger. Eine Temperaturänderung einer Temperaturänderung zuzuordnen scheint irgendwie dumm zu sein.
Hmm. Ich glaube, dass Tamino nicht den Punkt getroffen hat, dass nämlich die AMO eine zusätzliche Variabilität einbringt und dass sie über den gesamten Datenterm trendbereinigt wird.
Um hier weiterzukommen, habe ich Tamino erklärt und illustriert, dass wir das „Erwärmungssignal“ in der globalen Wassertemperatur mit Ausnahme des Nordatlantik von den Anomalien der Wassertemperatur im Nordatlantik abziehen können. Dann bleibt nur die zusätzliche Variabilität der Wassertemperaturen im Nordatlantik verursacht durch die AMO übrig. Und nur so sollte die AMO dargestellt werden. Den Unterschied nennen wir die Nordatlantische Restgröße. Diese Restgröße hat in etwa den gleichen Trend wie die AMO im F&R (2011)-Zeitraum von 1979 bis 2010, wie Abbildung 19 zeigt:

Abbildung 19
Zur Beachtung: Die Daten der nordatlantischen Restgröße in Abbildung 16 basieren auf einer Kombination der HADISST-Daten von 1979 bis November 1981 und den ReynoldsOI.v2-Daten von Dezember 1981 bis zur Gegenwart, und zwar in Übereinstimmung mit GISS, dargestellt auf der Website der GISS Surface Temperature Analysis. Um die Wassertemperatur des Nordatlantik aus den globalen Daten der Wassertemperatur zu entfernen wurde festgelegt, dass die Fläche des Nordatlantik zwischen 0 – 70N und 80W – 0 11% der Fläche der globalen Ozeane ausmacht.
Und als einen zusätzlichen Check des Vorzeichens der solaren Korrektur habe ich multiple lineare Regressionsanalysen der nordhemisphärischen Temperaturen von GISS als der abhängigen Variable und die AMO-Daten als eine unabhängige Variable in einem Augenblick in die nordatlantische Restgröße in einer Sekunde durchgeführt. Die Analysen umfassten auch ENSO (MEI), Solar (PMOD) und vulkanische Aerosole (AOD.NH) als unabhängige Variable mit der gleichen Zeitverzögerung wie in den globalen Daten. In beiden Fällen stand das Vorzeichen der solaren Korrektur im Gegensatz zu dem, was F&R (2011) gesucht haben, wie die Gleichungen 12 und 13 zeigen:
EQUATION 12:
GISS.NH = 62.25 + 0.001696MEI (4m lag) – 0.04528TSI.PMOD(1m lag)– 1.683AOD.NH (7m lag) + 0.866AMO (0m lag)
EQUATION 13:
GISS.NH = 72.12 + 0.04751MEI (4m lag) – 0.05258TSI.PMOD(1m lag)– 2.413AOD.NH (7m lag) + 0.72N. Atl. Residual (0m lag)
Abschließende Bemerkung zur AMO: Für eine erweiterte Diskussion darüber, wie der Nordatlantik die Wassertemperaturen in der Zeitspanne zwischen den Aufwärtssprüngen der El Niño-Ereignisse von 1986/87/88 und 1997/98 schaue man hier: Supplement To “ENSO Indices Do Not Represent The Process Of ENSO Or Its Impact On Global Temperature”

Schlussbemerkungen

Ich fand das Hinzuziehen eines linearen Trends in den von F&R (2011) durchgeführten Regressionsanalysen sehr interessant. Es scheint, als seien diese linearen Trends einfach deshalb hinzugefügt worden, um das Vorzeichen der solaren Korrektur zu dem zu machen, was die Autoren für ihre Anpassungen gerne sehen wollten. Man könnte denken, wenn die grundlegenden Ergebnisse der Studie davon abhängig wären, ob ein linearer Trend in die multiplen Regressionsanalysen eingeführt wird, wäre es in der Studie behandelt worden. Und noch einmal, wenn Sie die Fähigkeit haben und mit den Ähnlichkeiten zwischen meinen Ergebnissen und denen von F&R (2011) nicht zufrieden sein sollten (Abbildungen 7 und 8), bestätigen Sie bitte die Ergebnisse der oben präsentierten Ergebnisse der multiplen Regressionsanalysen mit und ohne den linearen Trend.
Dieser Beitrag hat auch den Fehler in ihren Hypothesen deutlich gemacht und diskutiert, dass nämlich die Regressionsanalyse verwendet werden kann, um die Auswirkungen von ENSO auf die globale Temperatur zu entfernen. ENSO ist ein Prozess, der nicht vollständig durch ENSO-Indizes beschrieben werden kann. Mit anderen Worten, die ENSO-Indizes repräsentieren nur einen kleinen Teil der Auswirkungen von ENSO auf die globale Temperatur. Der Versuch, den ENSO-Index so zu verwenden, wie es F&R (2011) getan haben, gleicht dem Versuch, ein Baseballspiel allein von der Ausgangsposition des Spielfeldes aus zu spielen.
Es wurde gezeigt, dass die Hypothese von F&R (2011), dass ein linearer Trend ein ungefähres Signal „globaler Erwärmung“ bereitstellt, hinsichtlich der Wassertemperatur irrig ist. Spaltet man die Daten in zwei logische Unterdatensätze auf, nämlich Ostpazifik einerseits und die übrigen Ozeane andererseits, zeigen die satellitengestützten Werte der Wassertemperatur keinen Beweis für ein Signal einer anthropogenen globalen Erwärmung. Sie zeigen lediglich Sprünge nach oben im Zuge starker ENSO-Ereignisse. Dies scheint jeden Versuch zu komplizieren, die Hinzunahme eines linearen Trends zur Umkehrung des Vorzeichens der solaren Anpassung zu rechtfertigen.
Und Dank an Tamino, dass der die Daten der multidekadischen atlantischen Oszillation auf seinem Arbeitsblatt vermerkt hat. Dies erlaubte es mir, die signifikante Auswirkung zu zeigen, die die AMO auf die Temperaturen der Nordhemisphäre haben kann.
ABOUT: Bob Tisdale – Climate Observations
QUELLEN (aus Zeitgründen nicht mitübersetzt)
The spreadsheet that served as the source of the data for the regression analyses was linked to Tamino’s (Grant Foster’s) post Data and Code for Foster & Rahmstorf 2011.
To save you some time, here’s a copy of the file that contains the spreadsheet from Tamino’s blog that I’ve uploaded to mine, allfit2 as of 12-21-11.  Again, you’ll have to download the file and change it to a .zip file in order to open it.
The Reynolds OI.v2 Sea Surface Temperature data used in the ENSO discussion is available through the NOAA NOMADS website here.
The Aerosol Optical Thickness data used in the volcano adjustments of the Sea Surface Temperature data in Figures 13 and 14 is available from GISS the Stratospheric Aerosol Optical Thickness webpage here.
Link: http://wattsupwiththat.com/2012/01/02/tisdale-takes-on-taminos-foster-rahmstorf-2011/
Übersetzt von Chris Frey für EIKE

Nachtrag 21.1.12:

Wie u.a. ein Leser auf Science Sceptical richtig schrieb, hat Autor Bob Tisdale  am 2. Januar einen fachliche Kritik zum Foster/Rahmstorf-Artikel veröffentlicht. Oben lesen Sie die übersetzte Version davon. Das Original ist hier: Tisdale takes on Tamino’s Foster & Rahmstorf 2011. Sie enthält jedoch einige Fehler.
Bob Tisdale hatte dann am 14.Januar den Folgeartikel Tisdale takes on Foster & Rahmstorf – take 2 veröffentlicht, in dessen Vorspann er die Mängel seines 1.Artikels ausführlich erläutert hatte. In diesem zweiten Artikel selbst konzentrierte er sich ganz auf ENSO und zog die Konsequenzen aus den Ungenauigkeiten seines ersten Artikels. Da unsere Übersetzungskapazitäten derzeit bis zum Anschlag ausgefüllt sind verweisen wir für die Details auf das englische Original.
Die Redaktion




Keine Indizien für positive Rückkopplung, keine Klimakipppunkte in Sicht

Auf WATTSUPWITHTHAT hatte der amerikanische Physiker und Dozent an der Duke Universität von North Carolina, Dr. Robert Brown, den Beitrag "Was wir über den Energiefluss der Erde nicht wissen" veröffentlicht, der eine rege Diskussion auslöste. Auf viele Einwände jener Diskussion schrieb Dr. Robert Brown einen längeren Aufsatz. Anthony Watts hält Dr. Browns Ausführungen zur angeblich vom CO2 bedrohten Klimastabilität für so kenntnisreich, dass er den gesamten Beitrag auf WATTSUPWITHTHAT gesondert veröffentlichte.

Im einleitenden Satz zitiert Dr. Brown eine Behauptung aus einem der vielen Kommentare zu "Was wir über den Energiefluss der Erde nicht wissen".

Keine neuen „strange attractors“: Aussagekräftige Indizien gegen die positive Rückkoppelung und die Katastrophe

von Dr. Robert Brown

Man muss schon feststellen, dass beide Systeme innerhalb der gleichen Parameter oszillieren, aber die Wahrscheinlichkeit der Synchronisation zwischen ihnen ist nil?

Leider nein, nicht über lange Zeiträume. Systeme können so verschieden sein, wie ein magnetisierter Ferromagnet, der in einer Richtung magnetisiert ist, sich von einem identischen Ferromagneten unterscheidet, der in umgekehrter Richtung magnetisiert ist. Oder im Falle der Erde, die als eiszeitliche Erde völlig unterschiedlich sein kann von einer zwischeneiszeitlichen Erde. Der Punkt ist, dass beide Zustände “stabil” sein können, bei genau der gleichen Einstrahlung, weil die Rückkoppelung im globalen System sie zu einem stabilen Zustand rekonfigurieren kann.
Wenn Sie in dem hier angegebenen Link to chaos theory die beiden Figuren mit den geschlossenen Linienbündeln anschauen, sehen Sie ein heuristisches Bild der Art von Möglichkeiten, die ein gekoppeltes nichtlineares Differential-System hat.

Eine Darstellung der Lorenz-Attractoren für Werte r = 28, σ = 10, b = 8/3 (aus Wikipedia
Mitten in jeder Schleife ist ein sogenannter “strange attractor“, der typischerweise ein „limit point“ ist. Die x und y – Achsen sind Koordinaten in einem generalisierten (Phasen-) Raum, der den Zustand des Systems zu jedem gegebenen Zeitpunkt repräsentiert: x(t), y(t). Die Linien selbst sind der Bahnverlauf des Systems über die Zeit, wie es sich unter der Einwirkung der zugrundeliegenden Dynamiken entwickelt. Mit der Figur soll illustriert werden, dass es keinen einzigartigen Umlauf gibt, mit dem die Erde einen regulären Attractor wie die Sonne umkreist: Das System oszilliert eine Zeitlang um einen Attractor, dann um den anderen, dann um beide. Anstelle von schönen geschlossenen Bahnverläufen haben wir Verläufe, die fast niemals gleich sind.
Zwei Bahnverläufe, die in kurzem Abstand hintereinander gestartet wurden, werden normalerweise die Attractoren anfänglich auf diese generelle Art umkreisen. Aber allmählich, oft schon bemerkenswert rasch, werden beide Bahnverläufe voneinander abweichen. Eine Bahn wird auf den anderen Attractor überspringen, eine andere nicht. Nach erstaunlich kurzer Zeit werden die beiden Bahnverläufe fast völlig de-korreliert sein, dergestalt, dass das Wissen um die Lage der einen Bahn (im allgemein zugänglichen Raum der Phase) überhaupt keine Hinweise zur Lage der anderen gibt.
Nur in diesem Sinne trifft die eingangs zitierte Behauptung zu. Jedes der Systeme muss im Raum der physikalisch konsistenten Zustände durch Differenzierung vom Startpunkt aus aufgefunden werden. Es gibt keine Garantie, dass die Bahnen den “Phasenraum füllen” werden. Nur in diesem Sinne können beide in dem von den Ausgangspunkten aus zugänglichen Phasenraum gefunden werden. Wenn die beiden Startpunkte dicht genug beieinander liegen, werden sie vermutlich zu sehr ähnlichen Phasenräumen führen, aber es gibt keine Garantie, dass diese identisch sein werden – besonders, wenn es (viel) mehr als zwei Attractoren gibt und irgendeinen einfachen Parameter. In der Statistischen Mechanik gibt es ein Theorem hierzu, aber meines Wissens nicht für den allgemeinen Fall der offenen Systemdynamik eines chaotischen Systems.
Wen es interessiert – das Herumspielen damit kann ganz spaßig sein – sollte mal bei den “predator-prey differential equations” vorbeischauen.
Wenn ich mich recht erinnere, befindet sich dort eines der einfachsten Systeme mit einem Attractor und begrenztem Durchlauf und es zeigt viele der Eigenschaften von komplizierteren dynamischen Systemen. Der Attractor/fixed point in diesem Falle ist die Population von z. B. Füchsen und Kaninchen, die von Jahr zu Jahr in perfektem Gleichgewicht bleibt. Man beachte wohl, dass diese Gleichung deterministisch ist. In einer echten Population – selbst wenn sie modelliert ist – gibt es natürlich immer zufällige (oder zumindest “unvorhersehbare”) Variationen – das ist ein gewisser Anteil von Rauschen -, der in diskreten, nicht in stetigen Werten angegeben wird, weil es z.B. keinen Geparden geben kann, der pi Paviane frißt.
Eine bessere stetige “Form”  einer Differentialgleichung zur Beschreibung von Systemen mit Rauschen ist die Langevin-Gleichung in der Physik – ein System mit “schnellen” mikroskopisch kleinen Freiheitsgraden, auf das man sich verlässt bei der Durchschnittsbildung mit einem stochastischen Term und langsameren Freiheitsgraden, die man herausintegriert wie bei der „predator prey“- Gleichung. In der Physik gibt es den speziellen limitierenden Fall von etwas, was dann die verallgemeinerte „Master-Gleichung“ genannt wird. Das ist die vollständige integro-differentiale Beschreibung eines „many body open quantum systems”; Sie ist wirklich sehr sehr schwierig. Der allgemeinere Ansatz ist hier aber gangbar – vermutlich ist er Teil der meisten vereinfachten Klimamodelle. Wenn man die Temperaturverläufe “glättet”, z. B. mit Hilfe eines laufenden Durchschnitts, verliert man Information (die Variationen über kurze Zeitspannen) und man reduziert die Komplexität des Systems durch die Konzentration auf eine langsamere Dynamik auf der Zeitskala.
Das ist zulässig, wenn das System wirklich einfach ist: d.h. es gibt nur einen einzigen Attractor und das System oszilliert um ihn, das Ausglätten des “Rauschens” ist irrelevant und fügt dem einzigen Bahnverlauf nur kleine Variationen zu. Wenn aber das System multistabil mit vielen örtlichen Stabilitätspunkten ist; oder noch schlimmer, wenn einige der Freiheitsgrade Dinge wie die Sonne sind, deren zeitliche Entwicklung völlig außerhalb “des Systems” liegt, dessen Zukunft unversagbar ist, und dessen Auswirkung man nicht genau kennt, dergestalt, dass sich die Attractoren selbst umherbewegen, wenn sich das System lokal entwickelt, – dann ist das wahrscheinlich nicht zulässig.
Das Symptom eines multistabilen Systems der letzteren unzulässigen Art ist eine Folge von durchbrochenen Gleichgewichten, sichtbar in den geglätteten Daten. Die 30-jährigen Satellitendaten und die Meeresoberflächendaten (Sea Surface Temperatures) zeigen dieses Bild ziemlich klar.
Und hier ein sehr wichtiger Punkt: oszillierende Systeme haben fast immer negative Rückkoppelung. Das ist die grundlegende Eigenschaft, die ein oszillierendes System bestimmt: es besitzt selbst eigene Attractoren. Die eigenen Attractoren sind Stabilitäts-(Gleichgewichts-)Punkte dergestalt, dass das System immer wieder zurück in den Gleichgewichtszustand gezogen wird und nicht weg davon, wenn es von ihnen gestört wird.
Im allgemeinen Falle von Attractoren in hochdimensionalen Räumen führt das zu (Poincare-) Zyklen um die Attractoren herum, wie sie in den  “predator-prey”-Gleichungen sichtbar werden, oder in der Chaos-Figur mit zwei „strange attractors“, mit der Ausnahme, dass diese in 3+ dimensionalen Räumen sehr, sehr kompliziert werden können (nur schwierig zu veranschaulichen). Mit dimensionalen Räumen sind keine physikalischen Räume gemeint, sondern parametrische “Phasen”-Räume (Zustandsräume).
In der Nachbarschaft eines Attractors gibt es im Allgemeinen viel lokale Stabilität – Bahnverläufe in solcher Nachbarschaft schwingen eng angelehnt um den Attractor und springen relativ selten auf andere Attractoren um. Deshalb tendieren eiszeitliche und zwischeneiszeitliche Perioden zu recht langen Zeiträumen (im Vergleich zu all den vielen kürzeren Zeitspannen, die im System verfügbar sind).
Das Bewegen eines zugrundeliegenden externen Parameters – z. B. der anthropogenen CO2-Konzentration, des Zustands der Sonne, des geomagnetischen Zustands – kann als Verschiebung der Festpunkte des multistabilen Systems gedacht werden. Wenn wir das linearisieren, können wir oft wenigstens die Richtung der ersten Ordnung der Bewegung abschätzen. Mehr CO2 z. B., sollte unter der Annahme des Treibhauseffekts zum Einfangen von mehr Wärme führen und damit die globale Temperatur erhöhen. Der stabile Festpunkt sollte sich daher ein wenig in Richtung „wärmer“ verschieben.
Fast das gesamte Argument bewegt sich um zwei einfache Probleme herum (und das in mehr als einer Weise). Beachten Sie, dass ich diese Probleme ganz anders als gewohnt darstelle:

a) Ist die Vermutung eines linearen Verhaltens gültig?

Das ist keine triviale Frage. Erhöhtes CO2 in einem multistabilen System bewegt nicht nur den lokalen Attractor, es bewegt alle Attractoren, und das nicht notwendigerweise auf simple lineare Art in einem wirklich komplizierten System mit vielen negativen Rückkoppelungen (die Hypothese erfordert eine Bewegung über den gesamten Ort, weil das System von Attractoren bestimmt wird). In vielen Systemen befinden sich bewahrende Prinzipien (nicht notwendigerweise bekannte), die als Beschränkungen derart wirken, dass durch die Aufwärtsbewegung eines Attractors ein anderer nach unten bewegt wird. Oder die “Schwellenhöhe” zwischen zwei Attractoren wird erhöht und damit alle begrenzenden Zyklen deformiert.

b) Liegt die Systemreaktion in der Größenordnung der mittleren Differenz zwischen den Attractoren, die vorwiegend schon vom System „gesampled“ sind?

Falls sie größer ist, wird das System wahrscheinlich nicht den wirkenden Attractor bewegen, sondern auf einen anderen Attractor überkippen. Das muss nicht der erwartete Attractor auf der wärmeren Seite des vorhergehenden sein. Mehr Erwärmung – wie die Warmisten in eher heuristischen Termini sagen – kann das System zu mehr unkontrolliertem Schwingen bringen und dabei wärmer als der wärmste Teil der Schwingung sein und kälter als der kälteste. Falls der neue Ausschlag der Schwingung groß genug ist, kann er das System auf beiden Seiten zum Schwingen um einen neuen Attractor stoßen.
Man beachte, dass die letzte Behauptung noch zu einfach ist, weil sie danach klingt, als ob es nur zwei Richtungen gäbe: wärmer oder kälter. Das ist nicht der Fall. Es gibt wärmer mit mehr Wasserdampf  in the Atmosphäre, wärmer mit weniger Wasserdampf  in the Atmosphäre, wärmer mit aktiver Sonne, wärmer mit nicht aktiver Sonne, wärmer mit zunehmendem Meereis, wärmer mit abnehmendem Meereis, wärmer mit mehr Wolken, wärmer mit weniger Wolken, und die Wolken können Tages- oder Nachtwolken sein, arktische or antarktische Wolken, im Sommer, Herbst, Winter oder Frühling, monats- oder tageweise, überall mit Rückkoppelungen – das Herumfingern an jedem beliebigen Aspekt des Zyklus wirkt auf alles Andere. Das war erst der Anfang einer Auflistung der gesamten wichtigen Dimensionen. Beachten Sie auch, dass es wirklich wichtige zeitliche Skalen mit fast periodischen  Oszillationen von vielen dieser Treiber gibt, und auch, dass die zu Grunde liegende Dynamik auf einem rotierenden Globus  stattfindet, der im ständigen Verlauf Luftwirbel erzeugt, deren Beständigkeit von Tagen bis zu Jahrzehnten reicht.
Ich habe in früheren Beitragen argumentiert, dass das in der Klimahistorie erkennbare durchbrochene Quasi-Equilibrium es sehr wahrscheinlich macht, dass die Antwort auf b) JA ist. Das anthropogene CO2 verschiebt das System um die Größenordnung des Abstands von einem oder mehr Attractoren, weil das System um die Attractoren herumspringt, sogar zu Zeiten, als es noch kein anthropogenes CO2 gab. Und weiter, die Ausreißer des Systems bei seinem Wechsel zwischen den Attractoren waren ebenso groß wie heute und qualitativ nicht anders.
Dies ist ein starkes Indiz, dass der Effekt geringer, und nicht größer ist als die natürliche Schwingungsbreite. Die negativen Rückkoppelungsfaktoren, die die multistabilen Attractoren (lokal) zur Wirkung bringen, wirken auch als negative Rückkoppelung auf die CO2-induzierte Verschiebung! Diese Aussage steht, ob nun die Annahme der Gültigkeit der Existenz einer linearen Antwort (pro Attractor) in a) zutrifft oder nicht, und die zusätzlich noch mit dem riesigen Problem der Beweisführung behaftet ist.
Das letztere ist das Fluktuations-Dissipations-Theorem, wie ich schon in dem einen oder anderen Beitrag gesagt habe. In einem offenen System in lokal stabiler Phase koppeln sich die Oszillationen (fluctuations) mit der Dissipation dergestalt, dass erhöhte Fluktuation zu mehr Dissipation führt – das ist negative Rückkoppelung. Falls das nicht zuträfe, wäre die lokal stabile Phase nicht stabil.
Das ist ein starkes Argument gegen die Katastrophe! Wenn es unter der Annahme, dass CO2 nur kleine, langsame, lokale Verschiebungen der Attractoren untereinander bewirkt im Vergleich zu den großen Schwüngen des Systems; wenn es einen Punkt gäbe, wo das System wahrscheinlich auf einen viel wärmeren stabilen Punkt überspringen würde (die von den Warmisten angedrohte “Katastrophe”), dann hätte das fast mit Sicherheit bereits geschehen müssen. Denn die Phasenschwingungen der vergangenen zehntausend Jahre haben schon viele Male zur gleichen Wärme geführt wie heute.
Die Tatsache, dass es nicht geschehen ist, ist wirklich ein ganz starker Beleg gegen die Behauptung einer positiven Rückkoppelung und einer Katastrophe. Ja. anthropogenes CO2 könnte die Attractor-Temperaturen ein wenig nach oben geschoben haben, es könnte auch kleinere Anpassungen in der Anordnung der Attractoren verursacht haben, aber es gibt kein Indiz dafür, dass es wahrscheinlich und plötzlich einen neuen Attractor außerhalb der normalen, von der Klimahistorie gezeigten Variationsbreite, erzeugen würde. Wäre es unmöglich? Natürlich nicht, aber nicht wahrscheinlich.

Ich möchte eine kleine Analogie anschließen

Als die Physiker sich auf den Test der ersten Atombombe vorbereiteten, wurden damals von weniger begabten Physikern Bedenken geäußert, dass die  Erdatmosphäre „in Brand gesetzt”, oder die Erde in eine Sonne verwandelt werden könnte (Das war, bevor die Kernfusion verstanden war – auch der Energie-Zyklus der Sonne war noch unbekannt). Jüngst habe ich von Befürchtungen gelesen, das Kollisionen im Großen Hadronen-Speicherring den gleichen Effekt haben könnten – nämlich die Erzeugung eines Mini-Schwarzen Lochs oder so ähnlich, das die Erde verschlingen würde.
Das sind törichte Ängste (obgleich sie von wirklichen Wissenschaftlern geäußert werden, weil sie Derartiges für möglich und vorstellbar halten).

Warum sind solche Ängste töricht

Die von einer Atombombe erzeugten Temperaturen und Drücke sind nicht einzigartig! Wenn auch selten, so fallen doch Asteroiden auf die Erde und erzeugen dabei viel höhere Drücke und Temperaturen als Atombomben. Ein kleinerer Asteroid kann in wenigen Millisekunden mehr Energie freisetzen als das Zehntausendfache der gesamten Sprengkraft aller menschengemachten Explosivmittel auf der Erde, einschließlich der Kernwaffen. Kurz gesagt: wenn etwas mit einer gewissen vernünftigen Wahrscheinlichkeit passieren könnte, wäre es schon passiert.
Das gleiche gilt für die Furcht vor dem Großen Hadronen-Speicherring, oder anderen “Super-” Teilchenbeschleunigern. Ja, sie erzeugen Kollisionen in der Größenordnung von Elektronen-Teravolt, aber diese Art von Energie bei nuklearen Kollisionen ist nicht einzigartig! Die Erde wird ständig von hochenergetischen Partikeln bombardiert, die von energetischen Extrem-Ereignissen hervorgerufen wurden, wie den Supernovae, die sich vor langer Zeit ereigneten. Die Energien dieser kosmischen Strahlen sind viel höher  als alles, was wir jemals in Labors produzieren können, es sei denn, wir könnten eine Supernova machen. Das bislang höchstenergetische beobachtete kosmische Teilchen war (vermutlich) ein Proton mit der kinetischen Energie eines wuchtig geschlagenen Baseballs, der rund 150 Km/h erreicht. Weil wir eins davon während mehrerer Beobachtungs-Jahrzehnte entdeckt haben, müssen wir annehmen, dass sie ständig kommen – buchstäblich trifft jede Sekunde ein kosmischer Strahl mit dieser Energie die Erde irgenwo (Die Erde ist ein RIESIGES Ziel. Wenn solch eine Kollision mit einer gewissen Wahrscheinlichkeit ein Schwarzes Loch mit der Kraft zur Planetenzerstörung erzeugen könnte, dann wären wir schon vor langer Zeit zu Staub geworden.
Es bleibt daher töricht, den Großen Hadronen-Speicherring oder nukleare Brandstiftung zu fürchten. Falls dies wahrscheinlich wäre, gäbe es uns nicht, die wir einen Großen Hadronen-Speicherring oder Atombomben bauen.

Die Furcht vor dem Klimawandel ist nicht ganz so töricht

Es ist aber nicht ganz so töricht den CO2-anthropogenen Klimawandel zu fürchten. Es stimmt: Wir haben noch nicht lange genug das Klimasystem erforscht, um zu wissen, welche Arten von Rückkoppelungen und Faktoren die multistabilen Klima-Attractoren strukturieren. Deshalb kann man sich seine Weltuntergangsszenarien basteln – Erwärmung bis auf einen kritischen Punkt, der massive Mengen von Methan freisetzt, was zu einer schlagartigen Erderwärmung führt. Das Meer wird sein gesamtes CO2 freisetzen, die Eiskappen werden schmelzen und die Meere kochen. Plötzlich wäre unsere Erde wie die Venus mit einer mittleren Außentemperatur von 200 oC.
Wenn wir uns so etwas ausdenken und niederschreiben können, dann muss es möglich sein, nicht wahr? Science-Fiction Romane in Massen beschäftigen sich genau damit. Oder Filme mit dem Gegenteil: dem Auftauchen von Attractoren, die irgendwie und sofort die gesamte Erde zum Einfrieren bringen und eine Eiszeit verursachen. Schaut, es kann passieren!
Aber ist es wahrscheinlich?
Das oben Gesagte sollte uns ruhig schlafen lassen. Es gibt kaum etwas in der Klimahistorie das auf einen anderen großen stabilen Zustand hindeutet, auf einen anderen Haupt-Attractor, der weit über dem derzeitigen Warmphasen-Attractor läge. Ganz im Gegenteil: die Klima-Geschichte der vergangenen zig Millionen Jahre deutet darauf hin, dass wir uns mitten in einer verlängerten Abkühlungsphase des Planeten befinden, wie sie sich wiederholt während geologischer Zeiträume ereignete, und wir befinden uns im Haupt-Attractor der warmen Phase. Darüber gibt es nichts mehr. Wenn da noch etwas wäre, hätten wir es schon erlebt.
Stattdessen: Die lokalen Variationen und die Oszillation um sie herum hat den vielen kleinen Warmphasen-Attractoren erlaubt, wiederholt Bedingungen zu zeigen, die einen Sprung hätten hervorrufen können, wenn ein solcher überhaupt wahrscheinlich gewesen wäre.
Zumindest müsste es eine Spur von so etwas in der Temperaturhistorie der vergangenen Millionen Jahre geben, aber sie gibt es nicht. Wir sind in einer der längsten und wärmsten der uns bekannten fünf Zwischeneiszeiten. Wir befinden uns nicht am wärmsten Punkt der gegenwärtigen Zwischeneiszeit, dem Holozän. Wenn es wirklich einen wärmeren Attractor gäbe, hätte er sich wahrscheinlich bereits am wärmsten Punkt des Holozäns gezeigt.

Weil das nun wirklich nicht geschehen ist, können wir davon ausgehen, dass die gesamte Rückkoppelung sicher negativ ist, und dass alle “Katastrophe-Hypothesen“ relativ unwahrscheinlich sind.

Wir sollten uns stattdessen eher wegen einer katastrophalen globalen Abkühlung Sorgen machen. Wir wissen, dass es einen Kaltphasen-Hauptattractor von etwa 5-10 oC kühler als heute gibt. Die menschliche Zivilisation ist im Holozän entstanden, und wir sind noch nicht so weit, dass wir einen Umschwung zu eiszeitlichen Konditionen überleben könnten, jedenfalls nicht ohne den Tod von 5 Mrd Menschen und einem wahrscheinlichen Fast-Kollaps der Zivilisation. Wir wissen, dass dieser Übergang nicht nur vorkommen kann, sondern dass dies geschehen wird. Wann, wissen wir nicht, auch nicht, warum, oder wie wir seine generelle Wahrscheinlichkeit abschätzen könnten. Wir wissen ganz bestimmt, dass die Kleine Eiszeit – nurmehr 400-500 Jahre her – die kälteste Periode im gesamten Holozän nach dem jüngeren Trias-Ausreißer war. Ganz allgemein sieht es so aus, dass sich das Holozän von seiner wärmsten Periode her abzukühlen scheint, und das 20. Jh. hat  ein Großes Solares Maximum mit der aktivsten Sonne seit 11.000 Jahren erlebt. Dieses Maximum ist nun vorbei.

Eher Kälte als Wärme

Ich fürchte, wir befinden uns in einer Instabilität, in welcher ein vollständiger Umschwung zu einer kalten Phase wahrscheinlicher ist als uns lieb sein kann, als dass wir uns einer superwarmen Phase näherten, für die es keine Anzeichen in der Klimageschichte gibt. Die Wahrscheinlichkeit für Kälte ist aus zwei Gründen höher:
(1) Anders als für eine superwarme Phase wissen wir: die Kaltphase existiert tatsächlich, und sie ist viel stabiler als die Warmphase. Die “Größe” der quasistabilen Poincare-Zyklus-Schwingungen um den Hauptattractor der Kaltphase ist viel größer als die um die Warmphasen-Attractoren, und kurze Erwärmungsphasen werden oft zequetscht, bevor sie sich in tatsächliche Zwischeneiszeiten wandeln können – daran kann man erkennen, wie stabil sie sind.
(2) Wir haben 90% unserer Zeit in einer eiszeitlichen Phase verbracht, nur 10% in einer Zwischeneiszeit. Das Holozän ist eine der längeren Zwischeneiszeiten! Wir verstehen die über lange Zeitskalen wirkenden Dynamiken noch nicht. Wir haben gerade mal eine erste unklare Idee, was den (im Wesentlichen chaotischen) Übergang von einer warmen in eine kalte Phase oder umgekehrt bewirkt – es gibt sehr vorläufige Ideen über Kombinationen von Milankovich-Zyklen, Neigungen der Ekliptik, Polwanderung, Erdumlauf-Resonanzen, usw. Aber es gibt eine deutliche starke Rückkoppelung innerhalb des Klimazyklus, die das „Umkippen“ in eine Kaltphase bewirken kann, vermutlich hat das etwas mit der Albedo zu tun.
Das könnte etwas so Einfaches wie eine stille Sonne sein; das Maunder-Minimum der Kleinen Eiszeit legt nahe, dass wir eine stille Sonne wirklich fürchten sollten, weil irgend etwas im nicht-linearen Differential-System kältere Attractoren während eines Maunder-artigen Minimums zu bevorzugen scheint (während man sich noch in der Phase des warmen Attractors befindet). Man muss sich vergegenwärtigen, dass der Übergang zur Vereisungszeit wahrscheinlicher am Tiefpunkt von z. B. einer Kleinen Eiszeit liegt, als zu irgend einem anderen Zeitpunkt. Das Holozän lebt vermutlich mit "geborgter" Zeit an einem Punkt, wo es ein Intervall von der Art einer verlängerten Kleinen Eiszeit umkippen könnte.

Eine neue KLEINE EISZEIT wäre schlimmer als eine Erwärmung

Auch nur eine KLEINE EISZEIT wäre eine weit größeres Unglück als alle Katastrophenvorstellungen der Warmisten. Die Weltbevölkerung ist enorm gewachsen seit der letzten Eiszeit. Eine riesiger Anteil lebt in gemäßigten Breiten und kultiviert dort das Land. Frühe Winter mit spätem Frühlingsanfang könnten das verfügbare kultivierbare Land vermindern und die Anzahl der Ernten halbieren, und das bereits vor der totalen Vereisung. Kalte (Warme) Phasen sind oft auch verbunden mit hitzebedingten und tropischen Dürren, zumindest in gewissen Weltteilen. Meines Erachtens könnte der “rasche” Beginn einer KLEINEN EISZEIT eine Milliarde Menschen umbringen, weil es Miss-Ernten in Sibirien, China, Canada und den nördlichen Vereinigten Staaten gäbe. Dies könnte leicht die angespannte politische Weltlage destabilisieren. Ein Weltkrieg würde unsere großen Übel noch mehr verschlimmern.
Wir könnten dann vielleicht wirklich erkennen, dass ein menschengemachter Klimawandel unsere Rettung wäre. Das durch unseren Zivilisationssprung emittierte CO2 könnte die nächste KLEINE EISZEIT abmildern oder verschieben, es könnte den Ausreißer in die Kalt-Phase verhindern und den Beginn der nächsten jahrzehnte- oder jahrhundertelangen WIRKLICHEN Eiszeit verhindern. Inzwischen könnten wir vielleicht zusammenarbeiten und uns Gedanken darüber machen, wie wir in einer zivilisierten Welt zusammenleben könnten, nicht nur in einigen zivilisierten Ländern mit Menschen im Wohlstand und den übrigen Ländern, wo die Menschen arm sind und von einer Handvoll Tyrannen oder religiösen Oligarchen versklavt werden.
Wohlgemerkt, letzteres ist “spekulative Fiktion”. Auch ich verstehe die Klimazyklen nicht völlig (Sie sind ein großes Problem). Aber zumindest kann ich Indizien für eine in der tatsächlichen Klimaaufzeichnung lauernde Katastrophe liefern, sie ist viel weniger “fiktiv” als ein CO2-verursachter Klimawandel.
Dr. Robert Brown; Universität von North Carolina,
Originalbeitrag hier  
Übersetzung: Helmut Jäger, EIKE




Die deutsche Energieratlosigkeit!

Es gibt eine schöne Geschichte in den Abenteuern von Tim und Struppi des belgischen Zeichners Hergé. Beide sind zusammen mit Kapitän Haddock Gefangene auf einem Schiff, das explosives Material geladen hat. Auf hoher See bricht ein Feuer aus. Kapitän, Offiziere und Mannschaft springen voller Panik in die Rettungsboote und rudern mit aller Kraft weg von dem gefährlichen Schiff. In sicherer Entfernung warten sie auf die große Explosion. Doch nichts passiert. Eine große Welle hat das Feuer gelöscht. Die beiden Helden, Haddock und Tim, bringen das Schiff wieder in Fahrt und dampfen davon. Zurück bleibt eine wütende, ungläubige Besatzung mit ihrem hasenfüßigen Kapitän, allein auf dem weiten Ozean. Diese Comicepisode passt zu der Art und Weise, wie Deutschland auf die Ereignisse in Fukushima nach dem zerstörerischen Tsunami im März reagierte. Die Bundesregierung mit Kanzlerin Merkel an der Spitze, Politiker aller Parteien und ein großer Teil des Wählervolks hatten augenblicklich die Hosen voll und warfen alles über Bord, was zuvor in der Kernenergie als verlässlich gegolten hatte. Es herrschte blanke Panik. Jetzt – nach einem halben Jahr – sieht man: Panik ist ein schlechter Ratgeber. Fukushima hat sich nicht zu der atomaren Massenvernichtung ausgewachsen, die so viele in Deutschland erwartet hatten. Frau Merkel und ihr Volk sitzen nun in ihrem kleinen Boot und müssen den anderen – bioenergetisch angetrieben – hinterher hecheln. Zurück geht es nicht, dann müssten die Politiker zugeben, dass sie noch ängstlicher als die Bevölkerung waren, die sie vertreten. Und vorwärts, da ist es ungewiss. Da liegt eine Zukunft, bestimmt von ineffizienten und unzuverlässigen Energiequellen.
Weshalb haben andere Regierungen nicht so panikartig reagiert? Sie waren gelassener und dürften wohl Folgendes bedacht haben:
Die Havarie der Reaktoren von Fukushima 1 war Folge eines Jahrhundertbebens und eines Jahrtausend-Tsunamis. Alle KKW in der betroffenen Region, einschließlich Fukushima 1, haben das starke Beben ohne größere Schäden überstanden. Es war die 14 Meter hohe Tsunamiwelle, welche die Reaktoren von Fukushima 1 ausgeschaltet hat. Auslöser war also ein extremes Naturereignis.
Den Tsunami hätte die Anlage ohne größere Schäden überstehen können, wenn die Betreiber bestimmte Vorkehrungen getroffen hätten. [1] In den deutschen KKWs sind entsprechende Einrichtungen vorhanden, wie die Reaktorsicherheitskommission (RSK) in ihrer von der Bundesregierung initiierten Sicherheitsprüfung feststellte: Alle deutschen Kernkraftwerke weisen gegenüber Fukushima zusätzliche Sicherheitseinrichtungen sowie große Sicherheitsmargen auf, die einen Unfallablauf wie in Japan verhindern würden. Sie verfügen z. B. über verbunkerte, gegen Einwirkungen von außen geschützte Notstromeinrichtungen und sind so robust ausgelegt, dass sie das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort überstehen können. Der schwere Unfall in Fukushima 1 war also nicht naturgesetzlich unausweichlich und unvermeidlich. In Fukushima sind vier der sechs Reaktoren von der Katastrophe betroffen; bei drei von ihnen ist die Kernschmelze eingetreten. Für die deutsche Öffentlichkeit war dies der „Supergau“. Tatsache aber ist: Der Atomunfall ist nicht die Megakatastrophe, wie man sie in Deutschland erwartete und wie einige sie vielleicht auch gerne gehabt hätten: „Bis heute liegen keine Berichte vor, dass Menschen gesundheitliche Schäden als Folge von Strahlenbelastungen davongetragen hätten“, schreibt die Internationale Atomenergiebehörde in ihrem vorläufigen Bericht vom Juni des Jahres. [2]
Merkel aber hat nicht abgewartet. Sie legte bereits zwei Tage nach dem Reaktorunfall sieben Reaktoren in Deutschland still – eine absolut unangemessene und nicht begründbare Panikreaktion. Sie hat das Land damit auf einen abenteuerlichen Kurs gebracht, der noch viele Hunderte von Milliarden Euro kosten wird. Alle Parteien und große Teile der Bevölkerung sind bestürzend schnell und willig auf Atomhysterie und Energiewendejubel eingeschwenkt. Ebenso die Medien. Gegenstimmen waren und sind kaum zu hören.

Der Sonderweg

Der deutsche Sonderweg funktioniert nur mit viel Selbsttäuschung. Fukushima habe gezeigt, so der parteiübergreifende Konsens, dass die Kernenergie prinzipiell nicht zu beherrschen sei. Woran macht man das fest? An der Anzahl der havarierten Reaktoren in Fukushima, die trotz Riesenwelle und unzulänglichen Sicherheitseinrichtungen eben nicht „durchgegangen“ sind? Ist Kernenergie tatsächlich „die gefährlichste Technologie aller Zeiten“, wie das Hamburger Abendblatt im Juni schrieb? Was ist dann mit dem Straßenverkehr, der Jahr um Jahr weltweit eine Million Tote fordert? Darf man, wie ein Leitartikler in der Rheinzeitung, von der „menschenverachtenden Atomwirtschaft“ sprechen? Ist das nicht der geistige GAU, der größte anzunehmende Unsinn?
Angela Merkel begründete den Atomausstieg damit, dass im Falle eines Unfalls wie in Fukushima die Folgen „so verheerend und weitreichend [seien], dass sie die Risiken aller anderen Energieträger bei weitem übertreffen.“ Die vielen Toten im Kraftwerk Fukushima kann sie nicht meinen. Die gibt es nicht und wird es auch nicht geben. Meint sie den wirtschaftlichen Schaden durch die Zerstörung des Kraftwerks? Der dürfte sich in der Größenordnung des volkswirtschaftlichen Verlustes bewegen, der durch die Schnellstilllegung der deutschen Reaktoren und den endgültigen Ausstieg entsteht. Oder die Auswirkungen auf die Evakuierungszone um das Kraftwerk? Etwa 80.000 Menschen haben das Gebiet verlassen, Opfer der Strahlenkrankheit gab es nicht. Die frei gesetzten Radionuklide sind sehr ungleich verteilt. Eine beträchtliche Menge konzentriert sich dreißig Kilometer nordwestlich des Kraftwerks, während im größten Teil der evakuierten Zone die Strahlung sich schon im Mai nahe dem Normalwert bewegte. Im Januar nächsten Jahres, so damals die japanische Regierung, könne man vielleicht über eine Rückkehr der evakuierten Menschen entscheiden. [3] In Deutschland sieht man das anders: So war in der FAZ am 11. Juni über Fukushima zu lesen: „Millionen Menschen evakuiert, fast tausend Quadratkilometer Land auf unabsehbare Zeit unbewohnbar.“ [4] Eine derartige Panikmache hatte man bislang den Lobbyisten von Greenpeace überlassen. Das ist schließlich deren Broterwerb.
Inzwischen, Stand vom Juli, setzt die Anlage nur noch den zweimillionstel Teil an radioaktivem Material frei wie auf dem Höhepunkt der Krise am 15. März. Steht man heute direkt an der Kraftwerksgrenze, kann man mit einer maximalen Strahlenbelastung aus der Luft von 1,7 Millisievert pro Jahr (mSv/a) rechnen. Zum Vergleich: Die durchschnittliche Belastung durch die natürliche Hintergrundstrahlung liegt im globalen Mittel bei 2,4 mSv/a. Problematisch sind die Radionuklide, die sich am Boden abgesetzt haben. Etwa 95 Prozent des im März freigesetzten radioaktiven Materials bestanden aus Jod-Isotopen, die aufgrund ihrer geringen Halbwertzeit inzwischen nahezu verschwunden sind. Geblieben ist Cäsium-137, das in vielen Gebieten der evakuierten Zone Jahresdosen von mehr als 20 mSv liefert. 20 mSv ist die Dosis, die Arbeiter in einem Kernkraftwerk pro Jahr erhalten dürfen. Etwa so hoch ist auch die Dosis, die ein Patient bei einer einmaligen Computertomographie erhält. Zudem gibt es eine Reihe von Regionen auf der Erde, wo die natürliche Strahlung aus dem Boden erheblich höher ist – ohne gesundheitliche Schäden für die Bewohner. Soviel zur Unbewohnbarkeit auf unabsehbare Zeit. In Deutschland ist man sehr faktenresistent. Gemessen an den Auswirkungen, die tatsächlich in und um Fukushima zu beobachten sind, sind die hiesigen Katastrophenszenarien grotesk überzeichnet.

Was lässt sich wirklich lernen?

Gibt es etwas Positives an der Reaktorkatastrophe von Fukushima? Ja. Man kann daraus lernen – genauso wie aus Harrisburg und Tschernobyl. Die teilweise Kernschmelze im amerikanischen Kraftwerk TMI bei Harrisburg 1979 gilt als GAU, was eigentlich nur ein Auslegekriterium für den Bau eines Kernkraftwerks darstellt, im Mythenschatz der Kernenergiegegner aber für „größtmögliche Katastrophe“ steht. Und das Ergebnis? Am Reaktor war Totalverlust zu verzeichnen, aber es gab kein Strahlenopfer, kein Mensch wurde geschädigt, weder im Kraftwerk noch außerhalb davon. Vernachlässigbar geringe Mengen an radioaktivem Material gelangten in die Umgebung. Wenn man so will, war das Unglück von TMI ein unfreiwilliges, aber erfolgreiches Experiment, das die Wirksamkeit der Sicherheitseinrichtungen belegte. Wenige Jahre später, im sowjetischen Tschernobyl, kam es zum Supergau, zur „größtgrößtmögliche Katastrophe“. Ein Reaktor explodierte in vollem Betrieb und schleuderte große Mengen an radioaktivem Material in die Atmosphäre. Über die Folgen wird und wurde wüst spekuliert und übertrieben. Lobbyvereine wie Greenpeace sprechen (immer noch) von 100.000en, ja von Millionen Opfern. Tatsächlich liegt die Zahl der Opfer drastisch niedriger, nachzulesen in einer von der UNO veröffentlichten Studie: etwa 50 direkte Tote in der Anlage, einige tausend zusätzliche Krebserkrankungen. Das ist schlimm, liegt aber im unteren Bereich möglicher Zivilisationsrisiken. Und Fukushima? Zeigt dieser Unfall tatsächlich, wie etwa die Grünen meinen, die prinzipielle Unbeherrschbarkeit der Kerntechnik? Bei unaufgeregter Betrachtung lässt sich aus dem „ungewollten Großexperiment“ Fukushima allerdings ein anderer Schluss ziehen: vier havarierte Reaktoren, drei Kernschmelzen – trotzdem, wie gerade bilanziert, kein Megadesaster. Das war keine glückliche Fügung, das lag in der Natur der Dinge: Die Gesetze von Physik und Chemie geben einfach nicht mehr Katastrophe her. [5]
Amerikanische Kernphysiker sind auf diese grundlegende (und beruhigende) Einsicht bereits vor drei Jahrzehnten bei einer Nachbereitung des TMI- Unfalls gestoßen. Sie untersuchten ein „realistisches, aber sehr unwahrscheinliches Ereignis: die gleichzeitige Zerstörung von Systemen außerhalb der Containments, Risse in der Sicherheitshülle; eine Kernschmelze mit ungefilterter Freisetzung von radioaktivem Material“. Das klingt nach Fukushima. Und das Ergebnis dieser Untersuchung? „Selbst ein derartiges Ausnahmeereignis hätte, wenn überhaupt, nur wenige Todesfälle zur Folge. […] Die Freisetzung und die Ausbreitung radioaktiven Materials aus dem beschädigten oder geschmolzenen Brennstoff ist streng durch die physikalischen und chemischen Eigenschaften des Materials beschränkt.“ [6] Wie in Fukushima!

Lebenslüge Atomdesaster

Anfang Juni sagte Bundeskanzlerin Merkel in ihrer Regierungserklärung zur Energiewende, dass Fukushima ihre Haltung zur Kernenergie verändert habe. Ein Restrisiko könne sie nicht mehr akzeptieren. Auch andere haben ihre Haltung geändert, so George Monbiot, einer der prominentesten britischen Umweltschützer. So manchen Leser seiner wöchentlichen Kolumne im Guardian dürfte Monbiots Bekehrung, knapp zwei Wochen nach dem Tsunami, allerdings überrascht haben. „Als Folge des Desasters in Fukushima stehe ich der Kernenergie nicht länger neutral gegenüber. Ich befürworte jetzt diese Technologie.“ [7] Monbiot hat sich nicht aus ideologischen, sondern aus pragmatischen Gründen für die Kernenergie entschieden. Den engagierten Klimaschützer hat vor allem die Aussicht geängstigt, dass die Welt, insbesondere China, nun stärker wieder auf Kohle setzen werde – mit schlimmen Folgen: „In jeder Hinsicht (Klimawandel, Bergbau, lokale Umweltverschmutzung, Unfall- und Todeszahlen, Freisetzung von Radioaktivität)“, bilanziert Monbiot, ist Kohle hundertmal schlechter als Kernenergie.“ In mehreren Kommentaren erläuterte Monbiot seinen Sinneswandel, und er debattierte öffentlich mit Helen Caldicott, der globalen Ikone der Kernkraftgegner. Von ihr verlangte er Belege für die angeblich eine Million Tote durch Tschernobyl und andere gängige Horrorgeschichten. Erhalten hat er sie nicht. [8] Der grünen Bewegung wirft er vor, die Welt über die Gefahren radioaktiver Strahlung in die Irre zu führen. „Ihre Behauptungen […] haben keine wissenschaftliche Grundlage, halten Nachfragen nicht stand und sind fürchterlich falsch.“
Fürchterlich falsch sind auch die Annahmen, die der deutschen Energiewende zugrunde liegen: Es gab keine Strahlenopfer in und um Fukushima, und es wird keine auf immer unbewohnbare Todeszonen geben. Die deutsche Politik ignoriert diese positive Entwicklung, hält stattdessen am Erkenntnisstand vom März, ein paar Tage nach dem Tsunami, fest. Ausgangsniveau der Debatten, in denen Sozialwissenschaftler, Feuilletonisten und Ethiker den Ton angeben, ist immer noch die damals angenommene Megakatastrophe, die selbst die Bevölkerung Tokios dahinraffen könnte. Dass nichts von dem eingetreten ist, wird ausgeblendet. So funktionieren Lebenslügen. Lebenslügen müssen aufrechterhalten werden, damit man weiterleben kann. Bei manchen halten sie ein ganzes Leben, andere zerbrechen daran. Die deutsche Energiewende beruht auf der Lebenslüge „Atomdesaster Fukushima“.

Wie geht’s weiter?

Die Reaktorunfälle in Harrisburg und Tschernobyl hatten einschneidende Wirkung. Danach wurden nur noch wenige Kernkraftwerke gebaut, viele Ausbaupläne wurden auf Eis gelegt. Inzwischen sind allerdings wieder über 60 Reaktoren in Bau. Die Nachwehen von Fukushima sind verhaltener, sieht man einmal von dem „Hals über Kopf“-Ausstieg in Deutschland ab. Die Schweiz baut (vorerst) keine neuen Kernkraftwerke, lässt aber die vorhandenen laufen, Italien, das nie eingestiegen ist, will weiterhin auf Kernenergie verzichten und der vom japanischen Premier Kan vorgeschlagene Ausstieg irgendwann in der Zukunft stellt eine Privatmeinung dar. Andere Staaten haben ihre Ausbaupläne nicht aufgegeben. Im Mai empfahl der Council for Climate Change der britischen Regierung, außer den Erneuerbaren auch die Kernenergie weiter auszubauen. Sie, so der Rat, sei die effizienteste Methode der CO2- Vermeidung. China will bis 2020 60 neue Kernreaktoren in Betrieb nehmen (25 sind derzeit im Bau), Russland plant 35 Anlagen, unsere polnischen Nachbarn zwei Kernkraftwerke, die Niederlande und Litauen je eins. Südkorea wird vier Kernkraftwerke an die Vereinigten Arabischen Emirate liefern und will den eigenen Strombedarf bis 2030 zu über 40 Prozent mit Kernenergie decken. Gegenwärtig sind es 23 Prozent.
Die Liste ließe sich fortsetzen. Offensichtlich ist die Kernenergie kein Auslaufmodell. Analysten der britischen Economist Intelligence Unit, einer zur unabhängigen Economist Group gehörenden Beraterfirma, sehen ein „Jahrzehnt des Wachstums für die Kernenergie voraus, nur geringfügig beeinflusst durch den Fukushima-Unfall.“ Ihr im Juni veröffentlichter Bericht „The Future of Nuclear Energy“ trägt den bezeichnenden Untertitel „Ein Schritt zurück, zwei Schritte vorwärts“.
Deutschlands Energiewende ist emotionsgetrieben, aufgeladen durch die Angst vor Strahlung jeglicher Art. Dabei ist die Furcht größer als die tatsächliche Gefahr. Die Horrorvisionen, die selbst für niedrige Strahlendosen beschworen werden, stammen noch aus den Zeiten des atomaren Wettrüstens. [9] Was damals die Schrecken eines Nuklearkriegs aufzeigen sollte, haben die Grünen in ihren Mythenschatz übernommen und gegen die Kerntechnologie gewendet. Irrationale Ängste lassen sich damit einfach schüren und ausnutzen, wie die vergangenen Monate in Deutschland gezeigt haben. Ist es ethisch vertretbar, dass Politiker und Lobbygruppen zur Verfolgung eigennütziger Ziele weiten Teilen der Bevölkerung Angst einjagen? Merkels Ethikkommission hat dazu leider kein Wort verloren, im Gegensatz zu George Monbiot. Für ihn ist es eine moralische Frage: Darf man Menschen mit vollkommen übertriebenen Aussagen zu den Gefahren radioaktiver Strahlung in Angst und Schrecken versetzen? Man darf es nicht.
Weltweit arbeiten derzeit rund 450 Kernkraftwerke. Sie haben bislang etwa 64.000 Milliarden Kilowattstunden an Strom erzeugt. Dafür hätten sich, bei einer Lebensdauer von 20 Jahren pro Anlage, einige zehn Millionen Windräder drehen müssen. Durch den Nuklearstrom sind 15 bis 20 Milliarden Tonnen an Kohle in der Erde und einige 10.000 Bergleute am Leben geblieben. Rund 14 Prozent des Stroms werden weltweit durch Kernspaltung erzeugt, zwei Drittel durch Kohle und Gas. Kohle ist bei weitem der wichtigste Brennstoff für die Stromproduktion und wird es in den nächsten Jahrzehnten bleiben. Ohne die einheimische Kohle hätten die Milliardenbevölkerungen von China und Indien keine Aussicht, ihre im Schnitt immer noch ärmlichen Lebensbedingungen dem Niveau der reicheren Länder anzugleichen. Wenn man Kohle bei weltweit wachsendem Energiebedarf überhaupt ersetzen kann, wird dies nur allmählich geschehen, und zwar nicht durch Wind und Sonne. Der Ersatz von Kohlekraftwerken (die zuverlässig, effizient und damit billig Strom produzieren) durch Windräder und Solaranlagen (die teuren, nur unregelmäßig verfügbaren Strom liefern) ist eine Ausgabe, aber keine Investition. Davon profitieren einige wenige, aber die Mehrheit verliert. Diesen Luxus kann man sich in Deutschland (noch) leisten, aber nicht in China, Indien und anderen Ländern. Wohin wird sich also die Welt der Energie, realistisch gesehen, in den kommenden Jahrzehnten entwickeln? Sicher nicht in Richtung deutscher Energiewende. Das ist eine Sackgasse. Sie ist teuer, vernichtet Kapital und verschwendet Rohstoffe. Nur die effiziente Kernenergie kann die effiziente Kohleenergie ersetzen. Das wird dauern, denn die kerntechnische Industrie hat nach dreißig Jahren Auszeit viel an Substanz und Schwung verloren.
In gewissem Sinne beginnt die Kernenergie noch einmal neu – mit neuen Partnern und mit neuen Konzepten. Die Neuen im Geschäft sind China, Südkorea und Indien, sie dürften sich zu treibenden Kräften entwickeln. Korea zum Beispiel hat das Ziel, bis 2030 Kernkraftwerke für 400 Milliarden Euro zu exportieren. Schwer vorstellbar, dass Deutschland vergleichbare Summen mit Windrädern und PV-Anlagen verdienen kann. Nach technologischem Stillstand gibt es wieder Entwürfe und Planungen für neuartige Reaktoren. Es gibt neue Sicherheitskonzepte, passive Systeme, die auch funktionieren, wenn der Strom ausfällt und Reaktoren, die inhärent sicher sind, wo die Physik die Katastrophe von vornherein ausschließt. Inhärent sicher ist etwa der Hochtemperaturreaktor, den man in Deutschland schon einmal bis zum industriellen Prototyp entwickelt hatte. Chinesische Wissenschaftler bauen ihn nun neu. Er liefert nicht nur Strom, sondern auch Hochtemperaturwärme – ideal, um fossile Brennstoffe zu ersetzen. Mit seiner Energiewende hat sich Deutschland von diesen technologischen Entwicklungen und vom größten Teil der Welt abgekoppelt. Für einen solchen Sprung ins Ungewisse müsste es schon sehr, sehr gute Gründe geben. Das Reaktorunglück von Fukushima liefert diese nicht.
Anmerkungen
[1] Siehe Eike Roth: „Fukushima und was wir daraus lernen können. Versuch einer Bewertung nach 80 Tagen“ in: Energie-Fakten.de,, 1. 6.11 und IAEA: „International Fact Finding Expert Mission of the Fukushima Dai-ichi NPP Accident. Following the Great East Japan Earthquake and Tsunami: Mission Report“, 16. 7. 11, pub.iaea.org.
[2] Siehe auch J. Nakosko, T. Lazo: „Fukushima.“ NEA News, 2011, Nr. 29.1, oecd-nea.org. Die Autoren stellen u. a. fest, dass in dem Kraftwerk acht von 2400 Arbeitern eine Strahlendosis von mehr als 250 MilliSievert (mSv) erhalten haben. Und was ist mit der „radioaktiven Wolke“? Im Bezirk Ibaraki, auf halbem Weg zwischen Tokio und Fukushima, lag der Höchstwert bei 0,35 Mikrosievert (μSv) pro Stunde. Erreicht wurde er am 22. März. Hätte diese Belastung ein Jahr lang angedauert, wäre die Bevölkerung mit etwa 3 mSv belastet worden, soviel wie die durchschnittliche natürliche Hintergrundstrahlung, die jeder Mensch erhält.
[3] World Nuclear News: „Cold shutdown a must for Fukushima return“ in: World Nuclear News, 19.5.11 world-nuclear-news.org.
[4] Joachim Müller-Jung: „Atompolitik nach Fukushima. Die nukleare Selbstdemontage“ FAZ 25.6.11, faz.net. Jung leitet übrigens die Wissenschaftsredaktion der FAZ.
[5] Auch dem Chef-Wissenschaftler der britischen Regierung, Sir Beddington, war diese grundlegende Einsicht vertraut. Damit konnte er die versammelten Mitglieder der britischen Botschaft in Tokio davon überzeugen, dass eine Flucht aus der japanischen Hauptstadt unnötig wäre. Da hatten sich die Angehörigen der deutschen Botschaft in Tokio bereits nach Osaka abgesetzt. Siehe: Heinz Horeis: „Fukushima 1: Worst case scenario German angstNovoArgumente Online 18.3.2011
[6] radscihealth.org/RSH/Realism/WP-Annex1.htm. An dieser Untersuchung war neben amerikanischen Forschungszentren auch das Kernforschungszentrum Karlsruhe beteiligt. Eine ausführliche Zusammenfassung durch milton levenson und frank rahn erschien 1981 in Nuclear Technology (Vol 53, May 1981). Das Papier wurde in die jeweilige Sprache aller Mitgliedsländer der Internationalen Atomenergiebehörde übersetzt. Ernsthafte Einwände gegen diese Ergebnisse gab es nicht.
[7] George Mobiot: „Going Critical“ The Guardian, 22 03.2011.
[8] monbiot.com/2011/04/04/evidence-meltdown/. Monbiot hat von Caldicott wissenschaftlich fundierte („peer reviewed“) Belege für 14 ihrer Horror-Behauptungen verlangt. Sie konnte keine ihrer Aussagen belegen.
Sehr lesenswert dazu die Korrespondenz.
[9] 1959 hat sich die Internationale Kommission für Strahlenschutz (ICRP) auf das LNT-Modell geeinigt (LNT ist die Abkürzung für „linear no threshold“). Es besagt, kurz gefasst, dass jede noch so geringe Strahlendosis gesundheitsschädlich ist. Die Summe mehrerer kleiner Strahlendosen hätte demnach die gleiche Wirkung wie eine einmalige große Dosis. In den Alltag übersetzt hieße das: An neun Tagen hintereinander jeweils 20 Minuten Sonnenbad zur Mittagszeit hätte die gleichen Folgen wie vier Stunden Sonnenbad am Stück. Namhafte Radiobiologen und Nuklearmediziner lehnen das LNT-Modell ab. Dagegen sprächen etwa Untersuchungen zur natürlichen Strahlenbelastung wie auch Erfahrungen aus der Strahlenmedizin. Siehe dazu zum Beispiel das Buch des britischen Nuklearmediziners wade allison, Radiation and Reason, 2009.
Heinz Horeis
Dieser Artikel ist zuerst in der aktuellen Printausgabe von NovoArgumente (#112 – II/2011) erschienen. Die Online-Version bei NovoArgumente finden Sie hier in drei Teile aufgeteilt.
Heinz Horeis ist freier Wissenschaftsjournalist. Mit dem Thema Energie befasst er sich seit der ersten großen Energiedebatte in den 1980er Jahren. Er ist Mitautor eines Buches über Strahlung und Radioaktivität, das jüngst in einen japanischen Verlag erschienen ist. Heinz Horeis prägte den Begriff “NIEs” für “Neue Ineffziente Energien” 




Politisch korrekte Wettervorhersagen

Viele Abonnenten (Kopp Exklusiv) werden sich noch an unseren Bericht über die verschwiegenen Ursachen für die immer ungenauer werdenden Wetterprognosen erinnern: Weil nicht nur vor der Küste Somalias, sondern in immer mehr internationalen Gewässern Piraten die Wetterfunksprüche der Frachtschiffe auffangen. werden diese zusammen mit den Positionsangaben seit einigen Jahren nur noch zeitversetzt gesendet. Die Piraten können die Frachtschiffe nun zwar mit deren für die Meteorologen gesendeten Wetterdaten nicht mehr orten, aber zugleich haben die Meteorologen Daten, bei denen Wetterdaten und Positionsdaten in der Realität nicht übereinstimmen. 
Dennoch gehen sie in die Wetterprognosen ein – und führen zu Vorhersagen. die eben immer öfter mit der Realität nichts mehr zu tun haben. 

Interkulturelle Sensibilität

Die Wettervorhersagen werden immer unzuverlässiger. Zugleich werden sie im deutschsprachigen Raum politisch immer korrekter. Man sieht das etwa an der Benennung der Hochs und Tiefs. Damit Hochdruckgebiete nicht nur mit weiblichen Namen und Tiefdruckgebiete nicht nur mil männlichen Namen verknüpft werden. düfen in geraden Jahren Hochdruckgebiete nur männliche und Tiefdruckgebiete nur weibliche Namen tragen. Und in ungeraden Jahren ist es genau umgekehrt. Aus dem Tiefdruckgebiet Andreas im Jahre 2011 würde 2012 das Tiefdruckgebiet Andrea. Und ein Tief, das 2011 Christian genannt worden wäre. müsste 2012 Christiane heißen. Nun kann man im deutschsprachigen Raum Namenspate eines Hochs oder Tiefs werden. Doch wenn es um Geld geht, da endet die Gleichheit: Während man für 199 Euro beim Institut für Meteorologie Namenspate eines Tiefdruckgebietes werden kann, kostet ein Hoch dort gleich 299 Euro. Allerdings erfolgt die Vergabe der Namen nach den Regeln der »interkulturellen Sensibilität«. Ein Tiefdruckgebiet hat im deutschsprachigen Raum beispielsweise noch nie einen islamischen Namen wie Mohammed, Ahmed oder Yussuf getragen, weil das Muslime oder den Islam »beleidigen« könnte. Ein christlicher oder jüdischer Vorname für das Tiefdruckgebiet stellt demgegenüber kein Problem dar. Das ist allerdings nur die Spitze der politischen Korrektheit der Wettervorhersage. Denn es gibt viele neue Sprachregelungen, die Meteorologen der Politik zuliebe verwenden sollen.

Sprachregelung im öffentlich rechtlichen Rundfunk

Die Wettermoderatoren der öffentlich-rechtlichen Sender sind dazu angehalten, möglichst haufig auf etwaige Abweichungen von Durchschnittstemperaturen nach oben hinzuweisen, 
Im Klartext: Ist ein Monat gegenüber Vergleichsmonaten der Vorjahre beispielsweise ein Grad wärmer, dann soll darauf hingewiesen und zugleich an den angeblichen Klimawandel als mögliche Ursache erinnert werden. Die Tatsache, dass Wetter keiner Norm unterliegt. gerät so bei den Bürgern in Vergessenheit. Noch einprägsamer ist allerdings die Aufforderung, moglichst häufig vor Unwettern zu warnen. Ein ganz normaler Wintersturm wird heute als Orkan höchster Gefahrenklasse angekündigt. Nie zuvor hat es mehr Unwetterwarnungen im deutschsprachigen Raum gegeben als in den vergangenen Monaten. Dabei hat sich die Zahl der Stürme. von Starkregen, Hagelschauern und Trockenperioden aus der Sirht der Versicherer in den letzten Jahrzehnten in Deutschland nicht verändert. Und die müssen es schließlich wissen. Ohnehin kann man viele neue Wetterphänomene ganz natürlich erklären und muss nicht gleich den Klimawandel als Kronzeugen anführen.
Ein Beispiel, das Meteorologen gern verschweigen: Nach Angaben der wissenschaftlichen Fachzeitschrift "Science" regnet und schneit es in der Umgebung von Flughäfen öfter und stärker als vor einigen Jahrzehnten. Die Meteorologen begründen das mit dem Klimawandel. In Wahrheit reißen die vielen startenden und landenden Flugzeuge Löcher und Kanäle in die Wolkendecken und lassen sie abregnen oder abschneien. Man kann das auch dem Laien ganz einfach erklären. Doch das ist politisch nicht erwünscht. 
Udo Ulfkotte; erschienen 2/12 bei "Kopp Eclusive" , mit freundlicher Genehmigung