Atommüll-Lagerung in der ASSE- eine unendliche Geschichte

Zu diesem Vorhaben stellen sich Fragen, die an die Parlamentarier zu stellen sind:
1.     Überall in der Welt werden schwach radioaktive Abfälle (das ist die überwiegende Menge der Abfälle in der ASSE) oberflächennah endgelagert, z.B. in Frankreich im Endlager „Centre de la Manche“. Nur in Deutschland gibt es ein tiefes Endlager dafür, weil dafür ein still gelegtes Bergwerk zur Verfügung stand.
 
Bild 1 (wie auch oben rechts): ANDRA, Agence Nationale Pour La Gestion Des Dechets Radioactifs, zur verfügung gestellt von Dr. H. Hinsch
Frage: Warum stellt die tiefe Endlagerung in Deutschland eine Gefahr dar, während in allen anderen Ländern der Erde die oberflächennahe Lagerung ausreichend ist?
2.     Wenn man die schwach radioaktiven Abfälle aus der ASSE herausholt, stände zu deren späterer Endlagerung nur Schacht KONRAD bereit. Dieser Schacht kann jedoch den Abfall aus der ASSE nicht zusätzlich aufnehmen, denn das genehmigte Hohlraumvolumen von KONRAD wird durch den schon vorhandenen und noch anfallenden schwach aktiven Abfall aufgefüllt werden.
Frage:
Man plant offenbar, die rückgeholten Abfälle in oberirdischen Bauten endzulagern [1]. Ist das sicherer als die Lagerung in der Tiefe?
3.     In der ASSE lagern als wesentliche Nuklide Uran und Thorium [2], das sind alpha-Strahler mit einer Reichweite von wenigen Hundertstel Millimeter im Gestein. Für Menschen können alpha-Strahler nur dann gefährlich werden, wenn sie in den Körper gelangen, also verspeist werden.
Frage:
Ist das Risiko des Verspeisens der Abfälle nicht als geringer einzuschätzen, wenn diese in der Tiefe verbleiben anstatt sie an die Oberfläche zurück zu holen?
4.     Der Fachverband Strahlenschutz – das ist der Zusammenschluß der im Strahlenschutz ausgebildeten Fachleute in Deutschland – hat gegen die Rückholung der Abfälle argumentiert, weil damit gegen den Grundsatz des Strahlenschutzes verstoßen wird, jede unnötige Exposition zu vermeiden [3].
Frage:
Warum ignoriert die Politik und das Bundesamt für Strahlenschutz den Rat der Fachleute?
5.     Ebenso wendet sich Michael Sailer, Sprecher der Geschäftsführung vom Öko-Institut Freiburg und Vorsitzender der Entsorgungskommission des Bundes seit längerem gegen die Rückholung der Abfälle, weil diese nicht machbar sei. Das ist eine lobenswert sachliche Bewertung von Seiten der Kernkraftgegner, zu denen Herr Sailer gezählt werden kann.
Frage:
Warum ignoriert die Politik und das Bundesamt für Strahlenschutz den guten Rat vom Öko-Institut?
6.     In die ASSE wurde durch die Abfälle ungefähr genauso viel Radioaktivität hinein gebracht (einige zehn hoch zwölf Becquerel), wie man zuvor durch den Bergbau durch Kali heraus geholt hatte (wenn man bei den Abfällen diejenigen mit kurzer Halbwertszeit außeracht lässt, weil diese schon in etwa 100 Jahren komplett zerfallen sind). Es also bezüglich der Menge von Radioaktivität in der ASSE nichts verändert worden, nur sind es dort anstatt Kalium-40 jetzt mit Uran und Thorium andere Nuklide.
Frage:
Der Mensch hat bezüglich der Menge von Radioaktivität durch die Abfalllagerung in der ASSE nichts verändert – warum soll jetzt durch Rückholung die Erde in über 500 Meter Tiefe frei von Radioaktivität gemacht werden?
7.     In der Landwirtschaft werden in Deutschland jedes Jahr einige zehn hoch zwölf Becquerel in Form von Kalidünger auf den Feldern verteilt. Eine ähnlich große Menge von Radioaktivität (K-40, C-14) wird von den Menschen in Deutschland mit der Nahrung verspeist.
Frage:
Warum ist das verspeisen von Radioaktivität mit der Nahrung gestattet, nicht hingegen die Endlagerung der gleich großen Menge von Radioaktivität in der Tiefe?
8. In der ASSE werden die Abfälle durch das Deckgebirge geschützt, in dem sich hundertmal so viel Radioaktivität wie in der Tiefe befindet [4], wenn man wiederum die in 100 Jahren verschwundenen Nuklide mit kurzer Halbwertszeit vernachlässigt, siehe Skizze (bei diesem Vergleich ist es belanglos, ob man die Radioaktivität in Bq oder in kg misst):


Frage: Wie können die Abfälle in der Tiefe eine Gefahr bedeuten, die 100-fache Menge an Radioaktivität im Deckgebirge darüber jedoch nicht?
9.     Es lässt sich berechnen, welche Menge an Uran die letale Strahlendosis ergibt; es müßten ca. 1 kg Uran verspeist werden. Die letale Dosis von Steinsalz liegt bei ca. 250g. Es ist also die Toxizität des Urans im Abfall geringer als diejenige vom umgebenden Steinsalz.
Frage:
Warum belässt das giftigere Steinsalz in der Tiefe und will das geringer giftige Uran aus dem Bergwerk herausholen?
Die ASSE wird vom Bundesamt für Strahlenschutz betreut, auch die Rückholung der Abfälle wird von dieser Behörde entgegen dem Rat von Fachgremien vorangetrieben. Es wird Werbung für dieses Vorhaben gemacht, das geschieht durch Berichte in vielen Zeitungen [5]. Dabei wird eine einfache Modellvorstellung beschrieben, die auf den ersten Blick für den Bürger einleuchtend ist und daher sofort geglaubt wird. Bei der ASSE ist es die Vorstellung vom Eindringen von Wasser in eine instabile Grube, das Rosten der Fässer, Auflösung des Inhalts, Verseuchung des Grundwassers. Dabei wird vieles falsch dargestellt:
Die Hohlräume der ASSE sind schon zu 90% wieder verfüllt worden, mit der Verfüllung wird das Grubengebäude immer stabiler. Brüchige Stollen und nachbrechendes Deckgebirge sind überall im Bergbau normal, nur bei Salz sehr gering. Für die Menschen im Ruhrgebiet ist es alltäglich, dass durch zusammenbrechende Stollen an der Oberfläche Vertiefungen entstehen, mit weitreichenden Folgen für Bebauung, Landwirtschaft, Infrastruktur, Natur. Für die ASSE wird es wegen der Verfüllung diese Dinge nicht geben. Es dringt kein Wasser ein, sondern Sole, die ist zu 100 % gesättigt mit Salz. Unterirdisch in 500 m Tiefe fließen keine Flüsse, es ist besser von einsickernder Feuchtigkeit zu sprechen. Der Zutritt von 12 Kubikmeter Flüssigkeit pro Tag ist unverändert seit 24 Jahren. Zum Absaufen des schon zu 90% verfüllten Grubengebäudes wären 76 Jahre erforderlich. Die Gefahren zum Absaufen oder für einen „großen Wassereintritt“ (wie das BfS sagt) sind gering. Mit der Verfüllung der Hohlräume wird das Einsickern von allein aufhören, denn nur in Hohlräume kann Feuchtigkeit einsickern. In der Sole ist fast nichts mehr löslich. Die Stahlfässer dürfen rosten, denn in den Fässern ist der Abfall in Beton eingebettet. Beton löst sich nicht in Wasser, noch weniger in Sole. Und auch die Abfälle in den Fässern sind im wesentlichen oxidischer Natur, damit kaum in Wasser löslich. Die Sole hat eine Dichte zwischen 1,2 und 1,3. Diese kann nicht nach oben durch höher liegendes Grundwasser mit der Dichte 1 steigen. Der Salzstock der ASSE ist 240 Millionen Jahre alt. Später im Tertiär war die norddeutsche Tiefebene viele Millionen Jahre vom Meer bedeckt, als sich die viel jüngeren Braunkohlelagerstätten bildeten – ohne Einfluß auf die viele Salzstöcke in Niedersachsen.
Sigmar Gabriel hat den ASSE-„Skandal“ im September 2008 erfunden. Er war zwar zuvor als Minister und als Ministerpräsident in Niedersachsen der zuständige Chef gewesen, aber zuvor war für ihn offensichtlich in der ASSE alles in Ordnung gewesen.
Das Vorgehen der Skandalisierung der ASSE war professionell, Bilder sind Hilfsmittel des Profis. So war in den Medienberichten immer das gleiche Bild zu sehen, nämlich ein Frontlader, der Fässer abkippt. Das sollte „Schlamperei“ bekunden und gelang, wie in vielen Internet-Blogs zu sehen war: Zorn und Emotionen wurden geweckt. Es gibt in der ASSE auch Kavernen mit sorgsam gestapelten Fässern, das wurde aber nicht gezeigt. Es wurde auch nicht gesagt, daß die gestapelten Fässer irgendwann vom sich absenkendem Gebirge zerdrückt werden, die auf einer schrägen Rampe abgekippten Fässern jedoch anschließend mit feinem Salz zugedeckt und wie in Beton für die Ewigkeit einbettet wurden.
Mit dem unsinnigen Gesetz zur Rückholung der Abfälle aus der ASSE macht sich Deutschland ein weiteres Mal vor den Augen der Welt lächerlich. Allerdings lachen nur die wenigen Fachleute mit Verständnis für die komplizierten Zusammenhänge zu Radioaktivität und Strahlung. Und diese Minderheit lacht nur insgeheim, denn sie wurde längst als „Lobbyist“ gebrandmarkt, wagt sich nicht mehr aus der Deckung. Die große Masse der Menschen wird in ihrer diffusen Strahlenangst bestärkt. Mit einfachen Dingen wird eine Massenhysterie erzeugt, ständig wiederholte Schlagworte wie „ungelöste Endlagerfrage“ gehören dazu [6].
Die Ideengeber der Kampagne bleiben unsichtbar. Multiplikatoren sind als „nützliche Idioten“ im Leninschen Sinne tätig, sie lenken bewusst oder unbewusst die Masse der Mitläufer – man sagt Gutmenschen – in die gewünschte Richtung. In der Geschichte wurden die Rezepte der Demagogie immer wieder benutzt, hier und heute zum Nachteil für Deutschland und alle anderen, die vielleicht dem falschen Vorbild folgen werden.
Dr. Lutz Niemann; EIKE
[1] „Asse_einblicke_17“, eine Informationsschrift des Bundesamtes für Strahlenschutz
[2] „ASSE, Ein Bergwerk wird geschlossen“ Info-Broschüre vom GSF-Forschungszentrum 2004
[3] „Rückholung der Abfälle aus der Schachtanlage ASSE II“ vom Fachverband Strahlenschutz v. 15.2.2011 und „Arbeitskreis des FS, Stellungnahme des AKE zur Schachtanlege ASSE II“ in StrahlenschutzPRAXIS 1/2009 Seite 93, 94
[4] berechnet mit der mittleren Häufigkeit der Elemente in der Erdkruste nach Periodensystem VCH, oder Merck: „Tabellen für das Labor“: U: 3ppm, Th: 12ppm, K: 2,4%.
[5] Zum Beispiel in Süddeutsche Zeitung v. 28.12.2012, „Am Ende wird es immer Widerstand geben“; DIE WELT v. 13.12.2012, „Kaffee, Kuchen, Asse“; Der Spiegel v. 22.9.2012 „Mission Impossible“; u.a.m.
[6] Andere Beispiele: „Risikotechnik Kernkraft“, „Gendreck weg“, „Reichtum für alle“, „Yes we can“, „Erst stirbt der Wald, dann stirbt der Mensch“, „Scheitert der EURO, dann scheitert Europa“.




Ein Sargnagel für AGW? Großstudie findet keine Abhängigkeit zwischen anthropogenem CO2 und Temperaturverlauf.

Im Folgenden ist der WUWT-Beitrag ins Deutsche übersetzt wiedergegeben. Er schildert die Originalarbeit in verkürzter Form. Da die verwendeten statistischen Methoden der Originalarbeit wohl nur den wenigsten Leser(inne)n vertraut sein dürften, hat der Bearbeiter der News (Horst-Joachim Lüdecke) eine Veranschaulichung ohne Zuhilfenahme von mathematischen Formeln versucht. Sie ist als pdf angefügt. Es wäre vielleicht sinnvoll, diese Veranschaulichung zuerst zu lesen, um der folgenden Übersetzung verständlich besser folgen zu können. Nun zur Übersetzung des Artikels von WUWT, die von Helmut Jäger vorgenommen wurde:
In der Fachzeitschrift “…Obgleich die anthropogenen Antriebe einen gemeinsamen stochastischen Trend haben, zeigen wir, dass dieser Trend empirisch unabhängig vom stochastischen Trend bei den Zeitreihen der Temperatur und der Sonneneinstrahlung ist. Deshalb weisen Treibhausgas-Antrieb, Aerosole, Sonneneinstrahlung keine polynomiale Kointegration mit der globalen Temperatur auf. Das bedeutet, dass die jüngste globale Erwärmung nicht statistisch signifikant auf einen anthropogenen Antrieb bezogen ist. Aber wir meinen auch, dass ein Antrieb durch Treibhausgase einen zeitweiligen Effekt auf die globale Temperatur gehabt haben könnte.”

Das Papier ist hochinteressant und möglicherweise ein Donnerschlag, weil die Verfasser wirklich alle einschlägigen Zeitreihen von Beobachtungsdaten (einschließlich GISS und BEST) benutzten, zusammen mit der Sonneneinstrahlung nach Lean und Rind, dazu CO2, CH4, N2O, Aerosole, ja sogar Wasserdampfdaten. Und sie haben [die Daten] statistischen Tests gegen die Antriebsgleichungen unterzogen (dabei auch Lucias bevorzugter Einheitswurzel). Erstaunlicherweise scheinen sie bei den Beobachtungsdaten einen anthropogenen Antrieb fast gänzlich auszuschließen, dies aber mit der Einschränkung, dass Irrtum möglich sei, wörtlich:

“…unsere Zurückweisung eines anthropogenen Klimawandels ist nicht absolut; es könnte ein „falsch positiv“ sein, aber wir können die Möglichkeit nicht ausschließen, dass die jüngste globale Erwärmung einen anthropogenen Stempel trägt. Diese Möglichkeit ist aber sehr klein und sie ist auf konventionellem Level nicht statistisch signifikant.“

Ich erwarte, dass Menschen wie Tamino (auch unter dem Namen Grant Foster bekannt) und weitere hitzköpfige Statistik-Besessene zum Angriff übergehen werden und die Prämissen und Tests in Frage stellen, aber gleichzeitig hoffe ich, dass sich auch weniger vorurteilsbefangene Statistiker engagieren und die Stichhaltigkeit prüfen. Ich habe die Vermutung, dass die Autoren von BEE sorgfältig darauf achteten, alle Möglichkeiten eigener Irrtümer auszuschließen. Ich schulde Dank an Andre Bijkerk und Joanna Ballard, die mich über Facebook auf dieses Papier aufmerksam machten.
Der Abstract und Auszüge aus dem Paper mit folgenden Autoren folgen.

M. Beenstock(1), Y. Reingewertz(2), and N. Paldor(3): Polynomial cointegration tests of anthropogenic impact on global warming, Earth Syst. Dynam., 3, 173-188, 2012
(1) Department of Economics, the Hebrew University of Jerusalem, Mount Scopus Campus, Jerusalem, Israel
(2) Fredy and Nadine Institute of Earth Sciences, the Hebrew University of Jerusalem, Edmond J. Safra campus, Givat Ram, Jerusalem, Israel

Abstract

Wir wenden statistische Methoden auf instationäre Zeitreihen an, um die Erklärungshypothese vom anthropogen verursachten Klimawandel (AGW) zu testen, wonach eine Zunahme der atmosphärischen Treibhausgaskonzentration die Globaltemperatur im 20. Jh. erhöht hätte. Im Besonderen benutzen wir das Verfahren der polynomialen Kointegration, um einen möglicherweise anthropogenen Klimawandel im Beobachtungszeitraum (1880–2007) zu testen. Die Globaltemperatur und die Sonneneinstrahlung sind stationär beim ersten Differenzieren, wohingegen die Treibhausgas- und Aerosol-Antriebe erst beim zweiten Differenzieren stationär sind. Wir zeigen, dass dieser Trend empirisch unabhängig vom stochastischen Trend bei der Temperatur und Sonneneinstrahlung ist, obwohl die anthropogenen Antriebe einen gemeinsamen stochastischen Trend aufweisen. Daher sind Treibhausgas-Antrieb, Aerosole, Sonneneinstrahlung und Globaltemperatur nicht polynomial kointegriert.

Das impliziert, dass die jüngste globale Erwärmung nicht statistisch signifikant auf einen anthropogenen Antrieb bezogen ist. Andererseits haben wir aber herausgefunden, dass ein Treibhausgas-Antrieb einen zeitlich begrenzten Effekt auf die Globaltemperatur gehabt haben könnte.

Einführung

Angesichts der Komplexität und der Verschiedenartigkeit der Prozesse, die das Erdklima beeinflussen, ist nicht überraschend, dass eine völlig zufriedenstellende und akzeptierte Erklärung (IPCC, AR4, 2007) für alle Veränderungen noch fehlt, die im vergangenen Jahrhundert stattgefunden haben (z.B. Temperaturänderungen im großen Gebiet der Tropen, Bilanz des CO2-Eintrags in die Atmosphäre, Änderungen in der Aerosol-Konzentration, Ausmaß und Veränderung der Sonnenstrahlung). Diese Studie beschäftigt sich insbesondere mit denjenigen Prozessen, die mit dem Treibhauseffekt zu tun haben, durch den ein Teil der von der Erde abgestrahlten langwelligen Emission von einigen Molekülen der Atmosphäre wieder absorbiert wird. Diese sind (in absteigender Wichtigkeit): Wasserdampf, Kohlendioxid, Methan und Stickoxide (IPCC, 2007). Obwohl Wasserdampf das wichtigste Treibhausgas ist, wird die Dynamik von dessen atmosphärischem Austausch durch Verdampfung, Kondensierung mit nachfolgendem Niederschlag noch nicht genügend verstanden, um gerade ihn exakt zu quantifizieren. Während sehr viel Ursachenforschung zur globalen Erwärmung unter Einsatz von kalibrierten allgemeinen Zirkulationsmodellen (calibrated general circulation models – GCMs) durchgeführt wird, hat sich seit 1997 ein neuer Zweig wissenschaftlicher Untersuchung entwickelt, in dem die Beobachtungen des Klimawandels statistisch mit der Kointegrationsmethode getestet werden (Kaufmann and Stern, 1997, 2002; Stern and Kaufmann, 1999, 2000; Kaufmann et al., 2006a,b; Liu and Ro- driguez, 2005; Mills, 2009). Die in den letzten Jahrzehnten des 20. Jahrhunderts entwickelte Methode der Kointegration wird eingesetzt, um unechte Regressionsphänomene in instationären Zeitreihen aufzuspüren (Phillips, 1986; Engle and Granger, 1987). Instationarität entsteht, wenn Stichproben-Kenngrößen aus einer Zeitreihe (Mittel, Varianz, Kovarianz) zeitabhängig sind. Regressionsbeziehungen sind dann „unecht“ [siehe Erläuterung Prof. Dr. Lüdecke], wenn unabhängige instationäre Zeitreihen scheinbar signifikant korrelieren, weil sie zufälligerweise zeitliche Trends haben.
Die Methode der Kointegration ist erfolgreich beim Aufspüren von unechten Beziehungen in Zeitreihen von Wirtschaftsdaten.
So ist die Kointegration zum ökonometrischen Standard-Werkzeug geworden, um Hypothesen mit instationären Daten zu testen (Maddala, 2001; Greene, 2012). Wie bereits erwähnt, benutzen auch Klimatologen die Kointegration, um instationäre Klimadaten zu analysieren (Kaufmann and Stern, 1997). Die Kointegrationstheorie beruht auf der einfachen Vorstellung, dass Zeitreihen hoch korreliert sein können, obwohl es keine Kausalitätsbeziehung zwischen ihnen gibt. Bei einer „echten“ Beziehung müssen die Ergebniswerte nach einer Regression zwischen den Zeitreihen stationär sein. In diesem Falle sind die Zeitreihen “kointegriert”. Weil die stationären Restwerte im Mittel gegen “null” gehen, muss eine echte Langzeitbeziehung zwischen den Zeitreihen existieren, die sich über der Zeit annähern, weil sie einen gemeinsamen Trend haben. Wenn andererseits die Restwerte instationär sind, dann gehen die Restwerte nicht gegen “null”, die Zeitreihen haben keinen gemeinsamen Trend und die Beziehung zwischen ihnen ist „unecht“, weil die Zeitreihen nicht kointegriert sind. So kann sogar das R2 aus einer Regression zwischen instationären Zeitreihen 0,99 betragen, und dennoch die Beziehung „unecht“ sein.
Die ursprünglich von Engle and Granger (1987) entwickelte Methode der Kointegration geht davon aus, dass instationäre Daten bei Veränderungen Stationarität zeigen, auch Erst-Differenzen genannt. So kann sich die Temperatur über der Zeit erhöhen, also instationär sein, aber ihre Veränderung selbst stationär. Während der 1990er Jahre wurde die Kointegrationstheorie erweitert auf den Fall, wo eine Anzahl von Variablen zweimal differenziert werden muss (i.e. die Zeitreihen der Änderungen der Veränderung) bevor Stationärität erreicht wird. Diese Erweiterung ist als „polynomiale Kointegration” bekannt.
Frühere Analysen der Instationarität von Klimadaten-Zeitreihen (z.B. Kaufmann and Stern, 2002; Kaufmann et al., 2006a; Stern and Kaufmann, 1999) zeigten, dass Globaltemperatur und Sonneneinstrahlung stationär in erster Differenzierung sind, während das für Treibhausgase (in der Folge THG genannt) erst in zweiter Differenzierung zutrifft.
In der vorliegenden Studie wenden wir die Methode der polynomialen Kointegration an, um die Hypothese von der Verursachung der globalen Erwärmung seit 1850 durch verschiedene anthropogene Phänomene zu testen. Unsere Ergebnisse zeigen, dass die THG-Antriebe und andere anthropogene Phänomene nicht mit der Globaltemperatur und der Sonneneinstrahlung polynomial kointegriert sind. Deshalb, und trotz der hohen Korrelation zwischen anthropogenen Antrieben, Sonneneinstrahlung und Globaltemperatur zeigt sich für einen menschenverursachten Klimawandel statistisch keine Signifikanz. Die erkennbare statistische Beziehung zwischen Temperatur und anthropogenen Antrieben ist daher ein „unechtes“ Regressionsphänomen.

Daten und Methoden

Wir benutzen Jahres-Daten (1850–2007) der Treibhausgas-Konzentrationen und Antriebe (CO2, CH4 and N2O), dazu Antriebe für Aerosole (Schwarzkohle, reflektive troposphärische Aerosole). Wir benutzen dazu Jahres-Daten (1880–2007) für Sonneneinstrahlung, Wasserdampf (1880–2003) und globale Durchschnittstemperaturen (Meer und Land zusammengefasst 1880–2007). Diese weithin benutzten Sekundärdaten kommen von NASA-GISS (Hansen et al., 1999, 2001). Zu Details über diese Daten siehe den Data Appendix.
Wir führen Robustheitsprüfungen durch, indem wir neue Rekonstruktionen der Sonneneinstrahlung von Lean and Rind (2009) benutzen, die global gemittelten Temperaturen nehmen wir von Mann et al. (2008), die globalen Temperaturdaten der Oberflächen über Land (1850–2007) von der Berkeley Earth Surface Temperature Study [BEST]. Die Haupt-Zeitreihen sind in Fig. 1 abgebildet. http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Fig.1.jpg
Fig. 1. Zeitreihe der Veränderungen in mehreren Variablen, welche die Klimaänderungen im 20. Jahrhundert repräsentieren oder beeinflussen. a) Strahlungs-Antriebe (rf, in W m−2) von 1880 bis 2007 für CH4 (Methan) und CO2 (Kohlendioxid); (b) Gleicher Zeitraum wie in Abb. a, aber für Stickoxid (N2O); (c) Sonneneinstrahlung (linke Ordinate, in W m−2) und Jahresglobaltemperatur (rechte Ordinate, in C°) von 1880–2003.
Darin zeigen die Abb. a und b die Strahlungs-Antriebe für drei Haupt-THG, während Abb. c die Sonneneinstrahlung und Globaltemperatur zeigt. All diese Variablen haben positive zeitliche Trends. Die zeitlichen Trends in den Abb. a und b scheinen nichtlinearer zu sein als ihre Gegenstücke in Abb. c. Die nachher berichteten statistischen Tests enthüllen, dass die Trends in Abb. c linear sind, wohingegen die Trends in den Abb. a und b quadratisch sind. Der Trend in der Sonneneinstrahlung hat sich seit 1970 abgeschwächt, während der Temperaturtrend sich in den 1950ern und 1960ern zeitweilig abschwächte.
Die statistische Analyse instationärer Zeitreihen, wie z. B. die in Fig. 1, besteht aus zwei natürlichen Stufen. In der ersten werden Tests mit den Wurzeln der Einheiten gemacht, wobei die Daten nach Ordnung und Eigenschaft der Instationarität kategorisiert werden. Wenn die Daten instationär sind, sind die Kenngrößen der Stichprobenereignisse wie z. B. Varianzen, Ko-Varianzen zum Zeitpunkt der Stichprobe voneinander abhängig, dabei können die kleinsten Quadrate und die Abschätzungen der maximalen Wahrscheinlichkeiten der Parameter „unecht“ sein. In der zweiten Stufe werden diese instationären Daten benutzt um die Hypothesen anhand der Methode der Kointegration zu testen. Sie dient dazu, „echte“ von „unechten“ Beziehungen zwischen Zeitreihen unterscheiden zu können. Da die Leser von Earth System Dynamics vielleicht mit diesen Methoden nicht vertraut sind, geben wir eine Überblick über das Konzept und die Tests.

Ergebnisse

Eigenschaften der Zeitreihen der Daten

Eine rasche Betrachtung der Fig. 1 legt nahe, dass die Eigenschaften der Zeitreihen der  Treibhausgas-Antriebe (Abb. a and b) von denen der Temperatur und Sonneneinstrahlung (Abb. c) erkennbar abweichen. In Abb. a und b gibt es Hinweise auf Beschleunigung, wohingegen in Abb. c die beiden Zeitreihen stabiler zu sein scheinen.
In Fig. 2 plotten wir rfCO2 in erster Differenzierung, das bestätigt den Sichtbefund, dass rfCO2 nicht I (1) ist, besonders seit 1940.
http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Fig.2.jpg
Fig. 2. Zeitreihen von rfCO2 in erster Differenzierung.
Ähnliche Darstellungen sind auch für andere Treibhausgas-Antriebe verfügbar. In diesem Abschnitt kommen wir zu dem wichtigen Befund, dass die Treibhausgas-Antriebe in erster Differenzierung nicht trend-frei sind, während die Unterschiede der Temperatur und Sonneneinstrahlung trend-frei sind. Das ist konsistent mit unserer Hauptbehauptung, dass anthropogene Antriebe [intergriert von der Ordnung] I (2) sind, während Temperatur und Sonneneinstrahlung I (1) sind. Was wir hier rasch erkennen, wird durch formale statistische Tests für die Variablen in Tabelle 1 bestätigt.
http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Tab1.jpg
Obwohl die KPSS und DF-Typ Statistiken (ADF, PP und DF-GLS) unterschiedliche Null-Hypothesen testen, erhöhen wir nacheinander d bis sie geichlaufen. Wenn sie gleichlaufen, wenn d = 1 ist, dann typisieren wir die Variable als I (1), oder stationär hinsichtlich der Differenz. Bei den anthropogenen Variablen haben wir den Gleichlauf wenn d = 2. Weil die DF-Typ-Tests und die KPSS-Tests nicht zulassen, dass diese Variablen I (1) sind aber zulassen, dass sie I (2) sind, gibt es hier keinen unlösbaren Widerspruch. Die Sache hätte anders sein können, wenn gemäß der DF-Typ-Tests die anthropogenen Variablen I (1) gewesen wären, aber gemäß KPSS sind sie I (2).
Die erforderliche Anzahl von Erhöhungen für ADF ist irrelevant. Das häufig herangezogene Schwert-Kriterium benutzt eine Standardformel, die nur auf der Anzahl der Beobachtungen beruht, was wenig wenig hilfreich ist, weil dadurch Freiheitsgrade verloren gehen können. Wie schon gesagt, ziehen wir die Erhöhungen beim ADF-Test vor, solange bis die Restwerte seriell unabhängig werden, entsprechend einem La-Grange-Vervielfachungs-Test (LM). In den meisten Fällen werden 4 Erhöhungen gebraucht, bei  rfCO2, rfN2O und stratosphärischem H2O werden aber 8. Auf jeden Fall ist die Klassifizierung robust in Bezug auf Erhöhungen im Bereich von 2 bis 10. Deswegen glauben wir nicht, dass die Anzahl der Erhöhungen unsere Klassifikationen beeinflusst. Die KPSS- und Phillips-Perron-Statistiken benutzen die nichtparametrischen Standard-Newey-West Kriterien für die Berechnung von robusten Standardfehlern. Tatsächlich sehen wir, dass diese Statistiken etwa 4 Autokorrelationen benutzen, was unserem LM-Verfahren entspricht, um die Anzahl der Erhöhungen für ADF zu bestimmen.

Diskussion

We haben gezeigt, dass anthropogene Antriebe keine polynome Kointegration mit der Globaltemperatur und der Sonneneinstrahlung aufweisen. Daher stützen die Daten für den Zeitraum 1880-2007 nicht die Erklärung einer anthropogenen globalen Erwärmung in jenem Zeitraum. (Hervorhebung durch dieRedaktion) Dieses Hauptergebnis wird grafisch in Fig. 3 gezeigt, wo die senkrechte Achse die Komponente der Globaltemperatur misst, die nach unserer Einschätzung nicht durch die Sonneneinstrahlung erklärt werden kann.
http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Fig.3.jpg
Fig. 3. Statistische Assoziation zwischen (Plot der Punktwolke) der anthropogenen Anomalie (Abszissen) und dem Netto-Temperatur-Effekt (d.h. Temperatur minus geschätztem Sonneneinstrahlungs-Effekt; Ordinaten). Abb. (a) – (c) stellen jeweils die Modell-Ergebnisse dar, wie jeweils in den Modellen 1 und 2 in Tabelle 3 und Gleichung (13). Die anthropogene Trend-Anomalie summiert die gewichteten Strahlungsantriebe der Treibhausgase (CO2, CH4 und N2O). Die Berechnung der Veränderung des Netto-Temperatur-Effekts (wie oben definiert) erfolgt durch Subtraktion: Von der beobachteten Temperatur in einem bestimmten Jahr wird das Produkt von Sonneneinstrahlung in jenem Jahr multipliziert mit dem Koeffizienten, der aus der Regression der jeweiligen Modell-Gleichung gewonnen wird, subtrahiert: 1,763 im Falle von Modell 1 (a); 1,806 im Falle von Modell 2 (b); und 1,508 im Falle von Gleichung (13) (c).
In Abb. a misst die horizontale Achse die Anomalie beim anthropogenen Trend, wenn letzterer aus Antrieben von Kohlendioxid, Methan und Stickoxid abgeleitet wird. In Abb. b misst die horizontale Achse diese anthropogene Anomalie getrennt von den Treibhausgas-Antrieben. Troposphärische Aerosole und Schwarzkohle sind eingeschlossen. Die Abb. a und b zeigen beide, dass keine Beziehung zwischen Temperatur und der anthropogenen Anomalie existiert, wenn der Erwärmungseffekt der Sonneneinstrahlung in die Betrachtung einbezogen wird.
Wir haben aber herausgefunden, dass Treibhausgas-Antriebe möglicherweise einen zeitweiligen Effekt auf die Globaltemperatur ausübten. Dieses Ergebnis wird in Abb. c der Fig. 3 dargestellt, wo die horizontale Achse die Veränderung im geschätzten anthropogenen Trend darstellt. Die Abb. c zeigt aber klar, dass eine positive Beziehung zwischen Temperatur und Veränderung der anthropogenen Anomalie besteht, wenn der Erwärmungseffekt der Sonneneinstrahlung in die Betrachtung einbezogen wird.
Derzeit werden die meisten Belege für die Stützung der Klimawandel-Theorie durch Kalibrierungs-Methoden und die Simulation von globalen Zirkulations-Modellen (GCM) gewonnen. Aus der Kalibrierung ergibt sich, z. B. bei Crowley (2000), dass zur Erklärung des Temperaturanstiegs im 20. Jahrhundert, und besonders seit 1970, ein genügend starker anthropogener Effekt bestimmt werden muss. Bei den Kalibrierern jedoch erfährt man nichts von Tests der statistischen Signifikanz dieses Effekts, sie überprüfen auch nicht, ob der Effekt vielleicht „unecht“ ist. Die Implikation unserer Ergebnisse ist, dass der Dauer-Effekt nicht statistisch signifikant ist. Trotzdem scheint es einen temporären anthropogenen Effekt gegeben zu haben. Wenn der Effekt eher temporär als permanent ist, würde eine Verdoppelung der Kohlenstoff-Emissionen keinen langfristigen Effekt auf die Erdtemperatur haben, aber für einige Jahrzehnte würde sie zeitweilig erhöht werden. Solcherart ist unseres Erachtens der Temperaturanstieg zwischen 1975-1995 und die nachfolgende Stabilität mit der Beschleunigung der Kohlenstoff-Emissionen während der zweiten Hälfte des 20th Jahrhunderts verknüpft (Fig. 2). Die Implikationen für die Politik sind erheblich, weil ein zeitlich begrenzter Effekt weniger ernst ist als ein permanenter.
Die Tatsache, dass seit der Mitte des 19. Jahrhunderts die Erdtemperatur nicht mit anthropogenen Antrieben verbunden ist, widerspricht nicht den Gesetzen der Thermodynamik, nicht der Treibhaustheorie, oder irgendeiner anderen physikalischen Theorie. Bei der Komplexität des Erdklimas und unserem unvollkommenen Verständnis davon, ist es schwer, die Hauptursache für die globale Erwärmung im 20. Jahrhundert den Kohlenstoff-Emissionen oder anderen anthropogenen Phänomenen zuzuschreiben. Dieses Argument ist kein physikalisches, sondern es bezieht sich auf die Daten-Interpretation. Stützen die Klimaentwicklungen in der jüngsten Vergangenheit die Interpretation, dass die globale Erwärmung in diesem Zeitraum durch menschliche Handlungen verursacht wurden? Wenn die Erdtemperatur im 20. Jahrhundert nicht zugenommen hätte, trotz der Zunahme der anthropogenen Antriebe (wie es in der zweiten Hälfte des 19. Jahrhunderts der Fall war), wäre dies kein Beweis gegen die Treibhaustheorie. Aber unsere Ergebnisse stellen die Daten-Interpretation in Frage, derzufolge die globale Erwärmung seit 1880 ein anthropogenes Phänomen sei.
Auch widerspricht die Tatsache, dass während jener Periode die anthropogenen Antriebe I (2) sind, also stationär in zweiter Differnzierung, während Erdtemperatur und Sonneneinstrahlung I (1) sind, also stationär in erster Differenzierung, keiner physikalischen Theorie. Aus Gründen der Physik kann erwartet werden, dass diese Variablen über die Jahrtausende die gleiche Intergrationsordnung aufweisen; sie sollten alle I (1) sein oder alle I (2), andernfalls gäbe es ein andauerndes Energie-Ungleichgewicht. Für die vergangenen 150 Jahre besteht aber kein physikalischer Grund, warum diese Variablen die gleiche Intergrationsordnung aufweisen sollten. Die Tatsache, dass sie in jenem Zeitraum nicht von gleicher Integrations-Ordnung sind, gemahnt Wissenschaftler zur Vorsicht, wenn sie überzeugende Interpretationen abgeben wollen von einer anthropogenen Verursachung der jüngsten globalen Erwärmung. Unsere polynomialen Kointegrationstests stehen im Widerspruch zu einer derartigen Interpretation der Daten.
Schlussendlich sind alle statistischen Tests probabilistisch und sie hängen von der Spezifikation des Modells ab. Der Typ-1-Fehler bezieht sich auf die Wahrscheinlichkeit der Zurückweisung einer Hypothese, wenn sie wahr ist (falsch positiv). Der Typ-2-Fehler bezieht sich auf die Nicht-Zurückweisung einer Hypothese wenn sie falsch ist (falsch negativ). In unserem Falle ist der Typ-1-Fehler sehr klein, weil der anthropogene Antrieb I (1) ist, mit einer sehr kleinen Wahrscheinlichkeit, und die Temperatur ist polynomial kointegriert, ebenfalls mit sehr kleiner Wahrscheinlichkeit.
Wir haben auch mit einer Anzahl von Modell-Spezifikationen und Schätzmethoden experimentiert. Das bedeutet aber, dass, wie bei allen Hypothesen, unsere Widerlegung des anthropogenen Klimawandels keine absolute ist; sie könnte auf „falsch positiv“ lauten, Auch können wir die Möglichkeit nicht ausschließen, dass die jüngste globale Erwärmung einen anthropogenen Stempel trägt. Doch diese Möglichkeit ist sehr klein und auf konventionellem Level statistisch nicht signifikant.
Daten-Appendix.
http://relaunch.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/12/Bee_Data_Appendix.jpg

Related Files




Wer einmal lügt …

Die Temperaturabnahme verbergen (Hide the decline)

von David M. Hoffer

In meinen beiden vorhergehenden Artikeln zum durchgesickerten Kapitel 11 des IPCC-Zustandsberichts 5 (AR5) habe ich mir die Vorbehalte angesehen, die das IPCC inzwischen für seine Projektionen nennt, auch die langen Ausführungen, zu denen man Zuflucht nimmt, um den alarmistischen Tenor beizubehalten. Die Vorbehalte gehen sehr weit: Da steht doch tatsächlich, dass die Wirklichkeit innerhalb, oberhalb oder unterhalb der Projektionen der Modelle bleiben könnte. DAS möge man mal falsifizieren! Zur Beibehaltung des Alarmismus bezeichnet man die rekordverdächtige Eisausdehnung in der Antarktis als “leichte Zunahme”, und man erwähnt in der “Kurzfassung für Entscheidungsträger” eine im langen Bericht vergrabene Projektion nicht, derzufolge die Häufigkeit tropischer Wirbelstürme bis 2100 um ein Drittel abnehmen können.
Wie steht es mit den Temperatur-Projektionen? Wird gesagt, wie hoch die Erwärmung in den nächsten Dekaden ausfällt? Ja, das wird gesagt.
Diese Projektionen sind aber die risikoreichsten für das IPCC, weil sie – anders als die meisten anderen Projektionen – innerhalb der Lebenszeit der meisten Leser falsifiziert werden können (oder auch nicht). Unter Einhaltung der Form werden die Temperatur-Vorhersagen mit Vorbehalten versehen und dabei wird mit einem interessanten Ansatz der alarmistische Tenor beibehalten.
Die Vorhersage lautet auf 0,4 bis 1,0 Grad Erwärmung für den Zeitraum von 2016-2035 im Vergleich zu 1986-2005. Nun erwartet man eigentlich die „beste Einschätzung“ in der Mitte der Spannweite, wie es das IPCC normalerweise tut. Doch sonderbar: Wir finden im Kapitel 11 diesen Satz:

[…] es ist eher wahrscheinlich als nicht, dass die tatsächliche Erwärmung näher zur unteren Grenze von 0,4 °C liegt als zur
oberen Grenze von 1,0 °C

Das IPCC kommt vom normalen Weg auch an anderen Stellen ab, wo behauptet wird, dass das wahrscheinlichste Ergebnis etwa bei 0,2 Grad pro Dekade läge. Wie rechtfertigt man da für 2035 (in kaum mehr als 2 Dekaden) eine obere Grenze, die um das 2,5-fache höher ist als im wahrscheinlichsten IPCC-Szenario? Nachfolgend die Grafik, die mit den Projektionen angegeben ist, vom Beginn der Referenzperiode (1986-2005) bis einschließlich 2050:

Figur 11.33: Zusammenfassung der zeitlich näher liegenden Projektionen der globalen Durchschnittstemperatur an der Erdoberfläche. [Grafik a – c von oben nach unten]
a) 4 Projektionen des globalen Durchschnitts, der jährlichen Durchschnittstemperatur an der Erdoberfläche (SAT) 1986–2050 (Anomalien bezogen auf 1986–2005) unter allen RCPs von den CMIP5 Modellen (graue und farbige Linien, ein Element der Kurvenschar pro Modell), mit vier Beobachtungs-Schätzungen (HadCRUT3: Brohan et al., 2006; ERA-Interim: Simmons et al., 2010; GISTEMP: Hansen et al., 2010; NOAA: Smith et al., 2008) für die Periode 1986–2011 (schwarze Linien);
b) wie a) aber mit der 5–95% Bandbreite für RCP4.5 (hellgrau shattiert, der Multi-Modell-Median weiss) und alle RCPs (dunkelgrau schattiert) von dekadischen Durchschnitts-CMIP5-Projektionen unter Benutzung von einem Element der Kurvenschar pro Modell, und dekadische Beobachtungs-Durchschnitts-Schätzungen (schwarze Linien). Die Maximum- und Minimum-Werte aus CMIP5 sind mit den grauen Linien dargestellt. Eine ausgewertete wahrscheinliche Bandbreite für die Durchschnitte der Periode 2016–2035 wird mit dem schwarzen durchgehenden Balken angezeigt. Die um „2 C° über präindustriell“ liegende Temperatur wird mit einer dünnen schwarzen Linie angezeigt, dabei wird eine Erwärmung der globalen Durchschnitts-SAT vor 1986–2005 von 0.6 C° angenommen.
c) Eine Zusammenstellung der Bandbreiten für die Durchschnitts-SAT für 2016–2035 aus SRES CMIP3, RCPs CMIP5, beobachtungsbegrenzten Projektionen (Stott et al., 2012; Rowlands et al., 2012; aktualisiert durch Weglassen von Simulationen mit zukünftigen großen vulkanischen Eruptionen), und eine Gesamtabschätzung. Der Kasten 1 und die Schlangenlinien stellen die wahrscheinlichen (66%) und sehr wahrscheinlichen (90%) Bandbreiten dar. Die Punkte für die CMIP3- und CMIP5-Schätzungen zeigen die Maximum- und Minimum-Werte in der Kurvenschar an. Der Median (oder Abschätzung der größten Wahrscheinlichkei für Rowlands et al., 2012) sind mit einem grauen Band dargestellt.

Ist die erste Grafik ernst zu nehmen? Können 154 Datenkurven, dazu noch alle zusammen dargestellt, überhaupt eine Bedeutung haben? Also habe ich mich mit der zweiten Grafik [mittlere] beschäftigt, die ist brauchbarer. Bei der Überprüfung merkte ich, dass etwas fehlt. Nehmen Sie sich 5 Minuten Zeit und schauen Sie, ob Sie es selbst entdecken!
Haben Sie es gefunden?

Die Abnahme [der Temperatur] ist unterschlagen!

In der ersten Grafik hören die Beobachtungsdaten etwa bei 2011 oder ‘12 auf, die zweite Grafik aber endet etwa bei 2007 oder ‘08. Vier oder fünf Jahre mit Beobachtungsdaten fehlen in der zweiten Grafik. Glücklicherweise sind beide Grafiken gleich skaliert, daher kann man leicht die Daten mit Hilfe des „Ausschneiden/Einfügen-Werkzeugs“ von der ersten Grafik in die zweite Grafik übertragen und sehen, wie sie aussehen müsste:
 
Na bitte! Nach der Aktualisierung der Beobachtungsdaten zeigt sich, dass wir uns derzeit in allen Szenarien unterhalb der Bandbreite der Modellrechnungen befinden, die ja immerhin innerhalb eines Vertrauensbandes von 5% bis 95% liegen, und das für alle Emissionsszenarien. Die hellgraue Schattierung ist für RCP 4,5 – für das Emissions-Szenario mit der höchsten Wahrscheinlichkeit. Wir liegen aber auch unterhalb des dunkelgrauen Bandes, welches für alle Emissionsszenarien für alle Modelle gilt, darin auch für diejenigen, die die globale Wirtschaft abwürgen würden.

Es kommt noch schlimmer

Ich habe ein bisschen mit der Hüllkurven-Mathematik ["Einhüllende“ – "Enveloppes"] gespielt und gerechnet (ja, ja, welche Kalkulationstabelle hat heute noch Funktionen für die Behandlung von „Einhüllenden“ ?). Dabei ging ich von einer linearen Erwärmung aus, beginnend mit dem aktuellen Datum. Dabei kam heraus, dass man 1,58 Grad oberhalb der Referenzperiode liegen müsste, um das durchschnittliche +1,0-Grad über der Referenzperiode zu erhalten. Wenn meine Rechnung stimmt, müsste eine extrapolierte Gerade durch die 1,6 Grad im Jahre 2035, ausgehend vom derzeitigen Beobachtungstand, gerade den oberen Rand der schwarzen Linie treffen, die die “wahrscheinliche Bandbreite“ in der Mitte der Grafik darstellt:

Ha, erwischt!

Und noch eins drauf!

Um die obere Grenze der vom IPCC geschätzten Bandbreite zu erreichen, würde man – ausgehend von einer Erwärmung, die selbst nach allen IPCC-Modellen und Daten noch unterhalb aller Projektionen liegt – einen plötzlichen Sprung auf eine höhere Rate benötigen, als alle Modelle und Emissionsszenarion vorsehen. Mit einfachen Worten: der obere Bereich der IPCC-Schätzungen kann nicht einmal mit Hilfe der IPCC-eigenen Daten und den IPCC-eigenen Modellen bestätigt werden.
Tatsächlich haben wir – und dies nur auf der IPCC-Grafik beruhend – weniger als 0,4 Grad während der vergangenen etwa 26 Jahre erlebt, weniger als 2 Grad pro Jahrhundert. Die braune von mir eingefügte Linie – [diese Linie kann auf einigen Bildschirmen auch als „rot“ erscheinen] – stellt einen Erwärmungstrend dar, der gerade jetzt beginnt und bis 2035 geht mit 6 Grad pro Jahrhundert, dreimal so hoch wie die jüngsten Raten. Und weil die Bandbreite der IPCC-Grafik bereits Szenarien mit drastischen Reduzierungen der Aerosole wie auch größere Zunahmen beim CO2 enthält, gäbe es eigentlich keine Rechtfertigung für eine Obergrenze von 1,0 Grad in den IPCC-Daten und in den IPCC-Modellen.
Ich will nicht sagen, das wäre unmöglich, nein, es ist möglich. Es ist aber auch möglich, dass ich morgen gleich zweimal von einem Blitz getroffen werde und überlebe, um dann in einem Flugzeugabsturz umzukommen, der zusätzlich noch unwahrscheinlicher wäre, weil ich morgen überhaupt nicht fliegen werde. Das Flugzeug müsste also zuerst zu mir kommen und mich finden. Weil ich ein Glückskind bin, wird der Lottoschein mit den sechs Richtigen in meiner Brieftasche gefunden werden, – nur um noch eins draufzusetzen.

Ist so etwas möglich? Klar doch! Ist es aber auch wahrscheinlich?

Nicht nach den IPCC-Daten und Modellen. Die derzeitige Version von IPCC AR5 Kapitel 11 erreicht bei der Täuschung (vorsätzlich oder nicht) eine neue Höhe. Erstens durch das Verbergen der Tatsache, dass die Beobachtungsdaten außerhalb des 95%-Vertrauensbereichs der IPCC-Modelle und liegen, und zweitens durch die Schätzung eines oberen Bereichs der Erwärmung, der selbst nach den IPCC-Modellen nahezu unmöglich erreicht werden kann.
#######################
Weitere einschlägige Artikel
IPCC AR5 Chapter 11 – Maintaining the Spin (wattsupwiththat.com)
IPCC Chapter 11 – Bankruptcy Protection (wattsupwiththat.com)
The real IPCC AR5 draft bombshell – plus a poll (wattsupwiththat.com)
An animated analysis of the IPCC AR5 graph shows ‘IPCC analysis methodology and computer Models are seriously flawed’ (wattsupwiththat.com)
Übersetzung: Helmut Jäger, EIKE.
Anmerkungen des Übersetzers in […]
Original hier.
Das Entwurfskapitel 11 des AR5 kann hier heruntergeladen werden.




Sonnenvorhersage für 2012: Eine Überprüfung!

An dem Tag, als jener Artikel geschrieben wurde, hatte es 5 aufeinander folgende Monate mit einer starken Zunahme der Sonnenaktivität gegeben. Während dieser Zeit hat sich die Sonnenfleckenzahl von 37 auf 97 nahezu verdreifacht. Sie sprang über das für den Zyklus 24 vorhergesagte Maximum von 90, das damals für Anfang 2013 erwartet worden war.
Seitdem hat sich eine Menge geändert. Die Überraschungen in der Sonnenphysik gehen immer weiter. Ihre Bedeutung hinsichtlich des globalen Klimas beginnen jetzt erst, sich zu klären.

Sonnenaktivität im Jahr 2012

Die beiden Bilder rechts zeigen die Veränderungen im Laufe des vergangenen Jahres. Sie entzogen sich immer noch der Prognose. In nur drei Monaten zu Beginn des Jahres 2012 ist die Sonnenfleckenzahl stärker zurück gegangen als sie in den fünf Monaten zuvor angestiegen war. Sie blieb seitdem immer niedrig. Heute ist klar, dass sich die Sonne merkwürdig oder merkwürdiger als vor einem Jahr verhält.
Komischerweise wird die Sonnenfleckenzahl im Jahr 2012 um 59,2 liegen, nur wenig mehr als 55,6 im Jahr zuvor. In beiden Jahren blieb sie den offiziellen Aufzeichnungen des Royal Observatorium of Belgium zufolge, die diese Zahl für die ganze Welt dokumentiert, immer noch unter dem bislang niedrigsten Spitzenwert seit 200 Jahren!
Der heutige Wert der Sonnenfleckenzahl beträgt müde 37.

Erkenntnisse des Jahres 2012

2012 hat die STEREO-Mission der NASA ein paar der besten 3D-Videos solarer CMEs überhaupt eingefangen:
Massive Filament Erupts on Sun
One of the Fastest CMEs on Record
Viele große Entdeckungen wurden 2012 gemacht. Eine davon ist der dramatische Sprung der Sonnenaktivität Ende 2011, welcher ein letzter absterbender Atemzug des Maximums der nördlichen Hemisphäre war, die ihr solares Maximum früher als erwartet erreicht hatte. Es wurde klar, dass die beiden Hemisphären der Sonne ihr Maximum zu unterschiedlichen Zeiten erreichen. Das Maximum der südlichen Hemisphäre könnte sich bis 2014 hinziehen.
Zyklus 24 beginnt, sehr dem Zyklus 14 zu ähneln, der vor 105 Jahren, also zwischen 1905 bis 1907, eine Doppelspitze aufwies. Einige Solarphysiker sagen auch diesmal einen Doppelgipfel voraus.
Sollte der Spitzenwert des Zyklus’ 24 unter einer Sonnenfleckenzahl von 60 liegen, wie es derzeit der Fall ist, wäre das das erste Mal seit dem Zyklus 6 im Jahr 1815 während des Dalton-Minimums.
Sonnenphysiker wie Leif Svalgaard, der sich gegen die vorherrschende Denkweise gewandt und eine sehr geringe Sonnenflecken-Aktivität bereits im Jahr 2005 vorhergesagt hatte, wurden 2012 in vollem Umfang bestätigt. Die geringe Sonnenflecken-Aktivität 2012 passt auch gut zu den Aufsehen erregenden Verlautbarungen [„bombshell announcements“] einer Konferenz in Las Cruces, Neu-Mexiko im Juli 2011.
Inzwischen sprechen Sonnenphysiker es laut aus … ein Grand Minimum der Sonnenaktivität ist im Entstehen und wird sich auf den nächsten und möglicherweise auch weitere Zyklen a

Schlussfolgerungen

Die Vorhersage einer Verschiebung des Paradigmas in unserem Verständnis der Sonne hat sich nicht bewahrheitet. Aber die Umkehrung der Sonnenaktivität 2012 bekräftigte dramatisch die überraschenden Ergebnisse der 2011 in Las Cruces verkündeten Entdeckungen.
Eine weitere überraschende Entdeckung 2012 fand sich in den aktualisierten Daten der Luft- und Wassertemperaturen weltweit von HadCRUT, dass nämlich die Temperatur der Erde seit 15 Jahren nicht mehr gestiegen ist.
Sowohl während des Dalton- als auch während des Maunder-Minimums war es kälter als heute. Die Frage ist, ob es auch beim kommenden Grand Minimum kälter sein wird.
Nahezu alle Sonnenphysiker glauben, dass das Maximum des gegenwärtigen Zyklus’ 24 außerordentlich ruhig verlaufen wird und dass im Zyklus 25 eher noch geringere Aktivität herrschen wird, wenn es einen solchen überhaupt noch geben sollte. Das letzte Mal geschah Vergleichbares während des Dalton-Minimums vor 200 Jahren und des Maunder-Minimums vor 400 Jahren.
Das IPCC glaubt nicht, dass es kälter wird, aber es bleibt die Tatsache, dass die gemessenen Temperaturen der Erde unter deren Projektionen liegen.
Was als Nächstes passiert, könnte für die kurzfristige Klimazukunft des Erdklimas sehr interessant sein.
azleader
Link: http://informthepundits.wordpress.com/2012/12/31/2012-sun-prediction-in-review/
Übersetzt von Chris Frey EIKE




Europa sucht nach Alternativen zu Russlands Erdgas

Bild rechts: Vom russisch-ukrainischen Gasstreit 2009 betroffene [affected] Länder
Europa ist derzeit zu einem Viertel seines Gasverbrauchs von Russland abhängig, eine Tatsache, die 2006 und 2009 grell ins Rampenlicht rückte, als der staatliche Gasriese Gazprom nach Streitigkeiten über den Preis die Gaslieferungen in die Ukraine stoppte, was die Lieferungen in andere europäische Länder in bitterkalten Wintern beschnitten hat. South Stream zielt teilweise darauf ab, etwas Ähnliches durch die Umgehung der Ukraine zu vermeiden.
Allerdings ist unklar, wie diese Strategie aussehen soll, wenn Länder in Mittel- und Osteuropa, die stark von russischem Gas abhängig sind, damit anfangen, ihre Versorgung auf viele Beine zu stellen.
Neue alternative Quellen lassen die globalen Preise sinken und ernste Fragen über Gazprom und seiner langfristigen Strategie aufkommen. Die Energielandschaft verändert sich selbst hier in der Ukraine, DEM Symbol der Energieabhängigkeit von Russland.
Zu den neuen Entwicklungen der Gasindustrie gehört, dass die Ausbeutung von Schiefergas in den USA den ehemaligen Importeur zu einem Exporteur macht, mit der unbeabsichtigten Nebenwirkung, Importe aus den Nahem Osten freizusetzen, genau zu der Zeit, in der die europäischen Länder diversifizieren wollen.
Gleichzeitig führt verflüssigtes Erdgas (LNG), das man rund um die Welt verschiffen kann, zu einem Boom auf dem sog. Spotmarkt in Europa.

„Die Gaspreise in den USA sind nur halb so hoch wie die Spotmarktpreise in Europa, und die Spotmarktpreise sind etwa halb so hoch wie die europäischen Preise von Gazprom”, sagt Anders Aslund vom Peterson Institute in Washington. „Das kann nicht so weitergehen. Vor allem Gazprom muss seine Preise senken“.

Angesichts dieser Gelegenheit trachten osteuropäische Länder danach, langzeitliche Verträge mit Gazprom zu revidieren, angestachelt von einer europäischen Prüfungskommission gegen die Festsetzung von Gaspreisen durch das russische Monopoly.
Die im September eingeleitete Untersuchung soll vermutete Versuche unter die Lupe nehmen, die Märkte in Bulgarien, Polen und anderen Ländern zu monopolisieren.
Auch Litauen hat Gazprom auf 2,5 Milliarden Dollar Schadenersatz verklagt, verursacht durch die vermuteten Preisverzerrungen von 2004 bis 2012.
Polen, welches zwei Drittel seines Gases aus Russland importiert, hat seinen Vertrag mit Gazprom neu verhandelt wegen eines geschätzten Abschlags um 15% im November, ein Jahr nach Einreichung einer Klage gegen das Unternehmen am Stockholmer Schiedsgericht.
Die polnische Position wurde durch die Entdeckung von Schiefergas mit geschätzten 350 bis 760 Milliarden Kubikmeter gestärkt, weit über dem jährlichen Gasverbrauch von 14 Milliarden Kubikmetern. Die Regierung stellt derzeit Förderungs-Lizenzen aus.
Diese Entwicklungen werden in der Ukraine, dem größten Einzelkunden von Gazprom, sorgfältig beobachtet. Das Land hat am meisten von der South Stream-Pipeline zu fürchten, weil ihm Transitgebühren verloren gehen. Gazprom hat bereits jetzt einige Gaslieferungen auf die North Stream-Pipeline umgeleitet, einer neuen Route, auf der russisches Gas direkt nach Deutschland gepumpt wird.
Die Wirtschaft der Ukraine wurde durch hohe Energiekosten schwer bedrängt, verschlimmert durch die niedrige Energieeffizienz – dem International Monetary Fund zufolge lediglich 60% des Mittelwertes in Europa.
Nicht in der Lage, ein neues Abkommen mit Gazprom zu erreichen, hat die Ukraine versprochen, den Verbrauch von Importgas im Jahr 2013 um mehr als die Hälfte zu reduzieren, trotz Warnungen aus Moskau, dass es Kiew 2 bis 3 Milliarden Dollar in Rechnung stellen will, zusammen mit einer Klausel im derzeitigen Abkommen, in dem Kiew verpflichtet wird, die vereinbarte Menge „zu kaufen oder abzunehmen“.
Russland hat gesagt, dass jedwede Abschläge Bedingung für den Verkauf ukrainischer Anteile an Pipelines und anderen Schlüsselbereichen der Energie-Infratruktur sind oder für den Beitritt des Landes zu einer Zollunion zwischen Russland, Weißrussland und Kasachstan.
Nichtsdestotrotz hat der ukrainische Präsident Janukowitsch vor Kurzem angekündigt, dass Kiew den staatlichen Verbrauch von 40 Milliarden Kubikmeter im Jahr 2011 auf 27 Milliarden 2012 und 18 Milliarden in 2013 reduzieren will.
„Unser einziges Mittel, die Situation zu beeinflussen, sind fortgesetzte Reduktionen des Volumens des russischen Gashandels”, sagte er.
Um dennoch hinzureichen trachtet die Ukraine nach unkonventionellen Quellen und dem Energieminister der Ukraine zufolge danach, russisches Gas durch Deutschland zu importieren, was 40 bis 70 Dollar pro 1000 Kubikmeter billiger wäre als die Versorgung direkt aus Russland.
Das Land arbeitet auch daran, Alternativen auszuweiten. Die staatliche Öl- und Gaskompanie Naftogaz unterschreibt Verträge, die potentiellen 0,8 bis 1,5 Billionen Kubikmeter reichen Schiefergas-Lagerstätten zu erkunden. Im vorigen Sommer hat Kiew Verträge mit ExxonMobil und Royal Dutch Shell unterzeichnet, um die Offshore-Ausbeutung zu beflügeln. Man möchte auch ein LNG-Terminal bauen.
Am Montag hat Naftogaz ein Abkommen bekannt gegeben, 3,7 Milliarden Euro von der China Bank Development Corporation zu leihen, um von Gas auf Kohle umzusteigen.
Russland hat aber immer noch mehr als nur ein paar Trümpfe im Ärmel. South Stream wird möglicherweise alle Hoffnungen der von der EU gesponserten Nabucco-Pipeline dämpfen, welche Zugang zu reichlichen Vorkommen in mittelasiatischen Lagerstätten versprach.
Das heißt aber nicht, dass sich South Stream auszahlt. Analysten stellen auch die Brauchbarkeit anderer Gazprom-Projekte in Frage, die ebenfalls als politisch motiviert angesehen werden – wie zum Beispiel Pläne, eine Pipeline durch Sibirien nach China zu bauen, das derzeit billigeres Gas aus Turkmenistan bevorzugt.
Missmanagement und die Unfähigkeit zu Innovationen haben zum Rückgang der Gazprom-Einnahmen beigetragen, während die Kosten weiterhin hoch sind. Dies führte teilweise zu einem Rückgang der Gazprom-Einnahmen um 50 Prozent im zweiten Quartal des Jahres, während der Marktwert des Unternehmens dreifach seit dem Spitzenwert im Jahr 2008 gesunken ist. Damals sah es so aus, als würde Gazprom zum größten Unternehmen weltweit werden.
Aslund glaubt, dass Korruption Gazprom vom profitabelsten Unternehmen in ein russisches Enron verwandelt hat, gerade als neue Technologien anfangen, den Einkommensstrom zu betreffen. Das wird nur den Hebel der europäischen Länder stärken, die ihre Versorgung diversifizieren wollen.
Jakub Parusinski, Alaska Dispatch
Link: http://www.thegwpf.org/europe-seeking-alternatives-russias-natural-gas/
Übersetzt von Chris Frey EIKE