Urteil des Bundesverfassungsgerichtes über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie und ein Schweizer Volksentscheid

von  Rainer Küper

Am 06. Dezember 2016 verkündete das Bundesverfassungsgericht (BVerfG) das Urteil im Verfahren über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie, der 2011 von Bundesregierung und Bundestag beschlossen worden war.

Das BVerfG stellt fest, dass Enteignungen nicht vorgenommen worden sind. In diesem Falle wäre Eigentum entzogen worden und in das Eigentum der öffentlichen Hand überführt worden. Die Eigentumsverhältnisse der 2011 stillgelegten Kernkraftwerke und die der laufzeitbeschränkten Kernkraftwerke sind aber unverändert.

Mit der 13. AtG-Novelle von 2011 sind lediglich Produktionslizenzen entzogen worden, ein Vorgang, mit dem jedes Unternehmen zu rechnen hätte.

Die vom BVerfG erkannten Verstöße gegen das Grundgesetz betreffen daher nur zwei Bereiche:

  1. 2002 wurden mit der Laufzeitbegrenzung der Kernkraftwerke Produktionsmengen festgelegt, die einen besonderen Vertrauensschutz genießen. Deren Nichtausschöpfung infolge der 2011 festgelegten starren Abschalttermine ist entschädigungswürdig. Insofern ist die 13. AtG-Novelle grundgesetzwidrig.
  2. Investitionen der Betreiber aufgrund der im Dezember 2010 vom Bundestag beschlossenen Laufzeitverlängerung der Kernkraftwerke, die aufgrund des Japan-Tsunamis im März 2011 zugunsten früherer und fester Abschalttermine zurückgenommen wurde, werden als gefrustete Investitionen gewertet. Sie sind ebenfalls entschädigungswürdig. Auch insofern ist die 13. AtG-Novelle grundgesetzwidrig.

In der Bewertung einer Technik ist der Bundestag jedoch frei. Der Bundestag kann jederzeit eine Technik zulassen oder verbieten.

Den konkreten Fall des beschleunigten Ausstiegs aus der Kernenergie beurteilt das BVerfG wie folgt, vgl. untenstehenden Link zur Pressemitteilung:

„[…] Demgegenüber sind die mit der 13. AtG-Novelle verfolgten Gemeinwohl­belange (Leben und Gesundheit der Bevölkerung, Schutz der natür­lichen Lebensgrundlagen) von hohem Wert und in der konkreten Umsetzung der Rücknahme der Laufzeitverlängerung von 2010 von großem Gewicht. Der Gesetz­geber wollte den 2002 beschlossen Ausstieg aus der friedlichen Nutzung der Kernenergie beschleunigen, indem er feste Abschalt­termine einführte und die Ende 2010 erfolgte Ver­längerung der Laufzeiten rückgängig machte. Hierdurch wurde eine Risikominderung von ganz erheblichem Ausmaß erreicht. Dabei ist auch nicht zu beanstanden, dass der Gesetz­geber auf die Ereignisse in Fukushima reagierte, obwohl hieraus keine neuen Gefährdungs­erkennt­nisse abgeleitet werden konnten. Wie weit allein geänderte politische Wertungen oder gewachsene Befürch­tungen und Ängste in der Bevöl­kerung auch Maß­nahmen tragen können, die ‑ wie die Beschleuni­gung des Atom­ausstiegs ‑ erheblich in Grundrechte der Betrof­fenen eingreifen, und welches Gewicht ihnen beigemessen werden kann, lässt sich allerdings nicht allgemein bestimmen. Jedenfalls bei der Beurteilung einer Hoch­risiko­techno­logie, deren Schadens­risiken in besonderem Maße von einer politi­schen Bewertung und einer öffent­lichen Akzeptanz abhängig sind, kann auch Ereignissen ein eigenes Gewicht beigelegt werden, die allein das Bewusst­sein der Öffent­lichkeit für diese Risiken ändern, obwohl neue Gefährdungen nicht erkennbar sind. […].“

Das BVerfG trägt eine Begründung vor, die den Anschein erweckt, Bundes­re­gierung und Parlament nicht schaden zu wollen.

Das BVerfG behauptet pauschal, mit den neuen festen Abschaltterminen „wurde eine Risikominderung in erheblichem Ausmaß“ erreicht, obwohl „keine neuen Gefährdungserkenntnisse abgeleitet werden können“.

Sollte das Risiko des Betriebes der Kernkraftwerke nicht tolerierbar sein, dann müssten alle sofort stillgelegt werden. Das sofortige Stilllegen der 8 Kernkraftwerke im März 2011 reduziert das Risiko um weniger als den Faktor 2, also nicht „erheblich“. In der Probabilistik sind erst Faktoren von 10 resp. 1/10 von Bedeutung. Faktor 2 ist Rauschen. Die Stilllegung der restlichen Kernkraftwerke würde erst ab Ende 2022 das Risiko aus dem Leistungsbetrieb auf Null setzen. Solange sich Brennelemente im Kraftwerk befinden, bleibt ein Risiko größer als Null, wenngleich extrem klein. Der Risikogewinn besteht als nur darin, dass Kernkraftwerke statt bis ca. 2030 nur bis 2022 im Leistungsbetrieb sein werden.

Das BVerfG erkennt an, dass für den Betrieb der Kernkraftwerke keine „neuen Gefährdungserkenntnisse“ vorliegen. Die Risikominderung kann also allenfalls die Differenz zwischen dem genehmigten extrem-winzig und dem zukünftigen hyper-winzig sein. 1/20 von ganz wenig über Null bleibt aber ganz wenig über Null. Insofern kann von „Risikominderung von ganz erheblichem Ausmaß“ keine Rede sein.

Das BVerfG widmet sich auch der Willkür von Bundesregierung und Bundestag, die mit hü und hott heute dies und morgen jenes durchsetzen und hat damit einen Entschädigungsanspruch begründet.

Insgesamt erscheint das BVerfG-Urteil jedoch mehr politisch als sachlich motiviert zu sein.

Die BVerfG-Begründung ist auch insofern verwunderlich, als sie jederzeit auf andere Industriezweige übertragbar ist. Der Bundestag könnte z. B. übermorgen beschließen, dass der eine oder der andere Zweig der chemischen Industrie ihm wegen eines Bauchgefühles zu gefährlich erscheine, das Risiko „in erheblichem Ausmaß“ gemindert werden müsse, und die Produktion stillzulegen sei. Da in diesem Falle nicht einmal mit vereinbarten Produktionsmengen argumentiert werden kann, würde der betroffene Betrieb der chemischen Industrie zwar nicht im juristischen Sinne, aber im praktischen Sinne per parlamentarischer Willkür über Nacht enteignet worden sein.

In Deutschland wird geschwurbelt, bis das Urteil zur Politik passt. Ohne Geschwurbel, klar und eindeutig das Votum des Schweizer Volkes am 27.11.2016 gegen die vorzeitige Stilllegung der Kernkraftwerke in ihrem Land. In der Schweiz hat das Volk entschieden, dass die Kernkraftwerke in Betrieb bleiben dürfen, solange sie sicher sind. Über die Kriterien entscheidet das Volk.

Das Deutsche Volk dagegen begnügt sich damit, andere über sich entscheiden zu lassen.

Links:




Politisierung der Klimawissenschaft ist kein neues Phänomen

Im Jahre 1988 riefen die Vereinten Nationen, eine politische Institution, die globale Erwärmungsberichte schreibende Unternehmung Intergovernmental Panel on Climate Change (IPCC) ins Leben. Das IPCC wurde gegründet mit der Aufgabe, politische Agenden zu stützen. Und im Jahre 1995 korrumpierte die Politik die Klimawissenschaft, als Politiker die Sprache des Zweiten IPCC-Zustandsberichtes änderten dergestalt, dass sie die von den Wissenschaftlern beschriebenen Unsicherheiten herausgestrichen haben. Bis auf den heutigen Tag kann die klimawissenschaftliche Gemeinschaft nicht wirklich unterscheiden zwischen der natürlichen und der anthropogenen globalen Erwärmung. Warum? Die in herangezogenen Studien verwendeten Klimamodelle können immer noch nicht Zustände der natürlichen Variabilität simulieren, die im multidekadischen Zeitmaßstab globale Erwärmung verursachen können.

Einführung

Der Skeptizismus von Donald Trump hinsichtlich einer vom Menschen verursachten globalen Erwärmung/Klimawandels war ein Konzentrationspunkt der Mainstream-Medien während der Wahlen in den USA. Das ist er immer noch in den Köpfen vieler Umweltaktivisten und ihren Verbündeten in den Medien. Eine Unmenge von Artikeln und Diskussionen wurde geschrieben bzw. gesendet, was die politische Natur der Klimawissenschaft für jedermann erneut sichtbar werden ließ.

Aber vor wie langer Zeit wurde die Klimawissenschaft politisiert?

Ich wurde an die Antwort auf diese Frage erinnert bei der Lektüre des jüngsten Blogbeitrags von Dr. Roy Spencer Global Warming: Policy Hoax versus Dodgy Science. Er beginnt diesen Beitrag so:

Anfang der neunziger Jahre besuchte ich den Wissenschaftsberater des Weißen Hauses Sir Prof. Dr. Robert Watson, der sich hochtrabend beweihräucherte, wie man doch erfolgreich den Gebrauch von Freon reguliert habe, um das Problem des Ozon-Abbaus zu lösen. Jetzt sei es das nächste Ziel, auch Kohlendioxid zu regulieren, von dem man zu jener Zeit glaubte, dass es die einzige Ursache für globale Erwärmung sei.

Ich war ein wenig begeistert ob dieses Verfahrens, den Karren vor das Pferd zu spannen. Es kam mir wirklich so vor, dass das politische Ziel in Stein gemeißelt werden sollte, und dass das neu gegründete IPCC jetzt die ziemlich dubiose Aufgabe hatte, die Wissenschaft zur Unterstützung dieser Politik zu erzeugen.

Die dubiose Aufgabe, die Wissenschaft zur Unterstützung von Politik zu erzeugen

Um Dr. Spencers Statement bzgl. des Karrens vor dem Pferd zu bekräftigen, werde ich einen Auszug aus der Einführung zu meinem über 700 Seiten starken Nachschlagewerk (ein Gratis-E-Buch) mit dem Titel On Global Warming and the Illusion of Control – Part 1 wiederholen. Dieser Auszug enthält Zitate der UN und des IPCC zusammen mit den Links zu den zitierten Websites. Unter der Überschrift [übersetzt] „Es ist ein Irrtum zu glauben, dass das IPCC eine wissenschaftliche Institution ist“ schrieb ich:

Das IPCC ist eine politische Einrichtung und nicht eine wissenschaftliche. Das IPCC leitet seine Eingangs-Paragraphen seiner History-Website mit den Worten ein (Hervorhebung von mir [Tisdale]):

Das IPCC wurde im Jahre 1988 ins Leben gerufen. Es wurde gebildet durch die Weltwetterorganisation WMO und durch das United Nations Environment Program (UNEP) aufgebaut, um auf der Grundlage aller verfügbaren wissenschaftlichen Informationen Zustandsberichte über alle Aspekte des Klimawandels und deren Auswirkungen zu erstellen mit Blick auf zu entwickelnde realistische Strategien, dem zu begegnen. Die ursprüngliche Aufgabe des IPCC, wie sie in der Resolution 43/53 des UN-Generalsekretariats vom 6. Dezember 1988 umrissen worden ist, war die Vorbereitung einer umfassenden Übersicht und Empfehlungen zu geben hinsichtlich des Status‘ des Wissens um die Wissenschaft vom Klimawandel; die sozialen und wirtschaftlichen Auswirkungen des Klimawandels sowie mögliche Strategien, dem zu begegnen, und Konzepte für die Inklusion in mögliche zukünftige internationale Konventionen bzgl. Klima.

Folglich ist das IPCC gegründet worden, damit es Berichte schreibt. Zugegeben, es sind sehr detaillierte Berichte; so sehr, dass kaum jemand diese Berichte zur Gänze liest. Von den wenigen Menschen, die das doch tun, lesen die meisten nur die ,Summary for Policymakers‘. Aber ist man sich der Tatsache bewusst, dass Politiker in wochenlangen Diskussionen jedem einzelnen Wort in dieser Summary zustimmen müssen? Die Wissenschaftler schreiben eine Vorlage für die Politiker, aber die Politiker debattieren über die Formulierung jedes einzelnen Satzes und ob dieser überhaupt in der Summary auftauchen sollte. Und jene wochenlangen politischen Debatten über die Summary for Policymakers finden unter Ausschluss der Öffentlichkeit statt.

Ebenso geht aus obigem Zitat hervor, dass der Inhalt der IPCC-Berichte dazu gedacht war, ein internationales Klimawandel-Abkommen zu unterstützen. Jener Vertrag aus dem Jahr 1992 ist bekannt unter der Bezeichnung United Nations Framework Convention on Climate Change (UNFCCC). Eine Ausgabe des UNFCCC gibt es hier. Unter der Überschrift von Artikel 2 – Objective – definiert das UNFCCC sein Ziel als die Begrenzung der Emission von Treibhausgasen (Hervorhebung von mir):

Die ultimative Objektive dieser Convention und jedweder damit in Beziehung stehender rechtlicher Instrumente, die zu übernehmen der Conference of Parties empfohlen wird, ist es, in Übereinstimmung mit den relevanten Vorschriften der Convention die Stabilisierung von Treibhausgas-Konzentrationen in der Atmosphäre zu erreichen auf einem Niveau, welches eine gefährliche anthropogene Interferenz mit dem Klimasystem verhindern soll.

Weil es die Objektive des UNFCCC-Vertrages ist, die Emissionen anthropogener Treibhausgase zu limitieren, und weil es das Ziel des IPCC ist, Berichte zu erstellen, die den Vertrag stützen, kann man mit einiger Sicherheit sagen, dass es die einzige Rolle des IPCC ist, wissenschaftliche Berichte zu erstellen, die die vermeintliche Notwendigkeit zur Begrenzung von Treibhausgas-Emissionen stützen. Hmmm. Könnte diese Vorgabe wissenschaftliche Untersuchungen und das Verständnis begrenzen?

Weiter unten im Einführungsabschnitt der History-Website des IPCC heißt es (Hervorhebungen von mir):

Heute ist es die Aufgabe des IPCC, definiert in den Principles Governing IPCC Work „… auf einer umfassenden, objektiven, offenen und transparenten Grundlage die wissenschaftlichen, technischen und sozio-ökonomischen Informationen abzuschätzen, die relevant sind hinsichtlich des Verständnisses der wissenschaftlichen Grundlage des Risikos eines VOM MENSCHEN INDUZIERTEN Klimawandels, dessen potentielle Auswirkungen und Optionen zur Anpassung und Abschwächung.

Die Tatsache, dass das IPCC all seinen Bemühungen auf das „Verständnis der wissenschaftlichen Basis der Risiken des vom Menschen verursachten Klimawandels“ konzentriert hat, ist sehr bedeutsam. Das IPCC hat niemals ernsthaft versucht zu bestimmen, ob nicht natürliche Faktoren für den größten Teil der Erwärmung verantwortlich sind, zu der es auf der Erde im vorigen Jahrhundert gekommen war. Jahrzehnte lang hat man dort Scheuklappen aufgesetzt, welche ihre Übersicht zu allem und jedem blockiert haben – außer zu den hypothetischen Auswirkungen von Kohlendioxid. Die Rolle des IPCC war es immer gewesen, Berichte zu erstellen, die die Reduktion von Treibhausgasen stützen, die bei der Verbrennung fossiler Treibstoffe entstehen. Die Folge hiervon ist, dass alle Forschungsgelder ausschließlich in diesen Bereich fließen. Die Entscheidung, nur die vom Menschen verursachte globale Erwärmung zu untersuchen, ist eine politische Entscheidung, keine wissenschaftliche Entscheidung. Und es ist eine furchtbare Entscheidung.

Als Folge dieser politischen Entscheidung gibt es kaum wissenschaftliche Forschungen, die versuchen, realistisch zu ermitteln, wie viel der Erwärmung natürlichen Faktoren zugeordnet werden kann. Wir wissen, dass diese Tatsache besteht, weil die jetzige Generation von Klimamodellen – bisher die komplexesten jemals – immer noch nicht natürlich auftretende Ozean-Atmosphäre-Prozesse simulieren können, die eine Erwärmung der Erdoberfläche (und der Tiefen der Ozeane) über multidekadische Zeiträume bzw. deren Beendigung mit sich bringen können. Skeptiker haben dieses wiederholte Scheitern oftmals in Blogbeiträgen beschrieben, und ich selbst habe sogar ein Buch über dieses Scheitern geschrieben mit dem passenden Titel Climate Models Fail.

(Ende Auszug)

Sogar noch dubioser: Verbiegen der Wissenschaft zur Unterstützung der Politik

Weiß man eigentlich, dass Politiker den Text des 2. IPCC-Zustandsberichtes überarbeitet haben, wobei sie den Entwurf der Wissenschaftler drastisch veränderten? Hier folgt noch einmal ein Auszug aus meinem frei verfügbaren E-Book On Global Warming and the Illusion of Control – Part 1. Der Auszug steht im Kapitel mit der Überschrift [übersetzt] Die Evolution der Bewegung der katastrophalen anthropogenen globalen Erwärmung:

Während es frühe wissenschaftliche Studien gab, die auf einen möglichen Temperaturanstieg in Verbindung mit den Emissionen von anthropogenen Treibhausgasen hinwiesen, wollen wir diese Diskussion beginnen mit der Bildung des Berichte schreibenden Flügels der UN mit der Bezeichnung Intergovernmental Panel on Climate Change (IPCC). Wie oben erwähnt war es die primäre Aufgabe des IPCC, Berichte zu erzeugen, die die Agenden der Politiker stützen. Die Begrenzung der globalen Erwärmung war wahrscheinlich einer dieser Schwerpunkte, aber höchstwahrscheinlich gab es auch noch viele andere.

Die Politiker fanden Wissenschaftler, die jene Berichte schrieben – und damit begann die gegenseitige sehr vorteilhafte Beziehung zwischen Klimawissenschaftlern und Politikern. Die Politiker wollten für ihre Agenden wissenschaftliche Stützung, und die Wissenschaftler waren nur zu gerne dazu bereit, weil den Politiker die Verteilung Gelder für Klimaforschung oblag.

Der erste IPCC-Bericht 1991 war wenig aufschlussreich dahingehend, dass die Wissenschaftler nicht zwischen anthropogener und natürlicher Erwärmung unterscheiden konnten…

Anmerkung für diesen Beitrag: Die Summary for Policymakers im 1. IPCC-Zustandsbericht steht hier. Dort heißt es:

Die Größenordnung dieser Erwärmung ist im Großen und Ganzen konsistent mit den Prophezeiungen der Klimamodelle, aber sie weist auch die gleiche Größenordnung auf wie die natürliche Klimavariabilität. Folglich kann die beobachtete Erwärmung großenteils dieser natürlichen Variabilität geschuldet sein. Alternativ kann es aber auch sein, dass diese Variabilität und andere menschliche Faktoren eine noch größere, anthropogen induzierte Treibhaus-Erwärmung ausgelöst haben. Die eindeutige Bestimmung des verstärkten Treibhauseffektes aus Beobachtungen ist noch mindestens ein Jahrzehnt lang unwahrscheinlich.

Im Jahre 1991 sah sich die wissenschaftliche Gemeinschaft also noch bis mindestens zum Jahr 2001 außerstande, zwischen natürlicher und anthropogener globaler Erwärmung zu unterscheiden.

(Ende Auszug)

Und doch haben Politiker trotz dieses unbestimmten Ergebnisses nur ein Jahr später (1992) einen Vertrag erarbeitet mit der Bezeichnung United Nations Framework Convention on Climate Change mit der Absicht, den Anstieg der globalen Temperaturen auf 2°C über den vorindustriellen Werten zu begrenzen – ein Limit, das zuerst Mitte der siebziger Jahre von einem Ökonom ins Spiel gebracht worden war, nicht von einem Klimawissenschaftler.

In dem Artikel Two degrees: The history of climate change’s ‘speed limit’ bei TheCarbonBrief schreiben die Autoren Mat Hope & Rosamund Pearce:

Für Manchen vielleicht überraschend kam die Idee, dass die Temperatur dazu herangezogen werden könnte, die Reaktion der Gesellschaft auf den Klimawandel zu dirigieren, von einem Ökonom.

In den siebziger Jahren sprach der Yale-Professor William Nordhaus erstmals die Gefahr an, die sich aus dem Überschreiten einer Grenze von zwei Grad ergeben, und zwar in einem Paar von inzwischen berühmten Studien, in denen gezeigt wurde, dass eine Erwärmung um über 2 Grad das Klima über einen Punkt hinaus bringen würden, mit dem die Menschen noch fertig werden konnten:

Den meisten Quellen zufolge liegt die Bandbreite der Variation zwischen unterschiedlichen Klimaregimes in der Größenordnung von ±5°C, und zum gegenwärtigen Zeitpunkt befindet sich das globale Klima am oberen Ende dieser Bandbreite. Falls die globalen Temperaturen um mehr als 2 bis 3 Grad Celsius über der jetzigen mittleren Temperatur liegen, würde dies ein Klima schaffen, das außerhalb der Bandbreite von Beobachtungen liegt, die während der letzten vielen tausend Jahre gemacht worden sind“.

Anfang der neunziger Jahre fuhren die Politiker fort, mit Geld an Wissenschaftlern um sich zu werfen in der Hoffnung, dass der nächste Bericht mehr Unterstützung für ihre Agenden liefern würde. Sehr zur Überraschung der Politiker gab es jedoch auch im Original-Entwurf der Wissenschaftler aus dem Jahr 1995 der Summary zum 2. Zustandsbericht keinen Aufschluss.

Man stelle sich das mal vor. Im Jahre 1992 haben die UN viele Länder auf der ganzen Welt davon überzeugt, in einen Vertrag zur Begrenzung der Emissionen von Treibhausgasen einzutreten, obwohl das IPCC ein Jahr zuvor nicht den Fingerabdruck der Menschheit in der globalen Erwärmung auffinden konnte. Dann hat die wissenschaftliche Berichte schreibende Einrichtung der Politiker, das IPCC, im Jahre 1995 immer noch nicht unterscheiden können zwischen anthropogener und natürlicher Erwärmung – und genau diese Tatsache haben die Klimawissenschaftler im Entwurf ihres 2. IPCC-Berichtes geschrieben. Die Politiker saßen zwischen Pest und Cholera. Sie hatten seit drei Jahren einen Vertrag in der Hinterhand, aber ihre Berichte schreibenden Wissenschaftler konnten keine Beweise zu dessen Stützung finden.

Nachdem dann die meisten Wissenschaftler das Treffen verlassen hatten, änderten die Politiker und ein einzelner Wissenschaftler die Sprache des 2. Zustandsberichtes auf eine sehr subtile, aber bedeutende Art und Weise. Voila! Die Politiker und der eine Wissenschaftler initiierten das, was heute Konsens genannt wird. (Eine sehr detaillierte Analyse dazu von Bernie Lewin über die IPCC-Konferenz 1995 in Madrid steht hier).

(Ende Auszug)

Die Analyse von Bernie Lewin gliedert sich in drei Teile, jeweils mit sehr passenden Überschriften:

Madrid 1995: Was this the Tipping Point in the Corruption of Climate Science? (archived here.)

Madrid 1995 and The Quest for the Mirror in the Sky (archived here.)

Madrid 1995: The Last Day of Climate Science (archived here.)

In Teil 1 seiner Reihe schreibt Lewin über den Entwurf des 2. Zustandsberichtes (Hervorhebung von mir):

Oh weh, im Frühherbst des Jahres 1995 standen die Zeichen auf schlecht. Obwohl in einem durchgesickerten Entwurf im September zu lesen war, dass es unwahrscheinlich sei, dass die Erwärmung ausschließlich natürlichen Gründen geschuldet ist, wurde dies kaum bestritten, und es war nicht eigentlich die Verkündigung einer unmittelbar bevorstehenden Katastrophe. Außerdem verblieben immer noch außerordentlich große Schwächen, besonders in Kapitel 8, für jede positive Schlussfolgerung. Der Entwurf wurde allen Teilnehmern der Madrid-Konferenz zugeleitet und war auch der einzige Verfügbare, der schließlich auf dem Treffen ,akzeptiert‘ worden war. In der Introduction wurde auch festgestellt, dass die gegenwärtigen Studien auf einen menschlichen Einfluss hindeuten. Dies war bis dahin die stärkste Aussage, aber die Hauptfassung des Dokuments und die Zusammenfassung mit den Schlussfolgerungen war da nicht so vertrauensselig. Einige der verwegensten Rückzieher waren Folgende:

Aus Studien von Änderungen der globalen mittleren Variablen (8.4.1): Während keine dieser Studien das Thema Zuordnung speziell in Betracht gezogen hatte, ziehen sie oft einige Schlussfolgerungen bzgl. Zuordnung, für die es kaum eine Rechtfertigung gibt.

Aus dem Treibhaus-Signal in Studien der modellierten und beobachteten räumlichen und zeitlichen Verteilung von Änderungen (8.4.2.1): Keine der oben zitierten Studien hat klare Beweise dafür gezeigt, dass wir die beobachteten Änderungen der spezifischen Ursache Zunahme der Treibhausgase zuordnen können.

Aus Studien zum ,Fingerabdruck‘ der globalen Erwärmung: Während einige dieser Studien die Erkennung eines signifikanten Klimawandels behaupteten, hat keine davon die gesamte (oder Teile des beobachteten Klimawandels) anthropogenen Gründen zugeordnet. Auch hat keine einzige Studie die Größenordnung eines Treibhausgas- oder Aerosol-Effektes in den gemessenen Daten quantifiziert – ein Umstand, der für Politiker von primärer Relevanz ist.

Aus dem Gesamtniveau der Unsicherheiten: jedwede Behauptungen über positive Erkennung und Zuordnung eines signifikanten Klimawandels wird wahrscheinlich kontrovers bleiben, solange die Unsicherheiten bei der totalen natürlichen Variabilität im Klimasystem nicht reduziert werden.

Zur Frage: Wann wird der anthropogene Effekt auf das Klima identifiziert? (8.6): Es ist keine Überraschung, dass die beste Antwort auf diese Frage lautet ,wir wissen es nicht‘.

Die Politiker mochten die Aussagen über die Unsicherheiten nicht, die in jenen Statements zum Ausdruck kamen, folglich haben sie diese gelöscht. Wussten Sie, dass die Politik der Klimawissenschaft diktiert, welche Ergebnisse sie zu erbringen habe?

Wichtige Anmerkung: Man vergesse nicht, dass der Pinatubo im Jahre 1991 ausgebrochen war, wodurch die Temperaturen global vorübergehend gesunken sind. Während die Temperatur bis 1995 wieder auf ein Niveau etwas über dem von 1991 gestiegen war, erzeugten die in die Stratosphäre geschleuderten Aerosole des Pinatubo einen merklichen Rückgang der Erwärmungsrate seit dem Beginn der Erwärmung Mitte der siebziger Jahre. Siehe Abbildung 1. Das heißt, die globale Erwärmungsrate von 195 bis 1995 ist merklich geringer als die von 1975 bis 1991, wie man auch erwarten würde.

Abbildung 1

Nun könnte man glauben, dass mit der massiven Auswirkung des Pinatubo auf die globalen Temperaturen die fortgesetzte Unsicherheit unter den Klimawissenschaftlern auch 1995 noch garantiert war.

Die Klimawissenschaft unter Führerschaft des IPCC kann immer noch nicht realistisch differenzieren zwischen natürlicher und anthropogen induzierter globaler Erwärmung!

Noch einmal möchte ich auf mein E-Book zurückgreifen On Global Warming and the Illusion of Control – Part 1. Das Kapitel 1.12 trägt den Titel [übersetzt] „Wie Wissenschaftler den größten Teil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Ursachen zuordneten“:

Eine der Objektiven der klimawissenschaftlichen Gemeinschaft unter Führung des IPCC war es, den größten Anteil der globalen Erwärmung seit Mitte der siebziger Jahre anthropogenen Gründen zuzuordnen. Mit anderen Worten, falls Mutter Natur für die Erwärmung verantwortlich war, würde das politische Ziel, die Verbrennung fossiler Treibstoffe zu begrenzen, keinerlei Grundlage haben, und weil es die Absicht des IPCC ist, politische Agenden zu stützen, hatte die klimawissenschaftliche Gemeinschaft in der Lage zu sein, auf die Menschheit als den Schuldigen zu zeigen. Die Klimamodellierer erreichten dieses Ziel mittels ein paar sehr einfacher Tricks.

Das erste, was die Klimamodellierer gemacht haben war, die natürlichen Ozean-Atmosphäre-Prozesse vollständig zu ignorieren, die eine globale Erwärmung verstärken oder unterdrücken. Die vom IPCC verwendeten Klimamodelle können bis auf den heutigen Tag immer noch nicht diese Prozesse angemessen simulieren, und diese Tatsache wird später in diesem Buch noch detailliert demonstriert. Die Beiträge von Mutter Natur zu ignorieren war der einfachste und bequemste Weg, um zu zeigen, dass die Menschen für die Erwärmung verantwortlich waren. Die Modellierer haben sich auch entschieden, diese Tatsache der Öffentlichkeit vorzuenthalten, als sie ihre modellbasierten Zuordnungs-Studien unter Verwendung der nächsten Taktik präsentierten.

Diese Taktik ist ein sehr einfacher und leicht zu verstehender Weg, das Meiste der Erwärmung fälschlich der Menschheit in die Schuhe zu schieben. Die Modellierer hatten ihre Klimamodell-Läufe, die einen virtuellen globalen Temperaturanstieg zeigten als Reaktion auf alle Klimaantriebe, die als Input für die Modelle dienten. Dann führten sie zusätzliche Modellierungs-Experimente durch. Anstatt alle Klimaantriebe heranzuziehen, die sie normalerweise für die Simulation des Klimas der Vergangenheit eingehen lassen, verwendeten sie in den zusätzlichen Klimamodell-Läufen ausschließlich die Antriebe durch Solarstrahlung und vulkanische Aerosole. Die betrügerische Logik dahinter: Falls die nur mit den natürlichen Antrieben Solarstrahlung und vulkanischen Aerosolen die Erwärmung, zu der es zum Ende des 20. Jahrhunderts gekommen war, nicht simulieren können, dann muss die Erwärmung seit den siebziger Jahren auf anthropogene Treibhausgase zurückgehen.

Als Beispiel ist Abbildung 1.12-1 eine Zeitreihe von 1880 bis 2010. Die durchgezogene braune Linie zeigt den Gesamt- Strahlungsantrieb von allen Antrieben, die in die Klimamodelle eingingen und die vom GISS aufbereitet worden waren. Sie stammen von der Forcings in GISS Climate Model-Website, vor allem aus der Tabelle hier. Ebenfalls in Abbildung 1.12-1 eingezeichnet ist der Antrieb allein durch Solarstrahlung und stratosphärische Aerosole (welche das Sonnenlicht blockieren), gezeigt als gestrichelte dunkelgrüne Kurve. Diese werden als natürlich auftretende Antriebe betrachtet. Wie man sieht, zeigt die Gruppe mit allen Antrieben eine langzeitliche Zunahme, die bei den kombinierten Antrieben durch Sonne und Aerosole nicht erkennbar ist.

# # #

Dann ließen die Klimawissenschaftler die zusätzlichen Modellsimulationen nur mit den natürlichen Antrieben laufen. Danach verglichen sie die Modellsimulationen mittels natürlicher und anthropogener Antriebe mit denen mittels natürlicher Antriebe allein. Als Beispiel eines dieser Vergleiche dient Abbildung 1.12-2. Die Modelle mit allen Antrieben zeigen deutliche Erwärmung zum Ende des 20. Jahrhunderts, die Modelle mit den natürlichen Antrieben allein zeigen dies nicht.

Ähnliche Graphiken wie die in Abbildung 1.12-2 gezeigte finden sich in den IPCC-Zustandsberichten Nr. 4 und 5. Ein Beispiel ist FAQ 10.1, Abbildung 1 im Kapitel Chapter 10, Detection and Attribution of Climate Change: from Global to Regional des IPCC’s 5th Assessment Report (AR5). Siehe meine Abbildung 1.12-3. Man beachte, dass die Überschrift ihres FAQ 10.1 lautet [übersetzt] „Das Klima ändert sich immer. Wie können wir die Gründe der beobachteten Änderungen bestimmen?“

(Ende des Auszugs)

Über ihr FAQ 10.1, Abbildung 1, schreibt das IPCC:

FAQ 10.1, Abbildung 1 illustriert einen Teil der Abschätzung eines Fingerabdrucks auf die Änderung der globalen Temperatur während der zweiten Hälfte des 20. Jahrhunderts. Die beobachtete Änderung während dieser Zeit, dargestellt durch die schwarze Zeitreihe in den linken Graphiken, ist größer als erwartet, wenn man nur die interne Variabilität betrachtet. Simulationen mit nur natürlichen Antrieben (gelbe und blaue Linien in der oberen linken Graphik) reproduzieren die Erwärmung zum Ende des 20. Jahrhunderts nicht, wobei die räumliche Verteilung der Änderung (oben rechts) vollkommen unterschiedlich ist von der beobachteten Verteilung der Änderung (Mitte rechts). Simulationen mit sowohl natürlichen als auch anthropogenen Antrieben zeigen eine viel bessere Repräsentation der zeitlichen Änderungsrate (links unten) und der räumlichen Verteilung (rechts unten) der beobachteten Temperaturänderung.

Beide Graphiken links zeigen, dass Computermodelle die natürlich getriebene Abkühlung ein oder zwei Jahre nach großen Vulkanausbrüchen reproduzieren, wie es 1982 und 1991 der Fall war. Simulationen mit natürlichen Antrieben allein zeigen die kurzfristigen Temperaturänderungen nach Eruptionen auch, aber nur die natürlichen + anthropogenen Antriebe simulierten den längerzeitlichen Erwärmungstrend.

Die Bildinschrift ihrer FAQ 10.1-Abbildung liest sich so:

(Links) Zeitreihe der globalen und jährlich gemittelten Temperaturänderung von 1860 bis 2010. Die Graphik oben links zeigt Ergebnisse aus zwei (sic) Ensembles von Klimamodellen mit nur natürlichen Antrieben, gezeigt als dünne blaue und gelbe Linien; Ensemble-Änderungen der Mitteltemperatur sind dick blau und rot. Drei verschiedene beobachtete Schätzungen sind als schwarze Linien dargestellt. Die Graphik links unten zeigt Simulationen der gleichen Modelle, aber diesmal mit sowohl natürlichen als auch anthropogenen Antrieben durch Treibhausgase und Aerosole. (Rechts) Räumliche Verteilung lokaler Temperaturtrends von 1951 bis 2010. Die obere Graphik zeigt die Verteilung von Trends mittels eines großen Ensembles von Coupled Model Intercomparison Project Phase 5 (CMIP5)-Simulationen mit nur natürlichen Antrieben. Die untere Graphik zeigt Trends eines korrespondierenden Ensembles mit natürlichen + menschlichen Antrieben. Die mittlere Graphik zeigt die Verteilung beobachteter Trends von HadCRUT4 während dieses Zeitraumes. [HadCRUT4 = Hadley Centre/Climatic Research Unit gridded surface temperature data set 4]

Für ein weiteres Beispiel dieser fehlgeleiteten, kindischen Logik schaue man auf Figure 9.5 im 4. Zustandsbericht. Die Bildunterschrift zu dieser Illustration im AR4 Chapter 9 lautet (Hervorhebungen von mir):

9.4.1.2Simulationen des 20.Jahrhunderts

Inzwischen gibt es eine größere Zahl von Klimasimulationen von AOGCMs (Atmosphere-Ocean General Circulation Models) für den Zeitraum der globalen instrumentellen Aufzeichnungen, als sie für den 3. Zustandsbericht zur Verfügung standen, einschließlich einer größeren Vielfalt von Antrieben in einer größeren Vielfalt von Kombinationen. Diese Simulationen stammen von Modellen mit unterschiedlichen Klimasensitivitäten, Raten der Wärmeaufnahme durch Ozeane sowie Größenordnung und Art der Antriebe. Abbildung 9.5 zeigt, dass Simulationen einschließlich anthropogener Antriebe, darunter zunehmende Treibhausgas-Konzentrationen und die Auswirkungen von Aerosolen, die außerdem natürliche externe Antriebe berücksichtigen, eine konsistente Erklärung bieten der gemessenen Temperaturaufzeichnung. Simulationen mit nur natürlichen Antrieben simulieren die während der letzten drei Jahrzehnte beobachtete Erwärmung nicht.

Wie zuvor schon erwähnt, ist die Logik hinter dieser Art von Zuordnung sehr einfach, kindisch einfach. Falls Modelle mit anthropogenen und natürlichen Antrieben die Erwärmung simulieren können und die Modelle mit natürlichen Antrieben allein nicht, dann müssen die anthropogenen Antriebe für die globale Erwärmung verantwortlich sein.

Aber diese Logik ist falsch – entsetzlich falsch. Es gibt natürlich auftretende Ozean-Atmosphäre-Prozesse, die die globalen Temperaturen steigen oder sinken lassen können, ohne durch menschliche Treibhausgase getrieben zu werden. Die Klimamodelle simulieren diese Prozesse nicht, das heißt sie werden in Zuordnungs-Studien wie dieser nicht berücksichtigt.

Man kann das noch auf andere Weise betrachten. Eines der größten Mängel der Klimamodelle ist deren Unfähigkeit, natürlich auftretende Ozean-Atmosphäre-Prozesse zu simulieren … wie jene in Verbindung mit El Nino und La Nina-Ereignissen, wie jene in Verbindung mit der Atlantic Multidecadal Oscillation. Wie jedermann, der ein falsches Produkt vermarkten will, stellte das listige IPCC diese Mängel als Vorteile dar, indem sie in den Zuordnungs-Studien ignoriert werden.

Jawoll, das ist eine ziemlich erbärmliche Art und Weise, die jüngste Runde der globalen Erwärmung anthropogenen Treibhausgasen zuzuordnen.

Schlussbemerkungen

Hat also der gewählte Präsident Donald Trump recht, skeptisch zu sein hinsichtlich der politisierten Wissenschaft hinter der hypothetischen, anthropogen induzierten globalen Erwärmung/Klimawandel? Natürlich hat er recht!

Die Klimawissenschaft ist im Jahre 1988 politisiert worden, als die UN-Politiker das IPCC ins Leben riefen und ihm die Richtung vorgaben. Die Klimawissenschaft wurde von der Politik im Jahre 1995 korrumpiert, also vor über 2 Jahrzehnten, als die Politiker den Wortlaut des 2. IPCC-Zustandsberichtes änderten. Und natürlich können Klimawissenschaftler bis auf den heutigen Tag immer noch nicht anthropogene Gründe realistisch der globalen Erwärmung zuordnen, wie sie seit den siebziger Jahren beobachtet wird, weil die Klimamodelle nicht sich aus natürlichen Antrieben speisende gekoppelte Ozean-Atmosphäre-Prozesse simulieren können, die im multidekadischen Zeitmaßstab Erwärmung verursachen können. Die Tatsache, dass die Modelle keinerlei Erwärmung simulieren können, es sei denn sie werden durch numerische Repräsentationen anthropogener Treibhausgase dazu gezwungen, ist ein Mangel des Modells und kein Mittel, die globale Erwärmung glaubwürdig den Emissionen von Kohlendioxid zuzuordnen. Mit dieser Klimawissenschaft befindet sich der Karren immer noch vor dem Pferd.

Link: https://wattsupwiththat.com/2016/11/29/the-politicization-of-climate-science-is-not-a-recent-phenomenon/

Übersetzt von Chris Frey EIKE




Rot-rot-grünes Wunderland – Die Hauptstadt und ihre Ziele

Normal 0 21 false false false DE JA X-NONE

Rot-rot-grünes Wunderland

Auffällig ist und bei dieser Farbkombination nicht anders zu erwarten, dass jede Menge Geld verteilt werden soll. Das Füllhorn wird in alle Richtungen ausgeschüttet, Geld hat in diesen Kreisen eher virtuellen Charakter. In der Tradition linksgrüner Weltsicht geht es um eine andere Verteilung des Kuchens, nicht um dessen Vergrößerung.

Als zusätzliche Einnahmepositionen finden sich die Erhöhung der Zweitwohnungssteuer, ein „Naturcent“ auf die Grundsteuer und ein Pfandsystem auf To-Go-Becher (das reduziert die Müllmenge).

Rechnung ohne Wirt

Geld wird es auch kosten, bei Migranten die „aufenthaltsrechtlichen Möglichkeiten auszuschöpfen“, was nicht s anderes bedeutet, als dass kaum oder gar nicht mehr abgeschoben werden soll. Dies entspricht der Überschrift über dem Werk „solidarisch und weltoffen“. Wozu dann noch die Einführung eines europaweiten Sicherheitssystems für visafrei Einreiseberechtigte, wenn auch die Unberechtigten ohne Visum einreisen und in manchen Städten bleiben dürfen?

Wenig Erwähnenswertes liest man zur inneren Sicherheit. Die Autonomen in der Rigaer Straße haben sicherlich ein paar Tetrapacks Rotwein zusätzlich geöffnet beim Anblick dieser Vereinbarung. Mehr Polizei – na gut, dann kann man schwarz vermummt mehr verhauen, wenn die Beamten mit Namensschildern versehen und ohne Taser zu deeskalieren versuchen.

Schwerpunkt soll die Kriminalitätsprävention sein, das klingt gut und wird in etwa so erfolgreich sein wie die Bekämpfung von Fluchtursachen im Nahen Osten.

Geld für mehr Streetworker soll auch da sein, vor allem sind „Städtebauliche Maßnahmen gegen Angsträume“ geplant, ohne dass Einzelheiten genannt sind.

Ich könnte mir vorstellen, dass ein paar von Landschaftsarchitekten gekonnt in den Görlitzer Park platzierte Rhododendren und eine andere Wegführung die Drogendealer von ihrem kriminellen Tun abhalten werden – falls der Drogenhandel nicht ohnehin teilweise legalisiert wird und der Stadt sogar Einnahmen bringen könnte. Die Beschaffungskriminalität bleibt in jedem Fall. Und wer geschnappt und dann sogar noch verurteilt werden sollte – Strafgefangenen soll der Zugang zu modernen digitalen Kommunikationsmitteln erlaubt werden.

Den größten Brocken bei der Geldausgabe stellt die Energiewende dar. Diese soll  durch ein eigenes Stadtwerk gesichert werden. Die Idee entstammt einem von den Grünen 2013 gefassten Beschluss zur Gründung eines „Klimastadtwerks“.  Auch hier gibt der Begriff selbst keinen Sinn. Ein Stadtwerk soll versorgen – sicher, kostengünstig, umweltfreundlich, das berlinische kommt natürlich  „klimaneutral“ daher.

Traditionell leistete die BEWAG (Berliner Städtische Elektrizitätswerke AG) seit 1884 der Stadt treue Dienste, vor allem in teilungsbedingter Inselexistenz bei der Versorgung im Westen der Stadt. 2003 verscherbelte der Senat aus Finanznot den Mehrheitsanteil an der BEWAG an Vattenfall und wird seitdem von ehemaligen BEWAG-Mitarbeitern unter schwedischem Kommando gut und sicher versorgt. Natürlich erfolgt dies aus dem bestehenden und modernisierten Kraftwerkspark, was insofern problematisch für die Großstädter ist, dass dies mit CO2-Emissionen verbunden ist.

Wie bei allen hippen, urbanen und vergeistigten Metropolenbewohnern üblich, herrscht der Wunsch nach Versorgung allein aus Wind, Sonne und Umweltwärme vor. Bis 2050, so das Ziel, will man die Fossilen in die Tonne treten. Zunächst soll der Platzhirsch Vattenfall vom Hof gejagt werden, was sich als schwierig erweist. Die Konzessionsverträge müssen diskriminierungsfrei ausgeschrieben werden, was direkte Einflussnahme der potenziellen Planwirtschaftspolitiker verhindert.

Mit den „Berliner Stadtwerken“ existiert seit 2013 eine GmbH als hundertprozentige Tochter der berlineigenen Wasserwerke, die die Erwartungen nun erfüllen soll. Bisher stand die CDU mit kleinlichen Wirtschaftlichkeitsbetrachtungen im Weg, das hat jetzt ein Ende. Nach dem zaghaften Beginn  mit einer bescheidenen Kapitalausstattung von 5,5 Millionen Euro wird jetzt richtig Kohle – pardon, Geld – fließen. 100 bis 150 Millionen Euro gehen zunächst ans Stadtwerk. Bisher beschäftigte sich die GmbH nur mit der Vorbereitung der Angebote für die Ausschreibungen der Gas- und Stromnetze. Sieben Mitarbeiter gaben anfangs ihr Bestes. Der Chef wurde zunächst mit Wolfgang Neldner prominent eingekauft, einem  alten Fahrensmann der Energiewirtschaft und anerkannten Spezi aus dem Netzbereich. Für 230.000 Euro pro Jahr leitete er die überschaubare Mitarbeiterschar an, neben seiner Unternehmertätigkeit . Für ihn ein wirtschaftliches Optimum.

Die 100-Prozent Regenerativversorgung soll beim Strom schon 2030, bei der Wärme 2050 erreicht werden. Wie zu erwarten, werden Energie aus Solar- und Windenergie, Biomasse und Geothermie und begleitende Aktivitäten wie Gebäudedämmung und Smart-Grid favorisiert. Gaskraftwerke mit Kraftwärmekopplung sind (zunächst) noch zugelassen. Für die Windenergie würden „die Bedingungen verbessert“, was Fragen offen lässt. Ein gutes halbes Dutzend bestehender Anlagen auf Stadtgütern oder im Brandenburgischen lassen nicht wirklich viel weiteres Potenzial erkennen, es sei denn, man belebt die Idee der „Reichskrafttürme“ neu.

Berliner Luft

Im Jahr 1932 berichtete der „Völkische Beobachter“ über eine Idee Herrmann Honnefs, bis zu 400 Meter hohe Windtürme („mit Restaurationsbetrieb“) in die Stadt zu stellen, um mit den Kräften der oberen Luftschichten Energie zu erhalten. Selbst über die dringend erforderliche Verbindung über ein „Windkraftnetz“ machte er sich Gedanken wie auch über die Überproduktion zu Nachtzeiten. Dieser Strom solle in „Wasserkraftspeichern“ oder „zur Erzeugung billigen Wasserstoffs“ genutzt werden, wie das „Linzer Volksblatt“ am 2. März 1932 schreibt. Der Beginn des Wasserstoffzeitalters wurde angekündigt.

„Auch bei der Windkraftausnützung ist der Ausgleich von überragender Wichtigkeit, denn nicht jedem Windkraftwerk würde zu jeder Zeit die erforderliche Windstärke zur Verfügung stehen.“ Man sieht, heutige Erkenntnisse sind wirklich nicht neu. Auch ein konkretes Vorhaben gab es: Ein 400 Meter hoher Turm am Messegelände mit bis zu 20.000 PS (ca. 14,7 MW) Leistung. Es spricht für den Sachverstand der damaligen Ingenieure und Kaufleute, das Projekt nicht weiter verfolgt zu haben. Klimahysterie behinderte noch nicht klares Denken.

Hitler soll sich interessiert gezeigt haben. Schade, eine Reichsenergiewende hätte das Geld gebunden, das dann in die Aufrüstung ging . . .

Man darf also gespannt sein, welche Rolle die Windenergie bei den Berliner Stadtwerken spielen wird. Bei der Preisentwicklung ist man sich wohl nicht so sicher, deshalb sind Sozialtarife vorgesehen. Eine dauerhafte Subventionierung fürs Stadtwerk könnte das möglich machen, ob es wettbewerbsrechtlich zulässig ist, steht auf einem anderen Blatt. Es läuft wohl auf Sozialgeld an bedürftige Bürger hinaus, welches die Stadt zahlt.

Damit die Umweltwirkung Berliner Energievorgaben auch ins Land hinausreicht, soll künftig kein aufbereiteter Müll mehr in Lausitzer Kohlekraftwerken mitverbrannt werden. Bisher schoben die Hauptstädter etwa 250 Kilotonnen pro Jahr und damit etwa ein Drittel der Gesamtmenge dahin ab. Derzeit sind die Entsorgungspreise deutlich am Steigen, weil die Kapazitäten zur thermischen Entsorgung nicht ausreichen. Wo dann der Berliner Dreck landet, ist eine offene Frage, denn deponieren ist nicht zulässig. Die Brandenburger bauen schon mal vor und erweitern das Zwischenlager in Niederlehme, um mehr Menge puffern zu können. Das riecht, nein, es stinkt sogar, nach höheren Müllgebühren.

Auch die Verkehrspolitik nimmt in den rotgrünen Visionen konkrete Formen an.

Unter der Überschrift „Fußverkehr sicherer und komfortabler gestalten“ finden sich neben neuen Fußgängerzonen auch “fußgänger*innenfreundliche Ampelschaltungen“, was zur Folge haben dürfte, dass täglich zigtausende Autos im Standgas länger als heute an der roten Ampel stehen. Besonderer Zuneigung erfreuen sich die Radfahrer, deren Wegenetz, Parkraum, Parkhäuser, Fahrradmitnahme im ÖPNV und der Anreiz zu Fahrrad- und Carsharing-Kombination jetzt besonders bedacht sind. Auch ein Citylogistikkonzept ist erwähnt, bei dem die Letztverteilung von Waren über Lastenfahrräder erfolgen soll.

Ein wesentlicher Punkt ist vollkommen zu Recht die Wohnungsfrage. Hier werden Zahlen zum Neubau genannt und den städtischen Wohnungsunternehmen Einschränkungen der Miethöhen angekündigt, die große öffentliche Zahlungen erfordern würden. Inwieweit es gelingt, Angebot und Nachfrage dem marktgerechten Handeln zu entziehen und Berlin zur Insel glückseliger Mieter werden zu lassen, schauen wir uns am Ende der Legislaturperiode einfach mal an.

Es finden sich noch einige Selbstverständlichkeiten und viel Kleinteiliges in der Vereinbarung, zum Beispiel:

            –  „Der Einstieg beim Bus soll in der Hauptverkehrszeit grundsätzlich an allen                                 Türen erlaubt werden."

            –   „Die weitere Nutzung des Müggelsees für den muskelbetriebenen

                Wassersport wird gesichert."

Sowie schwer Verdauliches:

–       "Die Koalition unterstützt die Erweiterung bestehender Welterbe-Ensembles, deren Arrondierung sowie die Sondierung von Möglichkeiten internationaler serieller Nominierungen."

Und ganz wichtig als Vorhaben ist:

–       „Die Koalition will den Flughafen BER schnellstmöglich fertig stellen und in  Betrieb nehmen."  Wer hätte das gedacht?

–       "Berliner Taxis müssen am BER Fahrgäste laden können." Damit ist der Konflikt beschrieben, bei dem Berliner Taxis nicht leer zum Flughafen Schönefeld fahren und Brandenburger Taxis nicht einfach so in Tegel laden dürfen.

Festzustellen bleibt, dass die Berliner*_Innen im Licht mit Ökostrom betriebener LED einer weltoffensolidarischnachhaltigen Zukunft entgegen gehen. Inwiefern eine Blaupause für gleichfarbige Bundespolitik nach der Wahl 2017 besteht, bleibt dem unberechenbaren Schwarmverhalten der Wähler überlassen. Nehmen wir die optimistische Formulierung: Es wird spannend.




CRUDE WIRTSCHAFT – OPEC beschneidet die Produktion, US Shaleoil freut sich

Die Financial Times berichtet [Bezahlseite]:

Die Sitzungen werden fortgesetzt, um einzelne Länderzuweisungen [von Fördermengen] auszuarbeiten, aber Informationsquellen sagen, dass die Haupthindernisse zu dem Abkommen überwunden wurden. Man wird sehen, ob die 13-köpfige Gruppe die Produktion um etwa 4,5 Prozent oder 1,2 Millionen pro Barrel pro Tag senken wird, wobei die Produktionsziele für jedes Mitgliedsland gelten. […]

Es wird erwartet, dass Saudi-Arabien den Großteil aller Produktionskürzungen schultert, zusammen mit seinen Golfverbündeten. Im Gegenzug soll der Iran die Produktion bei etwa 3,8 Millionen Barrel pro Tag, in der Nähe seiner aktuellen Rate, einfrieren, so nach Einschätzungen Dritter.

Das Kartell hofft, dass seine Aktionen die Rohölmenge reduzieren wird, welche diesen Preiskollaps hauptsächlich verursachte und einen Umsatzrückgang erzeugte. Wir sehen heute bereits Anzeichen einer Erholung im Handel – Brent crude sprang um mehr als 8 Prozent nach oben auf $ 50 pro Barrel, während WTI (die amerikanische Öl-Benchmark) um mehr als $ 3,50 auf knapp unter $ 49 pro Barrel notierte.

Aber zwei große Fragen müssen noch beantwortet werden. Die erste ist: Wie weit steigen die Preise aufgrund der OPEC-Maßnahmen (und wie steht es um die potenzielle Zusammenarbeit Russlands)? Dies ist von entscheidender Bedeutung für das Kartell der Petrostate [Staaten, deren Wohlstand vom Öl abhängt], die alle gerne eine Rückkehr der berauschenden $ 100+ pro Barrel sehen würden. Viele OPEC-Mitglieder haben Haushaltsdefizite bei den aktuellen Preisen: Saudi-Arabien braucht Rohöl über $ 79 je Barrel, um in schwarzen Zahlen zu bleiben. Der Iran benötigt dafür $ 55, Algerien, Bahrain, die VAE und Libyen haben fiskalische Rentabilitätsgrenzen von $ 87, $ 95, $ 71 und $ 195, alles je Barrel.

Seit mehr als zwei Jahren hat die OPEC – angeführt von den Saudis – beschlossen, nicht einzugreifen um fallende Preise zu stoppen und stattdessen dafür zu kämpfen, die Überfüllung des Marktes zu bekämpfen. Dass das Kartell nun dabei ist, dieses in die Tat umzusetzen, zeigt, wie wichtig es für diese Petrostates ist, höhere Preise für ihre wichtigsten Exporte zu bekommen, was uns auf die erste Frage zurückführt: Wie wird sich diese Mengenreduzierung auf den Markt auswirken?

Die Antwort darauf, hängt weitgehend vom zweiten großen Unbekannten in dieser Gleichung ab, nämlich von der Reaktionsfähigkeit des amerikanischen Schieferöls. Wie schnell werden sich die US-Fracker an die steigenden Preise anpassen können, indem sie ihre eigene Produktion aufstocken? Die Analysten erwarteten den tiefen Fall einer festen Ölproduktionsmenge, als die Ölpreise vor zwei Jahren unter $ 75 pro Barrel fielen, aber die Schieferproduzenten überraschten die Welt mit ihrer Fähigkeit, Kosten zu senken und den Fluß des Rohöls in einem schwachen Markt zu halten. Wie Reuters berichtet, sind die amerikanischen Produzenten in den letzten Jahren schlank und kostengünstig geworden, geschmiedet im Tiegel der günstigen Ölpreise:

In den Schieferfeldern von Texas bis North Dakota haben sich die Produktionskosten seit 2014 etwa halbiert, als Saudi Arabien in einem Versuch, kostengünstigere Schieferproduzenten aus dem Markt zu treiben, die Liefermengen für alle (Opec..) freigegeben hatte. Anstatt jedoch die US-Schieferindustrie zu töten, stärkte der darauffolgende Zwei-Jahres-Preiskrieg die Konkurrenz, auch im gegenwärtigen Niedrigpreisumfeld. […]

Die Breakeven-Kosten pro Barrel im Durchschnitt, für Bakken Schieferöl am Bohrlochkopf, sind von $ 59,03 im Jahr 2014 auf $ 29,44 im Jahr 2016 gefallen, nach Auskunft von Rystad Energy [Öl und Gas Consulting Service] gefallen. Sie fügten hinzu, dass in Bezug auf Förderpreise am Bohrloch, die Bakken Ölfelder die wettbewerbsfähigsten der großen US-Ölschiefer sind. Wood Mackenzie meinte, dass Technologie Fortschritte die Rentabilitätsgrenzen weiter reduzieren werden.

Während die OPEC – und insbesondere Saudi-Arabien – in den sauren Apfel beißt und Produktionskürzungen zuteilt, profitieren die Produzenten weltweit von einem Preisanstieg. Hier in den USA könnte dies einen entsprechenden Anstieg der Produktion bedeuten, sodass mehr Förderfelder rentabel werden. Das würde dazu beitragen, die Abhängigkeit von der OPEC für die globale Versorgung auszugleichen, die diese zu erreichen versucht und daher die Wirkung dieses Einschnittes stumpf macht, während gleichzeitig die amerikanischen Produzenten einen größeren Anteil am Weltmarkt erhalten.

Aus diesem Grund scheute sich Riyadh sehr, einer Kürzung der Fördermenge zuzustimmen. Das Ausmaß, in dem US-Schieferölunternehmen in der Lage sind, von steigenden Preisen zu profitieren, wird bestimmen, wie erfolgreich dieser zögernde Wechsel in der Taktik der Petrostates sein wird.

Gefunden auf The American Interest vom 30.11.2016

Übersetzt von Andreas Demmig

http://www.the-american-interest.com/2016/11/30/opec-cuts-output-us-shale-rejoices/

 Grafik: The Global Warming Policy

Weitere Information von Mark P Mills, Forbes

Bisher hat es Saudi-Arabien so etwas wie 200 Milliarden Dollar gekostet, um eines der teuersten Experimente aller Zeiten durchzuführen. Die saudische Regierung hat ihren Reichtum von geschätzten $ 2 Billionen angegriffen, um die Einnahmen aus dem Zusammenbruch der Erdölpreise in den letzten Jahren zu stützen.

Was wir erleben, ist ein zweiteiliger Test.

Die erste Frage ist, wie viel Schaden die niedrigen Ölpreise Amerikas Schieferindustrie verursacht haben. Dann der zweite und weit wichtigere Teil des Tests: Wenn die Ölpreise steigen, wird die US-Schieferindustrie weiter hinken oder zurück brüllen? Wenn sie brüllt, sind hohe Ölpreise Geschichte.

Die Quoten stehen dafür, dass wir im Jahr 2017 – zusammen mit den Ölprinzen von Arabien – das Ergebnis sehen werden. Aber, wie es auch ausgeht, die wirtschaftlichen und geopolitischen Implikationen sind enorm. Und das Ergebnis hat mehr mit Technologie als mit Politik zu tun.

Gesamter Beitrag auf Forbes, 30 November 2016

Gefunden auf dem News mail von The Global Warming Policy

Übersetzt durch Andreas Demmig




Wintervorschau 2016/17- widersprüchliche Prognosesignale

Bild rechts: Herrliche Winterpracht aus Eis und Schnee in Tambach-Dietharz/Thüringen: Trotz aller wissenschaftlich-technischen Fortschritte ist so ein Eiswinter langfristig nicht vorherzusagen. Foto: Stefan Kämpfe

1. Die Bauernregeln und die „Zwei- Kelvin- Septemberregel“

Der sehr warme September 2016 ruft die Regel „Ist der September sehr gelind, wird der Winter ein Kind“ auf den Plan. Freilich bleibt dabei offen, was mit „gelind“ gemeint ist. Und der Zusammenhang zwischen Septembertemperaturen und denen des Folgewinters ist in Deutschland zwar positiv, aber mit einem Bestimmtheitsmaß von nur etwa 3% kaum tauglich für Vorhersagen. Betrachtet man nur die sehr warmen September (Temperaturdaten liegen für das Deutschland-Mittel seit 1761 vor; seitdem betrug das Septembermittel bis 2015 13,1°C, das für den „Folgewinter“ 1761/62 bis 2015/16 minus 0,2°C.), so soll der Winter gemäß der „zwei- Kelvin-Regel“ immer dann zu mild ausfallen, wenn der vorangehende September um mindestens 2 Kelvin (entspricht 2°C) zu warm war. Die folgende Tabelle zeigt die entsprechenden Fälle:

In 255 Jahren gab es also nur 13 Fälle (das sind gerade mal 5% aller Jahre) mit einem derart milden September, von denen der folgende Winter in 10 Fällen (76%) deutlich zu mild ausfiel. Nimmt man noch die nur etwas zu milden Winter 1961/62 und 1975/76 hinzu, steigt die Wahrscheinlichkeit auf stolze 92%. Auf den ersten Blick eine berauschend sichere Quote – wenn da nicht die geringe Zahl der Gesamtfälle von nur 13 wäre. Der letzte und einzige Fall, wo die Regel nicht zutraf, war 1895/96; allerdings folgte da auch „nur“ ein fast normaler und keinesfalls ein deutlich zu kalter Winter. Es ist also nicht völlig ausgeschlossen, dass einem warmen September auch mal ein zu kalter Winter folgen könnte – irgendwann ist immer das erste Mal. Daher sollte diese Regel nie alleine für Prognosen genutzt werden!

Auch die meisten anderen Bauernregeln auf einen sehr milden bis milden Winter hin.

2. El-Nino weicht La Nina – was bedeutet das?

„El-Nino“ bezeichnet im Wesentlichen eine positive Wassertemperaturanomalie des östlichen tropischen Pazifiks. Normalerweise ist das Wasser vor der südamerikanischen Pazifikküste deutlich kälter, als nahe am Äquator zu erwarten, weil dort eine aus der Antarktis kommende Meeresströmung verläuft und der Südostpassat das warme Wasser westwärts verfrachtet. Mitunter setzen Kaltwasserströmung und Passat jedoch ganz oder teilweise aus. Warmes Wasser schwappt dann vom westlichen bis zentralen Pazifik bis vor die Südamerikanische Küste (obere Abbildung). Das Gegenteil, nämlich übernormal starke Kaltwasserzufuhr, kommt genauso oft vor und wird als „La Nina“ bezeichnet. Dem sehr starken El Nino von 2015, welcher weltweit erwärmend wirkte, aber keine direkten Auswirkungen auf die Witterung in Mitteleuropa hatte, scheint nun ein mehr oder weniger kräftiges La Nina-Ereignis zu folgen. Direkte Auswirkungen auf die Winterwitterung in Deutschland lassen sich daraus aber kaum ableiten.

3. Nachlassende Sonnenaktivität – Menetekel der Abkühlung

Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2016 nahm die Fleckenzahl tendenziell weiter ab; zeitweise war die Sonne schon fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte (Quelle http://sdo.gsfc.nasa.gov/data/ ):

Dem noch intensiven 23. folgte der schwache 24. SCHWABE- Zyklus. Dieser ist mit maximal nur gut 100 Flecken einer der schwächsten Sonnenfleckenzyklen seit 200 Jahren:

Nach dem absoluten Zyklus-Maximum (Februar 2014) sank die Fleckenzahl. Der Winter 2016/17 ist der dritte nach dem Maximum des SCHWABE- Zyklus. Von den bisher 23 mitteleuropäischen Wintern an etwa der gleichen Zyklus-Position, deren Temperaturen sich ermitteln ließen, waren 14 mehr oder weniger deutlich zu mild (doch nie extrem mild), 8 mehr oder weniger deutlich zu kalt (markant zu kalt aber nur der von 1940/41), und einer annähernd temperaturnormal. Es deutet sich also eine leicht erhöhte Wahrscheinlichkeit für einen normalen bis zu milden Winter 2016/17 an, wenn man nur die Phase nach dem solaren Aktivitätsmaximum betrachtet. Eine bessere Aussagefähigkeit hat der solare Ap- Index, welcher die magnetische Wirkung der solaren Teilchenstrahlung beschreibt. Er hatte sein Minimum zwischen 2008 und 2010, was die damaligen Kälte- Winter mit erklären könnte. Gegenwärtig ist der Ap-Index, im Gegensatz zur Anzahl der Sonnenflecken, noch relativ hoch, was für einen eher milden Winter spricht:

In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionallagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst weit nach 2015 deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 19 Jahren kaum noch Erwärmung in Deutschland; in Zentralengland kühlte es sich gar leicht ab:

Bei globaler Betrachtungsweise (die „Erdmitteltemperatur“ ist strenggenommen ein wertloses Kunstgebilde) fehlt, trotz des starken El Ninos2015/16, nun schon seit gut 19 Jahren eine signifikante „globale“ Erwärmung. Insgesamt lässt die geringe Sonnenaktivität einen eher normalen bis etwas zu kalten Winter erwarten.

4. Die Zirkulationsverhältnisse

Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Für längerfristige Vorhersagen muss man die Zirkulationsverhältnisse vorhersehen können, was kaum möglich ist. Im Herbst 2016 war die Zonalzirkulation meist sehr schwach. Besonders im Oktober fallen die markanten Trogvorstöße nach Deutschland auf, die (vielleicht!) auf Winterkälte hinweisen könnten. Wegen der sich aktuell vermutlich abschwächenden Ostwind-Phase der QBO (Erklärung siehe Punkt 7) liegt eine verstärkte Zonalisierung im Laufe des Frühwinters jedoch im Bereich des Möglichen. Einhergehend mit der schwachen Zonalzirkulation fehlten schwere Herbststürme. Die Zirkulationsverhältnisse weisen überwiegend auf einen eher kalten Winter hin.

5. Die mittelfristigen Modelle

Die verbesserte Kurzfrist- Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble- Modelle, bei denen man die Ergebnisse mehrerer Modell- Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen des Temperaturniveaus für etwa eine Woche im Voraus und vage für bis zu 15 Tagen. Die Ensemble- Vorhersagekarte des NOAA (USA- Wetterdienst) vom 25.11. für den 10.12.2016 zeigte eine glatte Westströmung über West- und Mitteleuropa zwischen einer Hochdruckzone im Mittelmeergebiet und tiefem Luftdruck südlich von Island und blieb, trotz üblicher Variationen, auch bis zum 30.11. ähnlich (Quelle NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es zumindest im Flachland für Winterwetter zu mild:

Bei den Modellen entstehen bei derart langen Vorhersagezeiträumen aber oft Differenzen der einzelnen, gerechneten Läufe, ganz links das amerikanische GFS von 22.11., 12 UTC, Mitte genau 2, rechts genau 3 Tage später, jeweils für den 05. Dezember 2016, 12 UTC, berechnet (Quelle: http://www.wetterzentrale.de/topkarten/ ). Man erkennt ein „Modellchaos“:

Die linke Karte ähnelte einer kalten Nordost-, die mittlere einer milden Südwestlage, die rechte einer relativ kühlen Nordwestlage. Aktuell deutet sich nur das Fehlen extrem kalter oder extrem milder Lagen bis etwa 10. Dezember an; es dominiert zu hoher Luftdruck von Nordwest- bis Mitteleuropa mit anfangs zeitweise nördlicher Strömung und dann ruhigem Hochdruckwetter; am wahrscheinlichsten ist daher eine fast normale erste Dezemberdekade mit häufigeren, teils mäßigen, vereinzelt strengen Nachtfrösten, danach herrscht Richtung Monatsmitte größte Unsicherheit.

6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland

Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten 30 Jahren folgendermaßen:

Trotz der sehr milden Winters 2013/14 und 2015/16 und kontinuierlich steigender CO2- Konzentration (obere, grüne Linie) stagniert das Wintermittel seit 30 Jahren, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Und die Deutschland- Werte des Deutschen Wetterdienstes (DWD) sind nicht wärmeinselbereinigt, sonst hätte es nämlich sogar einen leicht fallenden Trend der Wintertemperaturen gegeben. Das Beispiel einer der wenigen, fast ungestörten Messstationen zeigt Folgendes:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine langsam beginnende Abkühlung hin.

7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO, der Polarwirbel und eine markante Kaltwasserinsel im zentralen Nordatlantik

Der NAO- Index ist ein Maß für die Intensität der Westströmung über dem Ostatlantik im Vergleich zum Langjährigen Mittel. Positive NAO- Werte bedeuten häufigere und intensivere, im Winter eher milde Westwetterlagen. Bei negativen NAO- Werten schwächt sich die Intensität der Zonalströmung ab, bei stark negativen Werten kann sie gar in eine Ostströmung umschlagen oder meridional verlaufen. Die NAO war bis Ende September 2016 überwiegend negativ; danach bei ständigen Schwankungen oft meist leicht positiv (Quelle http://www.cpc.ncep.noaa.gov/products/precip/CWlink/pna/nao.mrf.obs.gif ):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) wies im Sommer/Herbst Rekordwerte auf („Warmphase“). Ein kompletter AMO- Zyklus dauerte seit Beginn regelmäßiger Messungen immer etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase wahrscheinlich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/ . Die AMO verhält sich fast spiegelbildlich zu NAO, der Westwetterlagenhäufigkeit und den Wintertemperaturen in Deutschland. AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) befindet sich momentan in der unteren Stratosphäre noch in der Ostwindphase, welche häufiger eher kalte Winter in Mitteleuropa zur Folge hatte, weil stratosphärische Westwinde in den Tropen den Polarwirbel stärken und stabilisieren. Die Bildung von Kälte begünstigenden Troglagen wird in QBO- Ostwindphasen erleichtert. Allerdings scheint diese Ost- Phase zu enden; immerhin könnte sie eine Erklärung für die Seltenheit von Westlagen im Herbst 2016 sein. Ein ungestörter, sehr kalter Polarwirbel im 10- hPa- Niveau (gut 25 Km Höhe, Stratosphäre) ist fast kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 10. Dezember sagt der französische Wetterdienst einen nur leicht gestörten, über Grönland/Nordmeer besonders kalten Polarwirbel vorher, was Westlagen über Europa stabilisieren könnte; auch diese Vorhersage muss aber mit Vorsicht betrachtet werden:

Seit vielen Monaten existiert eine auffällig beständige „Kaltwasserinsel“ im zentralen Nordatlantik zwischen Großbritannien/Westeuropa und den USA. Sie war auch Anfang November 2015 und 2016 gut erkennbar (auf den dunkelblauen Flächen war die Meeresoberflächentemperatur etwa 2°C kälter, als im Langjährigen Mittel, Quelle http://weather.unisys.com/surface/sst_anom.gif , hier nur der Nordatlantik- Ausschnitt):

Sie schwächt möglicherweise die Zonalzirkulation; eine notwendige, aber keine hinreichende Voraussetzung für Kälte in Deutschland. Seit 1996 waren vor den Wintern 2015/16, 2014/15, 2009/10, 2002/03 und 2001/02 ähnliche Phänomene zu beobachten; 2 dieser Winter waren zu kalt, 3 zu mild. Und 2016 nahmen Größe und Intensität der „Kaltwasserinsel“ deutlich ab (rechtes Bild). Die Mehrzahl der genannten Faktoren deutet einen normalen Winter an.

8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 4,7 Millionen Km² gab es im Septembermittel 2016 eine etwas größere Eisfläche, als im September 2015, und deutlich mehr zum bisherigen Negativ- Rekordmittel von 3,6 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO- Warmphasen wird mehr Wärme in die Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO- Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von mehr als 35 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis- Meereises:

Ähnlich wie in den 1930er Jahren, als während der damaligen AMO- Warmphase ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland- Gletscher herrschte. Näheres dazu unter http://www.eike-klima-energie.eu/climategate-anzeige/fotos-aus-den-dreissiger-jahren-groenland-gletscher-haben-sich-damals-schneller-zurueck-gezogen-als-heute/ . Die These „weniger Arktiseis- mehr Winterkälte in Deutschland“ ist unhaltbar; tatsächlich fehlt jeglicher Zusammenhang:

Auch bei Betrachtung anderer Bezugszeiträume besteht keine Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen: http://ocean.dmi.dk/arctic/icecover.uk.php . Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres bei http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html . Trotzdem hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Bei mehr Eis könnte ein höheres Temperaturgefälle zwischen niederen und höheren Breiten entstehen, was tendenziell Westlagen begünstigt.

Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine wesentlichen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den 9 Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14 und 2015 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 6 zu mild ausfielen; letztmalig der von 2015/16.

9. Analogfälle (ähnliche Witterung wie 2016)

Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs betrachtet. Das Witterungsverhalten im September/Oktober 2016 (September viel zu warm, Oktober eher kühl und gebietsweise feucht) ähnelte, freilich nur sehr grob, dem der Jahre 1895, 1917, 19, 26, 32, 47, 75, 81, 91, 99 und 2009, alles Jahre, denen häufiger milde Winter folgten; nur die von 1981/82 und 2009/10 waren deutlich zu kalt. Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckverteilung über Europa (Quelle: langfristwetter.com) sieht für die ersten 2 Wintermonate so aus:

Im Dezember 2016 (oberes Bild) leicht geschwächte Westwind- Zirkulation (positive Luftdruck-Anomalien in hpa auf Meeresspiegelniveau, gelbe und rötliche Linien über Nordosteuropa und zu tiefer Luftdruck blau- violett auf dem zentralen Nordatlantik). Das kann zumindest gelegentlich Kälte in Mitteleuropa begünstigen. Im Januar 2017 ähnliche Verhältnisse wie im Dezember, doch etwas abgeschwächt. Die Vergleichs- Winter mit ähnlicher Vorwitterung, aus der sich die berechnete Druckverteilung ergab, waren 1908/09, 1914/15, 1916/17, 1919/20, 1924/25, 1928/29, 1937/38, 1970/71, 1987/88, 1991/92, 2000/01, 2007/08, 2009/10. Es finden sich 8 zu milde (am deutlichsten 2007/08), 1 fast temperaturnormaler und 4 zu kalte Winter; am markantesten 1928/29. Damit deutet sich eine schwache Tendenz zu einem eher milden Winter an. Mittelt man einfach, ergibt sich aus diesen Vergleichsfällen ein fast normaler Winter- die Streuung ist jedoch enorm! Zu warmen Sommern (auch der Sommer 2016 war trotz seiner sehr wechselhaften Witterung deutlich zu warm!) folgen meist milde Winter.

Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang. Der Herbst 2016 war aber nur auf Kosten des Septembers etwas zu mild. Der November 2016 wies kalte und sehr milde Abschnitte auf, was keine Rückschlüsse auf die Winterwitterung erlaubt. Zu hoher Luftdruck über Mittel- und Nordwesteuropa Ende November/Anfang Dezember mit etwas kühlerer Frühwinterwitterung, wie in diesem Jahr, hatte meist milde Hochwinter zur Folge. Insgesamt deuten die Analog- Fälle einen etwas zu milden Winter an.

10. Die Hurrikan-Aktivität (Nordatlantik) und Zyklonen-Aktivität (nördlicher Indik)

Mit gewissen Abstrichen (mangelnde Beobachtungsmöglichkeiten vor Einführung der Satellitentechnik) ist die jährliche Anzahl der Tropischen Wirbelstürme im Nordatlantik (Hurrikane) und der Zyklone (nördlicher Indischer Ozean) etwa bis zur Mitte des 19. Jahrhunderts bekannt. Die verheerenden, meist wenige Tage bis selten länger als zwei Wochen existierenden Hurrikane gelangen nie nach Mitteleuropa. Aber sie beeinflussen unsere Witterung. Sie schwächen das Azorenhoch oder kommen bei Einbeziehung in die Westdrift als normale Tiefs nach Europa, wo sie im Spätsommer/Frühherbst mitunter einen Witterungsumschwung einleiten. Auch die Anzahl der im nördlichen Indischen Ozean jährlich vorkommenden Wirbelstürme (Zyklone) könnte einen gewissen Einfluss auf unsere Winterwitterung haben; es gibt von 1890 bis 2014 eine leicht negative Korrelation (tendenziell kältere Winter, wenn dort viele Zyklone auftraten). Im Mittel von 1851 bis 2014 sind gut 5 Hurrikane pro Jahr (die Saison beginnt meist erst zwischen Mai und Juli, doch 2016 gab es schon im Januar einen Hurrikan, und endet spätestens im Dezember) aufgetreten. Erreichte ihre Zahl mindestens 10 (1870, 1878, 1886, 1887, 1893, 1916, 1933, 1950, 1969, 1995, 1998, 2005, 2012), so waren von den 13 Folgewintern 11 zu kalt, nur 2 (1998/99 und 1950/51) zu mild. Bei fast all diesen Fällen brachte schon der Spätherbst markante Kältewellen; selbst vor den beiden dann milden Wintern waren sie zu beobachten; besonders markant 1998. In diesem Jahr gab es bislang 7 Hurrikane und damit etwas zu viele, was sowohl vor extrem kalten als auch vor extrem milden Wintern vorkam. Im Indischen Ozean blieb die Zyklonen- Aktivität 2016 unterdurchschnittlich. Die Wirbelsturm- Aktivität liefert also auch diesmal keine wesentlichen Hinweise auf die kommende Winterwitterung.

11. Die Langfrist-Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:

UKMO (Großbritannien): Stand 14.11.2016 Winter (D, J, F) mit undeutlicher Wahrscheinlichkeit nur in Norddeutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten; beide weisen diesmal ebenfalls keine eindeutigen Wahrscheinlichkeiten auf. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz Stand Nov. 2016: Leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter. Zu milder Winter fast so wahrscheinlich wie der Zufall (33,3%); normaler etwas weniger wahrscheinlich. Die „doppelten T“ sind die Fehlerbalken:

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2016: Dezember normal, Januar sehr mild, Februar zu kalt. Winter insgesamt normal bis etwas zu mild und eher niederschlagsreich.

Kaltwetter.com Prognose vom 28.11.2016: Winter insgesamt normal, wobei Dezember und Februar etwas zu mild werden sollen, der Januar aber deutlich zu kalt ausfällt.

IRI (folgende Abbildung), Vorhersage vom Nov. 2016: Mit leicht erhöhter Wahrscheinlichkeit zu mild.

DWD (Offenbach): Leicht erhöhte Wahrscheinlichkeit für einen kalten oder normalen Winter (Stand Nov. 2016):

NASA (US- Weltraumbehörde) Karte vom November 2015: Winter in Mitteleuropa etwa 1,5 bis 2,5 K zu mild. Bei dieser Karte liegt Mitteleuropa am linken Kartenrand, weit oben:

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 15. bis 24.11.2016): Dezember (links) nur im Alpenraum und Januar (rechts) in den meisten Gebieten etwas zu mild; Februar (unten) überall viel zu mild. Winter insgesamt eher mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser Langfristprognosen deutet einen etwas zu milden Winter an.

Fazit: Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute sind nicht eindeutig und sehr widersprüchlich. Es kündigen sich aber zumindest einige kältere Phasen im Frühwinter an; auch Perioden mit häufigen Frösten im Flachland sind im Dezember deutlich wahrscheinlicher, als in den Vorjahren. Insgesamt fällt der Winter nach momentanem Stand aber erneut zu mild aus, wenngleich vermutlich weniger deutlich, als in den Vorjahren, und wird im Deutschland- Mittel auf +1,0 bis +3,0°C geschätzt (LJM 1981 bis 2010 +0,9°C); bei den sehr widersprüchlichen Prognosesignalen muss die weitere Entwicklung aber noch abgewartet werden. In den Mittelgebirgen bestehen zumindest zeit- und stellenweise Wintersportmöglichkeiten, und Schneekanonen können gut eingesetzt werden. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) -1,5 bis +1,5°C (zu kalt bis etwas zu mild). Für Jan/Feb. 2016 lässt sich noch kein Temperaturbereich schätzen! Das Schneeaufkommen ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan muss noch ein Übergang zu sehr milder Witterung ernsthaft mit hoher Wahrscheinlichkeit in Betracht gezogen werden. Dank der bisherigen Zirkulationsverhältnisse (viele Trog- und Meridionallagen) bleiben aber winterliche Phasen oder wenigstens einen einzelner, kalter bis sehr kalter Wintermonat noch möglich. Sollte allerdings der Dezember tatsächlich zu mild ausfallen oder ein Umschwung zu milder Witterung mit Westwetter nach Mitte Dezember erfolgen, so erhöht das die Wahrscheinlichkeit für einen milden Hochwinter 2017 noch weiter.

Dieses Fazit wurde aus 30% der Tendenz der 2- K- September- Regel, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 10% Analogfälle und 10% der vorwiegenden Tendenz der Langfristprognosen gewichtet.

Aktualisierung voraussichtlich Ende Dezember.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 30.11. 2016