Klimaschutzweltmeister Deutschland versagt beim „Klimaschutz“

Das war vorhersehbar. Denn seit 2009 sinken die Treibhausgasemissionen in Deutschland nicht mehr. Science-Skeptical hatte bereits 2015 berichtet.
Die Gründe. Dank der Energiewende wird per EEG subventionierter Strom aus Sonne und Wind mit Vorrang und in immer größeren Mengen in die Netze gedrückt, ohne das die Stromnetze und Speicher dafür ausgebaut wurden. Teure Gaskraftwerke, die Sonne und Wind ersetzen könnten, wenn in der Nacht die Sonne nicht scheint und/ oder Flaute herrscht, wurden nicht gebaut, da sie gegenüber den staatlich geförderten Erneuerbaren Energien nicht rentabel sind. Daher laufen die Braunkohlekraftwerke, die kostengüstig Strom erzeugen, allerdings nicht ab- und aufgeregelt werden können durch, auch wenn die Sonne scheint und der Wind weht. Die Folge: die deutschen Kohle-Stromexporte haben sich in den vergangenen fünf Jahren verzehnfacht. Deutschland ist Kohlestrom-Exportweltmeister! Das geht aus einem Gutachten für die Grünen-Bundestagsfraktion aus 2017 hervor. Österreich ist dabei der größte Kohlestromabnehmer aus Deutschland und importiert lieber kostengünstigen Kohlestrom aus Deutschland, als seine eigenen, „klimafreundlichen“, aber teuren Gaskraftwerke einzuschalten. Ähnlich sieht es in anderen Anrainerländern aus. Die CO2-Emissionen nehmen daher nicht nur in Deutschland, sondern europaweit nicht ab!


Video Ergänzung zu den Versprechungen von Kanzlerin Angela Merkel ab 2007 wie Deutschland den „Klimaschutz“ schaffen wird.

Ein weiterer Graund dafür, dass die Klimaschutzziele nicht erreicht werden ist, dass die Ausbauziele der Bundesregierung für Elektromobilität weit, weit verfehlt wurden. E-Autos sind auf deutschen Straßen weiterhin die Ausnahme und nicht die Regel. Der Grund: E-Mobilen mangelt es weiterhin an Reichweite und diese sind weiterhin in der Anschaffung viel zu teuer. Ein E-Mobil eignet sich allenfalls als Zweit-/ Stadtauto und das Ladestellennetz ist unzureichend und unkonfortabel. Die Leute wollen nicht ständig nach Ladestationen suchen und den Stecker in die Dose stecken, die dann vielleicht nicht mal passen, oder funktionieren.
Ebenfalls verfehlt hat die Bundesregierung ihre Energieeffizienzziele. Weder Stromverbrauch noch Energieverbrauch sind in Deutschland zurückgegangen.
energiekonzept
2_abb_entw-stromverbrauch_2018-02-14
2_abb_entw-eev-sektoren_2018-02-14_0
Es könne „sogar noch schlimmer kommen“, sagte die Umweltministerin jetzt der SZ. Mittlerweile hätten viele andere Länder beim Klimaschutz aufgeholt. „Vorreiter waren wir mal, über viele Jahre“, sagte Schulze. „Aber wir sind zu lange stehen geblieben.“
Laut des Climate Action Network (CAN) liegt die Bundesrepublik beim Klimaschutz inzwischen nur noch auf Platz 8 der 28 EU-Länder. Der Verband wirft Deutschland vor, ehrgeizigere Ziele auf EU-Ebene zu bremsen. Die ambitioniertesten Klimaschützer in Europa sind der Rangliste zufolge Schweden vor Portugal und Frankreich.
Der Beitrag erschien zuerst bei ScienceSceptical hier




NASA-Glaziologe Jay Zwally räumt auf: Die Antarktis verzeichnet Eiszuwachs!

Der NASA-Glaziologe Jay Zwally sagt, dass er in seiner neuen Studie wieder einmal nachweisen wird, dass die Eisschilde der östlichen Antarktis so viel Eiszuwachs verzeichnen, dass die Verluste im Westen mehr als ausgeglichen werden.

Schmilzt das Eis in der Antarktis nun, oder nimmt es an Masse zu? Eine neue Studie behauptet, dass der Eisverlust der Antarktis während der letzten Jahre dramatisch zugenommen hat. Aber weitere Forschungen zeigen, dass diese Behauptung auf sehr wackligen Beinen steht.

Zwally hat den „Konsens“ bzgl. der Antarktis zum ersten Mal im Jahre 2015 in Frage gestellt, als er eine Studie veröffentlichte, die nachwies, dass das Wachstum der Eisschilde in der Ostantarktis die Verluste in der Westantarktis mehr als kompensierte. Auf diese Studie hat WUWT bereits in einem Beitrag hingewiesen. In diesem Beitrag kann das paper (open source) heruntergeladen werden. Zur Vereinfachung gleich hier die zwally-antarctica-study von 2015.

Zwally stellt jetzt erneut das vorherrschende Narrativ in Frage, wie die globale Erwärmung den Südpol beeinflusst. Sehr ähnlich wie im Jahre 2015 wendet sich Zwallys demnächst erscheinende Studie gegen den so genannten „Konsens“ einschließlich einer von einem aus 80 Wissenschaftlern bestehenden Team durchgeführten und in Nature veröffentlichten Studie. Darin findet sich die Schätzung, dass die Antarktis insgesamt über 200 Gigatonnen Eis pro Jahr verliert, was 0,02 Inches [ca. 0,5 mm] zum Anstieg des Meeresspiegels beitragen soll.

Im Grunde stimmen wir hinsichtlich der Westantarktis überein“, sagte Zwally. „Die Ostantarktis verzeichnet aber nach wie vor Eiszuwachs, und hier herrscht Dissens“.

Der vermeldete Eisverlust ist zumeist die Folge von Instabilität des westantarktischen Eisschildes, welcher von unten durch warmes Ozeanwasser angegriffen wird. Wissenschaftler neigen übereinstimmend zu der Ansicht, dass der Eisverlust in der Westantarktis und bei der Antarktischen Halbinsel zugenommen hat.

Messungen des ostantarktischen Eisschildes sind jedoch mit großen Unsicherheiten behaftet. Darauf fußt der Dissens. (Siehe den damit zusammenhängenden Beitrag mit dem Titel [übersetzt] „Der größte Eisschild der Erde war Millionen Jahre während einer Warnzeit in der Vergangenheit stabil“).

Unserer Studie zufolge ist das Gebiet der Ostantarktis mit den größten Unsicherheiten der ganzen Antarktis behaftet“, sagte Andrew Sheperd, Leitautor der Studie und Professor an der University of Leeds. „Obwohl es über kürzere Zeiträume eine relativ hohe Variabilität gibt, konnten wir keinen signifikanten langfristigen Trend finden, der über 25 Jahre hinausgeht“.

Nun wird die Studie von Zwally jedoch nachweisen, dass der östliche Eisschild mit einer Rate wächst, die die zunehmenden Verluste im Westen mehr als ausgleicht.

Die Eisschilde befinden sich „sehr nahe eines Zustandes im Gleichgewicht“, sagte Zwally. Er fügte hinzu, dass sich dieses Gleichgewicht ändern könnte, wenn die Gesamt-Schmelze bei stärkerer Erwärmung in der Zukunft zunimmt. Warum also gibt es einen so großen Unterschied zwischen den Forschungsergebnissen von Zwally und dem, was 80 Wissenschaftler jüngst in Nature veröffentlicht hatten?

Dafür gibt es mehrere Gründe, aber am schwersten schlägt zu Buche, wie die Wissenschaftler das machen, was sie Glacial Isostatic Adjustment GIA nennen. Dabei wird die Bewegung der Erde unter den Eisschilden berücksichtigt.

Wissenschaftler ziehen Modelle heran, um die Bewegung von Landmassen zu messen als Reaktion auf Änderungen der Eisschilde oben. Beispielsweise sagte Zwally, dass die ostantarktische Landmasse abgesunken ist als Folge von Massenzuwächsen der Eisschilde.

Jene Landbewegungen beeinträchtigen die Daten der Eisschilde, besonders in der Antarktis, wo kleine GIA-Fehler große Änderungen der Massenbilanz der Eisschilde bewirken können – ob das Eis wächst oder schrumpft. Differenzen gibt es außerdem, wie die Forscher die Bildung von Firn und die Akkumulation von Schneefall modellieren.

Das muss genau bekannt sein“, sagte Zwally. „Es ist ein Fehler zu glauben, dass man dies zu modellieren in der Lage ist. Dies sind Modelle, welche die Bewegungen der Erde unter dem Eis abschätzen“.

Zwallys Studie aus dem Jahr 2015 zeigte, dass eine isostatische Adjustierung von 1,6 mm erforderlich war, um die „gravimetrischen und altimetrischen“ Messungen von Satelliten in Übereinstimmung miteinander zu bringen.

In der Studie von Sheperd wird die Arbeit von Zwally mehrmals zitiert, doch wird darin lediglich von einem Eiszuwachs in der Ostantarktis von 5 Gigatonnen pro Jahr gesprochen – doch ist diese Schätzung mit einer Fehlerbandbreite von 46 Gigatonnen behaftet.

Zwally andererseits behauptet, dass der Eiszuwachs irgendwo zwischen 50 und 200 Gigatonnen pro Jahr liegt.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2018/06/15/nasa-glaciologist-jay-zwally-puts-the-hammer-down-antarctica-is-gaining-ice/




Die Menschen werden immer dümmer – und der Klima­wandel ist nicht schuld daran

Forschung: Menschen werden immer dümmer …

lautete die informative Überschrift einer renommierten Postille [1]. Wissenschaftler in Norwegen haben festgestellt, dass die Bewohner von Norwegen von 1905 bis heute dümmer geworden sind. Sie sind sich darin so sicher, dass sie die Vermutung äußern, der IQ der norwegischen Bevölkerung würde in den nächsten hundert Jahren um weitere sieben, bis zehn Prozent abfallen [5].
BUSINESS INSIDER: [1]Seit Jahren gibt es Anzeichen dafür, dass der durchschnittliche IQ weltweit sinkt. Die norwegischen Forscher Bernt Bratsberg und Ole Røgeberg vom Frisch Centre der Universität Oslo konnten das nun erstmals anhand der norwegischen Bevölkerung nachweisen.
Während der Schnitt seit der Entwicklung des ersten massentauglichen Intelligenztests im Jahr 1905 immer weiter anstieg und im Jahr 1975 sogar einen Durchschnittswert von 102 erreichte, sank er danach bis zum Jahr 1990 stetig auf unter 100 Punkte ab. Wie die Forscher vermuten, könnte der IQ innerhalb der nächsten hundert Jahre sogar um ganze sieben bis zehn Punkte abfallen.

Das sind nicht hoch genug zu achtende Forschungsergebnisse – wie man sie sonst nur aus der modernen Klima(Folgen)-Forschung kennt. Anhand genauer und mit heutigen IQ-Messungen bestimmt vergleichbaren Daten von 1905 wurden komplexe, statistische Analysen durchgeführt [6]. Mit erschreckendem Ergebnis und noch erschreckenderer, aber präziser Hochrechnung für die kommenden 100 Jahre.
Norwegens Bevölkerung ist dann mit einer – dank hochwertiger, wissenschaftlicher Arbeitsweise engen Vorhersage-Genauigkeit, um 8,5 +-1,5 (7 … 10) Intelligenzpunkte dümmer geworden.
Ein solcher „IQ-Proxy“ erlaubt auch eine Hochrechnung auf die Welt-Gesamtpopulation „ ,,, der durchschnittliche IQ weltweit sinkt“.

Nicht Klima- sondern Umweltfaktoren sollen der Grund dafür sein

Klar wurde mit wissenschaftlicher Akribie auch nach den Gründen gesucht. Und es fand sich kein Klimawandel darunter! Es sollen nun „Veränderungen im Bildungswesen“ und Mediennutzungen sein … Wer wäre bisher ohne neue Forschungen nur auf solche weit, weit weg vom Thema liegende Möglichkeiten gekommen?
BUSINESS INSIDER: [1]Für ihre Studie ermittelten die Wissenschaftler den Intelligenzquotienten von Testpersonen … und untersuchten außerdem genetische Veränderungen und Veränderungen, die verschiedenen Umweltfaktoren zuzuschreiben sind … Vielmehr sollen Umweltfaktoren für diesen negativen Trend verantwortlich sein. Dazu zählen den Forschern zufolge Veränderungen im Bildungswesen, bei der Nutzung verschiedener Medien sowie bei der Ernährung …

Statistik

Wenn man schon beim Nachsehen ist, anbei ein paar Daten [7]:
– Singapur hat Rang 1 mit einem IQ von 108
– Deutschland Rang 15 mit einem IQ von 100 (gleichauf mit Österreich)
– Norwegen Rang 19 mit einem IQ von 99
– Frankreich und USA Rang 26/27 mit einem IQ von 98
(der gleiche IQ wählt einmal Trump und einmal Macron. Vielleicht unterscheiden sich die Beiden gar nicht so stark)
– Äquatorialguinea steht an letzter Stelle mit Rang 109 und einem IQ von 56

Obwohl die Norweger also dümmer geworden sind, liegen sie lediglich einen einzigen, wohl kaum unterscheidbaren Punkt niedriger als Deutschland. Nun wäre es interessant zu wissen, wo Deutschland im Jahr 1905 stand.

Es gibt verschiedene Korrelationen

Anbei die Korrelation zwischen den Bildungsausgaben und IQ-Rang eines Landes (Rang 0 ist der Spitzenplatz). Leider ist nicht erkennbar, wie sich diese Bildungsausgaben zusammensetzen. Manche werden ahnen, welche Länder weit links stehen. Der Kontinent mit den meisten Länderprobanden liegt auf dem Globus in Südrichtung direkt unter uns.

Bild 1 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Bildungsausgabe/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Fast identisch sieht das Diagramm zwischen dem IQ-Länder-Ranking und mittlerem Einkommen aus.

Bild 2 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Einkommen/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Trotzdem war noch etwas mit Intelligenz und Klima

Laenderdaten.Info: [7]Ist Intelligenz abhängig vom Klima?
Schon seit 1991 besteht die Vermutung, dass über Generationen anhaltende Wärme sich auf den IQ auswirkt. Man ging zunächst davon aus, dass ein Leben in niedrigeren Temperaturen eine höhere körperliche Fitness voraus setzt und höhere soziale Anforderungen an das Leben stellt. Richard Lynn, Professor an der nordirischen University of Ulster geht zudem davon aus, dass die kälteren Temperaturen das Gehirnvolumen ansteigen lassen. Ob die Gehirngröße mit der Intelligenz überhaupt in Verbindung steht, ist allerdings umstritten.
Generell gilt ein heißes Klima als nachteilig für die Entwicklung von Intelligenz. Der Grund hierfür wird heutzutage vorwiegend in dem hohen körperlichen Energiebedarf und dem
dadurch entstehenden Stress gesehen. Insbesondere Kleinkinder verwenden bis zu 90% der Körperenergie für das Gehirn. Wenn in dieser für die Entwicklung wichtigsten Lebensphase die Energie anderweitig benötigt wird, kann sich das Gehirn nicht entsprechend entwickeln.
Dazu die Grafik mit dem Scatterdiagramm zwischen IQ-Rang (Rang 0 ist der Spitzenplatz) und der mittleren Tageshöchsttemperatur. Es zeigt sich ein eindeutiger Zusammenhang. Mehr Tageshitze macht das Landesranking und damit den IQ schlechter.
Nach anderen Ursachen braucht niemand mehr zu suchen, erlauben es sich Klimawandel-Forscher zu solch eindeutigen Diagrammen zu sagen. Diese „eindeutige“ Bild wird nur dadurch gestört, dass die schlimmen Ausreißer erfolgreiche, asiatische Staaten sind.

Bild 3 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), mittlere Tageshöchsttemperatur °C, Lineare Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Damit kann jeder relativ leicht entscheiden, ob das Klima (wie es Wissenschaftler vemuten), oder Anderes (mehr) am IQ „dreht“.
Noch etwas Interessantes findet sich auf der IQ-Infoseite. Der IQ schwankt je nach psychischer Verfassung mit einer Spanne von 20 (+-10) Punkten:
Laenderdaten.Info: [7]Der Intelligenzquotient wurde so bemessen, dass der Mittelwert bei 100 liegt. Bei einer Standardabweichung von 15% ist also ein IQ zwischen 85 und 115 als normal anzusehen. Je nach psychischer und physischer Verfassung des Probanden können zudem die Messergebnisse um bis zu 10 Punkte nach oben und unten schwanken.
Nun stelle man sich vor, die psychische Verfassung der Proband*innen hat sich die letzten Jahre durch die dauernde, mediale Klimawandelfolgen-Hysterie verändert. Dann ließen sich die wenigen Punkte „Verdummung“ und der minimale Abstand zu Deutschland leicht erklären.
Mit ganz geringem „Bildungsaufwand“ wäre es dann auch möglich, die Norweger vor dem 8,5 +-1,5 IQ-Punkteverlust in 100 Jahren durch einfache (psychische) Maßnahmen zu heilen.

Quercheck

Keine Sichtung ohne den obligatorischen Quercheck. Gibt es etwa in Deutschland Anzeichen, dass – wie in [7] berichtet wird -, die Temperatur im Babyalter Einfluss auf den IQ hat.
Es findet sich eine Quelle mit umfassender Information:
P.M. Magazin (gekürzt): [8] Der Geburtsmonat prägt unser Leben entscheidend
… Der Geburtsmonat eines Menschen hat nachweislich Einfluss auf seine Entwicklung, Gesundheit, Charakter und Beruf, berichtet die Zeitschrift P.M. MAGAZIN in ihrer Februar-Ausgabe. Eine große Rolle spielen dabei die äußeren Einflüsse, denen ein Kind zum Zeitpunkt der Geburt und in den Monaten zuvor im Mutterleib ausgesetzt ist.
Ausgewählte Merkmale für jeden Geburtsmonat:
Januar: höheres Risiko für Schizophrenie, Epilepsie und Alzheimer; tendenziell Frühaufsteher
Februar: höheres Risiko für Essstörungen und Pollenallergien
März: überdurchschnittlich früh einsetzende Wechseljahre bei Frauen; höheres Risiko für Alkoholismus und Kindheit-Diabetes
April: höhere Kinderzahl und Körpergröße bei Männern; tendenziell geringerer Intelligenzquotient
Mai: überdurchschnittlich viele Selbstmorde; erhöhtes Multiple-Sklerose-Risiko; eher Nachtmenschen
Juni: geringes Geburtsgewicht; viele Nobelpreisträger …

So wirklich Hilfreiches findet sich darin nicht. Im April geborene Männer haben einen geringeren Intelligenzquotient. Aber drei Monate später im Hochsommer Geborene können bereits Nobelpreisträger werden. Das war es aber schon über das gesamte Jahr mit einem Temperatureinfluss. Richtig zwingend Temperatur-korrelativ erscheint dies nicht.
Zur wichtigen Eigenanamnese vor Besuchen beim Arzt oder Psychologen ist diese Listung allerdings gut zu gebrauchen. Man kann sich damit als kompetenter Patient fühlen.
Quellen
[1] BUSINESS INSIDER Deutschland 14.06.2018, Jessica Dawid: Die Menschen werden immer dümmer — jetzt gibt es einen wissenschaftlichen Beweis
[2] EIKE 20.02.2018: Der Klimawandel macht dumm
[3] WUWT October 17, 2012: Claim: CO2 makes you stupid? Ask a submariner that question
[4] EIKE 14. Juni 2018: AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten
[5] Bernt Bratsberg and Ole Rogeberg, Studie: Flynn effect and its reversal are both environmentally caused
[6] Bernt Bratsberg and Ole Rogeberg: Supplementary Information for “The Flynn effect and its reversal are both environmentally caused” Authors:
[7] Laenderdaten.Info: Der IQ im Ländervergleich
[8] Gruner+Jahr, P.M. Magazin, 16.01.2014: Der Geburtsmonat prägt unser Leben entscheidend




Jenseits ENSO: Neue Signale jahres­zeitlicher und mehr­jähriger Vorhersag­barkeit

Das Climate Forecast Application Network CFAN* hat seine Prognose-Bemühungen auf die Überbrückung dieser Lücke konzentriert, indem es Prognosen extremer Ziel-Abschätzungen des Vertrauens in die Vorhersage abgibt.

[*Man könnte das etwa übersetzen zu Netzwerk der Anwendung von Klima-Prognosen. Anm. d. Übers.]

Abbildung 1: Brauchbarkeit von Vorhersagen für das Risiko-Management


Diese Abbildung illustriert das Konzept der probabilistischen Wettervorhersage mittels eines globalen Prognose-Systems von Ensemble-Modellen.

Für jede Vorhersage errechnet das globale Modell ein Ensemble multipler Vorhersagen, initialisiert mit leicht unterschiedlichen Anfangszuständen. Das Modell der europäischen Wetterzentrale ECMWF hat eine Ensemble-Größe von 51 Vorhersagen. Eine Einzelvorhersage (sagen wir mal der goldene Punkt in Abbildung 2) kann ziemlich weit entfernt liegen vom tatsächlich beobachteten Ergebnis (der rote Punkt). Falls das Ensemble groß genug ist, kann eine bedeutsame probabilistische Vorhersage gegeben werden. Ziel der probabilistischen Vorhersage ist es, das beobachtete Ergebnis (der rote Punkt) in einen Probabilitäts-Raum zu bringen (reflektiert durch die dunkelblaue Fläche), welcher deutlich kleiner ist als der der Klimatologie (hellblaue Fläche).

Die tatsächliche Modellprognose wird durch die grüne Fläche charakterisiert. Die potentielle Vorhersagbarkeit des Modells wird charakterisiert durch die dunkelblaue Fläche. Diese potentielle Vorhersagbarkeit kann sich in einer Vorhersage niederschlagen mittels Kalibrierung der Vorhersage und Verfahren der Interpretation der Ensembles.

Abbildung 2: Ensembles und probabilistische Wettervorhersage

Die Herausforderung der probabilistischen Klimavorhersage ist: um das beobachtete Ergebnis zu erfassen, muss die Ensemble-Größe sehr groß sein und so groß werden wie die Klimatologie. Die Herausforderung wird noch stärker, wenn sich das Klima ändert, etwa in Gestalt einer allmählichem globalen Erwärmung oder einer abrupten Verschiebung in einem Klimaregime wie etwa der Atlantischen Multidekadischen Oszillation AMO.

Abbildung 3: Ensembles und probabilistische Klimavorhersage

Für Wettervorhersagen in einer zeitlichen Größenordnung von 2 Wochen oder weniger können Ensemble-Vorhersagemodelle bedeutsame Probabilitäten liefern. Dieser Zeitrahmen wird zu einem Zeitrahmen kürzer als Jahreszeiten erweitert, potentiell bis zu 6 Wochen. Allerdings zeigen Vorhersagen, die über 2 Monate hinaus gehen, oftmals wenig Bezug zur Wirklichkeit, und derartige probabilistische Vorhersagen können tatsächlich Entscheidungsträger in die Irre führen. Im Zeitrahmen von Jahreszeiten werden typischerweise prognostische Einsichten vermittelt, während ein Prognostiker die Modellprognosen in eine Analyse von Analogien und vielleicht ein paar statistischen Vorhersageverfahren integriert.

Abbildung 4: Vorhersagbarkeit, Vorhersage und Szenarien

Eine Lücke in der Vorhersagbarkeit ist um 1 Jahr erkennbar, sie ist dort nur sehr gering. Vergrößert man den Zeitrahmen, steigt die Vorhersagbarkeit wieder, und zwar assoziiert mit längerfristigen Klima-Regimes. Allerdings werden die Vorhersagen zunehmend unsicher, wenn man den Zeitrahmen immer mehr verlängert.

Mögliche Zukunfts-Szenarien können nummeriert, aber nicht eingeordnet werden, z. B. wegen Unsicherheit.

Eine brauchbare Langfristvorhersage lässt die Möglichkeit offen, falsch oder auch überraschend zu sein in Verbindung mit abrupten Änderungen oder Schwarzer-Schwan-Ereignissen. Es ist höchst sinnvoll, derartige Ereignisse von vornherein als Möglichkeit zuzulassen.

Die entscheidende Herausforderung der Vorhersage ist es, den Zeitrahmen für bedeutsame Probabilitäts-Vorhersagen und für die prognostischen Abschätzungen der Wahrscheinlichkeit zukünftiger Ereignisse auszuweiten.

Wie können wir diese Prognose-Horizonte erweitern?

ECMWF ENSO Prognosegüte

Verbesserungen der globalen Klimamodelle helfen, den Zeitrahmen für bedeutsame probabilistische Vorhersagen auszudehnen.

Die folgende Abbildung vergleicht Vorhersagen der El Nino Southern Oscillation ENSO mittels der jüngsten Version des europäischen Modells ECMWF im Vergleich mit der vorherigen Version dieses Modells. Die Y-Achse ist der Monat der Initiierung, und die X-Achse repräsentiert den Vorhersage-Zeithorizont in Monaten. Die Farben repräsentiert die Stärke der Korrelation zwischen historischen Vorhersagen und Beobachtungen.

Abbildung 5: ECMWF ENSO Prognosegüte

Das bemerkenswerteste Phänomen in diesem Diagramm ist der Einbruch der Vorhersagbarkeit im Frühjahr [ein unter Synoptikern von Anfang an bekanntes Phänomen]. Initialisiert man eine Vorhersage im April, wird die Prognosegüte bis Juli rapide abnehmen, und der Korrelationskoeffizient sinkt unter 0,7 (weiße Fläche). Wird jedoch eine Prognose im Juli initiiert, bleibt die Vorhersagegüte für die folgenden 7 Monate und auch darüber hinaus sehr hoch.

Die Güte der neuen ECMWF-Version findet sich rechts, und man erkennt eine substantielle Verbesserung. Zwar unterscheidet sich das Farbschema etwas, doch kann man erkennen dass die weiße Fläche mit einem Korrelationskoeffizienten unter 0,7 viel kleiner ist. Dies ist ein Anzeichen, dass das Modell hinsichtlich des Einbruchs im Frühjahr viel besser agiert.

Die verbesserte Güte in Version 5 wird Verbesserungen des Ozean-Modells zugeordnet, ebenso wie Parametrisierungen der tropischen Konvektion.

Abbildung 6: Klima-Vorhersage: Signale des Problems des Rauschens

In Zeitrahmen über ein paar Wochen hinaus besteht die Herausforderung darin, die vorhersagbaren Komponenten zu identifizieren. Unter diesen Komponenten sind:

jedweder langfristige Trend

Regimes und Fern-Wechselwirkungen

sowie jedwede zyklische oder jahreszeitliche Effekte.

Hat man vorhersagbare Komponenten erst einmal identifiziert und isoliert, kann man loslegen.
Die Herausforderung besteht darin, die vorhersagbaren Komponenten vom ,Rauschen‘ zu trennen. Darunter sind:

unvorhersagbare chaotische Komponenten

Zufallsvariabilität des Wetters

Modellfehler

Die größte Herausforderung sind Verschiebungen der Regimes, vor allem, wenn diese Verschiebungen durch Zufallsereignisse ausgelöst wurden. Man erinnere sich, im Jahre 2015 sah es wirklich so aus, als würde sich ein El Nino entwickeln. Dessen Entwicklung wurde jedoch vereitelt durch zufällige starke Ostwinde im tropischen Pazifik. Diese fehlgeschlagene Entwicklung des Jahres 2015 bahnte den Weg für den Super El Nino des Jahres 2016.

Abbildung 7: Klimavorhersage: können wir die Klimatologie schlagen?

Die große Frage bei einer Klimavorhersage ist, ob man die Klimatologie schlagen kann. Die Vorhersagegüte ist von vielen Dingen abhängig.

Die Initialisierung einer Vorhersage relativ zum jahreszeitlichen Zyklus ist eine bedeutende Determinante der Güte. Auch ist eine Vorhersage, die während eines fest bestehenden Regimes initialisiert wird wie etwa einem El Nino, besser.

Eine der bedeutendsten prognostischen Erkenntnisse, den ein Prognostiker liefern kann ist, ob die aktuelle Vorhersage die Klimatologie schlagen kann.

Das Vorhersagefenster der Gelegenheit, Fenster bzgl. Raum und Zeit zu identifizieren ist größer, wenn die erwartete Vorhersagegüte größer als gewöhnlich ist, weil dann bestimmte Phasen großräumiger Zirkulationen vorherrschen.

Ich verwende oft eine ,Poker‘-Analogie, wenn ich dies Energiehändlern erkläre – man muss wissen, wie man weitermachen soll [im Original steht hier das unübersetzbare Wortspiel ,hold‘ or ,fold‘. Anm. d. Übers.]. Hinsichtlich einer Vorhersage ist dies der Unterschied zwischen Vorhersagen mit geringem oder hohem Vertrauen.

Abbildung 8: von Daten bestimmte Prognoseverfahren

Statistische Vorhersagen wurden viele Jahrzehnte lang verwendet, bevor globale Klimamodelle entwickelt worden sind, besonders für die Monsunregen in Asien. Traditionelle statistische Vorhersagen waren Zeitreihen auf der Grundlage von Analogien während der Vergangenheit. Während in diese Verfahren Erkenntnisse der Klimadynamik einfließen, haben sie sich als zu simplizistisch erwiesen, und außerdem gibt es nur eine unzureichende Anzahl von Analogien während der Vergangenheit.

Die größte Herausforderung für statistische Vorhersagen ist, dass sie bei einer Verschiebung von Regimes keinerlei Aussagekraft mehr haben. Man erinnere sich an das Jahr 1995, als das statistische Hurrikan-Vorhersagemodell von Bill Gray nicht mehr funktionierte, nachdem sich die atlantische Zirkulation verändert hatte. Ein Beispiel aus jüngerer Zeit ist die Bewertung der Schneebedeckung im Oktober in Sibirien. Diese heranzuziehen funktionierte auch nicht mehr, nachdem sich das Klimaregime verändert hatte.

Gegenwärtig ist die Analytik von Big Data der letzte Schrei bzgl. der Vorhersage von Wetter und Klima. IBM-Watson ist ein Beispiel. Mathematiker und Statistiker bringen Verfahren der Datengewinnung und künstlicher Intelligenz ins Spiel für die Wetter- und Klimavorhersage.

Der Guru künstlicher Intelligenz Richard DeVeaux nennt das folgende Rezept dafür, erfolgreich zu sein:

Gute Daten + Fachkenntnisse + Datengewinnung + Nachdenken = Erfolg

Die eingrenzenden Zutaten sind Fachkenntnis und Nachdenken. Ohne gute Kenntnisse der Klimadynamik wird Katzengold das Ergebnis jedweder Klimavorhersage auf der Grundlage von Datengewinnung sein.

Abbildung 9: Jahreszeitliche bis jährliche Vorhersagen: Prognostische Erkenntnisse → probabilistische Vorhersagen.

Der Weg zu einer Ausdehnung des Zeithorizonts für bedeutsame probabilistische Vorhersagen ist es, globale Klimamodelle mit Erkenntnissen von Vorhersageverfahren auf der Grundlage von Daten zu integrieren.

Das Problem der Klimamodell-Vorhersagen ist, dass sie nach ein paar Monaten unvermeidlich in die Klimatologie abgleiten. Das Problem von Vorhersagen auf der Grundlage von Daten ist deren schlechte räumlich-zeitliche Auflösung.

Diese können integriert werden, indem die Klimamodell-Ensemble-Mitglieder anordnet um Prädiktoren aus auf Daten basierenden Vorhersagen zu Gruppen zusammengefasst werden.

Vertrauensabschätzungen können vorgenommen werden auf der Grundlage der Wahrscheinlichkeit einer Regime-Verschiebung.

Vorhersagen auf Daten-Grundlage: Analyse der Klimadynamik

Bei Verfahren zur Klimavorhersage auf der Grundlage von Daten ist es unabdingbar, die Bandbreite der Klimaregimes zu kennen, welche unsere Vorhersage beeinflussen können. Diese Regimes zeigen die Erhaltensneigung im Klimasystem. Die Herausforderung besteht darin, die geeigneten Regimes zu identifizieren, deren Auswirkung auf die gewünschten Vorhersage-Variablen zu verstehen und die Vorhersage zukünftiger Verschiebungen dieser Regimes.

Die CFAN-Analyse der Klimadynamik enthält die Betrachtung dieser 5 Zeitrahmen und deren damit assoziierten Regimes. Sie reichen vom jährlichen Zyklus bis zu multidekadischen Zeitrahmen.

Zustände der Zirkulation: Quellen der Vorhersagbarkeit

Unsere Bemühungen zur Datengewinnung haben eine Anzahl neuer Zirkulations-Regimes identifiziert, die als Prädiktoren brauchbar sind über eine Bandbreite von Zeitmaßstäben. Darunter sind:

Nordatlantische ARC-Zirkulation

Indo-Pazifik-Atlantik-Zirkulation

Anomalien hemisphärischer stratosphärischer Zirkulation auf beiden Hemisphären

Bipolare Zirkulation in der Stratosphäre

NAOX: Nordatlantische SLP/Windzirkulation

Globale Zirkulationen von Nord-Süd-Winden in der oberen Troposphäre/unteren Stratosphäre

Nordatlantische ARC-Zirkulation

Abbildung 10: Nordatlantische ARC-Zirkulation

Im Atlantik ist aktuell eine faszinierende Entwicklung zu beobachten. Abbildung 10 zeigt Anomalien der Wassertemperatur im Atlantik für den Monat Mai. Man erkennt einen Bogen kalter blauer Temperaturanomalien, welcher sich vom äquatorialen Atlantik entlang der Küste von Afrika erstreckt und dann in ein von Ost nach West verlaufendes Band südlich von Grönland und Island mündet. Diese Verteilung bezeichnet man als die atlantische ARC-Zirkulation.

Abbildung 11: ARC-Wassertemperatur-Anomalien im Nordatlantik

Eine Zeitreihe von Wassertemperatur-Anomalien im ARC-Gebiet seit 1880 zeigt, dass sich Änderungen mit scharfen Verschiebungen manifestieren. Man erkennt derartige Verschiebungen in den Jahren 1902, 1926, 1971 und 1995.

In der unteren Graphik erkennt man, dass die ARC-Temperaturen während der letzten paar Monate einen schroffen Rückgang zeigen. Ist dies jetzt lediglich eine Kalt-Anomalie wie im Jahre 2002? Oder wird hier eine Verschiebung in die Kaltphase eingeläutet?

Die CFAN-Forschungen haben Präzedenzen der Verschiebungen identifiziert. Gegenwärtig arbeiten wir aktiv daran, die jetzige Lage richtig einzuordnen.

Kaltphase der atlantischen AMO: Auswirkungen

Es wird erwartet, dass eine Verschiebung hin zur Kaltphase der AMO ausgeprägte Auswirkungen haben wird. Diese Erwartung speist sich aus Verschiebungen während der Vergangenheit:

verringerte Hurrikan-Aktivität im Atlantik

verstärkte Regenfälle in den USA

verringerte Regenfälle in Indien und der Sahel-Zone

Verschiebung der Fischbestände im Nordatlantik

Beschleunigung des Meeresspiegel-Anstiegs an der nordöstlichen US-Küste

Abbildung 12: Auswirkungen der AMO auf atlantische Hurrikane

Die Atlantische Multidekadische Oszillation übt auf atlantische Hurrikane einen substantiellen Einfluss aus. Die obere Graphik zeigt die Zeitreihe der Anzahl starker Hurrikane seit dem Jahr 1920. Die Warmphasen der AMO sind gelb schattiert. Man erkennt eine substantiell höhere Anzahl starker Hurrikane während der gelb schattierten Zeiträume.

Einen ganz ähnlichen Effekt zeigt die Accumulated Cyclone Energy:

Abbildung 13: Auswirkungen der AMO auf auf das US-Festland übergreifende Hurrikane

Im Gegensatz dazu erkennt man, dass die Warmphasen im Vergleich zu den Kaltphasen der AMO kaum Auswirkungen auf die Häufigkeit von auf das US-Festland übergreifende Hurrikane hat.

Abbildung 14: Auswirkungen der AMO auf Hurrikane in Florida

Allerdings hat die Phase der AMO einen gewaltigen Einfluss auf Florida. Während der vorangegangenen Kaltphase gab es zu keiner Jahreszeit mehr als einen Übertritt auf Florida, während es während der Warmphase mehrere Jahre gab mit drei derartigen Ereignissen oder mehr. Dass ein starker Hurrikan auf Florida übergreift ist mehr als doppelt so wahrscheinlich in einer Warmphase als in der Kaltphase.

Diese Variationen der Übertritte auf das Festland in Verbindung mit Änderungen der AMO haben einen substantiellen Einfluss auf die Entwicklung in Florida. Die Reihe von Hurrikanen des Jahres 1926 tötete den ökonomischen 1920 angefangenen Boom. Bevölkerung und Entwicklung beschleunigten sich während der siebziger Jahre, unterstützt durch eine Periode schwacher Hurrikan-Aktivität.

Die jahreszeitlichen Vorhersagen atlantischer Hurrikane von CFAN

Das CFAN-Verfahren untersucht globale und regionale Wechselwirkungen zwischen Ozean-, Troposphären- und Stratosphären-Zirkulationen. Vorlaufende Prozesse werden identifiziert durch Datenerfassung, interpretiert im Zusammenhang der Klimadynamik-Analyse. Damit werden dann statistische Tests mit Nachhersagen durchgeführt.

Wir betrachten in unserer Analyse drei Perioden, definiert durch gegenwärtige Regimes der Zirkulation:

Die Periode seit 1995, welche mit der Warmphase der AMO korrespondiert

Die Periode seit 2002, definiert durch eine Verschiebung der Nordpazifischen Oszillation im Jahre 2001

Die Periode seit 2008, charakterisiert durch eine Vorherrschaft von El Nino-Ereignissen alle drei Jahre.

Abbildung 15: CFAN-Vorhersage der atlantischen Hurrikan-Saison 2018

Vorige Woche haben wir unsere dritte Vorhersage für die atlantiche Hurrikan-Saison 2018 herausgegeben. Wir prognostizieren eine unternormale Aktivität mit einem ACE-Wert von 63 und 4 Hurrikanen.

Die Graphik rechts zeigt die Nachhersage-Verifikation unserer Juni-Vorhersage bzgl. der Anzahl von Hurrikanen. Die Prognose wird erstellt mittels historischer Daten aus drei verschiedenen Perioden, die jeweils mit den drei oben beschriebenen Regimes korrespondieren.

Abbildung 16: Prädiktoren von CFAN für die jahreszeitliche atlantische Hurrikan-Vorhersage

Die jahreszeitlichen Prädiktoren von CFAN werden für jede Vorhersage ermittelt durch ein Datengewinnungs-Verfahren mit unterschiedlichen Prädiktoren für jeden Zeitraum. Die ausgewählten Prädiktoren werden dann einer Klimadynamik-Analyse unterzogen, um zu verifizieren, dass die Prädiktoren aus verfahrenstechnischer Sicht sinnvoll sind.

Die von uns herangezogenen Prädiktoren sind bezogen auf atmosphärische Zirkulationsmuster. Unsere Prädiktoren unterscheiden sich substantiell von denen, die von anderen Gruppen für statistische Vorhersagen herangezogenen werden, welche sich vorherrschend auf die Wassertemperatur und den Luftdruck über dem Wasser stützen.

Jahreszeitliche Vorhersage 2017

Abbildung 17: Vorhersage atlantischer Hurrikane: worst case-Szenario

Hier folgt die von uns ausgegebene Vorhersage von vor einem Jahr zur Hurrikan-Saison 2017. Wir prognostizierten eine aktive Saison mit 3 Übertritten auf das US-Festland. Diese Anzahl war korrekt, aber wir haben substantiell die ACE unterschätzt.

Aus der Perspektive des Finanzsektors ist es entscheidend, ob wir eine weitere extrem aktive Hurrikan-Saison erleben und wie viele Hurrikane auf das US-Festland übergreifen.

Wir führten ein Datensammel-Verfahren durch, um Verteilungen zu identifizieren, welche die extrem aktiven Saisons der Jahre 1995, 2004, 2005 und 2017 erklären. Unser gegenwärtiges Vorhersagemodell ist zwar hinsichtlich der Extreme in den Jahren 1995 und 2017 korrekt, nicht jedoch für die Jahre 2004 und 2005.

Der einzige Prädiktor, der 2004/2005 auftauchte, war ein Vorgang in der Stratosphäre nahe der Antarktis. Zu diesem Zeitpunkt haben wir keine Ahnung, ob dieser Vorgang ein plausibler Prädiktor auf physikalischer Grundlage für die atlantische Hurrikan-Aktivität ist. Verstörend ist, dass Prädiktoren der polaren Stratosphäre eine extrem aktive Saison 2018 vorhersagen. Dies steht im Gegensatz zu den anderen von uns herangezogenen Prädiktoren.

Fazit: Zu diesem Zeitpunkt wissen wir nicht, ob wir echtes Gold oder Katzengold ausgegraben haben. In jedem Falle ist dies ein gutes Beispiel des Nutzens und der Gefahren bei der Datensammlung.

Link: https://judithcurry.com/2018/06/07/beyond-enso-new-signals-of-seasonal-to-interannual-predictability/
Übersetzt von Chris Frey EIKE




Auszüge aus dem Rundbrief der GWPF vom 13. Juni 2018

Gar nicht mehr grün: Deutschland torpediert ambitionierte EU-Energieziele

Die Wähler in ganz Europa haben das Vertrauen in die Politik verloren – auch aufgrund der „unerreichbaren Ziele“ für erneuerbare Energien, sagte der deutsche Wirtschafts- und Energieminister Peter Altmaier gestern.

Altmaier wies die Forderungen einer Gruppe anderer EU-Länder zurück, den Anteil der erneuerbaren Energien bis 2030 auf 33 bis 35 Prozent des Energiemixes zu erhöhen. Der Minister äußerte sich während eines Austauschs mit den übrigen 27 EU-Energieministern, die gestern in Luxemburg zu einem Treffen des Energierats zusammengekommen waren.

Die Energieminister müssen aktuell eine gemeinsame Position zu drei Gesetzen für saubere Energien erarbeiten, die derzeit in den EU-Institutionen ausgehandelt werden: Die Richtlinie über erneuerbare Energien, die Richtlinie über Energieeffizienz sowie eine Verordnung über die Führung der Energieunion.

„Deutschland unterstützt verantwortungsvolle, aber erreichbare Ziele,“ betonte Altmaier von Anfang an. Er unterstrich außerdem, dass die Bemühungen Berlins, den Anteil der erneuerbaren Energien zu steigern, bisher lediglich dazu geführt hätten, dass dieser Anteil am Gesamtenergiemix des Landes bei nun 15 Prozent liegt.

Allein diese Bemühungen würden die deutschen Steuerzahler bereits 25 Milliarden Euro pro Jahr kosten, so Altmaier. „Wenn wir uns jetzt ein Ziel setzen, das deutlich über 30 Prozent hinausgeht, bedeutet das: Wir müssen unseren Anteil in zehn Jahren deutlich mehr als verdoppeln.“

„Das werden wir nicht schaffen,“ konstatierte der Minister auch mit Blick auf das vormalige Ziel, bis zum Jahr 2020 eine Million Elektroautos auf deutschen Straßen zu haben. Dies werde allerdings auch nirgendwo sonst in Europa erreicht. Altmaier weiter: „Selbst, wenn wir es schaffen würden, hätten wir nicht genügend erneuerbaren Strom, um alle diese Autos zu betreiben.“

Was daher benötigt werde, sei „ein Kompromiss [auf europäischer Ebene], der verhindert, dass wir innerhalb kurzer Zeit wieder ein Ziel haben, das nicht erreicht worden ist.“ Der CDU-Politiker warnte: „Die Bürgerinnen und Bürger in Europa verlieren auch das Vertrauen in die Politik, wenn sie feststellen, dass wir sehr ambitionierte Ziele haben, und einige Jahre später sich herausstellt, dass wir weit von ihrer Erfüllung entfernt sind.“

Altmaiers Kompromissvorschlag ist „erbärmlich“

Claude Turmes, dem Verhandlungsführer des Parlaments über die Energieunion-Verordnung, nannte Altmaiers Erklärung „erbärmlich“. Dennoch dürften die vom Wirtschaftsminister geäußerten deutschen Ansichten die Erwartungen anderer EU-Länder, die mehr Ehrgeiz für das EU-Gesetzgebungspaket für saubere Energie gefordert haben, deutlich enttäuscht haben.

Luxemburg und Spanien, deren Vertreter vor Altmaier sprachen, unterstützen beide die Forderung des Europäischen Parlaments nach mehr Ehrgeiz in Bezug auf erneuerbare Energien und Energieeffizienz. Sie fordern ein Ziel von 35 Prozent für beide Punkte.

Die Niederlande, Frankreich, Dänemark, Schweden, Italien und Portugal gehörten ebenfalls zu denjenigen, die höhere Ambitionen im Bereich der erneuerbaren Energien und der Energieeffizienz anstreben.

Brune Poirson, französische Staatssekretärin für Ökologie, unterstrich die Notwendigkeit „starker Ambitionen“ auf EU-Ebene, um die Ziele des Pariser Klimaabkommens zu erreichen. Frankreich, so Poirson, sei bereit, bei der Energieeffizienz einen Kompromiss von „rund 33 Prozent“ zu unterstützen. Dies wäre ein Mittelweg zwischen den Positionen des Europäischen Parlaments und der EU-Mitgliedstaaten. Zu den erneuerbaren Energien sagte die Staatssekretärin, ein Anteil von 32 Prozent sei „ein guter Kompromiss“.

Ebenso wichtig sei der vorgeschlagene Gap-filler-Mechanismus („Lückenfüller“), sollten die EU-Länder bei der Erreichung des vereinbarten Ziels auf EU-Ebene hinterherhinken. Poirson erhielt in diesem Punkt Unterstützung von Altmaier, der erklärte, Deutschland sei bereit, einen Gap-Filler für beide Ziele – also erneuerbare Energien und Energieeffizienz – zu befürworten.

Auch im Bereich Wärme- und Kältesektor seien Deutschland und der Europäische Rat gewillt, sich „noch einmal ein Stück weit auf das Europäische Parlament zuzubewegen“. Die Gespräche über die drei vorgeschlagenen EU-Gesetze werden voraussichtlich am morgigen Mittwoch im Trilog-Gespräch zwischen dem Europäischen Parlament, dem EU-Rat und der Kommission abgeschlossen.

Widerstand von den Visegrad-Staaten

Die Chancen, in den Trilogen eine „ehrgeizige“ Einigung zu erzielen, die näher an der Position des EU-Parlaments liegt, erscheinen ohne die volle Unterstützung Deutschlands nun allerdings geringer.

Die Visegrad-Gruppe, bestehend aus der Tschechischen Republik, der Slowakei, Ungarn und Polen, bekräftigte ihren Widerstand gegen eine Anhebung der Ziele der EU im Bereich der erneuerbaren Energien und der Energieeffizienz.

Ungarn sagte zum Beispiel, dass jede Erhöhung des Ziels für erneuerbare Energien mit einer neuen Folgenabschätzung der Europäischen Kommission einhergehen sollte – ein langwieriges Verfahren, das die Annahme der Richtlinie weiter verzögern würde.

Aber es sind noch nicht alle Hoffnungen verloren, so Turmes, der darauf hinwies, dass der Wechsel hin zu neuen Regierungen in Spanien und Italien die Sperrminorität gegen ein Ziel von 33 Prozent sowohl für erneuerbare Energien als auch für Energieeffizienz aufgehoben habe. – Frédéric Simon, EurActive.com.

Die ganze Story steht hier.

[Hinweis: Diese Übersetzung aus dem GWPF-Newsletter stammt nicht von mir, sondern ist direkt aus der Quelle EurActive übernommen. Anm. d. Übers.]

—————————————

Deutsche Regierung: Das Klimaziel 2020 wird erheblich verfehlt werden


Die deutsche Regierung steht kurz davor, offiziell einzugestehen, dass sich das Land auf einem Weg befindet, auf welchem es die Klimaziele bis zum Jahr 2020 erheblich verfehlen wird.

Der wirtschaftliche Boom, der Immigrationsdruck sowie hohe Emissionen im Transportsektor bedeuten, dass der Energiewende-Pionier die Treibhausgas-Emissionen nur um 32% verglichen mit dem Jahr 1990 wird reduzieren können. Die steht im Gegensatz zum offiziell verkündeten Ziel einer Reduktion um 40%, jedenfalls dem neuen Klimaschutzbericht der Regierung zufolge. Clean Energy Wire konnte dieses Dokument einsehen, welches am 13.Juni zur Veröffentlichung vorgesehen ist.

Es wird erwartet, dass mit den bis heute durchgeführten Maßnahmen die Treibhausgas-Emissionen bis 2020 um rund 32% abnehmen werden im Vergleich mit 1990“, heißt es darin.

Im Jahre 2014 hat die Regierung ein „Klima-Aktionsprogramm“ initiiert. Aber die dafür erforderliche Politik reichte nicht aus, um die Lücke zu einer Reduktion von 40% bis 2020 zu schließen. Als Gründe werden genannt „eine überraschend starke wirtschaftliche Entwicklung sowie ein überraschend hohes Bevölkerungswachstum“, schreibt die Regierung in dem Report.

Es wird darin sogar davor gewarnt, dass Emissions-Vorhersagen „als ziemlich optimistisch bewertet werden müssen hinsichtlich der gegenwärtigen Klimaschutz-Trends“. – Sören Amelang, Clean Energy Wire.

hier.

[Hinweis: Der Autor dieses Beitrags ist Verfechter von CO2 als vom Menschen verursachtes Haupt-Treibhausgas. Anm. d. Übers.]

Deutschlands Energiewende: Eine Warnung für Europa!

Colin Stevens

Deutschland wurde als herausragender Pionier für seine Politik der Energiewende gewürdigt und besonders für die eingegangene Verpflichtung gepriesen, innerhalb der nächsten fünf Jahre vollständig aus der Kernenergie auszusteigen. Und dennoch – obwohl eine „Kohleausstiegs-Kommission“ eine Road Map für den Kohleausstieg präsentieren soll, bleibt Deutschland viel zu sehr abhängig von seinen umfangreichen Braunkohle-Reserven zur Energieversorgung seiner Wirtschaft und für das Backup für Wind- und Solarenergie-Ausfälle.

Trotz der ganzen Angeberei ist Deutschlands Energiewende viel mehr eine Warnung für Europa als eine Erfolgsstory, auf die andere Nationen blicken, um ihre Energiesektoren zu modernisieren. Im Zentrum der Politik liegt eine fundamentale Scheinheiligkeit: Trotz der Verpflichtung, seine Kapazität erneuerbarer Energie immer weiter auszubauen, um die verloren gehenden Kernkraftwerke zu ersetzen, steigen die Kohlenstoff-Emissionen des Landes derzeit.

Die hastige Entscheidung, alle 19 Kernkraftwerke in Deutschland bis zum Jahr 2022 stillzulegen, erfolgte im Zuge der Fukushima-Katastrophe im Jahre 2011 – nur ein Jahr, nachdem Kanzlerin Angela Merkel entschieden hatte, die Lebensdauer dieser Kraftwerke zu verlängern. Diese politische Kehrtwende war an Pläne gekoppelt, den Verbrauch fossiler Treibstoffe zu eliminieren, indem der Anteil von Erneuerbaren am deutschen Energie-Mix bis zum Jahr 2050 auf 60% steigen sollte.

Trotz der scheinbar vernünftigen Grundlagen haben die ersten fünf Jahre der Energiewende die Probleme aufgezeigt, welche das Modell für Deutschland und das übrige Europa birgt. Energiewende ist kaum lediglich ein innerdeutsches Thema: eine der grundlegenden Lehren ist, dass das Land neun Nachbarn hat, mit denen es Energie austauschen kann – entweder, indem man überschüssige Energie an diese Länder verkauft, wenn Erneuerbare zu viel Strom erzeugen, oder Energie von dort importiert, wenn Deutschlands Erneuerbare nichts liefern.

Während es Deutschland geschafft hat, den Anteil Erneuerbarer bei der Stromerzeugung auf 30% zu bringen, hat sich die zuvor stetige Abnahme der Kohlenstoff-Emissionen – um 27% von 1999 bis 2009 – drastisch umgekehrt, seit Deutschland den Ausstieg aus der Kernkraft beschlossen hat. Anstatt weiter zu fallen, sind die Emissionen seitdem um 4% gestiegen. Warum dieser besorgliche Anstieg der Emissionen? Weil erneuerbare Energie immer noch inhärent periodisch ist.

Ohne erhebliche Fortschritte bei der Batterie- und Speicher-Technologie wird Deutschland gezwungen sein, noch Jahrzehnte lang andere heimische Energiequellen zu nutzen. Falls Kernkraft wirklich stillgelegt wird, werden Kohlekraftwerke an deren Stelle weiter betrieben werden und die Atmosphäre bei diesem Prozess verschmutzen. Noch schlimmer ist, dass viele thermische Kraftwerke in Deutschland Braunkohle verbrennen, eine spezielle Art Kohle, welche mehr CO2 emittiert als jeder andere fossile Treibstoff. Während bei der Verbrennung von Erdgas zwischen 150 und 430 g CO2 pro Kilowattstunde emittiert werden, sind es bei Braunkohle atemberaubende 1,1 kg CO2. Kernkraft emittiert lediglich 16 g CO2 pro Kilowattstunde.

hier.