Doch nicht menschengemacht!

Alex Reichmuth (Red. WELTWOCHE)*

Letzte Woche konnte das SRF einen seiner Lieblingsexperten im Studio begrüssen: Andreas Fischlin. Der Klimaforscher der ETH Zürich lieferte im «10 vor 10»-Gespräch zuverlässig das Erwartete. Er bestätigte, dass an den jüngsten Natur- und Wetterkatastrophen der Mensch schuld sei. Hurrikan über Houston? «Der Klimawandel spielt hier hinein.» Bergsturz im Bergell? «Eindeutig auf den menschengemachten Klimawandel zurück­zuführen.» Waldbrände in Südeuropa? «Kommen in Zukunft viel häufiger vor.»

Kein Wort aber verlor man beim Schweizer Fernsehen, so wenig wie in anderen Schweizer Medien, über eine Studie, die vor kurzem im Fachjournal Geo Res J publiziert worden ist. ­Dabei lässt das Resultat, zu dem australische Forscher gekommen sind, aufhorchen: Die ­Erwärmung der Erde um etwa ein Grad Celsius seit Mitte des 19. Jahrhunderts habe weit­gehend natürliche Ursachen.

Stalagmiten als Datenträger

Grundlage der Studie der Biologin Jennifer ­Marohasy und des Chemikers John Abbot ­waren Temperaturreihen für die vergangenen 2000 Jahre, die sich auf sogenannte Proxy-­Daten abstützen. Solche Daten lassen sich aus Baumringen, Eisbohrkernen, Stalagmiten oder Korallen gewinnen. Mittels Proxy-Daten kann man auf das Klima zu Zeiten schliessen, als es noch keine zuverlässigen meteorologischen Messungen gab. Marohasy und Abbot haben sechs Proxy-Temperaturreihen, die die letzten 2000 Jahre abbilden, einem neuartigen Computerverfahren unterworfen. Dieses beruht auf einer Art künstlichem neuronalem Netzwerk, das fähig ist, in Zeitreihen Regelmässigkeiten zu erkennen und daraus die künftige Entwicklung abzuschätzen. Die beiden Forscher haben dieses Verfahren schon früher mit Erfolg angewandt, etwa um Regenmengen in Australien vorherzusagen.

Bei den Temperaturreihen interessierte ­Marohasy und Abbot nun, wie sich diese ohne den CO2-Ausstoss des Menschen mutmasslich entwickelt hätten. Entsprechend fütterten sie ihre Computer nur mit den Proxy-Daten bis zum Jahr 1830, als die Verfeuerung fossiler Brennstoffe im grossen Stil begann. Die Programme suchten also nach periodischen Mustern in dem Teil der Reihen, der sicher nicht durch den CO2-Ausstoss beeinflusst ist. Es er­gaben sich unter anderem Schwankungen im Rhythmus von etwa sechzig Jahren um einige Zehntelgrade. Und es zeigte sich ein stärkeres, langfristiges Auf und Ab: Nach einer Erwärmungsphase bis etwa 1200, als es mindestens so warm war wie heute, sank die Temperatur um rund ein Grad, bis sie ab 1650 tendenziell wieder anstieg.

Aus den eruierten Regelmässigkeiten schätzte das Verfahren den weiteren, sozusagen natürlichen Verlauf der Reihen ab. Anschliessend verglichen die Forscher die Prognosen mit dem tatsächlichen Verlauf der Temperaturreihen ab 1830. Es zeigten sich nur geringe Abweichungen, im Schnitt lediglich um 0,1 Grad. Die Welt­temperatur wäre demnach auch ohne Einfluss des Menschen um 0,6 bis 1 Grad gestiegen. Maro­hasy und Abbot folgerten, dass die Erwärmungswirkung durch zusätzliches CO2 in der Atmosphäre viel geringer sein müsse, als andere Klimaforscher behaupten.

Seit Jahren verkündet aber ein Zirkel tonangebender Wissenschaftler, am Haupteinfluss des Menschen an der Erderwärmung gebe es keine Zweifel mehr.

Die Reaktionen auf die Studie von Marohasy und Abbot fielen harsch aus: Es handle sich um «junk science», also um wertlose Wissenschaft, schrieb die linksliberale britische Zeitung The Guardian. Im Artikel kamen prominente Klimaforscher zu Wort, die Marohasy und Abbot eine Reihe gravierender metho­discher Fehler vorwarfen – etwa, dass die Proxy-Datenreihen willkürlich ausgewählt und die Berechnungen falsch interpretiert worden seien. Auch bei Pro Clim, einem Zusammenschluss von Schweizer Klimawissenschaftlern, hält man nichts von der Studie. Die verwendeten Zeitreihen seien grösstenteils nur lokal und nicht global bedeutend, schreibt Pro Clim auf Anfrage der Weltwoche. Zudem weise die Studie eine Reihe von «groben Fehlern» auf.

Seriöses Fachmagazin

Das Geo Res  J, in dem die Studie ­erschienen ist, ist allerdings ein ­seriöses Fachmagazin. Es wird von Elsevier herausgegeben, einem der führenden Wissenschaftsverlage der Welt. Die Studie hatte vor der Publikation eine kritische Begutachtung durch unabhängige Wissenschaftler bestanden. Die Fachgutachter hätten im Rahmen dieser peer review keine Fehler in der Studie entdeckt, bestätigte der Herausgeber des Magazins gegenüber dem Guardian.

Sicher muss die Qualität wissenschaftlicher Ergebnisse immer hinterfragt werden. Doch was die heftige Kritik an der Studie in Geo Res  J betrifft, kommt der Verdacht auf, dass diese auch andere Gründe hat als rein fachliche: Die Autoren Jennifer Marohasy und John Abbot ­gehören nämlich zu den Forschern, die nicht an die These des menschengemachten Klimawandels glauben – und das auch offen sagen. «Die wissenschaftlichen Fakten sind alles andere als klar», schrieb Marohasy in einem Internetkommentar – in Anspielung auf die Behauptung, kein ernsthafter Forscher könne mehr an der Verantwortung des Menschen an der Erderwärmung zweifeln. «Vielmehr sind die grund­legenden physikalischen Mechanismen [des Klimas, Anm. d. Red.] komplex und noch kaum geklärt», so die Biologin weiter.

Klar ist, dass die Studie von Marohasy und Abbot alleine keinen Beweis darstellt, dass die Erderwärmung nicht doch massgeblich vom CO2-Ausstoss angetrieben ist. Die beiden Forscher haben mit einer neuartigen Art der Datenberechnung gearbeitet, deren Aussagekraft ­diskutabel ist. Grundsätzlich ist die Bedeutung von Computerberechnungen zum Klima ­immer davon abhängig, welche Wirkung von chemischen Substanzen man annimmt, welche physikalischen Zusammenhänge man zugrunde legt und welche Qualität die eingespeisten ­Daten haben.

Man muss aber wissen, dass sich die tonangebenden Wissenschaftler bei ihren Warnungen vor einer weiteren ­Erwärmung praktisch ausschliesslich auf Computerberechnungen abstützen, die Kritiker seit langem als unbrauchbar bezeichnen. Diese Kritik ist nicht einfach nur böse Propaganda, denn es wurden in der Tat schon krasse Fehler hochdekorierter Klimawissenschaftler belegt.

Die bekannteste solcher Fehlleistungen ist wohl die sogenannte Hockeyschläger-Kurve des amerikanischen Klimaforschers Michael Mann, die auf Computerberechnungen beruht. Sie zeigte eine Welttemperatur, die während ­vieler Jahrhunderte praktisch unverändert blieb, um dann im 19. Jahrhundert plötzlich steil anzusteigen. Der Weltklimarat bildete die Kurve in seinem dritten Sachstandsbericht von 2001 an zentraler Stelle ab, um so vor einer Klimakatastrophe zu warnen. Später wies der kanadische Bergbauspezialist Steve McIntyre nach, dass die statistischen Verfahren von Michael Mann mathematisch untauglich sind. Damit hatte ein Hobbyforscher einen der höchstdekorierten Klimaforscher der Welt ­widerlegt.

Die Ergebnisse von Jennifer Marohasy und John Abbot stehen nicht so quer, wie man meinen könnte. Wissenschaftliche Resultate, die den Einfluss des Menschen auf das Klima als weit geringer als angenommen zeigen, sind keine Seltenheit. Sie kommen manchmal sogar aus der Schweiz:

So stellte das Weltstrahlungszentrum (PMOD/WRC) in Davos fest, dass die Strahlkraft der Sonne seit 1950 überdurchschnittlich hoch ist, in den kommenden Jahrzehnten aber wohl stark abnehmen wird. Die Abkühlungswirkung könne durchaus ein halbes Grad betragen, sagte PMOD/WRC-Leiter Werner Schmutz im letzten März gegenüber SRF. Ein halbes Grad wäre immerhin die Hälfte des ­Temperaturanstiegs, den man seit Beginn der Industrialisierung verzeichnet hat.

Dass das Schweizer Fernsehen Schmutz zu Wort kommen liess, dürfte damit zu tun haben, dass dieser sich sofort zum menschengemachten Klimawandel bekannte: «Die Sonne rettet uns nicht, die Sonne könnte uns höchstens ­etwas Zeit geben.»

Auch Galileo Galilei liess man einst erst laufen, nachdem er der Be­deutung der Sonne abgeschworen hatte.

=================================================================

)* Anmerkung der EIKE-Redaktion :  Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Doch nicht menschgemacht | Die Weltwoche, Nr. 36/2017 | 07. September 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

=================================================================




Ein Wahrheits­ministerium, unsere Medien, die GRÜNEN und eine gefährliche Nordsee­erwämung

Bild 1 Erste Seite der google Fundstellen der gleichen Mitteilung zur Nordsee

Die Seite der Klimaberaterin fehlte natürlich nicht:
KLIMARETTER.INFO, 09. September 2017: Die Nordsee erhitzt sich rasant
Die Nordsee hat sich durch den menschengemachten Klimawandel in den vergangenen 45 Jahren doppelt so schnell erwärmt wie die Ozeane weltweit …

Der Herausgeber dieser Nachricht, das Bundesumweltministerium, übermittelte auch gleich dazu, was dies für ein Klimawandel-Menetekel darstellt und was einzig noch dagegen helfen kann:
N24: [3] Umweltstaatssekretär pocht auf rasches Aus für Kohle, Öl und Gas
Die Nordsee erwärmt sich nach Angaben des Bundesumweltministeriums im Zuge des Klimawandels doppelt so stark wie die Ozeane. Während die Temperatur der Ozeane im Mittel um 0,74 Grad gestiegen sei, waren es in der
Nordsee in 45 Jahren 1,67 Grad, heißt es in einer Antwort des Ministeriums auf eine Anfrage der Grünen …
Über die Anfrage der Grünen-Bundestagsabgeordneten Julia Verlindens und die Antwort der Bundesregierung hatte zuerst die „Neue Osnabrücker Zeitung“ berichtet. Die Bundesregierung bezieht sich bei ihren Angaben auf Daten des Weltklimarates IPCC und des Alfred-Wegener-Instituts.
Klimawandel und Temperaturanstieg der Nordsee gefährden demnach Ökosystem und Artenvielfalt.
… Angesichts der Entwicklung verwies Umweltstaatssekretär Flasbarth auf die Folgen des Klimawandels auch in
Deutschland. „Die Erderwärmung wird insgesamt zu mehr Wetterextremen wie Hochwasser, Sturmfluten und Starkwinden führen, aber umgekehrt in einigen Teilen des Binnenlandes auch zu mehr Trockenperioden und extremer Hitze“ …
… Der Staatssekretär forderte als Konsequenz, „im eigenen Land wie weltweit sehr viel ernsthafter an den Klimaschutz“ heranzugehen. Das bedeute vor allem, sich innerhalb weniger Jahrzehnte von fossilen Energieträgern wie Kohle, Öl und Gas zu verabschieden. „Wer diese Entwicklung bremst, gefährdet unsere Zukunft“, warnte Flasbarth.
Auch die Grünen-Bundestagsabgeordnete Verlinden forderte ein schnelleres Gegensteuern: „Wir können uns keine vier weiteren Jahre Tatenlosigkeit beim Klimaschutz leisten“, sagte sie der „NOZ“.

Neu ist das Thema nicht. Schon 2007 meldete der FOCUS:
FOCUS ONLINE, Montag, 12.03.2007: Klimawandel Fatale Folgen für die Nordsee
„Die Nordsee befindet sich seit 1988 in der längsten und intensivsten Warmphase seit Beginn der Messungen im Jahr 1873“, sagte Hartmut Heinrich, der Experte des Bundesamtes für Seeschifffahrt und Hydrographie (BSH), am Montag auf der Hamburger Fachkonferenz „Globaler Klimawandel und regionale Auswirkungen in Norddeutschland“. ... Durch den globalen Klimawandel sind Nord- und Ostsee im vergangenen Jahrzehnt deutlich wärmer geworden. Seit 1993 stiegen die durchschnittlichen Temperaturen im Jahr um insgesamt 1,7 Grad Celsius an.

Die Erwärmungsrate der Nordsee verringerte sich seit dem Jahr 2005 auf 26 % und seit dem Jahr 1870 auf 2 %

Damals betrug die Temperaturerhöhung von 1993 – 2007 1,7 Grad, aktuell sind 1,67 Grad für die letzten 45 Jahre gemeldet.
Rechnet man es um, dann betrug die Rate im Jahr 2005: 0,142 Grad / Jahr, und aktuell gemeldet: 0,037 Grad / Jahr, also nur noch 26 % von damals. Eine Nachschau im Bild 2 zeigt seit dem Jahr 1870 eine Erwärmung um ca. 0,4 °C, also weniger als 0,003 Grad / Jahr, und demnach gegenüber der Meldung vom Jahr 2007 nur 2%!!!!!

Es hätte demnach eine Positivmeldung des Bundesumweltministeriums geben müssen in der Art:
Die Erwärmung der Nordsee schreitet viel langsamer voran, als es im Jahr 2005 noch erwartet wurde. Neueste Messungen geben Anlass zur Entwarnung.

Bild 2 Temperaturanomalie der Nordsee seit ca. 1870 [2], vom Autor um die Darstellung der in den Zeitungsmeldungen genannten Zeiträume ergänzt.

Aus dieser Ansammlung von Desinformation ragte nur eine Webseite positiv hervor

Lobenswerter Weise hat sich wenigstens eine Informationsplattform des Themas näher angenommen und gerade gerückt, was die wahre Natur dazu für Daten liefert und wie man diese richtig interpretiert.
kaltesonne 10. September 2017: [1] Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane
… Ein wenig ungewöhnlich erscheint die Berichterstattung in Deutschlands wichtigster Nachrichtensendung über die Kleine Anfrage der Grünen schon. War die Meldung vielleicht als kleine Wahlkampfhilfe für die Grünen gedacht? Die Aussage der Meldung ist interessant. Wir nehmen sie zum Anlass, die Fakten zu überprüfen und Hintergründe zu diskutieren.

Dabei konnte kaltesonne noch zusätzlich zeigen, dass die Tagesschau-Redaktion kritische Blogbeiträge blockiert:
[1] ... Im Rahmen der Diskussion zum Tagesschau-Beitrag hat ein der Redaktion nahestehender Leser einen wichtigen Hinweis auf die MWP anbringen wollen. Die Aussparung dieses “Elefanten im Raum” wäre ein wichtiger Gedankenanstoß zur Debatte zum Beitrag gewesen. Sie werden es nicht glauben, der Kommentar wurde von der Tagesschau-Moderation nicht freigegeben (Hinweis: Die Screenshots dazu im kaltesonne-Artikel nachsehen)

Daten aus kaltesonne zur Nordsee

Leider ist die Studie des Bundesumweltministeriums nicht zu finden (zumindest dem Autor gelang es nicht) und liegt wegen der Brisanz wohl nur den GRÜNEN und der Osnabrücker Zeitung vor.
kaltesonne hat deshalb ganz neutral aus den allgemein verfügbaren Daten eine Rekonstruktion des Sachverhaltes durchgeführt [1], welche anbei mit einigen Ergänzungen durch den Autor dargestellt ist.

Zuerst zurück zum Bild 2. Dieses zeigt erschreckend, wie sogar seitens unserer „Regierung“ (und ihren zuarbeitenden „Fachstellen“) durch gezielte Datenauswahl, welche man als direkte Manipulation bezeichnen kann, Klimaängste geschürt werden, die beim Nachsehen vollkommen im natürlichen Klimarauschen verschwinden.
Im folgenden Bild 3 sind die Nordseetemperatur und die der Ozeane im gleichen Maßstab übereinander gelegt. Man beachte, dass in der Information des Bundesumweltministeriums nur die Daten bis zum Jahr 2010 berücksichtigt wurden. Und genau damals hatte die Nordsee die höchste Temperatur. Zwischenzeitlich ging die Temperatur der Nordsee drastisch zurück, während sich die Ozeane global weiter erwärmen.

Bild 3 [2] Fig. 3.3 North Sea region annual sea-surface temperature (SST) anomalies relative to the 1971–2000 average. Darüber gelegt die HadSST3-Temperaturen Ozean. Quelle: Woodfortrees

Beide Temperaturverläufe scheinen etwas Zeitverzug zu haben, Was aufgrund der unterschiedlichen Masse erklärbar ist. Versucht man diesen Zeitunterschied auszugleichen, kommt Bild 4 heraus. Es bleibt noch der Unterschied in der absoluten Erwärmung (die Nordsee hat naturgemäß größere Temperaturspannen als der globale Mittelwert der Ozeane), der jedoch mangels Anhaltspunkten in der Grafik nicht ausgeglichen ist.
Auch so zeigt Bild 4 deutlich, dass nichts von einer „doppelt so starken“ Erwärmung der Nordsee gegenüber den Ozeanen übrig bleibt. Die Nordsee ist wohl wärmer geworden, weil die Temperaturen mit der einer Kaltzeit verglichen werden. Aber Extremeffekte aufgrund eines AGW Klimawandels sind nicht auszumachen. Wenn man die Nordseewerte grob mittelt und die vielen Ungenauigkeiten durch die hohen Temperaturspannen berücksichtigt, dürfte der Verlauf nicht allzu stark von dem des globalen Ozeans abweichen.

Bild 4 Phasenverschiebung der Erwärmungen von Bild x angepasst

Allerdings ist es schon interessant, dass ein Bundesumweltministerium Antworten abgibt, welche den Effekt sorgfältig ausgesuchter Zeiträume ausnutzt, um „vorgegebene“ Tendenzen auszuweisen. Ein Vorgehen, welches beim Klimawandel jedoch gängige Praxis ist:
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug

Ergänzende Grafiken zu Nordsee-Wasser-Temperaturverläufen

Zur Erhärtung der bisherigen Darstellung und Ergänzung noch Temperaturdaten der Nordsee aus [2]: Danach gibt es wirklich keinen Anlass, dass die Nordsee bald wegen Überhitzung Probleme haben könnte.
Dass sich fremde Fischpopulationen dort einnisten und den „schon länger dort lebenden Meeresbewohnern“ Konkurrenz machen, liegt wohl weniger am Klimawandel, als an der „Öffnung der Grenzen“ durch den internationalen Schiffsverkehr und der Möglichkeit, sich bequem aus fernsten Gegenden in Ballasttanks „migrieren“ zu lassen.
Auch stellt sich immer neu die Frage, wie man darauf kommen kann, dass sich Temperaturen nicht verändern dürfen, nur weil es bestimmten Menschen „nicht passt“ und ihre Computer dann nur noch Unsinn errechnen.

Bild 5 Regionaler Nordeee-Wassertemperatur-Verlauf. [2] Fig. 3.5 North Sea region monthly sea-surface temperature (SST) anomalies relative to 1971–2000 monthly averages,

Bild 6 Regionaler Nordeee-Wassertemperatur-Verlauf. [2] Fig. 3.8 Ferry-based sea-surface temperature (upper) and salinity (lower) anomalies relative to the 1981–2010 average, along 52°N at six standard stations.

Bild 7 Verlauf der Wärmespeicherung im Nord-Atlantik. Sehr schön ist zu sehen, wie kurzfristige Betrachtungen in die Irre führen. Quelle: WUWT [7]

Das Klima begann nicht erst mit der Industrialisierung

Klima lässt sich nicht mit dem angeblich so aussagekräftigen 30-Jahre Zeitraum erfassen. Dazu sind mehrere Hundert Jahre erforderlich. Leider hat der Autor für die Nordsee keine geeigneten Temperaturreihen gefunden, deshalb anbei welche vom Nord-Atlantik, der ja unmittelbar an die Nordsee angrenzt.
Erkennbar neigt auch diese Meeresgegend keinesfalls zur Überhitzung. Langfristig gesehen, haben wird dort aktuell sogar den kältesten Zeitraum seit 9000 Jahren (Bild 9).
Es ist also vollkommen unwahrscheinlich, Dass die Nordsee und ihre Meeresbewohner etwas höhere Temperaturen nicht überleben würden.

WUWT: Serykh (2016) points out that the warming enjoyed across Europe and Asia between the 1970s and late 1990s may have been associated with natural decadal-scale oscillations in heat transport. Similar to Reynolds et al. (2017), Serykh’s graph of ocean heat content reveals no net warming in the last 60 years.

Bild 9 [8] Proxis von Verläufen der Temperatur in Nordnorwegen seit ca. 10.000 Jahren

Die GRÜNEN wollen nicht klüger werden als die GroKo

EIKE 26.08.2017: [9] Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?
I
nsofern ist es verständlich, als eigene Recherchen der GRÜNEN teils ebenfalls desaströs enden

EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

Weil die GRÜNEN mit ihrem Nichtwissen zufrieden sind, muss es der Bürger ja nicht sein

Die Verlautbarung des Bundesumweltministeriums zeigt mehrere Probleme in Deutschland auf:
-Unsere Ministerien und deren Fachstellen informieren die Bürger nicht mehr auch nur annähernd neutral, sondern streng nach Staatsraison wie in einer Diktatur,
-scheinbar legen keine Abgeordneten / Parteien mehr Wert darauf, richtig informiert zu werden,
-die Medien versagen investigativ vollkommen und verteilen Staatsmeldungen nur noch copy and paste
.

Zu den GRÜNEN lässt sich nur noch sagen, dass die Unwissenheit ihrer „Führungsmannschaft“ inzwischen zur Legende wird [13].
Beispielhaft reist Cem Özdemir zur Wahlveranstaltung nach Bayern und konfrontiert Herrn Herrmann mit einem Umweltthema. Nicht ahnend, dass er mit seinen auswendig gelernten, aber nicht verstandenen Inhalten [12] wieder vollkommen falsch lag:
Nordkoreanische Verhältnisse in Deutschland

Erschütternd ist auch, wie „Fachpersonen“ im Regierungsapparat problemlos am Parlament vorbei reinste Parteipolitik machen dürfen, wie der GRÜNE Staatssekretär, Herr J. Flasbart.
Nur dadurch wird es möglich, dass ein „Regierungsfachmann“ sich traut, mit den typischen auswendig gelernten, aber erwiesenermaßen falschen „Extremwetterplattitüden“ [14] an die Öffentlichkeit zu gehen.

Quellen

[1] kaltesonne 10. September 2017: Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane

[2] Springer Verlag, Markus Quante Franciscus Colijn: Regional Climate Studies North Sea Region Climate Change Assessment

[3] WELT N24, 09.09.2017: Nordsee erwärmt sich doppelt so stark wie die Ozeane

[4] EIKE 19.08.2016: Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2

[5] Inter-Agency Committee on Marine Science and Technology 2005: The 2nd of 5 reports produced to support Charting

[6] Progress – an Integrated Assessment of the State of UK Seas Marine Processes and Climate

[7] WUWT 5. January 2017 : North Atlantic Cooling Has Plunged Below 1950s (And 1800s) Levels – And Scientists Project More Cooling

[8] Samuel Zimet Mark, 5-2016: Mid-Holocene Marine Paleoclimate Reconstruction Through Schlerochronological Analysis of Arctica islandica from Finnmark, Rolvsøya, Northern Norway

[9] EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?

[10] Frankfurter Allgemeine 16.12.2013: Grüne besetzen Machtpositionen in schwarz-roter Regierung

[11] Süddeutsche Zeitung, 8. September 2017: TV-Duell Wozu das Ganze?

[12] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[13] EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

[14] EIKE 08.09.2017: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGENDETEKTORS – anbei ein Rettungsversuch




Tatsache: Für die Hurri­kane Harvey und Irma kann nicht globale Erwär­mung verant­wortlich sein

Derartiges Geschreibsel ist typischerweise getränkt mit blasierter Arroganz. Deren Autoren geben vor, weise und gut informiert zu sein, und wer immer es wagt, ihre „settled Wissenschaft“ in Frage zu stellen, muss seine/ihre Augen öffnen und den Mund halten.

Ohne Zweifel wird es auch hinsichtlich Hurrikan Irma derartige „nachträgliche Vorhersagen“ geben, so dass die jüngsten Behauptungen bzgl. Harvey eine Vorwarnung dafür sein können.

Ich bin Ökonom, kein Klimawissenschaftler. Aber Harvey in Verbindung mit Klimawandel zu stellen, erfordert offensichtlich weit geringere Logik- und Beweis-Standards als Ökonomen sich trauen würden, als seriöse Argumente zu verkaufen.

Der Klimajournalist von Atlantic sagt: „Harvey ist beispiellos – genau die Art wilden Wetters, von dem Wissenschaftler erwarten, im Zuge der Erwärmung des Planeten immer mehr zu sehen“.

Aber Harveys maximale Regenmenge von 1318 l/m² ging nur geringfügig über die Regenmenge des Tropischen Sturms Amelia im Jahre 1978 (1220 l/m²) und den Hurrikan Easy im Jahre 1950 (1143 l/m²) hinaus. Und was ist mit dem Tropischen Sturm Claudette, der im Jahre 1979 1067 l/m² innerhalb von nur 24 Stunden abgeladen hatte (Harvey brauchte drei Tage für die gleiche Menge)? In diesen Fällen ist die Zuordnung heutigen Extremwetters, egal was passiert (vielleicht Dürren, vielleicht Überschwemmungen) das, was der Philosoph Karl Popper „Pseudowissenschaft“ nennt.

Falls irgendeine Theorie alles erklärt, kann sie nicht getestet werden und ist daher keine Wissenschaft. (Poppers berühmte Beispiele für Pseudowissenschaft waren Kommunismus und Psychoanalyse).

Scheinbar plausible Bemühungen, Harvey mit Klimawandel in Verbindung zu bringen, basieren unvorsichtigerweise auf einem anderen ungewöhnlichen Ereignis im Jahre 2015/16, was also kein langfristiger Klimatrend ist. Im Atlantic schrieb Robinson Meyer:

Harvey profitierte von ungewöhnlich warmem Wasser im Golf von Mexiko. Als sich der Sturm auf Houston zubewegte, war die Wassertemperatur nahe Texas auf 1,5°C bis 4°C über den Mittelwert gestiegen“.

Meyers Quelle ist ein einzelner Satz ohne Quellenangabe aus „Climate Signals beta“ vom „Climate Nexus“-Projekt der Rockefeller Foundation, betrieben von Hunter Cutting („Ein altgedienter politischer Richtungsgeber, welcher Kommunikations-Strategien entwickelt“). Vielleicht wäre es klüger, das National Hurricane Center bzgl. der Temperaturen im Golf zu konsultieren. Dieses zeigt, dass sie auf ein ganzes Grad F über der Grundlinie mitteln.

Will man zurückschauen auf jedwede unvorhergesagte Wetteranomalie, können sich „nach Fakten suchende“ Journalisten immer auf Michael Mann und Kevin Trenberth verlassen, weben doch diese beiden immer eine Erklärung, warum jedwedes schlechte Wetter (aber niemals gutes Wetter!) mit Sicherheit durch langfristige Klimatrends zumindest verschlimmert wird. „Es ist eine Tatsache: Klimawandel macht Hurrikan Harvey tödlicher“, schreibt Michael Mann. „Die Wassertemperaturen im Golf sind während der letzten paar Jahrzehnte von 86°F auf 87°F [von 30°C auf 30,5°C] gestiegen“, was „3 bis 5% mehr Feuchtigkeit in die Atmosphäre brachte“. Er lehnte es ab, auf andere kompensierende Dinge hinzuweisen, die ihm mit Sicherheit bekannt sind – zum Beispiel, dass die gleiche Klimawissenschaft eine stabilere tropische Atmosphäre prophezeit, was die für Hurrikane notwendige Aufwärtsbewegung reduziert.

Selbst der von der Washington Post geschätzte Jason Samenow betrat schwankenden Boden, als er schrieb, dass „sich die Regenmenge um 6% oder so oder um ein paar Inches erhöht“ haben könnte. Es wäre nett gewesen, wenn er erwähnt hätte, dass die maximale gemessene Regenmenge von Harvey mit 1318 l/m² statistisch nicht unterscheidbar ist von den 1220 l/m² des zuvor erwähnten Sturmes Amelia vor vierzig Jahren.

Wie auch immer, wenn man für Temperatur und Feuchtigkeit im Golf im August 2017 eine vermeintliche globale Zunahme der Wassertemperatur verantwortlich macht, braucht man mehr als Theorie oder „Vertrauen“ (Glaube). Es sind Beweise erforderlich.

Rein zufällig sind die Wassertemperaturen SST zwischen den beiden Super-El-Ninos von 1997/98 und 2015/16 nicht signifikant gestiegen, wenn überhaupt. Im Gegenteil, eine Begutachtung von vier großen Datensätzen im Januar 2017 kommt zu dem Ergebnis, dass „seit 1998 alle Datensätze eine Verlangsamung der SST-Zunahme verzeichnen im Vergleich zum Zeitraum von 1983 bis 1998“. Das mag so klingen, als ob die SST vor 1998 rapide gestiegen ist, aber auch das ist unklar. „Vor dem Jahr 1998 zeigen die Temperaturänderungen global, im Pazifischen und in den Südlichen Ozeane große Diskrepanzen zwischen vier führenden Schätzungen. Dies verhindert eine robuste Bestimmung von Änderungen des ozeanischen Wärmegehaltes OHC, sowohl regional als auch global“.

Von 1998 bis 2012 werden die Beweise bzgl. der Wassertemperaturen sogar noch unbequemer. Zwei der vier Studien zeigen eine „schwache Erwärmung“ nahe der Oberfläche, während die anderen beiden „Abkühlung zeigen in Übereinstimmung mit der gemessenen Verlangsamung des globalen Temperaturanstiegs“. Mit anderen Worten, der empörend lange Zeitraum von 1997 bis 2014 mit dem Stillstand der globalen Erwärmung wird auch in den Ozeantemperaturen ersichtlich, nicht nur an den Temperaturen auf dem Festland.

Man erinnere sich, was der viel gerühmte „Klimawandel-Konsens“ wirklich bedeutet. Via Mittelung von vier Schätzungen erklärt die NASA, dass die „global gemittelten Temperaturen im Jahre 2016 um 0.99°C höher lagen, als das Temperaturmittel im 20. Jahrhundert“. Die zugrunde liegenden jährlichen Schätzungen sind abgeleitet aus jenen Mittelwert-„Anomalien“ um die Mitte des vorigen Jahrhunderts – und nicht aus den derzeitigen Temperaturen.

Um Anomalien in Grad umzuwandeln musste die NASA Computermodelle heranziehen, um die Anomalien zu den Temperaturen im Basiszeitraum von 1951 bis 1980 zu addieren, wo die Daten nicht gerade perfekt sind. Folge, wie die NASA erklärt:

Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von grob 14°C, d. h. 57,2°F, aber der Wert kann gut und gerne auch zwischen 56°F und 58°F liegen. Regional und vor allem lokal ist die Lage sogar noch schlimmer“.

Es mag grausam sein anzumerken, dass die Fehlerbandbreite zwischen 56°F und 58°F global („geschweige denn lokal“) größer ist als die von der NASA vermutete Erwärmung um 1,78 Grad über viele Jahrzehnte. Man beachte auch, dass während der anscheinend kühleren Basisperiode der NASA von 1951 bis 1980 die zweit- und drittgrößten Überschwemmungen der US-Geschichte aufgetreten waren.

Mein Hauptargument hier ist einfach: Wetter ist hoch variabel. Es gibt sehr viel Rauschen in den Daten zu Hurrikanen und Überschwemmungen, und es ist unmöglich, einen einzelnen Hurrikan oder eine einzelne Überschwemmung der geringen Erwärmung zuzuordnen. Ja, höhere Ozeantemperaturen scheinen auf den ersten Blick lokal mit mehr oder stärkeren Hurrikanen zu korrelieren, aber wie unten gezeigt, ist das nicht der Fall.

Die Graphik mit der Accumulated Cyclone Energy stammt von dem Meteorologen Ryan Maue am Cato-Institut.

Addendum von Anthony Watts:

Die NASA glaubt nicht, dass der vermeintliche Einfluss von anthropogenem CO2 auf die Intensität von Stürmen messbar ist.

Es ist voreilig zu folgern, dass menschliche Aktivitäten – und besonders globale Erwärmung verursachende Treibhausgas-Emissionen – bereits eine erkennbare Auswirkung auf atlantische Hurrikane oder die globale Zyklon-Aktivität haben. Menschliche Aktivitäten mögen bereits Änderungen hervorgerufen haben, die noch nicht messbar sind infolge der geringen Größenordnung der Änderungen oder Limitierungen der Beobachtungsmöglichkeiten – oder sie sind nicht aufschlussreich genug modelliert (z. B. Aerosol-Effekte auf das regionale Klima). …

Mehr:https://www.gfdl.noaa.gov/global-warming-and-hurricanes/

Link: https://wattsupwiththat.com/2017/09/09/fact-hurricanes-harvey-and-irma-cant-be-blamed-on-global-warming/

Übersetzt von Chris Frey EIKE




Neues vom Meeres­spiegel: Anstieg deutlich langsamer als in der Vergangen­heit

Bildinschrift: Historie des Meeresspiegels für den nördlichen Golf von Mexiko seit dem letzten glazialen Maximum auf der Grundlage von rund 300 Radiokarbon-datierten Indikatoren von historischen Küstenlinien. Die Stichproben stammen von der Küste und dem Schelf vor den US-Staaten Florida, Louisiana, Texas und Mexiko. Es zeigen sich verschiedene Perioden mit einem starken Anstieg des Meeresspiegels. Abbildung nach Balsillie und Donoghue 2004.

Derzeit „glaubt man“, dass der Meeresspiegel mit einer Rate von 1,7 bis 1,8 mm pro Jahr steigt (hier).

Bildinschrift: Die Graphiken vergleichen die 95%-Vertrauens-Intervalle der relativen Meeresspiegel-Trends für CO-OPS und globale Messpunkte. Trends mit dem engsten Vertrauensintervall basieren auf den längsten Datensätzen. Die Graphiken bieten eine allumfassende Darstellung der differierenden Raten regionaler vertikaler Landbewegungen unter der Annahme, dass der absolute Anstieg des globalen Meeresspiegels 1,7 bis 1,8 mm pro Jahr beträgt. Man beachte, dass es sich um relative Meeresspiegel-Trends handelt, die nicht nach vertikalen Landbewegungen korrigiert sind. …

Diese aktuelle Rate – lediglich 0,17 bis 0,18 eines Meters pro Jahrhundert – ist im Gesamt-Mittel des 20. Jahrhunderts relativ unverändert geblieben, und es gab keine statistisch signifikante Beschleunigung der Anstiegsrate (lediglich 0,0042 mm pro Jahr) seit dem Jahr 1900.

Wenzel und Schröter, 2014: „Die globale mittlere Änderung des Meeresspiegels seit dem Jahr 1900 stellte sich als 1,77 ±0,38 mm pro Jahr heraus. … Die für das globale Mittel gefundene Beschleunigung, +0,0042 ±0,0092 mm pro Jahr, ist nicht signifikant“.

In einer gerade in Climate of the Past veröffentlichten Studie schlüsseln 7 Wissenschaftler detailliert den langzeitlichen Zusammenhang der aktuellen Raten des Anstiegs auf. Von vor 16.500 bis vor 8200 Jahren betrug die mittlere Rate des globalen Anstiegs 1,2 Meter pro Jahrhundert (12 mm pro Jahr), was etwa 700% schneller ist als der während der letzten 115 Jahre erfolgte Anstieg … In dieser mittleren Rate enthalten ist auch die Epoche des „Schmelzwasser-Impulses“ vor rund 14.500 Jahren, als der Meeresspiegel mit Raten um 4 Meter pro Jahrhundert (40 mm pro Jahr) gestiegen war.

Cronin et al., 2017: „Rate und Verteilung des globalen Meeresspiegel-Anstiegs (SLR) nach dem letzten glazialen Maximum (LGM) sind bekannt aus radiometrischen Altersbestimmungen von Korallenriffen vor Barbados, Tahiti, Neuguinea und dem Indischen Ozean sowie aus Sediment-Bohrkernen aus dem Sunda-Schelf und von anderswoher. … Lambeck et al. (2014) schätzen die mittleren globalen Raten während der Haupt-Vereisungsphase von vor 16.500 bis vor 8200 Jahren mit 12 mm pro Jahr (+1,2 Meter pro Jahrhundert) mit einem noch rascheren SLR von etwa 40 mm pro Jahr (+4 Meter pro Jahrhundert) während des Schmelzwasser-Impulses von vor 14.500 bis vor 14.00 Jahren“.

Andere Wissenschaftler haben jüngst gezeigt, dass der Meeresspiegel im hemisphärischen Maßstab vor 14.500 Jahren um 12 bis 22 Meter in nur 340 Jahren gestiegen war. Dieser explosive Anstieg fiel zeitlich zusammen mit einem nordhemisphären-weiten Erwärmungsereignis von 4 bis 5°C innerhalb nur weniger Jahrzehnte, aber es .fiel NICHT zusammen mit einer Änderung des CO2-Niveaus.

die Temperatur auf der Nordhemisphäre um 4 bis 5°C innerhalb nur weniger Jahrzehnte gestiegen war (Lea et al., 2003; Buizert et al., 2014). Dies fiel zeitlich zusammen mit einem Meeresspiegelanstieg um 12 bis 22 Meter während weniger als 340 Jahre (3,5 bis 6,5 Meter pro Jahrhundert) (Meltwater Pulse 1a (MWP1a)) (Deschamps et al., 2012)“.

J. F. Donoghue (2011) stellt die historische Größenordnung von Raten des Anstiegs, die „über 20 mal höher als heute“ waren, in die richtige Perspektive. Küstenlinien müssten sich notwendigerweise um bis zu 40 Meter pro Jahr landeinwärts zurückgezogen haben – 75 cm pro Woche – während jener Jahrhunderte eines erschreckenden [Original: obscene] Anstiegs.

Außerdem spezifiziert Donoghue, dass alles in allem der mittlere Anstieg des Meeresspiegels während der letzten 20.000 Jahre etwa 6 mm pro Jahr betragen hat, was über 3 mal mehr ist als die Rate des vorigen Jahrhunderts. Mit anderen Worten, die aktuellen Anstiegsraten haben sich signifikant verlangsamt im Vergleich zum langfristigen Gesamttrend.

Donoghue, 2011: „Über lange Zeiträume nach dem letzten glazialen Maximum (LGM) vor 2.000 Jahren waren in der Region Anstiegsraten weit über den Raten während der durch langzeitliche Tidenmessungen repräsentierten Perioden aufgetreten. Die regionalen Tidenmessungen zeigen, dass der Meeresspiegel im vorigen Jahrhundert um etwa 2 mm pro Jahr gestiegen war, während die mittlere Anstiegsrate seit dem LGM 6 mm pro Jahr betragen hatte, wobei es auch zu Perioden mit einem abrupten Anstieg über 40 mm pro Jahr (4 Meter pro Jahrhundert) gekommen war.

Der Meeresspiegel ist zeitweise mit Raten gestiegen, die über 20 mal größer waren als heute. Bei derartigen Raten würden sich regionale Küstenlinien um bis zu 40 Meter pro Jahr oder über 75 cm pro Woche landeinwärts zurückgezogen haben“.

Der Geologe Dominic Hodgson aus UK und seine Kollegen haben berechnet, dass der Meeresspiegel vor der Ostantarktis vor etwa 10.000 Jahren mit Raten von 1,2 bis 4,8 Metern pro Jahrhundert gestiegen war, als der Meeresspiegel 8 Meter höher lag als derzeit.

Hodgson et al., 2016: Rapider Anstieg des Meeresspiegels in Prydz Bay, Ostantarktis, zu Beginn des Holozäns … Die Felddaten zeigen rapide zunehmende Raten eines relativen Anstiegs von 12 bis 48 mm pro Jahr von vor 10.473 bis vor 9411 Jahren in den Vestfold Hills und von 8,8 mm pro Jahr von vor 8882 bis vor 8563 Jahren in den Larsemann hills … die geologischen Daten implizieren einen relativen Stand von 8 m über dem heutigen Niveau von vor 9411 bi vor 7564 Jahren. Dem folge eine Periode, in welcher der deglaziale Anstieg fast genau ausgeglichen wurden durch lokalen Rebound.

Und Zecchin et al. 2015 haben gezeigt, dass „episodische“ und „rapide“ Anstiege bis zu 6 Meter pro Jahrhundert erreichen können, und zwar hunderte Jahre lang. Das entspricht etwa dem 35-fachen der derzeitigen Rate.

Zecchin et al., 2015: „Die hier präsentierten Beweise bestätigen abgesunkene Küstenlinien, welche anderswo dokumentiert sind in ähnlichen Wassertiefen. Sie zeigen, dass Schmelzwasser-Einschübe den nacheiszeitlichen relativen Anstieg mit Raten bis zu 60 mm pro Jahr unterstreichen, und zwar einige Jahrhunderte lang“.

Zusammengefasst: Es gab nichts ungewöhnliches hinsichtlich der aktuellen Daten des Meeresspiegel-Anstiegs während des vorigen Jahrhunderts.

Tatsächlich steigt der Meeresspiegel derzeit mit einer Rate, die weniger als ein Drittel der mittleren Rate der letzten 20.000 Jahre ausmacht (Donoghue 2011).

Die Fortsetzung dieser langfristige Verlangsamung während einer Ära mit einem vermeintlichen anthropogenen Einfluss auf das Klima sind ein sehr starker Beweis, dass abrupte Änderungen des Meeresspiegels (Steigen bzw. Fallen) unabhängig von den Variationen der atmosphärischen CO2-Konzentration erfolgen.

Link: http://notrickszone.com/2017/09/07/past-sea-levels-rose-4-6-meters-per-century-shorelines-retreated-40-meters-per-year-without-co2-flux/

Übersetzt von Chris Frey EIKE




Die GRÜNEN: Es mangelt weder an erneuer­baren Energien noch an der Entwick­lung von Speichern und Netzen

Der Anlass für diese Mitteilung der GRÜNEN Expertin war eine Studie.
era, August 2017: [2] Analyse des Exports von Stein- und Braunkohlestrom Erstellt im Auftrag von: Bundestagsfraktion Bündnis 90/Die Grünen, welche die GRÜNEN in Auftrag gaben, um sich belegen zu lassen, dass „GRÜNES“ Wissen zur Energie das neue Wissen ist, und auf physikalischen Gesetzen begründetes nur veraltet sein kann.

Inhaltlich geht es in der Studie um die von einigen EEG-„Fachpersonen“ vertretene Ansicht, dass konventioneller Strom die Leitungen „verstopft“ und nur diese Stromblockaden das EEG am Gedeihen hindern. Erwartungsgemäß hat die Studie die Ansicht ihrer Auftraggeber umfassend bestätigt.

Nachdem die bisher vom Autor gesichteten Studien der Grünen zu EEG und Klima nur eines: Desaströses Unwissen und ideologie-bedingte Falschinformation als Ergebnis vorwiesen [16], stellt sich die Frage, kann es diesmal anders sein? Anbei wird dazu eine Antwort versucht.

Studie: Stromexport verstopft auch Exportleitungen

Es ist bekannt, dass die Professorin C. Kemfert als Ökonomin ähnliche Ansichten vertritt [6]. Auch nach ihren Vorstellungen müssen die Leitungen immer für den ideologisch richtigen Strom freigehalten werden. Fließt darin „dreckiger“, konventionell erzeugter Strom, muss dieser dem „edlen Ökostrom“ selbstverständlich sofort weichen. Ihre Homepage berichtete deshalb nach der Veröffentlichung sofort über die Studie:
KLIMARETTER.INFO: [1] Kohlestrom verstopft auch Exportleitungen
Der Überschuss, den Deutschland beim Stromexport erzielt, hat sich in den letzten fünf Jahren auf mehr als das Achtfache erhöht. Das hat eine Untersuchung des Berliner Energieforschungsinstituts Era im Auftrag der Bundestagsfraktion der Grünen ergeben. Als Hauptgrund für den … steil angestiegenen Exportüberschuss nennt die klimaretter.info vorliegende Analyse die seit 2009 recht konstante Stromerzeugung aus Braun- und Steinkohle. Meist würden die hohen Stromexporte aber der schwankenden Wind- und Solarstromerzeugung angelastet, schreiben die Studienautoren.

Die GRÜNEN meldeten ihren Argumentationserfolg und verknüpften das Ergebnis dazu mit dem Wahlkampf, 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom
Die Bundestagsfraktion BÜNDNIS 90/DIE GRÜNEN hat eine Studie zum Stromexport bei era – energy research in Auftrag gegeben, deren Ergebnisse jetzt vorliegen.
Fazit: Deutschland produziert viel mehr Strom als im Land verbraucht wird. In den letzten fünf Jahren haben sich die deutschen Stromexportüberschüsse fast verzehnfacht. Auch Brandenburg exportiert 60 Prozent des Stroms, weil gerade hier die Braunkohlekraftwerke das Stromnetz verstopfen und kaum wie eigentlich vorgesehen, bei hoher Windeinspeisung runtergefahren werden.
Der denkbar schlechteste Grund dafür: Die deutsche Bundesregierung hält an den unflexiblen Kohlekraftwerken fest. Wenn die Produktion gedrosselt wird, dann nicht bei den klimaschädlichen Kohlekraftwerken, sondern bei den Erneuerbaren-Anlagen. Für diesen Mechanismus ist die Regierung Merkel verantwortlich und deshalb auch
für jede einzelne unnötig produzierte Kilowattstunde schmutzigen Kohlestroms. Wir wollen in einer Regierungskoalition die schmutzigsten 20 Kohlekraftwerke als erstes abschalten. Die stabile Stromversorgung in Deutschland ist davon nachweislich nicht berührt.

Der bdew, im Wesentlichen ein Zusammenschluss von Versorgern, sichtete die Studie, fand die Aussagen schlichtweg eine Zumutung an den technischen Sachverstand, darf und will jedoch weder der Kanzlerin, deren energiepolitischen Vorgaben, noch den unsinnigen Vorstellungen sonstiger in Berlin agierender Parteien – und auch nicht den Avancen einiger kommunaler Versorger [8] irgendwie zu nahe treten, geschweige diesen gar den geballten Unsinn vorwerfen.
Entsprechend unterwürfig wurde ein lauer Protest formuliert, um wenigstens ein paar Aussagen der Studie „gerade zu rücken“ und vielleicht auch, um in der Zukunft auf hämische Nachfragen „Widerstand“ belegen zu können:
Was steht in der Studie

Diese Frage lässt sich leichter beantworten, wenn man sich vorher klarmacht, warum es diese Studie überhaupt gibt-Allgemein ist bekannt, dass die EEG-Vorrangeinspeisung zu Netzproblemen führt und immer öfter abgeregelt werden muss. Auch ist bekannt, dass Deutschland Strom – teils sogar zu negativen Preisen – exportiert.
Kein Energiefachmann der alten Schule macht für diese Probleme die Grundlastkraftwerke verantwortlich. Sie weisen stattdessen auf den Unsinn der bedingungslosen Vorrangeinspeisung hin und erklären anhand der Ganglinien, warum die geschilderten Probleme mit immer weiterem EEG-Ausbau immer zwanghafter auftreten (müssen) [5] [7] [9] (und Schlusskapitel).

Den EEG-Befürwortern ist eine solche Argumentation ein Dorn im Auge. Sie behaupten, die Grundlastkraftwerke könne und müsse man sehr wohl jederzeit so schnell und stark regeln, dass der EEG-Vorrangstrom in vollem Umfang eingespeist und verbracht werden könnte. Und damit wären alle EEG-Probleme bereits behoben. Dass dies nicht geschieht, läge nur an der „Geldgier“ der Kraftwerksbetreiber und natürlich an der Politik, die dies zulasse.
Diese Argumentation wird von der Studie übernommen und „belegt“. Anhand ausgesuchter Ganglinienbeispiele „zeigt“ sie, dass bei flexibler Kraftwerks-Einspeiseregelung kein EEG-Strom verloren gehen müsste und Stromexporte unnötig wären.

Die Studienautoren bestätigen dies und sagen: Nicht die unplanbare, mit extremer Spanne schwankende EEG-Vorrangeinspeisung ist das Problem im Netz, sondern die darauf nicht flexibel genug reagierenden Grundlast-Kraftwerke, vor allem Braunkohle und die noch verbliebene Kernkraft. Alleine dies sei die Ursache der Stromexporte und der vorgenommenen Abregelungen. Würde man alle Kraftwerke genau mit der EEG-Einspeisung nachregeln, gäbe es alle Probleme nicht. Ob das technisch überhaupt möglich wäre, hat die Studienautoren nicht interessiert.
Die Grundlastkraftwerke passen sich der fluktuierenden EEG-Einspeisung nicht flexibel genug an

era Analyse: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt. Die Steinkohlekraftwerke werden zwar variabler betrieben, ihre Leistungsreduzierung reicht aber nicht aus, um bei hoher Windenergie- und PV-Einspeisung eine ausgeglichene Angebot-Nachfrage-Situation im Strommarkt zu erreichen. Dafür müsste auch die Leistung der Braunkohle- und Atomkraftwerke viel stärker an die Stromerzeugung aus erneuerbaren Energien angepasst werden.

Bild 1 Jährliche Exportüberschüsse [2]

[2] Die hohen Exporte werden zumeist der schwankenden Wind- und Solarstromerzeugung angelastet. Die vorliegende Untersuchung zeigt jedoch, dass sie in erster Linie auf die seit 2009 konstant gebliebene Stromerzeugung aus Braun- und Steinkohle zurückzuführen sind.

Bild 2 Jährliche Abregelungen [2] (EEG-Strom, der erzeugt wurde, mangels Bedarf nicht eingespeist wird, jedoch bezahlt werden muss)

[2] Die hohe Braunkohle- und Steinkohleerzeugung hat außerdem zusammen mit Netzengpässen dazu beigetragen, dass die abgeregelte Stromerzeugung aus erneuerbaren Energien in den letzten Jahren drastisch gestiegen ist (siehe folgende Abbildung). Da die Betreiber für den nicht eingespeisten Strom aus erneuerbaren Energien entschädigt werden, entstehen durch die Abregelung zusätzliche Kosten, die – zu Unrecht – der Energiewende angerechnet werden.

Bild 3 Ganglinienbeispiel Zeitraum 27.01. – 31.01.2016 [2]

Um welches Problem geht es dabei

Wie üblich geht es neben anderem um Kosten. Die Netzüberlastungen durch die EEG-Vorrangeinspeisung nehmen mit jedem weiteren Ausbau zu und kosten inzwischen richtig Geld. Zudem führt es auch zu Stromexporten mit negativen Preisen. Mit jedem weiteren EEG-Ausbau explodieren diese Probleme und Kosten.

Bild 4 Kosten der Netzüberlastungen. Quelle: R. Schuster

Als Beleg werden ausgesuchte Ganglinienbeispiele angeführt

Beispiel A, der Zeitraum vom 27. bis zum 31.01.2016.

Bild 5 Ganglinienbeispiel A, Zeitraum 27.01. – 31.01.2016 [2]

Kritische Betrachtung

Ganz kurz gesagt: Unter der Prämisse, dass EEG-Einspeisung grundsätzlich Vorrang haben muss, dem sich alles andere bedingungslos unterzuordnen hat, wird vollkommen frei von technischen Zwängen erklärt, dass, so lange bei den Grundlastkraftwerken noch „Luft“, also eine Energiedifferenz besteht, alleine diese geregelt werden müssen.

Über die komplexen Zusammenhänge im Versorgungsnetz und über die Probleme eines zukünftig höher werdenden EEG-Anteils wird nicht eingegangen.

Studie: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt.
Die hohen Exporte werden zumeist der schwankenden Wind- und Solarstromerzeugung angelastet. Die vorliegende Untersuchung zeigt jedoch, dass sie in erster Linie auf die seit 2009 konstant gebliebene Stromerzeugung aus Braun- und Steinkohle zurückzuführen sind.
Die hohe Braunkohle- und Steinkohleerzeugung hat außerdem zusammen mit Netzengpässen dazu beigetragen, dass die abgeregelte Stromerzeugung aus erneuerbaren Energien in den letzten Jahren drastisch gestiegen ist
Da die Betreiber für den nicht eingespeisten Strom aus erneuerbaren Energien entschädigt werden, entstehen durch die Abregelung zusätzliche Kosten, die – zu Unrecht – der Energiewende angerechnet werden.

Bewusst verzichtet die Studie auf jegliche physikalische und kraftwerkstechnische Betrachtung. Für die Studienautoren existieren keine technischen oder kommerziellen Probleme. Sie argumentieren nur nach den Ganglinienkurven.
Was die Studienautoren sicher wissen, aber nicht erwähnen ist, dass dies (auf dem Papier) nur gelingt, weil global immer noch eine Differenz zwischen Verbrauch und EEG-Spitzeneinspeisung besteht. Dass dies in Regionalnetzbereichen schon aktuell nicht mehr der Fall ist [7], wird unterschlagen, beziehungsweise nur nebenbei erwähnt. Auch wird zwar erwähnt, aber nicht darauf eingegangen und ignoriert, warum Braunkohle- und Kernkraftwerke nicht im Stundentakt in der Leistung beliebig hin- und her fahren können. Es wird einfach postuliert, dass es nur an der Geldgier der Betreiber läge.

Die Studie reiht sich damit nahtlos in die Formate ein, wie sie beispielhaft auf Klimaretter.Info regelmäßig zur (Des-)information zu finden sind. Toppt diese jedoch durch eine schon fast auf Kindergarten-Niveau reduzierte „Ganglinienanalyse“. Das ließ sich aber nicht vermeiden: Das Ergebnis war durch den Auftraggeber ja festgelegt.

Die Grundlastkraftwerke haben die sprunghafte EEG-Einspeisung vollständig auszuregeln

Anhand des ersten in der Studie gebrachten Ganglinienbeispiels (Bild 4) sei die Problematik gezeigt. Dazu ist der 27. Januar 2017 dargestellt und die Eispeiseveränderung zwischen 12 und 17 Uhr.

Bild 6 Ganglinien 27.01. – 31.01.2016. Zeitraum 27.01., 12 – 17 h gekennzeichnet. Quelle Agora Viewer

Innerhalb dieser fünf Stunden speisten die EEG-Generatoren -52 % Energie ins Netz. Während der Verbrauch nur um 3,3 % zurückging. Würde Deutschland (wie geplant) zu 100 % EEG-versorgt, hätten in Deutschland innerhalb der fünf Stunden
50 % der erforderlichen Elektroenergie gefehlt.

Bild 7 Detaildaten der Ganglinien von Bild 6

Die Studie sagt nun folgerichtig, da vom EEG-Gesetz so vorgegeben, dass es nicht Aufgabe der EEG-Stromlieferanten ist, darauf Rücksicht zu nehmen. Diese Einspeise-Verbrauchsdifferenzen müssten die konventionellen Kraftwerke ausregeln. Das machen diese (notgedrungen) auch, ansonsten würde das deutsche Stromnetz bereits aktuell zusammenbrechen.

Um es nicht zeigen zu müssen, hat die Studie gezielte Zeitpunkte zur „Analyse“ herausgepickt. Deshalb beispielhaft nochmals das erste Studienbeispiel mit dem Zeitraum über zwei Monate (Bild 7). Sehr schön sieht man nun die Probleme – und nicht die „Erfolge“ der EEG-Einspeisung:
Wenn der Bedarf fast am Maximum liegt, wird ein Minimum an Energie geliefert (rote Pfeillinie). Das ist genau das Gegenteil, was Herr Özdemir behauptet [10].
Obwohl der Bedarf sinkt, wird sprunghaft Maximalenergie eingespeist (um den 21. Februar).
All dies regelt die konventionelle Stromerzeugung aus. Entsprechend der technischen Gegebenheiten der Kraftwerkstechnik in der Reihenfolge: Gas, Steinkohle, dann wenig Braunkohle und noch weniger Kernkraft. Dass sich damit dann kaum noch Geld verdienen lässt, kann mancher vielleicht verstehen. Nicht jedoch die Studienautoren und die GRÜNEN.

Bild 8 Ganglinien vom 01.01. – 28.02.2016. Mit Zufügungen vom Autor. Quelle Agora Viewer

Bild 9 Detaildaten der Ganglinien vom 19. – 20.02.2016 von Bild 8

Bild 10 Zeitraum 01.01.2016 – 29.02.2016. Verlauf Verbrauch (violett) und Differenz Verbrauch zur EEG-Einspeisung (braun). Grafik vom Autor erstellt. Quelle: Agora-Daten

Bild 11 Ganglinie des Gesamtjahres 2016. Zusätzlich gekennzeichnet ist der Zeitraum des Studienbeispiels A. Quelle: Agora-Viewer

Wenn reiner Irrsinn über unsere Energie bestimmt …

Bei jedem Blick in die EEG-Ganglinien ist ersichtlich:
Dass die EEG-Stromversorgung mit ihrer Vorrangeinspeisung bei einem weiteren Ausbau den kommenden Zusammenbruch des Stromnetzes zur Folge haben muss.
Parallel ist ersichtlich, dass die „versprochenen“ Speicher nirgendwo mit ausreichendem Volumen in Sicht sind.
Die konventionellen Kraftwerke sind derzeit noch in der Lage, die Einspeiseproblematik auszuregeln und mit der Strombörse über Export / Import Energiedifferenzen abzufangen.
Trotzdem nehmen die sich verstärkenden Abregelungen (Bild 2) als zusätzliche Notmaßnahme drastisch zu.

Das ist nicht nur die Ansicht des Autors, sondern kann auch an anderen Stellen nachgelesen werden [5] [7] [9].

In dieser immer kritischer werdenden Situation fällt „Fachpersonen“ nichts anderes ein, als unbeirrt ihren ideologischen Weg weiter zu gehen.
Unter diesen sticht die „Fachfrau“ der GRÜNEN (Studium: Politikwissenschaften, öffentliches Recht, Völkerrecht) allerdings hervor. Sie weiss erkennbar nichts über das, was sie sagt, sie weiß aber genau, warum sie es sagt:
„Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Zuerst stellt sich die Frage, was diese Darstellung mit den Studienaussagen zu tun hat. Dort steht dazu nämlich praktisch nichts drin.
Information der Studie:
Über Speicher: Nichts,
Dass erneuerbare Energien die Strom-Nachfrage erfüllen könnten: Nichts,
Zum Versorgungsnetz: Es wird nur erklärt, dass derzeit das globale Netz (aktuelle, lokale Überlastungen, wie sie der bdew anspricht, wurden nicht untersucht) auch bei EEG-Einspeisespitzen noch ausreicht, wenn parallel minutengenau alle Grundlastkraftwerke heruntergefahren würden.

Wahrscheinlich hat die Fachfrau die Studie gar nicht gelesen. Man würde sich wünschen, jemand könnte diese „Fachfrau des Wissensgrauens“ zwingen, auch einmal etwas über Energie zu lesen, damit sie wenigstens im Ansatz den Unsinn ihrer Aussagen erkennt:
EIKE, 01. September 2017: [9] SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung
TYCHIS EINBLICK, 4. Februar 2017: [5] Anspruch und Wirklichkeit „Energiewende“ trifft frostige Wirklichkeit
Sicher noch hilfreicher wäre, sie müsste einmal dort leben, wo ein solches Energiesystem Realität ist. Allerdings sie alleine (zum Beispiel irgendwo in Afrika) und nicht umgekehrt, wir mit ihr demnächst in Deutschland.
Zur Demo für wenige Tage alle Kraftwerke abzuschalten, um der Fachfrau zu zeigen, an was es bei ihr mangelt, und den Bürgern, was uns durch solche fachfremden Personen alles noch eingebrockt wird, wäre am Hilfreichsten. Da unsere Medien dann aber nicht die Wahrheit berichten, sondern irgend eine Dolchstoßlegende erfinden würden, käme es leider dort, wo es ankommen sollte dann nicht an.

Die Beraterin für Klima und EEG für unsere Berliner Politikkaste ist allerdings kaum besser. Sie hat auch keine Lösungen, meint aber zu wissen, welche es sind:
[6] Prof. C. Kemfert: Nicht die erneuerbare Energie von morgen braucht zusätzliche Netze, sondern der hohe Überschuss des Kohlestroms von gestern. Die erneuerbaren Energien sollen hier nur als Sündenbock herhalten, um einen überdimensionierten Stromnetzausbau zu rechtfertigen. Dabei wären dezentrale, intelligente Netze samt Lastmanagement und mittelfristig mehr Speicher viel wichtiger.
Auch diese „Fachfrau“ belegt, dass man mit Wissen nicht weiterkommt, sondern indem man weiss, was die Wichtigen als Wissen wissen wollen. Trotz ihrer vielen, oft hanebüchenen Aussagen [6] wird sie mit Ehrungen und Posten überhäuft.

Der bdew als ein Verband mit Fachwissen könnte etwas zur (Er-)Klärung beitragen. Macht er aber nicht.
Stattdessen philosophieren seine Fachleute über unerfüllbare Wünsche und Speicher und dass der Grund, warum sie fehlen „regulatorische Hemmnisse“ wären, die man schnell abschaffen könnte. Dass Speicher im erforderlichen Umfang nicht möglich sind, alternativ (als Powert to Gas mit Rückverstromung [11] [13]) die Stromkosten explodieren lassen [11], wagt der Verband nicht zu erwähnen.
… welche sich durch GRÜNE „Forschungskompetenz“ selbst bestätigt …

Welche Kompetenz hat nun das Forschungsinstitut, von dem die Studie für die GRÜNEN verfasst wurde? Anbei eine Nachschau:
era (energy research architecture) ist eine international tätige Beratungsfirma, die sich mit den Energie- und Ressorcenfragen unserer Zeit beschäftigt. Das Ziel von era ist, einen Beitrag zur Entwicklung einer nachhaltigen Ära zu leisten, die auf einer sauberen, sicheren und erneuerbaren Energieversorgung und auf den effizienten Einsatz von Ressourcen basiert.

Der Haupt-Studienautor ist mit-Gründer von era:
Björn Pieprzyk
2001: Studium der Landschaftsplanung mit Schwerpunkt Umweltschutz an der Universität Hannover
Diplomarbeit: Der Beitrag von ÖKOPROFIT zur nachhaltigen Entwicklung – Analyse der Kooperation staatlicher Institutionen
und Unternehmen zur Förderung nachhaltiger Produktion
2001-2006: Referent für den Bundesverband Erneuerbare Energie Deutschland (BEE)
2006-2007: Referent für die Agentur für Erneuerbare Energien (AEE)
Seit 2008: Referent für den Bundesverband Erneuerbare Energie Deutschland (BEE)
2008: Gründung der Firma ERA energie research architecture mit Paula Rojas Hilje
Seit 2011: Doktorand an der Technischen Universität Darmstadt
Hochschule Ostwestfalen-Lippe: Lehrbeauftragter für Energiepolitik, Energierecht

Er hat auch bereits Studien zum EEG Im Auftrag des Bundesverbandes Erneuerbare Energie e.V. verfasst:
Irgendwie erschütternd, was inzwischen alles als „Forschungsinstitut“ bezeichnet wird. Für das wenige und dazu noch ideologisch beschränkte Wissen, welches die GRÜNEN benötigen, reicht aber wohl jedes „Kleinbüro“, sofern es die geforderten Daten verspricht, aus. Der gerade erschienene Artikel von Andrea Andromidas trifft das wie die Faust aufs Auge:
EIKE 02.09.2017: Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Der Autor hat spasseshalber die Daten für die EEG-Zukunft hochgerechnet.
Wenn die EEG-Einspeisung den Strombedarf decken soll, müssten Wind- und PV gegenüber dem Ausbaustand im Jahr 2016 nochmals um den Faktor 4,3 ausgebaut werden. Die hochgerechneten Ganglinien sehen dann wie im Bild 10 aus.

… kommt dieses Desaster heraus

Bild 12 EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch. Datenquelle: Agora

Bild 13 EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Speicherverluste. Datenquelle: Agora

Dass unser Versorgungsnetz bei diesen Einspeisungen nicht mehr stabil bleiben kann, drastisch umgebaut werden muss und massivste, restriktive Maßnahmen erforderlich werden, welche unabhängig davon, ob sie ausreichend Wirkung zeigen, auf jeden Fall wirklich viel, viel Geld kosten, ist sicher. Doch was interessiert die elektrische Wirklichkeit schon ernannten Energie-„Fachpersonen“ – und Bürgerinitiativen, welche gegen die notwendigen Umbaumaßnahmen genau so demonstrieren, wie gegen das Verbleiben im aktuell noch sicheren Energiesystem.

… welches bedingungslos zum totalen Kampf gegen das Klima weitergeführt wird

Das klingt schon recht verwegen. Den „Fachpersonen“ jagt es jedoch keine Angst ein, nein, es ihnen Ansporn, zur Rettung des Klimas noch mehr zu tun. Diesmal sind es zur Entschuldigung nicht die GRÜNEN, sondern Greenpeace Energy und der Bundesverband Erneuerbare Energien in Verbindung mit einer Energie-Fachperson aus dem Dunstkreis der Klimaberaterin C. Kemfert.
Greenpeace Energie, 20.06.2016, Pressemitteilung: [13] Deutschland braucht 100 Prozent erneuerbare Energien bis 2040, den Kohleausstieg bis 2030 und raschen Ausbau von Langzeitspeichern
In dieser Studie wird erklärt:
… Um die Vorgaben des Pariser Klimaabkommens einzuhalten, muss Deutschland erheblich mehr Ökostrom produzieren als bislang geplant …Demnach braucht Deutschland spätestens im Jahr 2040 jährlich 1.320 Terawattstunden an erneuerbarem Strom. Das ist mehr als doppelt so viel wie heute. Der deutlich höhere Strombedarf entsteht nach der „Sektorkopplungsstudie“, weil auch Verkehr, Wärme und Industrie zum Erreichen der Klimaschutzziele in Deutschland von fossilen Energieträgern auf erneuerbaren Strom umschwenken müssen. „Mit den geringen Zubaukorridoren des Erneuerbare-Energien-Gesetzes ist ein Einhalten der Paris-Ziele praktisch unmöglich. Entweder fehlt den politisch Verantwortlichen der nötige Sachverstand oder sie beabsichtigen das Klimaschutzabkommen gar nicht einzuhalten“, urteilte Studienleiter Prof. Dr. Volker Quaschning bei der Präsentation in Berlin.
Wenigstens sagt dieser Professor endlich einmal, was dann an Speicher benötigt wird, ein Problem, von dem die GRÜNE Fachfrau gar nichts weiß:
[13] … „Um den von Professor Quaschnings Team ermittelten Energiebedarf durch erneuerbare Speicher abzusichern, brauchen wir bis 2040 eine Elektrolyseurleistung von mindestens 80 Gigawatt, um den nötigen Wasserstoff zu erzeugen“,

Mit dem 14-fachen EEG-Ausbau könnte Deutschland seine Klimaziele erreichen …

Dieser Prof. Quaschning (Promotion über die Abschattung von Solarzellen) fordert so ganz nebenbei nichts weniger, als mindestens eine Vervierzehnfachung des aktuellen EEG-Ausbaus (mehr als 2 x 6,5, siehe Bild 11), da ansonsten die Welt mit dem Klima untergehen würde. Wer das nicht glaubt, dem fehle der nötige Sachverstand. Das erste Mal dass man froh ist, dass wenigstens einem Teil unserer Politikern dieser Sachverstand fehlt.

Ansonsten ist dieser Professor ein typisches Beispiel für die Forschertypen, welche mit Freude und konsequent etwas (zum eigenen Nutzen) umsetzen, den Sinn und die Notwendigkeit jedoch nicht hinterfragen, sondern froh sind, dass er „von Oben“ vorgegeben wird. Solche gibt es in jedem Zeitabschnitt der Geschichte.

… und mit dem 40-fachen ganz auf Ökoenergie umsteigen

Wie man das leicht ausrechnen kann, steht im Artikel:
EIKE 08.09.2017: Welcher EEG-Ausbau wird benötigt, wenn man – wie es die GRÜNEN fordern – alle Energie aus EEG-Erzeugern generiert?
Was es kostet, kann man ebenfalls abschätzen:

EIKE, 10. Oktober 2016: Neue Studie enthüllt: Die Energiewende wird uns bis 2025 rd. 520 Mrd € kosten

Fazit

Wie schon in den Artikeln:
EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?
EIKE
28.8.2015: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen
dargelegt wurde, geht es den GRÜNEN nicht darum, irgendwo „Kernkompetenz“ zu erhalten. Es werden nur Personen gesucht, die willig ihre ideologisch vorgefasste Meinung begründen helfen.

Oder sollte es inzwischen eine Ausnahme geben?
Angeblich ist das auch dem bayerischen Ministerpräsidenten aufgefallen. Vor Kurzem konnte er sich noch eine Koalition CSU / GRÜNE in Bayern vorstellen, nun hat er sich anders entschieden.
N24: Seehofer kann sich Koalition mit den Grünen nicht mehr vorstellen
Nur weiß man bei Seehofer nie, ist es (Nach-)Denken, oder reines Parteikalkül. Zum Beispiel weil die FDP inzwischen bessere Umfragewerte als die GRÜNEN vorweisen kann.
Um es als Nachdenken zu belegen, müsste er erst einmal seine Umweltministerin gegen eine Person auswechseln, die sich nicht nur als hohle, grüne Mainstream-Sprechpuppe darstellt und Frau Hendricks Klimahysterie und fachliche Inhaltsleere teilt [14].

Quellen

[1] KLIMARETTER.INFO, 25. August 2017: Kohlestrom verstopft auch Exportleitungen

[2] era, August 2017: Analyse des Exports von Stein- und Braunkohlestrom Erstellt im Auftrag von: Bundestagsfraktion Bündnis 90/Die Grünen

[3] bdew Bundesverband der Energie- und Wasserwirtschaft e.V.: Stefan Kapferer zum aktuellen Kraftwerke-Papier der Grünen

[4] Annalena Baerbock 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom

[5] TYCHIS EINBLICK, 4. Februar 2017: Anspruch und Wirklichkeit „Energiewende“ trifft frostige Wirklichkeit

[6] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[7] EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze

[8] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[9] EIKE, 01. September 2017: SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

[10] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[13] Greenpeace Energie, 20.06.2016: Deutschland braucht 100 Prozent erneuerbare Energien bis 2040, den Kohleausstieg bis 2030 und raschen Ausbau von Langzeitspeichern

[14] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[15] EIKE 21. Dezember 2012: Ein Weihnachtsmärchen: Minister Altmaier, die Energiewende und die Geisterfahrer

[16] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

[17] EIKE: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN immer so viel Falsches drin?