Mein unglückliches Leben als Klima-Ketzer

Ich glaube, dass der Klimawandel real ist und dass menschliche Emissionen von Treibhausgasen bestimmte Maßnahmen rechtfertigen, einschließlich einer Kohlenstoff-Steuer. Aber meine Forschungen führten mich zu einem Ergebnis, dass viele Klima-Campaigner inakzeptabel finden: Es gibt kaum Beweise, die belegen, dass Hurrikane, Überschwemmungen, Tornados oder Dürren häufiger oder stärker in den USA oder global geworden sind. Tatsächlich leben wir hinsichtlich Extremwetter in einer sehr guten Zeit. Zu diesem Thema habe ich mehr geforscht und veröffentlicht als Andere, seit über zwei Jahrzehnten. Meine Schlussfolgerungen mögen falsch sein, aber ich denke, dass ich das Recht habe, über die Forschungen ohne Risiko für meine Laufbahn zu reden und zu schreiben.

signalisierten Autoren des Journals Foreign Policy, dass Mancher mir vorwarf, ein „Klimawandel-Leugner“ zu sein. Zu den Gründen erklärten die Autoren, dass ich „bestimmte Graphiken in den IPCC-Berichten in Frage stelle“. Dass ein Akademiker, der Fragen bzgl. Klimawandel an das IPCC richtet, also in seinem Fachgebiet, als Leugner gebrandmarkt wird, enthüllt die hier herrschende Denkweise.

Und doch hatte ich recht, den IPCC-Bericht 2007 zu hinterfragen, worin auch eine Graphik enthalten war, der zufolge die Katastrophen-Schäden infolge der globalen Erwärmung stiegen. Später stellte sich heraus, dass die Graphik auf der Grundlage erfundener und ungenauer Informationen erstellt wurde. Dies habe ich in meinem Buch „The Climate Fix“ dokumentiert. Der Wissenschaftler bei der Versicherungs-Industrie Robert-Muir Wood von Risk Management Solutions hatte die Graphik in den IPCC-Bericht geschmuggelt. In einer öffentlichen Diskussion mit mir in London im Jahre 2010 erklärte er, dass er die Graphik eingebracht und fehlinterpretiert hatte in der Erwartung, dass zukünftige Forschungen einen Zusammenhang zwischen Katastrophenschäden und steigenden Temperaturen ergeben würden.

Als seine Forschung im Jahr 2008 schließlich veröffentlicht worden war, also lange nach dem IPCC-Bericht, kam er zum gegenteiligen Ergebnis: „Wir finden kaum Beweise für die Behauptung eines statistischen Zusammenhangs zwischen globalem Temperaturanstieg und Katastrophenschäden“. Oha!

Das IPCC hat diese Schweinerei niemals eingeräumt, aber nachfolgende Berichte beschrieben die Wissenschaft richtig: Es gibt keine Grundlage, Wetterkatastrophen mit dem vom Menschen verursachten Klimawandel in Zusammenhang zu bringen.

Ja, Stürme und andere Extreme treten immer noch auf, teils mit verheerenden menschlichen Folgen, aber die Historie zeigt, dass sie noch viel schlimmer sein können. Kein Hurrikan der Stärke 3, 4 oder 5 ist seit dem Hurrikan Wilma im Jahre 2005 auf das US-Festland übergetreten, das ist bei Weitem der längste derartige Zeitraum jemals. Dies bedeutet, dass der kumulierte wirtschaftliche Schaden durch Hurrikane während des vorigen Jahrzehnts um etwa 70 Milliarden Dollar unter dem vieljährigen Mittelwert liegt, den wir erwartet haben. Dies geht aus Forschungen zusammen mit meinen Kollegen hervor. Das sind gute Nachrichten, und es sollte in Ordnung sein, das auch zu sagen. Und doch, in der heutigen hyper-voreingenommenen Klimadebatte wird jedes einzelne Beispiel von Extremwetter zu einem Politikum.

New York Times JTwitter feed geworfen.

Ich wusste nicht, dass Reporter derartige Listen haben. Aber ich habe verstanden. Niemand mag gerne hören, dass er über wissenschaftliche Forschung falsch berichtet habe, schon gar nicht beim Thema Klimawandel. Einige glauben, dass die Verknüpfung von Extremwetter mit Treibhausgasen dabei hilft, die Klimawandel-Politik zu befeuern. Außerdem werden schlechte Nachrichten gerne angeklickt.

Aber hier geht es um mehr als um dünnhäutige Reporter, die bockig auf einen Professor reagieren, der seine Stimme erhebt. Im Jahre 2015 wurde ich in der Los Angeles Times von der Pulitzer-Preisträgerin Paige St. John erwähnt, womit sie den ziemlich offensichtlichen Punkt ansprach, dass Politiker das Augenblicks-Wetter als Begründung für Maßnahmen gegen Klimawandel benutzen, selbst wenn die wissenschaftliche Basis dafür dünn oder umstritten ist.

Ms. St. John wurde von ihren Oberen in den Medien an den Pranger gestellt. Kurze Zeit später schrieb sie mir eine E-Mail des Inhalts, was sie gelernt habe: „Sie sollten mit einem Warnschild daherkommen: Roger Pielke zu zitieren führt zu einem Hagelsturm auf Ihre Arbeit, losgetreten vom Guardian, Mother Jones und Medienmogulen“.

erster Artikel dort im Jahre 2014 basierte auf dem Konsens des IPCC und begutachteter Forschung. Ich wies darauf hin, dass die globalen Kosten von Katastrophen mit einer geringeren Rate zunahmen als das Wachstum des BIP, was eine sehr gute Nachricht ist. Katastrophen gibt es immer noch, aber deren ökonomische und humane Auswirkungen sind geringer als in der Vergangenheit. Das ist nicht furchtbar kompliziert.

Dieser Beitrag löste eine intensive Medienkampagne aus, mich zu feuern. Schreiberlinge bei Slate, Salon, der New Republic, der New York Times, des Guardian und viele weitere beteiligten sich daran.

ClimateTruth.org, gegründet vom ehemaligen Mitarbeiter im Center for American Progress Brad Johnson und beraten von Michael Mann von Penn State wurde mein Ausscheiden als „ein Sieg der Klima-Wahrheit“ bezeichnet. Das Center for American Progress versprach seinem Geldgeber Mr. Steyer noch mehr davon.

Schlussfolgerungen zeigten keinen steigenden Trend hinsichtlich Hurrikanen, Überschwemmungen, Tornados oder Dürren – weder in den USA noch global.

Anfang 2014, nicht lange nach meinem Auftritt vor dem Kongress, hat der Wissenschaftsberater von Präsident Obama, John Holdren, vor dem gleichen Senate Environment and Public Works Committee gesprochen. Er wurde zu seinen öffentlichen Äußerungen befragt, die dem wissenschaftlichen Konsens zu Extremwetterereignissen, die ich zuvor präsentiert hatte, zu widersprechen scheinen. Mr. Holdren reagierte mit dem nur zu sattsam bekannten Verfahren, den Urheber anzugreifen, und den Senatoren fälschlich zu sagen, dass meine Standpunkte „nicht repräsentativ seien hinsichtlich der wissenschaftlichen Meinung des Mainstreams“. Danach schob Mr. Holdren einen merkwürdigen, fast 3000 Wörter umfassenden Beitrag auf der Website des Weißen Hauses nach mit dem Titel [übersetzt] „Eine Analyse der Statements von Roger Pielke Jr“. Dieser Beitrag steht dort heute immer noch.

liest sich mehr wie ein hingerotzter Blogbeitrag der behämmerten Flügel der Online-Klimadebatte, vollgestopft mit Fehlern und Falschaussagen.

Exxon Mobil stehen könnte (oder der Illuminati, habe ich vergessen). Er forderte Aufzeichnungen mit Details zur Finanzierung meiner Forschung an, meine E-Mails und so weiter. Nach einiger nur allzu berechtigter Kritik seitens der American Meteorological Society und der American Geophysical Union löschte Repräsentant Grijalva den Brief von seiner Website. Die University of Colorado folgte der Forderung des Repräsentanten Grijalva und antwortete, dass ich niemals Gelder von Fossile-Treibstoffe-Unternehmen erhalten hatte. Meine häretischen Ansichten können zu Forschungsunterstützung seitens der US-Regierung zurückverfolgt werden.

Aber die Schädigung meines Rufes war da, und das war vielleicht auch der Punkt, der hinter all dem steckte. Sich bzgl. Klimawandel zu engagieren oder diesen zu studieren macht immer weniger Spaß. Also begann ich, zu anderen Themen zu forschen und zu lehren, und ich fand die Änderung der Richtung erfrischend. Machen Sie sich um mich keine Sorgen: ich habe eine Anstellung und mich unterstützende Campuses und Mitglieder der Universitätsverwaltung. Niemand versucht, mich zu feuern ob meiner neuen Lehrtätigkeit.

Aber die Quintessenz lautet, dass ein einzelner Akademiker kein Gegner ist für Milliardäre, bestens ausgestattete Interessengruppen, die Medien, den Kongress und das Weiße Haus. Falls Akademiker – egal in welchem Fachgebiet – eine bedeutende Rolle in öffentlichen Debatten spielen sollen, muss der Staat bessere Arbeit leisten hinsichtlich der Unterstützung gutgläubiger Forscher, selbst dann, wenn deren Ergebnisse unwillkommen sind. Dies gilt für Republikaner und Demokraten gleichermaßen und auch für die Regierung des designierten Präsidenten Trump.

Akademiker und die Medien im Besonderen sollten Meinungsvielfalt unterstützen anstatt als Handlanger politischer Zweckmäßigkeit zu agieren, wenn sie versuchen, Stimmen auszuschalten oder Laufbahn und Ruf zu schädigen. Falls Akademiker und die Medien die offene Debatte nicht stützen – wer wird es dann tun?

Mr. Pielke ist Professor und Direktor des Sports Governance Center at the University of Colorado in Boulder, Colorado. Sein jüngstes Buch trägt den Titel „The Edge: The Wars Against Cheating and Corruption in the Cutthroat World of Elite Sports” (Roaring Forties Press, 2016).

Link: http://www.wsj.com/articles/my-unhappy-life-as-a-climate-heretic-1480723518#renderComments (paywalled)

Bemerkung des Übersetzers dazu: Dieser im Wall Street Journal erschienene Beitrag wurde mir per E-Mail zugeschickt. Im Wall Street Journal ist er paywalled, der Anfang des Beitrages mit den gerade noch erkennbaren Zeilen steht oben. Der Hauptteil stammt aus der E-Mail. Ob sich zwischen ihm und den Zeilen im Subheader eine mit ,…‘ bezeichnete Lücke befindet, lässt sich nicht feststellen.




Zwei Stromerzeugungs­systeme kollidieren

Einleitung

Das Jahr 2015 war ein Rekordjahr für die Produzenten von Solar- und Windstrom, vor allem, weil das Jahr ein „gutes Windjahr“ war. Nie zuvor wurde in Deutschland so viel Strom aus Wind und Sonne erzeugt. In der Summe waren es 125 TWh. Gemessen am Stromverbrauch liegt der Anteil des in Deutschland produzierten Wind- und Sonnenstroms damit bei 19,3%. Diese Zahl wurde von der Presse und der EE-Lobby gefeiert und der Eindruck erweckt, die erneuerbaren Energien (Wind, Sonne, Biogas, Wasserkraft, Hausmüll und Sonstige) hätten damit tatsächlich 30 % zur Versorgung in Deutschland beigetragen. Genau das ist nicht der Fall. Es wurden zwar Rekordmengen an Strom produziert, aber nicht im Lande verbraucht, sondern in großen Mengen ins angrenzende Ausland exportiert. Die Diskussion darüber, ob es sich bei den Exporten um Kohlestrom oder EE-Strom handelt, ist müßig. Auch der Hinweis darauf, dass der EE-Strom bei der Börse zu Grenzkosten 0 hereingenommen wird, führt an den eigentlichen Problemen vorbei. Unabhängig vom aktuellen Börsenpreis zahlt der Kunde immer den durch das EEG garantierten Strompreis, geht der Preis bei Überproduktion ins Negative, kommen diese Kosten noch hinzu.

Kernproblem sind die immer größer werdenden Schwankungen der EE-Stromproduktion, die von den vorhandenen thermischen Kraftwerken vor allem aus physikalischen und technischen Gründen nicht mehr kompensiert werden können. Im Netz ist der Strom aus EE-Anlagen ein Unruhestifter, dessen Schwankungen ohne die erforderlichen Speicher nicht mehr beherrschbar sind. Mit der Rekordproduktion an EE-Strom stiegen in 2015 auch die Kosten für die Notmaßnahmen zur Verhinderung eines Netzzusammenbruchs: So schreibt DER SPIEGEL am 17. Januar, dass die Eingriffe zur Abwehr eines größeren Stromausfalls im vergangenen Jahr zu Rekordkosten von etwa einer Milliarde Euro geführt haben. Über die Netzentgelte gehen diese Kosten zu Lasten der Verbraucher.

 

Unsere elektrischen Nachbarn errichten Stromsperren an ihren Grenzen, um die eigenen Netze vor unserem Überschussstrom zu schützen. Die erforderlichen Phasenschiebertransformatoren lassen sie sich vom deutschen Stromkunden auch noch bezahlen! Kosten für die Verbraucher: 200 Millionen Euro.

Dieses Debakel ergibt sich aus fundamentalen technischen und physikalischen Zusammenhängen und schon vor Jahren wurde davor gewarnt: In einer Untersuchung [1] hat das ISE Fraunhofer Institut in Freiburg schon im August 2013 davor gewarnt, dass ein weiterer Ausbau der erneuerbaren Energien zu anwachsenden Exportüberschüssen und zu länger andauernden Zeiten mit niedrigen oder gar negativen Börsenpreisen und zu einem langfristig unüberwindbaren Systemkonflikt führen wird.

Dieser Systemkonflikt ist längst eingetreten. Aus Sätzen der mathematischen Statistik wurde bereits im Jahre 2014 abgeleitet, dass die Leistungsspitzen durch den Ausbau der Windkraft weiter ansteigen und die bekannten Probleme wie Überstromproduktion und Negativpreise an der Börse weiter verschärfen werden [2].

Der Systemkonflikt entsteht durch zwei voneinander unabhängige Stromerzeugungssysteme in Deutschland:

  1. Das konventionelle Stromerzeugungssystem, bestehend aus Kernkraftwerken, Braunkohlekraftwerken für die Grundlast, Steinkohlekraftwerken für die Mittellast und Gaskraftwerken für die Spitzenlast. Diese Klassifizierung ergibt sich zwangsläufig aus dem technisch möglichen und wirtschaftlich sinnvollen Regelpotenzial dieser Kraftwerke.

Zu dem konventionellen Stromerzeugungssystem kann man aus gutem Grund auch die Biogasanlagen hinzuzählen. Diese lassen sich ähnlich kontinuierlich betreiben wie Kohlekraftwerke und gehören damit auch zu den regelbaren Stromerzeugern. Die konventionellen Anlagen lassen sich bedarfsgerecht betreiben. Aufgrund der Regelbarkeit der Kraftwerke folgt die Stromproduktion auf die Millisekunde genau dem Bedarf. Dieser momentane Ausgleich von Nachfrage und Erzeugung ist die physikalische Grundbedingung für ein stabiles Stromnetz.

 

  1. Das zweite System sind Windkraftanlagen mit ca. 45 GW installierter Leistung und Photovoltaikanlagen mit ca. 40 GW installierter Leistung. Die Stromerzeugung aus Sonne unterliegt dem Tag-Nacht-Rhythmus. Die Periodendauer beträgt 24 Stunden, der Stromeintrag beginnt nach Sonnenaufgang mit geringen Werten und erreicht um 12:00 das Maximum. Der Leistungsbedarf schwankt auch im 24 Stunden Rhythmus, jedoch nicht deckungsgleich mit dem Sonneneintrag. Er beginnt früher als die Sonnenstromlieferung, geht gegen Mittag zur Zeit der höchsten Sonnenausbeute leicht zurück, steigt danach wieder an und endet gegen Abend später als der Sonneneintrag.

Die Windausbeute hängt von den Wetterbedingungen ab. Wind- und Sonnenstrom sind daher in hohem Maße volatil.[1] Bedarfsgerechte Stromerzeugung ist mit diesem System physikalisch nicht möglich.
Die Kombination aus Wind- und Sonnenstrom verursachen für das konventionelle Versorgungssystem unterschiedlich schwierige und unterschiedlich teure Regelsituationen. Der einfachste und auch kostengünstigste Fall ist Windstille bei Nacht. Dann liegt der Regelungsbedarf bei Null. Der teuerste Fall ist viel Wind beispielsweise bei einer Ost-Wetterlage und tagsüber ein hohes Angebot an Solarstrom. Hier müssen konventionelle Kraftwerke vormittags schnell abgeregelt und nachmittags genauso schnell wieder heraufgeregelt werden. Nur so können Netzausfälle vermieden werden.

Die Volatilität von Wind- und Sonnenstrom ist das bisher ungelöste Kernproblem der Energiewende. Liegt die Lösung in noch mehr Windrädern?

Tabelle 1 Statistische Kennzahlen Windkraft

Jahr Installierte Nennleistung am Jahresende Maximale Windleistung Mittlere Windleistung Minimale Windleistung Standard-abweichung Stundenwerte – Mittelwert Verhältnis Standard-abweichung zum Mittelwert
2010 27.072 MW 21.679 MW 4.070 MW 113 MW 3.661 MW 0,90
2011 28.606 MW 22.870 MW 5.051 MW 88 MW 4.391 MW 0,87
2012 30.755 MW 24.086 MW 5.222 MW 115 MW 4.419 MW 0,85
2013 33.614 MW 26.269 MW 5.380 MW 121 MW 4.864 MW 0,91
2014 36.928 MW 29.687 MW 5.868 MW 24 MW 5.488 MW 0,93
2015 44.946 MW 36.956 MW 8.996 MW 93 MW 7.220 MW 0,80

Betrachtet man die Standardabweichung als Maß für die Volatilität so ist festzustellen, dass diese von 2010 bis 2015 gleichzeitig mit dem Anstieg der installierten Wind- und Sonnenleistung zu- und nicht etwa abgenommen hat. Offensichtlich erhöhen noch mehr Windräder lediglich die Spitzenerzeugung, ohne eine sichere Grundlast zur Verfügung stellen zu können. Eine sichere und unterbrechungsfreie Stromversorgung ist unabhängig von der Anzahl der Wind- und Sonnenkraftwerke nicht möglich. Einen Ausgleich der Erzeugung zu einer sicher zur Verfügung stehenden Leistung durch noch mehr Windräder gibt es in Deutschland nicht. Dies ist inzwischen hinreichend belegt [3], obgleich das Gegenteil in Studien zu erneuerbaren Energien immer wieder behauptet wird und damit die Politik zu nachweisbar falschen Entscheidungen drängt.

Strom aus Wind und Sonne hat gemäß EEG Vorrang in den Netzen und wird von der Börse zu Grenzkosten 0 hereingenommen. Dadurch ist das volatile und für den Stromverbraucher teure Stromerzeugungssystem gegenüber dem konventionellen System absolut bevorzugt. Das bedeutet in letzter Konsequenz, dass die konventionellen Kraftwerke bei Nacht und Windstille die gesamte nachgefragte Leistung decken können müssen und dies unabhängig von der Anzahl der installierten Windräder. Die gesamte Sonnen- und Windleistung muss zu 100 % der nachgefragten Leistung ausreichend schnell durch regelbare Kraftwerke ersetzbar sein. Die maximale Residuallast, das ist die Differenz zwischen der benötigten Leistung und der Leistung, die die nicht regelbaren Kraftwerke – das sind die Wind- und Sonnenkraftwerke – erbringen, beträgt in diesem Fall 100% der nachgefragten Leistung.

Wenn ausreichend Sonnen- und Windleistung vorhanden ist, müssen die konventionellen Kraftwerke den Schwankungen der Wind- und Sonnenstromerzeugung schnell folgen und soweit heruntergefahren werden, wie dies technisch und wirtschaftlich vertretbar ist. Diese Schwelle bestimmt die mögliche minimale Residuallast, auf die die konventionellen Kraftwerke heruntergefahren werden können, ohne dass sie die Fähigkeit verlieren, bei Nachlassen von Wind und Sonne die Leistung kurzfristig wieder herauf geregelt zu werden. Welche Residuallast darf also nicht unterschritten werden?

Zur Erinnerung: es sind bereits 85 GW Wind- und Sonnenleistung installiert. Als Maximalwert wurden bisher im Rahmen des Netzmanagements 50 % der Nennleistung, das sind etwa 42 GW zugelassen. Bei weiterem Ausbau der Windenergie wird zumindest in Schwachlastzeiten sehr bald mit negativen Residuallasten zu rechnen sein, d.h. es kann theoretisch mehr EE-Strom produziert als verbraucht werden. Eine Prognos-Studie geht davon aus, dass als Folge eines weiteren Ausbaus von Sonnen- und Windkraft in 2030 an ca. 1100 Stunden eine negative Residuallast anfallen wird. [4]

Beispielsweise am Sonntag den 8. Mai 2016 betrug der Leistungsbedarf in Deutschland gegen 12:00 Uhr ca. 50 GW. Wind und Sonne lieferten zur gleichen Zeit 42 GW, damit betrug die auf den Strombedarf in Deutschland bezogene Residuallast nur 8 GW. Eigentlich würde man hier erwarten, dass die verbleibenden Kraftwerke auf diese Leistung zurückgefahren werden. Warum war das nicht der Fall? Die regelbaren Kraftwerke wurden auf 23 GW abgeregelt. Der Überschuss von 15 GW wurde in ausländische Netze „entsorgt“. Dafür waren zwischen 10:00 Uhr und 17:00 Uhr Entsorgungsgebühren von 21 Mio. € fällig. In der Statistik werden die Entsorgungsgebühren beschönigend „negative Strompreise“ genannt.

Das Kernproblem der Energiewende ist die bedarfsgerechte Bereitstellung der Residuallast. Wie weit und wie schnell kann man die vorhandenen Kraftwerke auf- und abregeln und sind die Kraftwerke dann überhaupt noch wirtschaftlich zu betreiben?

Für die Ermittlung der minimal zulässigen Residuallast sind folgende Faktoren zu berücksichtigen:

  1. Welches ist die maximal mögliche Abregelgeschwindigkeit, damit die konventionellen Kraftwerke den witterungsbedingten Schwankungen der EE-Stromeinspeisung und damit den steilen Lastgradienten folgen können?
  2. Welches ist der Minimalwert, von dem aus die konventionellen Kraftwerke ihre Leistung bis zur Nennleistung wieder schnell heraufregeln können?
  3. Welche minimale generator-basierte Leistung muss zur Bereitstellung der Frequenz stabilisierenden Schwungmasse vorgehalten werden?

Die Leistungsänderung erfolgt in einem technisch bestimmten Leistungsspektrum – nämlich zwischen der minimalen – und technisch sinnvollen – im Normalbetrieb fahrbaren Leistung und der (maximalen) Nennleistung des Kraftwerks.

 

Thermische Kraftwerke lassen sich schnell auf ca. 40 % ihrer Nennleistung herunterfahren.

Tabelle 2 Leistungskennwerte von Kraftwerken [5]

Maximale

Leistung

Minimale

Leistung

Maximaler Laständerungs-

gradient

Kernkraftwerke

 

1.260 MW 630 MW ± 63 MW/min
Neue GuD-Kraftwerke 875 MW 260 MW

 

± 38 MW/min
Neue Kohlekraftwerke 800 MW 320 MW ± 26 MW/min
Alte Kohlekraftwerke 600 MW 420 MW ± 8 MW/min

Zur Deckung der stark schwankenden Residuallast nutzt man sinnvollerweise die Regelkraftwerke, nämlich Pumpspeicher-Kraftwerke, Gasturbinen- (soweit verfügbar) und Steinkohlekraftwerke. KKWs sind aus wirtschaftlichen Gründen zunächst nicht für die Regelreserve geeignet. Nach Abschaltung der verbliebenen 8 KKWs in 5 Jahren stehen diese ohnehin nicht mehr zur Verfügung.

Unterstellt man eine Mindestleistung von 40 % für einen gesicherten Betrieb, kann man die Produktion aus o.a. Kraftwerken auf ca. 20 GW absenken. Dabei sind KKWs und Laufwasserkraftwerke nicht berücksichtigt. Danach sind etwa 25 bis 30 GW die Mindestleistung, auf die man die konventionelle Erzeugung absenken kann, ohne Kraftwerke komplett „kalt“ fahren zu müssen. Ein Kaltstart dauert bei Gaskraftwerken min. 30 min. Bei einem Kohlekraftwerk dauert ein Kaltstart hingegen 7 bis 15 Stunden.

Ein weiterer fundamentaler Grund, der eine Mindesteinspeisung konventioneller Kraftwerke erfordert, ist die Aufrechterhaltung der Systemstabilität, da Erzeugung und Verbrauch sich zu jedem Zeitpunkt in einem stabilen Gleichgewicht befinden müssen. Ein Abweichen von diesem Gleichgewicht äußert sich in einer Änderung der Frequenz (ein Überangebot führt zu Frequenzanstieg und ein Mangel zu Frequenzabfall). Dieses stabile Gleichgewicht wird durch die kinetische Energie der Turbogeneratoren gewährleistet, die im Netz als Kurzzeitspeicher wirken. Bereits bei einer Frequenzänderung von 0,01 Hz wird zu Maßnahmen der Primärregelung gegriffen. Zu Abweichungen gegenüber dem geplanten Gleichgewicht kann es kommen, da es Prognosefehler bei der Last und bei der Windeinspeisung geben kann und konventionelle Kraftwerke ungeplant vom Netz gehen können. Dann sind sogenannte Redispatch Maßnahmen erforderlich.

Hierzu die Erklärung von Amprion [6]:

In allen europäischen Kraftwerken drehen sich die Generatoren 50 Mal pro Sekunde und erzeugen den Wechselstrom mit einer Frequenz von 50 Hertz. Sinkt oder steigt die Frequenz im Netz, so wird die Funktion zahlreicher elektrischer Geräte wie Computer, Fernseher oder Motoren beeinflusst. Aber auch die Generatoren können beschädigt werden, sofern die Frequenz auf unter 47,5 Hertz sinkt. Die dann auftretenden Resonanzschwingungen führen zu einer Zerstörung.

Deshalb soll im europäischen Verbundnetz die Netzfrequenz nur wenig vom Sollwert abweichen. Die Netzregelung greift bereits bei einer Abweichung von 0,01 Hertz automatisch ein. Starten in den Fabrikhallen morgens die Maschinen gleichzeitig oder werden am Abend zu den Nachrichten die Fernseher im selben Moment eingeschaltet, so steigt die Belastung der Generatoren und sie werden für einen kurzen Augenblick etwas langsamer. Das Resultat: die Frequenz sinkt ab. Die automatisch einsetzende Leistungs-Frequenz-Regelung im Netz sorgt dafür, dass die Kraftwerke neue Leistungssollwerte erhalten und dadurch die Turbinen mehr Dampf bekommen und die Generatoren wieder mit 50 Hertz (Hz) rotieren. An dieser Regelung sind kontrahierte Kraftwerke im UCTE-Verbund beteiligt, die dafür ein vereinbartes Leistungsband ihrer Erzeugungsleistung als Reserve bereithalten.“

Die Übertragungsnetzbetreiber haben in einer Studie zur Ermittlung der Mindesterzeugung des konventionellen Kraftwerkparks folgende Ergebnisse veröffentlicht [7]:

Bei einer durchschnittlich bereitgestellten Regelleistung für die Primärregelung in Höhe von 3 % der Nennleistung ergibt sich eine installierte Leistung von knapp 20 GW, die kontinuierlich am Netz sein muss. Auf Basis dieser Mindesterzeugung wird im folgenden Abschnitt der dadurch gesicherte Beitrag zur Schwungmasse im Regelblock Deutschland beziffert und dessen Bedeutung für die Frequenzstabilität abgeleitet.  

Die zuvor genannte Mindesterzeugung von 20 GW stellt eine bestimmte mindestens am Netz befindliche Schwungmasse für den Regelblock Deutschland sicher. Da die Regelleistung hauptsächlich durch thermische und hydraulische Erzeugungseinheiten bereitgestellt wird, kann als konservativer Wert eine mittlere Anlaufzeitkonstante der Turbosätze angenommen werden. Somit ergibt sich abhängig von der Netzlast im Regelblock Deutschland die minimale Netzanlaufzeit. Für eine Netzlast zwischen Schwachlast von ca. 35 GW und Starklast von ca. 85 GW liegt die minimale Netzanlaufzeitkonstante für den Regelblock Deutschland zwischen 5,7 s und 2,4 s. Hierbei sind alle Kraftwerke vernachlässigt, die nicht an der Primärregelung teilnehmen. Selbst bei hoher Netzlast stellen die primärgeregelten Kraftwerke annähernd die minimal erforderliche Schwungmasse bereit. Darüber hinaus sind u. a. Laufwasserkraftwerke und KWK nahezu das ganze Jahr am Netz. Es ist davon auszugehen, dass bei mittlerer und hoher Netzlast weitere konventionelle Erzeugungseinheiten am Netz sind, sodass die o.g. Empfehlung für die minimale Schwungmasse ohne zusätzliche Maßnahmen erfüllt werden kann.“

PV-Anlagen und Windkraftanlagen verfügen nicht über Schwungmassen. Diese müssen auch in Zeiten hoher Wind- und Sonnenstromausbeute von konventionellen Kraftwerken bereitgestellt werden.

Aus den oben genannten Gründen kann und darf die Residuallast nicht nennenswert unter 20 GW sinken. Das hat zur Folge, dass auch und gerade in Schwachlastzeiten bei hohem Aufkommen an Sonnen- und Windstrom konventionelle Kraftwerke zur Stabilisierung der Netze in Betrieb gehalten werden müssen, will man die Netzstabilität nicht gefährden. Daraus ergibt sich, dass überschüssiger EE-Strom exportiert oder abgeregelt werden muss. Um teure Exporte zu vermeiden, müssen Windkraft- und Solaranlagen abgeregelt werden. Es gibt also einen kausalen Zusammenhang zwischen der Überproduktion von EE-Strom und den Stromexporten. Das deutsche Stromnetz ist also aus Gründen der Systemstabilität schon heute nicht mehr in der Lage, die Erzeugungsspitzen aus EE-Strom in vollem Umfang aufzunehmen.

Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]

Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]

Abbildung 1 Stromexporte zwischen 2010 und 2015 [8]

 

In der Tat haben sich die Exportmengen seit 2010 nahezu verdoppelt. Bevorzugte Exportländer sind Österreich, Niederlande und Belgien.

Eine Reduzierung der Leistung unter 25 GW ist technisch und wirtschaftlich nicht möglich. Der in der Folge entstehende Überschussstrom muss in ausländische Netze geleitet werden. Ein typisches Beispiel ist die 45. Woche 2015.

Abbildung 2 Last und Stromerzeugung in KW 45 2015

Abbildung 2 Last und Stromerzeugung in KW 45 2015

Abbildung 2 Last und Stromerzeugung in KW 45 2015

Am Sonntag, den 8 Nov. 2015 betrug die EE-Strom Produktion um 00:00 Uhr knapp 26 GW, die nachgefragte Last 42 GW. Die Residuallast wurde aber nicht auf die eigentlich erforderlichen 16 GW gedrosselt, sondern nur auf 26 GW, um genügend Schwungmasse für die Netzstabilität zur Verfügung zu stellen und um die Regelfähigkeit für den weiteren interessanten Lastverlauf des Tages zu sichern. Von 00:00 Uhr bis 02:00 Uhr gingen 10 GW in den Export. Mit steigender Nachfrage in Deutschland verringerte sich der Export auf ca. 2 GW. In der Nacht gab es wieder mehr Windstrom und um 24:00 gingen wieder 12 GW in den Export.

 

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

 

Abbildung 3 Korrelation der Stromexporte mit Wind- und Solarproduktion im Februar 2015 (Stundenwerte)

Wertet man die zugänglichen Daten mittels Regressionsanalysen[2] aus, kommt man zu vergleichbaren Ergebnissen:

Abbildung 3 zeigt einen eindeutigen Zusammenhang zwischen der stündlichen EE-Stromproduktion und den Stromexporten: Je höher die EE-Leistung, desto höher sind die Stromexporte. Dies gilt nicht nur für die Stundenwerte, sondern auch für die summarische jährliche Stromproduktion.

Die Regressionsanalyse der Jahresdaten zeigt einen signifikanten Zusammenhang zwischen EE-Stromerzeugung und -export (Abbildung 4). Der Regressionskoeffizient liegt mit 0.92 nur unwesentlich unter dem höchsten möglichen Wert 1. Zahlenmäßig hat das Anwachsen der EE-Stromerzeugung auf jährlich 120 TWh eine Erhöhung des Stromexports um rund 40 TWh zur Folge gehabt. Ein Drittel der EE-Stromproduktion wurde nicht in Deutschland verbraucht, sondern ins Ausland exportiert. Die verbreitete Behauptung, erneuerbare Energien hätten einen Beitrag von 30% zur deutschen Stromversorgung geleistet, hält daher einer kritischen Prüfung nicht Stand.

Daher ist die EE-Stromerzeugung unter den gegebenen technischen und wirtschaftlichen Randbedingungen die Ursache für den Export und für die unvertretbaren Entsorgungsgebühren.

abb-4-regression

Abbildung 4 Zusammenhang zwischen Stromexport und Stromproduktion aus Wind- und Solarkraftwerken

 

Tabelle 3 Entwicklung von negativen Strompreisen

Jahr Anzahl Stunden mit negative Börsenpreisen Handelsmenge EEX Summe der Handels-menge Durchschnittlicher negativer Börsenwert
2010 12 h/a 0,32 TWh -1.695.134 € -5,40 €/MWh
2011 14 h/a 0,46 TWh -4.674.723 € -10,10 €/MWh
2012 56 h/a 1,81 TWh -106.573.608 € -58,80 €/MWh
2013 64 h/a 2,17 TWh -31.403.398 € -14,50 €/MWh
2014 64 h/a 2,59 TWh -41.511.253 € -16,00 €/MWh
2015 126 h/a 4,77 TWh -44.223.893 € -9,30 €/MWh

In 2015 haben die abnehmenden Länder 44,2 Mio. € Entsorgungsgebühr erhalten, obwohl Windräder in zunehmendem Maße abgeschaltet wurden. Die sogenannte Ausfallarbeit [9] hat sich von 1,5 TWh in 2014 auf 3 TWh in 2015 fast verdoppelt. Ohne diesen Anstieg wären die Exportmengen und damit die Entsorgungsgebühren entsprechend höher gewesen.

Folgende Gesetzmäßigkeit lässt sich ableiten: sinkt die Residuallast unter die minimale Regelleistung, dann muss Strom exportiert werden oder die Wind- oder PV-Anlagen müssen vom Netz genommen werden. Eine weitere Schlussfolgerung: wird der vorgesehene weitere Ausbau der Sonnen- und Windkraft nicht gestoppt, muss es zu noch höheren Exporten kommen mit der Folge noch höherer Entsorgungskosten und / oder die neuen Anlagen müssen bei viel Sonne und Wind abgeschaltet werden mit der Folge noch höherer Kosten für die Ausfallarbeit.

Eine im Auftrag des BMWI durchgeführte Studie [10] geht davon aus, dass es für Deutschland mit seinen „elektrischen Nachbarn“ bei weiterem Ausbau der Windkraft Ausgleichseffekte durch unterschiedlichen Lastgang und durch schwankende nationale Produktionen geben wird. Den Beweis für die Ausgleichseffekte erbringt die Studie nicht. Einen Ausgleich bei der Windkraft, und das ist hinreichend bewiesen, gibt es zwischen Deutschland und seinen „elektrischen Nachbarn“ nicht. Ein Ausgleich beim Lastgang ist höchst unwahrscheinlich: in allen europäischen Ländern beginnt der Industrietag am frühen Morgen, die Mittagspause gegen Mittag und das Ende der Produktion gegen Abend. Die Lastgangkurven sind in allen europäischen Ländern im Wesentlichen identisch.

DE DE DE DE DE DE DE DE DE DE
Jahr FR AT BE CH CZ DK IT LU NL PL
2006 96,8 99,7 99,8 95,9 98,5 97,9 99,7 99,6 98,5
2007 96,8 99,6 99,2 99,3 98,9 96,7 99,9 97,8 99,0
2008 98,6 99,6 99,8 98,7 99,4 97,5 99,8 99,9 98,6
2009 97,7 99,7 99,3 99,1 99,4 98,9 99,7 99,9 99,1
2010 97,1 99,8 100,0 99,7 99,5 100,0 97,0 99,9 100,0 99,3
2011 98,9 99,6 98,4 99,3 99,4 99,5 97,1 99,5 99,8 99,6
2012 100,0 99,6 99,5 99,7 99,7 99,8 98,6 100,0 99,6 99,8
2013 96,2 99,6 99,6 99,4 99,5 99,5 97,4 100,0 99,1 99,9
2014 99,3 99,8 100,0 99,7 99,7 99,6 99,8 99,9 100,0 99,5

 

Tabelle 4 Gleichzeitigkeitsfaktoren der Netzlasten [12]

Die in Tabelle 4 dargestellten Gleichzeitigkeitsfaktoren zeigen, dass große Netzlasten in ganz Westeuropa im Wesentlichen zum gleichen Zeitpunkt auftreten. Ein ausgebautes westeuropäisches Stromnetz kann daher keinen Ausgleich bewirken.

Schlussfolgerungen:

  1. Die Exportüberschüsse und die Stunden mit negativen Börsenpreisen sind, wie in der Fraunhofer ISE Studie aus dem Jahr 2013 vorhergesagt, tatsächlich weiter gestiegen und sie werden mit weiterem Ausbau von Wind- und Sonnenstrom notwendigerweise exponentiell weiter steigen, wenn dies nicht durch Abregelung begrenzt wird.
  2. Die Systemkonflikte zwischen konventionellem Erzeugungssystem und dem Wind- und Sonnenstrom-System sind bereits eingetreten. Deren Beherrschung wird immer teurer.
  3. Bereits jetzt schalten energieintensive Industriebetriebe die Produktion ab, wenn die konventionellen Kraftwerke den steilen Lastgradienten nachmittags und abends nicht schnell genug folgen können. [11]
  4. Die durch das EEG geförderte Energiewende ist an den Grenzen der Physik gescheitert.
  5. Es müssen endlich technisch realisierbare Lösungen gefordert und gefördert werden: Haushaltspeicher für Sonnenstrom. Sie sind verfügbar, Stand der Technik und geeignet, die Spitzen der Sonnenstrom Erzeugung abzuschneiden und in den Abend und in die Nacht zu verlagern.
  6. Geothermie-Kraftwerke sind Stand der Technik. Das Potenzial in Deutschland ist hoch, sie sind grundlastfähig und arbeiten 8760 Stunden im Jahr ohne Emissionen. Die bisher realisierten Projekte in Bayern sind vielversprechend.
  7. Industrielle Abwärme kann zur Stromerzeugung genutzt werden. Hier vermutet der ORC Fachverband ein Potenzial von 4 bis 8 GW grundlastfähiger Leistung. Bereits jetzt laufen in Deutschland 100 Anlagen mit einer installierten Leistung von 120 MW.

 

Literaturverzeichnis

[1] Johannes N. Mayer, Niklas Kreifels, Bruno Burger: „Kohleverstromung zu Zeiten niedriger Börsenstrompreise“ Fraunhofer ISE, August 2013 https://www.ise.fraunhofer.de/de/downloads/pdf-files/aktuelles/kohleverstromung-zu-zeiten-niedriger-boersenstrompreise.pdf

[2] Ahlborn, D.: „Korrelation der Einspeisung aus Windkraftanlagen macht Grundlastfähigkeit in Deutschland unmöglich“ in: Herbert Niederhausen, Andreas Burkert: Elektrischer Strom: Gestehung, Übertragung, Verteilung, Speicherung und Nutzung elektrischer Energie im Kontext der Energiewende Springer, Vieweg 2014

[3] Ahlborn, D.: „Glättung der Windeinspeisung durch Ausbau der Windkraft?“ in Energiewirtschaftliche Tagesfragen 65. Jg. (2015) Heft 12 S.37-39

[4] Ess, F. et al.: „Bedeutung der internationalen Wasserkraft-Speicherung für die Energiewende“ www.worldenergy.ch/file/Publikationen/Aktuell/prognos_wec_20121009.pdf

[5] http://www.alt.fh-aachen.de/downloads/Vorlesung%20EV/Hilfsb%2060% 20Regelleistungsbereiche%20Lastgradienten%20Kraftwerke.pdf

[6] http://www.amprion.net/netzfrequenz

[7] „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“

Studie im Auftrag der deutschen Übertragungsnetzbetreiber, Abschlussbericht, 20. Januar 2012

http://www.netzentwicklungsplan.de/sites/default/files/media/documents/Minimale%20Schwungmasse.pdf

[8] Agora Energiewende Denkfabrik, BDEW Energiebilanzen

[9] Bundesnetzagentur, Monitoringbericht 2015

Udo Leuschner: Energie Chronik

http://www.udo-leuschner.de/energie-chronik/151201.htm

https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Allgemeines/Bundesnetzagentur/Publikationen/Berichte/2015/Monitoringbericht_2015_BA.pdf?__blob=publicationFile&v=3

[10] „Versorgungssicherheit in Deutschland und seinen Nachbarländern: länderübergreifendes Monitoring und Bewertung“ Consentec GmbH, r2b energy consulting GmbH 06.03.2015 Untersuchung im Auftrag des Bundesministeriums für Wirtschaft und Energie

[11] Dipl.-Ing. Heribert Hauck: „Netzstabilisierung durch flexible Produktion“ Vortrag auf dem Tag der Metallurgie, Goslar, 04.03.2016

[12] Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2015 nach EnWG § 12 Abs. 4 und 5, Stand 30.09.2015

[1] Unter Volatilität versteht man das Ausmaß der Fluktuation einer Größe um ihren Mittelwert oder Trend, gemessen durch die Standardabweichung bzw. den Variationskoeffizienten. Danach hat sich die Volatilität der Windkraft in absoluten Zahlen verdoppelt, während die installierte Leistung um den Faktor 1,8 gestiegen ist (Tabelle 1).

[2] Regressionsanalysen sind statistische Analyseverfahren, die es erlauben Beziehungen zwischen zwei Variablen zu identifizieren.

[1] Dr.-Ing. Detlef Ahlborn, Dr.-Ing. Detlef Ahlborn, Fachbereichsleiter Technologie, VERNUNFTKRAFT. e. V., detlef.ahlborn@vernunftkraft.de

[2] Prof. Dr.-Ing. Hans Jacobi, Jacobi & Partner Industrieberatung GmbH Kennedyplatz 8 45127 Essen




Nach Überzeugung der SZ scheinen Milliardäre in Amerika wohl generell etwas „beschränkt“ zu sein: Die Redaktion fand dort schon den zweiten, der nicht fest an den Klimawandel glaubt


Helmut Kuntz

Florida ist eine äußerst beliebte Gegend in den USA und ein Traum vieler Bürger, um dem kalten Norden zu entfliehen. Doch hat Florida (neben vielen anderen) ein großes Problem: Es besteht vorwiegend aus niedrigem Sumpfland auf brüchigem und porösem Untergrund. Dazu liegt es recht zentral in der rund um die Welt reichenden Hurricanzone und auch Tornados sind nicht selten anzutreffen.

Zum Bild oben: Miami. Originaltext: … keine Stadt in den USA ist stärker durch den Klimawandel bedroht. Das betrifft nicht nur den South Beach.
Wenn dann (jedes Jahr neu) der Wind in Hurricanstärke vom Meer her peitscht, bringt er Wellen mit sich, welche das niedrige Land teilweise überfluten – wie es genau so auf der anderen Globusseite bei den Südseeatollen ebenfalls passiert. Das war schon immer so, wie man in Historien nachlesen kann. Doch inzwischen gibt es den Klimawandel und damit bekommen die Wellen zusätzlich auch eine symbolische Bedeutung. Im Klartext heißt das: Alle Küsten gelten als dem Untergang geweiht und wer es dort doch noch wagt, etwas (gegen die AGW-Vorhersagen) zu investieren, ist sich mindestens der Häme, wenn nicht mehr von der AGW-Front sicher. Um das exemplarisch zu demonstrieren, erscheinen regelmäßig Berichte über den kommenden Untergang dieser (teils super-)reichen und stark bebauten Gegend.
DIE WELT 06.08.2014: [3] Die Zukunft von Miami Beach ist unsicher

Hintergründe, und wie es diesbezüglich mit Florida wirklich aussieht, wurden bereits auf EIKE publiziert:
[2] Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?

Wer mit „SZ-Sachverstand“ würde noch in Florida investieren, wo doch Klimawissenschaftler das dort unweigerlich kommende Unglück sicher vorhersagen können

Nachdem nun ein unserer „Intelligenz“ und auch unseren Medien nicht passender Präsident in den USA doch noch gewonnen hat, sah sich die SZ veranlasst, ihren Lesern auf einer vollen Seite darzulegen, dass diese Kategorie betuchter Personen in den Staaten eigentlich generell „leicht beschränkt“ ist und „von uns“ deshalb mindestens mit Verachtung gestraft werden sollte. Um das zu belegen, befand die SZ-Redaktion, würde sich der Klimawandel – weil an diesen, der SZ-Redaktionsmeinung nach, jeder „intelligente“ Mensch zu glauben hat – wohl am besten eignen und brachte eine lange Reportage über solch einen „dummen“ Milliardär, der nicht an die schlimmen Folgen des unabwendbaren Klimawandels glauben mag.
Süddeutsche Zeitung Nr. 280: [1] Miami Weiß
… Der Argentinier Alan Faceria baut voller Opulenz an der Küste Floridas. Es könnte nur sein, dass er gerade 1,2 Milliarden Dollar in einen Sand gesetzt hat, der bald Meeresgrund genannt wird.
Es geht in dieser rührenden Geschichte des SZ-Redakteurs Peter Richter (Anm.: Studium Kunstgeschichte) um Reichtum und Erfolg eines Immobilieninvestors – selbstredend Milliardär – der sich erdreistet, in Florida zu bauen, obwohl alle Klimawissenschaftler (deren die SZ habhaft wurde) den Untergang der Halbinsel vorhersagen. So viel Ignoranz gegen Klimawandel-Vorhersagen findet die SZ schlichtweg widerwärtig und „verreißt“ diesen „MiniTrump“ stellvertretend für ihre Leser mit einer an Luthers Eifer erinnernden Sprachgewalt:
SZ: [1] … Es wird nicht ganz klar, was er damit meint. Vielleicht ja die Exuberanz und Energie, die er mit dem bürgermeisterlichen Techno-Optimismus an die Seite stellt. So katholisch das in seiner Opulenz wirkt, es hat auch einen Aspekt von Lutherischem Apfelbaumgepflanze im Angesicht des Weltuntergangs: Erst kommt noch ein bisschen das Beste , Und dann kommt irgendwann das Meer.

Warum die Golfstaaten, die angeblich untergehenden Malediven, alle reichen Küstengegenden, auch Südseeinseln, weiterhin scheinbar unbesorgt direkt am Meer bauen – teils sogar künstliche, niedere Inseln ins Meer schütten und mit teuren Immobilien überziehen – erwähnt und erklärt der Artikel nicht. Auch dass mit den Niederlanden ein Land zeigt, wie man mit solchen Problemen der Natur erfolgreich umgehen kann; erwähnt die SZ nicht. Denn es geht diesmal ja um die Dummheit der besonders Reichen in den USA.
Und dort hat „man“ das nach SZ-Meinung eben nicht zu machen. Und warum das so ist, wird auch belegt:
SZ: [1]… das IPCC sage: Der Meeresspiegel werde sich bis Ende des Jahrhunderts um einen Meter heben.
Das United Corps of Engineers sage: 1,5 m.
Die National Oceanic and Atmosphereic Administration sage: fast zwei Meter.
M. Wanless
(Anm.: Universität Miami) sagt: alles zu niedrig … er gibt der Gegend nicht mal mehr 50 Jahre.

In den folgenden, diesen immer neu beschworenen Untergang behandelnden Artikeln:
[2] Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?
EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 2 : So viel Meerespegel und Stürme hat es vor dem Klimawandel nie gegeben, (darin der Teil über North Carolina)
kaltesonne: Neue Studie der Durham University verweist Rahmstorfs Sintflutszenarien für North Carolina in das Reich der Fabeln

… wurden die wahren Sachverhalte, vor allem die dortigen Pegelsituationen, bereits dargestellt, deshalb hier nur ein kleiner Auszug:
Zuerst der mittlere Pegelverlauf um Florida aus den Daten mehrerer Messstationen gemittelt (Bild2). Mit einem Anstieg von 2,2 mm / pa (22 cm in 100 Jahren) ist kein Alarm erkennbar.

sz_2

Bild 2 [2] Pegelverlauf Florida von ca. 1898 – 2015. Mittelwert der Pegelstationen: Fernandina Beach, Mayport, Key West, St. Petersburg, Cedar Key, Pensacola. Grafik vom Autor zusammengestellt.

Im folgenden Bild eine Übersicht dieser Gegend.

sz_3

Bild 3 Messstationen. Quelle: PSMSL Catalogue Viewer

Nun noch Einzeldaten von Pegelstationen mit langen Messreihen (Bild 4): Diese messen mit 2,04 mm / pa sogar etwas weniger als den typischen Küstenpegelanstieg. Wichtig aber ist auch: Ein sich beschleunigender Anstieg ist weder an der Küste, noch weiter entfernt im Atlantik zu erkennen,

sz_4

Bild 4 Pegelverläufe der Stationen Fernandina Beach (Florida) und Bermudas

Wie so oft beim Klimawandel: Irgendwie passen die Simulationsergebnisse und wirkliche Messungen nicht zusammen

Dazu die globalen Pegelprojektionen des IPCC aus dem aktuellen AR5 (Bild 5).
Man sieht, dass im SZ-Artikel mit der Angabe IPCC, 1 m „vorsichtshalber“ nur das (unwahrscheinliche) Maximalszenario RCP8.5: RCP8.5: +52 cm …(MW: +74 cm) … +98 cm, und davon noch die oberste Vertrauensbereichs-Grenze angegeben wurde. Das viel eher wahrscheinliche – und wohl immer noch zu hohe – Scenario RCP2.6: +28 cm …(MW: +44 cm) … +61 cm ließ man für die Leser entfallen.

sz_5

Bild 5 IPCC-Scenarien im AR5 Quelle: wiki Bildungsserver

Welche Wahrscheinlichkeit Simulationen haben, sieht man erst in der bildlichen Darstellung

Im Bild 6 sind die Zukunftsszenarien aus dem SZ-Artikel in Verbindung mit den wirklich gemessenen Pegeln im richtigen Verhältnis eingetragen.
Der weltweite Küstenpegel-Anstieg liegt nach den Pegeldaten bei ca. 2,1 mm / pa. Bis zum Jahr 2100 ergeben sich daraus +17,6 cm, also die Größenordnung der Verlängerung der Regressionsgeraden im Bild von +17 cm, so wie es in Florida auch gemessen wird.
Wer Immobilien-Entscheidungen an Küsten zu treffen hat, kann sich nun überlegen, ob er sich an den Messungen der Pegelstationen orientiert, oder ob er den Glaskugeln der Computersimulationen und den die Parameter dazu vorgebenden Personen vertraut (alle höheren Pegelszenarien entstammen ausschließlich Simulationen). Für die SZ-Redaktion ist es jedenfalls vollkommen klar, wer hier die falschen Entscheidungen trifft.
Aber es erledigt sich vielleicht ja von selbst. Denn der Klimawandel kann (in Simulationen) schon wirklich äußerst vernichtend sein: EIKE: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

sz_6

Bild 6 Pegelverlauf bei Florida von ca. 1897 – 2015 (Daten von Bild 4), ergänzt um die Pegelvorhersagen im SZ-Artikel [1]

Nicht so „im Klimawandel geübte“ Leser werden sich vielleicht fragen, wie solche Zukunftsprojektionen zustande kommen, wo sie doch so offensichtlich unwahrscheinlich wirken.
Damit solche Pegelanstiege möglich würden, müsste massiv Grönland- und vor allem auch Antarktiseis schmelzen. Da dies in der Antarktis wegen der dortigen, tiefen Temperatur nicht möglich ist, muss dort angenommen werden dass einige der riesigen Festlandsgletscher noch rasend schnell ins Meer rutschen. Das haben diese Gletscher (Grönland und Antarktis) die letzten 1 Mio. Jahre zwar noch nie gemacht. Doch damals gab es noch keine Computer. mit diesen lässt es sich beliebig simulieren. Wegen der enormen Festlands-Eismassen sind dann Pegelanstiege bis 66 m denkbar:
WELT N24: Klimawandel Wenn der Meeresspiegel um 66 Meter steigen würde
Wie immer beim Klimawandel, gibt es dazu viele Fundstellen mit umfangreichen Begründungen des Für- und Wider.

Dabei ist die nächste Eiszeit viel wahrscheinlicher, denn diese kamen bisher wirklich und regelmäßig

Auch wenn Herr Schellnhuber „verspricht“, dass die nächste Eiszeit ausfallen könnte:
EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
… ist es eine reale Gefahr. Im Bild 7 kann man überdeutlich sehen, dass die warmen Zeitspannen extrem kurz sind und die restliche Zeit eisige Kälte herrscht. Und der Übergang in die kalte Phase ist bereits fällig.

sz_7

Bild 7 Verlauf der Eiszeiten. Quelle [4]

[4] Im Verlauf der letzten 1 Millionen Jahre wechselten im Zyklus von etwa 100.000 Jahren Eiszeiten und Warmzeiten. Die letzten beiden Warmzeiten dauerten dabei nur 11.000-15.000 Jahre an. (Eem-Warmzeit und Holstein-Warmzeit). Die aktuelle Warmzeit, dass Holozän ist schon 11.000 Jahre im Gange.

Quellen

[1] Süddeutsche Zeitung Nr. 280: “Miami Weiß

[2] EIKE 11.07.2016: Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?
http://www.eike-klima-energie.eu/news-cache/florida-keys-ein-paradies-geht-unter-wegen-des-klimawandels/

[3] DIE WELT 06.08.2014: Die Zukunft von Miami Beach ist unsicher

[4] ScienceScepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/




Urteil des Bundesverfassungsgerichtes über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie und ein Schweizer Volksentscheid

von  Rainer Küper

Am 06. Dezember 2016 verkündete das Bundesverfassungsgericht (BVerfG) das Urteil im Verfahren über den beschleunigten Ausstieg aus der friedlichen Nutzung der Kernenergie, der 2011 von Bundesregierung und Bundestag beschlossen worden war.

Das BVerfG stellt fest, dass Enteignungen nicht vorgenommen worden sind. In diesem Falle wäre Eigentum entzogen worden und in das Eigentum der öffentlichen Hand überführt worden. Die Eigentumsverhältnisse der 2011 stillgelegten Kernkraftwerke und die der laufzeitbeschränkten Kernkraftwerke sind aber unverändert.

Mit der 13. AtG-Novelle von 2011 sind lediglich Produktionslizenzen entzogen worden, ein Vorgang, mit dem jedes Unternehmen zu rechnen hätte.

Die vom BVerfG erkannten Verstöße gegen das Grundgesetz betreffen daher nur zwei Bereiche:

  1. 2002 wurden mit der Laufzeitbegrenzung der Kernkraftwerke Produktionsmengen festgelegt, die einen besonderen Vertrauensschutz genießen. Deren Nichtausschöpfung infolge der 2011 festgelegten starren Abschalttermine ist entschädigungswürdig. Insofern ist die 13. AtG-Novelle grundgesetzwidrig.
  2. Investitionen der Betreiber aufgrund der im Dezember 2010 vom Bundestag beschlossenen Laufzeitverlängerung der Kernkraftwerke, die aufgrund des Japan-Tsunamis im März 2011 zugunsten früherer und fester Abschalttermine zurückgenommen wurde, werden als gefrustete Investitionen gewertet. Sie sind ebenfalls entschädigungswürdig. Auch insofern ist die 13. AtG-Novelle grundgesetzwidrig.

In der Bewertung einer Technik ist der Bundestag jedoch frei. Der Bundestag kann jederzeit eine Technik zulassen oder verbieten.

Den konkreten Fall des beschleunigten Ausstiegs aus der Kernenergie beurteilt das BVerfG wie folgt, vgl. untenstehenden Link zur Pressemitteilung:

„[…] Demgegenüber sind die mit der 13. AtG-Novelle verfolgten Gemeinwohl­belange (Leben und Gesundheit der Bevölkerung, Schutz der natür­lichen Lebensgrundlagen) von hohem Wert und in der konkreten Umsetzung der Rücknahme der Laufzeitverlängerung von 2010 von großem Gewicht. Der Gesetz­geber wollte den 2002 beschlossen Ausstieg aus der friedlichen Nutzung der Kernenergie beschleunigen, indem er feste Abschalt­termine einführte und die Ende 2010 erfolgte Ver­längerung der Laufzeiten rückgängig machte. Hierdurch wurde eine Risikominderung von ganz erheblichem Ausmaß erreicht. Dabei ist auch nicht zu beanstanden, dass der Gesetz­geber auf die Ereignisse in Fukushima reagierte, obwohl hieraus keine neuen Gefährdungs­erkennt­nisse abgeleitet werden konnten. Wie weit allein geänderte politische Wertungen oder gewachsene Befürch­tungen und Ängste in der Bevöl­kerung auch Maß­nahmen tragen können, die ‑ wie die Beschleuni­gung des Atom­ausstiegs ‑ erheblich in Grundrechte der Betrof­fenen eingreifen, und welches Gewicht ihnen beigemessen werden kann, lässt sich allerdings nicht allgemein bestimmen. Jedenfalls bei der Beurteilung einer Hoch­risiko­techno­logie, deren Schadens­risiken in besonderem Maße von einer politi­schen Bewertung und einer öffent­lichen Akzeptanz abhängig sind, kann auch Ereignissen ein eigenes Gewicht beigelegt werden, die allein das Bewusst­sein der Öffent­lichkeit für diese Risiken ändern, obwohl neue Gefährdungen nicht erkennbar sind. […].“

Das BVerfG trägt eine Begründung vor, die den Anschein erweckt, Bundes­re­gierung und Parlament nicht schaden zu wollen.

Das BVerfG behauptet pauschal, mit den neuen festen Abschaltterminen „wurde eine Risikominderung in erheblichem Ausmaß“ erreicht, obwohl „keine neuen Gefährdungserkenntnisse abgeleitet werden können“.

Sollte das Risiko des Betriebes der Kernkraftwerke nicht tolerierbar sein, dann müssten alle sofort stillgelegt werden. Das sofortige Stilllegen der 8 Kernkraftwerke im März 2011 reduziert das Risiko um weniger als den Faktor 2, also nicht „erheblich“. In der Probabilistik sind erst Faktoren von 10 resp. 1/10 von Bedeutung. Faktor 2 ist Rauschen. Die Stilllegung der restlichen Kernkraftwerke würde erst ab Ende 2022 das Risiko aus dem Leistungsbetrieb auf Null setzen. Solange sich Brennelemente im Kraftwerk befinden, bleibt ein Risiko größer als Null, wenngleich extrem klein. Der Risikogewinn besteht als nur darin, dass Kernkraftwerke statt bis ca. 2030 nur bis 2022 im Leistungsbetrieb sein werden.

Das BVerfG erkennt an, dass für den Betrieb der Kernkraftwerke keine „neuen Gefährdungserkenntnisse“ vorliegen. Die Risikominderung kann also allenfalls die Differenz zwischen dem genehmigten extrem-winzig und dem zukünftigen hyper-winzig sein. 1/20 von ganz wenig über Null bleibt aber ganz wenig über Null. Insofern kann von „Risikominderung von ganz erheblichem Ausmaß“ keine Rede sein.

Das BVerfG widmet sich auch der Willkür von Bundesregierung und Bundestag, die mit hü und hott heute dies und morgen jenes durchsetzen und hat damit einen Entschädigungsanspruch begründet.

Insgesamt erscheint das BVerfG-Urteil jedoch mehr politisch als sachlich motiviert zu sein.

Die BVerfG-Begründung ist auch insofern verwunderlich, als sie jederzeit auf andere Industriezweige übertragbar ist. Der Bundestag könnte z. B. übermorgen beschließen, dass der eine oder der andere Zweig der chemischen Industrie ihm wegen eines Bauchgefühles zu gefährlich erscheine, das Risiko „in erheblichem Ausmaß“ gemindert werden müsse, und die Produktion stillzulegen sei. Da in diesem Falle nicht einmal mit vereinbarten Produktionsmengen argumentiert werden kann, würde der betroffene Betrieb der chemischen Industrie zwar nicht im juristischen Sinne, aber im praktischen Sinne per parlamentarischer Willkür über Nacht enteignet worden sein.

In Deutschland wird geschwurbelt, bis das Urteil zur Politik passt. Ohne Geschwurbel, klar und eindeutig das Votum des Schweizer Volkes am 27.11.2016 gegen die vorzeitige Stilllegung der Kernkraftwerke in ihrem Land. In der Schweiz hat das Volk entschieden, dass die Kernkraftwerke in Betrieb bleiben dürfen, solange sie sicher sind. Über die Kriterien entscheidet das Volk.

Das Deutsche Volk dagegen begnügt sich damit, andere über sich entscheiden zu lassen.

Links:




EIKE wechselt den Webeditor – Spenden dringend erbeten-In eigener Sache

von Michael Limburg
Knapp 10 Jahre ist EIKE nun aktiv, davon fast 9 Jahre online. In dieser Zeit haben wir 10 Internationale Klima- und Energiekonferenzen organisiert, unzählige Vorträge zu Klima- und Energiethemen im In- und Ausland gehalten und auf unserer Website etwa 5000 Artikel vieler fleißigen Autoren/Übersetzer gepostet, die unsere Leserinnen und Leser zu fast 125.000 Kommentaren veranlassten. Im deutschsprachigen Raum betreiben wir die mit sehr großem Abstand meist gesehene Website mit ausschließlich Klima- und Energiethemen. Weit vor allen anderen, auch und gerade derjenigen, welche der Klimahysterie und der desaströsen Energiewende das Wort reden. Unser Ansehen ist auch weltweit so gestiegen, dass wir in diesem Jahr die Liste der „Top Hundred“ der Wissenschaftsblogs aufgenommen wurden.

Unser Budget war schon immer schmal, aber ist jetzt aufgebraucht

Und dies realisierten wir alles mit dem Budget eines mittleren Gesangsvereins, bzw. mit Geld in einem Volumen, für das ein Antragsteller zur Erlangung von „Zuwendungen für die Betreuung Flüchtlingen“ des Freistaates Sachsen (oder anderswo) nicht einmal seinen PC angeworfen hätte. Wir haben es trotzdem gemacht, ehrenamtlich und per Mittelbeschaffung über Selbstausbeutung. Und wir haben es gerne gemacht, auch und gerade dank der überwiegend verbalen, häufiger aber auch finanziellen Unterstützung  über private  Klein-Spenden von Ihnen, unseren Lesern.

Spenden tun bitter Not

Doch jetzt brauchen wir erneut Ihre Hilfe. Die Kasse ist leer, das Finanzamt unterwirft uns kleinlicher Schikanen und prüft rückwirkend bis 2014 unsere Bücher. Die uns für diesen Zeitraum zustehende Mehrwertsteuer-Rückerstattung wird bis zum Ende Prüfung zurückgehalten. Das belastet Budget und Liquidität.

Deswegen bitten wir Sie dringend – öffnen Sie nicht nur Ihre Herzen, sondern auch Ihre Taschen und spenden Sie – reichlich!

Sie können es über Paypal (Spendenknopf rechts oben links) direkt tun oder hier per Überweisung auf unser Bankkonto.  Unser Dank und eine Steuerbescheinigung (wenn Sie Namen und Adresse angeben) sind Ihnen – auch wenn es mal etwas länger dauert- gewiss. Alle Daten werden wie immer streng vertraulich behandelt. 

EIKE goes WordPress

Um Ihnen auch weiterhin, aber jetzt auf den verschiedensten Plattformen wie Smartphones, Tablets/ PCs Macs etc., das aktuellste zum Klimaschwindel und Energiewendedesaster anbieten zu können, haben wir einen großen „Schluck aus der Pulle“ genommen und im Sommer d.J. begonnen, unseren Webeditor umzustellen. Von Typo3, der uns viele Jahre treue Dienste leistete, zu WordPress. Der Aufwand war enorm. Weniger für das Einrichten der Website mit ihren vielen Seiten, sondern für die von uns als zwingend notwendig erachtete Rückwärtskompatibilität. Schließlich wollen wir die bereits geleistete Riesenarbeit nicht im Internetnirwana verschwinden sehen.

Nun ist es geschafft, dank der Unterstützung eines sehr fähigen Webprogrammierers. Und deshalb stellen wir in der Nacht von Sonnabend auf Sonntag, d.i. vom 10.12. auf den 11.12., von Typo3 auf WordPress um.

Die Anmutung wird dann deutlich anders, aber sehr übersichtlich sein. Das Layout passt sich dem jeweiligen Darbietungsgerät an. Kommentatoren müssen sich vor Kommentierung einmalig und mit Paßwort anmelden. Diverse Einschränkungen, denen Typo3 auf der Editorseite unterlag, sind nun aufgehoben. Das gilt in  großem Maße auch für die Kommentarfunktion.

Wir freuen uns auf den Neustart und bitten evtl. Schwachstellen, die mit Sicherheit auftreten werden, mit  Nachsicht zu begegnen. Und trotzdem, oder gerade deswegen, zu spenden, spenden, spenden. Danke.

Ihre Dr. Holger Thuss, Präsident EIKE,   Michael Limburg, Vizepräsident EIKE,  Wolfgang Müller, Generalsekretär EIKE

#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */