Bonn: UN-Klimagespräche gescheitert

Die Brüche laufen entlang der üblichen Linien: wer will Emissionen beschneiden und wie stark, das Fehlen von Beiträgen der so genannten reichen Länder zum grünen Klimafonds sowie Loss and Damage [Verlust und Schaden], bekannter unter der Bezeichnung Umverteilung des Wohlstands.

Loss and Damage war der Grund, warum COP19 von Anfang an eine Totgeburt war, sogar noch vor dem Beginn. Barack Obama hat seine Klimabotschafter vor COP19 unterrichtet, dass das Ausgeben von Billionen Dollar nur dafür, eine industrialisierte Nation zu sein, dem Wähler nicht vermittelbar sein würde.

Einige Monate lang hat sich kaum etwas geändert, da die letzte Runde von UN-Klimagesprächen nichts erreicht hat:

Das Vertrauensviveau zwischen führenden Entwicklungsländern einerseits sowie USA und EU andererseits scheint nach UN-Klimagesprächen in Bonn einen neuen Tiefpunkt erreicht zu haben.

Indien, China sowie 24 weitere Länder in der Like-Minded Developing Countries (LDMC)-Gruppe [etwa: Gruppe der ähnlich denkenden Entwicklungsländer] sagen, dass ausschließlich die industrialisierten Länder ihren Ausstoß von Treibhausgasen beschneiden müssten.

Die USA, die EU und die Schweiz sagen, dass ein globales Klimaabkommen, dessen Verabschiedung in Paris im nächsten Jahr geplant ist, nur funktioniert, wenn alle Länder ihren Beitrag leisten, was – wie sie sagen – 2011 in Durban beschlossen worden ist.

Das Problem, wer wie viel CO2-Emissionen einspart, sieht etwa so aus: die LDMC-Gruppe sagt, dass die Länder mit dem historisch höchsten CO2-Ausstoß den Hauptteil der Emissions-Beschneidungen tragen müssten. Andere Interessengruppen einschließlich der industrialisierten Welt sagen, dass die Beschneidungen auf den jetzigen CO2-Emissionen basieren müssen.

Die Objektive des Bonner Treffens war es, Basisarbeit zu leisten, wie ein Klimaabkommen beim COP21 in Paris 2015 funktionieren könnte. Stattdessen zerbrach das Treffen rasch und mündete in mürrischem Austausch zwischen den Delegierten.

Der Schweizer Umweltbotschafter Franz Perrez sagte RTCC [zu RTCC siehe hier]: „dogmatische Ansichten, dass alle Annexe 2 [?] zahlen müssen und nur diese“, verhindern Fortschritte bei den Gesprächen.

Er sagte, dass sich durch das Klima verwundbare Länder wie die Philippinen der LDMC-Gruppe lösen sollten, der er vorwarf, die Gespräche zu verzögern. Und Perrez weiter: „Was ich nicht verstehe – falls man sich mal ansieht, welche Position die Philippinen einnehmen sollten, dann sollten sie nicht die Interessen Chinas, Indiens, von Singapur, Saudi-Arabien und Venezuela verteidigen. Es ist überraschend, wie sehr sie im Sinne von Regimes handeln, die ihnen nicht zum Vorteil gereichen“.

Der von den UN gestützte Green Climate Fund (GCF) kämpft immer noch um Geld, und im Mai ist eine GCF-Aufsichtsratssitzung geplant, um zu entscheiden, wie man das Geld verteilt – immer unter der Annahme, dass die GCF-Aufsichtsratsmitglieder zuvor entschieden haben, ob man zu diesem Treffen nach Bali Erster Klasse oder in der Business-Klasse fliegen soll.

Die Lieferung zusätzlicher Gelder – seit Langem Gegenstand erbitterter verbaler Kämpfe zwischen Ländern – hängt wahrscheinlich davon ab, wann der UN-gestützte GCF online geht.

Im Jahre 2009 haben reiche Nationen zugesagt, bis zum Jahr 2020 100 Milliarden Dollar pro Jahr einzuzahlen. Zwischen 2010 und 2012 haben sie bereits 30 Milliarden Dollar eingezahlt.

Die Welt ist von einem Klimaabkommen, dass für die Zivilisation, so wie wir sie kennen, die ultimative Katastrophe wäre, weiter entfernt denn  je – eine Tatsache, für die wir alle dankbar sein  sollten.

Staatschefs in der demokratischen industrialisierten Welt wissen, dass sie den Wählern niemals verkaufen können, ihren Lebensstandard zu reduzieren und Milliarden Pfund, Dollar Euros usw. an die Entwicklungsländer zu zahlen.

Da ist es kein Wunder, dass die Chefin des UNFCCC Christiana Figueires Diktatur und Kommunismus für die besten Regierungsformen hält, um die Agenda 21 durchzudrücken.

Link: http://toryaardvark.com/2014/03/17/un-climate-talks-in-bonn-fail/

Siehe auch: http://www.rtcc.org/2014/03/17/trust-deficit-blocking-progress-at-un-climate-talks/#sthash.vsYdtxK5.dpuf

Übersetzt von Chris Frey EIKE




Helmholtz-Klimadebatte „Was können wir glauben?“ – sollte heißen „Wem können wir glauben?“

EIKE war natürlich auch dabei, wenn auch nicht aufs Podium gebeten. Für die, dank der Überzahl der Protagonisten, etwas undankbare Rolle des Klimarealisten war Dr. Peter Heller vom Science Sceptical Blog eingeladen. Die anderen waren Hans von Storch, Klimaforscher vom Helmholtz-Zentrum Geesthacht Zentrum für Material- und Küstenforschung, , Andreas Hense, Professor für Klimadynamik von der Universität Bonn, Oliver Geden von der Stiftung Wissenschaft und Politik sowie Frank Driescher von der Wochenzeitung Die Zeit

Bild rechts: Die Podiumsteilnehmer; mit Diskussionsleiter Jens Peter Wiarda Bild Focus@Helmholtz

Den Auftakt -heute Impulsvortrag genannt- und damit die Debatte lenkend, machte Prof. Hans v. Storch mit einem kurzen Überblick über die, seiner Meinung nach, bestehenden Gemeinsamkeiten und Unterschiede zwischen den Klimarealisten -von ihm Klimaskeptiker genannt- und den Klimaalarmisten oder Befürwortern der Hypothese vom anthropogen induzierten Klimawandel.  Sein Vortrag lässt sich kurz zusammenfassen mit seiner Aussage:„Die Erderwärmung ist ein Fakt und ohne die ebenfalls zu beobachtende Zunahme der Treibhausgase ist sie wissenschaftlich nicht zu erklären“.

Das war eine starke Aussage. Besonders der zweite Teil. Sie wurde noch unterstützt durch die Behauptung von Storchs, dass die Zustimmung der Klimawissenschaftler in den 80 bis 90er Prozentbereich lägen [1]. Und so wurde sie auch verstanden, denn Widerspruch vom Podium erhob sich nicht.  Denn immerhin ist von Storch nicht irgendwer, sondern einer der Platzhirsche, dessen „Markenzeichen“ in demonstrativer Herablassung samt einer gegenüber der IPCC konformen Klimaforschung kritischen Haltung besteht.

Er begründete seine Meinung mit einigen wenigen Folien, von denen zwei hier ausschnittsweise gezeigt werden. Denn sie waren symptomatisch für die Art seiner und der IPCC Beweisführung.

Abbildung 1: Anomalie der globalen Mitteltemperatur Quelle UK Metoffice

Den Anfang machte, wie immer, eine Kurve, wie die in Abbildung 1, welche die Erwärmung im letzten Jahrhundert bezogen auf einen Referenzwert um ca. 0,8 K zeigte. Das zeige –so v. Storch- den „Klimawandel“ deutlich. Schon in diesem Zusammenhang ist bemerkenswert, dass die Frage, ob denn diese Erwärmung des 20. Jh., gemessen an den in zahlreichen Proxy-Reihen abzulesenden Erwärmungsphasen der letzten 2000 Jahre, überhaupt als ungewöhnlich angesehen werden darf, offenbar überhaupt nicht bekannt ist. Nach unserer Kenntnis der Fachliteratur liegt die Erwärmung im 20. Jh. im Normalbereich der Vergangenheit. So zeigt beispielsweise die Reihe von Büntgen et al. (Science 331, 578, 2011), die eine Zusammenfassung unzähliger Baumringreihen, zurückgehend bis 500 vor Chr. darstellt, die Reihe von Christiansen und Ljungqvist (Clim. Past, 8, 2012), die eine Zusammenfassung von etwa 100 Einzelproxies wie Stalagmiten, Baumringen, Sedimenten etc. zurückgehend bis 0 n.Chr. ist und Einzelreihen wie die Stalagmitenkurve von A. Mangini (Earth & Planetary Science Letters 235, 2005), dass die Erwärmungsphase des 20. Jahrhunderts sowohl in ihrer Zeitlänge und ihrer Stärke in der Vergangenheit oft übertroffen wurde. Auf diese wichtige Beobachtung wurde jedoch nicht eingegangen. Richtig war allerdings seine Aussage, dass diese Kurve selber nicht umstritten sei.

Dann zeigte v. Storch eine Abbildung, die der hier gezeigten ähnelt.

Abbildung 2: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

V. Storch erklärte beispielhaft, dass man sich einig sein, dass sozusagen das Geld von der Bank weg sei, und meinte damit die beobachtete Erwärmung (darüber besteht, zumindest was die terrestrischen Stationen anbelangt, Einigkeit zwischen den Parteien) im  letzten Jahrhundert  und man sich jetzt nur noch um die Frage kümmern müsste, wer denn in den Kreis, der als Bankräuber zu verdächtigen, gehörte.

Und wie in Abbildung 2 gezeigt, würden die Klimamodelle eindeutig zeigen, dass der Temperaturanstieg allein aus  natürlichen Ursachen heraus nicht erklärlich sei, erst die Zufügung von Treibhausgasen zu der beobachteten Erwärmung führen gäbe die gesuchte Erklärung. Wir können diese Erwärmung, so v. Storch, anders nicht erklären.

Soweit so plausibel, oder?

Jedenfalls sahen es die Podiumsteilnehmer so, denn Widerspruch zu diesem absurden logischen Schluss (man kennt den wahren Grund nicht, schließt wichtige potentielle Ursachen zudem aus, ergo muss er das anthropogene CO2 sein) erhob sich nicht.

Doch wenn man etwas tiefer in diese Art der Beweisführung – die gern die Ausschließtheorie genannt wird, wie wir sie von jedem Tatort im Fernsehen kennen- einsteigt, dann stellen sich dem interessierten Beobachter sofort die folgenden Fragen.

1.    Wie viele und welche „Verdächtige“ wurden einbezogen? War der/die Haupttäter überhaupt dabei?

2.    Wie wurden die Modelle programmiert. Müssen sie nicht den einprogrammierten Einfluss der Treibhausgase zeigen, weil ihr Programm, ihre Start- und Laufbedingungen genau dies vorsieht?

Zur Beantwortung dieser Fragen schauen wir uns an, welche „Verdächtige“ (Forcings) in die Modellläufe einbezogen werden. Beim IPCC werden wir fündig.

Abbildung 2: Art, Anzahl und Einfluss der Forcings lt. IPCC AR5 (Quelle Fig SPM 5 IPCC WG1 SPM)

Zur Frage 1

In Abbildung 2 erkennen wir insgesamt nur 12 Einzel- oder gruppierte Verdächtige (Forcings). Doch das stärkste Treibhausgas -nämlich der Wasserdampf- fehlt völlig. Und auch der vielfältig dokumentierte, in vielerlei Ausformungen vorhandene solare Einfluss, wie er z.B. in „die kalte Sonne“ ausführlichst und mit sehr vielen Quellen belegt, beschrieben wird, ist nur mit mickrigen 0,05 (Bandbreite 0,00 bis 0,10) Wm-2 erwähnt. Also nur mit einem Bruchteilchen von 2.2 % der „gut bekannten“ anthropogenen Einflüsse.

Zudem wird behauptet, diese Abbildung zeige den Zuwachs seit 1750, so tuend als ob man diese Zahlenwerte  schon für 1750 mit hinreichender Genauigkeit kennen würde. Doch das soll uns hier jetzt nicht interessieren.

Wir können also zunächst festhalten, dass die Suche nach dem „Bankräuber“ sich von vornherein auf wenige „Sollverdächtige“ konzentriert, aber die Hauptverdächtigen Sonne und Wasserdampf -aus welchen Gründen immer- gar nicht erst gesucht werden.

Aus meiner Sicht ein klassischer Fall von Justizirrtum, man kann auch sagen Schauprozess, der uns da vorgeführt wird. Beweiskräftig, wie es nun mal die Wissenschaft normalerweise verlangt, ist das jedenfalls nicht. Besser eine versuchte Irreführung. So etwas funktioniert wohl nur in der zur „Königsdisziplin“ erhobenen Klimawissenschaft.

Zur Frage 2

Stellen Sie sich vor, sie schreiben ein einfaches Computermodell zur Lösung der Aufgabe wie man 2 Äpfel und 2 Äpfel addiert. Das Ergebnis würde immer 4 lauten. Und da sie Zahlen nach einer bestimmten Regel berechnen, ist es egal, ob sie Äpfel, Birnen, Kirschen addierten. Der Computer kommt immer zu dem Ergebnis 4. So ist er programmiert und das würde auch stimmen.

Nun werden sie aufgefordert doch bestimmte Rücksichten zu nehmen, aus einem wichtigen Grunde solle immer 5 statt 4 herauskommen, wenn eine bestimmte Zutat dazu gegeben würde. Sie programmieren also

2+2 = 4 + (wenn…; dann) 1

Dann rechnet ihr Programm, oder Modell, immer dann 5 aus, wenn diese Bedingung erfüllt ist. Diese Bedingung heißt bei den IPCC Klimamodellierern

„Wenn Treibhausgas CO2 in bekannter Konzentration vorhanden; dann 5, wenn nicht, dann 4″

Also wird ihre Modell genau nach dieser Vorgabe rechnen. Übertragen auf unseren Fall heißt das, mit CO2 gibt’s eine Temperaturerhöhung, ohne CO2 gibt’s keine. Nun ist völlig klar, dass Klimamodelle um Größenordnungen komplizierter sind, als das oben angeführte Simpelmodell. Die Einflussgrößen sind weit zahlreicher, ihre Verknüpfungen Legion. Aber das Grundprinzip bleibt dasselbe. Der Computer rechnet das aus, wie und was ihm vorgegeben wird
Und da Sie -ihrem Gründungsauftrag [2] folgend nur die menschlichen Einflüsse zu untersuchen und zudem deren zuvor festgelegte „Gefährlichkeit“ zu bestimmen, und Sie die wichtigsten „Verdächtigen“ vorn vornherein ausgeschlossen haben, kann  Ihre Beweisführung nur zu einem Schuldspruch für CO2 führen.

Dumm nur, dass sich die Messungen (so wie die oben erwähnten Proxy-Reihen), die Natur und zunehmend mehr Klimawissenschaftler nicht mehr an diese Vorgaben halten. Abbildung 3 zeigt dies deutlich.

Abbildung 3: Vergleich der Mittelwerte der globalen Temperaturanomalie gemessen mittels Satelliten und Radiosonden mit dem Mittelwert der sich auch 100 Modellläufen ergibt. Die Abweichungen könnten nicht größer.

Es soll nun keineswegs behauptet werden, dass auch nur einer der Anwesenden wissentlich oder gar vorsätzlich diese voreingenommene Art der Beweisführung verfolgen würde, aber die normale Logik, verbunden mit etwas Recherche, lässt keinen anderen Schluss zu, als dass wir hier alle hinters Licht geführt werden. Vermutlich ungewollt, wenn man sich die oft beeindruckende Vita der Beteiligten anschaut.

Deswegen lautet die eigentliche Frage, die das Podium hätte klären müssen:

Wem sollen wir glauben?

Im Einführungstext ist diese Frage – wenn auch vermutlich anders gemeint- gestellt worden. Beantwortet wurde sie nicht. Von keinem!

Wer daher zur Klärung der Sache etwas beizutragen wünscht, möge ich melden. Sachliche Kommentare werden gern entgegen genommen.


[1] Legates et. al 2013 fanden heraus, dass der z.B. von Cook angeführte Konsens mit der Standard-Definition: „dass der Mensch das meiste der Erwärmung nach 1950 verursacht hat“, selbst unter dieser schwächeren Definition unter den veröffentlichten wissenschaftlichen Studien der Konsens nicht 97,1% betrug, wie Cook behauptet hat, sondern nur 0,3%. Näheres dazu hier: http://www.eike-klima-energie.eu/klima-anzeige/cooks-97-prozent-widerlegt-durch-eine-neue-begutachtete-studie/

[2] Gründungsauftrag des IPCC http://www.ipcc.ch/about/index.htm: Dort steht: „Das IPCC wurde gegründet, um die (politischen) Entscheidungsträger und andere Interessierte Personen über den Klimawandel mit einer objektiven Quelle von Informationen über den Klimawandel zu versorgen. Das IPCC betreibt weder Forschung noch überwacht es Klimadaten oder Parameter. Die Aufgabe des IPCC ist es, auf einer umfassenden, objektiven, offenen und transparenten Grundlage der neuesten wissenschaftlichen, technischen und sozioökonomischen Literatur weltweit das Risikoverständnis des vom Menschen verursachten Klimawandel, seine beobachteten und der zu erwarteten Auswirkungen und Optionen für eine Schadensbegrenzung zu bewerten. IPCC-Berichte sollten politisch neutral sein, auch wenn sie objektiv politisch-relevante wissenschaftliche, technische und sozioökonomischen Faktoren behandeln. Die IPCC-Berichte sollten von hohem wissenschaftlichen und technischen Standard sein und sollten das Ziel haben, eine Reihe von Ansichten, Know-how und die breite geografische Abdeckung zu reflektieren. “ (Fettmarkierung und Unterstreichung im Text von Verfasser vorgenommen)




Das ist nicht der Nordpol – sondern der Michigan-See!!

Anthony Watts beschreibt jetzt kurz, wie ein neuer Vorstoß extrem kalter arktischer Luft gerade zum kalendarischen Frühlingsbeginn den Ostteil der USA heimsucht. Gepostet hat er das am 17. März als Vorhersage. Inzwischen hat sich gezeigt, dass dieser erneute Kälteeinbruch tatsächlich erfolgt war. Die Wetterlage ist symptomatisch für den ganzen extrem kalten Winter an der Ostküste, daher folgt hier die Übersetzung dieser Ausführungen. Dipl.-Met. Hans-Dieter Schmidt hat die Übersetzung fachlich begutachtet.

Chris Frey

Neuer arktischer Vorstoß im Osten der USA – vermutlich droht der kälteste kalendarische Frühlingsbeginn seit mindestens 50 Jahren

Anthony Watts

Eine weitere massive Kältewelle droht in der Osthälfte der USA während der nächsten Tage. Dabei könnten die Temperaturen auf Werte fallen, die über 20°C unter den Normalwerten liegen.

Der leitende Meteorologe bei WeatherBell Joe Bastardi sagte dazu:

Ich bin jetzt 58 Jahre alt, und ich habe so etwas in der zweiten Märzhälfte noch nie erlebt, nicht einmal annähernd.

Und:

Die Wetterlage der nächsten Woche hat das extremste Potential für die Jahreszeit, das ich mir vorstellen kann. Es könnte der kälteste kalendarische Frühlingsbeginn seit mindestens 50 Jahren werden.

Wettervorhersagemodelle wie das des EZMW (Europäisches Zentrum für Mittelfristige Wettervorhersage in Reading/England) und das GFS [Global Forecasting Service] des amerikanischen Wetterdienstes, die beide die häufigen Kaltluftvorstöße in den Osten der USA jeweils gut im Voraus simuliert hatten, zeigen jetzt einen weiteren massiven Kaltluftvorstoß zum [kalendarischen] Frühlingsbeginn. Die folgenden Karten zeigen dies:

Dr. Ryan Maue meinte zu dieser Vorhersage des EZMW:

EZMW-Vorhersage der Temperatur im 850-hPa-Niveau [= in ca. 1500 m Höhe] plus Anomalie. Brutal!

Er fügte hinzu:

Das kanadische Ensemble-Vorhersagemodell sieht für die nächsten 7 Tage genauso aus. Dieser Kuchen ist gebacken! Arktische Luft bis Ende März.

Falls sich der Michigan-See ein wenig öffnet, könnte diese Kälte enorme Mengen Schnee auf der Lower Peninsula [= Halbinsel] des Michigan-Sees abladen.

————————————–

Anmerkung von Dipl.-Met. Hans-Dieter Schmidt: Diese Ausführungen sind in gewisser Weise eine Ergänzung zu meinem Beitrag zum milden Winter bei uns (hier). Darin hatte ich ausgeführt, dass die milde Luft aus irgendwelchen Gründen kälter war als in früheren milden Wintern.

Hier zeigt sich, dass offenbar auch die extrem kalte Luft noch kälter ist als in früheren kalten Wintern. Ich sehe darin ein beängstigendes Zeichen für uns, falls die Wetterlage bei uns einmal mit umgekehrtem Vorzeichen im Winter mehrere Monate lang „eingefroren“ sein sollte (z. B. mit immer wiederkehrenden Nordost-Lagen).

Link: http://wattsupwiththat.com/2014/03/17/eastern-us-arctic-blast-coming-likely-to-be-the-coldest-opening-to-calender-spring-in-at-least-50-years/

Übersetzt und bearbeitet von Chris Frey EIKE




Die im Dunkeln sieht man nicht: Regelenergie – die versteckten Zusatzkosten des EEG

Bild rechts: EE-Zukunftsperspektiven: Abgebrannte Windenergieanlage in la Drôme, Frankreich [FRA]

Das deutsche Wechselstromnetz ist ein vom Funktionsprinzip her instabiles System, in das mehr als eine Million Produzenten Strom einspeisen, während gleichzeitig Millionen von Verbrauchern erwarten, dass sie jederzeit jede gerade benötigte Menge Strom daraus beziehen können. Da Wechselstrom nicht direkt gespeichert werden kann, hängt die Stabilität der Versorgung entscheidend davon ab, dass Einspeisung und Verbrauch von Strom jederzeit ziemlich genau gleich groß sind. Das System reagiert schon auf vergleichsweise kleine Abweichungen sehr empfindlich mit Schwankungen der Netzfrequenz. Um dies auszugleichen, müssen die Netzbetreiber Produktion und Verbrauch ständig präzise überwachen und Ungleichgewichte durch Erhöhung oder Verringerung der Erzeugung von Kraftwerken ausgleichen. Reaktionen müssen dabei oft blitzschnell innerhalb von wenigen Minuten oder gar Sekunden erfolgen. Die Tätigkeit der Schaltwarten ähnelt dabei der von Jongleuren, die jedoch nicht nur ein paar wenige, sondern gleich hunderte von Bällen gleichzeitig in der Luft halten müssen.

Teure Regelenergie…

Während der Handel mit „normalem“ Strom heute weitgehend über die Börsen läuft, gelten für die Beschaffung von Regelenergie, die zum Ausgleich nicht geplanter Versorgungsschwankungen benötigt wird, ganz andere Vorschriften [BUDE]. Grundsätzlich müssen sich Kraftwerke, welche Regelenergie liefern wollen, an einer entsprechenden Ausschreibung beteiligen und Gebote in der Hoffnung abgeben, dass sie im Bedarfsfall dann auch zum Zuge kommen. Insgesamt liegt der Bedarf aller deutschen Netzbetreiber an Regelleistung bei ca. 7.400 MW.

Bild 1: Reaktionszeiträume für die Bereitstellung von Regelenergie und die entsprechenden Bezeichnungen im deutschen Netz (Grafik: [REGE])

Da Regelenergie grundsätzlich kurzfristig – bei Primärregelleistung quasi sofort – benötigt wird, liegt ihr Preis meist deutlich über dem an der Strombörse üblichen Niveau. Je nach Versorgungslage im Stromnetz berechnen die Lieferanten für eine Kilowattstunde manchmal bis zu 1,50 Euro – etwa fünfmal mehr, als Endverbraucher zahlen – [CARE, REGE]).

Genaue Zahlen sind schwer zu bekommen. Als Anhaltspunkt kann man Angaben aus Österreich heranziehen, einem Land, dessen Bevölkerung und dessen Strommarkt etwa um den Faktor 10 kleiner sind als Deutschland. Dort hat Regelenergie zum Ausgleich von Kurzfristschwankungen im Netz allein 2012 140 Mio. € gekostet, 65 Mio. mehr als noch zwei Jahre zuvor. Rechnet man diese Zahlen auf das viel größere deutsche Stromnetz um, so kommt man auf rund 1,5 Mrd. € im Jahr – Kosten, die der Verbraucher gar nicht zu sehen bekommt, weil sie in den Netzentgelten versteckt sind. Und die Tendenz ist stark steigend, wie das vorgestellte Beispiel (+ 43 % im Jahr) zeigt [STAN]. In einem deutschen Blogeintrag wird eine Steigerung der Netzgebühren (Jahresleistungspreissystem) von 0,95ct/kWh im Jahre 2011 auf für 1,93ct/kWh2014 angeführt [STST].  

Sachverstand?

Kaum ein Urteil dürfte die derzeitige deutsche Energiepolitik treffender und zugleich vernichtender charakterisieren als das folgende Zitat aus dem kürzlichen Jahresgutachten 2013/ 2014 des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung mit dem Titel „Gegen eine rückwärtsgewandte Wirtschaftspolitik“ [WIGU], wo es heißt: „Vor etwas mehr als zwei Jahren wurde von der Regierungskoalition aus CDU/CSU und FDP die beschleunigte Energiewende ausgerufen. Dieses Großprojekt wird derzeit ohne ein schlüssiges Gesamtkonzept verfolgt.“

zum Ausgleich von Schwankungen aus Wind- und Solarstrom

Die Frage, warum so viel Regelenergie benötigt wird und warum der Bedarf und damit die Kosten so steil nach oben gehen, lässt sich leicht beantworten: Man braucht sie vor allem zum Ausgleich des schwankenden Angebots an „erneuerbarem“ Strom aus Wind- und Solarkraftwerken, deren Produktion von jeder Wolke und jedem Windstoß beeinflusst werden. Bei konventionellen Kraftwerken ist das anders: Wenn dort der Regler um 9.00 Uhr auf 845 MW eingestellt wird, dann wird die Anlage von diesem Zeitpunkt an diese Leistung konstant halten, bis die Einstellung geändert wird.

Als Beispiel für die aktuelle Situation in Deutschland kann die Stromproduktion im Dezember 2013 dienen, einem Monat, der sich zur grossen Freude der EE-Vertreter durch eine überdurchschnittliche „Windernte“ auszeichnete. Das Gesamtstromaufkommen in diesem Monat zeigt Bild 2.

Bild 2. Stromerzeugung in Deutschland im Dezember 2103. Die wild gezackten roten Kurven verdeutlichen, in welchem Ausmass konventionelle Kraftwerke gezwungen waren, das schwankende Angebot von Wind- und Solarstrom auszugleichen (Daten: [EEX])

Prognoseabweichungen – der Unterschied zwischen Wunsch und Wirklichkeit

Wie bereits erwähnt, liefern konventionelle Kraftwerke für genau definierbare Zeiträume exakt festgelegte Strommengen ins Netz. Dank moderner elektronischer Systeme zur Datenerfassung und Regelung sind Schwankungen faktisch kein Thema. Ganz anders beim Wind- und Solarstrom. Zwar wird seitens der Vertreter der EE-Energien oft behauptet, die Produktion aus solchen Quellen lasse sich heute mit hoher Sicherheit vorhersagen und Schwankungen einzelner Standorte würden durch die grossräumige Verteilung ausgeglichen. Das stimmt jedoch nicht, wie ein Blick auf die Realität sofort beweist. Bild 3 stellt die Unterschiede zwischen den Prognosen und der tatsächlichen Leistungsbereitstellung der deutschen Wind- und Solaranalgen im Dezember 2013 grafisch dar.

Bild 3. Abweichungen zwischen Prognosedaten  und tatsächlicher gemeinsamer Leistung von Wind- und Solarstrom im Dezember 2013 (Daten: [EEX])

Da die beiden Quellen vom Wetter unterschiedlich beeinflusst werden, wurden sie bei dieser Betrachtung der Fairness halber kumuliert betrachtet, d.h. da, wo sich ihre Schwankungen gegenseitig kompensierten, wurde dies entsprechend berücksichtigt. Die Kurve verdeutlicht die Unzuverlässigkeit der Prognosen: An vielen Tagen muss zum Ausgleich der Abweichungen kurzfristig positive oder negative Regelleistung in einer Größenordnung von mehr als 1000 MW beschafft werden. Das entspricht der Leistung eines konventionellen oder nuklearen Großkraftwerks.

Was bringt die Zukunft?

Das Interessante an diesen Fakten ist nicht so sehr der aktuelle Umfang der Prognoseabweichungen – er liegt immer noch deutlich unterhalb der vorgesehenen Reserven -, sondern die künftige Entwicklung, falls der Ausbau so fortgeführt wird, wie es die aktuellen Energiewendeplanungen bis 2050 vorsehen. Im Jahr 2013 lag der Solaranteil an der Jahresstromerzeugung bei 4,7 %, während der Windanteil 8,4 % erreichte. Die aktuellen Planungen sehen 35 % EE-Stromanteil bis 2025 und von 80 % bis 2050 vor. Da die sonstigen „Erneuerbaren“ Energien weitgehend ausgereizt sind, dürfte der weitere Ausbau im Wesentlichen bei Wind und Solar stattfinden. Bezüglich der Projektion der wahrscheinlichen Entwicklung des Strombedarfs wurde vereinfachend angenommen, dass die „normale“ Stromerzeugung auf dem Niveau des Jahres 2012 von 629 Terawattstunden (TWh) mehr oder weniger unverändert verharrt. Zusätzlich zu berücksichtigen ist allerdings die von der Bundesregierung gewünschte Umstellung des Verkehrs auf Elektromobilität. Für 2025 wurde hierfür ein zusätzlicher Bedarf von 20 TWh angenommen, während für 2050 130 TWh angesetzt wurden.

Für das Jahr 2025 kann bei einem eher konservativen Ansatz (EE-Anteil 40%) dann überschlägig mit folgender Erzeugung bei Wind- und Solarstrom gerechnet werden:

                                                                                                                                                    TWh

Wind Onshore (erforderl. Kapazität 86660 MW, Nutzungsgrad 17,4 %)   132,1

Wind Offshore (erforderl. Kapazität 6500 MW, Nutzungsgrad 34,8 %)     19,9

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)                   37,8

Lebensmittel (Biomasse inkl. Müll, leichter Zuwachs)              48,5

Wasser (Kap. etwa konstant)                                                                 21,7

Gesamt für 40 % EE-Anteil                                                                   260,0                 

Für 2050 wurden ausgehend von einer Gesamterzeugung von 759 TWh folgende Annahmen gemacht:        TWh

Wind Onshore (erforderl. Kapazität 272500 MW, Nutzungsgrad 17,4 %       415,4

Wind Offshore (erforderl. Kapazität 27500 MW, Nutzungsgrad 34,8 %)  83,8

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)  37,8

Lebensmittel (Biomasse inkl. Müll, konstant ab 2025)                                 48,5

Wasser (Kap. etwa konstant)  21,7

Gesamt für 80 % EE Anteil           607,2

EE-bedingter Regelenergiebedarf 2025 und 2050

Mit der Fixierung auf die beiden extrem volatilen Energiequellen Wind und Strom wird deren Instabilität die Netze in den kommenden Jahren sowohl prozentual als auch absolut gesehen mehr und mehr überlasten. Die Folgen sind umso gravierender, als gleichzeitig die konventionellen Kraftwerke als die einzigen Garanten der Stabilität immer mehr verdrängt werden. Wenn Wind- und Solarstrom mit ihrer Bevorzugung die Netze überfluten, bleibt den Betreibern konventioneller Kraftwerke gar nichts anderes übrig, als ihre Einheiten herunterzufahren. Damit ergibt sich das Paradoxon, dass trotz steigenden Bedarfs an Regelenergie das Angebot immer mehr zurückgehen wird. Die Zunahme des Regelenergiebedarfs aufgrund von Prognoseabweichungen für Wind und Solarerzeugung für einen fiktiven Monat Dezember 2025 bzw. 2050 zeigen Bild 4 und Bild 5.

Bild 4. Fiktiver Verlauf der Prognoseabweichungen für Wind- und Solarstrom bei Annahme eines Wettergeschehens, das dem des Dezembers 2013 entspricht

Wie Bild 4 zeigt, dürfte es schon im Dezember 2025 nicht mehr gelingen, die erratischen Abweichungen der Stromproduktion aus Wind und Sonne noch mit den derzeit vorhandenen Regelenergie-Reserven von 7400 MW aufzufangen. Das Problem liegt vor allem darin, dass an Tagen mit starkem Windaufkommen praktisch keine konventionellen Kraftwerke mehr am Netz wären: Bereits im Dezember 2013 sowie im Januar und im Februar 2014 zeigte sich, dass die Netzbetreiber nicht mehr imstande waren, die Mindestkapazität an konventionellen Kraftwerken am Netz zu halten, um ihre internationalen Verpflichtungen im Rahmen des Europäischen UCTE-Verbundnetzes (Union for the Co-ordination of Transmission of Electricity) zu erfüllen. Mit anderen Worten: Deutschland hat über einen Zeitraum von drei Monaten hinweg die Stabilität des europäischen Verbundnetzes mehrfach grob fahrlässig gefährdet.

Noch katastrophaler stellt sich die Lage dar, wenn man die gleiche Projektion mit den Daten für die im Jahr 2050 zu erwartenden Kapazitäten im Bereich Wind- und Solarstromerzeugung durchrechnet. Hier ergeben sich Abweichungen zwischen Prognose und tatsächlicher Erzeugung, die wild zwischen +10000 und – 13000 MW hin und her schwanken. Nach derzeitigem Stand der Technik ist kaum vorstellbar, dass man unter diesen Bedingungen noch eine stabile Netzversorgung hinbekommen könnte.

Bild 5. Fiktiver Verlauf der Prognoseabweichungen für Wind- und Solarstrom bei Annahme eines Wettergeschehens, das dem des Dezembers 2013 entspricht. Der Bedarf an Regelenergie wäre überhaupt nicht mehr darstellbar.

Fred F. Mueller

Quellen:

[BUDE] http://www.energieverbraucher.de/de/Energiebezug/Strom/Stromwirtschaft/Regelenergie__1096/

[CARE] http://www.care-energy-online.de/index.php/stromgas/strom/oekostrom.html?showall=&start=19

[EEX] http://www.transparency.eex.com/de/

[FRA] http://www.la-croix.com/afp.static/pages/100919164756.1vaiksyv.htm

[REGE] http://amprion.net/systemdienstleistungen-regelenergie

[STAN] http://derstandard.at/1363707299122/Stabilisierung-der-Strom-Netze-wird-immer-teurer

[STST] http://www.eike-klima-energie.eu/climategate-anzeige/energiewende-grotesk-suedlink-noch-mehr-milliarden-fuer-blanken-unfug/  Kommenrtar # 55

[WIGU] Gegen eine rückwärtsgewandte Wirtschaftspolitik Jahresgutachten 2013/14 Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung Statistisches Bundesamt 65180 Wiesbaden November 2013




Über Deutschland lacht manchmal die Sonne, über Westerwälder Politiker die ganze Welt

Dummerweise gibt es in großen Abständen Wahlen. Und typische Politiker, die wie der gegelte Herr von und zu Guttenberg (CDU) durch Lug und Trug aufgefallen oder sich wie ein Herr Edathy über die von den Steuerzahlern finanzierten Server an nackten Kindern ergötzt haben, bekommen dann vom Wähler mitunter die ganze Verachtung gezeigt. Im Hohen Westerwald stellt die Kaste der Politiker derzeit allerdings alles in den Schatten, was man gemeinhin mit Politikern verbindet. Jedenfalls sieht man in dem kleinen Städtchen Bad Marienberg, warum das Rückgrat bei Politikern häufig so unterentwickelt ist – weil es so wenig benutzt wird.

Antiwindkraftlied der damit gebeutelten Rhöner Sauwantzt

Seit weit mehr als zwei Jahren haben wir an dieser Stelle über drollige Westerwälder Politiker berichtet, die auf Biegen und Brechen zu Lasten der Natur unbedingt einen Windpark um eine vom Steuerzahler finanzierte Greifvogel-Aufzuchtstation bauen und mit diesem Schildbürgerstreich allein durch die öffentlich bekannt gewordene Planung wohl gleich auch noch die Immobilieneigentümer in der Region um 160 Millionen Euro enteignet haben. Jedenfalls hat ein Architekt mitgeteilt, dass bei geschätzten rund 6000 Immobilien die Bad Marienberger Bürger schon jetzt um rund 160 Millionen enteignet wurden, weil ihre Häuser allein durch die Planungen stark im Verkaufswert gefallen sind. Immobilien in der Nähe von WKA seien quasi unverkäuflich, sagt auch Jürgen-Michael Schick, Sprecher des Verbandes Deutscher Makler (VDM). Verbandsmitglieder beklagten, dass einige Häuser seit Jahren erfolglos mit Preisabschlägen von bis zu 40 Prozent angeboten würden. Dennoch gebe es nicht einmal Interessenten für diese Objekte, sagt Schick.

160 Millionen Euro? Das ist eine Summe, die sich ein Lokalpolitiker in Bad Marienberg wahrscheinlich kaum vorstellen kann. Aber ist ja auch egal. Ist ja auch das Geld der Bürger. Den örtlichen Politikern, die über die Planungen für den Bau eines gigantischen Windparks abzustimmen hatten, waren die Sorgen der Bürger und die im Planungsgebiet bedrohten und auf der Roten Liste stehenden Tierarten (Roter Milan, Uhus und Fledermäuse) offenkundig völlig egal. Jedenfalls hat nicht ein einziges Gemeinderatsmitglied bei der entscheidenden Abstimmung im Februar 2014 dagegen gestimmt. 100 Prozent aller Fraktionen stimmten bei 100 Prozent der Abstimmungen zu 100 Prozent dafür, dass rund um die Verbandsgemeinde in ausgewiesenen Brutgebieten von Rotem Milan, Uhus und bedrohten Fledermäusen Windräder mit bis zu 200 Metern Höhe gebaut werden dürfen. Im örtlichen Mitteilungsheft Wäller Blättchen war die Sitzung vom 10. Februar 2014, bei der es für die Bürger um sehr viel ging, ein kleines Randthema, der Aufmacher war »90 Jahre Freiwillige Feuerwehr Langenbach«. Man bekam da als Bürger wohl nicht zu Unrecht den Eindruck, dass das Thema möglichst lange vor den Bürgern verheimlicht werden sollte. Immerhin hatten bei der entscheidenden Abnickung der Zerstörung der Rückzugsgebiete für Roten Milan, Uhus und Fledermäuse Politiker aller Fraktionen ausdrücklich Wert auf die Aufnahme ihrer Aussage ins Protokoll gelegt, wonach sie und ihre Parteien schon lange zu 100 Prozent hinter den Planungen stünden. Das ist für den Fortgang der Geschichte wichtig.

Unsere Artikel über die drolligen Bad Marienberger Politiker, die mit voller Kraft die Natur in ihrer Heimat zerstören wollen, hat weit über den Westerwald hinaus in der Bevölkerung über alle Parteigrenzen hinaus für großes Aufsehen gesorgt. Man muss dazu wissen, dass unsere Nachrichtenseiten im Web monatlich durchschnittlich rund 28 Millionen Mal angeklickt werden und im deutschsprachigen Raum um Platz 400 der Webseiten rangieren. Und sie werden zudem unzählige Male kopiert und auf anderen befreundeten Portalen verbreitet. Würden wir zusammen mit befreundeten Seiten zu einem Flashmob-Treffen in Bad Marienberg zugunsten der dort bedrohten Tiere aufrufen, dann könnte man dort aufseiten der Schildbürger-Politiker wohl nur noch die weiße Fahne hissen.

Inzwischen haben extrem viele Menschen mitbekommen, wie die Bad Marienberger Schildbürger vom Aussterben bedrohte Tiere eiskalt lächelnd vernichten wollten. Und dann hat sich eine Bürgerinitiative gebildet. Auf einen Schlag ist nun alles anders. Denn die windigen Politiker müssen sich in wenigen Wochen im Mai 2014 den Wählern stellen. Und die Bürgerinitiative zugunsten der geschützten Tiere hat so rasend schnell Zulauf, dass die eher trägen Politiker nicht mehr mitkommen.

Parallel zur Gründung der Bürgerinitiative verlautbarte erst die um ihre Wählerstimmen zitternde CDU, dass man nun doch irgendwie nicht mehr für den Bau eines Windparks im Brutgebiet der bedrohten Tiere sei, wenige Stunden später auch die SPD. Die Pharisäer, die wenige Tage zuvor noch ohne Skrupel zu 100 Prozent für die Vogelschredder stimmten, hatten keine Skrupel, als Wendehälse geoutet zu werden. Hauptsache, sie können weiter ihre geliebten Ämter und Posten behalten.

Wie auch immer die Geschichte weitergehen wird, die Lokalpolitiker verlieren in der Bevölkerung rasant an Ansehen und werden bei der Wahl im Mai 2014 wohl kräftig abgewatscht werden wie noch nie. Denn inzwischen kam heraus: Die finanziell schwer angeschlagene Gemeinde hat Steuergelder für die Vorplanung des mehr als fragwürdigen Projekts im Sinne ihrer wohl eher zwielichtigen Geschäftspartner (Windparkbauer Juwi) ausgegeben.

Und die Lokalpolitiker aus Bad Marienberg werden den Bürgern jetzt einiges erklären müssen. Denn die Schildbürger haben den Windpark nicht nur mitten im Brutgebiet vom Aussterben bedrohter Tiere abgesegnet, sondern auch mitten in einem alten Bergbaugebiet, welches nach Angaben der älteren Einwohner der Region löchrig wie ein Schweizer Käse ist. Offenkundig hatten die ohne Kenntnis von Heimatkunde planenden Politiker vergessen, dass das Gebiet um die Bad Marienberger Höhe seit Mitte des 18. Jahrhunderts durch die Grubenbetreiber Concordia und Georgszeche unterhöhlt wurde. Weil spätestens 40 Zentimeter unter dem Waldboden Basaltstein kommt, müsste man sprengen, um überhaupt Fundamente für Windräder bauen zu können. Und das würde die Jahrhunderte alten Stollen, die heute den vom Aussterben bedrohten Fledermäusen überall in dem Gebiet als Tag- und Winterquartiere dienen, zum Einsturz bringen und auch den Lebensraum der Fledermäuse zerstören. Erstaunlicherweise sind diese alten Stollen, die ein weit verzweigtes und nicht kartiertes unterirdisches Höhlensystem bilden, im Artenschutzgutachten, welches die Gemeinde beim Diplombiologen Malte Fuhrmann in Auftrag gegeben hatte, nicht erwähnt. Das Gutachten, welches eine der wichtigsten Grundlagen für die Planungen des Windparks inmitten der Lebensräume von Rotem Milan, Fledermäusen und Uhu war, hat aber noch eine andere interessante Besonderheit: Es gibt dort erstaunlicherweise keinen Hinweis auf das Barotrauma. Das aber zerfetzt Fledermäusen durch den Unterdruck der Windkraft-Rotoren die Lungen. Sie sterben dann nicht am Rotorschlag. Das Gutachten zu den Fledermäusen geht aber nur auf den Rotorschlag ein, daher hatten wir am 9. März 2014 eine Mail mit folgendem Inhalt zu seinem Gutachten an den Diplombiologen Malte Fuhrmann geschickt:

Darin finde ich mit nicht einem Wort das Barotrauma erwähnt, an dem die Fledermäuse in der Nähe von WKA sterben, denn der Rotorschlag ist bei ihnen ja nicht die Haupttodesursache. Ich bin Journalist und verfasse derzeit ein Sachbuch über Gutachten und Gutachter zu Naturschutzthemen. Mir ist aufgefallen, dass Ihr Gutachten nicht dem Stand der Wissenschaft entsprach, zumindest entstand dieser Eindruck beim sorgfältigen Studieren. Vom Spiegel bis Spektrum der Wissenschaft berichten auch die populärwissenschaftlichen Journalisten schon seit vielen Jahren über das Barotrauma als Todesursache bei Fledermäusen in der Nähe von WKA – warum kommt‘s bei Ihnen schlicht nicht vor? Oder sollte ich es übersehen haben???

Wir haben bis heute weder auf diese Mail noch auf telefonische Nachfrage eine Antwort bekommen. Es wäre vielleicht an der Zeit, dass die Bad Marienberger Politiker jene Steuergelder, die sie für das »Gutachten« ausgegeben haben, zurückfordern. Die Schildbürger aus dem Gemeinderat sollten jedenfalls ganz schnell versuchen, den von ihnen angerichteten Schaden zu begrenzen. Oder aber sie arbeiten emsig weiter daran, das Ansehen von Politikern auf ein noch niedrigeres Niveau abzusenken.

Das alles kann man nur verstehen, wenn man weiß, wie unsere Politiker ticken: Die politische Korrektheit ist ihnen ganz wichtig. Immer mehr Bürger entwickeln da eine gewisse Wut. Und irgendwann knallt es dann. Politiker, welche immer neue Windparks planen lassen, fachen dieseunheilvolle Entwicklun noch an. Schließlichproduzieren immer mehr Windparks immer weniger Strom – und die Zeche zahlen die Verbraucher. Nicht nur das ist irre, denn klar ist inzwischen auch: Windräder heizen denKlimawandel an, weil sie den Austausch der Luftschichten verhindern. Und alle Windräder, die bislang gebaut wurden,haben an der CO2-Bilanz nach Angaben desSpiegel rein gar nichts verändert.

Im hessischen Teil des Westerwaldes haben die Politiker deshalb gerade die Notbremse gezogen: Dort darf jetzt kein neues Windrad mehr geplant werden. Nur wenige Kilometer Luftlinie entfernt gibt es aber im rheinland-pfälzischen Teil des Westerwaldes bei der kleinen Gemeinde Bad Marienberg immer noch ewig-gestrige Schildbürgermeister, die das alles wohl noch nicht mitbekommen haben. Dabei warnt sie nicht nur der Bürgermeister des rheinland-pfälzischen Städtchens Weisenheim. Denn Windparks nutzen vor allem zwielichtigen Betreibern wie Juwi. Und was lernen wir aus alledem? Autoverkäufer verkaufen Autos. Versicherungsvertreter verkaufen Versicherungen. Und Volksvertreter? Aber dieses Mal haben sich die Volksvertreter wohl getäuscht: Dieses Mal wollen sich die Menschen nicht von windigen Politikern verkaufen lassen. 

Die örtlichen Politiker haben wohl noch keine rechte Ahnung, was da derzeit an Empörung in der Bevölkerung auf sie zurollt. Bad Marienberg dürfte jedenfalls schnell international bekannt werden. Denn Politiker aller Fraktionen sollen dort nach einer jetzt geplanten ersten Aktion in den Gaststätten Hausverbot bekommen und einfach nicht mehr bedient werden. Kein Bier für Politiker heißt die Aktion, welche wohl auch überregional Beachtung finden dürfte.

Das alles könnte aber schnell noch weitaus größere Kreise ziehen, wenn das Gerücht bestätigt wird, wonach die windigen Politiker schon insgeheim Verträge mit dem Windanlagenbauer Juwi geschlossen haben, um sich die Taschen zu füllen. Für die Bürger könnte das eine Lektion werden, wie sehr unsere frühere Demokratie schon zur Farce geworden ist.

Der Beitrag wurde mit Dank vom Kopp Verlag in Kopp Online übernommen udn mit dem Antwiwindkraftlied der Rhöner Sauwantz „angereichert“