Die wahren Gläubigen oder Zahlenterror gegen Kernkraftwerke!

Im Herbst 2009 produzierte die deutsche politische Partei "Bündnis 90/Grüne "  in den deutschen Medien kurzzeitig Aufsehen mit der Behauptung der endgültige Beweis sei erbracht, dass Kernkraftwerke Leukämie bei Kindern hervorrufen. "AKW erhöhen das Leukämierisiko (Kernkraftwerke erhöhen das Risiko von Leukämie)" war die Überschrift einer Pressemitteilung. Während nicht einmal die Meta-Analyse von Greiser (2009), die die Grundlage dieser Pressemitteilung gebildet hat, einen solchen Anspruch erhob (da Greiser sich des Unterschiedes zwischen Korrelation und Kausalität wohl bewusst war) hat die Pressemitteilung stark zur Überzeugung vieler Deutscher beigetragen, die Atomkraft ist schlecht für euch.

Die vorliegende Arbeit zeigt, dass vermutlich nicht einmal eine Korrelation, wie von Greiser behauptet (2009), existiert. Wir verwenden seine Studie um verschiedene beispielhafte Fehler aufzuzeigen, die oft gemacht werden, wenn statistische Analysen gemacht werden , die durch starke a priori Überzeugungen, die so typisch für die Leukämie vs Kernkraft Debatte ist, existieren. Die erste und wichtigste Fehlerquelle ist eine Untertreibung der wahren Größe des Tests von Signifikanz, die von den bekannten Publikations Vorurteilen herrührt. Wir geben dann einen kurzen Überblick über die Literatur und zeigen, dass es Grund genug gibt zu glauben, dass dieses Vorurteil auch in der Leukämie Debatte vorherrscht. 

In technischen Begriffen: die wahre Bedeutung des Signifikanz-Niveaus solcher Tests ist sehr viel größer als die nominelle, über die in den jeweiligen Zeitungen berichtet wird. 

Andere Fehler sind die Missachtung von wichtigen Kovariablen und die starken Abhängigkeit von Ausreißern, die, wenn man sie nicht entfernt, die beobachteten Muster umkehren können. Dann gibt es noch das bekannte Phänomen namens HARking ("Hypothetiseren, nachdem die Ergebnisse sind bekannt"), wo Tests der Signifikanz erst gemacht werden, nachdem einige anomale Daten beobachtet wurden. Dies scheint insbesondere für die Leukämie Debatte zu gelten, wo viele Studien erst dann durchgeführt wurden, nachdem die Medien die Aufmerksamkeit auf eine ungewöhnliche Häufung und Mortalität in der Nähe von kerntechnischen Anlagen verschiedener Typen gelenkt hatten. Zusammengenommen scheinen diese Mängel die "Beweise" zu entkräften, dass die Kernenergie mit Leukämie im Kindesalter korreliert, geschweige denn, das sie für sie verantwortlich sei. Obwohl es noch wahr sein könnte, dass ein solcher Zusammenhang besteht, kann es sicherlich nicht aus den Beweisen, die bisher verfügbar sind, abgeleitet werden. Selbst wenn man nicht die bekannte Taubes (1995) These  unterschreibt -, dass epidemiologische Hinweise jeglicher Art nur ernst genommen werden sollten, wenn es mindestens eine Verdopplung des Risikos beobachtet, muss man viel mehr und in  insbesondere viel überzeugendere Daten vorbringen bevor man  diese Art Alarm loslässt, wie er so beliebt ist bei den Gläubigen in der Wissenschaft und den Medien sind gleichermaßen. 

Mit freundlicher Genehmigung 

von Walter Krämer Fakultät Statistik, TU Dortmund, D-44221 Dortmund, Germany, walterk@statistik.uni-dortmund.de und Gerhard Arminger2 Schumpeter School of Business and Economics Bergische Universität Wuppertal, D- 42119 Wuppertal, Germany arminger@statistik.uni-wuppertal.de

Die ganze Arbeit finden Sie als pdf im Anhang

Related Files




Die Widerlegung des Solareinflusses? Der Exodus der sogenannten Klimaskeptiker!

Der Exodus der sogenannten Klimaskeptiker

An dieser Aussage sind gleich mehrere Sachen bemerkenswert.

1. Herr Rahmstorf, der Klimagroßinquisitor, beerdigt nicht eine ihm missliebige Theorie,

    nein, sondern gleich deren Vertreter.

2. Eine einzige Publikation, wir werden gleich darauf zurückkommen, ist ursächlich dafür.

3. Die (noch) angesehene wissenschaftliche Zeitschrift, “Nature“, ist sich nicht zu Schade, so

    einen ungeheuerlichen Satz zu publizieren.

Was ruft nun den Enthusiasmus von Herrn Rahmstorf hervor. Eine Arbeit von M. Lockwood und C. Fröhlich erschienen in Proc. R. Soc. A (2007) 463, 2447–2460.

In der Arbeit vergleichen die Autoren den Trend der Sonnenflecken, des interplanetaren Magnetfeldes und die Häufigkeit von 10Be mit der Temperaturanomalie. Sie finden dabei folgendes Verhalten:

 

 

 

 

Aus dem Verhalten schlussfolgern sie, dass bis 1985 die Sonnenaktivität die Temperatur triggert, dass aber danach die Abnahme der Aktivität im Kontrast zur Zunahme der Temperatur steht und somit das globale Erwärmen nicht durch die Sonne verursacht sein kann. Dies klänge plausible, wenn es da nicht ein Problem gäbe. Für die Temperaturanomalie haben sie die Daten von GISS und von CRU (Phil Jones) verwendet, die fast identisch sind. Die Daten von GISS sind in der folgenden Graphik zu sehen.

 

Was ist daran auszusetzen? Erstens zeigen diese Daten wenig Übereinstimmung mit den Satellitenmessungen (nächste Graphik). Zweitens ist vielfach gezeigt worden, dass die Temperaturen „nachjustiert“ worden. 

 

Ein typisches Resultat für die so genannte Homogenisierung kann der nächsten Abbildung entnommen werden. In den allermeisten Fällen, wurde die Temperatur in der Vergangenheit nach unten in der jüngeren Zeit nach oben angepasst. Naiv würde man in Folge der Urbanisierung eher das Gegenteil erwarten. Der Verdacht, dass hier ein Trend hineinkorrigiert wurde, ist nicht von der Hand zu weisen. Mehr Informationen und Details können den Bericht „Das Temperaturdilemma“ entnommen werden. Aber nicht nur die Temperaturen sondern auch die Stationen wurden massiv manipuliert.

Programmer E.M. Smith’s analysis of NOAA’s GHCN found they systematically eliminated 75% of the world’s stations with a clear bias towards removing higher latitude, high altitude and rural locations, all of which had a tendency to be cooler. The thermometers in a sense marched towards the tropics, the sea and to airport tarmacs.

http://icecap.us/images/uploads/NOAAroleinclimategate.pdf

 

Aus den angeführten Gründen ist das Bestattungsunternehmen Rahmstorf zu früh agil geworden und die an sich lobenswerte Arbeit der Autoren geht ins Leere.

 

Ein anderer umfassender Überblick über die Temperaturmanipulationen stammt von Joseph D’Aleo und Anthony Watts: “SURFACE TEMPERATURE RECORDS: POLICY DRIVEN DECEPTION?“ und kann hier

http://www.google.com/search?q=site%3Awww.sepp.org+D%E2%80%99Aleo+Watts&qfront=D%E2%80%99Aleo+Watts

heruntergeladen werden.

Die Vorfreude von Rahmstorf ist sicher auch dadurch begründet, weil er zusammen mit Feulner kürzlich „bewiesen“ hat, dass selbst bei einem bevorstehenden Maunder-Minimum nur 0.3°C von der prognostizierten Erhöhung von 3.7-4.5°C abzuziehen sind. (GEOPHYSICAL RESEARCH LETTERS, VOL. 37, L05707, 2010)

Hierzu wurde ein gekoppeltes Klimamodell, Climber-3?, mit mittlerer Komplexität verwendet. Dieses Modell taucht im letzten Bericht des IPCC namentlich nicht auf, aber ECHAM5, welches auch sehr gern vom PIK gepriesen wird.

Die folgende Abbildung ist die Kernaussage der Publikation. Dargestellt ist die Temperaturdifferenz zwischen den möglichen zukünftigen und den realen vergangenen Maunder-Minimum.

 

Man erkennt, dass sich vor allem die polaren Gebiete stark erwärmen sollen. Schaut man vergleichend auf die Differenz der gemessenen Temperatur (Daten von CRU!) minus der mit ECHAM5 berechneten, dann ergibt sich für 2003:

Quelle: IPCC4 chapter 8S

ECHAM5 hat also für die Antarktis schon 2003 nahezu das Soll erfüllt. ECHAM5 ist dabei keineswegs die Ausnahme. Die nächste Graphik zeigt den typischen Fehler gemittelt über alle IPCC-Modelle.Das ist nicht ganz neu, denn im Report „Wie verlässlich sind Klimamodelle“ konnte man schon sehen, dass in einigen Modellen die Antarktis eisfrei war. Zur Erinnerung:

Quelle: The Coupled Model Intercomparison Project (CMIP)

 

Den Einfluss der Sonne erfassen die Autoren durch eine Variierung der totalen solaren Strahlung (TSI). Die beste Übereinstimmung zwischen Modell und Temperaturrekonstruktion erhalten sie,  wenn die TSI um 0.08% reduziert wird. Bei einem verwendeten Wert von 1366W/m2 entspricht dies -1W/m2 zur Maunderzeit. Dieser Wert ist rund viermal kleiner, als

der von Solanki et al. (GRL 26 (1999) 2465, siehe Report „Die neue Klimadoktrin“?) angegebene (obige Abbildung) und entspricht ungefähr der Abnahme in den letzten zehn Jahren, wie die Satellitenmessungen in der nächste Graphik zeigen.

 

 

http://www.acrim.com/

Der IPCC sagt, dass die Variation der totalen solaren Strahlung von 1‰ während eines Sonnenzyklus irrelevant für das Klima ist. Bei Rahmstorf und Co. genügen dagegen 0.8‰ um das Maunderminimum zu reproduzieren. Da staunt man. Wenn dem so wäre, dann müsste man einen starken elfjährigen Zyklus in der Temperaturkurve sehen. Der ist aber nicht bekannt. 

Fazit:Herr Rahmstorf sollte eher sein Modell an Stelle der Skeptiker beerdigen.

 Dr. Bend Hüttner für EIKE 

Den Aufsatz können Sie auch als pdf im Anhang herunterladen

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


[1]  Hervorhebungen von mir, wenn nicht anders angegeben. 

Related Files




Eisige Winter in Europa könnten zur Norm werden

„Seit Neuestem beobachten wir eine Änderung der (Wetter-)situationen zurück zu Bedingungen wie in den fünfziger und sechziger Jahren des vorigen Jahrhunderts in Europa… Es gab in Großbritannien drei kalte Winter hintereinander“, erklärte der leitende Meteorologe Todd Crawford.

 „Wir glauben, dass es sehr wahrscheinlich ist, dass dies auch während der nächsten 20 bis 40 Jahre so bleibt”.

Wenn das stimmt, dürften diese Ergebnisse weitreichende Implikationen für die europäischen Energiemärkte haben, wo die Nachfrage nach Energie im Winter wegen erhöhter Heizleistung und Beleuchtung üblicherweise zunimmt.

Die Nachfrage nach Energie erreichte Anfang Dezember einen absoluten neuen Rekord in Frankreich, während in Großbritannien dieser Rekord nur knapp verfehlt wurde. Und dies bei Temperaturen, die um mehr als 10°C unter den jahreszeitlich üblichen Werten lagen.

Die Nachfrage nach Erdgas und Erdöl stieg ebenfalls rasant. Hinter den kalten Temperaturen steckt die Nordatlantische Oszillation NAO, ein Klimaphänomen, das normalerweise Luftmassen von Westeuropa weit nach Osten transportiert, so dass arktische Luftmassen auf Distanz bleiben. Aber im Dezember hatte sich diese Strömung ungekehrt, so dass kalte arktische Luftmassen nach Westeuropa wehten, was zu dem explodierenden Energieverbrauch geführt hatte.

 „Während der letzten 30 bis 40 Jahre war die NAO vorherrschend positiv, was zu milderen und feuchteren Wintern führte”, erklärte Crawford. „Seit dem Jahr 2008 hat sich die NAO jedoch abrupt umgekehrt in einen negativen Status, und das Resultat in Gestalt von drei sehr kalten Wintern war ziemlich gut zu merken.“

Schwache Sonnenaktivität

Der WSI erklärte weiter, dass zu der Umkehrung der NAO drei Faktoren beigetragen haben könnten: Jüngste zyklische Änderungen der Wassertemperatur im Nordatlantik; eine Klimaänderung, die zu einer Erwärmung der Arktis und korrespondierenden Kaltluftausbrüchen in Richtung Europa führt; und ein „schwacher“ solaren Zyklus.

Crawford sagte, dass potentiell alle drei Faktoren eine Rolle spielen, aber dass sich die geringere Solaraktivität als Hauptursache herausstellen könnte. „Der gegenwärtige Sonnenzyklus ist der ruhigste der letzten 70 Jahre, und es gibt die begründete Besorgnis, dass daraus eine signifikante Abkühlung resultiert“, meinte er.

“Wir haben den Eindruck, dass die NAO in eine zyklische negative Phase getreten ist, und dass dies überwiegend in den nächsten 20 bis 40 Jahren so bleibt. Das heißt nicht, dass die NAO in allen Wintern negativ ist, aber sicher in den meisten“, fügte er hinzu.

Der nationale Wetterdienst in Großbritannien, the „Met Office”, erklärte in einem Gespräch mit Platts am Dienstag: „die NAO zeigt eine sehr hohe Variabilität … jede Langfristvorhersage über das Verhalten der NAO ist spekulativ. Auf verschiedenen Wegen wird derzeit daran geforscht, um das Verständnis und die Möglichkeit, in Zukunft solche Vorhersagen zu machen, zu verbessern.“

Der Elektrohandel erklärte am Dienstag, dass die ungewöhnlich kalten Temperaturen des vergangenen Dezembers durch den Markt immer noch als Anomalie betrachtet werden, und dass es unwahrscheinlich sei, dass es zu höheren Preisen im nächsten Winter kommen wird.

 „Das ist interessant… aber mit Sicherheit kann man eine solche Information nicht einfach beiseite wischen”, erklärte ein großes Energieunternehmen. „Sie muss für die Zukunft sehr wohl in Betracht gezogen werden“, assistierte ein zweiter Händler. „Aber das Problem in der Vergangenheit bestand darin, dass viele Leute von sich behauptet haben, Experten in Bezug auf Wetter zu sein, und dass die Unterscheidung zwischen den wirklichen und den Möchtegern-Experten ziemlich schwierig sein kann.“

Der WSI gehört NBC Universal sowie zu gleichen Teilen den Firmen Blackstone und Bain Capital.

©? copyright Platts, 20 January 2011

Link zum Original: http://thegwpf.org/the-climate-record/2269-freezing-winters-in-europe-could-be-the-norm.html 

Übersetzt von Chris Frey für EIKE




Weitere Mess-Unsicherheit (Fehler) von Oberflächentemperaturdaten quantifiziert! Deutlich größer als bisher angenommen!

Zusammenfassung

Die Unsicherheit der instrumentallen Messungen ist in früheren Schätzungen des globalen Oberflächen-Temperaturmittels noch nie vollständig behandelt worden. Der geschätzte durchschnittliche Messstationsfehler von ±0.2 C wurde fälschlicherweise als zufällig betrachtet und der systematische Fehler aus freien Variablen ist ständig vernachlässigt worden. Die systematischen Messfehler von drei ideal positionierten und gewarteten Temperatursensoren werden hier berechnet. Kombiniert mit dem durchschnittlichen Messstationsfehler von ±0.2 C wurde eine repräsentative untere Unsicherheitsgrenze von ±0.46 C für jede globale jährliche Oberflächentemperatur-Anomalie gefunden. Diese ±0.46 C zeigen, dass der Trend der globalen jährlichen Oberflächentemperatur-Anomalie von 1880 bis einschließlich 2000 statistisch nicht von 0 C unterschieden werden kann, er stellt daher eine untere Grenze der Kalibrierungs-Unsicherheit für Klimamodelle dar und für jede voraussichtliche physikalisch gerechtfertigte Proxy-Rekonstruktion von Paläo-Temperaturen. Die Rate und das Ausmaß der Erwärmung im 20. Jh.  sind daher nicht bestimmbar. Behauptungen eines noch nie dagewesenen Trends in der globalen Termperatur im 20. Jh. können nicht aufrecht erhalten werden.

Einführung

Die Rate und das Ausmaß der Klimaerwärmung im vergangenen Jahrhundert geben zu erheblicher internationaler Besorgnis und Forschung Anlaß [1, 2]. Die veröffentlichten Auswertungen der Quellen der Unsicherheit in den Aufzeichnungen der globalen jährlichen Oberflächentemperaturen sind bisher auf Ortsveränderungen der Messstationen gerichtet gewesen, auf räumliche Inhomogeneität der Messstationen, auf Instrumentenaustausch und auf Veränderungen in der Landnutzung und auf die Verstädterung.

Überprüfungen der Datenqualität von Landmessstationen und Anpassungen der Zeitreihen, die zur Unterstützung eine geschätzten Unsicherheit von etwa ±0.2 C bei einer globalen  Anomalie im Jahrhundertdurchschnitt von etwa +0,7 C angewendet worden sind, haben das Messungsrauschen nicht richtig beachtet und sie haben noch nie die unabhängigen Umweltvariablen beachtet, die die Auflösungsgenauigkeit der Sensoren im Feld beeinflussen. Die Auflösungsgenauigkeit im Feld bezieht sich auf die Fähigkeit eines Sensors zwischen ähnlichen Temperaturen, dem wirksamen Einfluß der Umwelt und den verschiedenen Quellen von Instrumentenfehlern zu unterscheiden.

In einer neuen Abschätzung globaler jährlicher Oberflächentemperaturen und deren Unsicherheiten haben Brohan et al. [11], hier folgend mit B06 zitiert, das Messgeräterauschen als vernachlässigbar beurteilt. Sie schreiben: „Der zufällig Fehler bei einer einzigen Thermometer-Ablesung beträgt etwa 0.2 C (1Standardabweichung) [Folland,et al., 2001] ([12]); der Monatsdurchschnitt beruht auf mindestens zwei Ablesungen pro Tag während der gesamten Monatsdauer, wodurch 60 oder mehr Werte gewonnen werden, die zur Durchschnittsbildung herangezogen werden. Daher beträgt der Fehler im Monatsdurchschnitt höchstens 0.2 /Quadratwurzel 60 = 0.03 C und dieser Wert wird nicht mit dem Wert einer anderen Station oder mit dem Wert für einen anderen Monat korreliert.

Ziffer [29] von B06 begründet diesen statistischen Ansatz damit, dass die monatlichen Temperatur-Aufzeichnungen der Bodenmessstationen als Summe aus einem konstanten Mittelwert plus Wetter-Rauschen verstanden werden. “Die Messstationstemperatur jedes Monats während der Normalperiode kann als die Summe zweier Komponenten betrachtet werden: einem konstanten Stationsnormalwert (C) und einem zufälligen Wetterwert (w, mit der Standardabweichung ?i).“ Diese Beschreibung und der Ansatz einer Reduktion von 1 / Quadratwurzel 60 als Messungsrauschen zusammen bedeuten, dass hier statistisch eine Mittelwertbildung des Signals der monatlichen Temperaturen vorgenommen wird.…

..Die „Freiwilligen“ und ich werden erwähnt (Anm. d. Ü.: Es handelte sich um ein Freiwilligen- Team, das unter Anthony Watts Anleitung die meisten U.S.-amerikanischen Bodenwetterstationen auf mögliche verfälschende Umwelteinflüsse untersuchte):

Die Güte einzelner Bodenmessstationen wird für die Vereinigten Staaten vielleicht am besten durch die empfehlenswerten und ausgezeichneten unabhängigen Auswertungen durch Anthony Watts und sein Freiwilligenkorps untersucht. Die Ergebnisse sind öffentlich zugänglich unter: http://www.surfacestations.org/. Ihr Ausmaß umfaßt das gesamte Netz der USHCN Bodenmessstationen. Danach verdienten 69% der USHCN Stationen eine Stationsbewertung von “schlecht” (poor) und weitere 20% nur ein “ausreichend” (fair) [26]. Aus dieser und begrenzteren veröffentlichten Untersuchungen von Stationsmängeln [24, 27-30] geht hervor, wie weit entfernt von „ideal“ die Güte der Stationsmessungen in den Vereinigten Staaten sind. In Europa hat eine kürzliche weitflächige Analyse der Güte von Stationsdatenreihen im Rahmen des European Climate Assessment [31] überhaupt keine Untersuchung der individuellen Stations-Sensorabweichungen erwähnt und ausgesagt: “es kann nicht garantiert werden, dass jede Temperatur- und Niederschlagsserie für Dezember 2001 genügend homogen ist in Bezug auf die tägliche Mittelwertbildung und Abweichung.“

Also, es hat offensichtlich nie eine Auswertung weder der Abweichung des Temperatursensor-Rauschens noch der stationsbezogenen Abweichungen stattgefunden für diejenigen Messstationen stattgefunden, deren Messungen in die globale Mittelwertbildung eingehen. Schlechte Stationsgüte wurde größtenteils denjenigen Stationen bescheinigt, die unabhängig untersucht worden sind. Schließlich haben Lin und Hubbard nachgewiesen [35], dass variable Bedingungen im Feld eine nicht-lineare systematische Auswirkung auf das Messverhalten der Sensorelektronik ausüben. Das deutet auf wahrscheinliche nicht-stationsbezogene Rauschvarianzen in den Zeitreihen der Temperaturmessungen der jeweiligen Bodenstationen hin.

4. Zusammenfassung und Ergebnisse

Die Annahme eines globalen stationseigentümlichen Sensor-Rauschens ist empirisch noch nicht überprüft worden und noch nicht bestätigt. Die geschätzte Unsicherheit im Rauschens setzt sich eher mit fort als mit . Die Unsicherheit in den monatlichen Mittelwerten würde außerordentlich vermindert, wenn die Positionierung der Bodenmessstationen verbessert würde und die Varianzen des Sensor-Rauschens bekannt, überwacht und empirisch als stationseigentümlich verifiziert würden.

Die Untergrenze der Unsicherheit von ±0.46 C zeigt, dass der Trend der gemittelten globalen Temperatur-Anomalien zwischen 1880 und 2000 statistisch nicht von 0 C auf der 1? – Ebene unterschieden werden kann. Daher ist die Schlussfolgerung unabweisbar, dass es derzeit unmöglich ist, einen globalen Erwärmungstrend des Klimas seit 1880 zu quantifizieren.

Das Papier kann vom Verlag Multi-Science bezogen werden: 

Ich bitte jeden, der diese Arbeit schätzt und mehr wissen will, den Verlag durch den Kauf einer Kopie des Papiers über die oben angegebene Adresse zu unterstützen.

Glückwünsche an Herrn Frank für sein schwere Arbeit und die erfolgreiche Publikation. Ich bin sicher, dass seine Arbeit noch zitiert werden wird.

Bei Jeff Id bei Air Vent gibt es eine technische Diskussion darüber, die einen Besuch wert ist.

Antony Watts

Zu einer vergleichbaren Aussage kommt R. Lindzen bei seiner Aussage vor dem Senatsausschuss 2007: (Seiten 10,11 & 12)

Die Übersetzung besorgte Helmut Jäger




Die Niederlande steigen aus der Förderung von Offshore Windrädern aus und fördert stattdessen die Kernkraft!

Die neue rechtsgerichtete niederländische Regierung hat eine radikale Überarbeitung der niederländischen Energiepolitik angekündigt. Sie baut die Subventionen für die meisten erneuerbaren Energien drastisch ab und setzt sogar allen Subventionen für Offshore-Windkraft, Solarenergie und große Energieerzeugung aus Biomasse ein Ende. Sie befürwortet auch  neue Kernkraftwerke – zum ersten Mal seit der Katastrophe von Tschernobyl 1986 hat eine holländische Regierung so etwas getan. Aber nicht alles ist für den Sektor der erneuerbaren Energien verloren: das Kabinett ist noch am Nachdenken über eine langfristige Strategie und einen "Grünen Deal", der die Niederlande vielleicht doch noch auf eine "grünere" Schiene setzen könnte. 

Sonnenuntergang für holländische grüne Subventionen

Vermutlich war es die große Subventionierung eines 600 MW-Offshore-Windparks durch die  vorherige Regierung, welche das neue niederländische Kabinett veranlasste, einige drastische Änderungen an der bestehenden Unterstützung für erneuerbare Energien zu machen. Im Mai 2010 hatte die vorherige Regierung angekündigt, dass der deutsche Windenergie-Investor BARD ENGINEERING eine Zuschuss bis zu maximal 4,5 vom niederländischen Steuerzahler für den Bau von zwei 300-MW-Offshore-Windparks vor der nordfriesischen Küste erhalten sollte. Die neue rechte Regierung, eine Koalition der liberalen VVD und der christlich-demokratischen CDA, unterstützt von der Anti-Islam Partei PVV, entschied, sie würden nicht den gleichen Fehler machen. Während des Wahlkampfes hatte der neue Premierminister, Mark Rutte von den Liberalen, die staatliche Unterstützung für große Windkraftanlagen mit den Worten verspottet: "Die Zuschüsse drehen die Windmühlen". 

Das am 30. November vom schwergewichtigen Maxime Verhagen, Christdemokrat und neuer Minister für Wirtschaft, Landwirtschaft und Innovation, vorgestellte Konzept für die erneuerbare Energie stellte mit seinen großen Kürzungen der grünen Zuschüsse von 4 Mrd. pro Jahr auf 1,5 Mrd. keine Überraschung dar. Die neue Regelung ist mehr als eine Kürzung – sie zielt auch auf eine radikale Überarbeitung der bestehenden Verfahren zur Vergabe von Subventionen ab. Man will "effiziente" (billige) Formen der erneuerbaren Energieerzeugung belohnen, so z. B. die Windenergieerzeugung an Land, und nicht die relativ ineffiziente (teure) Offshore-Windenergieerzeugung.

Defizit

Im vorherigen Verfahren (bekannt unter der holländischen Abkürzung SDE) flossen die Subventionen für verschiedene Formen der erneuerbaren Energien für einen festgelegte Zeitraum (normalerweise 15 Jahre). Die Höhe der Subvention wurde aus der Differenz zwischen den Kosten der jeweiligen Energieerzeugungstechnik und den Kosten der Energieerzeugung aus fossilen Quellen ermittelt. Dieses sogenannte "Defizit" wird jährlich vom holländischen Energieforschungsinstitut ECN berechnet.

Nach neuen Regel wird die holländische Regierung die Subventionen ganz anders zuweisen.

So erhielt z. B. die Offshore-Windenergie im vergangenen Jahr 9,7 ct pro kWh, die landerzeugte 4 ct, solarerzeugte 43 ct, usw. – das alles aufgrund des vom ECN festgesetzten “Defizits”. Diese System unterstützt relativ uneffiziente (teuere) und effiziente (billige) Formen der erneuerbaren Energien gleichermaßen, weil sie alle mit dem Ziel unterstützt werden, sie im Vergleich mit gas- oder kohleerzeugter Energie wettbewerbsfähig zu machen.

Im neuen Reglement (ein wenig irreführend SDE-plus genannt), das Mitte 2011 in Kraft treten soll, wird die Regierung die Mittel auf völlig unterschiedliche Weise verteilen, und das ist sehr komplex. Im Windhund-Verfahren werden die Subventionen in vier Stufen zugewiesen.

1) In der ersten Stufe wird eine Subvention von 9 ct pro kWh (oder 79 ct pro Kubikmeter Gas) angeboten, aber nur Für Erzeuger mit Techniken, die "Defizite" von unter 9 ct haben. Aufgrund der Zahlen vom ECN sind das: Biogas, Wasserkraft, Müll-Energieerzeugung, Gas aus Fermentierungsprozessen.

2) Wenn dann noch Geld übrig ist, geht es in die zweite Stufe, wo eine Subvention von 11 ct pro kWh (oder 97 ct pro Kubikmeter Gas) angeboten wird. Diese Stufe steht für die Erzeuger von landgestützter Windkraft und Gaserzeugern aus Dünger offen.

3) Wenn immer noch Geld übrig ist, wird in der dritten Stufe mit 13 ct pro kWh oder 114 ct pro Kubikmeter Gas unterstützt. Diese Stufe ist für die Energieerzeuger aus Wasserkraft und kleiner Biomasse offen.

4) Die vierte und letzte Stufe (15 ct pro kWh oder 132 ct pro Kubikmeter Gas) steht den Energieerzeugern als aller Art von Fermentierungsprozessen offen.

Nicht eingeschlossen in allen vier Kategorien sind Solarkraft, Biomasse in großem Umfang und offshore Windkraftwerke weil sie allesamt zu teuer sind.

Es gibt aber auch einen Vorteil. Die Regierung hat eine "freie Kategorie" von Antragstellern definiert. Die können sich um Subventionen in allen vier Kategorien bewerben. Wer kann sich für diese "freie Kategorie" qualifizieren? Zu allererst alle diejenigen, die in einer der in den vier Stufen genannten Energieerzeugung tätig sind. Zweitens die Erzeuger einer begrenzten Anzahl von erneuerbaren Energieformen mit Defiziten über 15 ct pro kWh, vor allem thermische Umwandlung von Biomasse (< 10 MW), Solarenergie (> 15 kWp), Osmose und Geothermie.

Die neue holländische Energiepolitik für offshore Windenergie steht in starkem Gegensatz zu den Nachbarländern.

So können sich z. B. Firmen aus dem landgestützten Windenergiegeschäft (eine Technik aus der zweiten Stufe) für Subventionen von 9 ct. pro kWh in der ersten Stufe bewerben. Oder, um ein anderes Beispiel zu nennen, Solarenergieerzeuger können sich für Subventionen in allen vier Stufen bewerben, aber im Falle der Gewährung müssen sie sich mit einer deutlich geringeren Unterstützung abfinden als unter dem von der ECN definierten Defizit-Regime.

Große Biomasse- und Offshore-Windkraft-Erzeuger befinden sich noch nicht einmal in der "freien Kategorie". Anders gesagt, sie werden überhaupt keine Subventionen erhalten. Die Großbiomassenerzeuger werden laut Ministerium deswegen ausgeschlossen, weil sie danach tendierten, ein großes Stück der Subventionen in der Vergangenheit abzugreifen. Dennoch hat die Regierung den Energieerzeugern versprochen, noch "einen alternativen" Weg zu finden, um diese Form der erneuerbaren Energie zu fördern.
Das wird wahrscheinlich ein Art von Regierungsauflage zur Verbrennung eines Anteils von Biomasse in Kohlekraftwerken sein. Für die Offshore-Winderzeuger sieht die Zukunft sehr düster aus: sie werden nirgendwo im neuen Konzept erwähnt. Hier zeigt sich eine scharfe Kehrtwendung zur Politik der vergangenen Regierungen, die ein Ziel von 6.000 MW Offshore-Windkrafterzeugung für 2020 gesetzt hatten. Bislang sind nur 220 MW Offshore-Windkraftkapazität im holländischen Teil der Nordsee installiert worden. Jetzt sieht es so aus, dass die beiden hochsubventionierten 300 MW Parks von BARD ENGINEERING die einzigen sind, die in absehbarer Zukunft hinzukommen, mit der Ausnahme eines etwa 100 MW Parks, der noch nach den Regeln des auslaufenden Regimes gefördert wird.

Die neue niederländische Energiepolitik für Offshore-Windparks steht in scharfem Kontrast zu den Nachbarländern. Deutschland, England, Dänemark und Irland sind immer noch fest entschlossen, die Windenergieerzeugung in ihren territorialen Gewässern auszubauen. Die Meinungen der Regierung in Den Hag scheint mehr im Einklang mit der Zentrale von SHELL zu stehen, die sich nur in geringer Entfernung vom niederländischen Parlament befindet. Im Oktober 2010 hat der Vorstandsvorsitzende von SHELL, Peter Voser, die große Subventionierung von BARD ENGINEERING offen kritisiert. SHELL hat sich 2008 aus dem Windenergiegeschäft wegen der damit verbundenen hohen Kosten zurückgezogen.

Grüner Deal

Hauptgrund für die neuen Subventionierungspolitik ist laut Aussagen des Ministers, dass "die Niederlande das europäische Ziel für erneuerbare Energien auf die kostenwirksamste Weise erreichen wollen". Anders gesagt, Kosten werden gesenkt. Das SDE-plus Regime wird für den holländischen Haushalt sehr "kostenwirksam" werden, weil die Verbraucher für die Energie in Form von Aufschlägen auf ihre Elektrizitäts- und Gasrechnung bezahlen müssen. Das alte SDE-Regime beruhte auf Zahlungen aus dem Haushalt. Etwa eine Hälfte der neuen Aufschläge wird auf das Konto der Privathaushalte entfallen, die andere Hälfte auf Industrie und Gewerbe. Zusätzlich erwägt die Regierung eine gesonderte "Kohle- und Gas-Steuer" zu erheben.

Maxime Verhagen, Ministe für Wirtschaft, Landwirtschaft und Innovation: ‚Massive EU-Finanzierung der Energie-Infrastruktur wird die Märkte zerstören‘

Heißt das, die Niederlande gäben ihre offshore Windenergieerzeugung und andere "teure" Formen der erneuerbaren Energie völlig auf? Dieser Schluss wäre etwas verfrüht. Auf einer vom renommierten Clingendael International Energy Programme (CIEP) veranstalteten Konferenz in Den Hag am 11. Januar, betonte Minister Verhagen, dass die Regierung zwei Linien verfolge: eine kurzfristige und eine langfristige. Das neue Subventionierungsschema soll als kurzfristige Maßnahme gesehen werden. Als Bestandteil der längerfristigen Strategie möchte die Regierung die Investitionen, Innovationen, Forschung und Entwicklung von offshore Windenergie und anderer "teurer" Formen der "Erneuerbaren" verstärken.

Auf derselben Konferenz erklärte der Generaldirektor für Energie, Telekommunikation und Märkte in Verhagens Ministerium, Hans Vijlbrief, dass die vergangene Politik auf einem Missverständnis beruht hätte. Er sagte: "Wir haben versucht, die Förderung der Innovation und Produktion gleichermaßen zu vermischen. Das funktioniert nicht." Im neuen Konzept sind die beiden Anreizsysteme getrennt. Die Regierung wird ihre Anstrengungen darauf richten, die offshore Windenergie, vielleicht auch auf die Solarenergie und großvolumige Biomassenenergie billiger zu machen, bevor sie die Produktion fördert.

Im April will die Regierung ein neues Energiekonzept vorlegen, das die langfristigen Pläne in größerem Detail enthält. Gleichzeitig versprach Verhagen, mit einem Fächer von politischen Initiativen unter dem Namen "Grüner Deal" herauszukommen. Ziel dieses noch in Bearbeitung befindlichen Plans ist, die Initiativen für Energieeffizienz und lokale nachhaltige Energieprojekte zu fördern. Als Bestandteil des "Grünen Deals" betrachtet die Regierung die Möglichkeit, einen Finanzierungstopf zu schaffen, um beispielsweise Hauseigentümer zu fördern, die in Energiesparmaßnahmen investieren wollen.

Kernkraft

Ein zweiter Gezeitenwechsel in der holländischen Energiepolitik der rechten Regierung ist die bewusste Hinwendung zur Kernkraft.

Das Kabinett fordert zu Anträgen für den Bau neuer KKW auf

Die Niederlande haben nur ein einziges kleines KKW namens Borssele in Zeeland. Es hat eine Kapazität von nur 485 MW. Spätestens seit Tschernobyl hat eine starke Opposition der Sozialdemokraten und anderer Linker Kernkraftprojekte undenkbar gemacht. 1994 hat die Regierung beschlossen, Borssele 2004 zu schließen. 2002 ist das Schließungsdaten auf 2013 verschoben worden. Dann wurde entschieden, das Kraftwerk bis 2033 zu betreiben. Neue Kernkraftprojekte waren aber von den verschiedenen vergangenen Koalitionsregierungen abgelehnt worden.

Damit ist nun seit der Machtübernahme durch die neue rechte Koalition Schluss. Das neue Kabinett hat klargestellt, dass es Anträge auf neue Kernkraftwerke befürwortet. In der Koalitionsvereinbarung vom 30. September steht, dass " … mehr Kernkraft nötig ist, um CO2-Verminderungsziele und geringere Abhängigkeit in der Energieversorgung zu erreichen. Anträge auf Genehmigungen für den Bau eines oder mehrerer neuen Kernkraftwerke, die die Auflagen erfüllen, werden genehmigt werden." Die Regierung hat aber keine Subventionierung versprochen. Auf parlamentarische Anfragen antwortete Verhagen, dass die interessierten Firmen selber die Kosten decken müssten.

In Reaktion auf die neue Politik haben einige Firmen angedeutet, dass sie am Bau neuer KKWs in den Niederlanden interessiert sind. Der Energieversorger DELTA, im Eigentum der Provinzregierung von Zeeland und 50%-iger Eigentümer von Borssele, steht bereits in Verhandlungen mit dem französischen Energieriesen EDF. Beide Firmen befinden sich im fortgeschrittenen Stadium der Vorbereitungen der Beantragung einer Baugenehmigung. Im kommenden Jahr wird der Antrag erwartet.

Borssele ist das einzige holländische KKW

DELTA hat eine Hauptwettbewerber in Energy Resources Holding (ERH), dem anderen 50%-Eigentümer des KKW Borssele. ERH hat ebenfalls die Absicht zum Bau eines neuen KKW in Borssele angekündigt. Die deutliche Rivalität zwischen den beiden Joint-Venture-Partnern von Borssele hat ihre eigene Geschichte. Borssele war als Joint-Venture von DELTA und ESSENT gebaut worden, beide im Eigentum der Provinz- und lokalen Behörden zur damaligen Zeit. Als aber ESSENT 2009 vom deutschen Energieversorger RWE übernommen worden war, hat DELTA mit Erfolg den Verkauf der ESSENT-Anteile an RWE verhindert mit der Begründung, dass die Statuten von Borssele eine Privatisierung verböten. Die früheren ESSENT-Eigner behielten ihre Borssele-Anteile, die sie in eine getrennte Holding einbrachten, die ERH. Eine gerichtliche Klärung ist im Gange, in der festgestellt werden soll, ob das Privatisierungsverbot aufgehoben und ERH an RWE verkauft werden könnte. Im Erfolgsfalle hätte die deutsche Firma die Möglichkeit in den Kernkraftsektor in den Niederlanden einzusteigen. Eine Ironie ist, das Borssele mit RWE-Technologie gebaut worden ist.

Zusätzlich zu DELTA (EDF) und ERH (RWE) haben zwei weitere Kandidaten ihr Interesse am Ausbau der Kernkraft in den Niederlanden gezeigt: ELECTRABEL, Tochter der französischen GDF-SUEZ, des größten Energieerzeugers in den Niederlanden, und die schwedische VATTENFALL, die den holländischen Energieerzeuger NUON 2009 übernommen hat.

Garantien

Der Erfolg eines neuen Kernkraftprojekts in den Niederlanden ist aber keineswegs sicher. Auf der CIEP-Konferenz sagte Verhagen, er erwarte den Antrag von DELTA 2012. Dann würde die Regierung alles in ihrer Macht Stehende tun, um die Genehmigung noch innerhalb der vierjährigen Legislaturperiode zu erteilen, d. h. vor 2015. Das beträfe auch alle anderen Projekte. Es ist aber noch unklar, ob der Minister sein Versprechen wird einhalten können. Die Bearbeitung eines Antrags für ein Kernkraftprojekt ist eine höchst komplexe Angelegenheit. Experten zweifeln, ob die holländische Regierung überhaupt genügend Sachverstand hat, um so etwas zügig zu erledigen.

Für Firmen, die einen Antrag stellen wollen, ist es ebenfalls nicht leicht. Peter Terium, Vorstand von ESSENT sagte, dass 2012 ein "sehr ambitionierter" Abgabetermin für jede Firma wäre. 

Solide gesetzliche Grundlagen und Regeln sind nötig, die nicht nach den nächsten Wahlen über Bord geworfen werden können

Er merkte an, dass allein die Angebotsbearbeitung 10 Mio. Euro für jede Firma kosten könnte, vielleicht auch mehr. Auch sagte er, dass die Energieversorger vor dem Eingehen größerer Investitionen weit bessere Regierungsgarantien brauchten als die reine Absichtserklärung, einen Antrag zu genehmigen. In seinen Worten: "Es muss eine solide gesetzliche Grundlage her, die nach den nächsten Wahlen nicht mehr abgeschafft werden kann."

Ein Regierungssprecher sagte, dass Verhagen einen Entwurf für eine gesetzliche Regelung vorbereite. Der könnte binnen einiger Wochen fertig sein.
Dennoch, wenn es um das Erreichen des CO2-Emissions-Ziels für 2020 geht, wäre die holländische Regierung wohl besser beraten, nicht auf die Kernkraft als Teil der Lösung zu setzen.

Autoren Karel Beckman and Alexander Haje  Hier in Europena Energy Review kann der Artikel im Original gelesen werden. The Dutch lose faith in windmills

Die Übersetzung besorgte Helmut Jäger EIKE