Alarm um das Ausbleiben der globalen Erwärmung: die fortgesetzte Abkühlung könnte die Klimawissenschaft und die Förderung grüner Energien torpedieren!

Bild rechts: Eiszeitliche Erde zum glazialen Maximum.  (Global Biogeochemical Cycles, Vol. 9, 1995, pp. 377-389 (Photo credit: Wikipedia)
Kältere Temperaturen lassen Regierungs-Bürokraten, nach Profit gierenden Kapitalisten-Kumpanen und anderen Krämerseelen, deren Ambitionen von heißer Luft abhängen, den Wind kräftig ins Gesicht blasen. Selbst in Westeuropa, der Wiege der CO2-basierten Klima-Verrücktheit und der Zertifikatehandels-Korruption, fühlt man den kalten Atem. Alister Doyle, Reporter für Reuters in Oslo hat vor Kurzem beobachtet: „Schwaches wirtschaftliches Wachstum und der Stillstand der Erwärmung unterminieren den Willen der Regierung, eine rapide, Milliarden Dollar teure Verschiebung weg von fossilen Treibstoffen durchzuführen. Fast 200 Regierungen haben beschlossen, bis Ende 2015 einen Plan zur Bekämpfung der globalen Erwärmung auszuarbeiten“.
Im April hat das Europa-Parlament in Strassburg gegen ein künstliches Aufblähen des Preises im europäischen Zertifikatehandel votiert, und zwar nach dem Kollaps der Energienachfrage im Zusammenhang mit der ökonomischen Krise des Kontinents. Während der niedrige Preis für Kohlenstoff-Zertifikate für Energieverbraucher großartig ist, kann man sich sicher sein, dass dies durch Befürworter der so genannten „erneuerbaren“ Energie und des Kohlenstoffhandels ganz anders gesehen wird, hängen diese doch von höheren Treibstoffpreisen als der Markt hergibt ab, um im Geschäft zu bleiben. Das Veto des Parlaments reflektiert die ermutigende Erkenntnis, dass die ungerechtfertigte, die Wirtschaft schleifende Rationierung von Kohlenstoff eine wahnhafte Narretei ist.

Himmel… an welchem Punkt sind all die teuren Klimamodelle in die falsche Richtung gelaufen?

Der Kommentar eines Wissenschaftlers in einer Klimagate-E-Mail wurde gründlich missverstanden, als er schrieb: „Es ist unfasslich, dass politische Entscheidungsträger Entscheidungen mit einer Tragweite in Höhe von Milliarden und Billionen Dollar treffen aufgrund der Vorhersagen regionaler Klimaänderungen, die auf Modellen basieren, die nicht einmal in der Lage sind, die Prozesse, die die Klimavariabilität ausmachen, richtig zu beschreiben und zu simulieren“. Wie sich gezeigt hat, haben unsere Politiker diese horrend teuren Entscheidungen getroffen auf der Grundlage von hoch spekulativen Modell-Projektionen, zumeist vom IPCC kommend.
Ein anderer Forscher hat wohl ebenfalls den Punkt getroffen, wenn er einige sehr verstörende Konsequenzen befürchtet: „Was ist, wenn sich die Klimaänderung einfach als eine multidekadische natürliche Fluktuation herausstellt? Wahrscheinlich werden sie uns töten…“ Selbst Paul Ehrlich, am bekanntesten durch sein 1968 erschienenes Buch des Untergangs „The Population Bomb“, erkennt diese Gefahr. In einem Editorial in der Ausgabe von Nature im März 2010 schrieb er, dass eine Barriere von Herausforderungen, die der Vorstellung von einer drohenden globalen Erwärmungs-Katastrophe widersprechen, seine Alarmisten-Kollegen stärker als gewöhnlich alarmiert hat. Und weiter: „Jedermann ist bis zum Anschlag verängstigt, aber sie wissen nicht, was sie tun können”.
Es gibt gute Gründe für diese Betroffenheit bzgl. des sich abkühlenden Klimas. David Whitehouse von der Global Warming Policy Foundation weist darauf hin: „Wenn wir diesen Punkt nicht längst überschritten haben, sitzen wir auf einem großen Haufen globaler Beobachtungen die mit dem Konsens der Theorie der Klimaänderung immer weniger kompatibel sind“. Whitehouse merkt an, dass es seit 1997 keinen statistisch signifikanten globalen Temperaturanstieg mehr gegeben habe. Und weiter: „Wenn der Stillstand der Temperaturen noch einige weitere Jahre anhält, bedeutet das, dass niemand, der gerade das Erwachsenen-Alter erreicht hat oder noch jünger ist, Zeuge einer sich erwärmenden Erde während seines Lebens geworden ist“. (Seit 1997 hat der atmosphärische CO2-Gehalt von 370 ppm auf 390 ppm zugenommen).
Diese beobachteten Entwicklungen haben das Climate Center des UK Met.-Office dazu gebracht, seine Projektionen still und leise zu revidieren. Dort heißt es jetzt: „Die jüngste dekadische Vorhersage zeigt, dass [die Temperatur] während der nächsten fünf Jahre wahrscheinlich etwas niedriger liegen wird als in der Vorhersage zuvor angenommen“. Die vorhergesagte Zunahme von 2013 bis 2017 lag 0,43°C über dem Mittel der Jahre 1971 bis 2000, während es in der Prognose zuvor geheißen hatte, die Temperatur würde von 2012 bis 2016 um 0,54°C zunehmen. Einfacher gesagt, es wird kühler sein, als sie es vorhergesagt haben!
Die Daily Mail  in London veröffentlichte eine Graphik, die ihren Worten nach „enthüllt, wie sehr die IPCC-Schätzung von 95%, mit der sich die Erde erwärmen soll, eine Fehlkalkulation war“. Vergleicht man den aktuellen Temperaturverlauf mit diesen IPCC-95%-Projektionen, verlief die Temperatur bis vor einigen Jahren etwa im projizierten Bereich, während sie seitdem „dabei ist, aus den Grenzen der untersten Grenzwerte auszubrechen“. Angenommen worden war, dass sie nach 1990 stark steigen sollte.
Während das IPCC vorhergesagt hat, dass die Temperatur bis zum Jahr 2050 um 3°C steigen wird, falls sich der CO2-Gehalt der vorindustriellen Zeit von 1750 verdoppelt, bezog das Research Council of Norway die realen Temperaturdaten von 2000 bis 2010 ein und berechnete, dass eine solche Verdoppelung lediglich zu einem Anstieg von 1,9°C führen würde. In einer anderen Studie in dem Journal Proceedings of the National Academy of Sciences werden Temperaturänderungen seit 1750 mit natürlichen Änderungen in Verbindung gebracht (wie zum Beispiel der Wassertemperatur im Atlantik). Dabei zeigt sich: „…der anthropogene globale Erwärmungstrend könnte in der zweiten Hälfte des 20. Jahrhunderts um einen Faktor zwei überschätzt worden sein“.
Peter Stott, ein Forscher, der das jüngste Kapitel im IPCC-Bericht zu globalen Klimaprojektionen geschrieben hatte, kam zu der Überzeugung, dass die Klimamodell-Projektionen eines alarmierenden Temperaturanstiegs mit den derzeitigen Beobachtungen inkonsistent sind. Wenn er und seine Kollegen am UK Met.-Office den von den Modellen projizierten Temperaturanstieg und die tatsächliche gegenwärtige Erwärmung miteinander vergleichen, hat sich der angenommene Temperaturanstieg infolge menschlicher Treibhausgasemissionen substantiell verringert. Mit anderen Worten, je besser die Klimamodelle die Vergangenheit abbilden, umso weniger ängstigend sieht die wahrscheinliche Zukunft aus.
Stott steht nicht allein. Während der letzten zwei Jahre kamen mindestens sieben begutachtete Studien in der wissenschaftlichen Literatur zu dem Ergebnis, dass die Auswirkungen einer Verdoppelung des CO2-Gehaltes in der Erdatmosphäre wahrscheinlich substantiell geringer sind, als das IPCC berechnet hat. Sie haben die Projektionen mit dem gewaltigen Anstieg am Ende ausgeschlossen.
James Annan, einstmals ein starker Verteidiger von Michael Manns infam betrügerischen alarmistischen „Hockeyschläger“ und ein Experte hinsichtlich der „Klimasensitivität“ von CO2 und anderen Einflussgrößen, kam in seinem Blog vor kurzem zu dem Ergebnis, dass sich das IPCC zunehmend einem vollständig unwissenschaftlichen Wirken verschreibt.
Annan weiter: „Da das IPCC seine alten Analysen nicht mehr in irgendeiner bedeutenden Weise verteidigen kann, scheint es, als ob sie sich auf eine substanzlose Haltung verlegen, etwa ‚das ist es, was wir glauben, weil wir unsere Kumpel gefragt haben’ … es hat sich selbst mit seiner politisch bequemen langen Reihe hoher Werte verbündet, und seine Antwort auf neue Beweise ist wenig mehr als sich die Ohren zuzuhalten und zu singen , la la la I can’t hear you’.”
Jene IPCC-Berichte bilden die Basis für die regulatorischen Aktivitäten der EPA im Rahmen des Clean Air Act … genauso wie die Verkündigungen des Präsidenten, dass die politischen Maßnahmen seiner Administration auf „der überwältigenden Beurteilung der Wissenschaft“ beruhen. Im Rahmen seiner Ansprache an die Nation (State of the Union Address), dass die globale Erwärmung bei der Bildung  von tödlichen und zerstörerischen Stürmen wie Sandy eine Rolle spielt, sagte Präsident Obama: „Wir müssen mehr tun, um gegen die Klimaänderung zu kämpfen … Es stimmt, dass kein Einzelereignis einen Trend markiert. Aber Tatsache ist, dass die 12 wärmsten Jahre seit Beginn von Aufzeichnungen alle während der letzten 15 Jahre aufgetreten sind. Hitzewellen, Dürren, Buschfeuer und Überschwemmungen – alle kommen jetzt häufiger vor und sind intensiver“.
Aber hier gibt es eine starke Abweichung von den Fakten. In Wirklichkeit gab es keine Zunahme der Stärke oder Häufigkeit von auf das Festland übergetretenen Hurrikanen, jedenfalls in den fünf Haupt-Hurrikangebieten der Welt während der letzten 50 bis 70 Jahre; es gab keine Zunahme der Stärke und Häufigkeit bei der Entwicklung von Hurrikanen im tropischen Atlantik während der letzten 370 Jahre; die USA erleben derzeit die längste Periode denn je ohne einen Übertritt von Hurrikanen der Kategorie 3 bis 5 auf das Festland; es gab seit 1950 keinen Trend zu einer gesteigerten Häufigkeit starker Tornados (F3 bis F5); es gab keine Zunahme der Größenordnung von Überschwemmungen in den USA während der letzten 85 Jahre; und der langzeitliche Anstieg des Meeresspiegels beschleunigt sich nicht.

Aber, wenn das IPCC falsch liegt, was ist dann mit den jüngsten Hitzewellen?

Unter Verweis auf die hohen Temperaturen in den USA während des vorigen Sommers hat uns der frühere NASA-Mitarbeiter und ewige Anti-fossile-Treibstoffe-Aktivist James Hansen gewarnt, dass „der August die Art Zukunft gezeigt hat, die die Klimaänderung uns und unserem Planeten bringen würde“. Dies nachplappernd hat Al Gore auf seiner Website lamentiert: „schmutziges Wetter wird erzeugt durch schmutzige Energie“ … „eine Menge Leute rufen lauthals ‚mir ist zu heiß!’“. Selbst die NOAA sagte, dass das Festland der USA im Jahr 2012 das wärmste jemals erlebt hat.
Und doch, wie der bekannte Blogger Marc Morano bei Climate Depot feststellt: „Die NOAA kann nur wegen statistischer Tricks behaupten, das Jahr 2012 sei das wärmste jemals gewesen … einschließlich des ‚Anpassens’ von Rohdaten und der Hinzufügung von Daten zum Gesamt-Datensatz von Stationen, die zu Beginn der Aufzeichnungen noch gar nicht existiert hatten. Unterlässt man diese illegitimen Aktionen, zeigt sich, dass es in den dreißiger Jahren immer noch wärmer war als von 1990 bis 2010“.
Vielleicht ist es keine Überraschung, dass wir aus den Medien nicht viel über die Tatsache erfahren haben, dass im Juni vorigen Jahres in 46 US-Städten einschließlich einiger ganz im Süden, bestehende Kälterekorde eingestellt oder gebrochen worden waren … oder das Alaska, das nicht Teil der 48 zusammenhängenden US-Staaten ist, einen der kältesten Winter seit 2000 registriert hatte. Dem Alaska Climate Research Center an der University of Alaska-Fairbanks zufolge war dieser Rekord an 19 der 20 nationalen Wetterstationen aufgetreten, die sich von einer Ecke des Staates bis zur anderen erstrecken.
Die New York Times berichtete atemlos: „Die Temperaturunterschiede zwischen den Jahren werden gewöhnlich in Bruchteilen eines Grads gemessen, aber das Mittel von 55,3°F [ca. 13°C] in den zusammenhängenden Staaten brach den Rekord aus dem Jahr 1998 um ein ganzes Grad Fahrenheit [=ca. ein halbes Grad Celsius]“. Aber aus irgendwelchen Gründen sahen sie keinen Grund zu erwähnen, dass das Jahr 2008 zwei Grad kälter war als 2006, oder dass die Jahre 2000, 2003, 2004, 2008, 2009 und 2010 alle kälter ausgefallen waren als 1998, und zwar mehr als das Jahr 2012 verglichen mit 1998 wärmer ausgefallen war. Und übrigens sollte man nicht vergessen, dass die USA nicht der Globus sind. Jene 48 Staaten repräsentieren lediglich 1,58% der Erdoberfläche.
Die meiste Zeit im Winter 2011/2012 lag die Eisausdehnung in der Beringsee zwischen 20 und 30 Prozent über dem Mittel der Jahre 1979 bis 2000 (hier), wobei im Februar die größte Ausdehnung jemals gemessen worden ist. James Taylor berichtete, dass das antarktische Meereis ebenfalls eine Rekordausdehnung erreichte, wobei die größte jemals gemessene Eismenge am 256. Kalendertag des Jahres 2012 aufgetreten war. Tatsächlich hat sich das antarktische Meereis stetig ausgedehnt, seit die Überwachung mit Satelliten vor 33 Jahren begonnen hat, und die Ausdehnung lag das ganze Jahr 2012 über ununterbrochen über dem 33-jährigen Mittelwert.

Hitze- und Kältewellen der Vergangenheit: Vorsicht bei dem, was man sich wünscht

Vieles des gegenwärtigen Warm-Alarmismus’ konzentriert sich um einen Temperaturtrend, der in den achtziger Jahren begonnen hat, weniger als ein Jahrzehnt, nachdem unser Planet aus einer drei Jahrzehnte langen Abkühlungsphase gekommen war, die viele das Einsetzen einer neuen Eiszeit hat befürchten lassen. Wie sich der Klimatologe und Forbes-Mitarbeiter Patrick Michaels erinnert: „Als ich meine Schulausbildung abgeschlossen habe, war es allgemein verbreitet, dass die Eiszeit jetzt beginnen wird. Ich hatte auch Schwierigkeiten, mich dafür zu erwärmen“. Unter Hinweis auf den gegenwärtigen Alarmismus beobachtet er: „Diese Treibhaushysterie ist nicht die erste Klima-Apokalypse, aber mit Sicherheit die lauteste“.
Der weltbekannte Atmosphären-Wissenschaftler Reid Bryson, einst an vorderster Stelle der Warner vor einer neuen Eiszeit stehend, sagte: „Bevor es genug Menschen gab, um überhaupt einen Unterschied zu machen, vor zwei Millionen Jahren, hat niemand das Klima geändert, und doch hat es sich geändert, oder?“ Bryson sagte den Wisconsin Energy Cooperative News im Jahr 2007: „All dieser Streit darüber, ob die Temperatur steigt oder fällt, ist absurd. Natürlich steigt sie. Sie steigt seit den frühen achtziger Jahren vor der industriellen Revolution, weil wir aus der Kleinen Eiszeit gekommen sind, und nicht weil wir mehr Kohlendioxid in die Luft pumpen“. Er fuhr fort: „Man kann hinausgehen und auf den Boden spucken – das hat die gleiche Auswirkung wie die Verdoppelung des Kohlendioxids“.
Es könnte der Erwähnung wert sein, dass einige Schwergewichte von Sonnenphysikern in den USA wieder einmal vorhersagen, dass der Planet Erde sehr gut in eine verlängerte Periode der Abkühlung eintreten kann, und zwar wegen der langen Dauer geringer Sonnenflecken-Aktivität … potentiell eine weitere kleine Eiszeit. Diese Ankündigung kam von Wissenschaftlern am U.S. National Solar Observatory und dem U. S. Air Force Laboratory und basierte auf drei verschiedenen Analysen des jüngsten Verhaltens der Sonne.
Einer der führenden Solarwissenschaftler der Welt, Habibullo Abdussamatov, Leiter der Russian Academy of Sciences Pulkovo in St. Petersburg und Direktor der Russland-Abteilung der internationalen Weltraumstation, stimmt zu, dass der Planet Erde vor einer langen Kaltperiode stehen könnte. Er weist darauf hin, dass es während der letzten 1000 Jahre fünf mal zu intensiven Kaltphasen gekommen war. Jede einzelne stand in Zusammenhang mit einer Abnahme der Solarstrahlung, so wie wir sie auch jetzt wieder erleben (hier).
Dr. Abdussamatov glaubt: Eine globale Abkühlung (a global freeze) wird kommen, egal ob industrialisierte Länder einen Deckel auf ihre Treibhausgas-Emissionen setzen oder nicht. Die weit verbreitete Ansicht, dass menschliche Aktivitäten ein entscheidender Faktor bei der globalen Erwärmung sind, hat sich aus einer Verwechslung von Ursache und Wirkung ergeben“. Er sagt voraus, dass eine neue Kleine Eiszeit etwa in den Jahren 2013/2014 beginnen wird, die größte Abkühlung wird um das Jahr 2040 erreicht sein, und die Kaltphase (a deep freeze) wird das restliche Jahrhundert über anhalten.
Die letzte Kleine Eiszeit, die sich Mitte des 16. Jahrhunderts ereignet hatte, war allgemein nicht als eine gute Zeit angesehen worden. Diese Zeit, die etwa 150 Jahr gedauert hat, hat in Europa Millionen Todesopfer gefordert und endete nicht lange, nachdem Washingtons Truppen brutale Wintertemperaturen in Valley Forge im Jahre 1777 erdulden mussten und nach dem bitterkalten Rückzug Napoleons aus Russland im Jahr 1812.
Ob die Abkühlung nun weitergeht oder nicht, gibt es überhaupt einen Grund, um in Panik zu verfallen? Nein, und selbst wenn die globale Erwärmung aus welchen Gründen auch immer wieder einsetzt, was sie wahrscheinlich tun wird, jeweils immer wieder unterbrochen durch Abkühlungsphasen, dann wollen wir dankbar sein für die vielen Vorteile für die menschliche Gesundheit und das Wohlergehen, das die Wärme mit sich bringt. Lassen Sie uns feiern, wenn die vom CO2-Gehalt abhängige Landwirtschaft blüht, mit verlängerten Wachstumszeiten und mit abnehmenden Raten von Kältetoten.
Lassen Sie uns die Tatsache akzeptieren, dass sich das Klima aus vielen Gründen ändert. Ohne Erlaubnis oder Hilfe von uns … das hat es immer getan … das wird es immer tun … und nicht immer zum Schlechteren. Und lassen Sie uns skeptisch sein hinsichtlich der Ratschläge von Alarmisten, die offensichtlich von Angst erzeugenden Taktiken abhängen, um uns mit einer Flut von Rechnungen zu überziehen.
Larry Bell
Link: http://www.forbes.com/sites/larrybell/2013/04/30/global-warming-alarm-continued-cooling-may-jeopardize-climate-science-and-green-energy-funding/
Übersetzt von Chris Frey EIKE




Petition der Partei der Vernunft (PDV): Die Entscheidung über den Bau von Windkraftanlagen ist der Bürgerhand zu übergeben.

Die von der PDV-Petition angesprochenen Geschädigten sind, leider immer noch mehrheitlich, unwissende Anrainer, die den Windstrom prinzipiell sogar begrüßen. Er soll nur nicht vor der eigenen Haustüre geerntet werden, denn dann sinkt der Verkehrswert des Hauses und die Bewohner werden durch Schattenwurf und Infraschall geschädigt. „Bloß nicht vor meiner Haustüre“ ist das altbekannte St. Florians Prinzip „Oh heiliger St. Florian, verschon mein Haus, zünd’ andre an!“.
Bürgerinitiativen gegen Windräder könnten eine ganz andere Schlagkraft erhalten, wenn die Betroffenen aufwachten und sich über den gnadenlosen technisch-wirtschaftlichen Schwachsinn von Windernten in Deutschland auf der EIKE-Webseite kundig machen würden.
Die Betroffenen können sich (hier) über die PDV-Petition informieren und durch ihre Unterschrift zu ihrem Gelingen beitragen. EIKE befürwortet und unterstützt die Windenergie-Petition der PDV. In ihr heißt es: „Zweck dieser Petition ist es, die Eigenverantwortung der Bürger vor Ort zu stärken. Vieles in Deutschland geschieht, weil sich der Staat und unfähige, ideologisch verblendete Politiker in das Leben der Menschen auf unzulässige Weise einmischen. Eigenverantwortung und Moral werden Schritt für Schritt abgebaut. Menschen, die nicht einmal für sich selbst Verantwortung übernehmen wollen, werden auch keine Verantwortung mehr für unser Land und für unsere Umwelt übernehmen.“
Für diejenigen der betroffenen Anrainer, die etwas mehr nachdenken möchten, empfehlen wir das Studium der EIKE-Webseite „Energie“. Hier vergeht kaum eine Woche, in der nicht ein Beitrag über den Windradunsinn erscheint. Wer es besonders kurz haben möchte, dem sei der nachfolgende, leicht ergänzte Kommentar eines EIKE-Bloggers empfohlen, der die Fakten in unnachahmlicher Prägnanz auf den Punkt bringt:
Alle grünen Energien basieren im Kern auf folgendem Geschäftsmodell;  zufällig produzierter Strom (zufällig, weil die Sonne nicht immer scheint und der Wind nicht immer ausreichend stark weht) wird super teuer der Allgemeinheit aufs Auge gedrückt, egal ob sie dafür gerade Verwendung hat oder nicht. Im Gegenzug wird von der Allgemeinheit auch noch erwartet, dass sie zusätzlich eine komplette konventionelle Stromversorgungsinfrastruktur mit Backupkraftwerken (Kohle, Kernkraft, Gas) finanziert, für den häufig vorkommenden Fall, dass gerade kein Wind weht oder keine Sonne scheint oder irgend eines der vielen Öko-Wolkenkuckucksheime nicht funktioniert. Schließlich muss die Stromversorgung zu allen Zeitpunkten gewährleistet sein, sonst bricht unser Infrastruktur und Industrieproduktion zusammen. Den meisten Menschen ist nicht klar, dass Wind- und Sonnenstrom zu 100 % von den fossilen Kraftwerken und der Kernkraft abhängen. Und den meisten Menschen ist ebenfalls nicht klar, dass sie dadurch den ohnehin schon teuren Öko-Strom zweimal bezahlen.
EIKE Redaktion




Warum die Daten einer Reanalyse keine Daten sind.


Original-Bildunterschrift: Abbildung 1: OHC integriert von 0 bis 300 m (grau), 700 m (blau) und Gesamttiefe (violett) von ORAS4, repräsentiert von seinen 5 Ensemble-Gliedern. Die Zeitreihen zeigen monatliche Anomalien, geglättet mit einem über 12 Monate gleitenden Mittel mit Berücksichtigung der Basisperiode 1958 bis 1965. Die Schraffierung geht über die Bandbreite der Ensemble-Glieder hinaus, so dass der Spread eine Angabe hinsichtlich der Ungenauigkeit von ORAS4 ist (der nicht alle Quellen von Unsicherheit abdeckt). Die vertikalen farbigen Balken zeigen ein zweijähriges Intervall, die den Vulkanausbrüchen 6 Monate zuvor folgen (wegen des 12-monatigen gleitenden Mittels) sowie dem El Niño-Ereignis von 1997/98, ebenfalls mit 6 Monaten auf beiden Seiten. Unten rechts wird die lineare Steigung eines Satzes globaler Erwärmungsraten in W/m² gezeigt.
Ich habe mir das angeschaut und gesagt „Waaas???“ Ich habe noch nie derartige vulkanische Signale in den Daten des ozeanischen Wärmegehalts gesehen. Was war mir entgangen?
Nun, mir war entgangen, dass Trenberth et al. etwas benutzen, was sie lächerlicherweise „Reanalyse-Daten“ nennen. Aber wie die Überschrift schon zeigt, Reanalyse-„Daten“ sind keinerlei Daten im Wortsinne. Es handelt sich dabei um das Ergebnis eines Computer-Klimamodells, die als Daten verkleidet werden.
Nun ist der grundlegende Gedanke einer „Reanalyse“ kein schlechter Gedanke. Wenn man Daten mit „Lücken“ darin hat, oder wenn Informationen aus bestimmten Zeiten und/oder an bestimmten Orten fehlen, kann man eine Art „Best Guess“-Algorithmus benutzen, um die Lücken zu füllen. Im Bergbau ist diese Prozedur allgemein üblich. Man hat Einzel-Punkttdaten darüber, was im Untergrund los ist. Also verwendet man eine Kriging-Prozedur mit allen verfügbaren Informationen, und man bekommt den Best Guess [= beste Abschätzung?] darüber, was in den datenfreien Lücken passiert. (Man beachte jedoch: wenn man behauptet, dass die Ergebnisse des Kriging-Modells reale Beobachtungen sind; wenn man sagt dass die Ergebnisse des Kriging-Prozesses „Daten“ sind, kann man wegen Fehlinterpretation ins Gefängnis wandern … aber ich schweife ab, das ist die reale Welt und das ist Klima-„Wissenschaft“ in reinster Form).
Die Probleme tauchen auf, sobald man anfängt, immer komplexere Prozeduren durchzuführen, um die Lücken in den Daten zu füllen. Kriging ist reine Mathematik, und man erhält Fehlerbereiche um die Schätzungen. Aber ein globales Klimamodell ist ein horrend komplexes Erzeugnis und gibt überhaupt keine Fehlerschätzung irgendwelcher Art.
Nun, worauf Steven Mosher mit Stolz hinweist, es sind alles Modelle. Selbst so etwas Einfaches wie
Kraft = Masse mal Beschleunigung
ist ein Modell. In dieser Hinsicht hat Mosher also recht.
Das Problem ist, das es solche und solche Modelle gibt. Einige Modelle wie das Kriging sind gut verstanden und verhalten sich wie erwartet. Wir haben das „Kriging“ genannte Modell analysiert und getestet, bis zu dem Punkt, an dem wir seine Stärken und Schwächen verstanden haben, und wir können es mit vollem Vertrauen verwenden.
Dann gibt es noch eine andere Modellklasse mit sehr unterschiedlichen Charakteristiken. Diese nennt man „iterative“ Modelle. Sie unterscheiden sich von Modellen wie Kriging oder F = M x A, weil sie bei jedem Zeitschritt das vorhergehende Modellergebnis als neue Eingangsgröße für das Modell verwenden. Klimamodelle sind iterative Modelle. Ein Klimamodell beispielsweise beginnt mit dem gegenwärtigen Wetter und sagt voraus, wohin sich das Wetter beim nächsten Zeitschritt entwickeln wird (normalerweise eine halbe Stunde).
Dann wird dieses Ergebnis, die Vorhersage für eine halbe Stunde von jetzt an, als Eingangsgröße für das Klimamodell verwendet, und die nächste halbe Stunde wird berechnet. Man mache das 9000 mal, und man hat ein Jahr Wetter simuliert … waschen, spülen und genügend oft wiederholen, und – voila! Jetzt hat man das Wetter vorhergesagt, von halber Stunde zu halber Stunde, die ganze Zeit bis zum Jahr 2100.
Es gibt zwei sehr, sehr große Probleme bei iterativen Modellen. Der erste ist, dass Fehler dazu tendieren, sich zu akkumulieren. Falls man eine halbe Stunde auch nur ein wenig ungenau berechnet, beginnt die nächste halbe Stunde mit schlechten Daten, so dass die Ergebnisse noch stärker abweichen; und so weiter, bis das Modell vollständig von der Rolle ist. Abbildung 2 zeigt eine Anzahl von Modellläufen des Klimavorhersage-Klimamodells…
 
Abbildung 2: Simulationen von www.climateprediction.net. Man beachte, dass eine signifikante Anzahl von Modellläufen weit unter die Eiszeit-Temperaturen zurück gehen… schlechtes Modell, keine Cookies!
Sehen Sie, wie viele der Modellläufe von der Rolle springen und entweder in eine Schneeball-Erde münden oder Temperaturen der Stratosphäre anzeigen? Das ist das Problem der akkumulierten Fehler in Reinform.
Das zweite Problem mit iterativen Modellen besteht darin, dass wir oftmals keine Ahnung haben, wie das Modell zu seiner Antwort gekommen ist. Ein Klimamodell ist so komplex und wird so oft wiederholt, dass die internen Prozesse des Modells oftmals total undurchsichtig sind. Man stelle sich vor, dass man als Ergebnis von drei verschiedenen Modellläufen drei sehr verschiedene Antworten erhält. Wir haben keinerlei Handhabe zu sagen, dass die eine Lösung wahrscheinlicher ist als die andere … außer der einen versuchten und echten Methode, die oft in der Klimawissenschaft verwendet wird, nämlich:
Wenn die Ergebnisse unseren Erwartungen entsprechen, handelt es sich um einen guten, brauchbaren, soliden Goldmodell-Lauf. Und wenn es den Erwartungen nicht entspricht, können wir es offensichtlich mit Sicherheit ignorieren.
Wie viele „schlechte” Reanalyse-Läufe enden also im Abfalleimer, weil der Modellierer das Ergebnis nicht mag? Viele, sehr viele, aber niemand weiß wie viele.
Damit als Einführung schauen wir jetzt auf die Reanalyse-„Daten“ von Trenberth, die natürlich alles andere als Daten sind … Abbildung 3 vergleicht die ORAS4-Reanalyse-Modellergebnisse mit den Levitus-Daten [?]:

Abbildung 3: ORAS4-Reanalyse-Ergebnisse für die Schicht zwischen 0 und 2000 m (blau) im Vergleich zu den Levitus-Daten für die gleiche Schicht. Die ORAS4-Ergebnisse wurden aus Abbildung 1 digitalisiert. Man beachte, dass die OSAR4-„Daten“ vor etwa dem Jahr 1980 Fehlerbalken vom Boden bis zur Decke haben und daher wenig brauchbar sind (siehe Abbildung 1). Die Daten sind an ihren Startpunkt 1958 angeglichen (1958 = 0)
In Abbildung 3 treten die Schwächen des Reanalyse-Modells klar hervor. Die Computermodelle sagen einen großen Rückgang des OHC durch Vulkane voraus… was offensichtlich nicht geschehen ist. Aber anstatt diese Realität keiner OHC-Änderung nach den Ausbrüchen einzubringen, hat sich das Reanalyse-Modell die Daten einfach zurecht gebogen, so dass es nun den vermeintlichen Rückgang nach den Eruptionen zeigen konnte.
Und das ist das zugrunde liegende Problem, wenn man Reanalyse-Daten wie reale Daten behandelt – sie sind nichts dergleichen. Alles, was das Reanalyse-Modell tut ist, den effektivsten Weg zu finden, die Daten so zu verändern, dass sie den Phantasien, den Vorerwartungen und den Fehlern der Modellierer entsprechen. Hier möchte ich noch einmal den Plot zeigen, den ich schon in meinem vorigen Beitrag gezeigt habe. Dieser zeigt alle Arten der verschiedenen Messungen der Ozeantemperatur, von der Oberfläche bis hinab zu den tiefsten Tiefen, die wir extensiv vermessen haben, zwei Kilometer tief.


Abbildung 4: Messungen der ozeanischen Temperaturen. Es gibt zwei Messungen an der Oberfläche, nämlich von ERSST und ICOADS, zusammen mit individuellen Schicht-Messungen für drei separate Schichten von Levitus. ACHTUNG! Abbildung 4 ist aktualisiert worden, nachdem Bob Tisdale darauf hingewiesen hatte, dass ich aus Versehen geglättete Daten für die Oberflächentemperaturen verwendet hatte.
Was mich angeht – jeder, der Abbildung 4 betrachtet und dann behauptet, dass man die Auswirkungen der Eruptionen des Pinatubo und des El Chichon sowie des Agung in diesen tatsächlichen Daten erkennen kann, halluziniert. Es gibt keinen sichtbaren Effekt. Ja, es gibt einen Rückgang der SST im Jahr nach Pinatubo … aber die voran gegangenen beiden Rückgänge waren größer, und es gibt keinen Rückgang im Jahr nach El Chichon oder Agung. Außerdem waren die Temperaturen in den beiden Jahren vor Pinatubo stärker gestiegen als sie danach zurückgegangen sind. Nimmt man all das zusammen, sagt es mir, dass es nicht einmal den Hauch einer Chance gibt, dass Pinatubo einen kleinen Rückgang nach sich gezogen hätte.
Aber die armen Klimamodellierer sind gefangen. Die einzige Möglichkeit, dass sie behaupten können CO2 werde zum befürchteten Thermageddon besteht darin, die Klimasensitivität sehr hoch anzusetzen.
Das Problem ist Folgendes: wenn die Modellierer eine sehr hohe Sensitivität ansetzen wie 3°C pro Verdoppelung des CO2-Gehaltes, führt das zu einer starken Überschätzung der Auswirkungen durch Vulkanausbrüche. Man kann dies eindeutig in Abbildung 3 erkennen, die die Reanalyse-Modellergebnisse zeigt, die Trenberth trügerisch „Daten“ nennt. Verwendet man das berühmte Bett des Procustes [?] als das zugehörige Beispiel, hat das Modell einfach die realen Daten modifiziert und angepasst, um den Phantasien der Modellierer hinsichtlich einer hohen Klima-Sensitivität gerecht zu werden. Kurz gesagt, das Reanalyse-Modell hat die realen Daten einfach so lange vermischt, bis sie die starken Rückgänge nach den Ausbrüchen zeigen … und das soll Wissenschaft sein?
Aber bedeutet das jetzt, dass alle Reanalyse-„Daten“ Schwindel sind?
Nun, das wirkliche Problem ist, dass wir auf diese Frage die Antwort nicht kennen. Die Schwierigkeit ist, dass es wahrscheinlich erscheint, dass einige der Reanalyse-Ergebnisse gut sind und andere nutzlos, aber im Allgemeinen haben wir keine Möglichkeit, zwischen den beiden zu unterscheiden. Dieser Fall von Levitus et al. ist eine Ausnahme, weil die Vulkane das Problem haben hervor treten lassen. Aber in vielen Anwendungen von Reanalyse-„Daten“ gibt es keine Möglichkeit zu erkennen, ob sie gültig sind oder nicht.
Und wie Trenberth et al. bewiesen haben, können wir uns definitiv nicht von Wissenschaftlern abhängig machen, die die Reanalyse-„Daten“ verwenden, um auch nur den Hauch einer Andeutung einer Untersuchung zu machen, ob sie gültig sind oder nicht …
(Übrigens, lassen Sie mich einen Grund nennen, warum Klimamodelle sich mit Reanalysen schwertun – die Natur weist allgemein Ecken und Kanten auf, während die Klimamodelle allgemein Glättungsverfahren durchführen. Ich habe einen großen Teil meines Lebens auf dem Ozean verbracht. Ich kann versichern, dass man selbst mitten auf dem Ozean oft eine ausgeprägte Linie zwischen zwei verschiedenen Wasserarten erkennt, wobei die eine signifikant wärmer ist als die andere. Wolken haben ausgeprägte Kanten, und sie bilden sich und vergehen wieder ohne viel „dazwischen“. Der Computer ist nicht sehr gut in der Verarbeitung dieses Ecken-und-Kanten-Zeugs. Wenn man es dem Computer überlässt, die Lücke zwischen zwei Beobachtungen zu füllen, sagen wir 10°C und 15°C, kann der Computer das perfekt – wird es aber generell graduell und glatt machen, also 10, 11, 12, 13, 14, 15.
Aber wenn die Natur diese Lücke füllt, ist es viel wahrscheinlicher, dass es so aussieht: 10, 10, 10, 14, 15, 15 … die Natur macht zumeist nichts „graduell“. Aber ich schweife ab…)
Heißt das, dass wir niemals Reanalysen benutzen sollten? Nein, keinesfalls. Kriging ist ein exzellentes Beispiel eines Typs von Reanalyse, der wirklich wertvoll ist.
Was diese Ergebnisse wirklich bedeuten: Wir sollten aufhören, die Ergebnisse von Reanalyse-Modellen „Daten“ zu nennen, und wir sollten DIE REANALYSE-MODELLERGEBNISSE EXTENSIV TESTEN, bevor wir sie verwenden. [Blockschrift im Original]
Diese Ergebnisse bedeuten auch, dass man extrem vorsichtig sein sollte, wenn Reanalyse-„Daten“ als Eingabegrößen für ein Klimamodell verwendet werden. Wenn man das tut, benutzt man die Ergebnisse eines Klimamodells als Eingabegrößen für ein anderes Klimamodell … was allgemein eine Very Bad Idea™ aus einer ganzen Reihe von Gründen ist.
Außerdem sollte man in allen Fällen, in denen man Reanalyse-Ergebnisse verwendet, genau die gleiche Analyse unter Verwendung der realen Daten durchführen. Das habe ich in Abbildung 3 oben getan. Hätten Trenberth et al. diese Graphik zusammen mit ihren Ergebnissen gezeigt … nun … falls sie das getan hätten, wäre ihre Studie wahrscheinlich überhaupt nicht veröffentlicht worden.
Was vielleicht der Grund gewesen sein könnte oder auch nicht, diese vergleichende Analyse nicht zu präsentieren, und warum sie versucht haben zu behaupten, dass die Ergebnisse von Computer-Modellen „Daten“ sind…
Willis Eschenbach
Anmerkung: Die Studie von Trenberth et al. identifiziert als tiefste Schicht als von der Oberfläche bis in die „totale Tiefe“ reichend. Allerdings zeigt die Reanalyse keinerlei Änderungen unter 2000 m, so dass dies ihre „totale Tiefe“ ist.
DATEN:
The data is from NOAA , except the ERSST and HadISST data, which are from KNMI.
The NOAA ocean depth data is here.
The R code to extract and calculate the volumes for the various Levitus layers is here.
Link: http://wattsupwiththat.com/2013/05/10/why-reanalysis-data-isnt-2/
Übersetzt von Chris Frey EIKE




Die grüne Hölle der EU

Bild rechts: Windturbinen erzeugen grüne Energie in Nauen bei Berlin. Quelle: Ferdinand Ostrop/AP Photo
Das Spektrum der grünen Stagnation, der Verlust der Wettbewerbsfähigkeit und der wirtschaftliche Abschwung haben 20 Jahre kollektives Wunschdenken ersetzt. Die grüne Narretei basierte auf zwei apokalyptischen Befürchtungen: erstens, dass die globale Erwärmung eine unmittelbare Bedrohung war, die um jeden Preis verhindert werden musste, und zweitens, dass der Welt die fossilen Treibstoffe ausgehen werden, womit gemeint war, dass Öl und Gas unweigerlich immer teurer werden würden. Beide Vermutungen stellten sich jedoch inzwischen als falsch heraus [was die deutschen Medien wohl niemals mitkriegen werden! A. d. Übers.].
Der nicht vorhergesagte Stopp der globalen Erwärmung seit dem Jahr 1997 hat klargemacht, dass die Klimamodelle des IPCC die Dringlichkeit irgendeines Klimarisikos künstlich aufgebauscht haben, während das plötzliche Auftauchen enormer Vorräte an Schiefergas und –öl die Peak-Oil-Hysterie beendet hat
Mittlerweile sind jedoch die EU und ihre schwächelnden Ökonomien Gefangene der selbst angelegten Fesseln geworden. Der einst blühende Kontinent findet sich in einer selbst gestellten Falle von erneuerbaren Energie-Verpflichtungen und einheitlichen Klimazielen, die unerschwinglich teuer sind.
Die grüne Ideologie der Grenzen des Wachstums hat sich in eine sich selbst erfüllende Prophezeiung gewandelt. Mit der ökologisch begründeten Zurückweisung traditioneller Industrien, der Behinderungen neuer Technologien zusammen mit einer fast allumfassenden Feindseligkeit gegen jede Form des konventionellen (geschweige denn des unkonventionellen) Energieverbrauchs entfernt sich das Zentrum ökonomischen Wachstums und Innovation immer weiter von einem alternden und depressiven Europa.
Die grüne Energiewende in Deutschland allein könnte die Energieverbraucher mit bis zu einer Billion Euro belasten.
Grünen Prophetien des klimatischen Untergangs und salvationistischer Zentralpläne zur Schaffung von Millionen grüner Arbeitsplätze wird nicht länger vertraut. Anstelle der von politischen Führern und Aktivisten versprochenen blühenden grünen Energie wird Europa jetzt mit einer Wettbewerbs-Krise und einem ökonomischen Albtraum von fast 27 Millionen Arbeitslosen sowie dem drohenden Bankrott mehrer Länder konfrontiert.
Die europäischen Hersteller, die rapide an Boden hinsichtlich des internationalen Wettbewerbs verlieren, haben Pläne zur Expansion in die USA verkündet. Anstatt in der EU mit seiner teuren Energie zu investieren, verschieben sie hunderte Millionen Dollar in die USA, wo die Energiepreise inzwischen auf ein Drittel des Niveaus der EU gefallen sind, hauptsächlich wegen der Schiefergas-Revolution. Industriebosse warnen, dass noch mehr Hersteller in die USA gehen werden, wenn die Energiepreise nicht signifikant sinken. Sie machen einseitige Energieziele und die grüne Opposition gegen die Förderung von Schiefergas für die Energiekrise verantwortlich und warnen, dass dies zu einer der größten Bedrohungen für die europäische Industrie geworden ist.
Dem österreichischen Energie-Regulator zufolge haben die europäischen Verbraucher die Investoren in erneuerbare Energien bislang mit der erschreckenden Summe von 600 Milliarden Euro seit dem Jahr 2004 subventioniert. Die deutsche Energiewende allein könnte den Energieverbraucher bis zum Jahr 2020 mit bis zu einer Billion Euro zu stehen kommen.
Der naive Glaube der politischen Entscheidungsträger, dass die Hauptwettbewerber dieser Verschiebung von billigem fossilem Treibstoff hin zu teurer grüner Energie einfach folgen würden, hat sich in Rauch aufgelöst. Wie die Washington Post kürzlich gewarnt hat, ist „Europa ist zu einem Fall eines grünen Abfallkorbes geworden. Anstatt ein Modell zu zeigen, das beispielhaft für die Welt ist, ist Europa zu einem Modell dessen geworden, was man nicht tun sollte“.
Den EU-Führern beginnt das enorme Ausmaß ihres Fiaskos grüner Energie zu dämmern. Am 22. Mai werden sie sich in Brüssel zu einem Energiegipfel treffen, um zu besprechen, wie man dieser Krise begegnen könnte. „Hohe Energiepreise und Kosten behindern die Wettbewerbsfähigkeit Europas“, heißt es in einem durchgesickerten EU-Dokument, das auch darauf hinweist, dass die EU ihre nicht nachhaltige,  kostspielige Klimapolitik wird überdenken müssen.
Der europäische Zertifikatehandel, der während der letzten Monate mehr oder weniger kollabiert ist, hat die Verbraucher bis heute mehr als 300 Milliarden Euro gekostet. Massive Mengen grüner Investitionen, die mit einem bevorstehenden hohen Kohlenstoffpreis begründet worden waren, sind verflogen und nicht mehr verfügbar.
In den meisten Mitgliedsstaaten der EU sind die Energiepreise in die Höhe geschossen, während Millionen Familien in die Energiearmut getrieben worden sind. Öffentliche Proteste gegen die steigenden Energiepreise zwingen den Gesetzgeber, die Unterstützung für kostspielige politische Maßnahmen einzustellen, die normale Familien schädigen. Der rapide Verfall der Wettbewerbsfähigkeit hat die Regierungen alarmiert. Zum ersten Mal sind Viele nicht länger gewillt, die grüne Agenda als prioritär anzusehen, die die grüne Lobby bis in ihre Randbereiche betreibt.
Als Folge gibt es inzwischen Anzeichen, dass einige Regierungen versuchen, sich mit ihrer Politik von der grünen Agenda zu distanzieren und zu den goldenen Tagen ökonomischen Realismus’ zurückzukehren. Und doch bleibt die Frage im Raum, ob die europäischen Führer tatsächlich das grüne Glaubenssystem überwinden und diesem selbst eingebrockten Öko-Desaster entkommen können. Vor allem das Wettrennen zur Ausbeutung von Schiefergas wird darüber entscheiden, ob die Politiker die Schlacht gegen die massive grüne Ablehnungsphalanx gewinnen können.
Ohne die Entwicklung einer neuen pragmatischen Politik und einer starken Verteidigung einer Strategie für billige Energie gegen die grüne Opposition wird es vielen Regierungen nicht gelingen, sich von den grünen Fesseln zu befreien, die den technologischen Fortschritt und das ökonomische Vorankommen behindern. Aber selbst dann muss vieles des grünen Ballastes, der Europa behindert, über Bord geworfen werden, wenn Europa mit der übrigen Welt mithalten will.
Gerade weil die sozialistische Planwirtschaft so grandios gescheitert ist, bevor sie durch die freie Marktwirtschaft ersetzt wurde, muss die grüne Planwirtschaft erst vollständig verworfen werden, bevor Europa wieder in der Lage sein wird, zu ökonomischem Wachstum und technologischem Optimismus zurückzukehren.
Benny Peiser, Special to Financial Post
Benny Peiser is the director of the London-based Global Warming Policy Foundation. He will be the guest speaker at the 10th Annual Friends of Science luncheon in Calgary on May 14.
Link: http://opinion.financialpost.com/2013/05/13/the-eu-green-hell/
Übersetzt von Chris Frey EIKE




Der Schiefer-Boom ist eine Pleite für die Gaskraftwerke in Europa

Bild rechts: Gaskraftwerke in Europa verlieren gegen die Kohlekraftwerke, sind diese doch gegenwärtig wettbewerbsfähiger hinsichtlich Stromerzeugung und Verbrauchspreise. Auf dem Bild rechts sieht man ein Gaskraftwerk des deutschen Energieriesen E.ON in Bayern. (Reuters)
Das norwegische Staatliche Energieunternehmen Statkraft sagte vor Kurzem, dass es ein Gaskraftwerk in Deutschland geschlossen hat, weil es mit seinen mit Kohle befeuerten Rivalen nicht mithalten konnte. Und der deutsche Energieriese  E.ON EOAN.XE +0.23% SE ließ verlauten, dass man sich ernsthaft überlege, weitere Gaskraftwerke stillzulegen, einschließlich eines hypermodernen Kraftwerkes in der Slowakei.
Andere europäische Unternehmen haben ähnliche Aktionen durchgeführt, was die Politiker vor ein Dilemma stellt – billigerer Kohlestrom könnte für die schwächelnden Ökonomien der Region eine gewisse Erleichterung bedeuten, ist aber unvereinbar mit langfristigen Zielen der Reduktion von Kohlenstoff-Emissionen und erneuerbarer Energie.
Die Stilllegungen in ganz Europa sind ein weiteres Beispiel für die weit reichenden Auswirkungen des nordamerikanischen Booms hinsichtlich der Energieversorgung. Die rasant steigenden Vorräte an Erdgas in Nordamerika, zugänglich aus Schiefergestein durch eine neue, unter dem Namen hydraulisches Brechen bekannte Technologie, haben dazu geführt, dass sich viele US-Energieerzeuger von der Kohle entfernen, was zu zunehmenden billigen Importen dieses Treibstoffs nach Europa führt.
Im Jahr 2012 stiegen die Kohleexporte nach Europa den Daten der EIA in den USA zufolge um 23% auf 66,4 Millionen Amerikanische Tonnen.
Vieles von dieser Kohle ersetzt Erdgas als Treibstoff für die Stromerzeugung in Europa. In UK beispielsweise stieg der Anteil des aus Kohle erzeugten Stromes im Jahr 2012 auf den höchsten Stand seit 17 Jahren, während Gas als Energiequelle entsprechend auf einen Tiefststand fiel.
„Die ökonomische Situation unserer Geschäfte in Europa, besonders in der konventionellen Energieerzeugung, bleibt schwierig“, sagte das E.ON-Vorstandsmitglied Johannes Teyssen.
Gaskraftwerke verlieren also gegenüber ihren mit Kohle befeuerten Rivalen, sind diese doch hinsichtlich der gegenwärtigen Energiepreise wettbewerbsfähiger. Außerdem reduziert die Ausweitung erneuerbarer Energien die Betriebsstunden von Gaskraftwerken; Wind- und Solarenergie sind in Stunden maximalen Bedarfs allgemein höher, ein Markt, den eigentlich Gaskraftwerke bedienen sollen*.
[* Im Original lautet dieser Satz: …; wind and solar energy output is generally higher at peak demand hours, a market gas plants are designed to serve.]
„Die Unternehmen kämpfen darum, Gaskraftwerke ökonomisch zu betreiben, selbst wenn es sich dabei um hypermoderne Einrichtungen handelt”, sagte der HIS-Energieanalyst Kash Burchett.
Die Kohlepreise an der europäischen Energiebörse sind während der letzten 12 Monate um fast 19% gefallen. Der Großteil von Erdgas auf dem europäischen Festland wird relativ zu Öl ausgepreist, und im ersten Quartal 2013 fiel der mittlere Preis Daten von BP zufolge um lediglich 5%.
Das hat die Dynamik des Energiemarktes verändert. Der tschechische Energieerzeuger CEZ AS BAACEZ.PR -0.70% sagte kürzlich, dass es ein neues Gaskraftwerk, dessen Inbetriebnahme für diesen Sommer geplant war, weiterhin abgeschaltet belassen werde, weil es vom ersten Tag an nicht profitabel arbeiten würde. Der Energieerzeuger SSE SSE.LN +0.06% PLC in UK sagte im März, dass man ein Gaskraftwerk schließen und die Kapazität in einem zweiten reduzieren werde. Außerdem würde man mehrere Jahre lang wegen der schlechten ökonomischen Aussichten keine neuen Gaskraftwerke bauen.
Die Schließungen von E.ON-Kraftwerken hätten sogar noch weiter gehen können, wenn sie nicht ein Abkommen mit der Netzagentur und einem Netzbetreiber in Deutschland geschlossen hätten, um zwei moderne, aber nicht profitable Gaskraftwerke am Laufen zu halten. E.ON und seine Partner hatten überlegt, diese zu schließen, aber die Netzagentur betrachtete sie als unabdingbar für die Energieversorgung in Süddeutschland.
Eurelectric zufolge, der Gesellschaft für die Energieindustrie in Europa, erzeugten die 27 Mitgliedsstaaten der EU den jüngsten verfügbaren Daten zufolge im Jahr 2010 24% ihres Stromes mit Kohle und 23% mit Gas, den Rest erbrachten Kernkraft und Erneuerbare.
Billige Kohle sind für jedes Unternehmen schlechte Nachrichten. Die RWE AG, RWE.XE +1.07%, der Kapazität nach der größte Energieerzeuger in Deutschland, der 62% seiner Energie aus Kohle erzeugt, sagte Anfang dieses Jahres, dass die Erzeugung aus Kohle und Flüssiggas im Jahr 2012 um über 16% gestiegen ist. RWE erwartet gleichbleibende Umsätze im Jahr 2013, während E.ON einen Rückgang bis zu 15% in diesem Jahr projiziert hat.
Es könnte auch noch weitere Vorteile geben. „Derzeit profitiert die Wirtschaft umfassend von billigerer Energieerzeugung“, sagte Marcus Schenck, das für Finanzen zuständige Vorstandsmitglied bei E.ON in einer Konferenzschaltung mit Reportern. Das bleibt aber nur dann so, „wenn glaubhaft gemacht wird, dass der Umweltschutz nicht länger eine politische Priorität ist“.
Die EU hat sich einer Reduktion der Kohlendioxid-Emissionen um 20% des Niveaus aus dem Jahr 1990 verschrieben und will bis zum Jahr 2020 20% seiner Energie durch Erneuerbare erzeugen. Ein Sprecher von EU-Energiekommissar Günther Oettinger lehnte es vorige Woche ab, zu den jüngsten Kraftwerks-Schließungen Stellung zu nehmen. Oettinger sagte im April in einem Interview, dass der Block seine Konzentration auf die Energiepolitik weiter fassen sollte als nur auf die Reduktion von Treibhausgasen, um sicherzustellen, dass Energie bezahlbar bleibt.
Industrieexperten warnen, dass die Stilllegung einer ganzen Reihe von Gaskraftwerken die Energiesicherheit des Kontinents schwächen könnte, da die ständig schwankende erneuerbare Energie wie Wind immer verbreiteter wird.

„Tatsächlich erfordert eine schwankende Kapazität irgendeine Form von Backup”, sagte Mr. Burchett von IHS Energy. Ein heraufziehendes Fehlen von Gaskraftwerken, die ideal zum Ausgleich der Schwankungen und unvorhersagbaren Änderungen wären, könnten das Problem verstärken, sagte er.
Frankreich entwickelt derzeit ein neues Marktmodell, das finanzielle Anreize für die Unternehmen bietet, Gaskraftwerke wieder in Betrieb zu nehmen, sagte Mr. Burchett.
Teyssen erneuerte seine Forderung nach einem neuen Marktdesign in Deutschland, um ähnliche Anreize zu bieten, obwohl die kommende Bundestagswahl im September den Prozess für Marktreformen verlangsamt hat.
In Italien, wo solche finanziellen Anreize bereits bestehen, sagte ein Sprecher von Enel SpA ENEL.MI +1.23%, dass man keine Pläne habe, eigene Kraftwerke zu schließen.
—Kjetil Malkenes Hovland in Oslo, Liam Moloney in Rom und Sean Carney in Prag haben zu diesem Artikel beigetragen.
Jan Hromadko, jan.hromadko@dowjones.com
Link: http://online.wsj.com/article/SB10001424127887323744604578470841012284404.html#
Übersetzt von Chris Frey EIKE