Haben “Erneuerbare Energien” uns vor einem Strompreis-Schock bewahrt?

Zentraler Punkt des Diskussionspapiers (die Macher sprechen anders als die meisten Presseartikel nicht von einer Studie) ist der preissenkende Effekt, den die “Erneuerbaren” auf den „Day-Ahead“-Handel, also auf den kurzfristigen Spotmarkt, ausüben. Dadurch, dass Strom aus Wind und Sonne zum Preis von 0 Cent pro kWh auf den Spotmarkt strömen, wann immer sie anfallen, drückt das dort die Preise nach unten. Der Preis von 0 Cent ergibt sich daraus, dass der Strom bereits vorher durch die EEG-Zwangsabgabe gezahlt wurde.

Hypothetische Preiseffekte

Beziffert wird diese Preissenkung mit 5,29 Cent pro KWh. Woher die Zahl kommt wird nicht klar, man kann sie für recht hoch halten. Die Preise beim Day-Ahead-Handel haben in den letzten 12 Jahren stark geschwankt, aber der Unterschied zwischen dem höchsten und niedrigsten Preis betrug in diesem Zeitraum maximal 4 Cent/kWh. Begründet wird der starke angenommene Anstieg damit, dass mit dem Abschalten der Kernkraftwerke in Deutschland das Gleichgewicht zwischen Angebot und Nachfrage stark gestört worden wäre, was sich eben in den Preisen widerspiegelt.
Abb 1: Entwicklung Staatsanteil der Strompreise, Bildquelle: Bundesverband der Energie- und Wasserwirtschaft
Das Diskussionspapier geht bei dieser hypothetischen Betrachtung von einigen Annahmen aus, die mit der Realität wenig zu tun haben. Erstens wird vorausgesetzt, dass es ohne “Erneuerbare” zu einer Verknappung von Strom gekommen wäre. Da wäre vielleicht kurzfristig so gekommen, aber in einem funktionierenden Markt hätten die dadurch steigenden Preise automatisch dafür gesorgt, dass neue Kraftwerke gebaut worden wären. Hohe Preise bedeuten schließlich, dass man mit seiner Investition so gutes Geld verdienen kann.

Abb, 2: Die Entwicklung des Spotmarkt-Strompreises von 2002 bis 2014. Quelle: Fraunhofer ISE

“Erneuerbare” als Lösung für selbst geschaffene Probleme

Dass solche Investitionen in den letzten Jahren nicht stattfanden, umgekehrt sogar immer mehr Kraftwerke stillgelegt werden sollen, liegt ja gerade daran, dass sich deren Betrieb wegen des niedrigen Börsenstrompreises nicht mehr lohnt. Die Realität ist also, dass die über das EEG bezahlte und dann zu Null Grenzkosten und mit Vorrang in die Strombörse gedrückten “Erneuerbaren” Energien den klassischen Strommarkt zerstört haben und jetzt in diesem Papier als Lösung für ein Problem ausgegeben werden, für das sie selbst die Ursache sind.
Ein zweiter zentraler Punkt ist das Zustandekommen der vorgeblichen 11,2 Milliarden Euro, den die Stromkunden durch die “Erneuerbaren” Energien gespart haben sollen. Die Zahl ergibt sich, wenn man die (unter dubiosen Umständen ermittelten) 5,29 Cent pro KWh mit dem Nettostromverbrauch von Deutschland im Jahr 2013 in Höhe von 596 Terawattstunden multipliziert (das ergibt 31,6 Mrd. Euro) und davon die 20,4 Mrd. Euro abzieht, die in diesem Jahr an EEG-Subventionen netto ausbezahlt worden sind.

Spotmarkt nicht gleich Strommarkt

Dabei wird stillschweigend davon ausgegangen, dass die hypothetische Preiserhöhung am Spotmarkt den gesamten gehandelten Strom betroffen hätte. Das ist aber überhaupt nicht der Fall. 2013 wurde 21,5% des Stroms am Spotmarkt gehandelt, der Rest über Langfristverträge am Terminmarkt. Die Mehrkosten hätten demnach nur 6,8 Mrd. Euro betragen, nicht 31,6 Mrd. Mit dieser Zahl hätte sich aber ergeben, dass die Verbraucher durch das EEG im jahr 2013 nicht 11,2 Mrd. Euro gespart, sondern 13,6 Mrd. Euro zu viel gezahlt hätten.
Dass dies nicht im Sinne der Autoren des Diskussionspapiers sein konnte, ergibt sich, wenn man sich ansieht unter welcher Prämisse die Zusammenarbeit zwischen Siemens der Universität Erlangen-Nürnberg gestartet ist, aus der dieses Papier schließlich hervorgegangen ist:
Zukünftig werden Siemens und die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) bei der Erforschung nachhaltiger, bezahlbarer und zuverlässiger Energiesysteme zusammenarbeiten. Dies geht aus einer Pressemitteilung der FAU hervor. Gemeinsam sollen innovative wettbewerbsfähige Systeme entwickelt werden, die zum Erfolg der Energiewende beitragen sollen
Ob die “Erneuerbaren” Energien innovativ im eigentlichen Sinne sind, darüber mag man gewiss streiten. Dass sie nicht wettbewerbsfähig sind erkennt man allein schon an der Tatsache, dass deren Bau und Betrieb durch Subventionierung über das Erneuerbare-Energien-Gesetz (EEG) gefördert werden muss. Dass dadurch die Strompreise nicht sinken, sondern stetig steigen, sieht jeder auf seiner Stromrechnung. Dass ein Konzern wie Siemens, der über seine Windkraftsparte enorm von dieser Entwicklung profitiert, ein Interesse daran hat, die “Erneuerbaren aber trotzdem als wettbewerbsfähig, ja gar als kostensenkend, darzustellen, liegt auf der Hand. Und mit Prof. Dr. Jürgen Karl vom Lehrstuhl für Energieverfahrenstechnik an der Universität Erlangen-Nürnberg scheint sich auch jemand gefunden zu haben der bereit ist, dieser Aussage wissenschaftliche Weihen zu verleihen.
Der Beitrag erschien zuerst bei ScienceSceptical




SPON- Visionen zum Strommarkt der Zukunft – Wenig Science, viel Fiction

Das von beiden Einrichtungen erarbeitete Konzept ist nach Einschätzung des Autors ebenso revolutionär wie radikal und werde in der Energiewelt zu einem Machtkampf führen. Als Heilsweg wird dabei die Flexibilisierung von Erzeugung und Verbrauch vorgeschlagen: Werde gerade mehr Strom produziert als gebraucht wird, so solle sein Preis deutlich sinken. Große Abnehmer sollen so dazu gebracht werden, mehr zu verbrauchen. Fabriken könnten zum Beispiel die Produktion erhöhen, große Kühlhäuser stärker kühlen. In Zeiten, in denen mehr Strom gebraucht wird als gerade verfügbar ist, sollen die Preise dagegen deutlich steigen. Verbraucher sollen so dazu gebracht werden, sich zu bescheiden.
 
EE-Fortschritt: In Zukunft soll unser Leben wieder den Zufällen von Wind und Wetter unterworfen werden
Das Bild rechts wurde von der SPON Website übernommen

Drei Hebel für die Steuerung des Strompreises

Durch Vernetzung und Kommunikation, so das Fazit, sollen sowohl Erzeugung – bevorzugt durch EE-Quellen – als auch Verbraucher sich kurzfristig auf wechselnde Strompreise einstellen. Als zentrale Hebel sieht man die EEG-Umlage, die Netzentgelte und den Kraft-Wärme-Kopplungsbonus, den Kraftwerke dann erhalten, wenn sie die Abwärme ihrer Stromproduktion ins Wärmenetz einspeisen. Der Vorschlag dieser „Wissenschaftler“ sieht nun vor, alle drei Umlagen zu Zeiten eines Stromüberangebots zu senken, um dadurch den Strom deutlich billiger zu machen, im umgekehrten Fall dagegen zu steigern, d.h. den Strom deutlich teurer zu machen. Schon heute, so ihr Argument, gebe es in Deutschland eine Reihe „wetterfühliger Fabriken“. Künftig solle diese Technik zum Standard werden.
 
Abb. 1: Schöne neue Energiewelt: Schneller schweißen Jungs, gleich wird der Strom teurer

Fernab jeden Realitätsbezugs

Für jeden, der die Realitäten des Stromverbrauchs sowohl im Haushalt als auch im industriellen Bereich auch nur näherungsweise kennt, stellt sich die Frage, aus welcher Abteilung man denn heute solche „Wissenschaftler“ rekrutiert. Schon im Haushalt werden Strom, Heizung, Warmwasser und Licht dann gebraucht, wenn die Bewohner zuhause sind und es zum Tagesablauf passt. Den Bürgern vorschreiben zu wollen, sie sollten morgens ungewaschen zur Arbeit gehen, weil der Wind gerade nicht weht, zeugt geradezu von Infantilität. Auch werden Straßenbahn und Eisenbahn ihre Fahrpläne wohl kaum nach solchen Kriterien kurzfristig über den Haufen werfen. In der heutigen Zeit gibt es kaum eine Fabrik, die ihre Produktion einem wechselnden Stromaufkommen anpassen könnte, selbst Aluminiumhütten und Stahlwerke können höchstens kurzfristig mal die Produktion herunterfahren. Bei Ausfällen im Bereich mehrerer Stunden ist Schluss mit lustig, dann besteht die Gefahr, dass ihnen die Öfen einfrieren. Eine Steigerung ist dagegen faktisch unmöglich, da solche Produktionseinrichtungen ansonsten stets mit der maximal möglichen Auslastung gefahren werden, mehr Strom kann gar nicht in mehr Produktion umgesetzt werden. Moderne, computergesteuerte Fertigungsanlagen können ihre Produktion, die von ausgetüftelten Parametern, langfristigen Planungen, Transport- und Logistikketten sowie Markterfordernissen diktiert wird, sowieso nicht mal „so eben“ den Launen von Wind und Sonne anpassen. Der Vorschlag dieser angeblichen Wissenschaftler ist so unsinnig, dass jedem, der moderne Fabriken und ihre Abläufe kennt, schlicht die Worte fehlen, um den hinter solchen Vorschlägen steckenden Grad an Ignoranz noch mit halbwegs höflichen Worten zu beschreiben. Ebenso könnte man vorschlagen, die zeitlich bis ins kleinste Detail durchoptimierten Abläufe in einem modernen Containerhafen wieder an das Timing von Teeklippern anzupassen, die auf See mal wieder in eine Flaute geraten sind. Oder einer werdenden Mutter raten, die Wehen doch bis nächste Woche aufzuschieben….
Fred F. Mueller
[SPIE] http://www.spiegel.de/wirtschaft/soziales/energiewende-so-koennte-der-strommarkt-der-zukunft-aussehen-a-1017164.html
(1) Stefan Schultz Vita
Jahrgang 1980, studierte Medienkultur, Politik und Britische Literatur in Hamburg und Lissabon (M.A.). Praktika und freie Mitarbeit bei „Hamburger Abendblatt Online“, „Prinz“, „Hamburg LIVE“ und der portugiesischen Tageszeitung „24 Horas“. Entwicklungsredakteur und Crossmedia-Beauftragter für die Print- und TV-Ausgabe von „Deutschland International“. Seit 2007 Volontär bei SPIEGEL ONLINE. Seit 2008 Redakteur im Ressort Wirtschaft, Spezialgebiete: Energie, IT-Wirtschaft und China. Kurzkorrespondenz in San Francisco (2009) und New York (2010). Ernst-Schneider-Preis für Online-Journalisten (2011). Dreimonatiges Journalisten-Stipendium in China (2012).




Wärmer oder kälter? AWI-Studie zur Klimageschichte Sibiriens der letzten 7000 Jahre gibt Rätsel auf

Die Ergebnisse der Untersuchungen gab das AWI am 26. Januar 2015 per Pressemitteilung bekannt:

Winter in sibirischen Permafrostregionen werden seit Jahrtausenden wärmer
Wissenschaftlern des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) ist es erstmals gelungen, mit einer geochemischen Methode aus der Gletscherforschung Klimadaten aus Jahrtausende altem Permafrost-Grundeis zu entschlüsseln und die Wintertemperatur-Entwicklung im russischen Lena-Delta zu rekonstruieren. Ihr Fazit: In den zurückliegenden 7000 Jahren ist die Wintertemperatur in den sibirischen Permafrostregionen langfristig gestiegen. Als Grund für diese Erwärmung nennen die Forscher eine sich ändernde Stellung der Erde zur Sonne, verstärkt durch den steigenden Ausstoß von Treibhausgasen seit Beginn der Industrialisierung. Die Studie erscheint als Titelgeschichte der Februar-Ausgabe des Fachmagazins Nature Geoscience und heute vorab schon einmal online.

Was bedeuten diese Resultate? Zugegeben handelt es sich um eine für Laien komplexe Thematik. Es geht um schwierige geochemische Methoden, schwer fassbare lange Zeiträume, eine behauptete Verknüpfung mit der anthropogenen Klimaerwärmung sowie Milankovic-Zyklik. All das spielt im fernen Sibirien, das vermutlich kaum einer der Leser genauer kennt. Hängenbleiben wird beim ersten Überfliegen der Pressemitteilung „Klimaerwärmung seit tausenden von Jahren, Industrialisierung, Treibhausgase“. Seht her, da ist ein weiterer Beweis für unser frevelhaftes Tun und die unaufhaltbare Klimakatastrophe in Zeitlupe. Aber nicht so schnell. Lassen Sie uns die Komponenten der Studie einzeln diskutieren und auf ihre Gültigkeit und Bedeutung überprüfen.

Langfristige Erwärmung der Winter im Verlauf der letzten 7000 Jahre

Ein übraus interessantes Resultat: Eine langfristige, natürliche Erwärmung der Winter im Untersuchungsgebiet in den letzten Jahrtausenden. Exakte Temperaturwerte können die AWI-Forscher nicht angeben, wie das AWI in seiner Pressemitteilung erläutert:

Um wie viel Grad Celsius genau die arktischen Winter wärmer geworden sind, können die Wissenschaftler nicht in absoluten Zahlen sagen: „Das Ergebnis der Sauerstoff-Isotopenanalyse verrät uns zunächst nur, ob und wie sich das Isotopenverhältnis verändert hat. Steigt es, sprechen wir von einer relativen Erwärmung. Wie groß diese allerdings genau ausgefallen ist, können wir noch nicht ohne Weiteres sagen“, erklärt Thomas Opel.

Aber es wäre sicher ganz nett gewesen, wenn eine ungefähre Temperaturabschätzung erwähnt worden wäre. Die heutigen Wintertemperaturen betragen im Lenadelta minus 30 Grad bis minus 40 Grad, wie die Encyclopaedia Brittanica weiß:

The climatic features of the Lena River basin are determined by its location, with its upper course well inside the continent and its lower course in the Arctic. In winter the powerful Siberian anticyclone (high-pressure system) forms and dominates all of eastern Siberia. Because of the anticyclone, the winter is notable for its clear skies and lack of wind. Temperatures fall as low as −60 to −70 °C, with average air temperature in January ranging from −30 to −40 °C. In July averages range between 10 and 20 °C.

Nun war es laut AWI vor ein paar tausend Jahren also noch etwas kälter, sagen wir einfach mal minus 45 Grad, nur um einen Wert zu haben. Es geht also in der ganzen Geschichte um eine Winter-„Erwärmung“ die sich von „sehr, sehr super saukalt“ hin zu „immer noch sehr super saukalt“ entwickelt hat. Bei Nennung dieser Temperaturen hätte vielleicht dem einen oder anderen Leser die Idee kommen können, dass die Winter-Erwärmung der Gegend zweitrangig ist und möglicherweise sogar ganz gut getan hätte.
Nun könnte man sagen, ja, im Winter ist die Entwicklung wohl eher weniger interessant. Wie sieht es denn im Sommer aus, wo laut Encyclopaedia Brittanica heute mit bis zu 20°C zu rechnen ist? Müssen wir hier Angst vor einer „arktischen Turboerwärmung“ haben? Die AWI-Pressemitteilung erklärt etwas verklausuliert, dass Rekonstruktionen der Sommertemperaturen eine gegenteilige Entwicklung anzeigen: In den letzten Jahrtausenden ist es in Sibirien immer kälter geworden:

Die neuen Daten sind die ersten eindeutig datierten Wintertemperaturdaten aus der sibirischen Permafrostregion und zeigen einen klaren Trend: „In den zurückliegenden 7000 Jahren sind die Winter im Lena-Delta kontinuierlich wärmer geworden – eine Entwicklung, die wir so bisher aus kaum einem anderen arktischen Klimaarchiv kennen“, sagt Hanno Meyer. Denn: „Bisher wurden vor allem fossile Pollen, Kieselalgen oder Baumringe aus der Arktis genutzt, um das Klima der Vergangenheit zu rekonstruieren. Sie aber speichern vor allem Temperaturinformationen aus dem Sommer, wenn die Pflanzen wachsen und blühen. Die Eiskeile stellen eines der wenigen Archive dar, in denen reine Winterdaten gespeichert werden“, erklärt der Permafrost-Experte.  Mit den neuen Daten schließen die Wissenschaftler zudem eine wichtige Lücke: „Die meisten Klimamodelle zeigen für die zurückliegenden 7000 Jahre in der Arktis eine langfristige Abkühlung im Sommer sowie eine langfristige Erwärmung im Winter an. Für letztere aber gab es bisher keine Temperaturdaten, eben weil die meisten Klimaarchive hauptsächlich Sommerinformationen speichern. Jetzt können wir zum ersten Mal zeigen, dass Eiskeile ähnliche Winterinformationen enthalten wie sie von den Klimamodellen simuliert werden“, so AWI-Modellierer und Ko-Autor Dr. Thomas Laepple.

Noch klarer wird es in der offiziellen Kurzfassung der Arbeit (Auszug):

Relative to the past 2,000 years12, the Arctic region has warmed significantly over the past few decades. However, the evolution of Arctic temperatures during the rest of the Holocene is less clear. Proxy reconstructions, suggest a long-term cooling trend throughout the mid- to late Holocene345, whereas climate model simulations show only minor changes or even warming67,8

Bei den genannten Literaturzitate 3 bis 5 handelt es sich um:

3. Marcott, S. A., Shakun, J. D., Clark, P. U. & Mix, A. C. A reconstruction of regional and global temperature for the past 11,300 years. Science 339, 1198_1201 (2013).
4. Vinther, B. M. et al. Holocene thinning of the Greenland ice sheet. Nature 461, 385_388 (2009).
5. Wanner, H. et al. Mid- to Late Holocene climate change: An overview. Quat. Sci. Rev. 27, 1791_1828 (2008).

Gerne hätte an dieser Stelle auch einer Arbeit einer internationalen Forschergruppe um Benoit Lecavalier von der University of Ottawa aus dem März 2013 in den Quaternary Science Reviews erwähnt werden können. Die Forscher fanden, dass sich Grönland in den letzten 8000 Jahren um etwa 2,5°C abgekühlt hat (siehe „Ein Thema das die Medien meiden wie der Teufel das Weihwasser: Vor 5000 Jahren war es in Grönland zwei bis drei Grad wärmer als heute”).
Die Sommer wurden in den letzten 7000 Jahren kälter und die Winter wärmer. So kann man den aktuellen Erkenntnisstand zusammenfassen. Ursache für diesen Langzeittrend sind die Milankovic-Zyklen, die auf Veränderungen der Erdbahnparameter zurückzuführen sind. Dies sind langfristige Zyklen im Bereich von 20.000 bis 100.000 Jahre, die für die aktuelle Klimadiskussion keine große Rolle spielen. Sie sind auch die Ursache für das sogenannte mittelholozäne Klimaoptimum, als die globalen Temperaturen vor 7000 Jahren um zwei Grad höher lagen als heute.
Während die Hauptstory, nämlich die Erwärmung der sibirischen Winter in den letzten Jahrtausenden, durchaus plausibel erscheint, muss man sich doch wundern, weshalb die zeitgleiche Sommer-Abkühlung nicht besser in der AWI-Pressemitteilung herausgearbeitet wurde. Letztendlich geht es neben den Jahreszeiten doch auch darum, wie sich der Jahresmittelwert entwickelt hat. Dazu kein Kommentar vom AWI.
Zu klären wäre auch, weshalb die AWI-Presseabteilung nicht schon einige Monate zuvor aktiv geworden ist, als ein ebenfalls von Hanno Meyer angeführtes Forscherteam im September 2014 im Fachblatt Global and Planetary Change eine Studie zu Kamschatka publizierte. Die Forscher rekonstruierten die Temperaturen in der Region für die vergangenen 5000 Jahren und fanden interessanterweise einen langfristigen Abkühlungstrend. Über lange Zeiten war Kamschatka während der letzten Jahrtausende offenbar wärmer als heute, eine überraschende Erkenntnis (eine genaue Besprechung der Arbeit gibt es auf The Hockey Schtick). Das wäre eine schöne Schlagzeile geworden:

Kamschatka hat sich in den letzten 5000 Jahren abgekühlt.

Aber offenbar war dem AWI diese Schlagzeile zu heiß. Beim weiteren Stöbern wird man das böse Gefühl nicht los, dass man in der AWI-Pressestelle bewusst Studien ausspart, die nicht so recht in die Klimakatastrophengeschichte zu passen scheinen. Bereits im Mai 2013 waren erste Ergebnisse zum Kamschatka-Projekt in den Quaternary Science Reviews publiziert worden, zu denen die Öffentlichkeitsabteilung des AWI keinen Mucks machte (siehe unseren Blogbeitrag „Überraschende Forschungsergebnisse des AWI aus dem subarktischen Kamtschatka: In den letzten 4500 Jahren war es bis zu 4 Grad wärmer als heute”). Die unheimliche Serie setzte sich im September 2013 fort, als im Fachmagazin Palaeogeography, Palaeoclimatology, Palaeoecology  eine AWI-Studie eines internationalen Forscherteams um Juliane Klemm erschien. Auch diese Forschergruppe hatte Unerhörtes herausgefunden, etwas was man auf keinen Fall mit der Presse teilen wollte (siehe unseren Blogbeitrag: „Neue AWI-Studie: Heutige Sommertemperaturen in der sibirischen Arktis unterscheiden sich kaum von denen der letzten Jahrtausende”).

Was hat nun die Klimakatastrophe mit all dem zu tun?

Zurück zum aktuellen Paper über das Lena-Delta. Die Erwärmung der Wintertemperaturen in den letzten 7000 Jahre mag interessant sein, ist aber lediglich die Hinleitung zur eigentlichen „Pointe“ der Studie, nämlich, dass der menschengemachte Klimawandel der letzten 150 Jahre die Wintertemperaturen im Studiengebiet nach oben gejagt hätte. In der AWI-Pressemitteilung liest sich das so:

Deutliche Hinweise fanden die Wissenschaftler bei der Suche nach den Ursachen der Erwärmung. Hanno Meyer: „Wir sehen in unserer Kurve eine klare Zweiteilung. Bis zum Beginn der Industrialisierung um das Jahr 1850 können wir die Entwicklung auf eine sich ändernde Position der Erde zur Sonne zurückführen. Das heißt, damals haben die Dauer und Intensität der Sonneneinstrahlung von Winter zu Winter zugenommen und auf diese Weise zum Temperaturanstieg geführt. Mit dem Beginn der Industrialisierung und dem zunehmenden Ausstoß von Treibhausgasen wie Kohlendioxid aber kam dann noch der vom Menschen verursachte Treibhauseffekt hinzu. Unsere Datenkurve zeigt ab diesem Zeitpunkt einen deutlichen Anstieg, der sich wesentlich von der vorgegangenen langfristigen Erwärmung unterscheidet.“

Leider versäumt es das AWI, der Pressemitteilung die Temperaturkurve bzw. die Isotopen-Proxy-Kurve beizufügen. Wie muss man sich diesen „deutlichen Anstieg“ im Detail vorstellen? Stattdessen werden der Presse stimmungsvolle Expeditionsfotos angeboten. Das schönste hiervon wollen wir auch hier im Blog nicht vorenthalten (Abbildung 1).
Abbildung 1rechts oben:. Die Wissenschaftler Alexander Dereviagin, Dr. Thomas Opel und Dr. Hanno Meyer (v.l.) machen eine kurze Mittagspause. Foto: Volkmar Kochan/rbb. Quelle: AWI.
Wirklich ein schönes Foto. Aber trotzdem wäre die Kurve doch um einiges informativer gewesen. Wir schauen daher in die Originalpublikation, wo die gesuchte Kurve abgedruckt ist (Abbildung 2).

Abbildung 2: Winter-Temperaturentwicklung des sibirischen Lena-Deltas während der letzten 8000 Jahre auf Basis von Sauerstoffisotopenmesssungen an Eiskeilen. Abbildung aus Meyer et al. 2015.
Der langfristige Winter-Erwärmungstrend ist gut erkennbar. Ganz am Ende der Kurve, in der industriellen Phase ab 1850, springen die letzten drei Datenpunkte steil nach oben. Offensichtlich handelt es sich um einen Nachfahren der berühmten Hockeystick-Kurve. Nie waren die Sauerstoff-Isotopenwerte höher als in den letzten anderthalb Jahrhunderten.
Es drängen sich sogleich einige wichtige Fragen auf:
–Spiegelt die Isotopenkurve tatsächlich die Temperaturen wieder? Isotopenverschiebungen können vielerlei Gründe haben und müssen nicht unbedingt Temperaturen abbilden. In vielen Fällen sind Niederschlagsänderungen Hauptkontrollfaktor für Veränderungen der Sauerstoffisotopen.
–Gibt es andere Winter-Temperaturrekonstruktionen aus der Region, die den behaupteten Verlauf mit anderen Methodiken betätigen könnten?
– Wie sehen die real gemessenen Winter-Temperaturen sowie Jahresmittelwerte des Lena-Delta-Gebiets für die letzten 150 Jahre aus?
Schauen wir uns hierzu die GISS-Temperaturkarte des New Scientist an, in welcher der Temperaturverlauf in der Lenadelta-Region für die vergangenen 130 Jahre angegeben ist (Abbildung 3). Fazit: Ja es ist wärmer geworden, so wie in fast allen Teilen der Erde nach Beendigung der Kleinen Eiszeit. Dabei fiel die Wiedererwärmung in den arktischen Gebieten stärker aus als zum Beispiel in den Tropen. Soweit ist das Resultat also nachvollziehbar.

Abbildung 3: GISS-Temperaturverlauf der Lenadelta-Region für die vergangenen 130 Jahre. Quelle: New Scientist.
Nun wissen wir aber leider auch, dass die GISS-Datenbank lange vom bekennenden Klimaaktivisten James Hansen geführt wurde und die Temperaturrohdaten arg nachbearbeitet wurden. Daher schauen wir lieber auf einen Rohdatensatz des Ortes Tiksi, der seit 1936 Messdaten liefert. Die Daten stammen aus dem BEST-Projekt der University of California in Berkeley, sollten also relativ vertrauenswürdig sein (Abbildung 4). Der Ort Tiksi ist auf der Landkarte in Abbildung 3 eingezeichnet.
Die Überraschung ist groß: Der im GISS-Datensatz dargestellte starke Erwärmungstrend ist in den Originaldaten kaum zu erkennen. Anstatt einer GISS-Erwärmung von 2 Grad pro Jahrhundert verzeichnet BEST lediglich eine Erwärmungsrate von etwa 0,5 Grad nach Qualitätsüberprüfung.

Abbildung 4: Temperaturdaten der Wetterstation Tiksi im Lena-Delta laut BEST-Projekt.
Die wirkliche Frage muss jedoch sein, auf welchem Niveau sich die Temperaturen während der Mittelalterlichen Wärmeperiode (MWP) im Lena-Delta bewegten. In einer zusammenfassenden Darstellung zur MWP für den asiatischen Teil Russlands auf co2science.org stoßen wir bei unseren Recherchen auf eine Veröffentlichung von Matul et al., die 2007 im Fachblatt Oceanology erschien. CO2 Science fasst die Ergebnisse der Arbeit wie folgt zusammen:

What was done
The authors studied the distributions of different species of siliceous microflora (diatoms), calcareous microfauna (foraminifers) and spore-pollen assemblages found in sediment cores retrieved from 21 sites on the inner shelf of the southern and eastern Laptev Sea, starting from the Lena River delta and moving seaward between about 130 and 134°E and stretching from approximately 71 to 78°N, which cores were acquired by a Russian-French Expedition during the cruise of R/V Yakov Smirnitsky in 1991.
What was learned
In the words of the five Russian researchers, this endeavor revealed “(1) the warming at the beginning of the Common Era (terminal epoch of the Roman Empire) during ~1600-1900 years BP; (2) the multiple, although low-amplitude, coolingepisodes at the beginning of the Middle Ages, 1100-1600 years BP; (3) the Medieval Warm Period, ~600-1100 years BP; (4) the Little Ice Age, ~100-600 years BP, with the cooling maximum, ~150-450 years BP; and (5) the ‘industrial’ warming during the last 100 years.”
What it means
“Judging from the increased diversity and abundance of the benthic foraminifers, the appearance of moderately thermophilic diatom species, and the presence of forest tundra (instead of tundra) pollen,” Matul et al. conclude that “the Medieval warming exceeded the recent ‘industrial’ one,” and that “the warming in the Laptev Sea during the period of ~5100-6200 years BP corresponding to the Holocene climatic optimum could be even more significant as compared with the Medieval Warm Period.” Once again, therefore, we have another example of a paleoclimate study that challenges the contention of Hansen et al. (2006) that “probably the planet as a whole” is “approximately as warm now as at the Holocene maximum.”

Die Autoren um Matul rekonstruierten also mithilfe von Mikroorganismen die holozäne Klimageschichte des Lena-Deltas und der vorgelagerten Laptevsee. Matul und Kollege fanden dabei für die vergangenen 2000 Jahre die bekannte Millenniumszyklik bestehend aus Römischer Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlicher Wärmeperiode, Kleiner Eiszeit und Moderner Wärmeperiode. Interessanterweise war die Mittelalterliche Wärmeperiode offenbar deutlich wärmer als heute. Zudem war das mittelholozäne Klimaoptimum im Untersuchungsgebiet vor 6000 Jahren sogar noch wärmer.
Nun wundert es doch sehr, dass die AWI-Gruppe diese wichtige Arbeit in ihrer neuen Lena-Delta Arbeit mit keiner Silbe erwähnt. Selbst wenn Matul et al. wohl überwiegend Sommertemperaturen rekonstruiert haben, hätte die Arbeit doch auf jeden Fall Berücksichtigung finden müssen. Sind die Sommertemperaturen nicht vielleicht viel wichtiger als die sowieso unterkühlten Winterwerte?
Bill Illis konnte in einer Diskussion zum AWI-Paper auf WUWT zeigen, dass die AWI-Autoren zwei möglicherweise wichtige Datenpunkte aus der Betrachtung ausschlossen (Abbildung 5). Einer davon zeigte während der Römischen Wärmeperiode eine bedeutende Winter-Erwärmung an, die sich etwa auf heutigem Temperaturniveau bewegte. Der Wert wurde unter Hinweis auf „oberflächennahe Kontaminierung“ aus dem Rennen geschmissen und in der Auswertung ignoriert.

Abbildung 5: Plot der Temperatur-Proxy-Wert aus Meyer et al. 2015, mit zwei zusätzlichen Werten, die die Autoren wegen „möglicher Kontaminierung“ verworfen hatten. Plot: Bill Illis/WUWT.

Unterm Strich

Was bleibt unterm Strich? Eine paläoklimatologische Studie findet eine unerwartete Entwicklung, die sogleich als Beleg für die drohende Klimakatastrophe missbraucht wird. Wichtige anderslautende Befunde aus der gleichen Region sowie andere AWI-Arbeiten werden totgeschwiegen. Der auffällige Hockeyschläger-Charakter der approximierten Temperaturentwicklung lässt die Alarmglocken schrillen: Ist die verwendete Methodik zuverlässig? Weshalb wurden möglicherweise wichtige Datenpunkte bei der Bearbeitung ignoriert? Wie wichtig ist die ultrakalte Wintertemperaturentwicklung wirklich im Vergleich zum Sommerverlauf? Weshalb können andere Messreihen und Temperaturrekonstruktionen den rasanten Hockeyschläger-Anstieg nicht reproduzieren? Immerhin geben sich die AWI-Forscher ergebnisoffen, wie sie in der Pressemitteilung betonen:

In einem nächsten Schritt wollen die Forscher nun überprüfen, ob dieselben Anzeichen für eine langfristige Winter-Erwärmung der Arktis auch in anderen Permafrostregionen der Welt zu finden sind. Thomas Opel: „Wir haben Daten aus einem Gebiet 500 Kilometer östlich des Lena-Deltas, die unsere Ergebnisse stützen. Wir wissen allerdings nicht, wie es zum Beispiel in der kanadischen Arktis aussieht. Wir vermuten, dass die Entwicklung dort ähnlich ist, belegen aber können wir diese Annahme noch nicht.“

Siehe auch den Blog-Beitrag „Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen
Zuerst erschienen bei "Die kalte Sonne" hier




85 PROZENT FEHLZEIT – WINDKRAFTANLAGEN SIND FAULPELZE

In den folgenden Abbildungen ist die installierte Kapazität, d.h. die kumulierte Nennleistung aller deutschen Windkraftanlagen, als hellblaue Hintergrundfläche dargestellt. Wie unschwer zu erkennen ist, wurde diese kontinuierlich ausgebaut – es wurden immer mehr Anlagen aufgestellt. Darin besteht der gefeierte “Rekord”.
Die dunkelblaue Vordergrundflläche gibt die tatsächlichen Einspeisungen wieder. Wie ebenfalls unschwer zu erkennen, ist die Windkraft extrem volatil. An einigen Viertelstunden des Jahres liefern alle rund 25.000 Anlagen viel, an anderen zusammen fast nichts.
Nicht im Ansatz ist eine Sockelbildung – also eine Art verlässliche Mindestgröße im Sinne einer Grundlastabdeckung – erkennbar. Der Grundsatz “viel hilft viel” gilt ganz offenkundig nicht. Dass dieser auch künftig nicht gelten wird, haben wir hier mathematisch bewiesen. 
 
Das gesamte Jahr 2014.

Januar-April

Mai-August

September – Dezember
Abgesehen von der partout nicht geringer werden wollenden Volatilität/Erratik der Einspeisung, sprich der Qualität der Stromlieferung,  ist auch die Menge des produzierten Stroms frappierend gering: Die durchschnittliche Einspeisung (arithmetisches Mittel) beträgt über alle 25.000 Anlagen hinweg gerade einmal 14,8 Prozent der Nennleistung.  

Die ehrlichen Zahlen.
Man stelle sich vor, eine Consulting Agentur rät einem international erfolgreichen Unternehmen, eine “Beschäftigungswende” durchzuführen. Das Konzept sieht vor, die Stammbelegschaft sukzessive durch sogenannte Fair-Arbeiter zu ersetzen. Den Fair-Arbeitern wird nämlich nachgesagt, dass sie sozial vorteilhaft sind.
Per Einstellungserleichterungsgesetz (EEG) wird festgelegt, dass die Fair-Arbeiter – einmal eingestellt – stets den vollen  Lohn bekommen, egal, ob sie arbeiten oder nicht. Allerdings ist ihre Arbeitsmoral von Wankelmut und Faulheit geprägt. Mal kommen sie fast pünktlich und “klotzen richtig ran”, mal kommen sie tagelang gar nicht. Es muss also stets ein Kollege aus der Stammbelegschaft auf Abruf bereit stehen, um die Fehlzeiten des gut bezahlten Drückebergers zu ersetzen.
Zehn Jahre später feiert die Unternehmensleitung zusammen mit den Consultants und der Gewerkschaft der Fair-Arbeiter, dass in 2014 so viele Fair-Arbeiter wie nie zuvor unter Vertrag genommen wurden – wobei die beschriebenen Konditionen auf 20 Jahre fixiert sind.
Die unabhängige Analyse eines Arbeitsmarktforschers ergibt nun, dass die Fair-Arbeiter über das Rekordjahr hinweg 14,8 Prozent der tariflichen Arbeitszeit im Dienst waren. Die “Lastesel der Beschäftigungswende” arbeiteten also deutlich weniger als eine Ein-Tage-Woche. 
Wenn dieses Unternehmen Deutschland heißt, so heißen die Fair-Arbeiter Ökostromanlagen, die Consulting Agentur AGORA und die Gewerkschaft Bundesverband Windenergie – wobei sich die Gründer der Consulting-Agentur mittlerweile in der Geschäftsführung des Unternehmens eine einflussreiche Position gesichert haben. 
Wem diese Analogie zu weit hergeholt ist, dem sei der Sachverhalt anhand eines vom zuständigen Bundesminister gern gebrauchten Verweises auf die Tierwelt illustriert:
Bundesminister Gabriel, der mit vielen Äußerungen bereits sehr richtig lag, irrt nämlich vollkommen, wenn er die Windkraft als “Lastesel der Energiewende” preist. Zoologisch zutreffender sind die Subventionspropeller mit dieser Spezies gleichgesetzt: Windkraft – das Faultier der Energiewende




Taxonomie von klima-/energiepolitischen Perspektiven

Faktor 1: Risiko des anthropogenen Klimawandels
Die erste Klassifikation wird vorgenommen zwischen jenen, die der Perspektive folgen, dass der Klimawandel eindeutige Risiken birgt und sofortige Aktionen erfordert; und jenen die glauben, dass widrige Projektionen vorläufig oder zu extrem sind. Natürlich ist dies eine grobe Vereinfachung, die man im Allgemeinen vermeiden sollte, jedoch wird sie hier eingeführt, um allgemein etwas über politische Optionen zu sagen.
Faktor 2: Eignung gegenwärtiger erneuerbarer Energie-Technologien, um dem Klimawandel entgegen zu treten
Im Wesentlichen werden wir die Perspektiven aufteilen zwischen jenen, die glauben, dass ein Übergang von fossiler zu erneuerbarer Technologie ohne übermäßige Schwierigkeiten erfolgen kann; und jenen, die glauben, dass ein solcher Übergang extreme Herausforderungen enthält und sehr schwierig ist. Auch hier gibt es eine Vielfalt von Perspektiven und Schwierigkeiten in der realen Welt auf der Grundlage des Verständnisses hinsichtlich der Fähigkeiten und Kosten von „sauberer“ Technologie; die Nuancen dieser Überlegungen werden jedoch ignoriert, um die grundlegende Taxonomie für politische Optionen zu entwickeln.
Taxonomie der Perspektiven
Legt man die oben beschriebenen Faktoren zugrunde, tauchen vier unterschiedliche Gruppen auf, die in der folgenden Tabelle vorgestellt werden:


Politische Implikationen der Perspektiven
Maßnahmen (1): Geht man davon aus, dass der Klimawandel ein ernstes Risiko darstellt und die gegenwärtig verfügbare Technologie dieses Risiko umgehen kann, sind Maßnahmen erwünscht. Potentielle politische Optionen würden Maßnahmen enthalten wie erzwungene Schließungen von Kohlekraftwerken, erneuerbare Portfolio-Standards und andere Maßnahmen, die einzuhalten man gesetzlich gezwungen wird. Der Clean Power Plan der EPA resultiert aus dieser Perspektive.
Herausgefordert (2): Einem gefährlichen Klimawandel ohne gute Ressourcen-Optionen entgegen zu treten stellt die Politiker vor ernste Herausforderungen. Der Unterschied zwischen den in dieser Gruppe klassifizierten Perspektiven könnte der mannigfaltigste sein. Zu den politischen Optionen gehören Überlegungen hinsichtlich wesentlicher Änderungen der Funktionsweise moderner Gesellschaften bzgl. Ökonomie und Energieverbrauch. Ebenfalls zu dieser Gruppe gehört auch die Unterstützung für herausragende Technologien, beispielhaft gezeigt durch den Ruf von Google Engineers nach Erreichen des „Unmöglichen“ durch gegenwärtig unbekannte spaltende [disruptive] Technologien (hier).
Förderung (3): Lässt man die Dringlichkeit mal außen vor, berücksichtigt aber die Verfügbarkeit von nicht genutzter vorteilhafter Technologie, würde man fortschrittliche politische Optionen gegen Marktkräfte setzen und Fragen aufwerfen wie die, warum vorteilhafte Technologie nicht längst übernommen worden ist. Politische Maßnahmen sollten danach trachten, vorteilhafte Änderungen zu ermutigen. Erneuerbare Portfolio-Standards würden ebenfalls eine Option aus dieser Perspektive sein, ebenso wie andere und weniger zwangsmäßige Anreize. Eine politische Reaktion könnte Ausbildung sein und auch einen Beweis des Konzeptes enthalten, außerdem Demonstrationsprogramme, Steuernachlässe, Subventionen, Strafen und so weiter.
Verzögerung (4): Erkennt man die Unzulänglichkeit der gegenwärtigen „sauberen“ Technologien und dass man noch Zeit für Maßnahmen hat, eröffnet dies eine vorteilhafte Verzögerung und weitere Studien. Politische Reaktionen hierauf würden eine breiter gefasste, strategischere Forschung an allen Fronten enthalten. Sollte es internationale Bemühungen gemäß der Maßnahmen-Perspektive (1) geben, sollten diese vollständig durch Außenstehende evaluiert und katalogisiert werden, um sich auf die beste Alternative konzentrieren zu können.
Risiken, falls die „richtige“ Perspektive unbeachtet bleibt?
Falls Maßnahmen (1) korrekt ist: In diesem Szenario wäre die schlechteste aller Reaktionen Verzögerung (4). Die Debatten zwischen Vorschlägen zu Maßnahmen (1) und Verzögerung (4) sind die Lautesten. Jene minimierenden Bedenken um die globale Erwärmung und jene, die der Anpassung an den Wandel Steine in den Weg legen, sind ernste Bedrohungen, wenn man sich auf einen breiten Konsens konzentriert, der zur Umgehung einer Katastrophe erforderlich ist. Kooperierende politische Bemühungen, belastbare Anpassungspläne zu mobilisieren und voranzutreiben, wären von primärer Wichtigkeit.
Politische Perspektiven aus der Herausgefordert-Perspektive (2) können abhängig von den zugrunde liegenden Werten Ergebnisse bringen, die mit jenen unter der Maßnahmen-Perspektive (1) mithalten können. Zu ignorieren, dass „saubere“ Technologie funktioniert, könnte ein Vorteil sein, falls es jemandes‘ Wunsch ist, die Gesellschaft zu verändern und wenn man nicht-technologische Lösungen bevorzugt. Forschung auf neuen Gebieten könnte Antworten liefern, die besser sind als die bestehende „saubere“ Technologie, aber unter der Annahme, dass das Maßnahmen-Szenario (1) korrekt ist, würde eine derartige Politik nichts weiter sein als ein größeres Lotteriespiel.
Eine auf der Förderung-Perspektive (3) beruhende Politik und auch Vorschläge von Verzögerung (4) könnte kurzfristig Vorteile haben und würde eine Reaktion auf den Klimawandel stützen, aber mit einer langsameren Initial-Gangart als optimal wäre. Allerdings könnte eine fundierte Politik aufgrund dieser Perspektiven wahrscheinlich bedeutende zukünftige Vorteile bringen.
Falls Herausforderung (2) korrekt ist: Falls dies das tatsächliche Szenario wäre, könnte Maßnahmen (1) die schlechteste Reaktion sein. Zusätzlich zur Verschwendung wichtiger Ressourcen wird die Konzentration auf Maßnahmen (1) die Flexibilität begrenzen und herausragende Verfahren behindern. Da übernommene politische Maßnahmen, die auf ungeeigneter Technologie basieren, weder das Klimaproblem ansprechen noch ökonomische Probleme sowie solche der Energieversorgung lösen, würden wir uns in einer viel schlechteren Position wiederfinden, als wir es heute sind.
Politische Maßnahmen, die unter den Perspektiven Verzögerung (4) oder Förderung (3) entwickelt worden sind, können in dieser Lage helfen, Forschung und Programme von robustem Wert langfristig auf den Weg zu bringen.
Falls Förderung (3) korrekt ist: Das ist das ,Best Case Scenario‘ überhaupt, da Ängste vor dem Klimawandel übertrieben werden und dann „saubere“ Technologien gut funktionieren sollen. Politische Maßnahmen üben Druck aus, und Anreize, funktionierende „saubere“ Technologien zu übernehmen, sollten weit reichende Vorteile haben. Politische Maßnahmen aufgrund all dieser Perspektiven haben das Potential, langfristig vorteilhaft zu sein, und während Einige suboptimal wären, hätte wahrscheinlich keine Maßnahme lang dauernde negative Konsequenzen.
Falls Verzögerung (4) korrekt ist: Falls dieses Szenario stimmen sollte, ist das Schlechteste, was man tun kann, Maßnahmen (1) zu ergreifen, die die Übernahme der unzulänglichen „sauberen“ Technologie erzwingen. Die ökonomischen und sozialen Auswirkungen teurer neuer unzulänglicher Technologien und die Verbannung existierender Ressourcen könnte verheerende Konsequenzen haben. Zerschlägt man einen großen Teil der Wirtschaft durch Abschalten existierender Anlagen und errichtet stattdessen unzulängliche „saubere“ erneuerbare Anlagen, könnte uns dies sehr schwächen dergestalt, dass uns Ressourcen fehlen mit der Folge, dass andere, echte Risiken auftauchen. Die Auswirkungen von herausgefordert (2) und von daraus resultierender Politik könnte einen gewissen Wert haben, falls die damit verbundenen Kosten nicht extrem sind. Genauso kann eine auf Förderung (3) basierende Politik eine billige Versicherung und von bildungspolitischem Wert sein.
Diskussion
Dieser Rahmen zeigt, dass wir bei Vorliegen jedweder signifikanter Unsicherheit wie z. B. gegenüber den Risiken des Klimawandels oder der Fähigkeit, die Änderung abzuschwächen mittels der heutigen „sauberen“ Technologien sehr zögerlich sein sollten, überambitionierte und präzise Politik-Objektiven zu übernehmen, deren zugrunde liegenden Rechtfertigungen nicht der Realität entsprechen könnten. Ignoriert man schwebende Klima-Kipppunkte wegen eines falschen Glaubens, dass bestehende Technologien ungeeignet sind für die anstehenden Aufgaben, kann das zu einer unnötigen Umweltkatastrophe führen. Vielfache Bemühungen, unzulängliche Technologien durchzusetzen und die bestehende Infrastruktur zu zerschlagen, um übertriebene Umweltprobleme zu lösen, könnte Ökonomien verkrüppeln und tragischerweise die Entwicklung der Dritten Welt verzögern. Der vielleicht schlechteste Fall [worst case] wäre es, direkt mit hohem Tempo ineffektiv ein sehr reales Klimarisiko mit ungeeigneter Technologie anzugehen und dann die Konsequenzen hinsichtlich der Umwelt zu tragen mit ausgelaugter Infrastruktur und beschädigten Ökonomien. Heutige politische Debatten scheinen den Schwerpunkt übermäßig auf das entweder-oder zu legen, obwohl das Problem in Wirklichkeit vielschichtiger ist und eine viel größere Bandbreite von Reaktionen zulässt. Es könnte umsichtig sein, mehrgleisige Strategien in Betracht zu ziehen, um Energiebedarf und Klimaauswirkungen ins Gleichgewicht zu bringen.
Hoffentlich wird diese Taxonomie viele Ansatzpunkte für die Diskussion in den Kommentaren bieten, als da wären: Warum kleben die Menschen an den Perspektiven Maßnahmen (1) oder Verzögerung (4)? Treibt uns die Begrenzung der Debatte auf einen Gegensatz Maßnahmen (1) – Verzögerung (4) in eine unnötige Polarisierung? Wenn wir der „Konsens“-Wissenschaft folgen und dem Verständnis von Energie-„Experten“ – sollten wir die Perspektive herausgefordert (2) als dominant erwarten? Warum ist dies nicht die Hauptperspektive? Könnte es einfacher sein, entweder Maßnahmen (1) oder Verzögerung (4) der Perspektive herausgefordert (2) gegenüber zu stellen, anstatt diese in Diskussionen als Pärchen zu betrachten? Sollten wir genauso skeptisch sein, wenn Energieexperten über das Klima und Klimaexperten über Energie reden? Werden beide Seiten fair angehört von politischen Entscheidungsträgern und der Öffentlichkeit? Welches sind die wahrscheinlichen Risiken und Konsequenzen unserer gegenwärtigen politischen Verfahren? Sollte die Politik breiter angelegt sein und Komponenten von jeder Perspektive enthalten? Gibt es andere Faktoren, die man verwenden sollte, um politische Perspektiven zu klassifizieren? Dieser Beitrag enthält notgedrungen übermäßige Vereinfachungen – wie wichtig können nuancierte Unterschiede werden, wenn wir über die Politik bzgl. sauberer Energie nachdenken?
Link: http://judithcurry.com/2015/02/03/taxonomy-of-climateenergy-policy-perspectives/
Übersetzt von Chris Frey EIKE