Das Rätsel der Eiszeiten, Teil I und II

Was ist SOD, wer ist verantwortlich und was ist seine Philosophie

Science of doom (SOD) (hier) ist ein Klima-Wissenschaftsblog von bester Qualität. Es ist etwas mühsam herauszubekommen, wer ihn betreibt. Schließlich wird man bei Wikipedia fündig. Es sind die beiden Professoren Peter Ward (Paläontologe, Univ. Washington, USA, hier) sowie Donald Brownlee (Atronom an der Univ. Washington, USA, hier). Wer Englisch mag, sollte SOD im Original lesen, denn in der deutschen Übersetzung geht einiges von der angelsächsischen Ironie verloren. Außerdem sind wir der Meinung, dass insbesondere die SOD-Kommentare oft fast ebenso wertvoll sind wie der SOD-Text selber. Hier tummeln sich meist Fachleute. Verbissene Auseinandersetzungen wie in manch anderen Klima-Blogs (wir nennen besser keine Namen), die sich durch mangelnde Fachkenntnissen und der sich daraus ergebenden Unbelehrbarkeit der Streithähne auszeichnen, sucht man in SOD glücklicherweise vergebens. Wir möchten fernen betonen:

Die von uns verfasste deutsche Version ergänzt in vielen Einzelheiten das Original und ist nicht immer die wörtliche Übersetzung. Insbesondere haben wir – wenn es uns zur Verdeutlichung als notwendig errschien – eigene Textteile, Kommentare und fachliche Ergänzungen hinzugefügt.

Das Rätsel der Eiszeiten, Teil 1 – Einführung

Für viele Teilnehmer an der Klimadebatte ist es ein Schock, wenn sie zum ersten Mal erkennen, wie oft und wie stark sich das Klima in der Vergangenheit geändert hat. Selbst Prinz Charles war vermeintlich irritiert, als er fragte:

Nun, wenn es ein Mythos ist und die globale wissenschaftliche Gemeinschaft in eine Art Verschwörung involviert ist, wie kommt es dann, dass auf der ganzen Welt der Meeresspiegel über sechs Inches [über 15 cm] höher liegt als vor 100 Jahren?

Dieser Kommentar von Prinz Charles ist komisch, aber nicht überraschend, da die meisten Menschen keine Ahnung von der Klimavergangenheit haben (Meine tief empfundene Entschuldigung an Prinz Charles, falls er von den Englischen Medien falsch zitiert worden sein sollte)

Man schaue sich nur die folgende "unbequeme" Temperaturgraphik an, wenn man sehen will, wie sich die Temperaturen im Laufe der letzten 150.000 Jahre und weiter noch während der letzten Millionen Jahre verändert haben:


Quelle: “Holmes’ Principles of Physical Geology” 4th Ed. 1993

Die letzte Million Jahre sind unglaublich. Der Meeresspiegel – soweit wir das mit einiger Sicherheit sagen können – hat sich um mindestens 120 m nach oben und unten bewegt, vielleicht sogar noch um mehr. Es gibt nun zwei Sichtweisen, die diese massiven Änderungen zu erklären meinen. Besonders interessant ist dabei, wie die gleichen Daten auf derart unterschiedliche Weisen interpretiert werden können. Entweder nämlich so:

Die gewaltigen Änderungen des Klimas der Vergangenheit, die wir aus Meeresspiegel- und Temperatur-Rekonstruktionen erkennen können, zeigen, dass sich das Klima immer ändert. Sie zeigen, dass die Temperaturzunahme des 20. Jahrhunderts nichts Ungewöhnliches sind. Und sie zeigen, dass das Klima viel zu unvorhersagbar ist, um genau modelliert werden zu können.

Oder ganz anders so:

Die gewaltigen Änderungen des Klimas der Vergangenheit zeigen die sensitive Natur unseres Klimas. Kleine Änderungen der Solarstrahlung und kleinere Änderungen der Verteilung der Sonnenenergie über die Jahreszeiten (durch kleinere Änderungen im Erdorbit) haben zu Klimaänderungen geführt, die heute katastrophal wären. Klimamodelle können diese Änderungen der Vergangenheit erklären. Und wenn wir den Strahlungsantrieb des anthropogenen CO2 mit diesen kleinen Änderungen vergleichen, erkennen wir, was für eine unglaubliche Gefahr wir für unseren Planeten erschaffen haben.

Ein Datensatz also, aber zwei völlig verschiedene Sichtweisen. Wir werden versuchen, diese "Geister der Klimavergangenheit" im Nachfolgenden besser zu verstehen.

Das Rätsel der Eiszeiten, Teil II – Lorenz

Vor sehr langer Zeit habe ich den Beitrag Ghosts of Climates Past geschrieben. Ich habe viele Paper zu den Eiszeiten und den Zwischeneiszeiten gelesen, bin aber nie an den Punkt gelangt, von dem ab ich irgendetwas Zusammenhängendes schreiben konnte. Dieser Beitrag ist mein Versuch, wieder in die Gänge zu kommen – nachdem ich lange Zeit zu beschäftigt gewesen war, irgendwelche Artikel zu schreiben.

In seinem Paper aus dem Jahr 1968 mit dem Titel Climatic Determinism – präsentiert auf einem Symposium unter dem Motto Causes of Climatic Change – schreibt der berühmte Edward Lorenz:

Die oft akzeptierte Hypothese, dass die physikalischen Gesetze, die das Verhalten der Atmosphäre bestimm, das Klima eindeutig festlegen, wird kritisch geprüft. Es ist zu betonen, dass es physikalische Systeme gibt, deren Statistiken über unbegrenzte Zeitintervalle eindeutig durch herrschende Gesetze und Umweltbedingungen gesteuert werden (transitive Systeme); und es andere Systeme gibt, bei denen das nicht der Fall ist (intransitive Systeme).

Es gibt auch bestimmte transitive Systeme (fast intransitive Systeme), deren Statistiken sich über sehr lange, aber begrenzte Zeitintervalle merklich von einem Intervall zum nächsten unterscheiden. Es wird hier die Möglichkeit in Erwägung gezogen, dass langzeitliche klimatische Änderungen eher aus der Fast-Intransitivität der Atmosphäre resultieren, als dass sie von äußeren Umweltänderungen verursacht werden.

Diese Sprache könnte vielen Lesern etwas dunkel vorkommen. Aber Lorenz verdeutlicht in seinem Paper weiter:

……Während dieses Symposiums kann erwartet werden, dass viele alternative und manchmal Widerspruch auslösende Erklärungen angeboten werden. Einige davon werden Änderungen des Klimas den Änderungen der Eigenschaften der Ozeane zuordnen. Andere können sich auf Variationen vulkanischer Aktivität beziehen. Wieder andere werden Fluktuationen der Sonnenstrahlung berücksichtigen.

Die von mir gewählten Erklärungen haben als Hauptgrund für die Änderungen des Verhaltens der Atmosphäre die Änderungen der Umgebung dieser Atmosphäre. Jene, die solche Erklärungen propagieren, könnten mit sehr guten Gründen annehmen: falls Umwelteinflüsse vor langer Zeit die Gleichen gewesen wären wie heute, müsste auch das historische Klima das Gleiche gewesen sein; daher die Notwendigkeit des Bezugs auf Umweltänderungen als eine Erklärung. Kurz gesagt, sie könnten zu der nicht unvernünftigen Schlussfolgerung kommen, dass die Umgebung der Atmosphäre zusammen mit der internen Physik der Atmosphäre das Klima auf mehr oder weniger eindeutige Weise bestimmt.

Genau diese Hypothese, nämlich dass einzig die die Atmosphäre steuernden physikalischen Gesetze für das Klima verantwortlich sind, möchte ich kritisch überprüfen.

[Link zum Original dieses Ausschnitts: http://scienceofdoom.files.wordpress.com/2013/10/lorenz-1968-1.png]

Lorenz fasst hier also transitive Systeme ins Auge – das heißt, die Anfangsbedingungen bestimmen nicht den zukünftigen Klimazustand. Stattdessen tun dies die Physik und die „äußeren Einflüsse“ oder Antriebe (wie die auf dem Planeten einfallende Solarstrahlung). Lorenz schreibt weiter:

Vor allem, wenn die ein physikalisches System steuernden Gleichungen linear sind, kann ein einheitlicher Satz langfristiger Statistiken oft in analytischer Form ausgedrückt werden. Allerdings sind die die Atmosphäre steuernden Gleichungen in höchstem Maße nicht linear. Die den Hauptteil der Schwierigkeiten ausmachenden Nichtlinearität ist Advektion – der Transport von bestimmten Eigenschaften der Atmosphäre von einem Gebiet zu einem anderen Gebiet durch die Bewegung der Atmosphäre selbst. Da die Bewegung der Atmosphäre von einer Stelle zu einer anderen ebenfalls eine der Eigenschaften der Atmosphäre ist, die von abhängigen Variablen repräsentiert wird, werden jene Terme in den Gleichungen, die die Advektion repräsentieren, quadratisch sein, was das gesamte System nichtlinear macht.

Im Falle nichtlinearer Gleichungen ist die Einheitlichkeit langzeitlicher Statistiken nicht sicher. Die mathematische Modellbildung als System von gekoppelten Gleichungen, ausgedrückt in deterministischer Form, zusammen mit einem spezifizierten Satz von Anfangsbedingungen, bestimmen die zeitabhängige Lösung. Diese erstreckt sich unendlich in die Zukunft und legt daher einen Satz langzeitlicher Statistiken fest. Bleibt die Frage, ob derartige Statistiken unabhängig von der Wahl der Anfangsbedingungen sind. Wir definieren ein transitives System von Gleichungen als eines, bei dem dies der Fall ist. Gibt es jedoch zwei oder noch mehr Sätze langzeitlicher Statistiken, von denen jede eine Wahrscheinlichkeit größer als Null für die Abhängigkeit von den gewählten Anfangsbedingungen aufweist, nennen wir das System intransitiv.

Bisher sind dies nur Definitionen. Die mathematische Theorie sagt uns aber, dass sowohl transitive als auch intransitive Systeme existieren. Mehr noch, bislang wurde kein einfacher Weg gefunden, zu entscheiden, ob ein willkürliches vorgelegtes Gleichungssystem transitiv oder intransitiv ist.

[Link: http://scienceofdoom.files.wordpress.com/2013/10/lorenz-1968-21.png]

Hier führt Lorenz das verbreitet bekannte Konzept eines „chaotischen Systems“ ein, in dem unterschiedliche Anfangsbedingungen zu unterschiedlichen langzeitlichen Ergebnissen führen. (Man beachte, dass es chaotische Systeme geben kann, in welchen unterschiedliche Anfangsbedingungen unterschiedliche Zeitreihen mit den gleichen statistischen Eigenschaften über einen Zeitraum erzeugen – daher ist "intransitiv" die restriktivere Bezeichnung (siehe die Originalarbeit für mehr Einzelheiten).

3. Beispiele eines intransitiven Systems

Da ein intransitives physikalisches System, in dem die physikalischen Gesetze nicht einheitlich das Klima steuern, ein ungewöhnliches Konzept ist, seien ein paar Beispiele genannt. Eines wird durch Laborexperimente zur Simulation bestimmter atmosphärischer Vorgänge geliefert (siehe Fultz et al. 1959 und Hide 1958). Der Versuchsaufbau besteht im Wesentlichen aus einem rotierenden Bassin mit Wasser, das einer unterschiedlichen Erwärmung ausgesetzt wird. Die Bewegung des Wassers wird durch ein Kontrastmittel sichtbar gemacht. Unter geeigneten Bedingungen ensteht ein sich um die Rotationsachse bewegendes Wellenmuster.

Unter bestimmten festgelegten Bedingungen wird eine Anordnung von vier Wellen unbegrenzt lange bestehen bleiben, wenn es sich erst einmal gebildet hat; aber eine Anordnung von fünf Wellen bleibt ebenfalls unbegrenzt lange bestehen. Das ist ein wirklich intransitives System. Externes Manipulieren wie umrühren des Wassers mit einem Bleistift kann das System von vier Wellen in eines mit fünf Wellen umwandeln und umgekehrt. Unter geringfügig veränderten festgelegten äußeren Bedingungen wie z. B. einer etwas höheren Rotationsgeschwindigkeit, wird sich nur das System mit fünf Wellen ausbilden. In diesem Falle ist das System transitiv. Transitivität ist eine qualitative Eigenschaft des Experiments, aber sie hängt definitiv ab von den quantitativen Eigenschaften der Eingangsgrößen.

Ein anderes Beispiel wird durch einfache numerische Modelle zur Simulation allgemeiner Eigenschaften der Atmosphäre geliefert (siehe z. B. Lorenz 1963). Sowohl transitive als auch intransitive Systeme sind leicht zu konstruieren. Der Unterschied zwischen ihnen kann einfach der numerische Wert eines einzelnen vorbestimmten Parameters sein.

Wie ist das nun in der realen Atmosphäre? Ist sie transitiv? Wir wissen es nicht. Die Atmosphäre ist weder ein Laborexperiment noch ein Zahlensatz in einem Computer, und wir können sie nicht abschalten und dann erneut in Bewegung setzen, um zu sehen, ob sich ein neues Klima bildet. Auch die derzeit bekannte mathematische Theorie gibt uns darauf keine Antwort.

Wie war das doch gleich wieder mit der realen Atmosphäre? Es war nicht meine ursprüngliche Absicht, einen Pflock "Fast-Intransitivität" als Hauptgrund für eine Klimaänderung einzuschlagen. Allerdings ist die Fast-Intransitivität ein zu wichtiges Phänomen, um als Ganzes missachtet zu werden. Was dieses Symposium angeht, habe ich den deutlichen Eindruck, dass auch niemand anders einen solchen Pflock einschlagen wird. Lassen Sie mich also sagen, dass ich Fast-Intransitivität als prinzipiellen Grund für Klimaänderungen für möglich halte, aber nicht in der Lagen bin zu sagen, sie sei der wahrscheinlichste Grund. Vielleicht kann man einmal mehr sagen, wenn wir die Gelegenheit erhalten, die Lösungen von viel größeren numerischen Modellen auf viel längere Zeitintervalle auszudehen und dabei zu sehen, ob Fast-Intransitivität im Zeitmaßstab von Jahrhunderten und nicht nur von Jahren auftritt.

5. Schlussfolgerungen

Trotz unseres mageren Wissens über die Fast-Intransitivität können wir ein paar Schlussfolgerungen ziehen. Zum Einen kann die bloße Existenz langzeitlicher Klimaänderungen nicht aus sich selbst heraus als Beweis für Umweltveränderungen herangezogen werden; es gibt jetzt alternative Erklärungen. Und schließlich, was ist mit der nicht unwahrscheinlichen Möglichkeit, dass die Atmosphäre fast-intransitiv ist, falls die Umwelteinflüsse konstant sind, während gleichzeitig äußere Umweltveränderungen stattfinden? Die Auswirkungen dieser Änderungen werden dann schwieriger zu entdecken  und kausale Beziehungen schwieriger zu etablieren sein. Zum Beispiel: eine Umweltveränderung, die einen Temperaturanstieg um 2°C zur Folge hat, könnte genau zu der Zeit erfolgen, wenn die Temperatur als Folge der Fast-Intransitivität um 2°C fällt. Die Umweltveränderung bleibt dann unbemerkt, weil niemand einen Grund erkennt, nach ihr zu suchen.

Zusammengefasst kann das Klima deterministisch sein oder auch nicht. Möglicherweise werden wir das niemals sicher sagen können. Wenn aber die mathematische Theorie weiter entwickelt wird, könnten wir hinsichtlich unserer Ansichten allmählich sicherer werden.

Nun, das ist ein interessanter Ansatz des bedeutenden Lorenz‘. Ein späteres Paper, nämlich von Kagan, Maslova & Sept (1994) kommentierte Lorenz‘ Studie aus dem Jahr 1968 und erzielte mit einem ziemlich einfachen Modell interessante Ergebnisse:

Bild: Spektrale Intensität von Klimaperiodizitäten gegen Frequenz in [1/tausend Jahre], die Periodenlänge ergibt sich aus dem Kehrwert der Frequenz.

Im paper von Kagen und Maslova findet sich weiter folgender Kommentar:

Man beachte folgende bemerkenswertesten Eigenschaften: erstens, die starken Maxima bei den Perioden 80 x 10³, 41 x 10³, 21 x 10³ und 18 x 10³ Jahren nahe der Exzentrizitäts-Periode (~100 x 10³ Jahre), der "precessional"-Periode (~41 x 10³ Jahre) sowie der Präzessions-Perioden (~23 x 10³ und ~19 x 10³ Jahre).  zweitens, eine Abnahme der Amplituden der Ozeantemperatur-Oszillationen mit Perioden von 21 x 10³ und 18 x 10³ Jahren mit zunehmender Tiefe (oder Breite); und drittens die führende Rolle der Änderungen des Partialdrucks des atmosphärischen CO2 während Änderungen der kontinentalen Eismassen (cf. Abbildungen 2a und 2b).

Diese Eigenschaften der Lösung sind ähnlich den aus geochemischen Studien gewonnenen Daten (Broecker und Danton 1989; Imbrie 1992; Ruddiman und McIntyre 1984), jedoch in keiner Weise verbunden mit Variationen der astronomischen Parameter. Im Einzelnen sind 80 x 10³ Jahre eine Periode diskontinuierlicher Auto-Oszillationen. 41 x 10³ und 21 x 10³ Jahre sind Perioden ihrer Schwingungen, und 18 x 10³ Jahre ist eine Periode, die definiert wird durch die Differenz zwischen der Lebenszeit einer normalen (gegenwärtigen) und anormalen (umgekehrten) Zirkulation (Abbildung 2c). Mit anderen Worten, in unserem Fall ist der Grund für die oben genannten Eigenschaften die interne Variabilität des Klimasystems als Folge von diskontinuierlichen Auto-Oszillationen der ozeanischen thermohalinen Zirkulation.

Das heißt, ein paar zusammen arbeitende gekoppelte Systeme können ausgeprägte Veränderungen des Erdklimas auslösen in Zeiträumen wie 80.000 Jahren. Falls irgendjemand denken könnte, dass es lediglich obskure ausländische Journale sind, die über Lorenz‘ Arbeit schreiben, so hat der viel veröffentlichte Klimaskeptiker(?) James Hansen dazu Folgendes zu sagen {– Redaktionelle Anmerkung: Das Fragezeichen wurde von uns hinzugefügt, denn wir kennen J. Hansen nur als AGW-Aktivisten, seine Eigenschaft als "Klimaskeptiker" ist uns neu –}:

Die Variation der globalen mittleren jährlichen Lufttemperatur während des 100-jährigen Kontrolllaufes zeigt die weiter unten stehende Abbildung. Die globale mittlere Temperatur am Ende des Laufes ist sehr ähnlich derjenigen zu Beginn, aber es gibt eine substantielle Variabilität ohne äußeren Antrieb in allen Zeiträumen, die untersucht werden können, das heißt bis zu Zeiträumen von Jahrzehnten. Man beachte, dass eine Änderung (ohne äußeren Antrieb) der globalen Temperatur von etwa 0,4°C (0,3°C, wenn die Kurve mit einem 5-jährigen gleitenden Mittel geglättet wird) in einem 20-Jahres-Zeitraum aufgetreten ist (Jahre 50 bis 70). Die Standardabweichung über das 100-jährige Mittel beträgt 0,11°C. Diese Variabilität (ohne äußeren Antrieb) der globalen Temperatur im Modell ist nur wenig kleiner als die beobachtete Variabilität der globalen Temperatur während des vorigen Jahrhunderts wie in Abschnitt 5 diskutiert. Die Schlussfolgerung, dass eine (ohne äußeren Antrieb und unvorhersagbare) Klimavariabilität für einen Großteil der Klimaänderung ursächlich sein kann, ist von vielen Forschern betont worden; zum Beispiel Lorenz (1968), Hasselmann (1976) und Robock (1978).

Und hier nun der Kontrolllauf aus der Studie von J. Hansen:

Abbildung (J. Hansen): Trend der globalen jährlichen Mitteltemperatur während des 100-jährigen Kontrollaufes.

{– Redaktionelle Anmerkung: Inzwischen weiß man, dass solche Fluktuationen, wie in der Abbildung von J. Hansen gezeigt, durch "Persistenz" oder Autokorrelation jeder realen Temperaturreihe auftreten. Die hier geltende Theorie (Hurst-Exponent) ist rein empirisch, also modellfrei, physikalische Ursachen der Persistenz von Temperaturreihen sind nicht bekannt (hier) –}.

In späteren Artikeln werden wir einige Theorien der Milankovitch-Zyklen beleuchten. Verwirrenderweise laufen viele unterschiedliche Theorien, die zumeist auch noch jeweils inkonsistent miteinander sind, alle unter der gleichen Bezeichnung "Milankovitch".




Veranstaltung in Berlin: Die Klimadebatte und ihre Folgen

Hier der Einladungstext:

Die nächste Folge unserer Diskussionsreihe „Fokus@Helmholtz“ soll unter dem Titel: „Was können wir glauben? Die Klimadebatte und ihre Folgen“ laufen. Ende März wird der zweite Teil des IPCC-Berichtes in Yokohama, Japan veröffentlicht. Er wird erneut Fragen um den Klimawandel, seine Folgen und Auswirkungen auf Mensch und Umwelt aufwerfen. Internationalen Wissenschaftler diskutieren schon jetzt zum Teil kontrovers und ringen um gemeinsame Antworten in der Klimafrage. Wenn Wissenschaftler sich schwer tun, wie können da die Bürgerinnen und Bürger verstehen, was mit unserem Klima passiert und verantwortungsvoll handeln. Warum verläuft der Streit zwischen den Forschern so heftig? Was treibt die Klimaskeptiker an? Und: Welche Fragen können Klimamodelle überhaupt beantworten? Viele Menschen fragen sich, woran sie eigentlich glauben sollen: Ist der Klimawandel doch nicht so schlimm, wie gedacht? Welchen Einfluss hat der Mensch auf ihn und in welchem Maße? Welche Rolle spielen politische Interessen, wenn es um Vorhersagen geht?

Wir laden Sie herzlich zur vierten Veranstaltung der Reihe Fokus@Helmholtz am Montag, 17. März 2014, um 19:00 Uhr (Einlass ab 18:30 Uhr) ins DKB-Atrium (Taubenstraße 7, 10117 Berlin) ein. Unter der Überschrift „Was können wir glauben? Die Klimadebatte und ihre Folgen“ wollen wir gemeinsam mit Ihnen und mit Vertretern aus Wirtschaft, Hochschule und außeruniversitärer Forschung diskutieren.

Wir bitten um An­mel­dung.

Die Veranstaltungsreihe Fokus@Helmholtz bringt regelmäßig Forschung, Politik und Gesellschaft zusammen, um miteinander über strittige Zukunftsfragen zu diskutieren. Die Helmholtz-Gemeinschaft möchte dabei gemeinsam mit ihren Gästen den Blick über den Tellerrand wagen, Handlungsoptionen hinterfragen und Denkanstöße liefern.

Und hier das Podium:

Pro­gramm

Begrüßung:

♦  Prof. Dr. Jürgen Mlynek, Präsident Helmholtz-Gemeinschaft

Podiumsdiskussion:

   Frank Drieschner, Die Zeit

   Dr. Oliver Geden, Stiftung Wissenschaft und Politik

  Dr. Peter Heller, „Science Skeptical Blog”

   Prof. Andreas Hense, Universität Bonn

   Prof. Hans von Storch, Helmholtz Zentrum Geestacht Zentrum für Material- und Küstenforschung

Moderation: Jan-Martin Wiarda, Helmholtz-Gemeinschaft

Die Veranstaltung ist öffentlich und vielleicht für den ein oder anderen Leser aus der Berliner Region interessant. Auch wenn ich nur der “Quotenskeptiker” bin, es ist schon mutig von der Helmholtz-Gemeinschaft, jemanden wie mich einzuladen. Vor vier oder fünf Jahren wäre dies wohl kaum möglich gewesen. Wenn man es denn überhaupt in Erwägung gezogen hätte. Meine Teilnahme geht übrigens nicht auf die Bekanntheit und die Wirkung von Science Skeptical zurück, sondern schlicht auf die Vermittlung durch Hans von Storch, bei dem ich mich an dieser Stelle dafür bedanken möchte.

Der Teaser zeigt allerdings einen immer noch vorhandenen Mangel an Unvoreingenommenheit. Was die Skeptiker antreibt weiß ich nicht, es ist auch nicht relevant. Die Frage ist doch vielmehr, was eigentlich die Alarmisten an ihren Horrorszenarien und Transformationsphantasien so toll finden. Schließlich bedarf Vernunft keiner weiteren Begründung, das Beharren, an etwas glauben zu müssen, aber schon. Glauben mag man, was man will, solange man den Unterschied zum Wissenberücksichtigt.

Ich bin gespannt, wie das laufen wird. Und wenn am Ende des Abends die Leute mit dem Wissen nach Hause gehen, daß Skeptiker keine okkulten Rituale feiern und Satan anbeten, sondern die eigentlich kühlen Köpfe in der Klimadebatte sind, dann wäre das schon genug.

Peter Heller übernommen von Science Sceptical




Stromautobahn oder Schmalspurbahn?

Versorgung oder Entsorgung?

Zuerst sollte man einmal den Sinn und Zweck dieser neuen Hochspannungs-Gleichstrom-Übertragung (HGÜ) hinterfragen: Dient sie der Versorgung von Süddeutschland mit elektrischer Energie oder vielmehr der Entsorgung norddeutscher Küsten vom Abfallstrom? Durchaus zwei völlig verschiedene Ansätze, die noch zahlreiche Juristen beschäftigen werden. Noch funktioniert die Stromversorgung in Bayern, nicht zuletzt wegen der hohen Eigenerzeugung der lokalen Kernkraftwerke (Isar2, Grafenrheinfeld, Gundremmingen mit zusammen 5.257 MWel). Jedenfalls ist noch kein Blackout eingetreten. Diese Gefahr soll erst durch deren Abschaltung heraufbeschworen werden, damit die Anhänger der Planwirtschaft richtig zuschlagen können. Apropos Richtung: Selbst, wenn man gegen die vorhandenen Kernkraftwerke ist, könnte man diese durch konventionelle Kraftwerke oder Stromimporte aus dem benachbarten Ausland ersetzen. Will man partout keine eigenen Kraftwerke (Arbeitsplätze und Steuereinnahmen), könnte man sie leicht und schnell "hinter der Grenze" bauen. Die Lage ist also alles andere, als alternativlos — jedenfalls für Bayern.

Schauen wir uns deshalb etwas näher den Anfang dieser Stromtrasse an. Wenn dort der Wind mal richtig weht — das heißt nicht zu schwach und auch wieder nicht zu stark — versinkt Norddeutschland in elektrischer Energie. Selbstverständlich gehört es zur unternehmerischen Freiheit, ein Solarium in der Sahara zu errichten. Nur gehört zum Unternehmer auch das Risiko tragen zu müssen. Eine Tatsache, die bei deutschen Energieversorgern längst verdrängt worden ist. Wenn man nach der Fertigstellung feststellt, daß die Kunden nicht Schlange stehen, weil die Wüste zu gering bevölkert ist, kann man dafür nicht Menschen in einer Entfernung von über tausend Kilometern verantwortlich machen. Fairerweise muß man unseren Kombinatsleitern zubilligen, daß sie die Windmühlen nicht als leuchtende Köder für die zahlreicheren Fische einsetzen wollten. Jedenfalls haben sie sich die erforderliche Bauzeit für die Anschlüsse an die Küste von uns Stromkunden fürstlich vergüten lassen. An der Küste treffen nun diese Windmühlen auf zahlreiche "Windparks", die dort unter tatkräftiger Förderung lokaler Politiker aus dem Boden gestampft wurden — alles wegen der "grünen Arbeitsplätze" — denn sonst ist da nicht viel los! Wohin, aber nun mit dem Abfallstrom, den man selbst gar nicht verbrauchen kann und den auch sonst keiner haben will, weil einfach viel zu teuer? Ab ins reiche Bayern, als eine weitere Variante des Länderausgleich, könnte man meinen.

Kernenergie versus Wind

Die neue Stromtrasse soll bei den Kernkraftwerken enden. Es ist durchaus sinnvoll, die dort vorhandenen Stromleitungen weiter zu nutzen. In erster Linie geht es jedoch darum, den Eindruck zu erwecken, man ersetze den "Atomstrom" durch "Erneuerbare Energien". Physikalisch ist das natürlich unmöglich: Man kann konventionelle Kraftwerke nicht durch Windenergie ersetzen, da der Windstrom so zufällig, wie das Wetter ist! Wirtschaftlich ist es unsinnig, da man (selbst bei Windparks in der Nordsee) mehr als die vierfache Leistung benötigt, um die gleiche Energie erzeugen zu können. Die bayrischen Kernkraftwerke haben eine Arbeitsverfügbarkeit von durchweg 90 %, während die Windenergie in Ost- und Nordsee auf gerade mal 20 % kommt. Wohlgemerkt, das sind die tatsächlich gemessenen Werte und nicht irgendwelche Phantasiewerte der Schlangenölverkäufer. Da es auch auf hoher See mehrtägige Flauten und Orkane gibt, kommt man nicht umhin, die Kernkraftwerke trotzdem durch fossile Kraftwerke zu ersetzen. An dieser Stelle wird es noch einmal deutlich: Die neuen Stromtrassen können nicht zu einer sicheren und unterbrechungsfreien Stromversorgung von Bayern dienen. Sie dienen lediglich zur Verteilung von Stromabfall aus Norddeutschland. Bisher gibt es nicht einmal "überzählige Kraftwerke" in Norddeutschland, die die bayrischen Kernkraftwerke ersetzen könnten: Weht kein Wind an der Küste, brauchen die ihre Kohlekraftwerke selber, um die Großräume von Hamburg, Bremen und Berlin ausreichend mit Strom zu versorgen.

Ein Solitaire ist kein Stromnetz

Besonders aberwitzig ist, eine Hochspannungs-Gleichstrom-Übertragung (HGÜ) bauen zu wollen. Gleichstrom und Drehstrom sind physikalisch verschieden und lassen sich nicht einfach mischen! Man muß den erzeugten Drehstrom erst aufwendig in Gleichstrom umwandeln und später wieder zurück wandeln. Beides ist mit Verlusten behaftet und erfordert sehr kapitalintensive Anlagen. Wirtschaftlich lohnt sich das nur, bei sehr großen Entfernungen durch dünn besiedelte Regionen. Man kann nämlich nirgendwo unterwegs Strom abzweigen, um ihn in lokale Netze einzuspeisen. Der Gleichstrom müßte erst wieder in Wechselstrom gewandelt werden. Die Bezeichnung "Stromautobahn" ist bewußt irreführend. Auf einer Autobahn kann man mit jedem Kraftfahrzeug, mit dem man im sonstigen Straßennetz fahren kann, ebenfalls fahren. In Berlin sogar einmal im Jahr mit dem Fahrrad. Die Bezeichnung "Schmalspurtrasse" wäre treffender. Genauso, wie man mit keinem Normalspurwaggon auf einer Schmalspur fahren kann und erst alles aufwendig (zweimal) umladen muß. Eine solche HGÜ-Trasse bleibt ewig ein Fremdkörper im vorhandenen (europaweiten) Stromnetz.

Wäre das Stromnetz in Deutschland in der Lage, auch ohne die Kernkraftwerke in Süddeutschland die Versorgungssicherheit aufrecht zu halten, bräuchte man keine zusätzlichen Stromleitungen. Andererseits bringt eine einzelne HGÜ-Trasse fast nichts für die Bayrische Versorgungssicherheit. Fällt nämlich diese einzelne Leitung (Eisregen, Sturm, Unfälle, Terrorismus etc.) aus, müßte das vorhandene Netz die Versorgung sicher übernehmen können. Ein Widerspruch in sich! Es ist die alt bekannte Salamitaktik, die hier angewendet werden soll. Erst mal eine Milliarde versprechen, aus denen dann ohnehin drei werden und dann das bereits vergrabene Geld als Begründung für weitere notwendige Kosten nehmen. Michel, wann lernst du endlich dazu!

Die Kosten

Die Kosten sind immens. Um die Regeln für Netzwerke (z. B. N-1) einhalten zu können, wird man noch mehrere HGÜ-Trassen durch Deutschland schlagen müssen. Das ist halt der Preis, den man für eine zentrale Versorgung zahlen muß. Schon unsere Großväter haben aus gutem Grund, viele Kraftwerke, möglichst nah am Verbraucher, gebaut. Wir können aber gerne die Fehler anderer Kontinente nachmachen.

Interessant wird sich die Finanzierung gestalten. Bei einer Stromtrasse für Windkraft, muß man von einer sehr geringen Auslastung (unter 20%) ausgehen. Dies treibt die Kosten pro transportierter kWh in Schwindel erregende Höhen. Hinzu kommt ein enormes wirtschaftliches Risiko. Bei der einseitigen Ausrichtung auf Windparks in der Nordsee, ist dies kaum zu kalkulieren. Wer kann garantieren, dass dieses tote Pferd, von einer uns noch völlig unbekannten Regierung, in 10 oder 20 Jahren noch geritten wird? Wer vermag heute voraus zu sagen, in welche Höhen der Strompreis in Deutschland durch die Laiendarsteller und Schlangenölverkäufer noch getrieben wird? Wo liegt die Schmerzgrenze, die zumindest von der Wirtschaft nicht mehr getragen werden kann? Was hätte das für Konsequenzen, da nicht einmal unsere Nachbarn gewillt sind, diesen Irrweg nach zu machen? Was es für eine Volkswirtschaft bedeutet, wenn Milliardenkredite bei Immobilien platzen, zeigen übrigens Spanien und Irland eindrucksvoll (dort war es ein durch die Politik erzeugter Bauboom bei Wohnungen).

Die tolle Idee einer Bürgerbeteiligung dürfte sich schon vor dem Start in Luft aufgelöst haben. Der Bürger hat dank Prokon gelernt, was es bedeutet, wenn das Risiko der Windkraft von Banken als zu hoch eingeschätzt wird. Es war — wie immer — ein sicheres Zeichen, für ein totes Geschäftsmodell, aus dem nichts mehr herauszuholen ist.

Ein möglicher Ausweg

Man macht endlich Schluß mit dieser "Energiewende", an deren Ende nicht nur die Zerstörung unserer Volkswirtschaft und Natur steht, sondern unserer gesamten Gesellschaft. Sind die Lehren aus der "DDR" schon so schnell vergessen? Diesmal wird es kein Beitrittsgebiet geben. Diesmal, wird die Suppe bis zum letzten Tropfen selbst ausgelöffelt.

Wenn die Bayern ihre Kernkraftwerke nicht mehr mögen, sollten sie sich selbst um Ersatz kümmern. Wer Kernkraftwerke generell ablehnt, muß sich entsprechende Kohlekraftwerke als Ersatz bauen. Wer als Entscheidungsträger nicht durchsetzungsfähig ist, sollte neue Kraftwerke gleich hinter der Grenze bauen. In Polen und Tschechien sind (gut bezahlte) Arbeitsplätze noch heiß begehrt. 

Der "Netzausbau" ist nach den Sonnenkollektoren und den Windparks auf hoher See, die dritte Schnapsidee. Jetzt soll auch noch unser funktionierendes und robustes Stromnetz auf dem Altar der Planwirtschaft geopfert werden. Nach zweimal Sozialismus, sollten wir uns endlich mal eine "Irrtumskultur" zulegen und diesmal rechtzeitig vor dem Zusammenbruch aufhören, unseren (Alb)Träumen nachzujagen.

Der Beitrag erschien zuerst bei NukeKlaus hier




Statistik und Verfügbarkeit von Wind- und Solarenergie in Deutschland

 Windkraft

Wetter ist ein zufälliges Phänomen – vor einem Ausflug ins Grüne kann die Wettervorhersage schon mal eine spannende Sendung sein. Wir sind diesem Zufall auch ausgeliefert – nicht umsonst können Ausflüge buchstäblich ins Wasser fallen. Und obwohl Wind und Wetter zufällig sind, hat jeder ein vernünftiges Gefühl dafür: Im Sommer kommen sonnige Tage öfter vor als etwa im Spätherbst. Mit windigem Wetter verhält es sich eher umgekehrt. Wie würden wir uns ein Bild davon machen, ob es an einem bestimmten Ort eher windiger oder weniger windig ist? Wir würden die Windintensität als Windgeschwindigkeit messen und dann die Tage oder Stunden auszählen, an denen die Windgeschwindigkeit z. B. zwischen 2 und 2,5m/s liegt. Das ganze würden wir in einem Diagramm auftragen – dieses Häufigkeitsdiagramm, auch Histogramm genannt, charakterisiert die Windigkeit an einem Ort. In diesem Diagramm kann man ablesen, wie sich die Windgeschwindigkeit im Verlaufe eines Zeitraums auf niedrige und hohe Windgeschwindigkeiten verteilt. Für diese Verteilung hat sich in der Szene der Begriff Windhöffigkeit eingebürgert.

Diese Wind-Häufigkeitsdiagramme haben überwiegend eine ähnliche Struktur, gleichgültig wo man sie gemessen hat: Lediglich die durchschnittliche Geschwindigkeit und die Höhe der Histogramm – Linien verschiebt sich etwas. Bei großen Windgeschwindigkeiten verschieben sich die Linien zu höheren, bei kleinen Windgeschwindigkeiten zu niedrigeren Werten hin. Es ist allgemein anerkannt, dass der Wind nach einem ganz bestimmten Häufigkeitsschema verteilt ist, das nach dem schwedischen Mathematiker Weibull benannt ist. Man spricht daher von einer Weibull-Verteilung.

 

Abbildung 1: Weibull- Verteilung bei einer mittleren Windgeschwindigkeit von 5,75m/s

Bei einem Windrad erzeugt nun der Wind auf die Rotorflügel einen Druck, der den Rotor in Drehung versetzt. Diese Kraft auf den Rotor erzeugt im Generator den Strom, den ein Windrad ins Netz einspeist. Die Menge an produziertem Strom wird nach Kilowattstunden (kWh) bemessen – so wie im Privathaushalt die Strommenge nach kWh abgerechnet wird, wird auch die Stromproduktion so gemessen. Genaugenommen verbirgt sich hinter der Kilowattstundenzahl nicht die Strommenge, sondern der Gegenwert an Energie, den ein Windrad produziert. Wenn ein Windrad nun gemütlich vor sich hin trudelt, wird es einen längeren Zeitraum brauchen, um eine bestimmte Strommenge zu produzieren. Bei schwachem Wind (Windgeschwindigkeit 4 m/s)  braucht ein 3000 kW Windrad ungefähr 20 Stunden, um den Jahresverbrauch eines Haushalts von 2500 kWh zu erzeugen. Bei starkem Wind (Windgeschwindigkeit 10 m/s) kann es die gleiche Strommenge in nur einer Stunde produzieren – das Windrad läuft mit weitaus höherer Anstrengung und leistet mehr. Der Grad der Anstrengung einer Maschine wird in der Fachsprache als deren Leistung bezeichnet. Die größte Leistung einer Maschine ist deren Nennleistung. Die Leistung wird in der Einheit kW gemessen- bei Autos hat sich bis heute die Angabe in PS gehalten. Die PS-Zahl ist beim Auto die Nennleistung des Motors.

Strom muss im Augenblick des Verbrauchs produziert werden- die Leistung der Stromquelle muss in jedem Augenblick mit der Leistung des Verbrauchers übereinstimmen. Aus diesem Grund ist für die Beurteilung der Verfügbarkeit die sogenannte momentane Leistung (kW) und nicht die Strommenge (physikalisch korrekter: die Arbeit, gemessen in kWh) für die Beurteilung maßgeblich.

Die Leistung (kW) eines Windrads steigt und fällt mit der Windgeschwindigkeit. Die im Windrad produzierte elektrische Leistung schwankt mit der Windgeschwindigkeit.  Man würde salopp sagen, je höher die Windgeschwindigkeit ist, desto höher ist auch die Leistung des Windrads. Leider ist es nicht ganz so einfach, weil die Leistung sehr viel stärker anwächst als die Windgeschwindigkeit selbst: Wie man sagt, ist dieser Zusammenhang bei einem Windrad „kubisch“, d. h. die Leistung des Windrads ändert sich mit der 3. Potenz der Windgeschwindigkeit. Dieser Zusammenhang ist bekannt, seit man Ventilatoren, Propeller und Schiffsschrauben baut. Das bedeutet, dass sich die Leistung verachtfacht, wenn sich die Windgeschwindigkeit verdoppelt. Die Leistung eines Windrads reagiert also sehr empfindlich auf Änderungen der Windgeschwindigkeit. Das kann man auch daran ablesen, dass die Produktion der gleichen Strommenge mal fast einen ganzen Tag und bei günstigem Wind nur eine Stunde dauert. Bei einem Windrad mit einer Leistung von 3000 kW bedeutet das, dass die Leistung von 37 kW auf 480 kW anwächst, wenn sich die Windgeschwindigkeit von 3 m/s auf 6 m/s erhöht. Die genannten Zahlen stammen aus einem Datenblatt für eine Enercon 101- Windkraftanlage. Diese Leistungscharakteristik könnte für eine Stromversorgung ungünstiger nicht sein – schließlich ändert sich die Windgeschwindigkeit zufällig je nach Wetterlage. Eine kaum spürbare Erhöhung der Windgeschwindigkeit um 10% bewirkt eine Leistungserhöhung von 30%. Bei schwachem Wind trudelt ein Windrad eher gemütlich vor sich hin, bei starkem Wind läuft es zur Höchstleistung auf. Ein Auto mit zufälligen Zündaussetzern, das mit Vollgas gefahren wird, hat ein ähnliches Leistungsverhalten.

 

Abbildung 2: Häufigkeitsdiagramm eines 3000 kW- Windrads

Wenn man nun das Häufigkeitsdiagramm der Windgeschwindigkeit kennt, wie kommt man nun auf das Häufigkeitsdiagramm der eingespeisten Leistung? Hier hilft die Mathematik: Man kann das Häufigkeistdiagramm der Windgeschwindigkeit umrechnen auf das Häufigkeitsdiagramm der eingespeisten Leistung. Hier kommt man zunächst zu dem überraschenden Ergebnis, dass die Häufigkeit der eingespeisten Leistung einer gänzlichen anderen Gesetzmäßigkeit folgt als die Windgeschwindigkeit. Diese Tatsache ergibt sich aus der kubischen Abhängigkeit der Leistung von der Windgeschwindigkeit. Das Häufigkeitsdiagramm eines 3000 kW Windrads ist in Abbildung 2 dargestellt. Unschwer kann man erkennen, daß niedrige Leistungen sehr häufig und hohe Leistungen eher die Ausnahme sind. In dieser Abbildung kann man ablesen, dass die Leistung eines 3000 kW Windrads an 132 Tagen im Jahr (also mehr als 4 Monate) zwischen 0 und 145kW (das sind rund 5 % der Nennleistung) liegt. Die volle Leistung (hier 3000 kW) erreicht ein Windrad nur selten. Dass Windräder häufig still stehen, ist also kein subjektiver Eindruck, sondern eine mathematisch beweisbare und damit erwiesene Tatsache. In einer Propagandaschrift der Windlobby unter dem Titel ‚A bis Z- Fakten zur Windenergie‘ wird dieser Zusammenhang wie folgt umschrieben „Allerdings drehen sich die Rotoren nicht immer mit maximaler Leistung“.

 Aus diesem Grund ist die weit verbreitete Behauptung der Windlobby unzutreffend, dass Windräder Haushalte mit Strom versorgen können – die Versorgungsaufgabe scheitert schon daran, dass Windräder keinen Strom liefern wenn, und das ist sehr häufig, der Wind nur mäßig weht und Leistung daher klein ist. Letztlich ist dies Folge aus der Weibull-Verteilung der Windgeschwindigkeit und dem (kubischen) Zusammenhang zwischen eingespeister Leistung und Windgeschwindigkeit.

Betrachtet man nun eine größere Fläche, in der eine große Anzahl von Windkraftanlagen verteilt ist, stellt sich die Frage, in welchem Umfang sich diese Windräder untereinander ergänzen können. Produzieren die einen Windräder Strom, wenn andere still stehen? Weht der Wind immer irgendwo? Ohne eine genaue statistische Analyse vorzunehmen, kann man sich dieser Frage vorläufig ganz anschaulich nähern: Hohe Windgeschwindigkeiten treten typischerweise bei Tiefdruckwetterlagen auf und die Größe des Tiefdruckgebiets bestimmt die Fläche, in der mit erhöhten Windgeschwindigkeiten zu rechnen ist. In der gesamten Fläche sind dann hohe eingespeiste Windleistungen zu erwarten. Die umgekehrte Aussage gilt in der gleichen Weise: Bei geringen Windgeschwindigkeiten sind die Windleistungen in der gesamten Fläche niedrig. In beiden Fällen können sich Windräder in dieser Fläche nicht untereinander ergänzen. Bei Hochdruckwetterlagen können diese Flächen schon mal so groß wie ganz Deutschland sein. Mittlere Tiefdruckgebiete haben praktisch immer die Größe von mindestens mehreren Bundesländern, normale Tiefdruckgebiete überdecken fast immer ganz Deutschland.

 

Abbildung 3: Häufigkeitsdiagramm der Windleistung im Amprion- Netz

Wenn man nun das Häufigkeitsdiagramm der eingespeisten Windleistung in einem kleineren Gebiet, wie etwa das vom Netzbetreiber Amprion, erstellt, findet man diese Überlegungen bestätigt:

Auch in einem Gebiet von der Größe des Amprion-Netzes ergänzen sich Windräder untereinander nicht. Das Häufigkeitsdiagramm zeigt noch immer den fallenden Verlauf: Niedrige Leistungen bis zum Stillstand sind besonders häufig, große Leistungen sind eher selten. Auch eine große Zahl von Windrädern verhält sich offensichtlich ähnlich wie ein einzelnes Windrad. Auch in einer mittleren Fläche ist der häufigste Betriebszustand aller Windräder zusammen der Stillstand.

Nimmt man die eingespeiste Leistung von ganz Deutschland (Abbildung 5), kann man im Häufigkeitsdiagramm zumindest erkennen, dass kleine Leistungen seltener werden. Die Leistung Null kommt, anders als bei Flächen von der Größe Niedersachsens oder Nordrhein- Westfalens, nicht mehr vor. Windräder können sich in geringem Umfang durchaus ergänzen: Gleichwohl sinken die Leistungen im großflächigen Verbund auf sehr geringe Werte ab. Bei einer installierten Windrad-Leistung von 31000 MW im Jahre 2012 ist die niedrigste Einspeiseleistung aller Windräder in Deutschland zusammen auf 170 MW (also auf 0,5% der installierten Leistung) gesunken. Dieser Wert ist so nahe bei Null, dass man die Aussage treffen kann, dass die gesicherte Leistung aller Windkraftanlagen in Deutschland zusammen mit Null anzusetzen ist. Damit ist nachgewiesen, dass sich die Anlagen auch bei einer Fläche von der Größe Deutschlands nicht untereinander zu einer gesicherten Leistung ergänzen.

 

Abbildung 4: Zeitverlauf der Windleistung in ganz Deutschland

Immer wieder, so auch im IWES Windenergie Report 2012, wird behauptet, „andererseits erreicht man nur durch eine gleichmäßige geografische Verteilung über eine große Fläche eine Glättung der Netzeinspeisung“. Abgewandelt findet sich diese These auch in der Agora Kurzstudie Entwicklung der Windenergie in Deutschland  in der Form „Ein geographisch verteilter Ausbau führt zu einer stetigeren Einspeisung aus Windenergieanlagen.“

Alle 23000 Windkraftanlagen in Deutschland verhalten sich in ihrem Häufigkeitsdiagramm ungefähr so, wie ein einzelnes Windrad (Abbildung 2). Daraus ergibt sich, dass die Einspeisungen der einzelnen Windräder untereinander stark korreliert sind- wenn ein Windrad hohe Leistungen einspeist, ist das auch für eine große Zahl anderer Windräder der Fall. Das erklärt den ausgeprägt ungleichmäßigen Verlauf der Einspeisung in Abbildung 4. Ein weiterer Ausbau der Windenergie bewirkt aufgrund dieser Korrelation keine stetigere Einspeisung, sondern vielmehr einen Anstieg der Ungleichmäßigkeit. Diese Aussage fußt auf einem Satz aus der mathematischen Statistik, demzufolge die Ungleichmäßigkeit (mathematisch korrekter: Streuung bzw. Standardabweichnung) korrelierter zufälliger Größen mit dem Mittelwert anwächst. Am IWES- Institut hat man durchaus richtig erkannt, dass es „eine grundsätzliche Korrelation der Erzeugung aus Wind in ganz Deutschland“ gibt. Dass diese Aussage mathematisch im Widerspruch zur behaupteten „stetigeren Einspeisung“ steht, gehört dort offenbar (noch) nicht zum Stand des Wissens.

Der nunmehr von der Politik beschlossene weitere Ausbau der Windkraft in Deutschland wird daher die bekannten technischen und ökonomischen Probleme mit der schlichten Strenge mathematischer Notwendigkeit weiter verschärfen.

Dass sich technisch vorgebildete Autoren zu der ganz offensichtlich unzutreffenden Behauptung „Aufgrund der Distanz von über 600 km, flaut der Wind üblicherweise nicht zum selben Zeitpunkt in Hamburg und München ab“ hinreißen lassen und bei einem Zeitverlauf wie in Abbildung 4 von „Glättung“ sprechen, wirft ein Schlaglicht auf die Qualität und Seriosität wissenschaftlicher Arbeit einschlägiger Studien und Konzepte.

 

Abbildung 5: Häufigkeitsdiagramm der Windleistung in ganz Deutschland

Leistung immer sicher zur Verfügung zu stellen, wird als Grundlastfähigkeit bezeichnet. Die oft verbreitete Aussage, der Wind wehe immer irgendwo ist erwiesenermaßen unzutreffend. Auch über das ganze Land gesehen sind Windkraftanlagen nicht grundlastfähig. Ohne zusätzliche grundlastsichere Kraftwerke ist eine unterbrechungsfreie sichere Stromversorgung mit Windrädern in Deutschland schon aus Gründen der statistischen Verfügbarkeit nicht möglich. In dem Häufigkeitsdiagramm für die gesamte bundesweit eingespeiste Windleistung kann man außerdem ablesen, dass die Windleistung an 120 Tagen (also rund 4 Monaten) im Jahr unterhalb von 10% der installierten Leistung liegt.

Fazit:

Bei einem Versorgungsgebiet von der Größe Deutschlands ist Windkraft nicht in der Lage, einen Beitrag zur Sicherung der Grundlast bei der Stromversorgung zu leisten.

Photovoltaik

Die Nennleistung aller Photovoltaikanlagen in Deutschland belief sich per Ende 2012 auf rund 32.700 MW. Diese Leistung steht aus naheliegenden Gründen bei Dunkelheit nicht zur Verfügung, womit klar, ist, dass Photovoltaikanlagen keinen Beitrag zur Sicherung der Grundlast leisten. Das Häufigkeitsdiagramm in Abbildung 6 zeigt, dass alle Solaranlagen zusammen in 52% ihrer Betriebsdauer (das sind rund 190 Tage im Jahr) keinen Strom liefern.

 

Abbildung 6: Häufigkeitsdiagramm der Solarleistung in ganz Deutschland

An 292 Tagen (diese Zeitspanne entspricht ungefähr neuneinhalb Monaten) liegt die Leistung unter 6700 MW, also unter 20% der Nennleistung. Diese Zahlen verdeutlichen, dass die Angabe der Nennleistung nichts über die Verfügbarkeit einer Energieform aussagt. Die durchschnittliche Leistung aller Solaranlagen in Deutschland liegt bei 3200 MW, also bei 10% der installierten Leistung.

Windkraft und Photovoltaik

Der Gedanke, dass die aus Wind- und Photovoltaikanlagen gewonnenen Energien sich gegenseitig ergänzen, hat etwas Verlockendes und scheint zunächst sogar naheliegend. Schließlich überwiegt im Sommer der Sonnenschein und in den eher dunklen Wintermonaten der Wind. In Deutschland sind per Ende 2012 Wind- und Solarkraftwerke mit einer Nennleistung von rund 64.000 MW installiert. Einen Beitrag zur sicheren Grundlast können beide Energieformen nicht leisten, weil die Grundlast von Wind- und Photovoltaik einzeln und auch zusammen bei Null liegt.

 

Abbildung 7: Häufigkeitsdiagramm der Wind- und Solarleistung in ganz Deutschland

Das Häufigkeistdiagramm in Abbildung 7 zeigt, dass die summarische Leistung aus Wind- und Sonnenenergie an 90 Tagen im Jahr (3 Monate) unter 3200 MW (entsprechend 5% der installierten Leistung) und an 180 Tagen (6 Monate) unter 6550 MW (entsprechend 10% der installierten Leistung) liegt. Während eines halben Jahres stehen die sogenannten erneuerbaren Energien nur zu einem  Bruchteil der Nennleistung zur Verfügung. Die Behauptung, dass sich beide Energieformen im Mix ergänzen, ist daher unzutreffend.

Bei einem Versorgungsgebiet von der Größe Deutschlands sind Wind- und Solarenergie nicht in der Lage, einen Beitrag zur Sicherung der Grundlast bei der Stromversorgung zu leisten. Auch im Verbund liegt deren sichere zur Verfügung stehende Leistung bei Null – ein Netz kann mit diesen Kraftwerken ohne Speicher bzw. zusätzliche Kraftwerke nicht betrieben werden. Ohne Stromspeicher benötigt jede Wind- oder Solaranlage ein konventionelles Kraftwerk, das bei zurückgehender Leistung einspringen kann.

Da bis heute Speicher von nennenswerter Größe nicht vorhanden sind und auch nicht absehbar ist, dass eine Technologie zur Speicherung in ausreichendem Umfang zur Verfügung steht, können Windkraft- und Solaranlagen nur im Zusammenspiel mit konventionellen Kraftwerken betrieben werden- hierbei ist es zunächst gleichgültig, ob diese Kraftwerke mit Kohle oder Erdgas befeuert werden. Diese konventionellen Kraftwerke laufen im Hintergrund und werden in ihrer Leistung zurück gefahren, wenn die Leistung aus Wind- und Solarkraft ansteigt und wieder hoch gefahren, wenn die Leistung sinkt. Hierzu sind diese Kraftwerke im allgemeinen in der Lage, weil sie schnell auf Lastwechsel reagieren können  und müssen. Ein modernes Kohlekraftwerk ist ohne weiteres in der Lage, die Leistung um 60% der Nennleistung in 15 Minuten also beispielsweise von 200 MW auf 500 MW zu erhöhen. Dieser Lastwechselbetrieb einer Kraftmaschine ist für jeden Autofahrer völlig selbstverständlich, wenn er beim Beschleunigen auf das Gaspedal tritt: Binnen einiger Sekunden steht die Nennleistung zur Verfügung. Dieses Regelverhalten eines Kraftwerks ist für den sicheren Betrieb eines Stromnetzes unabdingbar, weil Kraftwerke in der Lage sein müssen, Schwankungen der Last augenblicklich auszugleichen! Die Grenzen der Regelungsfähigkeit von Kraftwerken sind erreicht, wenn die eingespeiste Leistung aus sogenannten erneuerbaren Energien schneller ansteigt, als ein Dampfkraftwerk zurückgefahren werden kann. Um das Stromnetz vor einem Zusammenbruch zu bewahren, werden konventionelle Kraftwerke dann im sogenannten Drosselbetrieb gefahren: Der Dampf aus dem Dampferzeuger wird an der Turbine vorbei geleitet und im Kondensator wieder zu Wasser kondensiert. Diese Kraftwerke verbrauchen dann zwar Brennstoff und produzieren CO2, liefern aber keinen Strom. Der Verbundbetrieb von konventionellen Kraftwerken mit Windkraft- und Solaranlagen bestimmt auch die Grenze des weiteren Ausbaus. Wenn die konventionellen Kraftwerke auf ihre kleinste Leistung zurückgefahren sind, kann die Leistung aus Solar- und Wind vom Netz nicht mehr aufgenommen werden, die Anlagen müssen abgeregelt, also in ihrer Leistung begrenzt werden, weil der Strom dann vom Netz nicht mehr aufgenommen werden kann oder ins Ausland verkauft werden muss.

Mit der beschlossenen Abschaltung der Kernkraftwerke in Deutschland steht deren Leistung zur sicheren Versorgung der Netze in wenigen Jahren  nicht mehr zur Verfügung. Da die gesicherte Grundlast von Photovoltaik und Windenergie bei Null liegt, muss diese Leistung durch konventionelle Kraftwerke ersetzt werden. Ein Zubau an Kapazitäten ist eine physikalische und technische Notwendigkeit, will man das Stromnetz auch in Zukunft sicher betreiben. Hierfür kommen nur Gas- oder Kohlekraftwerke in Frage – die Abschaltung der Kernkraftwerke ist daher nur mit einem Ausbau der konventionellen Kraftwerkskapazitäten möglich. Wer die Abschaltung von Kohlekraftwerken fordert, oder den Neubau von konventionellen Kraftwerken verhindern will, hat die Physik gegen sich.

Es ist daher fragwürdig, ob sich die CO2- Emissionen durch Solar- und Windkraftanlagen senken lassen- es ist eher zu erwarten, dass diese Emissionen in Zukunft -wie im letzten Jahr- weiter ansteigen werden.

Literatur

Hennig, H.-M., Palzer, A.:

100 % erneuerbare Energien für Strom und Wärme in Deutschland

Fraunhofer-Institut für Solare Energiesysteme ISE

Stuttgart, Kassel, Teltow, 2012

NN:

A bis Z

Fakten zur Windenergie

Hrsg.: Bundesverband Windenergie e.V., Berlin

Rohrig, K.:

Windenergie Report Deutschland 2012

Hrsg.: Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES), Kassel, 2012

Pape, C. et. al:

Entwicklung der Windenergie in Deutschland

Agora Kurzstudie erstellt vom Fraunhofer- IWES, Kassel, Juni 2013

Über den Autor: Dr.-Ing. Detlef Ahlborn ist bei Vernunftkraft Leiter Fachbereich Technologie

Jahrgang 1960, selbständiger Unternehmer, Vater von 2 Kindern, Motorradfahrer und Naturwissenschaftler aus Leidenschaft, aus Großalmerode in Hessen. Bürgerinitiative Pro Kaufunger Wald und Hirschberg.

Fachgebiet: Energie- und Kraftwerkstechnik, Speicherung von erneuerbaren Energien, statistische Analyse und Verfügbarkeit von Wind- und Solarenergie. 




Was in der deutschen Energiepolitik fehlläuft – Bedroht sind Versorgungssicherheit, Bezahlbarkeit und Freiheit – Ein „Report“ plädiert für das „Aufräumen in den Köpfen“

Auf grüne Dogmen abgerichtet

Das Wort „Dressurplatz Schule“ verwendet der neue Ermecke-Report zur deutschen Energiepolitik.*) Dort liest man: Dass sich Wind- und Sonnenenergie zur Stromversorgung in der heutigen Lebenswelt nicht eigneten, erführen die Kinder in deutschen Schulen nicht. Nicht selten bekämen sogar organisierte Öko-Aktivisten zu den Schulen Zugang und hielten dort „Unterricht“ ab. Die Schüler würden auf grüne Dogmen regelrecht abgerichtet. Einen Report wie diesen des Ökonomen Klaus Ermecke mit dem Titel Energiepolitik im Konzeptnebel – Ein Plädoyer für das „Aufräumen in den Köpfen“ bekommen die Schüler sicher nicht zu Gesicht und die weitaus meisten Bürger ebenfalls nicht. „Was läuft falsch in der deutschen Energiepolitik?“ fragt der Report rhetorisch. Steige man in die Sichtung der Energiedebatte ein, staune man bald über deren schillernde Vielschichtigkeit: Kaum eine Organisation, die nicht daran teilnehme, und kaum ein Thema, das nicht mit ihr verknüpft werde.

Nur eines ist selten: fachliche korrekte Aussagen

Wörtlich heißt es: „In der Energiedebatte mischen sich abgrundtiefe Ängste und leuchtende Heilserwartung, Branchenwerbung und ideologisches Feldgeschrei. Gesinnung ist Trumpf. Nur eines ist in dieser Debatte selten: fachlich korrekte Aussagen mit klugen Schlussfolgerungen. Stattdessen stoßen wir auf ein wiederkehrendes Grundschema:
– Politiker schüren Ängste und Befürchtungen, um sich dann als „Retter“ zu inszenieren.
– Zum Zwecke der Rettung setzen Politiker ‚ambitionierte Ziele’, und das sehr konkret: Hunderttausend Solardächer, eine Million Elektroautos, CO2-freie Städte, Stromversorgung zu 80 Prozent aus Windparks und Solardächern.
– Damit die Ziele der Politiker auch erreicht werden, werden Bürger und Unternehmen gesteuert und gepresst: mit Zwang und Subventionen und einem Strom von ‚Aufklärung’. Die reicht inzwischen bis in den Kindergarten.
– Die Freiheit erodiert. Wo die Gefahr so groß ist, die Rettung so dringend, ist für eigene Entscheidungen des Bürgers kein Platz.
– Derweil wird Geld milliardenweise umgeleitet – jedes Jahr mehr.“

Geschürt werden drei „Mega-Ängste“

Der Report beurteilt die deutsche Energiepolitik insgesamt, nicht nur die „Energiewende“ allein, und misst sie an ihren Ergebnissen. Die deutsche Energiepolitik beruhe auf der Angst der Bevölkerung. Die Politik schüre Angst planmäßig seit Jahrzehnten: als Grundlage für die Umverteilung von Geld und Macht. Dominiert werde die Debatte von drei „Mega-Ängsten“: Rohstoffe würden knapp und versiegen, vor allem die fossilen Energieträger Kohle, Öl, Gas; eine „Klimakatastrophe“ zeichne sich ab; Kernkraftwerke und Endlager brächten den „Tod durch Strahlung“.

Die Energierohstoffe sind nicht knapp

Der Report nennt alle drei Ängste unbegründet: „Die Rohstoffe versiegen nicht und sind keineswegs knapp: Die gesamte Erdkruste besteht aus Rohstoffen, die für den einen oder anderen Zweck genutzt werden könnten. Kohle wird bis zu einer Tiefe von 1,5 Kilometern, Gold bis zu 3,9 Kilometern gefördert. Experimentelle Ölbohrungen wurden bis über 12 Kilometer Tiefe geführt. Öl und Gas bestehen aus Kohlenwasserstoffen. Kohlenstoff und Wasserstoff gehören zu den meistvorhandenen Elementen im Weltall und sind auch in der Erde reichlich vorhanden. Gegen das Dogma, alle auf der Erde vorhandenen Kohle-, Öl- und Gasvorkommen seien „fossil“ und daher knapp, gibt es bedeutende Einwände. Die geologischen Befunde werden durch diese „biogene“ Hypothese nicht zufriedenstellend erklärt. Immer wieder werden neue Öl- und Gasvorkommen entdeckt.“

Die fortschreitende Systemveränderung

Weiter heißt es, die deutsche Politik habe den Pfad der Marktwirtschaft verlassen und unter dem Vorwand „Schutz der Umwelt“ einen ökologistischen Obrigkeitsstaat eingerichtet, Grundrechte würden kassiert. Die fortschreitende Systemveränderung sieht der Report in einer Vielzahl von Maßnahmen und zählt diese auf:
– das CO2-Zertifikate-Regime („Emissionshandel“),
– das Energiewirtschaftsgesetz (EnWG) und Erneuerbare Energien-Gesetz (EEG),
– die Beseitigung der eigenen Kernenergiebasis,
– Zwangsmaßnahmen gegen Bürger und Industrie,
– Sondersteuern, Steuerprivilegien, Subventionen,
– die Umsteuerung von Forschung und Lehre,
– Agitation und Propaganda auf allen Kanälen.

Die „Große Transformation“

Die vorgeblichen Gefahren würden der Bundesregierung als Vorwand dafür dienen, von einem „Wissenschaftlichen Beirat“ (WBGU) die „Große Transformation“ vorbereiten zu lassen.**)  Hinter diesem Begriff verberge sich nicht weniger als die Entmachtung des Parlaments, die Gleichschaltung der Wissenschaft und die zwangsweise Umerziehung der Bevölkerung. Die solle die Voraussetzung schaffen für die „Dekarbonisierung“ der deutschen Wirtschaft und laufe auf deren Zerstörung hinaus. Eine maßgebliche Rolle bei diesen Fehlentwicklungen spiele die Umweltbürokratie (vor allem das Bundesministerium für Umwelt) sowie einige zu „Psycho-Konzernen“ mutierte Nichtregierungsorganisationen (NGO). Unternehmen, Verbände und Kammern hätten sich dem Öko-Wahn unterworfen und würden sich an dem grünen Propagandasystem beteiligen. Dafür erhofften sie sich von der Politik Erleichterungen (z.B. durch Ausnahmeregelungen). Die eigentlichen Fachleute der Energiewirtschaft würden durch Medien und Politik systematisch ausgeschlossen und ausgeblendet. Die „Energiekonzepte“ von Bundes- und Landesregierungen und Parteien strotzten von unsinnigen Annahmen, naiven Schlussfolgerungen und purem Wunschdenken.

Zwei Pfade der wirtschaftlichen Tugend verlassen

Der Report sieht die gegenwärtige deutsche Energiepolitik – wie auch Michael Limburg***) vom Europäische Institut für Klima und Energie (EIKE) – schon jetzt als gescheitert an und nennt dafür die zwei Hauptgründe. Erstens: „Der Pfad der Sachdiskussion wurde verlassen. Ideologie und Wunschdenken bestimmen die Debatte. Die eigentlichen Fachleute werden ausgegrenzt bzw. ignoriert.“ Zweitens: „Der Pfad der Marktwirtschaft wurde verlassen. Politische Zirkel erfinden planwirtschaftliche Vorgaben (hunderttausend Solardächer, 1 Million Elektroautos), die dann Bevölkerung und Wirtschaft aufgezwungen werden sollen.“ Und mit der Marktwirtschaft opfere Deutschland auch die Freiheit.

Ein parasitäres System, in dem sich wenige bereichern

Das Fazit des Reports lautet: „Politik misst man an ihren Ergebnissen. Viermal höhere Strompreise als in Texas offenbaren das deutsche Desaster. Ursache des Desasters war die Abwendung von der Marktwirtschaft: Es entstand ein neues, parasitäres System, in dem sich wenige auf Kosten aller hemmungslos bereichern. Das Grundgesetz wurde gleich mehrfach ignoriert. Voraussetzung dafür war ein planmäßig herbeigeführter Massenwahn. Dazu wurden drei „Mega-Ängste“ geschürt. Als Ausweg offeriert wird eine utopische Heilserwartung. Zeit für das Aufräumen in den Köpfen! Die Mega-Ängste sind unfundiert. … Die derzeitige ‚Energiepolitik’ beruht auf Illusionen und Selbstbetrug.“

Freiheit und Wohlstand sind jetzt insgesamt in Gefahr

„Es ist der Staat selbst, der diese Desinformation betreibt bzw. finanziert (Schulen, Kindergärten, Wissenschaft, Öko-Kampagnen) und dadurch seine eigene Existenz unterminiert. Mit der Marktwirtschaft wurden deren Ziele geopfert. Statt um „zuverlässige Versorgung“ und „minimale Preise“ geht es jetzt um die „Große Transformation“: in ein verkapptes Zwangsregime ohne Freiheit und Demokratie. Konzerne und Verbände haben sich dem „grünen System“ unterworfen und versuchen, sich durch Anbiederung Luft zu verschaffen. „Kuhhandel-Ökonomie“ ersetzt die Marktwirtschaft. Diese Strategie ist aber offensichtlich gescheitert. Freiheit und Wohlstand sind jetzt insgesamt in Gefahr. Bürger und Wirtschaft müssen sich dieser Herausforderung stellen.“

„Der Bürger, der resigniert, muss …

Damit ist der Report auch ein Aufruf an die Bürger, sich diese Energiepolitik nicht mehr länger bieten zulassen. Ermecke zitiert Gustav Heinemann (Bundespräsident 1969 bis 1974): „Der Bürger, der resigniert, muss mit dem leben, was man ihm diktiert.“

Die natürlichen Rollen wieder herstellen

Die Empfehlungen für die künftige deutsche Energiepolitik lauten unter anderem: „Vorrang hat die Rückgewinnung der Freiheit, und damit die dauerhafte Wiederherstellung der natürlichen Rollen: Bürger und Unternehmen kaufen die Energie, die sie wollen und bei wem sie wollen. Unternehmer bieten die Energie an, die sie wollen – mit allein von ihnen gewählten Technologien, Zulieferern und Partnern. Der Staat stellt durch Raumordnungspolitik Standorte bereit, an denen ggf. neue Anlagen errichtet werden können. Der Staat sichert das Rechtssystem und damit die Investitionen. Prüf- und Genehmigungsverfahren sind straff und effizient zu führen, das Schikanieren der Industrie ist zu unterlassen. Der Staat sichert im Rahmen der Außenwirtschaftspolitik den Zugriff der deutschen Unternehmen auf Rohstoffe. Der Staat gewährleistet die natur- und wirtschaftswissenschaftliche sowie technische Grundbildung an den Schulen und unterbindet dort ideologiegetriebene Desinformation. Die „neue Energiepolitik“ beginnt mit dem Verzicht des Staates auf planwirtschaftliche Lenkung und auf jegliche Propaganda, die Planwirtschaft rechtfertigen soll.“

Am interessantesten sind die 221 Fußnoten

Der Ermecke-Report umfasst 88 Seiten. 14 davon sind mit „Analyse“ überschrieben. Am umfangreichsten mit 61 Seiten sind die 221 Fußnoten. Sie erläutern, ergänzen, stellen den eigentlichen, informativen Hauptteil dar und sind am interesantesten. Sieben der 88 Seiten enthalten Quellenangaben.

Ergänzung der Redaktion

Der Ermecke-Reprot ist in zwei Versionen verfügbar

Energiepolitik im Konzeptnebel

Ein Plädoyer für das Aufräumen in den Köpfen

www.ke-research.de/downloads/Konzeptnebel.pdf

und wem die 19 Seiten (plus 68 Seiten Anhang) für den ersten Einstieg zu lang sind, dem bieten wir diesmal eine Zusammenfassung:

Energiepolitik im Konzeptnebel

Management Summary

www.ke-research.de/downloads/KN-Summary.pdf

______________________________________________________

*) Der „Report“ stammt von der Klaus Ermecke GmbH KE Research in Oberhaching. Zwei andere Berichte waren vorausgegangen: „Das deutsche Fukushima-Desaster“ im Oktober 2011 und „Rettung vor den Klimarettern“ im Dezember 2009. Der jüngste und dritte Report hier im Wortlaut: www.ke-research.de/downloads/Konzeptnebel.pdf Die Ermecke GmbH ist nach eigenen Angaben ein Forschungs- und Beratungsunternehmen und unterstützt Entscheidungsträger in Politik und Wirtschaft bei der Beurteilung und Entscheidung in Zukunftsfragen mit weitreichender Bedeutung für den Wirtschaftsstandort Deutschland. Weiteres über das Unternehmen hier: www.ke-research.de

**) Fertiggestellt 2011 unter dem Titel „Gesellschaftsvertrag für eine Große Transformation“ (446 Seiten), als Annette Schavan Bundesministerin für Bildung und Forschung (BMBF) war, und von ihrem Ministerium finanziert. Die „Zusammenfassung für Entscheidungsträger“ findet sich hier: www.wbgu.de/fileadmin/templates/dateien/veroeffentlichungen/hauptgutachten/jg2011/wbgu_jg2011_ZfE.pdf

Im Ermecke-Report liest man:

„Unter der Bundesforschungsministerin Schavan (CDU) begeisterten sich Wissenschaftler für Elektroautos, Windparks und „Klimaschutz“. Hätten sie es nicht getan, hätte es vielleicht keinen Ruf mehr gegeben – und für ihre Institute keine Forschungsmittel. Auf unsere wiederholten Anfragen hin konnte uns das BMBF kein einziges Forschungsprojekt benennen, in dem ein kritisches Hinterfragen des Treibhausdogmas gefordert und gefördert worden wäre. Die Tatsache, dass weltweit Tausende von Forschern der betroffenen Fachrichtungen den CO2-Kult angreifen, wurde und wird in Berlin und Brüssel konsequent ignoriert. Die Dinge haben sich bisher nicht geändert.“