El Hierro – 100 % Erneuerbare? Kann das funktionieren?

Betriebsstrategien für El Hierro ?

Das Programm (Bild rechts) ist in 5 logische Funktionen aufgeteilt, wie die Bedienoberfläche auch zeigt.

Von oben nach unten :

1.              Die Erzeugung

2.              Die Belastung

3.              Der Speichermanager

4.              Die Speicherfüllung

5.              Die Frequenz

6.              Die Leistungsverteilung

Zu 1:  Die Erzeugung

Die Erzeugung besteht aus drei Komponenten. Es ist in erster  Linie die Windkraftanlage bestehend aus 5  Anlagen je 2,3 MW. Für die Simulation werden beim Programmstart alle WKAs als einsetzbar angesehen, wenn die Checkbox WKA-Betrieb  gesetzt ist.

Mit den Commandfeldern + und kann man die Anzahl per Hand einstellen. Die Checkbox WKA-Betrieb kann nur gesetzt werden  wenn entweder die Checkbox Wasserturbine-Betrieb, die Checkbox Diesel-Betrieb oder beide gesetzt sind  Das bedeutet, dass mindestens die Wasserturbine oder die Dieselmaschine ans Netz synchronisiert ist und die Netzfrequenz  im Regelbereich liegt. Eine von beiden Anlagen muss laufen und die Netzfrequenz und Netzspannung diktieren. Mit dem Scrollbar Windkraftanlage kann man die Leistung, der vom zufälligen Wind abhängigen  Stromerzeugung, für Versuche in dieser Simulation einstellen. Die Leistung und die Anzahl der WKA kann man in den beiden Textfeldern sehen. Die Oberwelligkeit der Stromerzeugung und ungünstige Windströmungsverhältnisse am WKA-Standort sind mir bekannt, werden aber in dieser Arbeit, ebenso wie Wirkungsgrade, nicht weiter berücksichtigt

Durch Anwahl der Checkbox Wasserturbine-Betrieb teilt man dem Programm mit, dass die Wasserturbinen ans Netz geschaltet sind und zur Regelung bereitstehen. Mit dem Scrollbar Wasserturbine kann man den Drehzahlsollwert einstellen und damit die Frequenz/Leistung der Maschine bestimmen. Im großen oberen Textfeld wird die Leistung der Maschinen angezeigt In den kleinen Textfeldern wird links der Frequenzeinfluß des Drehzahlreglers und rechts der Windeinfluß des Speichermanagers angezeigt. Die Summe der maximalen Leistung der vier Wasserturbinen beträgt 11,32 MW.

Durch Anwahl der Checkbox Diesel-Betrieb teilt man dem Sytem mit, dass das Dieselkraftwerk ans Netz  geschaltet  ist und zur Regelung bereitsteht. Ich nehme an es handelt sich um mehrere Synchrongeneratoren mit einer Leistung von insgesamt 11,5 MW. Mit dem Scrollbar Dieselkraftwerk kann man den Drehzahlsollwert einstellen und damit die Frequenz/Leistung der Maschine bestimmen. Im großen oberen Textfeld wird die Leistung des Werkes angezeigt . In dem kleinen Textfeld wird Frequenzeinfluß des Drehzahlreglers angezeigt.

Im grossen Textfeld rechts wird die Gesamtleistung der Erzeugeranlagen angezeigt

Zu 2: Die Belastung

Die Belastung der Erzeugeranlagen wird von der Netzlast, den Speicherpumpen mit Festdrehzahl und den leistungsregelbaren Speicherpumpen  gebildet.

Mit dem Scrollbar Netzlast wird die Leistung des Verteilernetzes eingestellt und auf dem Textfeld angezeigt.

Die Speicherpumpen mit Festdrehzahl kann man mit Checkbox Pumpe 1 bis 5 anwählen. Jede Pumpe hat eine Leistung von 0,5 MW. Die Summe wird im großen Textfeld angezeigt. Wann Pumpen zu- oder abzuschalten sind  zeigt ein Textfeld mit begleitendem BEEP an. Zugeschaltet werden soll, wenn die Leistung der regelbaren Speicherpumpen 1,5 MW überschreitet. Abgeschaltet werden soll, wenn die Leistung der regelbaren Speicherpumpen 0,5 MW unterschreitet. Damit soll die Belastung durch Frequenzumrichter so gering wie möglich gehalten werden.

Die zwei regelbaren Speicherpumpen von je 1,5 MW werden vom Programm als beide Pumpen in Betrieb aufgefaßt. Ihre Leistung wird im Handbetrieb mit Scollbar Speicherpumpe eingestellt. Die aktuelle Leistung  wird im großen Textfeld angezeigt. Die Summe der Pumpleistung ergibt sich aus der Addition der Leistung von Festdrehzahlpumpen plus Regeldrehzahlpumpen. Die Überschreitung von 3 MW für die regelbaren Pumpen wird verhindert und durch rote Hintergrundfärbung im Textfeld angezeigt. Die Pumpleistung wird von Speichermanager bestimmt, sofern die Option Windeinfluß Laden/entladen angewählt ist. Im linken kleinen Textfeld wird der Windeinfluß des Speichermanagers angezeigt. Im rechten kleinen Textfeld wird der Frequenzeinfluß angezeigt, wenn diese Betriebsstruktur durch die Checkbox  Frequenzeinfluß gewählt ist. Mit dem Scrollbar Speicherpumpe Frequenzeinfluß kann man den Sollwert zwischen 47.5 Hz und  50 Hz einstellen, wenn man wieder 50 Hz im Netz wieder erreichen will. Im grossen Textfeld rechts oben wird die Gesamtleistung der Belastungen angezeigt

Zu 3: Der Speichermanager

Der Speichermanager hat die Aufgabe das Einspeichern und Ausspeichern von Windenergie in/aus dem Höhenspeicher zu steuern. Ziel ist es die Energiegewinnung aus Windenergie zu vergleichmäßigen. Dazu ist die Ermittlung der mittleren Windleistung der letzten 7 Tage und eine Vorausschau für den aktuellen Tag  nötig. Dies kann nicht Teil dieser Simulation sein. Ein fiktiver Wert kann mit dem Scrollbar Speichermanager eingestellt werden. Der Wert wird im grossen Textfeld rechts angezeigt. Überschreitet die Windleistung diesen Wert, dann wird die Leistung, die über diesem Wert liegt, mit den Speicherpumpen eingespeichert. Liegt die Windleistung unter dem Grenzwert, dann wird die Turbinenleistung vom Speichermanager so erhöht, dass die Summe aus Windleistung + Turbinenleistung dem Grenzwert entspricht. Dazu muss mit der Checkbox Windeinfluß Laden/Entladen diese Funktion eingeschaltet werden.

Eine weitere Funktion des Speichermanagers ist die Begrenzung der Windleistung bei steigender Füllung des Speichers. Dazu nimmt der Speichermanager steigend ab 260 MWh  proportional  WKA ausser Betrieb und verhindert damit eine Überfüllung des Speicher. Diese Funktion wird mit Checkbox  Speicherniveaueinfluß aktiviert.

Bei fallendem Füllstand des Speichers  wird die Turbinenleistung,beginnend  bei 21 MWh Speicherfüllstand proportional gesenkt, bis sie bei 0 MWh  den Nullpunkt erreicht. Diese Funktion wird ebenfalls mit der Checkbox  Speicherniveaueinfluß aktiviert. Der Eingriff auf die aktuelle Turbinenleistung wird mit der Meldung  Diesel zuschalten und begleitendem BEEP angezeigt.

Zu 4: Die Speicherfüllung

Die Speicherfüllung ist mit dem Scrollbar  Füllstand im Bereich 0 bis 270 MWh für Versuche einstellbar Beim Programmstart steht der Wert auf  135 MWh. Die Veränderung des Füllstandes, es handelt sich um ein integrales System, ergibt sich aus der Differenz  der Textfelder SummeLeistung ungeregelt + Leistung geregelt der Speicherpumpen und LeistungTurbine  der Erzeuger.

Zu 5: Die Frequenz

Die Frequenz des Versorgungssystem ist das wichtigste Kriterium zur Beurteilung der Netzstabilität. Es handelt sich um ein  System mit integralem Verhalten. Bei Leistungsüberschuss steigt die Frequenz, bei Leistungsmangel fällt die Frequenz kontinuierlich. Die Frequenz ergibt sich aus der Integration der Differenz  aus Summe der Erzeugerleistung  minus Summe der Netzlast. Das zeitliche Verhalten der Frequenz ist im Simulator gestreckt um etwa den Faktor 10. Sonst ist für den Operator nicht zu sehen, was da passiert. Zulässig ist eine Frequenz zwischen 47,5 Hz und 52,5 Hz . Wird dieser Bereich verlassen so wird  „Schutzaus“ ausgelöst. Das wird durch ein  rotes Textfeld mit Aufschrift „Schwarzfall“ angezeigt. Der weitere Verlauf der Simulation wird angehalten, damit man den Vorfall analysieren kann.. Weiter geht es mit Abwahl  und Neustart des Programms.

Zu 6: Die Belastungsverteilung

Im rechten Teil des Fenster ist eine graphische Darstellung der Leistungsverteilung für Erzeugung auf der linken Seite und Belastung auf der rechten Seite. Die Höhe der Säulen ist proportional den Leistungen. Die Farben entsprechen der Klassifizierung der linken Fensterseite.

Betrachtungen zur Netzstabilität.

Der Betrieb von Windkraftanlagen ist nur in Kombination mit drehzahlgeregelten Erzeugern möglich, da eine WKA nicht zur Frequenzregelung fähgig ist. Weil das so ist, hat man sich für El Hierro etwas ausgedacht :

http://infoscience.epfl.ch/record/198519/files/1-s2.0-S0960148114000755-main.pdf[..]

Man will eine Wasserturbine ans Netz synchronisieren und dann das Arbeitswasser abstellen. Die läuft dann weiter wie ein Synchronmotor. Man stellt sich vor, man hätte dann einen rotierenden Speicher durch die Masse der rotierenden  Maschinenteile und der würde die Frequenz stabilisieren. Aber das Ergebnis wird sein :

Maschine läuft als Synchronmotor

Maschine braucht Antriebsleistung

Maschine geht über Rückwatt vom Netz.

Hier einige Worte zu Rückwatt. Es ist der Kraftwerksausdruck für den Fall, dass eine Erzeugereinheit vom Netz Leistung aufnimmt und motorisch läuft. Die dabei auftretende Leistung nennt man Schleppleistung. Sie tritt auf, wenn man zB. einer Wasserturbine das Arbeitsmittel abstellt.

Hier nochmal der Beitrag von Horst Maler #32:

die Rotationsenergie eines Turbosatzes können Sie bei Lastanstieg nur im Bereich zwischen 50 Hz und 47.5 Hz nutzen. Dann erfolgt "Schutz aus". Bei 49,8 Hz beginnt spätestens der Einsatz der Primärregelung.

Bei Lastausfall im Bereich 50 Hz bis 52,5 Hz.

E_rot= (47,5 / 50) ** 2 = 0.9025

100 % – 90,25% = 9,75 %.

9,75 % der im Turbosatz enthaltenen Rotationsenergie können Sie nutzen. Das ist sehr wenig. Vergessen Sie Rotationsenergie !

Die Generatorspannung ist abhängig von der Drehzahl der Maschine und vom Erregerstrom, der von einem Spannungsregler durch eine Erregeranlage geführt wird. 

Das hat er sehr richtig erkannt und hier bekannt gemacht. Wie die Spanier auf diese Idee kamen ist mir ein Rätsel.

In der angegebenen Maschinenanordnung  ist es nicht möglich nur mit Windkraftanlagen zu versorgen. Es muss immer die Wasserturbine (Abhängigkeit vom Speicher)  und/oder der Diesel laufen, um die Frequenz und die Spannung  zu diktieren.

Größtes Risiko bei  einer Inselanlage ist der teilweise oder komplette Netzausfall oder der plötzliche Windleistungsanstieg (Böe) , denn beide müssen entweder von der Dieselanlage und/oder der Wasserturbine abgeworfen werden können. Dazu müssen die Erzeugeranlagen aber  Leistung haben die sie abwerfen können.

Das die Speicherpumpen einen Frequenzeinfluß haben ist mir nicht bekannt, wäre auch sehr ungewöhnlich, aber eine großartige Idee. Das gibt es nur in dieser Simulation. Man könnte dann  die positive Leistungsdifferenz, die zum Frequenzanstieg führt und letztlich zum Schwarzfall, per Frequenzeinfluß auf die Speicherpumpen umlegen. In meiner Simulation ist das möglich. Für die Speicherpumpen kann mit Checkbox Frequenzeinfluß diese Struktur für die regelbaren Speicherpumpen gewählt werden.

Der Speichermanager kann die Windleistung die grösser als der Windleistungsgrenzwert ist auf die Speicherpumpen umlegen.  Ist die Windleistung kleiner als der Windleistungsgrenzwert dann wird die fehlende Leistung auf die Wasserturbinen umgelegt.  Dazu ist im Speichermanager die Checkbox Windeinfluß Laden Entladen zu aktivieren. Die Leistung der Erzeuger Wasser + Diesel muß immer grösser sein als die maximal mögliche Störung durch Teilnetzausfall oder Windleistungsanstieg (Böe).

Der aufmerksame Leser wird bemerken, dass immer, wenn die Speicherpumpen laufen, auch die Wasserturbinen laufen. Die Speicherpumpen stellen ja für das Netz eine Belastung dar. Das ergibt dann eine Art Kreisverkehr des Energiefluß. Ein Teil der Pumpleistung geht gleich wieder zur Wasserturbine. Das ist leider alternativlos. Um mal diesen schönen Satz zu benutzen.

Wir kommen jetzt zu einem Thema, das meistens nicht zur Sprache kommt. Windanlagen speisen ihren Strom über netzsynchronisierte Wechselrichter in das Netz ein. Die Sinusform des Stroms wird durch Modulation des Impuls-/Pauseverhältnisses der Hochstromschalter erreicht. Trotz nachfolgender Filterung ergeben sich trotzdem Oberwellen in der Netzspannung. Je mehr WKA in Betrieb sind desto stärker die Oberwellen. Die Oberwellen im Netz gefährden die ordnungsgemäße Funktion von Geräten im öffentlichen Netz und müssen so gering wie möglich gehalten werden, was bei Landanlagen im Verbundnetz leichter gelingt als bei Inselanlagen.

Dazu kommt, dass man für die geregelten Speicherpumpen nicht Voithgetriebe sondern Frequenzumrichter einsetzt. Diese sind prinzipiell ähnlich den Wechselrichtern. Sie haben in der steuerbaren Ausgangsfrequenz ebenso Oberwellen wie die WKA, da die Sinusform des Stroms durch Modulation des Impuls-/Pauseverhältnisses der Hochstromschalter erreicht wird. Hier begrenzt sich die Schädlichkeit auf die Antriebsmotore der Speicherpumpen, die dann eine höhere Wärmeabfuhr erfordern, also eventuell ein Kühlgebläse oder größere Motorauslegung. Die Schädlichkeit für das Netz ergibt sich aus der Gleichrichtung des Drehstroms zur Ladung des Zwischenkreises. Der Ladestrom ist nicht sinusförmig und daher oberwellig. Beide, also WKA plus FU  zusammen, ergeben in dem kleinen Inselnetz eine unheilvolle Mischung, der man nur mit Begrenzung der Pumpleistung entgegnen kann. Nun wird man sagen Voithgetriebe seien nicht Stand der Technik und man könnte große Motore mit 1,5 MW nicht im Inselnetz einschalten. Dem ist aber entgegenzuhalten, dass man einen solchen Motor von einem kleinen Anwurfmotor auf Drehzahl bringen kann und dann erst einschaltet. Die Lastfreiheit des Motors kann man durch Einfahren des Ölringschöpfrohres ins Voithgetriebe garantieren. Dann ergibt sich keine Oberwelligkeit im Netz durch diesen Antrieb.

Jetzt die Praxis. Nur eine Einführung !

Wir starten das Simulationsprogramm „Hierro.exe“

Sie finden es hier  bzw. hier

Achtung ! Zahlensystem : Englisch (USA) Visualbasic für Windows 6.0

F          Netzfrequenz

WE      Windeinfluß von Speichermanager auf Turbine

FE        Frequenzeinfluß Drehzahlregler Turbine

PT       Turbinenleistung

PW      Windleistung

PP        Pumpleistung

Auf die Leistungsverteilung achten.

Wir fahren jetzt die Anlage an. Wasserturbine Betrieb                   F=50 Hz

Wir fahren die Netzlast hoch auf 3 MW.                                        F=49,348 Hz  WE=0.0 MW FE=3,0 MW

                                                                                             PT=3 MW

Wir schalten den  Speichermanager ein. Windeinfluß Laden/Entladen

Wir schalten den Frequenzeinfluß auf die Speicherpumpen ein. Frequenzeinfluß

Wir steigern die Netzleistung auf 4 MW                                       F=49,783 Hz WE=3,0 MW FE=1,0 MW

Wir stellen den Turbinendrehzahlsollwert auf 3013,1 U/min             F=50 Hz WE=3,0 MW FE=1,0 MW

                                                                                             PT=4 MW

Wir fahren jetzt die Windanlage an. WKA-Betrieb

Wir fahren die Windanlage auf 3 MW.                                          F=50 Hz WE=0,0 MW FE=1,0 MW

                                                                                             PT=1 MW PW=3 MW

Wir fahren die Windanlage langsam auf 8,5 MW                            F=50 Hz WE=0,0 MW FE=1,0 MW

                                                                                             PT=1 MW PW=8,5 MW PP=5,5 MW

Wir sind jetzt an der oberen Grenze der Netzbelastung  bei 4 MW Netzlast angekommen. Alle Pumpen laufen. Die geregelten Pumpen sind auf 3 MW (rote Warnung). Wenn jetzt eine Böe die Windleistung auf  9,5 MW erhöht dann ist Not angesagt. Die Turbine wirft dann 1 MW ab und hat dann Leistung 0 MW. Die Pumpen können nicht mehr höher. Nichts regelt mehr die Frequenz.

Wir fahren die Windanlage auf 9,5 MW                                        F=50,218 Hz WE=0 MW FE=0,0 MW

                                                                                             PT=0 MW PW=9,5 MW PP=5,5 MW

Jetzt aber in letzter Not eine WKA abwerfen. Wir sind gerettet. Wenn wir nicht eine WKA abwerfen folgt vielleicht folgendes. Das Netz verliert 0,5 MW Last durch den Ausfall einer Speicherpumpe.

Die Netzlast auf  fällt auf 9,0 MW                                                F=52,518 Hz WE=0 MW FE=-10,44 MW

                                                                                             PT=0 MW PW=9,5 MW PP=5,0 MW

Wir haben den Schwarzfall.

Weitere Versuche können jetzt alle Interessierten selbst vornehmen. Aber bitte bekommen Sie keinen Nervenzusammenbruch.

In der Dateianlage zu dieser Arbeit befinden sich die folgende Dateien :

setup.exe     hier                 Das Windows-Installationsprogramm

ElHierro.CAB    hier          Die Programmdatei zur Installation

Beide bitte in ein neues Verzeichnis herunterladen und dann setup.exe starten.




Seit 30 Jahren erfolgt laut DWD- Daten die Forsythienblüte in Hamburg immer später.

Bild rechts: Blütenbeginn im Ostalbkreis erst am 5.April. Foto Kowatsch

Die Forsythie ist eine vom Deutschen Wetterdienst benutzte Zeigerpflanze für den Erstfrühlingsbeginn im März Eigentlich ist die Forsythie nicht besonders geeignet als Erstblütenbetrachtung, der DWD hat sie auch nicht ausgesucht, denn er erhielt mehr zufällig die lange Datenreihe. Und mit schöner Regelmäßigkeit behauptet die politisch besetzte Führungsriege des Deutschen Wetterdienstes einen früheren Frühlingsbeginn der Forsythienblüte an der Lombardsbrücke inmitten der großen Wärmeinsel Hamburg. Der immer frühere Beginn sei ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2 bedingt wäre.

Wir sind der Sache nachgegangen und haben uns zeitraubend die Daten seit 1980 aus einem Diagramm des Hamburger Bildungsservers besorgt. Die vielen uns angebotenen links in das DWD-Archiv endeten im Nichts bzw. auf der ersten Seite der Homepage. Eine einfache telefonische oder mail-Übermittelung beim DWD oder direkt beim Phänologen fand trotz mehrmaliger Anfrage auch nicht statt. Die Daten der letzten vier Jahre mussten wir uns einzeln aus den Tageszeitungen besorgen, wo man jedesmal auch lesen konnte, dass der Blütenbeginn sich verfrüht hätte. 2016 erhielten wir erst nach langem Suchen durch den Hinweis eines EIKE-Lesers.

Abb. 1: Vorsicht, nicht verwechseln, die violette Trendlinie steigt, das bedeutet aber nicht Erwärmung. Auf der linken senkrechten y-Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage nach Neujahr. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn.

Die Überraschung ist groß. Die Hamburger Daten zeigen eine Verspätung seit 1987 und nicht die stets in allen Medien behauptete Verfrühung. Können die weniger naturwissenschaftlich ausgebildeten Reporter der Medien die Diagramme nicht lesen? Eine mögliche Erklärung des Sachverhaltes geben wir am Schluss des Artikels.

Wir stellen hier nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn genauso wie wir es bei anderen Frühblühern der freien Fläche beschrieben haben: http://www.eike-klima-energie.eu/news-cache/fruehlingsbeginn-in-deutschland-zeitiger-oder-leicht-verspaetet/

Seit 30 Jahren kommt das Frühjahr mit seinen Erstblühern etwas später und nicht früher, freilich bei sehr großer Streuung. Der Blütenbeginn der Forsythie verzögert sich sogar in der großen Wärmeinsel Hamburg.

Der Grund ist einleuchtend und logisch: Die Forsythienblüte verzögert sich, weil die Temperaturen der beiden Vorfrühlingsmonate laut DWD leicht fallend sind. Das zeigt das nächste Diagramm.

Abb. 2: Das Diagramm zeigt den Durchschnitt des Monates Februar und März. Im Spätwinter/Vorfrühling (Februar und März) blieb die von den „Klimamodellen“ vorhergesagte Erwärmung in Deutschland bislang aus. Die zusammengefasste Trendlinie beider Monate ist leicht fallend (nicht signifikant; sehr große Streuung!), sie deutet ein leichtes Kälter werden in den letzten 30 Jahren an.

Sinkende Temperaturen führen in aller Regel zu einem verspäteten Frühlingsbeginn.

Erg: Die vom DWD beobachtete Forsythienblüte der Stadt Hamburg zeigt seit 1987 einen deutlich verspäteten Frühlingsbeginn. Alle Veröffentlichungen in den Medien, dass just dieser Strauch an der Lombardsbrücke immer früher dran wäre, sind falsch.

Zur Vergewisserung suchten wir nach einer weiteren Forsythienreihe und wurden fündig. Der Phänologe Georg von Petersdorff-Campen in Seesen/Kirchberg schickte uns gerne seine eigenen Beobachtungsdaten der Forsythienblüte zu. Der Ortsteil Kirchberg hat 550 Einwohner und liegt südwestlich vom Harz. Bei der folgenden Grafik wieder beachten: Nach oben sind die Tage nach Neujahr aufgetragen. Je höher der Ausschlag, desto später der Blühbeginn. Eine steigende Trendlinie heißt Verspätung des Frühlingsbeginns.

Abb. 3: Seit 30 Jahren erfolgt die Forsythienblüte auch in Seesen/Kirchberg immer später, obwohl die letzten 3 Winter relativ mild waren. Die Beobachtung stimmt mit der Verspätung der Forsythienblüte in Hamburg überein. Wie zu erwarten ist der Blütenbeginn im eher ländlichen Kirchberg gegenüber der großen Wärmeinsel Hamburg allgemein um gut eine Woche später. Datenquelle: Phänologe Georg v. Petersdorff-Campen.

Ergebnis: Auch die Forsythienblüte in Seesen/Harz ist seit 30 Jahren verspätet, ganz wie dies nach dem Temperaturdiagramm 2 der beiden Vorfrühlingsmonate zu erwarten ist.

Ebenso mitbestimmend sind der Photoperiodismus (Tageslänge!) sowie die Sonnenscheindauer und der UV- Anteil im Sonnenlicht (wirkt blühhemmend!), Feuchtigkeit und Nachtfröste sowie trohische Faktoren (Nährstoff- Versorgung im weitesten Sinne). Auch die gestiegene CO2-Konzentration der Luft dürfte in den letzten 3 Jahrzehnten bei Gehölzen die Blühwilligkeit gefördert haben; was indirekt nach den Gesetzen der Wahrscheinlichkeit in Richtung einer leichten Verfrühung wirkt. In einem weiteren Frühlingsartikel, dessen Erscheinen für Ende April/Anfang Mai geplant ist, werden wir die Ursachen der Temperaturänderungen im Erst- und Vollfrühlingsmonat April erklären. Wir werden darin auch erklären, warum die Natur wegen sehr milder Winter nicht zwangsläufig aus dem Takt gerät, und warum eine Erwärmung viel mehr Vor- als Nachteile für Flora und Fauna hätte.

Ergebnis: Der Erstfrühling beginnt in Deutschland seit 30 Jahren etwas später. Alle Märzblüher wie Forsythien, Märzenveilchen, Buschwindröschen sind leicht verspätet. Wir führen das hauptsächlich auf die seit 30 Jahren insgesamt etwas kälter werdenden Monate Januar, vor allem aber Februar und den März zurück.

Teil II:

Wie kommt der DWD zu den gegenteiligen Behauptungen bei den Forsythien?

Im Gegensatz zu uns behauptet die Führungsriege und vor allem die Pressesprecher des Deutschen Wetterdienstes das genaue Gegenteil. Der DWD bietet auf seiner Homepage die folgende Grafik für Deutschland an. Das Diagramm beginnt 1951. Die Daten Deutschlands unterscheiden sich geringfügig vom Standort Hamburg/Lombardsbrücke.

Abb. 4: Seit 1951 verfrüht sich die Forsythienblüte in Deutschland. Quelle: http://tinyurl.com/Phaenologische-Jahreszeiten.

Anzumerken ist, dass es seit 1951 keine Beobachtungsreihen von Forsythien in Deutschland gibt, außer einer, nämlich dem Standort Hamburg/Lombardsbrücke. Der DWD hat obige Datenreihe auch durch eine Homogenisierung der Hamburg-Daten auf ganz Deutschland und aus neuzeitlichen Ergänzungen vieler anderer Standorte erhalten.

Kann man insbesondere aus den Hamburger Daten auf einen verfrühten Frühlingsbeginn seit 1951 und auf eine Klimaerwärmung schließen so wie die politische Führungsregie des DWD das stets behauptet? Selbst der DWD-Forsythien-Phänologe Jens Iska-Holtz, der die Hamburg-Daten erstellt, sieht das skeptischer.  Am 4. 3. 2012 hat er gegenüber einem Reporter von "Die Welt" erklärt: "…Dieser Trend zum Immer-früher-blühen (seit 1951) dürfe allerdings nicht allgemein als Zeichen des Klimawandels angesehen werden, sondern sei eine Besonderheit des urbanen Standorts, der andere Bedingungen für die Blüten schaffe. Die Umwelt‘ dieses urbanen Standortes wird ganz wesentlich durch die Stadt und ihre Temperaturen bestimmt…“ http://www.welt.de/print/wams/vermischtes/article13901980/Fruehling-ist-wenn-die-Forsythien-bluehen.html .

Hier zeigt sich erneut, dass die Sachkenner die Daten oft anders beurteilen als die politische DWD-Führungsriege, die ständig Beweise einer CO2-erwärmung finden wollen.

Nicht nur die Wärmeinsel Hamburg verfälscht die Datenreihen, sondern auch das Startjahr 1951 in der DWD-Grafik ist entscheidend. Wir haben beschrieben, dass die deutschen Temperaturen der letzten 100 Jahre einen sinusähnlichen Schwingungsverlauf zeigen mit einer Kältedelle in der Mitte des letzten Jahrhunderts. Und dieses Kälteloch zieht der DWD gerne für seine Betrachtungen heran. So auch bei der Forsythienblüte inmitten der Großstadt Hamburg. Nicht nur die Wärmeinsel Hamburg treibt den Blütenbeginn zeitlich nach vorne wie der DWD-Phänologe zu bedenken gibt, sondern auch das kalte Startjahr 1951 mit den kalten Folgejahren. Die Temperaturen sind heute höher als inmitten des Kältelochs 1951, sie waren es aber auch zu Beginn des 20 Jahrhunderts. Das zeigt uns das nächste Diagramm der beiden Vorfrühlingsmonate Februar und März.

Abb. 5: Aufgetragen ist der Durchschnitt der beiden Monate Febr./März=Vorfrühling. Um die Mitte des letzten Jahrhunderts verhielten sich die beiden Vorfrühlingsmonate genauso wie die anderen Monate. Sie waren kälter als heute, aber auch kälter als zu Beginn des Jahrhunderts. Der Verlauf ist nach den Originaldaten des Deutschen Wetterdienstes gezeichnet, also nicht einmal wärmeinselbereinigt.

Verlassen wir das Kälteloch als Betrachtungsbeginn. Es wurde wärmer, aber seit über einem Jahrzehnt auch wieder kälter. Der neuzeitliche Wärmehöhepunkt ist überschritten. Wir wollen wissen, seit wann die Forsythienblüte in Hamburg stagniert. Zur Info: der Standort Lombardsbrücke markiert den alten Verlauf der Stadtmauern Hamburgs und ist ein zentraler Ort der heutigen Stadt.

Abb. 6: Seit 1982, also seit 35 Jahren bereits haben wir bei der Forsythienblüte inmitten der Stadt Hamburg eine Stagnation. Der geringe Anstieg der Trendlinie=sehr leichte Verspätung ist nicht signifikant. Nächstes Jahr werden es aber 36 Jahre Stagnation sein. Im Schnitt erfolgt die Forsythienblüte inmitten der Großstadt Hamburg am 79.ten Tag nach Neujahr, das entspricht außer in Schaltjahren dem 20. März.

(Anmerkung: Der Blühtermin für 2016 ist von uns aufgrund Vergleichen mit anderen Beobachtungen auf den 22. März=82 Tage taxiert.)

Es ist bedauerlich, dass eine seriöse Behörde wie der Deutsche Wetterdienst durch eine fehlgeleitete Führungsriege die Deutsche Bevölkerung, aber wohl auch die Medien falsch informiert.

Denn wie in www.wetterspiegel.de, in einem Artikel vom 2.März 2016 über „Die Sprache der Pflanzen –Phänologie“ liest man nahezu überall diese Falschnachricht: „Tatsächlich gibt es bei den jahrelangen Beobachtungen der Blütenentwicklungen einen Trend, der zu einer deutlich früheren Blütenbildung tendiert. Grund dafür sind die milden Winter der letzten Jahre.“

Tatsache ist: Es gibt in den Phänologiedatenreihen der Forsythie auch beim DWD keinen Trend zur früheren Blütenbildung in den letzten Jahren, sondern seit gut 30 Jahren einen Trend zur späteren Blühentwicklung. Durch die drei letzten milden Winter wurde der Trend zur späteren Blüte nur etwas abgebremst.

Gesamt:

  1. 1) Seit 35 Jahren gibt es keine Verfrühung der Forsythienblüte in Hamburg mehr. Seit 35 Jahren ist die Trendlinie eben und zeigt keine signifikante Veränderung. Seit 35 Jahren argumentieren die Pressesprecher des Deutschen Wetterdienstes gegen die eigenen Daten, indem sie stets aufs Neue behaupten, dass die Erstblüte der Forsythie immer früher wäre und der Trend zur weiteren Erwärmung wäre ungebrochen.

2) Bei der kleinen Klimabetrachtungseinheit von 30 Jahren haben wir sogar eine nach oben steigende Trendlinie, die zeigt, dass sich seit 30 Jahren die Forsythienblüte auch in der Stadt Hamburg verspätet hat.

3) Bei einer Betrachtung seit 1951 müsste die richtige Antwort des DWD an die Medien lauten: Der Blütenbeginn des Forsythienstrauches in Hamburg hat sich bis 1980 verfrüht, seit 35/36 Jahren zeigt er eine Stagnation.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler

Stefan Kämpfe, Naturbeobachter und unabhängiger Klimawissenschaftler.




Klima-Sozialismus – Eine Buch-Rezension

Dient das alles nur der offensichtlich beabsichtigten Reduzierung von Leben auf dieser Erde oder ist es gar ein von langer Hand geplanter Völkermord verrückt gewordener, selbsternannter Gutmenschen?

Die beiden Autoren Gerhard Breunig und Dieter Ber führen den Kampf gegen die Mär der drohenden, vom Menschen verursachten Klimakatastrophe faktenreich fort. Sie legen schlüssig dar, dass die Schauermärchen nur einer kleinen Machtelite und den davon – vor allem – profitierenden NGOs nützen und zeigen auf, wie notwendig es ist, sich gegen den modernen „großen Sprung nach vorn“ zu wehren. Denn tun wir das nicht, ist der Weg in eine ungeahnte Armut für Millionen von Menschen nur noch eine Frage der Zeit.“

So wird das Buch „Klimasozialismus“ auf der Homepage des Verlages beschrieben – und wenn man die Lektüre der in der Tat verstörenden Fakten und Hintergründe gelesen hat, dann kann man den beiden Autoren nur zustimmen.

Das Buch von Gerhard Breunig und Dieter Ber zeichnet sich insbesondere dadurch aus, dass dem „Klima-Laien“ und dem interessierten Leser, der noch nicht so tief in den „Dschungel des Wahnsinns“ eingedrungen ist, vermeintlich komplizierte Zusammenhänge einfach und verständlich näher gebracht werden. Es macht dem nicht wissenschaftlich „vorbelasteten“ Leser (auf auch erheiternde Weise) klar, dass der Klima-Schwindel nur einer kleinen Gruppe von vermeintlichen Klima-Gutmenschen nützlich ist – in Form von Milliardengewinnen und allerlei Auszeichnungen und Ehrungen, die den narzisstischen Selbstbeweihräucherern nur allzu gut zu Gesicht stehen.

Lassen Sie sich nicht täuschen vom angeblichen menschengemachten Klimawandel. Nachdem Sie dieses Buch gelesen haben, haben Sie die Grundlagen, um den Schwindel zu entlarven. 

Gerhard Breunig, Dieter Ber "Klimasozialismus; Massenarmut – Millionen Tote – Niedergang der Kulturen. Was bezweckt der weltweite CO2-Schwindel wirklich? 294 Seiten als Hardcover erschienen im Juwelenverlag unter der ISBN Nr, 978 3 945822-38-8

Druckversion hier

E-Book Version hier




Ohne Energie keine Zivilisation Deutschland: Mit Vollgas in die Steinzeit

Bild rechts: Fortschritt 2050: Ultramoderne, rostfreie, garantiert carbonfrei hergestellte Messerklinge Marke „Flintstone“

Bei früheren Kreuzzügen ging es vorgeblich darum, das heilige Land von „den Heiden“ zu befreien. Heutzutage sind wir moderner. Die „Heiden“ werden mit Gummibärchen und Selfies willkommen geheißen, als Beelzebub haben wir stattdessen das CO2 ausgemacht, von dem die Welt und ihr Klima befreit werden müssen. Letzteres wurde im Dezember 2015 auf der denkwürdigen „Welt-Klimakonferenz“ COP21 in Paris beschlossen. Die Bundesregierung will dabei den Vorreiter geben und hat deshalb am 9. März 2016 der Unterzeichnung dieses „Klimaschutzabkommens“ zugestimmt. Die Unterzeichnungszeremonie soll am 22. April 2016, dem „Tag der Erde“, in New York stattfinden. Umweltministerin Barbara Hendricks betont, dass Deutschland damit zu den Erstunterzeichnern gehören werde. Schon am 19. März 2016 präsentierte sie der Nation einen Katalog von 89 Maßnahmenvorschlägen für den deutschen „Klimaschutzplan 2050“ und kündigte den weiteren „klimafreundlichen Umbau von Wirtschaft und Gesellschaft“ mit dem Ziel der „Treibhausgasneutralität“ an. Worin unterscheidet sich dies von gesellschaftspolitischen Ansätzen früherer Jahrtausende?

Ohne Energie keine Zivilisation

In der Geschichte der Menschheit haben nur wenige Herrscher bewusst auf eine Verelendung des eigenen Volkes hingearbeitet. Es gab natürlich jede Menge unfähiger Fürsten und Könige, doch hat kaum jemand von diesen ernsthaft versucht, einmal erreichte zivilisatorische Errungenschaften für seine eigenen Leute rückgängig zu machen. Im Gegenteil: Sieht man sich die Geschichte von Hochzivilisationen an, so sind Fortschritte für die Masse der Bevölkerung untrennbar mit der Verfügbarkeit von zusätzlicher Nahrung und Energie verbunden. Das Große an Karl dem Großen war nicht das Massaker an den Sachsen, sondern die Einführung der Dreifelderwirtschaft. Das dadurch verbesserte Nahrungsangebot kam letztlich allen zugute, und das war das entscheidende. Den herrschenden Klassen ging es nämlich auch schon vor Jahrtausenden gut, wie das Sterbealter  ägyptischer Pharaonenmumien oder die Grabinschriften römischer Patrizier unschwer beweisen. Die weit überwiegende Masse der Bevölkerung jedoch fristete selbst noch im 16. Jahrhundert ein kärgliches Dasein, das von Mühsal, Entbehrungen, Siechtum und frühem Tod geprägt war. Eltern mussten oft vier von fünf Kindern begraben, die durchschnittliche Lebenserwartung lag bis 1700 auch in Deutschland bei 30 Jahren, teilweise sogar noch darunter. Als einzige Energiequellen standen Reit- und Zugtiere sowie in geringem Umfang Wind- und Wassermühlen zur Verfügung.

Den Anstoß zu einer modernen Zivilisation, welche auch der Bevölkerung in ihrer Breite merklich zugute kam, gaben erst die Kohlegewinnung und die damit verknüpfte Einführung der Dampfmaschine ab etwa 1720. Damit erschloss sich die Menschheit den Zugriff auf thermische, mechanische und schließlich auch elektrische Energie in einem Ausmaß, das sich vorher niemand hatte vorstellen können. Dokumentieren lässt sich dies an zwei entscheidenden Kenngrößen: Der Zunahme des Ausstoßes an CO2 durch Verbrennung von fossilen Rohstoffen einerseits und der Zunahme der Lebenserwartung der breiten Bevölkerung andererseits, Bild 1. Nur die reichliche Verfügbarkeit von Energie ermöglichte die Entwicklung unserer modernen technischen Zivilisation mit den Errungenschaften für die gesamte Bevölkerung, die wir heute kennen und als selbstverständlich empfinden.


Bild 1. Erst die Verfügbarkeit von reichlicher und bezahlbarer Energie ermöglichte die Entwicklung der modernen technischen Zivilisation, wie wir sie heute kennen. Vereinfachte linearisierte Darstellung. Daten: [CDIA, LEBE, BPB] (Grafik: eigene Berechnungen)

Weltweit gelten diese Gesetzmäßigkeiten übrigens auch heute noch. Nach wie vor verfügen Millionen von Menschen nicht über die Energieressourcen, die ihnen unseren Lebensstandard ermöglichen würden. Das zeigt sich beispielsweise, wenn man die Lebenserwartung in verschiedenen Ländern mit dem jeweiligen Pro-Kopf-Ausstoß an CO2 in einem Diagramm aufträgt, Bild 2.

 

Bild 2. Zusammenhang zwischen Verfügbarkeit von Energie, ausgedrückt durch den nationalen Pro-Kopf-Ausstoß an CO2, und der durchschnittlichen Lebenserwartung. Daten: [CDIA, LEBE] (Grafik: eigene Berechnungen) 

Zivilisatorisches Niveau, ausgedrückt durch die mittlere Lebenserwartung, und die Verfügbarkeit von (fossiler) Energie sind daher nach wie vor eng verknüpft. Bei den CO2-Ausreißern nach oben handelt es sich meist um Länder mit überreichlichen Ressourcen an Öl und Gas sowie vergleichsweise geringer Bevölkerungszahl wie Katar, Brunei, Oman oder Trinidad und Tobago. In anderen Fällen dürfte es sich um kleine Inselnationen mit weit überdurchschnittlichem Flugverkehrsaufkommen durch Tourismus handeln. Deutschland liegt ebenso wie die meisten seiner Nachbarländer im Bereich zwischen 7-11 t CO2/Kopf und Jahr.

 

Energieverweigerung bedeutet Massenmord

Allen politischen Akteure, die heute publikumswirksam den weitgehenden oder vollständigen Verzicht auf die Verbrennung fossiler Rohstoffe predigen, müsste eigentlich klar sein, dass es nicht darum gehen darf, der Menschheit die Verfügbarkeit von Energie zu verwehren. Das liefe auf Massenmord in einem Ausmaß hinaus, wie es in der ganzen Menschheitsgeschichte bisher nicht dagewesen ist. Betroffen wären nicht nur die Länder der 3. Welt, sondern auch die Industrienationen, denn deren Infrastruktur und auch die gesundheitliche Robustheit der Bevölkerung sind viel empfindlicher als in Ländern der 3.Welt. Mit dem Technologieniveau des 16. Jahrhunderts könnte Deutschland nicht einmal die Hälfte seiner heutigen Bevölkerung ernähren. Wir hätten „Bio“ für die Reichen und Hungertod für die Massen. Ganz wie früher.

Diejenigen, die uns den Verzicht auf fossile Ressourcen predigen, müssen daher die Frage beantworten, welche Alternativen sie der Menschheit als Ersatz anbieten wollen. Die vielfach angepriesenen „erneuerbaren“ Energien wie Solar- und Windenergie sind hierzu untauglich [ELHI, IVAN, TASM], nicht zuletzt auch deshalb, weil es derzeit keine technisch wie wirtschaftlich vertretbaren Lösungen für die erforderliche Energiespeicherung gibt. Alle derzeit propagierten Konzepte stecken in den Kinderschuhen. Keine einzige hat sich bisher als ausreichend praxistauglich erwiesen, im Gegenteil: Diverse hochgelobte Inselprojekte wie El Hierro, Tasmanien oder die eine oder andere Nordseeinsel haben sich bisher stets als teure Flops erwiesen.

Als einzige andere Alternative bliebe dann noch die Kernenergie. Diese wird jedoch im Augenblick von den meisten selbst ernannten „progressiven Kräften“ mit aller Leidenschaft bekämpft. „Alternativloser“ Verzicht, wie er teilweise propagiert wird, hätte gerade bei den Ärmsten der Armen katastrophale Auswirkungen. Letztlich ist es egal, ob jemand umweltpolitisch oder kirchlich ausgerichtet ist oder schlicht und undifferenziert gegen „Sozialkapitalismus“ wettert: Er sollte sich hier und jetzt klarmachen, dass er der Weltbevölkerung von aktuell rund 7,4 Mrd. Menschen Wege anbieten muss, an günstige Energie zu gelangen, sonst gibt es mehr Opfer ideologischer Verblendung als jemals zuvor in der Geschichte.

 

Die Utopie einer deutschen „Treibhausgasneutralität“

Bis vor einigen Monaten verfolgte die Bundesregierung noch vorrangig das Ziel, die deutschen CO2-Emissionen bis zum Jahr 2020 auf 625 Mio. Tonnen/Jahr zu senken. Dieses wurde insbesondere im Rahmen von EU-Vereinbarungen propagiert. Ein Blick auf die tatsächliche Entwicklung zeigt jedoch, dass der Rückgang bereits weit oberhalb dieser Zielmarke zum Stillstand gekommen ist, Bild 3.

Bild 3. Der Rückgang der deutschen CO2-Emissionen ist faktisch zum Stillstand gekommen. Das für 2020 angestrebte Ziel dürfte um rund 190 Mio. t/a verfehlt werden. Daten: [STAT], eigene Berechnungen. 

Betrachtet man die Trendlinie, so dürfte das Ziel sogar um rund 190 Mio. t CO2/a verfehlt werden. Das entspricht glatten 30 %. Hierbei muss man noch ins Kalkül ziehen, dass wir in 2014 und 2015 zwei vergleichsweise milde Jahre in Folge hatten, was eine entsprechende Verringerung der heizungsbedingten CO2-Emissionen zur Folge hatte [AGEV]. Während man in ökopolitischen Kreisen lautstark über die „Verhagelung“ der CO2-Bilanz aufgrund des „zu kalten“ Jahres 2015 klagte, zeigt der Blick auf das langjährige Mittel 1981-2010, dass nicht nur das extrem milde Jahr 2014 mit 2453 sogenannten Gradtagen (was das ist? hier), sondern auch das angeblich zu kalte Jahr 2015 mit 2852 Gradtagen immer noch unterhalb des Durchschnitts von 2.993 Gradtagen lagen. Zudem war das Jahr 2015 außergewöhnlich sonnen- und windreich, was zu einem massiven Anstieg vor allem beim Windstrom (+ 50 % !) wie auch bei der Fotovoltaik (+ 7%) führte. All dies zusammen hatte entsprechende Auswirkungen auf die CO2-Emissionen. Realistisch betrachtet waren 2014 und 2015 also Ausnahmejahre mit außergewöhnlich niedrigen CO2-Emissionen.

Bei nüchterner Betrachtung der Zahlen zur Entwicklung der deutschen CO2-Emissionen kommt man zu dem Schluss, dass schon die bisherige Politik der Bundesregierung bezüglich der Verringerung der deutschen CO2-Emissionen gescheitert ist. Mit den üblichen Mitteln politischer und wirtschaftlicher Lenkung und Anreizbildung steckt man hier offensichtlich in der Sackgasse. Normalerweise müsste die Politik in einer solchen Situation einen Rückzieher machen. Im heute „alternativlos“gewordenen Deutschland ist die Reaktion jedoch eine andere.

 

Die Vision einer deutschen „Treibhausgasneutralität“

Doch beflügelt vom erfolgreichen Verlauf des großen Klimarettungs-Jamborees in Paris hat sich die Bundesregierung in Person der Ministerin Hendricks stattdessen jetzt noch viel ambitioniertere Ziele gesteckt. Zwar sind konkrete Zahlenwerke noch nicht veröffentlicht, doch sollen schon bis Mitte 2016 gesetzliche Vorgaben erarbeitet werden, welche den CO2-Ausstoss Deutschlands bis zum Jahre 2050 um rund 85 % drücken sollen. Wichtige Eckpunkte des „Klimaschutzplans 2050“ sind bereits bekannt [EIKE] und lassen Schlimmes befürchten.

So soll im Autoland Deutschland, wo etwa jeder siebte Industriearbeitsplatz direkt oder indirekt am Automobil hängt, der Verkauf von Verbrennungsmotoren für den Einsatz bei Transport und Verkehr schon ab 2030 verboten werden. Da die Modellpolitik der Hersteller über lange Zeiträume geplant werden muss, bedeutet dies mehr oder weniger das Aus für wesentliche Teile der Branche innerhalb der nächsten paar Jahre. Hausbesitzer sollen durch „Straf-Grundsteuern“ und eine Umstellungspflicht auf „EE-Heizungen“ zu unrentablen Investitionen in angebliche „Energiesparmaßnahmen“ gezwungen werden. Zusätzlich flankiert werden soll dies durch Brennstoffsteuern auf Öl- und Gasheizungen. Innerorts soll das Verkehrstempo grundsätzlich auf 30 km/h begrenzt werden, für Autobahnen sollen 120 km/h gelten. Die Stromproduktion soll verringert werden. Ein besonderes „Schmankerl“ ist hierbei die beabsichtigte Beendigung des Kohleeinsatzes in Kraftwerken bereits ab 2035. Da die Kernenergie sogar noch früher, nämlich bis 2022 auslaufen soll, wäre Deutschland bezüglich seiner Stromversorgung dann weitgehend auf Windmühlen, Solarpaneele, Biomasse und etwas Wasserkraft beschränkt. Zur Stabilisierung der Netze stünde lediglich noch ein wenig Erdgas zur Verfügung Die Blaupause hierfür liefert unter anderem ein jetzt bereits verabschiedetes Gesetz für das Land Berlin [EWBE, EWB2], siehe Bild 4.

Bild 4. Die vom Land Berlin im Rahmen seiner Klimaschutzgesetzgebung festgelegten Maßnahmen sehen bis 2050 eine Reduzierung der CO2- Emissionen um 85 % vor (Grafik: [KLNB])

 

Utopische Vorstellungen beim Strom

Unterzieht man die bis jetzt bekannten Eckdaten der Politik beispielsweise bezüglich der Stromerzeugung einem Plausibilitätstest, so stellt man schnell fest, dass es sich hier um politische Vorgaben handelt, die in der Realität gar nicht umsetzbar wären. Das beginnt bereits mit der aktuell von verschiedenen Quellen erwarteten Verringerung der Stromproduktion von rund 10 % seit 1990 bis zum Jahr 2050, Bild 5.


Bild 5. Laut aktuellen Daten von AGEB und Prognosen von Statista wird eine Rückgang der Stromproduktion von 1990 bis 2050 um ca. 10 % erwartet (Daten: [AGE2, STA2] 

Als Begründung für die allgemein erwarteten Reduzierungen bei der Stromerzeugung werden u.a. Effizienzsteigerungen und der Einsatz „smarter“ Energieverteilungstechnologien angeführt. „Smarte“ Netze sollen dafür sorgen, dass Strom vorrangig dann genutzt wird, wenn er aufgrund geeigneter Wetterlagen reichlicher vorhanden und damit billiger ist. Das ist so weltfremd, dass man sich fragen muss, welchen Leuten man denn da das Steuerrad für das Land übergeben hat. Bei einigermaßen realistischer Betrachtung gibt es nämlich weder im privaten noch im gewerblichen Bereich viele Möglichkeit, zeitlich „flexibel“ auf ein erratisch schwankendes Stromangebot zu reagieren. Im Privatbereich ist es der Lebensrhythmus der Bewohner, der festlegt, wann gebadet, gekocht oder der Fernseher eingeschaltet wird, und es ist schlechterdings kaum vorstellbar, dass ein Bundesligaspiel oder ein Boxwettkampf um eine Stunde verzögert würden, weil dann billigerer Windstrom zur Verfügung stünde. Auch im gewerblichen Bereich mit seinen synchronisierten Abläufen ist die Vorstellung, tausende Mitarbeiter Däumchen drehen zu lassen, weil bei den Windmühlen gerade Flaute herrscht, so aberwitzig, dass man darüber gar nicht zu diskutieren braucht. Dass dennoch selbst große Unternehmen der Energiebranche in teuren Werbekampagnen suggerieren, in Zukunft werde sich der Verbrauch anders als bisher nach dem Angebot richten, sollte eigentlich strafrechtliche Konsequenzen nach sich ziehen.

 

Hinweg mit den fossilen Energien?

Der Gesamtenergieverbrauch Deutschlands im Jahre 2015 erreichte 13.306 Petajoule (PJ) [AGEB], was in etwa 3.700 TWh entspricht. Hiervon stammten lediglich 1670 PJ bzw. ca. 460 TWh (12,5 %) aus „erneuerbarer“ Energieerzeugung, der Rest von 3.240 TWh aus fossilen Energien bzw. aus Kernkraftwerken. Geht man davon aus, dass die Bundesregierung vorhat, den CO2-Ausstoss aus der Verbrennung fossiler Rohstoffe um 85 % zu reduzieren, so dürften im Jahre 2050 nur noch rund 158 Mio. Tonnen CO2 emittiert werden, siehe Bild 3. Bei der Verbrennung von Erdgas entstehen rund 219 g CO2/kWh [VDS]. Rechnet man diese Werte entsprechend um, so dürften 2050 noch maximal 2.600 PJ Energie aus Erdgas gewonnen werden. Erdgas wäre die einzige noch sinnvoll nutzbare Quelle, denn Kohle und Erdöl kämen wegen ihrer deutlich schlechteren CO2-Bilanz nicht infrage, Bild 6. Verglichen mit dem heutigen Gesamt-Energiebedarf der Nation müssten also zusätzliche 9.040 PJ bzw. 2.510 TWh allein durch Strom aus „sauberer EE-Erzeugung“ zur Verfügung gestellt werden, um auch nur den aktuellen Stand der Energieversorgung aufrechtzuerhalten. Hierfür kämen ausschließlich zwei Technologien infrage: Wind und Fotovoltaik. Alle anderen „EE“-Technologien sind faktisch bereits ausgereizt und können keine wesentlich höheren Beiträge als bisher liefern. Zusammen haben Wind und FV 2015 insgesamt 124,5 TWh Strom geliefert. Um auch noch den Rest zu erzeugen, müsste ihre Kapazität demnach um den Faktor 20 gesteigert werden. Da uns die „Energiewende“ bisher bereits mehr als eine halbe Billion € gekostet hat, kämen demnach Kosten von mehr als 10 Billionen € auf uns zu, nur um unseren heutigen Status im Bereich der Energieversorgung zu erhalten. Und das noch ohne Berücksichtigung der zusätzlich erforderlichen Investitionen in Infrastruktur.


Bild 6. Im Vergleich zu anderen fossilen Rohstoffen weist Erdgas die geringsten CO2-Emissionen auf (Grafik: [VDS])

 

Der „vergessene“ Strombedarf

Noch grotesker werden die Vorstellungen der Politik, wenn man sich ansieht, welcher zusätzliche Strombedarf allein schon durch die Umstellung einiger wichtiger Bereiche wie Verkehr und Heizung in Zukunft entstehen würde. Während die Politik und die „grünlinken“ Lobbyverbände und Thinktanks von einer Verringerung der Stromproduktion fabulieren, sähe die Realität ganz anders aus. Allein die Umstellung des PKW-Verkehrs auf E-Mobile würde einen zusätzlichen Strombedarf von mindestens 135 TWh bedingen, das sind gut 20 % der derzeitigen Jahresproduktion von 647 TWh [AGE2]. Hinzu kommt der gewerbliche Verkehr, denn man müsste ja auch LKW, Busse und evtl. Schiffe auf E-Antriebe umstellen. Hierfür müssten jährlich weitere 64 TWh Strom bereitgestellt werden. Vom Flugverkehr wollen wir in diesem Zusammenhang gar nicht erst reden.

Der eigentliche 400-Pfund-Gorilla des künftigen Stromverbrauchs lauert aber in den Bereichen Heizung, Warmwasser und industrieller Prozesswärme. Will man diese CO2-frei gestalten, so muss man von Gas oder Öl auf Elektrizität umstellen. Insgesamt benötigte Deutschland im Jahre 2015 866 Terawattstunden (TWh) an Erdgas [AGEB]. Hiervon wurden 384 TWh in Haushalten und Kleingewerben eingesetzt, 360 TWh in der Industrie und 110 TWh in Kraftwerken und Heizanlagen [AGEB]. Durch Strom ersetzbar sind etwa 66 % des Anteils der Haushalte. (Der Einsatz von Wärmepumpen ist nur im Bereich von Niedertemperaturanwendungen wie Heizung und Warmwasser sinnvoll). Der Energiebedarf einer Wärmepumpenheizung liegt bei rund 1/3 dessen, den die bisherige Heizung benötigte [FAWA]. Der zusätzliche Bedarf an elektrischer Energie für die Wärmepumpen kann in etwa auf jährlich rund 200 TWh geschätzt werden (Erdgas und Erdöl zusammen). Bei den industriellen Anwendungen lassen sich wegen des meist deutlich höheren Temperaturniveaus grob geschätzt nicht mehr als 20 % einsparen, so dass hier wiederum ein zusätzlicher jährlicher Strombedarf von 290 TWh erforderlich wäre. Noch außen vorgelassen wurden bei dieser Betrachtung das leichte Heizöl in der Industrie sowie der Einsatz von Kohle bzw. Koks in der Stahlerzeugung.

Zählt man diesen zusätzlichen Strombedarf einmal zusammen, so landet man bei insgesamt 690 TWh/ a. Zusammen mit den bereits jetzt erzeugten 647 TWh/a müsste unser Kraftwerkspark daher 2050 insgesamt 1.340 TWh bereitstellen, das sind über200 % mehr als heute. Die Differenz zu den „offiziös“ verbreiteten Planzahlen ist auf gut Deutsch erschreckend.

 

Großangriff auf die Hausbesitzer

Hinzu kommt die Frage, welche Kosten denn zusätzlich noch auf unsere Bevölkerung zukämen, beispielsweise durch die Umstellung der Heizsysteme. Wie Bild 7 zeigt, haben unsere Häuslebauer in den letzten Jahren in erster Linie auf Erdgas- und daneben auf Erdölheizungen gesetzt.


Bild 7. Bei den Heizungen dominieren mit deutlichem Abstand Erdgas und Erdöl (Grafik: [AGEV]) 

Der Einsatz von Fernwärme dürfte wegen des gesetzlichen Drucks zur Reduzierung von CO2-Emissionen in den nächsten Jahren drastisch zurückgehen. Fernwärme- und Heizkraftwerke funktionieren nur mit Verbrennungsprozessen, und die Ressourcen an Pellets und Biomasse sind bereits heute nahezu ausgereizt. Man mag sich gar nicht vorstellen, was es bedeutet, wenn der Staat darangeht, die Besitzer von rund 29 Mio. bestens funktionierender und teils sogar hochmoderner Heizungsanlagen (19 Mio. Erdgas-, 10 Mio. Ölheizungen, Zahlen nach [AGEV]) zu zwingen, für schätzungsweise kumulierte 700-750 Mrd. € auf elektrisch betriebene Wärmepumpensysteme umzustellen [HEIZ, HEI2]. Hinzu kommen noch weitere staatlich verordnete „energetische Sanierungsmaßnahmen“. Wenn dann auch noch die Zinsen anziehen, dürfte so mancher Häuslebauer aufgeben müssen. Industriebetriebe dürften in Scharen abwandern. Auf Deutschland werden wohl noch sehr „interessante Zeiten“ zukommen.

Fred F. Mueller

 

Quellen

[AGEB] Energieverbrauch in Deutschland im Jahr 2015. ageb_jahresbericht2015_20160317_final

[AGE2] http://www.ag-energiebilanzen.de/index.php?article_id=29&fileName=20160128_brd_stromerzeugung1990-2015.pdf

[AGEV] Energieverbrauch in Deutschland. Daten für das 1.- 4. Quartal 2015. Arbeitsgemeinschaft Energiebilanzen e.V.

[BPB] http://www.bpb.de/politik/grundfragen/deutsche-verhaeltnisse-eine-sozialkunde/138003/historischer-rueckblick?p=all

[BURN] http://www.welt.de/politik/deutschland/article122939590/Die-Frau-die-bei-der-CDU-Burning-Barbara-heisst.html

[CDIA] http://cdiac.ornl.gov/trends/emis/meth_reg.html

[EWBE] Senatsverwaltung für Stadtentwicklung und Umwelt. Entwurf eines Gesetzes zur Umsetzung der Energiewende und zur Förderung des Klimaschutzes in Berlin (Berliner Energiewendegesetz – EWG Bln)

[EWB2] http://www.berliner-e-agentur.de/news/land-berlin-beschliesst-energiewendegesetz

[HEIZ] http://www.heizsparer.de/heizung/heizungssysteme/heizungsvergleich/heizungsvergleich-einfamilienhaus

[HEI2] http://www.co2-emissionen-vergleichen.de/Heizungsvergleich/CO2-Vergleich-Heizung.html

[KLNB] http://www.stadtentwicklung.berlin.de/umwelt/klimaschutz/studie_klimaneutrales_berlin/

[EIKE] http://www.eike-klima-energie.eu/news-cache/klimaschutzplan-2050-morgenthauplan-20/

[ELHI] http://www.eike-klima-energie.eu/energie-anzeige/100-ee-millionengrab-el-hierro-windenergie-unreif-fuer-die-insel/

[IVAN] http://www.eike-klima-energie.eu/news-cache/ivanpah-das-groesste-us-solarprojekt-koennte-gezwungen-werden-abzuschalten/

[LEBE] http://www.lebenserwartung.info/index-Dateien/ledeu.htm

[STAT] http://de.statista.com/statistik/daten/studie/2275/umfrage/hoehe-der-co2-emissionen-in-deutschland-seit-1990/

[STA2] http://de.statista.com/statistik/daten/studie/182020/umfrage/prognose-zur-bruttostromerzeugung-in-deutschland-bis-2050/

[TASM] http://www.eike-klima-energie.eu/news-cache/inseln-sind-mit-dem-versuch-gescheitert-sich-zu-100-mit-gruener-energie-zu-versorgen-und-kehrten-zurueck-zu-diesel/

[VDS] http://www.erdgas.ch/erdgas/umwelt/emissionswerte/

 




DeConto und Pollard – ein Antarktisches Science-(Fiction)-Theater?

Es gibt einen Vorgang, den Klimawissenschaftler aller Couleur und Ausrichtung als die totale Katastrophe ansehen: ein plötzliches und dramatisches Abschmelzen von Inlandseis, was den Meeresspiegel in einem Jahrhundert um 3 Meter oder so steigen lassen würde.

Vor drei Jahren schien es so, als hätte man dieses Monster schlafen gelegt: nämlich als das Team um die dänische Wissenschaftlerin Dorthe Dahl-Jensen einen Eisbohrkern aus dem Grönlandeis bis hinunter zum Felsgrund zog, in dem zum ersten Mal zuverlässige Daten über die vermutlich wärmste Periode in geologischer Historie erfasst wurden. Die Periode ist bekannt als Eemian-Warmzeit. Sie fand heraus, dass sechstausend Jahre lang (in etwa von vor 122.000 bis vor 128.000 Jahren) die Sommertemperaturen in Nordwestgrönland, wo der Eisbohrkern gezogen worden war, um atemberaubende 11°F [ca. 6°C] höher lagen als im Mittel des 20. Jahrhunderts.

Bemerkenswerterweise schätze sie, dass Grönland nach sechs Jahrtausenden nur etwa 30% seiner Eismasse verloren hatte. Die Wärme, der die Eisbedeckung während dieser 6000 Jahre ausgesetzt war, war grob geschätzt zwanzig mal so hoch wie die Menschen durch Treibhausgase innerhalb von 500 Jahren erzeugen könnten. Darum wird die Grönland-Apokalypse schlicht nicht eintreten.

Dahl-Jensen betonte ein seltsames Mysterium, das durch ihre Arbeit aufgekommen war. Man weiß aus einer Reihe unabhängiger Quellen, dass der Meeresspiegel zur Eemian-Zeit um etwa 20 Fuß [ca. 6 m] höher lag als heute. Der Eisverlust, den es in Grönland ihrer Schätzung nach gegeben hatte, kann den Meeresspiegel nur um etwa ein Drittel dieser Höhe angehoben haben. Der Rest musste von der einzigen anderen potentiellen Quelle stammen, der Antarktis.

Das Narrativ eines alarmierenden Anstiegs der Ozeane seitdem war immer schwierig aufrecht zu erhalten gewesen. Es ist wirklich kalt dort, und das Abschmelzen sollte viel Zeit in Anspruch nehmen – tausende von Jahren – um merkliche Auswirkungen zu zeitigen.

Das hat sich gerade geändert. Oder zumindest hat es sich gerade geändert in einer komplexen und heiklen Simulation von Robert DeConto (University of Massachusetts) und Davil Pollard (Penn State). Diese Simulation schaffte es sogar auf die Titelseite der New York Times vom 31. März. Es scheint, dass sie die Zeit, in der die Antarktis zu über 10 Fuß [ca. 3 m] pro Jahrhundert steigendem Meeresspiegel beitragen könnte, aus etwa dem 50. Jahrhundert auf das 22. Jahrhundert (!) vorgezogen haben.

Bevor nun die Welt hierüber durchdreht, sollte man schauen, ob sich vielleicht einige Teufel in den Details der Studie verstecken. Tatsächlich gibt es einen ganzen Zwinger voller dicker Hunde in der konzentrierten, aber präzisen Prosa, die in Nature veröffentlicht wurde.

Für jede prophezeite Klimakatastrophe muss es irgendeine Art Klimamodell geben, dass zukünftige Temperaturen projiziert. Die Autoren führen zwei davon an (eines für den Ozean und das andere für das Festland). Ersteres ist ein allgemein herangezogenes general circulation model (GCM) vom National Center for Atmospheric Research in Boulder. Das zweite ist ein weniger gebräuchliches Modell in kleinerem Scale mit der Bezeichnung „Regional Climate Model” (RCM), das auf das Festland angewendet wurde. Diese wurden dann in Modelle der Eisdynamik eingefüttert einschließlich eines neuen Modells, dass die Regenmenge berücksichtigte (tatsächlich regnet es derzeit in der Antarktis nicht). Dann wurde es auf die gewaltigen Gletscher des Kontinents losgelassen, was gigantische Spalten in das Eis riss, wodurch wirkliche Riesen-Eisberge in den Ozean glitten. Das neue Eisdynamik-Modell reagiert extrem empfindlich auf die große Vielfalt von Möglichkeiten, steuernd einzugreifen – was man hier nur raten kann, weil die Physik, auf der das Modell beruht, nicht sehr weit entwickelt ist.

Und eine prophezeite Katastrophe ist nur so zuverlässig wie die Modelle, die sie simulieren.

Das Eisdynamik-Modell steckt noch in den Kinderschuhen, und die Klimamodelle zur Prophezeiung der Temperaturen rund um die Antarktis weisen diese als zu hoch aus. Viel zu hoch.

Andrew Monaghan von Ohio State schrieb in den Geophysical Research Letters: „Die jährlichen Temperaturtrends in der Antarktis in den GCMs sind etwa 2,5 bis 5 mal höher als beobachtet“. Er fügte die folgende Warnung hinzu: „Solange diese Dinge nicht geklärt sind, sollte man die IPCC-Projektionen für das 21. Jahrhundert der Temperatur in der Antarktis mit großer Vorsicht betrachten“. Es scheint, dass die Presse diese Aussage nicht mitbekommen hat.

Fast begraben am Ende des begleitenden Materials, dass an Nature übermittelt worden ist, kann man sehen, dass die Erwärmungs-Überproduktion der Klimamodelle auch die Studie von DeConto und Pollard infiziert. Den Autoren zufolge sollten sich große Gebiete des Kontinents (und nicht nur die wohlbekannte Erwärmung der winzigen Antarktischen Halbinsel) bis heute um etwa 7 bis 15°F [ca. 4 bis 8°C] erwärmt haben (Abbildung 1 links).

Das war nicht der Fall. Ryan O’Donnell und Anderen zufolge, die sich im Jahre 2010 im Journal of Climate geäußert hatten, sind die Temperaturen seit dem Vorliegen zuverlässiger Aufzeichnungen, die im Internationalen Geophysikalischen Jahr 1957 ihren Anfang genommen hatten, nur um etwa 5 bis 10% so stark gestiegen, wie es dem RCM zufolge an vielen Stellen eigentlich sein sollte (Abbildung 1 rechts).

Abbildung 1 (links): Gesamt-Temperaturänderung zwischen vorindustriellen Bedingungen und heute vom Klimamodell nach DeConto und Pollard; (rechts): beobachteter/gemessener Trend in °C pro Dekade von 1957 bis 2006 nach O’Donnell et al. (2011). Man multipliziere Letzteres mit 5, um eine Ahnung von der Gesamt-Temperaturänderung seit 1957 zu bekommen.

Eine gute Klimakatastrophe muss auch einige Pi-mal-Daumen-Schätzungen enthalten, um wie viel der Kohlendioxidgehalt in der Zukunft zunehmen muss. Die pikantesten davon in der neuen Studie nehmen atmosphärische Konzentrationen an, bei denen selbst die UN von substantiellen Ausreißern sprechen. Und die Studie lässt den Gehalt um das Achtfache über den Hintergrund des 19. Jahrhunderts zunehmen. Soweit wir wissen, hat bisher niemand jemals eine derartige Zunahme zur Grundlage zukünftiger Klima-Szenarien gemacht (gegenwärtig sind wir bei etwa vier Zehntel einer Verdoppelung angekommen).

Es gibt auch ein Szenario mit einer langsameren und realistischeren CO2-Zunahme, wodurch – man ahnt es schon – das Ende der Welt um viele Jahrhunderte nach hinten geschoben wird.

Wie auch immer, man drücke die „Enter“-Taste und werfe all diese Modelle in den Computer. Dann vergleiche man mit dem, was (unserer Ansicht nach) in der Eemian-Zeit passiert ist. Es ist für alle in Abbildung 3a der Studie ersichtlich (unsere Abbildung 2): Der gigantische Anstieg des Meeresspiegels hätte sich etwa 1000 Jahre vor der tatsächlichen Beobachtung ereignen müssen.

Da haben wir es. Roger Pielke Sr. twitterte als Erwiderung auf die Studie:

Bildinschrift: Beispiel einer Fehlfunktion in der Klimawissenschaft: man reiche eine HYPOTHESE als Beitrag ein → suche nach stützenden Artikeln und Begutachtungen → veröffentliche es in Nature → stelle es in der NYT groß heraus. [Ist das nicht genau das, was die „Süddeutsche Zeitung“ seit Jahr und Tag bei diesem Thema macht? Anm. d. Übers.]

Vielleicht ist es dies, was passiert, wenn man hypersensitive Modelle mit unrealistischen Daten füttert.

References:

DeConto, R.M., and D. Pollard. 2016. Contribution of Antarctica to past and future sea-level rise. Nature, 531, 591-597, doi:10.1038/nature17145. http://www.nature.com/nature/journal/v531/n7596/full/nature17145.html

Monaghan, A. J., D. H. Bromwich, and David P. Schneider, 2008. Twentieth century Antarctic air temperature and snowfall simulations by IPCC climate models. Geophysical Research Letters, 35, L07502, doi:10.1029/2007GL032630.

O’Donnell, R., N. Lewis, S. McIntyre, and J. Condon, 2011. Improved Methods for PCA-Based Reconstructions: Case Study Using the Steig et al. (2009) Antarctic Temperature Reconstruction. Journal of Climate, 24, 2099-2115.

Link: http://wattsupwiththat.com/2016/03/31/deconto-and-pollard-an-antarctic-science-fiction-disaster-2/

Übersetzt von Chris Frey EIKE

Anmerkung: Helmut Kuntz hat diesen Beitrag im Original bereits in seinem EIKE-Beitrag hier verlinkt.