CO2 soll mittels CCS-Technologie vergraben werden! Wieviel, wo, wie, womit? Eine Abschätzung der Grössenordnung

Das sind 29.446 to/Tag.

Das CO² wird abgeschieden und verflüssigt. Hier sind seine Eigenschaften beim kritischen Punkt :

Temperatur     31°C

Druck 73,7bar

Dichte             0,464t/m³

Das Volumen beträgt jetzt  63462 m³ /Tag.

(29.446 to/Tag / 0,464to/m³ = 63462 m³ /Tag)

Der Abtransport soll mit der Bahn erfolgen. Ich habe mal bei Wikipedia  geschaut und komme auf einen Kesselwagen  mit einer Länge von 20 m , ein Füllvolumen von 100 m3  und einer zulässigen Beladung mit 50 to.

Die Anzahl der benötigten Kesselwagen berechne ich zu 63462 m³/Tag  / 100 m³/Wagen = 634 Wagen/Tag.

Die maximale Zuglänge bei der DB ist 750 m bei maximal 4000 to Gewicht.

Die Anzahl der benötigten Wagen pro Zug errechne ich aus

750m/Zug  / 20m/Wagen =  38 Wagen /Zug

Wegen der geringen Dichte des Gases sind 29.446 to  auf 634 Wagen mit je 100m³ zu verteilen. Das ergibt eine Beladung von

29446 to / 634 Wagen = 46 to/Wagen

Das Gewicht des Zuges ist

38 Wagen * 46 to/Wagen CO² = 1738 to

Der Zug ist also nicht ausgelastet.. Das Gewicht der Fahrzeuge ist nicht dabei.

Die benötigte Anzahl von Zügen ist

634 Wagen/Tag  /  38 Wagen/Zug = 17 Züge/Tag

In diese Züge ist jetzt das Kohlendioxyd verladen und soll jetzt bei ca. 75 bar Behälterdruck über Land zum Verpressungsort gefahren werden. Für den Fall das der Zugverkehr mal unterbrochen ist müsste ein Pufferlager für ca. 3 Tage eingerichtet sein.

63462 m³/Tag * 3Tage = 190386 m³ Lagerkapazität

Es handelt sich um Drucktanks die gegen den Absturz eines Flugzeugs und Sabotage gesichert werden müssen. Die Gefährlichkeit  des Kohlendioxyds in hoher Konzentration ist gewaltig. Ein Unfall oder Anschlag auf dieses Lager kann tausende Todesopfer kosten, denn man kann ihnen nicht zu Hilfe kommen ohne selbst zu ersticken. Feuerwehrfahrzeuge können nicht fahren, Hubschrauber nicht fliegen. Dieses Pufferlager ist also zu bewachen wie Fort Knox. Ebenso die fahrenden Züge. Die Kosten werden dann auf den Stromverbraucher umgelegt. Dasselbe gilt für die Kosten der Verflüssigungsanlagen und der Verladeanlagen sowie die Personalkosten.

Die Züge stehen in meinen Gedanken noch auf dem Kraftwerksgelände.

Jetzt kommt die entscheidende Frage : Wohin mit den ganzen Zeug ? So ein Werk läuft ja 40 Jahre lang.

63462 m³/Tag  * 365 Tage * 40 Jahre = 926.545.200 m³

Dies ist die Menge die in 40 Betriebsjahren anfällt. Es ist ein Würfel mit einer Kantenlänge von  975 m. Alles flüssiges Kohlendioxyd das unter der Erde verschwinden soll. Aber das ist nur aus einem Kraftwerk. Weltweit gibt es hunderte dieser Kraftwerke. Die Masse an Kohlendioxyd die da verpresst werden soll ist ja gigantisch. Und das soll nun für alle Ewigkeit unterirdisch gelagert werden und man will garantieren das nichts davon wieder in die Atmosphäre gelangt. Wie können Menschen auf eine solche irre Idee kommen ? Man muss sich schon seine Gedanken über den Geisteszustand der Verfechter dieser Idee machen um sich der Hoffnungslosigkeit dieser Geisteskrankheit  bewusst zu werden. Die Bundesregierung gibt aber Geld für eine Versuchsanlage bei der das Versuchsergebnis vorher schon feststeht..

Wie kann nun ein solches Lager aussehen. Man spricht dann von ausgebeuteten Gas- und Ölfeldern. Aber die grossen Gas- und Ölfelder sind doch nicht in Europa gelegen. Sind die denn jetzt leer ? Nein die sind nicht leer sondern mit Salzwasser gefüllt. Es gibt auch riesige poröse Gesteinsschichten in der Erde, sogenannte Aquifere, die aber auch mit Salzwasser gefüllt sind. Dieses Salzwasser muss man ins Meer oder an die Erdoberfläche verdrängen um Platz zu schaffen für das Kohlendioyxd. Aber da wo Wasser entweichen kann da folgt irgendwann das Gas. Der Lagerdruck wird mit 150 bis 200 bar angegeben. Die Lagerstätte  muss sich also in einer Tiefe befinden in der der Wasserdruck des Gebirges ausreicht um diesen Druck einzuhalten. Klüfte im Gebirge dürfen nicht auftreten, denn durch sie kann das Gas aufsteigen und ist dann nicht mehr zu stoppen. Alle Lebewesen die in einen Gasausbruch geraten verlieren ihr Leben.

Welche Menschen möchten nun ihren Wohnsitz oberhalb eines Kohledioydspeichers haben. Ich glaube ja keine. Wie ist es jetzt mit Überwachungsmaßnahmen am Speicher der sich über mehrere Tausend Quadratkilometer erstreckt ? Für alle Ewigkeit muss der Speicher überwacht werden. Wer zahlt die Kosten ? Mit einem solchen Speicher kann man ganz Mitteleuropa entvölkern.

Alle Risiken einer solchen Speicherung kann natürlich Frau Dr. Merkel per Bundesgesetzblatt verbieten und dann geht es los.

Im Ruhrgebiet kennt man das schon, die Ewigkeitskosten, die man aufwenden muss um die alten Bergbaugebiete, die bis zu 16 Meter abgesackt sind, trockenzuhalten. Weite Gebiete liegen unterhalb des Niveaus der Emscher. Das anfallende Regenwasser und Abwasser muss abgepumpt werden auf Ewigkeit.

Meine siebzehn Züge stehen jetzt immer noch am Kraftwerk denn ich kann nicht sagen wo sie entladen können.  In Brandenburg gibt es Leute die sich darum reissen, oder in Hessen bei Herfa-Neurode ist ja schon eine Giftmülldeponie mit Ewigkeitcharakter für 200.000 to pro Jahr. Da geht das bestimmt, gegen Geld. Wir werden ja in Deutschland bestimmt 40 dieser Kraftwerke brauchen und bei allen stehen siebzehn Züge. Wie man das alles entladen will, an welchen Stellen die Pumpanlagen für die Entladung errichtet werden sollen, kann ich mir nicht vorstellen. Man denke an Gorleben. Das muss ja alles innerhalb Deutschlands geschehen. Welcher Nachbarstaat macht denn einen solchen Blödsinn mit ?

Am Werkstor stehen schon tausende Demonstranten und siebzehn Hundertschaften der Polizei zur Sicherung des Transports mit siebzehn Zügen , der ja viel gefährlicher ist als ein Castortransport nach Gorleben. Diese Transporte gehen täglich !! Dazu kommen noch die Rohkohletransporte  von ca 6 Zügen/Tag.

Liebe Leser,

ich mag nicht weiter an diesen Blödsinn denken und trinke stattdessen ein Bier und danke allen die bis hier durchgehalten haben.

Anmerkung der Redaktion

Derzeit fallen in jährlich rd. 350 Mio t CO2 aus der Stromproduktion und nochmals rd. 100 Mio t aus der Stahl- und anderen Produktionen an. Zusammen sind das ca. 450 Mio t jährlich! In zehn Jahren 4,5 Mrd. t usw, usw. Die müssten irgendwo -auf ewig (!!) dicht eingeschlossen werden, um sicher zu sein, keinen Schaden anzurichten.
Natürlich würde austretendes CO2, weil ca. 1,6 x schwerer als Luft, sich – bei Windstille – wie Wasser in Senken sammeln. Dieses Verhalten ist grundsätzlich anders als das der leichteren Gase Wasserstoff, Erdgas etc. Die entweichen immer nach oben in die Atmosphäre. Aber fast alle (deutschen) Städte und Dörfer sind an Flüssen und anderen Wasserquellen gegründet worden. Also dort, wo auch austretendes CO2 hinfließen würden.

Niemand könnte auf ewig garantieren, dass das nicht passiert. Auf hoher See sähe das vielleicht anders aus, allerdings würden dann die Kosten noch weiter anschwellen.

(1) Daten Stammen aus einer Arbeit von Ulf Bossel vom Leipniz-Institut. http://www.leibniz-institut.de/archiv/bossel_27_10_09.pdf Seite 4 Quantifizierung der Anfallenden Massen

Über den Autor:

Nach einer Ausbildung bei Siemens in Bremen im Fachgebiet Elektrotechnik und folgender Weiterbildung war er 35 Jahre lang bei den Stadtwerken Bremen im Kraftwerksbereich tätig. Hatte dort mit der Prozessleittechnik von Kohle-, Gas- und Wasser- und Schnellstarterkraftwerken sowie Blockheizwerken zu tun. Auch die Fernwärmeauskopplung im Kraftwerk und Fernwärmeerzeugung und Verteilung im Stadtgebiet gehörte zu seinem Bereich. Er ist seit 8 Jahren im Ruhestand.




„Grüne Energie“ in der Krise: Nachrichten aus aller Welt

Vom Winde verweht: Schwache Renditen lassen die deutschen Erneuerbaren verkümmern

Gunther Latsch, Anne Seith and Gerald Traufetter, Spiegel online

Investitionen in erneuerbare Energie schienen eine sichere Sache zu sein, haben doch Windparkbetreiber jährliche Renditen bis zu 20 Prozent versprochen. Derartige Versprechungen erwiesen sich jedoch häufig als illusorisch – und viele Investoren haben ihre Bauherren verloren.

Kohle wird ‚den globalen Energiesektor noch viele Jahrzehnte dominieren

Datum: 30.01.2014

Annabel Hepworth, The Australian

Einer Studie zufolge, von der die Minenarbeiter sagen, dass sie Kampagnen grüner Aktivisten zur „Dämonisierung“ von Kohle untergräbt, wird die Kohle global den Energiesektor noch viele Jahrzehnte lang dominieren. In der Studie – geschrieben vom Berater der International Energy Agency IEA und designiertem Energieminister [in Australien] Ian MacFarlane – heißt es: Kohle wird noch mindestens während des kommenden Vierteljahrhunderts der dominante Treibstoff des Energiesektors sein, trotz der Bemühungen, die Energieversorgung zu diversifizieren und trotz der Sorgen über ein langsameres wirtschaftliches Wachstum.

Die Vereinigten arabischen Emirate UAE der OPEC ‚könnten US-Schiefergas importieren’

Datum: 28.01.2014

Upstream News

Die Vereinigten Arabischen Emirate UAE, Ölproduzent der OPEC, ließen einem Bericht zufolge verlauten, dass sie die Möglichkeit überdenken, Erdgas aus den USA zu importieren. Das wäre eine der eklatantesten Entwicklungen seit dem Beginn des US-Schieferbooms.

EU bereitet sich auf Durchbruch für Schiefergas vor

Datum: 27.01.2014

Daniel J. Graeber, Oilprice.com

Vor Kurzem hat die Europäische Kommission eine Reihe von Forderungen erhoben mit der Absicht sicherzustellen, dass geeignete Sicherheitsmaßnahmen ergriffen und eingerichtet werden für Mitglieder, die sich entschließen, mit der Schiefergas-Erschließung zu beginnen. Energieunternehmen fordern lautstark, daran teilzuhaben, und Europa könnte am Wendepunkt eines Durchbruchs für Schiefergas stehen.

‘Wir dürfen die Kohle nicht dämonisieren’, sagt die deutsche Umweltministerin

Datum: 26.01.2014

Diarmaid Williams, Power Engineering International

Die deutsche Umweltministerin Barbara Hendricks sagt, dass Kohlekraftwerke wichtig für die Energiesicherheit in Deutschland sind und nicht Gegenstand extrem negativer Anschauungen werden sollten. „Gas ist nicht profitabel, und Kohle boomt. Wir dürfen Kohle nicht dämonisieren!“

Vorbereitungen, in Europa das Schiefergas zum Fließen zu bringen

Datum: 25.01.2014

Tim Webb, The Times

Schon in wenigen Wochen könnte sich in Europa die erste Schiefergas-Quelle auftun. Das verlautet aus einem AIM-Unternehmen, das von George Soros unterstützt wird und das in Polen erfolgreich das zweite Loch gefrackt hat [AIM = Alternative Investment Market, ein Börsensegment].

Windindustrie des illegalen Vogelmords angeklagt

Datum: 24.01.2014

Clare Foran, National Journal

Eine Ausgleichszahlung in Höhe von 1 Million Dollar mit einem Unternehmen der Erneuerbaren wegen getöteter Vögel in zwei Windparks des Unternehmens hatte gerichtliche Schritte gegen das Töten von Vögeln durch Windturbinen zur Folge.

Das Problem mit den Erneuerbaren: Womöglich geht ihnen das Geld anderer Leute aus

Date: 24/01/14

The Local

Der deutsche Windenergieriese PROKON hat kürzlich Insolvenz angemeldet, was Zehntausende Investoren in Angst um ihr Geld zurückließ. Das Unternehmen hatte damit geworben, eine Rendite von 8 Prozent auszuschütten. Das Unternehmen, das Windparks errichtet und betreibt, war führend bei Deutschlands ambitionierten Plänen zum Wechsel zu erneuerbarer Energie.

Zusammengestellt und übersetzt von Chris Frey EIKE




Offener Brief an Kevin Trenberth – NCAR

Nun könnte man denken, dass Sie Ihre Zeit besser damit zugebracht hätten, den Skeptikern der globalen Erwärmung zu erklären, warum wir uns über die globale Erwärmung Sorgen machen sollten … vor allem vor dem Hintergrund, dass Sie in ihren letzten Studien die natürliche Variabilität als eine bei der Erwärmung unseres Planeten wesentliche Rolle spielende Tatsache anerkannt haben. Daran denkend ist dies eine offene Einladung an Sie, einen Beitrag oder einer Serie von solchen für WattsUpWithThat zu schreiben (oder so etwas als Ko-Autor zusammen mit Skeptikern… wie ich zum Beispiel) auf die Beine stellen.  Es gibt eine ganze Reihe von Punkten, die Sie ansprechen wollen könnten, und sie werden über weite Teile dieses Beitrags diskutiert.

WattsUpWithThat hat eine sehr viel größere Internet-Leserschaft als SkeptikalScience. Schauen Sie die jüngste Statistik von Alexa hier. Wenn Ihnen die Rangfolgen bei Alexa nicht vertraut sind: je geringer der Rang, umso besser. Referenzpunkt: Google rangiert an erster Stelle. Beachten Sie auch die Verweildauer von Lesern auf beiden Websites. Deutlich mehr Menschen klicken nach WattsUpWithThat als nach SkepticalScience und verweilen dort viel länger, wenn sie erst einmal dort sind. Dies zeigt natürlich, wenn Sie einen Beitrag für WattsUpWithThat schreiben, werden wahrscheinlich sehr viel mehr Menschen diesen lesen.

Kommentar zu Ihrem Beitrag auf SkepticalScience

Gehen wir mal davon aus, dass Sie recht haben und sich anstelle der Erdoberfläche die Tiefen der Ozeane erwärmen. Dann jedoch ist Ihr Beitrag bei SkepticalScience für viele Leser nicht viel mehr als eine Ablenkung – weil es die Aufmerksamkeit von den Modellen abzieht, die Schwierigkeiten haben, die globalen Temperaturen an der Erdoberfläche zu simulieren. Weder die vorherige (CMIP3) noch die jetzige Generation von Klimamodellen (CMIP5) können den gegenwärtigen Stillstand der Erwärmung außerhalb der Arktis erklären. Ebenfalls unter der Annahme, dass Sie recht haben – die behauptete Zunahme der Temperatur im tieferen Ozean (während der Stillstand an der Oberfläche auftritt) ist so gering, so minimal, dass die zusätzliche Erwärmung der Ozeane nicht dazu taugt, irgendjemanden zu irgendeiner Zeit zu bedrücken.

Während die Themen Ozeanwärme und Energiegleichgewicht in technischen Diskussionen ihren Platz haben, sind sie völlig unwichtig für die Menschen und die Politiker, die wissen wollen, wie hoch die globalen Temperaturen an der Erdoberfläche steigen könnten und warum die Klimamodelle nicht in der Lage waren, den Stillstand der globalen Erwärmung vorherzusagen.

Frühere Kommentare

Bei WattsUpWithThat haben wir bereits viele Ihrer Argumente diskutiert … und zwar viele Male. Sehen Sie diese Beiträge auf meinem Blog Climate Observations (und die bei WUWT in Klammern):

Trenberth Still Searching for Missing Heat (WUWT cross post here)

More on Trenberth’s Missing Heat (WUWT cross post here)

A Different Perspective on Trenberth’s Missing Heat: The Warming of the Global Oceans (0 to 2000 Meters) in Deg C (WUWT cross post here)

Even More about Trenberth’s Missing Heat – An Eye Opening Comment by Roger Pielke Sr. (WUWT cross post here)

Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?” (WUWT cross post here)

A Couple of Comments about the Oppenheimer and Trenberth Op-Ed in the Washington Post (WUWT cross post here)

Meehl et al (2013) Are Also Looking for Trenberth’s Missing Heat (WUWT cross post here)

Trenberth and Fasullo Try to Keep the Fantasy Alive (WUWT cross post here)

More on Trenberth and Fasullo (2013) “An Apparent Hiatus in Global Warming?” (WUWT cross post here)

Comments on the Nature Article “Climate Change: The Case of the Missing Heat” (WUWT cross post here.)

Was bei Ihren Argumenten fehlt

Kern Ihrer Argumentation ist, dass es um die Jahrhundertwende eine Änderung des ENSO-Zustandes von einer Periode mit vorherrschendem El Niño in eine Periode gegeben hat, in der La Niña dominiert. Diese Phasenänderung um das Jahr 1999 hätte Ihren Argumenten zufolge dazu geführt, dass der Pazifik weniger Wärme in die Atmosphäre freigesetzt hätte als normal, und dass weniger warmes Wasser aus den tropischen Regionen des Pazifik in angrenzende Meeresgebiete gelangt ist. Sie haben auch gesagt, dass verstärkte Passatwinde in Verbindung mit La Niña dazu führen, dass sich mehr warmes Wasser im westlichen tropischen Pazifik ansammelt. Als Folge hätte sich eine substantielle Abnahme der Erwärmungsrate auf der Erdoberfläche ergeben (außerhalb der Arktis).

Dies zeigt doch aber, dass die ENSO auch verantwortlich war für einen großen Teil der Erwärmung zu Zeiten der Dominanz von El Niño-Ereignissen von Mitte der siebziger Jahre bis Ende der neunziger Jahre. Ich kann mich nicht erinnern, dass Sie dies mit so vielen Worten in irgendeiner Ihrer jüngsten Studien festgestellt hatten, und im Licht ihrer neuen Einsichten glaube ich nicht, dass Sie in letzter Zeit versucht haben, den Beitrag der ENSO zu der Erwärmungsperiode zum Ende des 20. Jahrhunderts zu quantifizieren.

Meinen Forschungen zufolge war die ENSO – agierend als ein chaotischer, natürlicherweise auftretender, vom Sonnenlicht gesteuerter Oszillator, der aufgeladen und entladen wird – tatsächlich verantwortlich für den weitaus größten Teil der Erwärmung der Wassertemperatur außerhalb des Nordatlantiks während der letzten 32 Jahre (die Zeit der Satellitenbeobachtungen) … Und die ENSO war auch verantwortlich für den weitaus größten Teil der Erwärmung des tropischen Pazifiks bis in größere Tiefen … und die ENSO war verantwortlich für den größten Teil der langzeitlichen Erwärmung des außertropischen Pazifiks bis zu einer Tiefe von 700 Metern – zusammen mit einer Verschiebung der Luftdruckverteilung (und der damit zusammenhängenden Winde; beschrieben durch den North Pacific Index, den Sie, Kevin, für diese Zwecke entwickelt haben). Dazu kommen noch die Ergebnisse von Lozier et al. (2008) The Spatial Pattern and Mechanisms of Heat-Content Change in the North Atlantic. Sie entdeckten, dass die gesamte Erwärmung des Nordatlantiks bis in die Tiefe mit natürlichen Faktoren erklärt werden konnte. Siehe dazu auch den Artikel vom Januar 2008 in ScienceDaily mit dem Titel North Atlantic Warming Tied to Natural Variability über Lozier et al. (2008). In diesem Artikel heißt es u. A.:

„Wir zeigen, dass die großräumigen dekadischen Änderungen … in Verbindung mit der NAO (= Nordatlantische Oszillation) primär für die Änderungen des ozeanischen Wärmegehaltes im Nordatlantik während der letzten 50 Jahre verantwortlich sind“.

All diese Punkte wurden auch in den o. g. Links angesprochen. Sie sollten darauf eingehen, wenn Sie sich entschließen, einen Beitrag dazu für WattsUpWithThat zu schreiben.

Daten, die Ihre Argumente bestätigen und widerlegen

Ihrer Argumentation zufolge sollte der ozeanische Wärmegehalt des westlichen tropischen Pazifiks während der Periode des Stillstandes zunehmen. In einer Ihrer jüngsten Studien schreiben Sie, dass der Stillstand im Jahre 1999 begonnen hatte, und zwar mit dem Übergang der Pazifischen Dekadischen Oszillation von der positiven in die negative Phase. Sie haben das als Proxy für die ENSO-Zustände verwendet. Abbildung 1 zeigt den NOCD-Wärmegehalt des Ozeans im westlichen tropischen Pazifik (24°S – 24°N; 120°E – 180°); Wassertiefe 0 bis 700 m, Zeitraum Januar 1999 bis Dezember 2013. Man erkennt, dass sich der westliche tropische Pazifik tatsächlich bis zu einer Tiefe von 700 m erwärmt hat.

Abbildung 1

Wie Sie sehr wohl wissen, haben die Bojen des TAO-Projektes im tropischen Pazifik seit Anfang der neunziger Jahre Wassertemperaturen unter der Oberfläche gemessen, so dass man die NODC-Daten von dort als zuverlässig ansehen kann. Während des vorigen Jahrzehnts haben die ARGO-Bojen die TAO-Bojen verstärkt. Und die Daten des ozeanischen Wärmegehaltes im tropischen Pazifik in Tiefen zwischen 0 und 700 m bzw. 0 bis 2000 m während des TAO-Projektes und der ARGO-Ära sind genau gleich, wie Abbildung 2 zeigt. Das zeigt, dass die gesamte Variabilität im Wärmegehalt des tropischen Pazifik in den oberen 700 m stattfindet.

Abbildung 2

Die NODC-Daten des ozeanischen Wärmegehaltes (0 bis 700m) des östlichen tropischen Pazifiks, einer viel größeren Region, zeigen von 1999 bis 2013 eine Abkühlung, siehe Abbildung 3.

Abbildung 3

Als Ergebnis zeigt sich alles in allem eine Abnahme des ozeanischen Wärmegehaltes im tropischen Pazifik seit 1999, siehe Abbildung 4, sowie eine substantielle Abnahme des ozeanischen Wärmegehaltes des tropischen Pazifiks insgesamt seit einem Höchstwert um das Jahr 2004.

Abbildung 4

Auf der Grundlage dieser Daten ergibt sich eine Umverteilung der Wärme innerhalb des tropischen Pazifiks und nicht das Hinzufügen neuer Wärme, wie Sie in Ihren Studien schreiben.

Auch habe ich in meinem letzten Beitrag If Manmade Greenhouse Gases Are Responsible for the Warming of the Global Oceans… die vertikalen mittleren NODC-Temperaturanomalien gezeigt für den Indischen, Pazifischen, Nord- und Südatlantischen Ozean für Tiefen zwischen 0 und 2000 m während der ARGO-Ära (Beginn 2003). Abbildung 5 ist eine Aktualisierung dieser Illustration, die auch die vor kurzem veröffentlichten Daten für 2013 enthält. Der flache Verlauf des pazifischen Trends zeigt, dass es dort nicht zu einer substantiellen Zunahme der Temperatur unterhalb der Oberfläche des Pazifiks bis zu einer Tiefe von 2000 m während der letzten 11 Jahre gekommen war… und das gilt auch für den Nordatlantik. Menschliche Treibhausgase können die Erwärmung im Südatlantik und dem Indischen Ozean nicht erklären, hat diese doch offensichtlich keinen Einfluss auf die Erwärmung im Nordatlantik und Pazifik bis 2000 m Tiefe während der letzten 11 Jahre.

Abbildung 5

Nun könnten Sie geltend machen, dass die jüngste Erwärmung des Indischen Ozeans der ENSO geschuldet ist. Da würde ich zustimmen. Ich habe eine Reihe von Punkten hierzu in meinem Beitrag Is Ocean Heat Content All It’s Stacked Up to Be? besprochen. Einer davon war der Einfluss der ENSO auf die Erwärmung des Indischen Ozeans bis zu einer Tiefe von 700 m. Das Folgende spiegelt diese Diskussion. Man beachte, dass ich die Animationen verlinkt und die Nummerierung der Abbildungen für diesen Beitrag überarbeitet habe.

Beginn des Auszugs aus „Is Ocean Heat Content All It’s Stacked Up to Be?”:

Warum hat sich der Indische Ozean während der ARGO-Ära erwärmt? In Abbildung 6 werden die Daten des ozeanischen Wärmegehaltes im Indischen Ozean (90S-90N, 20E-120E) mit den skalierten Wassertemperatur-Anomalien des NINO3.4-Gebietes im äquatorialen Pazifik verglichen. Beide Datensätze wurden mit einem 12-monatigen laufenden Filter geglättet. Die NINO3.4-Daten sind ein allgemein gebräuchlicher Index für Zeit, Stärke und Dauer von El Niño- und La Niña-Ereignissen. Der Wärmegehalt des indischen Ozeans nimmt als Folge von El Niño-Ereignissen zu, kühlt sich aber offenbar nicht in gleicher Weise ab bei La Niña-Ereignissen.

Warum?

Ganz einfach: wie ich schon seit Jahren sage, La Niñas sind nicht das Gegenteil von El Niños.

Abbildung 6

In den folgenden Animationen kann man beobachten, wie warmes Wasser, das nach El Niño-Ereignissen hinterlassen worden ist, während der folgenden La Niñas durch eine Strömung mit der Bezeichnung Indonesian Throughflow aus dem tropischen Pazifik in den Indischen Ozean strömt. Dieses Warmwasser kompensiert jede Abkühlung, die es sonst durch La Niñas geben würde, und zwar infolge Änderungen der atmosphärischen Zirkulation.

ANIMATION 1 zeigt Karten mit den NODC-Daten des ozeanischen Wärmegehaltes während der ARGO-Ära unter Verwendung von 12-Monats-Mittelwerten. Die ersten Zellen zeigen den mittleren Wärmegehalt von Januar bis Dezember 2003. Dem folgen Zellen für den Zeitraum Februar 2003 bis Januar 2004, dann März 2003 bis Februar 2004 und so weiter. Die letzte Zeitperiode in der letzten Zelle gilt für den Zeitraum Januar bis Dezember 2012. Die 12-Monats-Mittel reduzieren das sichtbare Rauschen und jedwede saisonale Komponente in den Daten. Das ist genauso wie die Glättung der Daten mit einem 12-Monats-Filter in einer Zeitreihe.

Wegen der Auflösung der Daten des ozeanischen Wärmegehaltes könnte es schwierig sein, die Prozesse zu erkennen, die dazu führen, dass das Restwarmwasser der El Niño-Ereignisse der Jahre 2006/07 und 2009/10 in den Indischen Ozean fließen. ANIMATION 2 ist eine gif-Animation der Meeresspiegel-Karten für den tropischen Pazifik von der AVISO altimetry website. Die Karten zeigen auch den östlichsten Teil des Indischen Ozeans. Ich habe die Animation im Januar 2003 beginnen lassen, übereinstimmend mit der Diskussion der Wärmegehalts-Daten in der ARGO-Ära. Es gab eine Reihe kleinerer El Niño-Ereignisse vor dem Ereignis 2006/07. Am Ende des El Niño von 2006/07 teilt eine (kühle) Kelvin-Welle [?] die (warmen) Anomalien des Meeresspiegels entlang des Äquators. Das restliche Warmwasser wurde durch Rossby-Wellen nach Indonesien verfrachtet, und die stärker als normal wehenden Passatwinde im Pazifik während des folgenden La Niña halfen, dieses Warmwasser über Indonesien hinaus in den Indischen Ozean strömen zu lassen. Zusätzlich zu dem Indonesian Throughflow gelangt warmes Wasser aus dem südlichen tropischen Pazifik in den östlichen Indischen Ozean durch die Torres-Straße zwischen Australien und Neuguinea. Das Gleiche geschah nach dem El Niño von 2009/10. (Ich entschuldige mich für die Verschiebung in der Animation im Jahre 2011. Aviso hat das Kartenformat geändert).

 (Ende des Auszugs aus „Is Ocean Heat Content All It’s Stacked Up to Be?”)

Einige kurze Kommentare zu Trenberth et al. (2014)

Danke für das Verlinken eines Vorabdrucks von Trenberth et al. (2014) “Earth’s Energy Imbalance” in ihrem Beitrag auf SkepticalScience. Leider hatte ich keine Gelegenheit, ihn im Detail zu studieren. Aber ich habe ihn überflogen. Danke auch für die Nennung einer Anzahl von Datensätzen des Wärmegehaltes zusätzlich zu den Daten von ECMWF ORA-S4. Wir haben die Probleme dieser Re-Analyse in vielen Beiträgen diskutiert, die am Beginn dieses Beitrags gelistet sind, so dass ich hier damit jetzt nicht fortfahre… obwohl ich bemerke, dass Sie immer noch versuchen, die Verwendung der ORA-S4-Reanalyse zu rechtfertigen, indem Sie zeigen, dass sie auf vulkanische Aerosole reagieren, während dies bei anderen Datensätzen nicht der Fall ist. (Das ist keine Überraschung, ist doch die ORA-S4-Reanalyse das Ergebnis eines Computermodells, das man so programmiert hatte, dass es eine Abkühlung durch vulkanische Aerosole erzeugen soll).

Auch weise ich darauf hin, dass in Ihrer Abbildung 11, die ich hier als meine Abbildung 7 zeige, ein La Niña-Ereignis fehlt.

Abbildung 7

Der Studie zufolge haben Sie die alte Version des ONI-Index’ (hier; Vergleichsperiode 1971 bis 2000) als Referenz für offizielle El Niño- und La Niña-Ereignisse verwendet. Dabei haben Sie eindeutig den starken El Niño von 2010/11 übersehen, der dem El Niño von 2009/10 folgte. Auch gab es mäßig starke la Niña-Bedingungen während der ENSO 2009/10-Saison, aber sie dauerten nicht lange genug, um als „offizielles“ La Niña-Ereignis basierend auf der alten ONI-Klimatologie betrachtet zu werden. Ich bin mir nicht sicher, ob Ihnen das für 2008/09 oder in 2010/11 hilft.

Auch hier hatte ich leider keine Gelegenheit, Ihre Studie detailliert zu betrachten.

Ihnen zufolge, Kevin, wird ENSO durch Sonnenlicht getrieben

In Ihrer viel zitierten Studie Trenberth et al. (2002) mit dem Titel The evolution of ENSO and global atmospheric surface temperatures haben Sie festgestellt:

Die negative Rückkopplung zwischen der SST [Wassertemperatur] und Flüssen an der Oberfläche können als die Bedeutung interpretiert werden, die der Wärmeabfluss während El Niño-Ereignissen und der Wärmezufluss bei La Niñas hat. Relativ klarer Himmel im zentralen und östlichen tropischen Pazifik erlauben es der Solarstrahlung, in den Ozean einzudringen, was die unternormalen SSTs kompensiert, aber die Wärme wird durch die Ekman-Strömung, ozeanische Ströme und Wechselwirkungen zwischen Kelvin- und Rossby-Wellen davon getragen. Sie wird im westlichen tropischen Pazifik gespeichert. Dies ist nicht einfach eine Umverteilung ozeanischer Wärme, sondern auch eine Restaurierung der Wärme im Ozean. Genauso sorgt während eines El Niño der Wärmeverlust in die Atmosphäre vor allem durch Verdunstung für eine Abschwächung des Wärmegehaltes, und beides trägt zum Lebenszyklus einer ENSO bei.

Folglich [gilt] meine frühere Beschreibung der ENSO als ein chaotischer, natürlich vorkommender, von Sonnenlicht getriebener Erwärmungs-/Abkühlungs-Oszillator … wobei El Niños als Aufwärm- und La Niñas als Abkühlungsphase agieren. Aber La Niñas helfen auch bei der Umverteilung warmen Wassers durch ein El Niño – was in den oben verlinkten Animationen eindeutig zum Ausdruck kommt.

Dieses Zitat aus dem Jahr 2002 wirft eine sehr grundlegende Frage auf: wie können Sie zeigen, dass die Dominanz von La Niña-Ereignissen während der letzten Jahre eine stärkere Erwärmung des Pazifiks bis in größere Tiefen durch Treibhausgase verursacht hat, wenn diese La Niña-Ereignisse durch Sonnenlicht angetrieben werden?

Vor diesem Hintergrund: Falls Sie sich dazu entschließen, einen Beitrag für WUWT vorzubereiten, dann dokumentieren Sie bitte die einfallende kurzwellige Strahlung  und die ausgehende langwellige Strahlung, beide an der Oberfläche des tropischen Pazifiks, und zwar aus der ECMFW ORA-S4-Reanalyse, auf die Sie sich in so vielen Ihrer Studien aus letzter Zeit verlassen.

Große Sprünge

Gelegentlich beschreiben Sie „große Sprünge” der globalen Temperaturen. Ihre großen Sprünge werden diskutiert in einem offenen Brief an die Royal Meteorological Society hinsichtlich des Artikels von Dr. Trenberth mit dem Titel „Has Global Warming Stalled?“ [hier]. Danach haben Sie noch mehr zu diesen großen Sprüngen gesagt. Zum Beispiel haben Sie sich auch darauf bezogen in ihrem Interview im August 2013 beim Sender NPR [hier] (Fettdruck von mir):

Zeitweise können die Ozeane sehr viel Wärme aufnehmen. Einiges davon geht in die Tiefe, wo es Jahrhunderte lang lagern kann. Aber Wärme, die näher an der Oberfläche absorbiert wird, kann leicht wieder an die Luft abgegeben werden. Das geschah 1998, was dieses Jahr zu einem der wärmsten Jahre jemals machte.

Seitdem sagt Trenberth, dass sich der Ozean zumeist wieder im Wärmeaufnahme-Stadium befindet.

Er sagt: „Das kann nicht mehr viel länger als höchstens 20 Jahre lang der Fall sein, und was nach dem Ende dieses Stillstands passiert, wird ein plötzlicher großer Sprung (der Temperatur) auf ein ganz neues Niveau sein, und niemals wieder wird das vorangegangene Niveau erreicht“.

Man kann sich das wie eine Treppe vorstellen. Der Temperaturverlauf ist flach, wenn ein natürlicher Kaltrhythmus den graduellen, vom Menschen verursachten Temperaturanstieg ausbremst. Aber wenn es wieder zu einem Erwärmungs-Rhythmus zusätzlich zu dem langzeitlichen Erwärmungstrend gibt, ist das dramatisch anders.

„Wenn die natürliche Variabilität oder das Wetter in die gleiche Richtung geht wie die globale Erwärmung, werden wir plötzlich Rekorde brechen, wir werden außerhalb der Bandbreite bisheriger Erfahrungen liegen, und dann findet die wirkliche Schädigung statt“, sagt Trenberth.

Zunächst einmal versuchen Sie wieder einmal zu zeigen, dass El Niño-Ereignisse einen Teil der Erwärmung zum Ende des 20. Jahrhunderts verursacht haben. Das muss ein sehr großer Teil gewesen sein, wenn der Übergang zu einem La Niña die Erwärmung anhalten konnte. Warum sagen Sie das nicht einfach? Liegt es daran, dass die Leute dann bemerken werden, dass die Erkenntnis, dass eine Reihe starker El Niños zur Erwärmung von den siebziger bis zu den neunziger Jahren beigetragen hatte, auch zu der Erkenntnis führt, dass die Modelle die zukünftige Erwärmung überschätzt haben? Wir verstehen das schon … nun, die meisten von uns jedenfalls. Oder kann es daran liegen, dass die Leute auch bemerken, dass Sie den Einfluss der Atlantischen Multidekadischen Oszillation, die ebenfalls zur Erwärmung zum Ende des 20. Jahrhunderts beigetragen hat, außen vor gelassen haben? Warum stellen Sie nicht einfach fest, dass die Modellvorhersagen zu hoch sind, und zwar mindestens um einen Faktor zwei?

In dem von mir angesprochenen Teil Ihres NPR-Interviews haben Sie gesagt, dass ein starker El Niño einen großen Sprung bei den Temperaturen auslösen kann. Das verstehen wir. Ich selbst habe diese „großen Sprünge“ der Wassertemperatur bereits vor über 5 Jahren angesprochen. Wir stimmen Ihnen auch zu, dass El Niños von Sonnenlicht getrieben werden … welches Bestandteil des „Lebenszyklus‘ der ENSO“ ist, wie vor über einem Jahrzehnt festgestellt hatten. Aber ich bin sehr begierig zu erfahren, warum Sie sich darüber Sorgen machen, dass wir „niemals wieder das vorangegangene Niveau erreichen werden“ nach einem solchen durch ein El Niño ausgelösten Sprung. Genau das würden wir erwarten in einer Welt, in der natürlicher Prozesse für den größten Teil der Erwärmung sorgen … eine Welt, in der die Ozeane nur geringe Auswirkungen der zunehmenden menschlichen Treibhausgase zeitigen.

Der La Niña von 1995/96 erzeugte das warme Wasser für den El Niño von 1997/98 mittels einer Reduktion der Wolkenbedeckung und vermehrter Sonneneinstrahlung im tropischen Pazifik. Der 1997/98-El Niño hat dieses warme Wasser von unter der Oberfläche des westlichen tropischen Pazifiks nach oben befördert… und in der Folge eine substantielle Wärmemenge an die Atmosphäre abgegeben. Eine unermessliche Menge warmen Wassers wurde dann in den globalen Ozeanen verteilt nach dem El Niño 1997/98. Dieses Warmwasser verhinderte die Abkühlung proportional zum nachfolgenden La Niña 1998-01. Dieser sorgte auch für die Ersetzung des Warmwassers im tropischen Pazifik, das vom El Niño 1997/98 freigesetzt und umverteilt worden war. Alles passt zu einer sich natürlich erwärmenden Welt … einer Welt, die längst nicht so sensitiv auf menschliche Treibhausgase reagiert wie von den Klimamodellen simuliert (von Klimamodellen, die immer noch nicht grundlegende ENSO-Prozesse simulieren können).

„Der Stillstand ist Fiktion; die Erwärmung der Ozeane Fakt“???

Ich habe den Verdacht, dass Ihre Mitautoren Dana Nuticelli und Rob Painting diese Überschrift für den Schlussteil des Beitrags auf SkepticalScience geschrieben haben, Kevin. Sie ist komisch und irreführend. Die Daten zeigen, dass sich die Ozeane bis in eine gewisse Tiefe erwärmen, aber diese Erwärmung findet nicht in allen Ozeanbecken statt. Außerdem würden Sie, Kevin, bestimmt nicht so viel Zeit damit aufgewendet haben während der letzten paar Jahre, die Abschwächung der globalen Erwärmung außerhalb der Arktis zu erklären, falls der Stillstand wirklich „Fiktion“ wäre.

Angesichts der Rate, mit der sich die globalen Ozeane bis in eine Tiefe von 2000 m während der ARGO-Ära erwärmt haben (Abbildung 8), sollte man sich wirklich nicht zu viele Sorgen machen über die Erwärmung dieser Ozeane, vor allem, wenn die Daten zeigen, dass diese Erwärmung natürlichen Prozessen geschuldet ist.

Abbildung 8

Und niemand sollte sich Sorgen machen über die beobachtete Erwärmung der Ozeane, wenn wir bedenken, dass sich die Erwärmung der globalen Ozeane der ORA-S4-Reanalyse zufolge, die Sie immer präsentieren, fast ein Jahrzehnt lang abschwächen kann. Siehe meine Abbildung 9, welche eine kommentierte Version der ersten Graphik ist, die Sie in Ihrem Blogbeitrag zeigen.

Abbildung 9

Der folgende Auszug stammt aus dem oben verlinkten NPR-Interview:

Werden die Ozeane uns also retten?

„Das ist eine gute Frage, und die Antwort lautet, teils ja, aber teils auch nein“, sagt er.

Zeitweise können die Ozeane sehr viel Wärme aufnehmen. Einiges davon geht in die Tiefe, wo es Jahrhunderte lang lagern kann. Aber Wärme, die näher an der Oberfläche absorbiert wird, kann leicht wieder an die Luft abgegeben werden. Das geschah 1998, was dieses Jahr zu einem der wärmsten Jahre jemals machte.

Aber, noch einmal, das warme Wasser des El Niño von 1997/98 wurde durch eine zeitweilige Zunahme der Sonneneinstrahlung im tropischen Pazifik ausgelöst als  Teil „des Lebenszyklus‘ einer ENSO“.

Schluss

Danke für die Überlegung, eventuell einen Beitrag oder mehrere für uns hier bei WUWT zu schreiben. Viele von uns applaudieren Ihnen wegen Ihrer Bemühungen, die Verlangsamung und den Stillstand der Erwärmung zu erklären, aber es bleiben noch viele offene Fragen.

Außerdem begrüßen wir es, wenn Autoren von Blogbeiträgen Fragen beantworten, und Sie sollten einen weiteren Austausch erwarten.

Und zuletzt: Wenn diese Aufforderung Sie interessiert, können Sie gerne einen Kommentar bei WUWT schreiben. Wenn Sie gerne die Ursprungsdiskussion entfernt haben möchten, schreiben Sie bitte einen Kommentar auf meinem eigenen Blog Climate Observations, wo ich immer noch Kommentare moderiere. Wir können dann via E-Mail weiter diskutieren.

Mit freundlichen Grüßen

Bob Tisdale

Link: http://wattsupwiththat.com/2014/01/31/open-letter-to-kevin-trenberth-ncar/




Sollten wir uns Sorgen machen?

Abbildung rechts: Temperaturen der microwave Sounding unit auf Satelligen (rote Linie) von der University of Alabama. Blaue Linien zeigen eine lockere Glättung [a loess smooth], Spanne = 0,4. Daten: KNMI (NCDC, 17 MB)

Also … gibt es da etwas Besorgliches?

Nun, schauen wir doch mal. Zuallererst: In den Tropen zeigt sich kein Trend, und die machen bereits 40% der Planetenoberfläche aus. Was ist also mit all jenen, die all den armen Menschen in den Tropen „Doom and Gloom“ prophezeit haben? Tut mir leid … da zeigt sich nicht die leiseste Bedrohung. Nun, tatsächlich gibt es doch eine, und zwar die Bedrohung durch steigende Energiepreise infolge des sinnlosen Krieges gegen den Kohlenstoff – und steigende Energiepreise treffen die Ärmsten am härtesten. Aber ich schweife ab…

Und was noch? Außertropische Gebiete der Südhalbkugel? Kein Trend. Südlich des antarktischen Polarkreises? Kein Trend, es hat sich leicht abgekühlt und dann um den gleichen Betrag wieder leicht erwärmt.

Das heißt, in 70% der Planetenoberfläche zeigte sich kein wahrnehmbarer Temperaturtrend während des letzten Drittels eines Jahrhunderts …

Und was noch? Außertropische Gebiete der Nordhalbkugel? Ein kaum erkennbarer Trend und gar keiner mehr seit dem Jahr 2000.

Und das bedeutet, dass sich in etwa 96% der Erdoberfläche gar keine Richtung abzeichnet…

Bleibt noch der Rest von 4% nördlich des arktischen Polarkreises. Während der ersten eineinhalb Jahrzehnte hat es sich leicht abgekühlt. Dann ist es ein Jahrzehnt lang wärmer geworden und dann ist die Temperatur ein weiteres Jahrzehnt gleich geblieben…

Meine Schlussfolgerung? Ich sehe nicht das Geringste hier, worüber man sich Sorgen machen müsste. Wieder einmal überraschend für mich ist die erstaunliche Stabilität der Temperatur des Planeten. Ein Drittel eines Jahrhunderts, und die Temperatur in den Tropen hat nicht einmal um eine Haaresbreite geschwankt. Das ist ein extrem stabiles System.

Ich erkläre mir das als Folge des thermoregulatorischen Effektes auftauchender Klimaphänomene … haben Sie eine bessere Erklräung?

Link: http://wattsupwiththat.com/2014/01/29/should-we-be-worried/

Übersetzt von Chris Frey EIKE




Energiepolitisches Manifest Argumente für die Beendigung der Energiewende (2)

von Günter Keil, Michael Limburg und Burkard Reimer

Hinweis zur Einordnung dieses Papiers

Die Autoren wirken in einer Gruppe von Fachleuten mit, die Bewertungen und Vorschläge zur Energiepolitik für die Partei „Alternative für Deutschland “ (AfD) erarbeitet. Es handelt sich dabei um den Bundesfachausschuss Energiepolitik (BFAE) der AfD.Der Inhalt des vorliegenden Papiers ist zum Teil in die Programm-Arbeit der AfD eingeflossen, es gibt jedoch ausschließlich die Meinung der Autoren wieder und ist kein Programm-Papier der AfD. Politische Grundsätze und Ziele dieser Partei werden auf einem in Vorbereitung befindlicher Programmparteitag nach eingehender Beteiligung ihrer Landesverbände beschlossen – dieser Prozess und seine Ergebnisse bezüglich der künftigen Energiepolitik der AfD sind abzuwarten.

Fortsetzung des ersten Teiles (den finden Sie hier)

2.3    Ein weiteres Milliarden-Grab – die Energie-Einspar-Verordnung EnEV und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG 

Wesentliche Komponenten der Energiewende sind die Energie-Einspar-Verordnung EnEV (47), die auf dem Energie-Einsparungs-Gesetz EnEG beruht, und das Erneuerbare-Energien-Wärme-Gesetz EEWärmeG (48). Wie bei dem EEG und der Energiewende werden die erforderlichen Kosten zur Umsetzung von der Regierung und den Profiteure klein geredet oder verschwiegen. Beide Maßnahmen sollen den Verbrauch von vorwiegend fossilen Energieträgern für das Heizen privater und öffentlicher Gebäude vermindern und damit der geplanten Absenkung der CO2-Emissionen dienen.  Die EnEV wurde 2002 erlassen. Zwischenzeitlich wurde sie mehrfach mit dem Ziel novelliert, zuletzt 2013, insbesondere die Forderungen an die Wärmedämmung und die Heizsysteme der Gebäude, weiter zu verschärfen .

Beide gesetzlichen Maßnahmen stehen deutlich seltener als das EEG im öffentlichen Fokus. Obwohl die erhofften Wirkungen der Verbrauchsminderung nachweislich nur bei wenigen Gebäude-Konstruktionen mit schlechter Wärmedämmung, wie z.B. bei dünnen Wänden mit geringer Masse, die in den 50er und 60er Jahren errichtet worden sind,  eintreten. Dagegen verursachen sie häufig massive Schäden z.B. durch mangelhaften Luftaustausch in den Innenräumen, aber auch durch Durchfeuchtung, Algen- und Pilzbefall der Außenwände. Zudem sind insbesondere Styropor-Dämmmaterialen gute Brandbeschleuniger, so dass im Brandfall die Feuerwehr einen kontrollierten Abbrand bevorzugt, statt zu löschen.

Eine messbare Verminderung des Energie-Verbrauchs wird hingegen nur selten erreicht, oft tritt das Gegenteil ein, da die Dämmmaterialien das Eindringen der durch die Sonnenstrahlung erzeugten Wärme in die Außenwände weitgehend verhindern.

Da die EnEV seit Jahren großräumig in allen Teilen des Landes angewendet werden muss, führt sie in großem Umfang zu einer Zerstörung der verbauten Materialien und damit der Bausubstanz bei gleichzeitig extrem aufwendiger und damit kostspieliger Umhüllung der Fassadenflächen. Die Kosten, die der Vermieter ggf. auf die Mieter abwälzen kann, sind erheblich, und werden bis zum Ende des Programms 2050 ca. 3 Billionen € allein durch die Fassadendämmung erreichen. Da die Dämmung oft mit einer ohnehin notwendigen Renovierung der Fassade einhergeht, werden die für die EnEV aufzuwendenden Beträge in der Regel weniger sichtbar. Kaum einer der Auftraggeber der Dämmmaßnahmen macht sich die Mühe diese Kosten herauszurechnen. So fehlt die Transparenz. Die Kosten belaufen sich pro m3 umbauten Raumes auf derzeit ca. 200 €, amortisieren sich aber nur selten. In so gut wie in keinem Fall geschieht das innerhalb der in der EnEV vorgegebenen Amortisationszeit von 10 Jahren.

In der Studie von Prof. Simons, Forschungsinstitut empirica, Berlin, „Energetische Sanierung von Ein- und Zweifamilienhäusern“ (49)  wurden zur Beurteilung des energetischen Zustands der Gebäude in die Berechnungen die Heizungsanlage,  Fenster, Außenwanddämmung, obere Geschossdecke/Dach und Fußboden/Kellerdecke einbezogen. Zusammengefasst kommt die Studie zum Ergebnis, dass eine energetische Sanierung im Regelfall unwirtschaftlich ist, da die eingesparten Energiekosten nicht die Kosten dieser Sanierung decken. Der mittlere Energieverbrauch von nicht wesentlich modernisierten Ein- und Zweifamilienhäusern beträgt 167 kWh/(m²a). Bei Energiekosten von 0,08 €/kWh belaufen sich die Energiekosten vor Sanierung auf 13,36 €/(m²a). Unterstellt, durch eine energetische Sanierung ließen sich tatsächlich 60 % der Energie einsparen – ein ambitioniertes Einsparziel, das in der Realität nur selten erreicht wird – so sinken die Energiekosten um 8,01 €/(m²a). Innerhalb von 15 Jahren summieren sich die eingesparten Energiekosten entsprechend auf 120 €/m² und damit bei Weitem nicht auf die Sanierungskosten, die bereits bei einfachen Fällen zwischen 300 und 500 €/m² liegen.

Auf einer Fachtagung zur Gebäudesanierung stellte Prof. Simons fest (41):

„Eine Sanierung trotz noch relativ gutem Zustand der Bauteile macht wenig Sinn“. Und weiter: „Besonders die Materialkosten der energetisch relevanten Bauprodukte sind in den Jahren 2000-2011 zwischen 10 und 50% angestiegen“. Auch eine aktuelle Studie der Kreditanstalt für Wiederaufbau KfW beleuchtete das Dilemma steigender Bauproduktpreise und deren Auswirkung auf die dadurch weiter sinkende  Wirtschaftlichkeit energetischer Modernisierungs-Maßnahmen (42). Hierzu M. Kleemann, Jülich: „Neben der oftmals sehr knappen Wirtschaftlichkeit energetischer Sanierungsmaßnahmen mit Amortisationszeiten von über 25 Jahren (!) ist auch das „Dilemma der mittleren Qualität“ ein Problem. Das Anforderungsniveau … wird nur zu 69% umgesetzt“.

Zweck des am 01.01.2009 in Kraft getretenen EEWärmeG ist 1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen (Ist 2011: 10,2%). Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor  und weitere  Maßnahmen voranzutreiben.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g.  Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird. Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens  zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU (40): „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkessel – bestehen können.

Auch von E. Gawel et al (39) wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen  Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die  gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG auf alle Bestandsgebäude  bedeuten. Die wirksamste und wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Der Bundesrat hat – wie auch die geea – die Bundesregierung aufgefordert, das Ordnungsrecht zur Energieeffizienz von Gebäuden zu vereinfachen, indem die EnEV und das EEWärmeG zusammengelegt werden. Das bildet dann auch die Gelegenheit, endlich alle Bestandsgebäude diesen Regelungen zu unterwerfen.

(Anm.: Die dena gehört zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Die geea wurde von der dena gegründet und versteht sich als „Plattform der Akteure (Anm.: Profiteure) in den Branchen Bauen und Energie“; sie wird von der dena koordiniert.)

Der Wärmesektor ist jedoch der einzige Bereich, in dem in Deutschland die Energie der Sonnenstrahlung – und zwar auch ihr beträchtlicher Rot- und Infrarotanteil – wirtschaftlich genutzt werden kann. Ferner bietet auch die Nutzbarmachung der Umwelt- oder Erdwärme zu Heizungszwecken – z.B. mittels der Wärmepumpen-Technik – eine weitere sinnvolle Anwendung für die regenerativen Energien in Deutschland.

Bei einer konsequenten Förderung der betreffenden Forschung und Entwicklung (F&E) mit Fokus auf eine Senkung ihrer Investitions- und Betriebskosten stellt dies eine große Chance für eine importunabhängige und kostengünstige Klimatisierung der Gebäude dar. Kostenintensive

Markteinführungsmaßnahmen hingegen bringen keine qualitativen Verbesserungen und sollten niemals vom Staat gefördert werden. Die Fokussierung der Regierungen auf die Stromerzeugung mit „Erneuerbaren“ war und ist ein grundsätzlicher und sehr teurer politischer Fehler. Der verspätete Versuch auch im Gebäudebereich die „Erneuerbaren“  für Techniken zur Erzeugung von Wärme und Kälte zu erschließen, beruht abermals auf Zwang und bevorzugt wiederum die unwirtschaftlichen, aber politisch-ideologisch gewollten EE-Technologien (siehe Kapitel 2.3). 

Im Kapitel 2.13 sind die notwendigen F&E-Maßnahmen zusammengestellt worden.

Vorschlag:

Die EnEV und das EEWärmeG sind ersatzlos abzuschaffen. Es muss den Bauherren oder Gebäudebesitzern überlassen bleiben, ob und wieviel Geld er/sie in die Wärmdämmung, die Heizungsanlage, die Pflege  und den Erhalt der Gebäude stecken.

2.4  Das Speicher-Dilemma

Die Regierung hat seit Einführung des EEG mit ihrer massiven Förderung der vom Tageslicht und vom Wind abhängigen Stromerzeugung von Anfang an ignoriert, dass dieser „Flatterstrom“ ohne die Möglichkeit seiner großtechnischen Speicherung für einen hochentwickelten Industriestaat weitgehend  wertlos, stattdessen aber sogar für die Netzstabilität problematisch ist. Zum Ausgleich der systembedingten kurzzeitigen starken Schwankungen des Wind- und Solarstroms sind riesige Speicher erforderlich, die es aber weder damals gab noch heute oder in absehbarer Zukunft geben wird.

Die Aufgabe solcher Speicher wäre es, nicht nur die kurzzeitigen Schwankungen der instabilen Stromquellen Wind und Sonne zu glätten sondern insbesondere im Winter längere Hochdruck-Wetterlagen mit Hochnebel und daher ohne Wind und mit stark verringerter Sonneneinstrahlung für mindestens 12 Tage zu überbrücken.

Hier bieten sich allein Pumpspeicher-Kraftwerke mit einem Wirkungsgrad von 75% an (8).  Die z.Z. vorhandene Speicher-Kapazität aller Pumpspeicher in Deutschland beträgt 40 GWh (Gigawatt-Stunden), womit Deutschland 40 min lang mit Strom versorgt werden könnte (9).

Um für 12 Tage die erforderliche Strommenge von 17.280 GWh über diese Speicherkraftwerke  sicherzustellen, müssten 2038 Pumpspeicher-Kraftwerke von der Größe Goldisthal neu errichtet werden. Goldisthal in Thüringen ist das größte Pumpspeicher-Kraftwerk Deutschlands und kann maximal 8,480 GWh speichern (Berechnung siehe Nr.1 der Anlage).

  • Auch Prof. Sinn ging in seinem Vortrag auf das Problem der fehlenden Speicherkraftwerke ein (38).  Um den Flatterstrom aus Wind und Sonne bedarfsgerecht aus eigener Kraft anbieten zu können, kann er am effektivsten mit Hilfe von Pumpspeicher-Kraftwerken „geglättet“ werden. Das heißt aber auch: Solange das nicht realisiert ist,  muss  die installierte Leistung der herkömmlichen fossil-gefeuerten und Kern-Kraftwerke zu 100%  betriebsbereit vorgehalten werden. Nur so kann gegenwärtig der volatile Strom verstetigt  und in der Nacht bei Windstille aber oft auch über Tage nahezu vollständig ersetzt werden.
  • Bei seinem Modell geht Prof. Sinn von der 2011 installierten Leistung an volatilem Wind- und Sonnenstrom und der in diesem Jahr gelieferten Strommenge aus. Er rechnet vor, wie viel Pumpspeicher nötig wären, um diese vergleichsweise kleine Strommenge von 68.500 GWh, das sind 11,2% des produzierten Bruttostroms (4) kontinuierlich liefern zu können.
  • Für den Ausgleich der Windkraft-Fluktuationen ergibt sich folgende Rechnung (38, Video ab min. 43): Eine über das Jahr kontinuierliche Windstrom-Leistung von 5,1 GW, wovon insgesamt 0,9 GW ständig gesichert am Netz sind und 4,2 GW der Volatilität unterliegen, erfordert eine Speicherkapazität von 6600 GWh. Dafür müssten 6097 neue Pumpspeicher gebaut werden. Tatsächlich habe Deutschland aber nur 35 dieser Anlagen und selbst die wenigen neu geplanten Anlagen würden stärksten Bürgerprotest hervorrufen – siehe das Jochberg-Projekt am Walchensee in den Bayerischen Voralpen. Selbst wenn man mit 3,0 GW kontinuierlicher Windstrom-Leistung vorliebnimmt und den Strom aus der Leistungs-Differenz von 2,1 GW (5,1 GW – 3,0 GW), d.h. die Leistungsspitzen „verwirft“ –  benötigte man dennoch 456 neue Anlagen für das Speichern des volatilen Anteils aus der Leistung von 2,1 GW (3,0 GW – 0,9 GW).
  • Wegen der Nacht gibt es überhaupt keine gesicherte Sonnenstrom-Leistung. Der volle Ausgleich der Sonnenstrom-Votalität von 2,2 GW mittlerer Jahresleistung würde noch einmal 3918 Pumpspeicher-Kraftwerke erfordern (38, Video ab min. 46). Da sich der Windstrom und der Sonnenstrom in gewisser Weise ergänzen – im Winter gibt es mehr Wind und im Sommer mehr Sonne – brauchte man für die Speicherung der Summe des Stroms aus 7,3 GW Wind- und Sonnenstrom-Leistung  „nur“ 3544 Speicher-Kraftwerke. Reduziert man das wieder auf 4,1 GW und verwirft die Leistungsspitzen von Wind- und Sonnenstrom bis 7,3 GW braucht man dann „nur“ 385 Speicher. Da noch der Wirkungsgrad der Pumpspeicher-Kraftwerke von 75% berücksichtigt werden muss, werden zur Glättung des volatilen Stroms aus einer Leistung von 3,2 GW (4.1 GW – 0,9 GW gesicherte Windstrom-Leistung) 437 Speicher gebraucht.
  • Unter diesen Bedingungen würde man durch den 2011 produzierten Wind- und Sonnenstrom gerade einmal 4 Kernkraftwerke oder Kohlekraftwerke mit einer Leistung von 4,1 GW dauerhaft ersetzen können, davon knapp 1 Kraftwerk durch den kontinuierlich zur Verfügung stehenden Windstrom von 0,9 GW und gut 3 Kraftwerke durch den Bau von 437 Speicher-Kraftwerken. Somit kann nur 1 Kraftwerk bzw. eine Leistung von 0,9 GW endgültig still gelegt werden. Das dauerhafte Abschalten weiteren 3 herkömmlichen Kraftwerken bzw. Herausnehmen von 3,2 GW – d.h. von 4% – aus der aus Sicherheitsgründen vorzuhaltenden Leistung  von ca. 80 GW ist technisch und ökonomisch nicht lösbar. An diesem Beispiel sieht man noch einmal sehr deutlich, wie weit entfernt von leicht überprüfbaren mathematischen, naturwissenschaftlichen und ökonomischen Fakten sich alle Verfechter  der Energiewende bewegen und zur großen Volksverdummung über die Energiewende beitragen.
  • Nach Prof Sinn ist sei auch die Idee unsinnig, die Batterien von Elektroautos als Speicher für das Stromnetz zu verwenden. Die von der Regierung bis 2020 erhoffte Zahl von 1 Million E-Autos würde – falls sie überhaupt als Speicher für das Netz zur Verfügung stehen würden –,6% der erforderlichen Speicherkapazität bringen. Für eine 100%ige Speicherung würde man 164 Millionen E-Autos brauchen, die ca. 254 Milliarden Euro kosten würden (38).

Die eignen Berechnungen für die immer wieder propagierte mögliche Versorgung mit 100% volatilem EE-Strom (siehe Anhang) ergeben folgende, sehr ähnliche  Resultate:

Um die o.g. 2038 Pump-Speicher-Anlagen mit ausreichend volatilem EE-Strom zu versorgen, müsste die Leistung der erneuerbaren Stromerzeuger von 62 GW im Jahre 2012 auf das  11-fache  ausgebaut werden. Beides ist illusorisch, denn  nicht einmal der hundertste Teil der erforderlichen Pumpspeicher-Kraftwerke könnte noch in Deutschland errichtet werden: Es fehlt der Platz; vom Widerstand der lokalen Bevölkerung ganz abgesehen, wie kürzlich am Beispiel der gescheiterten Rursee-Anlage in der Nordeifel zu sehen war. Und ein 11-facher Ausbau der volatilen EE-Stromer-Anlagen ist ebenso abwegig. Es kann niemals in Deutschland die notwendige Langzeit-Speicherkapazität errichtet werden, die für den geplanten Ausbau der Stromversorgung mit weitaus höherem Anteil an Wind- und Solarstrom unter der Bedingung einer ausreichenden Netzstabilität erforderlich wäre.

Deshalb kommen für die notwendige Stabilisierung des Stromnetzes gegen den fluktuierenden Wind- und Solarstrom fast ausschließlich konventionelle Kraftwerke in Frage – das sind Gas- und Kohlekraftwerke – die somit unverzichtbar bleiben. Allerdings sind gerade diese durch das zu bestimmten Zeiten erzwungene Überangebot des an der Strombörse gehandelten billigen EE-Stroms, der anschließend von den Verbrauchern über die EEG-Umlage teuer bezahlt werden muss, in ihrer Wirtschaftlichkeit und damit von Stilllegung bedroht – siehe Kapitel 2.6.

Damit ist die Absurdität der Energiewende-Planung mit ihren inneren Widersprüchen offensichtlich.  Deren Ziele sind ungeachtet der zu ihrem Erreichen verschwendeten Milliarden an € niemals auch nur im Entferntesten realisierbar.

Die Aussichten heute: Die Stabilität des Netzes nimmt weiter ab, aber dennoch wird der auf Kosten der Verbraucher verfolgte Ausbau der unberechenbaren Wind- und Solarstromanlagen – nach wie vor ohne Absicherung durch Speicher – sehr wahrscheinlich weiter fortgesetzt. Damit ist der Weg in die doppelte Katastrophe – eine unsichere Stromversorgung und die extrem hohen Stromkosten – vorgezeichnet, wenn nicht sehr bald ein radikaler Kurswechsel erfolgt.

2.5  Neue Speichertechniken ohne Chance zur Rettung der Energiewende

Da auch die Politik und die Verfechter der volatilen „Erneuerbaren“ die Unmöglichkeit für dieErrichtung der riesigen, zwingend benötigten Pumpspeicher-Kapazitäten in Deutschland stillschweigend akzeptieren, greifen nun die politischen Verteidiger der Energiewende zu der bewährten Methode der Herausstellung angeblicher technischer Alternativen sowie der Finanzierung von angeblich die Lösung bringenden  Entwicklungsprojekten – in diesem Fall also Stromspeichertechniken bzw. Techniken, die man so nennt, obwohl sie nur auf die Produktion von Gas oder Wärme aus EE-Strom hinauslaufen.

Wie meistens gibt es in der Technik verschiedene Lösungen für technische Probleme; das Deutsche Patentamt ist voll davon. Der immer über die Brauchbarkeit entscheidende Knackpunkt ist aber jeweils die Antwort auf die Fragen nach den Kosten, nach der Praktikabilität und – selbst bei den Techniken, die dafür eine positive Antwort versprechen – die Frage nach dem realistischen Zeitpunkt nicht nur der Entwicklungsarbeiten, sondern des Erreichens von Marktreife und Marktdurchdringung. Technische Laien können sich nur schwer vorstellen, dass die Zeit vom Beginn der Entwicklungsarbeiten bis zur Marktreife sehr oft 30 bis 40 Jahre dauert, wobei 20 Jahre bereits die erfreuliche Ausnahme bildet.

Ein Beispiel  ist die Brennstoffzelle. Diese Anlage vermag aus Wasserstoff und Sauerstoff durch „kalte Verbrennung“ Gleichstrom mit Wirkungsgraden von 50 – 60% zu erzeugen.  Seit 1970 hat der Staat  viele Millionen DM in die Entwicklung investiert. Leider ist diese Technik bis heute immer noch nicht ausgereift; es gibt nur wenige sog. Pilotanwendungen. Der Grund: Immer noch zu hohe Kosten und zu geringe Lebensdauer. Aus diesem Grund wird die Anwendung dieser nicht verfügbaren Technik in den unten beschriebenen Prozessen auch nicht berücksichtigt.

Das Dilemma der fehlenden großen Stromspeicher führt nun dazu, dass die Regierung damit begonnen hat, verschiedene Entwicklungen von neuen Speichertechniken zu fördern, die man zumindest der Öffentlichkeit als Hoffnungsvision darstellen kann. Dabei wird darauf vertraut, dass vor allem die Medien diese Aktivitäten als sog. Zukunftstechnologien lobend darstellen – und dass die Bürger einerseits die Schwächen dieser Systeme nicht durchschauen und andererseits annehmen, dass der Einsatz dieser Techniken in nächster Zukunft stattfinden kann und wird.

Man kann durchaus von einer Täuschung sprechen, denn wie unten gezeigt wird, besteht in keinem der Fälle eine Chance dazu.

In den folgenden Darstellungen wird wiederholt auf eine wichtige Kenngröße aller Anlagen der  Energieumwandlung und -Übertragung hingewiesen: Der Wirkungsgrad.

Das ist ein Maß für die Effizienz, mit der eine Anlage arbeiten kann. Er beschreibt das Verhältnis der abgegebenen Nutzleistung zur zugeführten Leistung und wird deshalb in Prozent angegeben.

Ein Pumpspeicherkraftwerk, das einen Wirkungsgrad von 70 % hat, vermag also von einer aufgenommenen Strommenge (z.B. 100 Megawattstunden, MWh) 70 Prozent wieder als Strom abzugeben – also 70 MWh Strom. Der Rest von 30 MWh elektrischer Energie geht als Verlustwärme verloren.

Bei einer Kette von hintereinander liegenden Anlagen erhält man den Gesamtwirkungsgrad durch einfache Multiplikation der Einzel-Wirkungsgrade.

Bei allen offiziellen Angaben zu Wirkungsgraden ist Vorsicht geboten, weil man damit die Effizienz einer Anlagentechnik erheblich auf dem Papier schönen kann – was auch gerade zu Gunsten politisch erwünschter Technologien oft und gerne geschieht.

Im Folgenden werden die als neue Speichertechnologien ins Rampenlicht gestellten Verfahren beschrieben und bewertet. Sie alle sollen den überflüssigen und nur das Netz störenden  Wind- oder Solarstrom nutzen und daraus Wasserstoff, synthetisches Erdgas oder auch wieder Strom erzeugen.

Die meisten nützlichen Zahlenangaben lieferte die Fa. ENERTRAG, die die Anlage in Prenzlau betreibt (51,54); s. auch die Lit. (55) und (56). Daten zu diesem Projekt in Anlage 2.

A.) Die Power-to-Gas-Technik  

Dieses Verfahren beginnt in allen seinen Varianten mit der Anwendung eines elektrochemischen Prozesses: Die Elektrolyse von Wasser mit Strom – woraus man Wasserstoff, Sauerstoff und Verlustwärme erhält.  Wollte man tatsächlich eine Speicherung des eingesetzten Stroms wie bei einem Pumpspeicherwerk, liegt hier bereits ein entscheidender Nachteil vor, denn aus der hochwertigen Elektroenergie wird unter Inkaufnahme hoher Verluste ein im Vergleich zur elektrischen Energie minderwertigerer Energieträger, ein Brenngas, erzeugt. Bei einem Pumpspeicherwerk erfolgt die Zwischenspeicherung jedoch in der Form von hochwertiger potenzieller Energie (die Höhe der Wassersäule), die direkt wieder über eine Turbinen-Generator-Kombination mit einem hohen Wirkungsgrad als Strom abgegeben wird.(6)

A 1) Die Erzeugung von Wasserstoff aus EE-Strom

Der aus dem Netz entnommene Wechselstrom muss gleichgerichtet werden, um dann in einer Elektrolyse-Anlage Wasser in Wasserstoff H2 Sauerstoff zu spalten. Ziel ist es, den Wasserstoff dem landesweiten Erdgasnetz zuzuführen. In diesem ist eine Wasserstoffkonzentration von 5% erlaubt.

Wirkungsgrad „EE-Strom zu H2“: – Gleichrichtung 94 %,   – Elektrolyse 80 %,  – Gesamt 75 %.

Probleme: a) Man hat keinen Strom gespeichert. Es wurde mit 25% Verlusten ein Brenngas erzeugt.

                 b) Es ist zunächst der Nachweis zu erbringen, dass Elektrolyseure, die unter Praxisbedingungen intermittierend bzw. fluktuierend im Zusammenspiel mit EE-Erzeugern eingesetzt werden, tatsächlich ein zufriedenstellendes Betriebsergebnis zeigen

                 c) Man muss große Mengen an H2 zwischenspeichern. Dessen Kompression erzeugt weitere Verluste zwischen 5 und 15 % (6).

 Kosten:     Die Kosten des so erzeugten Wasserstoffs werden vom Preis des EE-Stroms (bei direkter  Lieferung Windpark-zu-Anlage), von den o.g. Verlusten und von den Kapital- und Betriebskosten der Anlage und den Steuern bestimmt. 

Folgendes kann gut abgeschätzt werden:

–        Windstromkosten nach EEG: Land: 4,87 – 8,93 (Anfangsvergütung) Cent/kWh

                                                    Offshore: 19 Cent/kWh („Stauchungsmodell“)

–        mal Faktor 1,48 wegen der Verluste bis zur Elektrolyse (75%) und durch die folgende Verdichtung zur Gasnetz-Einspeisung (10 %); =    7,21 Cent/kWh für alte Land WKA                                                                                                         = 28,05 Cent/kWh für Offshore-WKA

–        Kapital- und Betriebskosten: Marktübliche jährliche Größen sind 7% für Verzinsung, 5% für eine 20-jährige Abschreibungsdauer und 7% für Betriebskosten – zusammen 19% p.a. von der Investition. Aus den Daten der Anlage in Prenzlau (Elektrolyseurkosten 10 Mio Euro, weitere Anlagen (geschätzt) 4 Mio Euro, Stromerzeugung 16.000 MW/a) ergeben sich  Kapital- und Betriebskosten von 16,6 Cent/kWh.

–        Damit Erzeugungskosten des ins Erdgasnetz eingespeisten H2:

= 23,7  bis 44,65 Cent/kWh 

–        Dazu Netzkosten, Erdgassteuer, Umsatzsteuer, Konzessionsabgabe: zus. 47%

–        Endpreis bei Bezug des Wind-Wasserstoffs über das Erdgasnetz:

=  34,8  bis 65,6 Cent/kWh, je nach Alter und Ort der Windräder.

–        Im Vergleich: Haushalts-Gaspreis: 7,1 Cent/kWh (Rhenag, Siegburg).

Je höher der Anteil an Offshore-Windstrom wird, umso teurer wird der Wind-Wasserstoff – d.h. bis zum 9-fachen des normalen Erdgaspreises.

Der so erzeugte Wasserstoff kann jedoch nur in beschränkten Mengen ins Erdgasnetz eingespeist

werden. Das verhindert einen flächendeckenden Einsatz dieser Technik. Bei größeren Anlagen wird diese Grenze rasch erreicht, weshalb dieses nur bis zur Wasserstofferzeugung reichende Verfahren relativ bedeutungslos bleiben wird. Deshalb hat man notgedrungen einen weiteren Schritt mit der Erweiterung dieser verlustreichen Verfahrenskette getan, um das Erdgasnetz voll als Endabnehmer nutzen zu können. Mit der Nachschaltung einer Methanisierungs-Stufe wird Synthetisches Erdgas SNG erzeugt (siehe A 3).  

A 2)  Die Erzeugung von Strom – über den Zwischenschritt Wasserstoff – mit Rückverstromung.

Zumindest mutet eine so aufgebaute Anlage wie ein Stromspeicher an, denn Strom geht hinein und wird wieder abgegeben. Dafür muss der Wasserstoff – nach Speicherung – in einem Wasserstoffmotor oder einer Gasturbine plus Stromgenerator verbrannt werden. Erhebliche Zusatzverluste sind der Preis.

Wirkungsgrad „EE-Strom zu H2 zu Strom“:

–        In A 1) ergab sich für die H2-Erzeugung 75 %.

–        Ein Gasmotor kann 40 % erreichen.

–        Eine 100 MW-Gasturbine bis 40 %; eine 10 MW-Gasturbine 35 %. Es wird hier

–        38 % angenommen.

Diese Anlage erreicht somit einen Wirkungsgrad von 0,75×0,38 = 28,5 %. Mit einem Stromspeicher hat das nichts mehr zu tun. Vielmehr handelt es sich bei einem Verlust von 71,5 Prozent um eine recht teure Energievernichtungs-Anlage.

                 

Probleme: a) Weil Überschuß-Windstrom im Netz nicht gebraucht wird, muss der erzeugte Wasserstoff erst einmal gespeichert werden, bis wieder Bedarf im Stromnetz entseht. Das führt zu einem erheblichen Speicherproblem.

                 b) Zwar nimmt die Anlage Strom auf, speichert den erzeugten Wasserstoff und erzeugt mit diesem wieder Strom, der abgegeben wird, aber die nochmals erhöhten Verluste sowie die ebenfalls höheren Kapitalkosten treiben diesen Strompreis weit über das Niveau der ohnehin schon hohen Kosten für den „gespeicherten“ Wind- oder Solarstrom. Der Gesamtwirkungsgrad von 30 % – also 70 % Verluste – ist nichts anderes als eine Katastrophe. Da hilft es nichts, einen Teil der Verlustwärme noch irgendwie zu nutzen.

 Kosten:     –  Wie in A 1) ergibt sich für die Wasserstofferzeugung

                     =    7,21 Cent/kWh für Strom aus alten Land-WKA                                                    =  28,05 Cent/kWh für Strom von Offshore-WKA

                  –  Die folgende Verstromung kann in Wasserstoff-Motoren oder Gasturbinen – jeweils mit  nachgeschalteten Stromgeneratoren – erfolgen. Deren Wirkungsgrad ist in beiden Fällen

                     ca. 38 %.

                  –  Bei großen Gaskraftwerken wird oft das sog. GuD-Verfahren eingesetzt, bei dem einer Gasturbine noch eine zweite Stufe – eine Dampfturbine – zur Abwärmenutzung nachgeschaltet wird, was Wirkungsgrade bis zu 60 % ermöglicht. Aufgrund der höheren Investitionskosten für GuD-Anlagen und der sehr wahrscheinlich geringen zeitlichen Auslastung in einem von EE-Stromerzeugern

dominierten System wird man vermutlich auf die teure Dampf-Zusatzstufe verzichten. Das bedeutet: Nur eine Gasturbine ohne Abwärmenutzung erledigt die Rückverstromung – mit dem o.g. Wirkungsgrad. Entsprechend sinkt der Gesamtwirkungsgrad der Anlage auf 25,6 %.

                   –  Zwischenergebnis:  18,96 bis 73,77 Cent/kWh

                   –  Hinzuzufügen: Kapital- und  Wartungskosten (bei 21 Mio Investitionskosten (54))

                      von 25  Cent/kWh:

                   –  Die Stromerzeugungskosten betragen dann:

                       =   44,0  bis 98,8 Cent/kWh.

                      Weil das EEG derartige Vergütungen nicht vorsieht, wird eine solche Anlage nur Verluste einfahren, Es sei denn, die Regierung ändert das EEG und stellt die o.g. enormen Einspeisevergütungen bereit. Das ist im Moment nicht vorstellbar, aber noch vor wenigen Jahren war auch die heutige Situation in der Energiewirtschaft nicht vorstellbar.

                   –  Für die Privatkunden beträgt 2014 die Belastung des Strompreises durch Steuern und Abgaben 55 %. (56).

                      Ergebnis: Eine derartige Power-to-Gas-Anlage verursacht einen Strompreis von 68,2 Cent/kWh bis  1,53 Euro/kWh – je nach aufgenommenem „EE-Strom-Mix“.

A 3)  Die Erzeugung von Strom – über die Zwischenschritte Wasserstoff, Methan und Rückverstromung

Weil die nur bis zum Wasserstoff reichende Verfahrenskette bald zu Schwierigkeiten bei der Einspeisung dieses Gases in das Erdgasnetz führt (s.o.), hat man beschlossen, der Elektrolyse eine Methanisierung nachzuschalten. Damit nimmt man weitere Verluste in Kauf.

Für die Umwandlung von Wasserstoff in synthetisches Naturgas SNG nach dem Sabatier-Verfahren wird Kohlenstoffdioxid CO2 eingesetzt. Anschließend erfolgt wieder die Rückverstromung – wie oben beschrieben.

Probleme: a)  Die Umwandlung in SNG erfordert einen weiteren erheblichen Ausbau der Anlage; deutlich höhere Kapitalkosten und Wartungskosten entstehen.

b)     Der Wirkungsgrad der Methanisierung beträgt 80 bis 85 %; hier angenommen: 83 %.

Damit folgt für den Gesamtwirkungsgrad der Anlage:

0,75 x 0,9 x 0,83 x 0,38 = 0,213. Also klägliche 21,5 Prozent.

V. v. Schnurbein, der die zwei Szenarien einer optimistischen und einer skeptischen Abschätzung der einzelnen Prozeßwirkungsgrade betrachtete, kam  hier bei der skeptischen – und möglicherweise realitätsnäheren – Variante auf einen Gesamtwirkungsgrad von nur noch 14 %. (6)

c)  Woher sollen aber die großen Mengen an CO2 kommen ? Es ist umstritten, ob überhaupt

     genügend CO2 aus biogenen und industriellen Prozessen für eine großflächige

     Anwendung der Methanisierungs-Technologie zur Verfügung steht.(55).

Kosten: Nach Anwendung der obigen Rechnungen ergibt sich mit Methanisierung und Rückverstromung sowie mit 33,3 Cent/kWh für die Kapital- und Betriebskosten (wegen der zusätzlichen Methanisierungs-Stufe wird die Investition um 33% höher als bei  Verfahren A 2) geschätzt):

             Stromerzeugungskosten:  =  56,2 bis 122,2 Cent/kWh

             Für Privatkunden beträgt dann der Strompreis nach Aufschlag der Steuern und Abgaben:

             =  1,07  bis  1,89  Euro/kWh.

                

Bei diesem angeblich der Stromspeicherung dienenden Verfahren sind die Verluste so extrem, dass eher von einem Stromvernichtungs-Verfahren gesprochen werden kann. Entsprechend hoch fällt dann der Preis des verbleibenden  Rest-Stroms bei der Rück-Einspeisung aus, wie das Zitat aus einem Fachartikel zeigt: „Dieses System als Langzeitspeicher für überschüssigen EE-Strom (Wind und Solar) würde bei einer Anlagenkapazität von 44 GW(el) und einem Stromoutput zwischen 12,3 und 31,7 TW (1 Terawatt  = 1 Million Megawatt) – das wären 2 bis 5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. Euro verursachen (6).

Es wird schnell klar, dass zur vollständigen Stromversorgung über die volatilen „Erneuerbaren“ unter Verwendung dieser höchst ineffizienten Speicher noch eine viel größere Anzahl von Wind- und Solarstromanlagen  als schon beim  Bau von 2038 neuen Pumpspeicherkraftwerken erforderlich wäre.  Bei dem Power-to-Gas-Verfahren  Strom – Wasser -Wasserstoff – Methan – Strom  wären sogar Wind- und Solarstromanlagen mit einer ca. 58-fachen Leistung im Vergleich zur installierten Leistung von 2012 zu errichten.

Damit wären alle Pläne bezüglich der Nutzung von  grünem Überschussstrom mittels elektrochemischer und chemischer Umwandlung als Erdgas-Ersatz, als KFZ-Antrieb und erst recht als Stromspeichermethode wegen unakzeptabler Ineffizienz und untragbarer Kosten sinnlos.

Alle Unternehmen, die sich an Power-to-Gas-Projekten beteiligen, besitzen selbstverständlich den Sachverstand, um die geschilderten Probleme, die sich ganz einfach aus einem Ignorieren physikalischer Gesetzmäßigkeiten ergeben, klar zu erkennen.

Es stellt sich daher die Frage, weshalb aus der Industrie und insbesondere aus ihren Verbänden keine Kritik an der Energiewende-Politik zu hören ist. Im Gegenteil: In allen Reden, Artikeln und Pressemitteilungen von Unternehmensvertretern wird in einer bemerkenswert gleichlautenden Sprachregelung immer von „ehrgeizigen“, „ambitionierten“ und „anspruchsvollen“ Zielen der Regierung gesprochen. Das sind heute die Synonyme für die Adjektive „sinnlos“, „unbezahlbar“ und „realitätsfern“.

Durchweg wird betont, dass man selbstverständlich die gleichen Ziele hätte. Nur ein paar kleine Änderungen wären doch schön.

Es erinnert an das Märchen von des Kaisers neuen Kleidern. Die Motive jedoch, die heute die Höflinge der Regierung für ihre Bewunderung der Energiewende haben, sind von handfesterer Art: Man rechnet damit, dass die gegenwärtige Energiepolitik noch einige Jahre andauert und man möchte die durch die verschiedenen Schwierigkeiten und Fehler entstandene Notsituation der Regierung für lukrative Geschäfte nutzen. Die Situation ist deshalb dafür besonders günstig, weil jetzt der Staat durch Gesetze und Verordnungen dafür sorgt, dass alle politisch gewünschten Projekte – seien sie auch noch so sinnlos wie die Power-to-Gas-Fabriken – mit Sicherheit bezahlt werden. Deshalb schaltet der Energieversorger E.ON derzeit TV-Spots mit der Präsentation der Power-to-Gas-Anlagen “ als „Stromakku“ für Windkraftstrom. Die Bürger werden es schon nicht durchschauen.

Es besteht eine staatliche Abnahme- und Gewinngarantie. Auch neue Absatzmärkte winken, wie die nur durch Zwang vielen und demnächst vermutlich allen  Haushalten vorgeschriebenen „Smart Meter“. Es ist ein vorübergehend existierendes, planwirtschaftliches Paradies.

Aus der Sicht dieser Unternehmen wäre es sehr unvernünftig, die Zeitspanne bis zum Zusammenbruch der Energiewende-Politik nicht für gute Geschäfte zu nutzen.

Das Power-to-Gas-Thema wurde hier so eingehend dargestellt, weil es sich dabei um die dreisteste Irreführung in der gesamten Energiewende handelt. Die Kosten sind derart extrem, die Verluste dermaßen krass, dass jegliche Hoffnung auf das spätere Erreichen eines erträglichen Niveaus vergeblich ist. Man kann die Physik nun einmal nicht betrügen.

Die finanzielle Förderung etlicher Projekte durch Bundes- und Länderministerien zeigt deutlich, dass es dort als politisch wichtig angesehen wird, mit diesen Potemkinschen Dörfern den Bürgern eine Hoffnung auf künftige Besserung der offensichtlich prekären, an den Strompreisen ablesbaren Situation vorzugaukeln. Es geht nur um Zeitgewinn, nicht um Energie…

Fortsetzung folgt

Den gesamten Text können Sie sich als pdf datei im Anhang herunterladen

Related Files