„Versauern“ die Ozeane? Die pHälschung!

Anmerkung: Der aktuelle Anlass für diesen Artikel ist eine Veröffentlichung auf einem US-Blog, die auf WUWT auszugsweise wiedergegeben, und dann von EIKE als Übersetzung publiziert wurde. Im Zentrum stehen Betrügereien mit pH-Werten von Meerwasser. Was zunächst mit dem englischen Wortspiel „pHraud“ bezeichnet wurde, lässt sich gut ins deutsche Wortspiel „pHälschung“ übertragen. Hier gehen wir auf die physikalischen, chemischen und biologischen Fakten ein, schauen uns diese pHälschung nochmal genauer an, und suchen (vergeblich) nach Belegen für die Gefahren von CO2 im Meerwasser. Dabei fällt die Wechselwirkung zwischen pH, Temperatur und CO2 auf.
Kohlendioxid (CO2) ist in der globalen Atmosphäre einigermaßen gleichmäßig verteilt (s. auch  Abbildung) und bleibt es, ganz anders als Wasserdampf, der sich gelegentlich zu einer Wolke wandelt, oder gar als Regen wieder auf die Erde zurück kommt.
An Land nutzen die Pflanzen das CO2 als Gas direkt aus der Luft und stellen per Photosynthese daraus die Kohlenhydrate Zucker, Stärke und Zellulose her. Es ist essentiell für alles Leben auf Erden. Das Pflanzenwachstum, und damit die weltweite landwirtschaftliche Produktion von Nahrungsmitteln, würde sogar von einem Mehrfachen der heutigen CO2 Konzentrationen profitieren. Allerdings sei das CO2 in der Atmosphäre für die per Computermodell vorhergesagte „katastrophale Erwärmung“ der Erde verantwortlich (was jedoch in realen Messdaten nicht sichtbar wird).
Im Wasser wird es komplizierter. Zunächst einmal wird das CO2 im Wasser physikalisch gelöst, so wie man Salz oder Zucker in Wasser auflösen kann und wie auch andere Gase gelöst werden. Bekanntermaßen ist auch Sauerstoff (O2) im Wasser physikalisch gelöst und die Fische können über ihre Kiemen diesen Sauerstoff „einatmen“. Auch Wasserpflanzen, wozu auch Mikroalgen gehören, können mit dem gelösten CO2 Photosynthese betreiben.
Anders als bei O2 reagiert jedoch eine kleine Menge (~1%) des zunächst physikalisch gelösten CO2 mit dem Wasser chemisch unter Bildung von „Kohlensäure“, wodurch das Wasser saurer wird.
In noch einem weiteren chemischen Schritt geschieht die Karbonatbildung; überwiegend in der Form von Calciumcarbonat (CaCO3, Kalkstein). Dies kann als chemischer Prozess ablaufen, der nichts mehr als die Gegenwart von Calcium-Ionen und Kohlensäure benötigt, wobei das gebildete, schwer lösliche Calciumcarbonat ausfällt und auf den Meeresboden absinkt. Oder es kann ein biologischer Prozess sein, bei dem Korallen, Muscheln und andere Organismen ihre harten Schalen bilden, und nach ihrem Absterben Teil der Kalksteinschicht werden. Über lange Zeiträume und nachfolgende geologische Verwerfungen führt dies zur Bildung von Kalksteingebirgen.
Allerdings ist dieser Schritt, chemisch wie auch biologisch, nur bis zu einem bestimmten Säuregrad möglich; ist das Meerwasser wesentlich saurer könnte er sogar rückwärts laufen, und eine Auflösung des Kalks zur Folge haben. Entsprechend fatal wären die Konsequenzen für die davon abhängigen Organismen.
Den Säuregrad misst  man als pH-Wert, was relativ einfach zu machen ist.

Was eigentlich ist pH-Wert? Und was ist Säure?

 

Wasser ist bekanntlich H2O und ein energetisch stabiles Molekül, das man nur unter Energiezufuhr (z.B. Elektrolyse mit elektrischem Strom) zerlegen kann. Aber etwa jedes 100 Millionste Wassermolekül dissoziiert (zerfällt) auf natürliche Weise in die elektrisch positiv bzw. negativ geladenen Ionen H+ und OH- [1]). Diese Ionen haben dann beide eine Konzentration von 10-7 mol pro liter Wasser. Der pH-Wert [2]) ist somit 7 ( = der negative Wert des Exponenten der H+ Ionen Konzentration). An diesem Punkt ist Wasser neutral. Gibt es mehr H+ Ionen, dann ist die Flüssigkeit eine Säure, der pH-Wert ist kleiner als 7. Im anderen Fall von weniger H+ Ionen Konzentration ist die Flüssigkeit eine Lauge, der pH-Wert ist größer als 7.
Sprachlich ist zu beachten, dass eine Säure „sauer“ ist, aber eine Lauge „alkalisch“ [3]).

Beispiele für pH-Werte

 

Um ein Gefühl für pH-Werte aus unserem täglichen Leben zu bekommen, sind in  Abbildung ein paar pH-Werte gezeigt. Leitungswasser ist meist (aber nicht unbedingt) nahe dem Neutralpunkt. Auf der sauren Seite folgen Regen, Bier, Cola, Magensäure und Batteriesäure. Letztere kann auch negative pH-Werte haben. Auf der alkalischen Seite folgen Blut, Bauchspeicheldrüsensekret, Naturseife, und ganz extrem Ätznatron oder darauf basierende „Abflussreiniger“, die Fette und Proteine (Haare bestehen aus Proteinen) auflösen können.
Auch wenn unser Körper von Verdauungstrakt bis Hautoberfläche einen Bereich von pH=1 bis pH=10 verträgt – das ist immerhin ein 1 Milliarden-facher Unterschied bezogen auf die H+ Ionen Konzentration – toleriert unser Blut dagegen nur äußerst enge Grenzen von pH=7.37-7.45 [4]), also im leicht alkalischen Bereich. Werte außerhalb dieses sehr schmalen Bereiches sind bereits krankhaft!

Abbildung SEQ Abbildung * ARABIC1: pH-Wert Skala

Zellkulturen, die gerne als Wundertechnologie zum Ersatz von Tierversuchen zur Prüfung von Medikamenten gepriesen werden, oder die zur biotechnologischen Herstellung von Medikamenten wie Immunglobulinen eingesetzt werden, wollen in ihrer Nährlösung einen pH-Wert innerhalb des immer noch engen Bereiches von 7.0-7.4 haben, also neutral bis ebenfalls leicht alkalisch. Andere Mikroorganismen können bei anderen pH-Werten existieren – Backhefe z.B. um pH=5 (also sauer). Für optimales Wachstum werden eher enge pH Bereiche benötigt, wenngleich tendenziell die Organismen um so toleranter sind, je primitiver sie sind.
Es ist daher zunächst einmal durchaus denkbar, dass die heutzutage im Wasser lebenden Tiere sich evolutionär so an ihre Umgebung angepasst haben, dass sie nunmehr sehr empfindlich auf pH Veränderungen reagieren!

Wie beeinflusst CO2 den pH-Wert von Wasser?

 

Ist (Mineral-)Wasser mit CO2 versetzt (umgangssprachlich: „mit Kohlensäure“), ist es erwartungsgemäß saurer als Leitungswasser. Überraschenderweise ist aber Meerwasser alkalisch, obwohl es doch angeblich durch das CO2 der Atmosphäre versauert.
Der Grund liegt in dem chemischen Verhalten von CO2 im Wasser. Die folgende chemische Gleichung zeigt das Gleichgewicht von im Wasser gelöstem CO2 (links) zur Kohlensäure (H2CO3), die sofort in das Hydrogencarbonat- und Wasserstoff-Ion dissoziiert, und schließlich zum Carbonat-Ion und weiteren Wasserstoff-Ionen. Die Verteilung der Komponenten auf die einzelnen Stufen zwischen links und rechts hängt sehr stark von pH-Wert, Temperatur und den Konzentrationen der einzelnen Komponenten ab.
Damit besteht ein Puffersystem. Im Zusammenwirken mit weiteren, zum Teil ebenfalls puffernden, Bestandteilen des Meerwassers (eine Vielzahl verschiedener Salze in deutlich höherer Konzentration als im Leitungswasser, sowie diverse organische Komponenten) kann die Pufferwirkung verstärkt, und der pH Wert verschoben werden.
Im Fall von Meerwasser ist der pH in den leicht alkalischen Bereich verschoben. Die Pufferung bedeutet weiter, dass die den pH verschiebenden Substanzen – wie CO2 – nicht zur vollen Wirkung gelangen können. Nehmen wir an, dass eine bestimmte Menge CO2 den pH von Leitungswasser um 1 Einheit saurer macht, dann könnte die gleiche Menge CO2 den pH von Meerwasser, dank dessen Pufferung, möglicherweise nur um Werte verschieben, die wesentlich geringer oder gar unmessbar klein sind. Diese Pufferwirkung ist auch der Grund, weswegen der pH Wert im Blut überhaupt in seinem sehr engen Bereich gehalten werden kann.
Da Meerwasser aber sehr komplex ist, weltweit in seiner Zusammensetzung variieren kann, und das ganze System dann auch noch von Temperatur und Druck (durch die Meerestiefe) abhängig ist, ist es höchst schwierig, die Auswirkungen einer CO2 Erhöhung theoretisch vorherzusagen.
Klimaforscher haben es dennoch getan, und wie wir sehen werden, scheitern sie auch mit diesen Ozean pH Modellen so eklatant, wie sie es mit der Vorhersage der Globalen Erwärmung tun.

Was sagen die „Klimaforscher“ zur „Versauerung“ der Ozeane?

 

Der Amerikaner Richard A. Feely und seine Mitarbeiter haben sich insbesondere mit Arbeiten zur angeblichen Ozeanversauerung hervorgetan. In der Publikation „CO2 und unser Ozean Vermächtnis“ (2006), die von der amerikanischen Ozean und Atmosphären Behörde (NOAA, National Oceanic and Atmospheric Administration)

Abbildung SEQ Abbildung * ARABIC2: Historischer und vorhergesagter Trend von pH und gelöstem CO2 des Meerwassers


Demnach ist der pH seit dem Beginn der industriellen Revolution um 1850 bis heute gleichmäßig von 8.16 auf 8.05 gesunken, und wird bis 2100 auf pH=7.85 sinken. Weiter führen sie aus, wie verheerend sich dies auf die Meereslebewesen auswirken wird, und wie verheerend dies dann für die Menschen sein wird.
Diese verheerenden Wirkungen kämen daher, dass Meeresorganismen bei zu niedrigem pH keine Schalen und/oder Skelette aus Calciumcarbonat mehr bilden könnten, und dann nicht mehr als Nahrung für höhere Organismen zur Verfügung stünden. So könnten substantielle Änderungen in der Biodiversität der Ozeane resultieren, die letztlich den Fischfang bedrohen und damit die menschliche Nahrungsversorgung und die gesamte damit zusammenhängende Wirtschaft, und ebenso den milliardenschweren Tourismus, und alle an diesen Industrien hängenden Arbeitsplätze. Weiter werden verschwindende Korallenriffe die Küsten stärker den Stürmen aussetzen, mit wiederum gravierenden Folgeschäden. Bereits in der Mitte dieses Jahrhunderts wird es beginnen.
Gegenwärtig, so die Autoren, verändere sich die Meeres Chemie „100mal schneller als in den vergangenen 650 000 Jahren“ und „Computer Modelle (!) zeigen, dass der Ozean mit seiner Versauerung fortfahren wird und zwar in einem Ausmaß und in Geschwindigkeiten, wie sie seit mehreren 10 Millionen Jahren nicht stattfanden“.
Man beachte, dass selbst in der Vorhersage für das Jahr 2100 ein pH von 7.85 oder gar 7.65 [5]) nicht sauer ist, sondern immer noch alkalisch! Das Wort Meeres-Versauerung (engl.: Ocean Acidification) suggeriert ätzende Säuregrade von Essig oder gar Batteriesäure – dem ist beileibe nicht so.
Aber es bleibt immerhin denkbar, dass Meeresorganismen bereits mit diesen leichten Veränderungen der pH Werte Probleme bekommen, selbst wenn diese noch nicht einmal im sauren, sondern noch immer im alkalischen Bereich liegen.

Abbildung SEQ Abbildung * ARABIC3: CO2 in Atmosphäre und Meerwasser und pH des Meerwassers


Die Messdaten, die Feely’s Klimamodell-Kurven bestätigen sollen, finden sich ebenfalls auf den NOAA Servern, und sind in  Abbildung gezeigt. Die wellige, braune Kurve stellt die bekannten atmosphärischen CO2 Werte dar, wie sie von der Messstation auf dem Vulkan Mauna Loa auf Hawaii gemessen werden. Die dunkelblaue Kurve zeigt den Partialdruck des Meerwasser CO2, also der im Meerwasser gelösten Menge an CO2. Die hellblaue Kurve zeigt den daraus angeblich resultierenden pH im Meerwasser. Der hätte danach von pH=8.112 im Jahre 1989 auf pH=8.081 in 2007, also um 0.03 pH Einheiten abgenommen (Werte von mir aus der Grafik abgelesen. Die durch die Skala suggerierte Messung von hundertstel pH Einheiten im Meer ist gewiss als „sehr sportlich“ zu bezeichnen; nicht einmal im Labor ist das einfach!)
Es fällt auf, dass die NOAA Daten erst 1989 beginnen. Moderne pH Messungen werden mit Glaselektroden durchgeführt, und da diese bereits seit etwa 100 Jahren bekannt sind, ist das Fehlen früherer Messungen besonders merkwürdig. Das fiel auch dem Amerikaner Mike Wallace auf, der Feely und Kollegen um die fehlenden Daten bat. Die dann folgende Odyssee von ignorieren, bedrohen, verweigern und belügen können Sie in dem bereits eingangs erwähnten Artikel nachlesen.
Auch hier beim Meeres-pH wurde die Herausgabe der Daten verweigert, am Ende gar mit der Behauptung, dass sie nicht existierten. Letztlich tauchten sie aber – wohl eher unbeabsichtigt – durch die Freigabe einer Datenbank durch NOAA auf. Aus diesen mehr als 1.5 Mio (!) Messdaten entwickelte Wallace die in  Abbildung gezeigte Kurve.

Abbildung SEQ Abbildung * ARABIC4: Meeres pH seit 2010 basierend auf NOAA Daten


Die Sternchen stellen die jährlichem pH Mittelwerte der letzten 100 Jahre für Meerestiefen bis 200m dar. Die dünne, hellblaue Kurve ist der gleitende Mittelwert über 10 Jahre. Die dicke, dunkelblaue Kurve gibt den 100 Jahre Trend. Die blass-rote Kurve ist die rote pH Kurve aus der Feely Grafik in  Abbildung. Die kurze, dicke, rote Kurve ist von mir eingezeichnet, und stellt die Regressionsgerade der hellblauen pH Daten aus  Abbildung dar.
Daraus können folgende Schlussfolgerungen gezogen werden:

  • Die pH Veränderungen, die nach Feely die größten seit 650 000 Jahren seien, sind kleiner als die in gerade einmal den letzten 100 Jahren mehrfach beobachteten.
  • Die Schnelligkeit der Veränderungen der Feely Daten ist nicht etwa 100mal schneller als seit 650 000 Jahren beobachtet, sondern beträchtlich langsamer als Veränderungen mit ca. 10 Jahren Zeitkonstante in den letzten 100 Jahren.
  • Über den 100 Jahre Zeitraum nimmt der pH nicht etwa ab, sondern im Mittel nimmt er zu. Mithin also keine „Versauerung“, sondern das Gegenteil!
  • Da der CO2 Gehalt der Atmosphäre erst seit 1950 kräftig gestiegen ist, müsste die Kurve vor und nach diesem Zeitpunkt ein anderes Verhalten zeigen. Das tut sie aber nicht. Der pH Wert ist heute so niedrig, wie um 1920 oder auch 1960, und dazwischen jeweils deutlich höher.
  • Die pH Veränderungen, die NOAA auf ihrer Webseite zeigt ( Abbildung) sind lächerlich klein und bedeutungslos angesichts der Schwankungen, die tatsächlich über 100 Jahre gemessen wurden.
  • Die Computermodelle liegen wieder einmal kräftig daneben.

Der Vorgang erinnert in nahezu jedem Detail ungemein an die Climategate Ereignisse, wie die Behauptung, dass die Erde für Jahrtausende konstante Temperaturen – jetzt eben pH Werte – hatte, und diese erst in der Neuzeit verrückt spielen, und die Verweigerung der Preisgabe von Daten, die Rosinen Pickerei in den Daten, die Geheimhaltung von ausgewählten Teilen der Daten, die nicht passten, die Behauptung der Nicht-Existenz der Daten, die Verleihung von gut dotierten „Wissenschaftspreisen“ – dort der Nobelpreis, hier der Ketchup-Preis [6]) – , das Ignorieren von Freedom-of-Information-Act Anfragen, der Vehemenz, mit der die Herausgabe von Daten verweigert wurde, die Bedrohungen der danach fragenden Wissenschaftler, die Nutzung von Computermodellen, die die Vorhersagen selbstverständlich mit „einem hohen Maß von Zuverlässigkeit“ vorhergesagt haben, und mehr.
Feely et al. und/oder NOAA haben sehr klar durch die Selektion der Daten für den kurzen Zeitraum von nur knapp 20 Jahren, dabei nicht einmal zu erwähnen, dass längerfristige Daten vorliegen, in Verbindung mit der nahezu maßlosen quantitativen Übertreibung angeblicher Folgeeffekte, was Ihnen durch Kenntnis der weggelassenen Daten klar sein musste, eine mehrfache wissenschaftliche Fälschung begangen, eben eine pHälschung!
Der Climategate Skandal wird nun also ergänzt mit dem Acidificationgate Skandal. Interessant könnte es noch werden, da Feely auch als Zeuge vor dem US-Kongress ausgesagt, und dabei die gleichen Falschaussagen gemacht hat. Belogen zu werden hat der Kongress nicht gerne, obwohl politische Korrektheit auch dort für viel Weißwascherei sorgt. Nun aber werden die Republikaner demnächst die Majorität stellen und sind zum „Klimawandel“ wesentlich skeptischer eingestellt, als die Demokraten. Schaun mer mal.

Wie reagieren denn nun die Meerestiere auf pH Änderungen?

 

Vor lauter Klimaaktivismus sind Feely et al. doch wenig substantiell geblieben, wenn es darum geht, diese angeblich verheerenden Auswirkungen mit Daten zu belegen. Es wäre aber doch schön, könnte man feststellen, ob überhaupt und wenn ja, wie, Meerestiere auf pH Veränderungen reagieren und wo die Grenzen liegen.
Angesichts der bereits beobachteten pH Schwankungen, die so groß oder größer sind, als die aus Klimamodellen erwarteten und dem bisherigen Überleben der Meeresfauna und -flora kann man zunächst wohl nur sagen, dass trotz pH Schwankungen der letzten 100 Jahre innerhalb des ganzen, als verheerend behaupteten Bereichs, verheerende Auswirkungen nicht beobachtet wurden. Prüfen wir aber ein paar weitere Daten.
Dazu schauen wir uns eine Karte der Meeres pH Werte ( Abbildung) an, gemessen im Februar 2005. Gemäß Farbskala wird der Bereich von 7.74 bis 8.40 abgedeckt, also wiederum der gesamten „verheerenden“ Bereich. Folglich gilt nicht nur, dass der pH zeitlich über Jahre in diesem Bereich schwankt, auch zu jedem Zeitpunkt scheint es Unterschiede der gleichen Größe je nach Meeresregion zu geben.

Abbildung SEQ Abbildung * ARABIC5: Karte der Meeres pH Werte (Februar 2005)


Quelle: Columbia’s Lamont-Doherty Earth Observatory

Dabei sind regionale Unterschiede auffällig: In Äquatornähe sieht man ein pH Band von etwa 8.03-8.05. Nördlich und südlich Bänder um 8.08-8.14, homogener im Norden als im Süden. Ganz im Norden dann die niedrigsten Werte bis herunter zu 7.74, und ganz im Süden die höchsten bis 8.40. Aus dem Text kann man entnehmen, dass dies typisch für Winter auf der Nord-Halbkugel ist, und die in dieser Messung extremen pH Werte im Norden bzw. Süden sich durch die jeweiligen Temperaturen einstellen. Mithin schwanken die pH Werte um so mehr, je näher man den Polen kommt.
Macht es angesichts dieser globalen Unterschiede überhaupt Sinn, einen mittleren globalen pH-Wert zu bestimmen?
Dass die pH Werte in der Wärme höher sind als in der Kälte finden auch Ajioka et al. [7]) bei Messungen an einem Süßwasser See. Ein Auszug der Daten ist in  Abbildung gezeigt. Im Winter wird an der Oberfläche bei ~8°C ein pH von 7.6 erreicht, im Sommer bei ~26°C ein pH von 8.8. Mit zunehmender Wassertiefe zeigen Temperaturen und pH geringer werdende Schwankungen, und nehmen in etwa die Winterverhältnisse an.

Abbildung SEQ Abbildung * ARABIC6: Sommer, Winter pH und T Messungen an einem See


Das heißt dann aber auch, dass die Wasserorganismen, im Meer oder im Süßwasser, aber am Ort ihres Aufenthalts, im jahreszeitlichen Wechsel pH Schwankungen von sogar mehr als dem „verheerenden“ Bereich erfahren.
Das Monterey Bay Meerwasser Aquarium (Kalifornien, USA) misst seit Jahren den pH Wert des aus dem Meer in das Aquarium eingeleiteten Wassers (Quelle von Daten, Abbildung). Den Verlauf zeigt  Abbildung. Auch hier müssen die Organismen im Meer und im Aquarium mit pH Schwankungen von 7.75 bis 8.15 leben, wiederum so groß wie der „verheerende“ Bereich!
Offenkundig zeigen die Beobachtungen, dass die Organismen pH Schwankungen im „verheerenden“ im Bereich gut verkraften, ob diese sich nun über Jahre hinweg ändern, über die Jahreszeiten, oder durch lokale, regionale, oder globale Besonderheiten bedingt sind.

Labortests

Abbildung SEQ Abbildung * ARABIC7: pH Werte Monterey Bay Aquarium 1996-2008

Um die Reaktion von Korallen auf erhöhte CO2 Werte zu messen, sind verschiedene Labor Studien gemacht worden. Es wurden z.B.  Coccolithophore untersucht, die für ein drittel der marinen Kalksteinproduktion verantwortlich seien, und man fand, dass Kalkbildung und Produktivität bei höherer CO2 Konzentration signifikant höher war. In einer weiteren Studie fand man, dass die Koralle Lophelia pertusa sich in einigen Monaten an saurere Bedingungen anpassten und dann ebenfalls erhöhte Kalkbildung zeigte. Beide Male also das Gegenteil der Katastrophen-Behauptungen. Eine weitere Studie zeigte gemischte Ergebnisse, war allerdings so kurzfristig angelegt, dass möglicherweise noch keine Adaption der Meeres Organismen stattgefunden hatte. Es gibt noch viele weitere Studien [8]). Welche davon negative Effekte zeigte, trotz Berücksichtigung von Adaption, ist nicht einfach zu klären.

Historisch

 

In den letzten 300 Mio Jahren betrug die CO2 Konzentrationen in der Atmosphäre bis zum 15fachen der heutigen Werte (s.  Abbildung). Wenn erhöhtes CO2 durch Versauerung der Ozeane den kalkbildenden Organismen das Leben unmöglich gemacht hat, warum gibt es dann heute noch Kalksteingebirge und Fossilien mit Kalkschalen ?

Abbildung SEQ Abbildung * ARABIC8: CO2 in den letzten 300 Mio Jahren (kaltesonne.de)

Riffe sind Klimasünder

 

Und noch ein weiterer Effekt macht Vorhersagen komplizierter: In einem Riff findet Photosynthese durch die Algen statt, wodurch CO2 verbraucht wird. Gleichzeitig findet aber auch die Kalkbildung statt, wodurch CO2 erzeugt wird!
Die Calcifizierungs Gleichung zeigt es:           
Da Calcium carbonat (CaCO3, Kalkstein) in Wasser schwer löslich ist, fällt es aus. Dabei wird CO2 freigesetzt! Tatsächlich sind vitale Riffe insgesamt Quellen von CO2 [9]), tragen also zum CO2 Anstieg in der Atmosphäre bei!
Ein gut wachsendes Riff ist ein Klimasünder. Was tun wir dagegen?

Temperaturen

Wie beobachtet sind niedrige pH Werte mit niedrigen Temperaturen und hohe pH Werte mit hohen Temperaturen assoziiert sind und wenn eine „Globale Erwärmung“ auch die Meere erwärmt, müsste man doch folglich eine pH Erhöhung erwarten, also eine Alkalisierung und eben nicht eine Versauerung! Das passt zu der Tatsache, dass sich CO2 in kaltem Wasser besser löst als in warmen – öffnen Sie spaßeshalber mal eine gut vorgewärmte Flasche Mineralwasser!
Nur ist es nicht einfach zu sagen, was der Netto Effekt ist zwischen einer CO2 Erhöhung in der Atmosphäre, die den pH-Wert des Meerwassers tendenziell absenkt, und einer CO2-Ausgasung des Meeres, weil durch Erwärmung die Löslichkeit von CO2 sinkt. Und wie das Puffersystem auf das gleichzeitige Verändern von CO2 und Temperatur regiert.
Im Originalartikel wird darauf hingewiesen, dass Wallace in einem noch kommenden Artikel eine Korrelation der pH Werte mit der PDO (Pazifisch Dekadischen Oszillation) zeigen wird (kann ich aus den Daten bisher nicht erkennen [10])). Das gäbe einen starken Hinweis darauf, dass die pH Werte tatsächlich primär temperaturabhängig schwanken.
Für diese Vermutung sprechen auch die ersten Daten der amerikanischen OCO2 Satelliten Mission zur Messung der globalen CO2 Verteilung, gezeigt in  Abbildung. Die mittlere CO2 Konzentration schwankt nur um ±2%, ist also tatsächlich global ziemlich konstant. Auffällig sind niedrige Konzentrationen über Europa, insbesondere UK und Irland, und hohe in der Südhalbkugel, einschließlich der Meere. Könnte es sein, dass die Emissionen von Industrie, Verkehr und Privathaushalten unbedeutend ist im Vergleich zu natürlichen Schwankungen? Und das die CO2 Ausgasungen auf den Meeren der Südhalbkugel – dort ist Frühling zur Zeit dieses Messungen – auf Erwärmung zurückzuführen sind?
Überhaupt könnte der CO2-Anstieg der letzten 160 Jahre durch Entgasung aus dem Ozean dank stärkerer Sonnenaktivität erklärt werden, wobei CO2 nicht die Ursache sondern die Folge einer Temperaturerhöhung ist (weiteres hier, hier, hier, und hier).

Abbildung SEQ Abbildung * ARABIC9: Globale CO2 Konzentration per Satellit (Okt/Nov 2014)

Konklusion

  • Feely et al. haben durch das selektive Verwenden von Daten – was ihnen offenkundig bekannt war – eine pHälschung begangen, und darauf aufbauend wilde Behauptungen über die Folgen eines CO2 Anstiegs für die Meeresbiologie angestellt
  • Tatsächlich zeigen die Daten, dass Schwankungen um angeblich verheerenden Bereich normal, und in den letzten 100 Jahren mehrfach vorgekommen sind.
  • Außerdem treten diese Schwankungen in Gewässern im jahreszeitlichen Rhythmus auf, wodurch sich auch zumindest ein Teil der globalen Schwankungen erklären lässt.
  • Zumindest einige der potentiell betroffenen Organismen können sich adaptieren, und haben dann sogar Vorteile von einer solchen angeblich verheerenden Entwicklung.
  • Es gibt begründete Zweifel, dass die steigenden CO2 Emissionen durch Aktivitäten des Menschen bedingt sind. Auch zunehmende biologische Aktivität im Meer (und an Land) trägt zu den CO2 Emissionen bei.
  • Womöglich ist der ganze CO2 Anstieg nur eine Folge einer natürlichen Erwärmung,  und nicht etwa seine Ursache.

[1]   genauer: H3O+ statt H+. Auch müssten in der Folge Aktivitäten statt Konzentrationen genommen werden – aber diese Feinheiten übergehen wir hier. Für schwache Säuren und Laugen ist letzteres ohnehin bedeutungslos.
[2]   Das kleine „p“ in pH ist historisch bedingt, aber das H bezieht sich auf Wasserstoff. Entsprechend gibt es auch pOH für die OH–Ionen. Am Neutralpunkt ist pOH = pH = 7.
[3]   alternativ kann für Lauge auch das Wort „Base“ genommen werden, und statt alkalisch findet auch „basisch“ Verwendung. Das Wort Lauge kommt daher, dass eine klassische Seifenlauge einen alkalischen pH-Wert hat. Auch nimmt man Natronlauge, also Ätznatron (=NaOH) gelöst in Wasser, zum „Ablaugen“ von alten Möbelstücken. Das Wort „alkalisch“ rührt daher, dass Natrium (Na) zur Gruppe der Alkalimetalle (Li, Na, K, Rb, Cs) gehört, die alle mit Wasser starke Laugen bilden.
[4]   Pschyrembel Wörterbuch Pflege (2003), S. 517
[5]   im Text wird, anders als in der Grafik gezeigt, sogar ein Absinken auf pH=7.65 genannt
[6]   Feely erhielt in 2010 einen $100,000 Preis von der Heinz Family Foundation („Heinz-Ketchup“) der von Teresa Heinz, Ehefrau des US-Außenministers John Kerry), gegründet wurde,  für seine „maßgebenden Arbeiten zur Meeresversauerung“.
[7]   Water pH and temperature in Lake Biwa from MBT /CBT indices during the last 280 000 years, T. Ajioka et al., Clim. Past, 10, 1843–1855, 2014
[8]   Auf der Webseite http://www.co2science.org/data/acidification/background.php wird eine Datenbank mit Artikeln zur Wirkung einer Meeresversauerung geführt. Nach den Betreibern der Webseite spräche etwa die eine Hälfte der Artikel für eine Schädigung, die andere Hälfte dagegen. Gewissheit sieht anders aus.
[9]   Reef Water CO2 System and Carbon Production of Coral Reefs: Topographic Control of System-Level Performance, Atsushi SUZUKI and Hodaka K AWAHATA, Global Environmental Change in the Ocean and on Land, Eds., M. Shiyomi et al., pp. 229–248. (Download)
[10] Da aber der gegenwärtige Datensatz global ist, und PDO und das atlantische Gegenstück AMO (Atlantische Multidekadische Oszillation) um etwa 20 Jahre phasenverschoben sind, muss man wohl zumindest erst die pH Daten nach den Ozeanen aufschlüsseln. (Daten zu AMO, PDO, Korrelation mit Temperatur)
      




Das Rätsel der Eiszeiten XIV: Konzepte und Daten

January 30, 2014 by scienceofdoom

In früheren Beiträgen haben wir uns die Ideen über die Gründe für die Auslösung und Beendigung von Eiszeiten angesehen – und sie kritisiert. Als Ursache wurde die Einstrahlung in den hohen nördlichen Breiten ausgemacht. Diese Ideen sind bekannt unter dem Label „Milankovitch-Antriebe“. In der Regel habe ich dieses Konzept veranschaulicht, indem ich die Einstrahlungsdaten in bestimmten Breiten und in der einen oder anderen Form geplottet habe.

Die Einstrahlung auf verschiedenen Breiten hängt ab von Schiefe und Präzession (ebenso wie von der Exzentrizität). Schiefe ist die Neigung der Erdachse – die in Zyklen über etwa 40.000 Jahre variiert. Präzession ist die Verlagerung des Punktes der größten Annäherung (Perihel) und wie diese mit dem Sommer auf der Nordhemisphäre zusammenfällt – dies variiert mit einem Zyklus über etwa 20.000 Jahre. Der Effekt der Präzession wird modifiziert durch die Exzentrizität der Erdachse – die in einem Zyklus über etwa 100.000 Jahre variiert. Falls der Erdorbit ein perfekter Kreis wäre (Exzentrizität = 0), dann hätte die „Präzession“ keinerlei Auswirkungen, weil die Entfernung der Erde von der Sonne konstant wäre. Mit zunehmender Exzentrizität wird die Auswirkung der Präzession größer.

Wie kann man dies noch deutlicher machen? Peter Huybers gibt in seiner Studie 2007 eine gute Erklärung für Schiefe und Präzession zusammen mit einigen sehr interessanten Gedanken, die später in einem weiteren Artikel aufgegriffen werden. Die obere Graphik zeigt die mittleren Werte der Einstrahlung pro Breite und Tag des Jahres (über 2 Millionen Jahre). Die zweite Graphik zeigt die Anomalie im Vergleich mit dem Mittelwert zu Zeiten maximaler Schiefe. Die dritte Graphik zeigt die Anomalie im Vergleich zum Mittel zu Zeiten maximaler Präzession. Die Graphen rechts zeigen das jährliche Mittel dieser Werte:
 
Abbildung 1

Wir erkennen sofort, dass Zeiten maximaler Präzession (untere Graphik) kaum Auswirkungen auf die jährlichen Mittelwerte haben (rechte Seite der Graphik). Dies ist so, weil die Zunahme im Sommer und Herbst durch die korrespondierende Abnahme im Frühjahr kompensiert wird. Wir können aber auch sehen, dass Zeiten maximaler Schiefe (mittlere Graphik) TATSÄCHLICH Auswirkungen auf die jährlichen Mittelwerte haben (rechte Seite der Graphik). Die Gesamtenergie verschiebt sich von den Tropen zu den Polen. Ich habe versucht, jedoch nicht sehr effektiv, einiges hiervon (mit zu vielen Graphiken) im Teil V zu erklären:  Part Five – Obliquity & Precession Changes.

Hier folgt nun eine andere Art und Weise, dieses Konzept zu betrachten. Für die letzten 500.000 Jahre habe ich die Schiefe (blau) und Präzession modifiziert durch Exzentrizität (e sin w) (hellgrün) in der oberen Graphik geplottet und zusätzlich in der unteren Graphik die jährliche Anomalie in Abhängigkeit von Breite und Zeit. WordPress zwingt alles in 500 Pixel weite Graphiken, die nicht allzu hilfreich sind. Also klicke man darauf, um die HD-Version zu bekommen:

Abbildung 2 – click to expand

Man kann leicht erkennen, dass die Schiefe-Zyklen über 40.000 Jahre mit Anomalien in hohen Breiten (Nord und Süd) korrespondieren, was über ziemlich viele Perioden hinweg gutgeht. Wenn die Schiefe (blau) hoch ist, gibt es in den hohen Breiten der Nord- und Südhemisphäre eine Zunahme der jährlichen mittleren Einstrahlung. Falls wir die Präzession (grün) betrachten, sehen wir keine korrespondierende Änderung des jährlichen Mittels (weil die Zunahme in einer Jahreszeit zumeist durch die Abnahme in der anderen Jahreszeit kompensiert wird). Huybers Studie enthält noch viel mehr als das, und ich empfehle ihre Lektüre. Er verfügt über eine globale Proxy-Datenbasis über 2 Millionen Jahre, die nicht abhängig ist von „orbitalem Tuning“ (Anmerkung 1) und eine interessante Erklärung und Demonstration der Schiefe als dem dominanten Faktor bei der „Steuerung“ der Eiszeiten. Wir werden auf seine Darlegungen zurückkommen.

In der Zwischenzeit habe ich verschiedene Datenquellen gesammelt. Eine große Herausforderung bzgl. des Verständnisses von Eiszeiten ist, dass die Graphiken es in den verschiedenen Studien nicht zulassen in die interessierende Zeitperiode hineinzuzoomen. Ich gedachte, dem abzuhelfen, indem ich die Daten zur Verfügung stelle – und die Daten in High Definition vergleiche anstatt in Schnappschüssen von 800.000 Jahren auf einer halben Breite eines Standard-pdf. Es ist ein laufender Prozess. Die obere Graphik (unten) enthält zwei Versionen von Temperatur-Proxys. Eine ist Huybers globale Proxy aus dem Eisvolumen (δ18O) aus Tiefsee-Bohrkernen (olivgrün), während die andere eine lokale Proxy für die Temperatur (δD) aus dem antarktischen Eisbohrkern Dome C (75°S, blau) ist. Diese Örtlichkeit ist allgemein bekannt als EDC, d. h. EPICA Dome C. Die beiden Datensätze werden in den ihnen eigenen Zeitmaßstäben gezeigt (mehr zu Zeitmaßstäben weiter unten):

 

 Abbildung 3 – click to expand

Die mittlere Graphik zeigt CO2 (blau) und CH4 (grün) aus Dome C. Es ist erstaunlich, wie eng CO2 und CH4 mit den Temperatur-Proxys und untereinander zusammenhängen. (Die CO2-Daten stammen von Lüthi et al. 2008 und die CH4-Daten von Loulerge et al. 2008). Die untere Graphik zeigt die Schiefe (rot) und die jährliche Einstrahlungs-Anomalie (blau) im Breitenmittel zwischen 70°S und 90°S. Weil wir hier die jährliche Einstrahlungs-Anomalie betrachten, ist dieser Wert vollständig in Phase mit der Schiefe. Warum sind die beiden Datensätze in der oberen Graphik außer Phase? Noch weiß ich darauf keine vollständige Antwort. Offensichtlich ist die Verzögerung von der Atmosphäre in die Tiefsee ein Teil der Erklärung.

Hier folgt nun ein 500.000 Jahre-Vergleich von LR04 (Lisiecki & Raymo 2005) und Huybers Datensatz – beides Tiefsee-Bohrkerne – aber LR04 verwendet „orbitales Tuning“. Die zweite Graphik enthält Schiefe & Präzession (modifiziert durch Exzentrizität). Die dritte Graphik zeigt EDC aus der Antarktis:

 
  Abbildung 4 – click to expand

Jetzt zoomen wir auf die letzten 150.000 Jahre mit zwei antarktischen Eisbohrkernen in der oberen Graphik und NGRIP (Nordgrönland) in der unteren Graphik:

   Abbildung 5 – click to expand

Und hier nun sehen wir EDML (hochaufgelöster Antarktis-Bohrkern) im Vergleich zu NGRIP (Grönland) während der letzten 150.000 Jahre (NGRIP reicht nur 123.000 Jahre zurück) plus CO2 & CH4 aus EDC – erneut zeigt sich die enge Korrespondenz von CO2 und CH4 mit den Temperaturaufzeichnungen in beiden Polargebieten:


 Abbildung 6 – click to expand

Der Vergleich und der Bezug zu „abrupter Klimaänderung“ in Grönland und der Antarktis wurde von EPICA 2006 thematisiert (man beachte, dass die Zeitskala in entgegen gesetzter Richtung zu den Graphiken oben verläuft).

Bildinschrift: Aufzeichnungen stabiler Isotope in der Antarktis zeigen synchrone tausendjährige Variationen während der letzten Eiszeit, während rapide Variationen in Grönland auftraten. a) EDML  δ18O-Aufzeichnung (violett, Auflösung 0,5 m; Grau: 15 m gleitendes Mittel) nach der Korrektur von Meeresspiegel und stromaufwärts (siehe ergänzende Information) während der letzten 150.000 Jahre. Die Isotopen-Aufzeichnung zeigt Eigenarten ähnlich denen von EDC12 (blau) und Dome F13 (rosa), aber mit feinerer Struktur während MIS3 und MIS4. Wir bemerken, dass EDML und EDC geplottet sind im neuen allgemeinen EDC3-Zeitmaßstab (siehe ergänzende Information) während Dome F geplottet ist in seinem individuellen Zeitmaßstab. Die Temperaturachse auf der rechten Seite zeigt angenäherte Bodentemperaturen bei EDML, wie abgeleitet aus dem räumlichen Gradienten zwischen  δ18O und Temperatur. b) δ18O-Aufzeichnung des NGRIP-Eisbohrkerns (grau). c) Staubaufzeichnung en der Eisbohrkerne EDML (rot) und EDC12 (rosa) in einer Auflösung von 1000 Jahren; diese Staub-Aufzeichnungen wurden benutzt für die zeitliche Synchronisation der Bohrkerne.

aus EPICA 2006
Abbildung 7 – click to expand

Zeitmaßstäbe

Wie die meisten Studien einräumen, ist der Zugang zu Daten der genauesten „hypothesenfreien“ Zeitmaßstäbe der Heilige Gral der Eiszeit-Analyse. Allerdings gibt es keine hypothesefreien Zeitmaßstäbe. Aber es gab inzwischen viele Fortschritte. Huybers Zeitmaßstab basiert primär auf a) Sedimentierungs-Modellen, b) dem Zusammenbinden der verschiedenen identifizierten Zeitpunkte der Anfänge und Beendigungen für jede einzelne Proxy und c) der unabhängig datierten Brunhes-Matuyama-Umkehrung vor 780.000 Jahren. Der Zeitmaßstab von EDC (EPICA Dome C) basiert auf einer Vielfalt von Altersmarkierungen:

●Für die ersten 50.000 Jahre mit der Verbindung der Daten mit Grönland (via hoher Auflösung von CH4 in beiden Aufzeichnungen), die nach Schichten gezählt werden können, infolge viel höheren Niederschlags.

●Vulkanausbrüche

●10Be-Ereignisse (Be10 ist ein kosmisches Isotop, red. Anmerkung), die unabhängig datiert werden können

●Eisfluss-Modelle – wie Eis unter Druck fließt und komprimiert wird

●und schließlich „orbitales Tuning“

EDC2 war der Zeitmaßstab, mit dem die Daten im bahnbrechenden 2004 EPICA-Paper präsentiert worden sind. Diese 2004 Studie zeigte den EDC-Bohrkern zurück bis 800.000 Jahre (davor war der Vostok-Bohrkern am längsten, der 400.000 Jahre zurückreichte). Die EPICA 2006-Studie war dann der Dronning Maud Land Core (EDML), der einen kürzeren Zeitraum abdeckte (150.000 Jahre), jedoch mit höherer Auflösung, was eine bessere Abstimmung zwischen der Antarktis und Grönland ermöglichte. Dies führte schließlich zu dem verbesserten EDC3-Zeitmaßstab.

In einer technischen Studie zur Datierung zeigen Parannin et al. 2007 die Unterschiede zwischen EDC3 und EDC2 und auch zwischen EDC3 und LR04.

 

 Abbildung 8 – Click to Expand

Falls man also Daten hat, muss man den Zeitmaßstab kennen, in dem sie geplottet sind. Ich verfüge über den EDC3-Zeitmaßstab hinsichtlich Eisbohrkern-Tiefe, so dass ich als Nächstes die EDC-Temperatur-Proxy (δD) von EDC2 auf EDC3 bringen werde. Ich habe auch Staubwerte bzw. Eisbohrkern-Tiefen für den EDC-Bohrkern – Staub als eine weitere faszinierende Variable, die zum Höhepunkt von Eiszeiten etwa 25 mal stärker ist im Vergleich zu Zwischeneiszeiten – all dies erfordert die Konversion zum EDC3-Zeitmaßstab. Andere Daten enthalten u. A. noch weitere atmosphärische Komponenten. Dann verfüge ich über die NGRIP-Daten (Nordgrönland), die 123.000 Jahre zurückreichen, allerdings im ursprünglichen Zeitmaßstab von 2004, der dann in den GICC5-Zeitmaßstab übergeführt wurde. Mitte 2013 wurde schließlich ein neuer antarktischer Zeitmaßstab vorgeschlagen – AICC2012 – der alle antarktischen Bohrkerne in einen gemeinsamen Zeitmaßstab zusammenführt. Siehe Referenzen unten.

Conclusion

Dieser Artikel sollte Schiefe und Präzession in einer anderen und hoffentlich nützlicheren Weise beleuchten und am Anfang einige Daten in hoher Auflösung zeigen.

References

Glacial variability over the last two million years: an extended depth-derived agemodel, continuous obliquity pacing, and the Pleistocene progression, Peter Huybers, Quaternary Science Reviews (2007) – free paper

Eight glacial cycles from an Antarctic ice core, EPICA community members, Nature (2004) – free paper

One-to-one coupling of glacial climate variability in Greenland and Antarctica,  EPICA Community Members, Nature (2006) – free paper

High-resolution carbon dioxide concentration record 650,000–800,000 years before present, Lüthi et al, Nature (2008)

Orbital and millennial-scale features of atmospheric CH4 over the past 800,000 years, Loulergue et al, Nature (2008)

A Pliocene-Pleistocene stack of 57 globally distributed benthic D18O records, Lorraine Lisiecki & Maureen E. Raymo, Paleoceanography (2005) – free paper

The EDC3 chronology for the EPICA Dome C ice core, Parennin et al, Climate of the Past (2007) – free paper

An optimized multi-proxy, multi-site Antarctic ice and gas orbital chronology (AICC2012): 120–800 ka, L. Bazin et al, Climate of the Past (2013) – free paper

The Antarctic ice core chronology (AICC2012): an optimized multi-parameter and multi-site dating approach for the last 120 thousand years, D. Veres et al, Climate of the Past (2013) – free paper

Anmerkungen

Anmerkung 1 – See for example Thirteen – Terminator II, under the heading What is the basis for the SPECMAP dating? 

It is important to understand the assumptions built into every ice age database.

Huybers 2007 continues the work of HW04 (Huybers & Wunsch 2004) which attempts to produce a global proxy datbase (a proxy for global ice volume) without any assumptions relating to the “Milankovitch theory”.

Link: http://scienceofdoom.com/2014/01/30/ghosts-of-climates-past-fourteen-concepts-hd-data/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/

Teil XIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiii-terminator-ii/




Offshoretechnik im Vergleich

In diversen Gutachten sind geplante Erzeugungskapazitäten und Jahresenergieproduktion zu finden.
Hier wird beispielhaft auf das SRU-Gutachten von 2011 Bezug genommen.

SRU Sondergutachten Wege zur 100% erneuerbaren Energieversorgung

Sondergutachten Januar 2011

Tabelle 0:  Auszug aus dem SRU Gutachten 2011
Auf den nächsten Seiten, will ich überprüfen, ob dieses angestrebte Ziel auch erreicht wird oder erreicht werden kann.
Seit dem Jahr 2013 werden auch die Ganglinien der in der Ostsee installierten Anlagen veröffentlicht.
(http://www.netztransparenz.de/de/Online_Hochrechnung_Wind_Offshore.htm)
Seit 2011 ist der Windpark Baltic 1 mit 21 Anlagen Siemens SWT-2.3-93  a 2,3MW in Betrieb.  Dieser Windpark ist mittels einer 160kV Drehstromleitung, über das Umspannwerk Pasewalk,  mit dem  Netz von 50Hertz verbunden.
Tabelle 1 zeigt die Einspeisung der Windenergieanlagen in der Ostsee. Die Einspeisung aus Ganglinien ergibt sich aus der Summierung der Stundenwerte aus der Grafik in Bild 01

Jahr

Einspeisung aus Ganglinien

Einspeisung Jahresmeldung §52 EEG

Volllast-stunden

Volllast-stunden-äquivalent

2010

 

 

 

 

2011

 

124.950 MWh

3.529 h/a

40,3%

2012

 

206.492 MWh

4.275 h/a

48,8%

2013

193.091 MWh

192.513 MWh

3.986 h/a

45,5%

2014

193.830 MWh

 

4.137 h/a

47,23%

Tabelle 1:  Jahreszahlen der Windenergie Offshore in der Ostsee
Die Differenzen zwischen Ganglinie und Jahresmeldung sind von mir bewusst eingestellt. 
Das zur Tabelle 1 gehörende Bild 1 zeigt den Verlauf der Einspeisung in der Ostsee. Man erkennt ein sehr starke Fluktuation zwischen voller Einspeiseleistung und einer Einspeisung nahe Null. In Anlehnung an eine Sägezahnspannung nenne ich diese Anlagen Stromlückengeneratoren.
 
Bild 1 Einspeisung Windenergie Offshore in der Ostsee (50Hertz)
Betrachtet man die Situation der Offshoreanlagen in der Nordsee, so zeigt sich ein wesentlicher Unterschied zu der Situation in der Ostsee. Die Windparks in der Nordsee sind über sogenannte HGÜ-Kabel mit dem Festland verbunden. (HGÜ = Hochspannungs-Gleichstrom-Übertragung) Wie man aus der Presse entnehmen konnte, hatte TenneT  Probleme mit HGÜ-Technik eingeräumt. Dies schlägt sich auch in den veröffentlichten Zahlen nieder.

Abweichung Jahresmeldung zu Ganglinie

Jahr

Einspeisung aus Ganglinien

Einspeisung Jahresmeldung §52 EEG

Volllast-stunden

Volllast-stunden-äquivalent Jahresmeldung

Volllast-stunden-äquivalent Ganglinie

3,6%

2010

167.753,08

173.738 MWh

3.173 h/a

36,2%

 

1,4%

2011

437.277,00

443.190 MWh

3.608 h/a

41,2%

 

10,7%

2012

465.224,75

515.158 MWh

2.837 h/a

32,4%

 

0,01%

2013

712.205,25

712.305 MWh

2.007 h/a

22,9%

 

 

2014

1.019.938,75

 

1.761 h/a

 

20,1%

Tabelle 2a:  Jahreszahlen der Windenergie Offshore in der Nordsee
Die Differenzen zwischen Ganglinie und Jahresmeldung sind von mir bewusst eingestellt.

Tabelle 2b  Anzahl und Leistung der Windenergieanlagen in der Nordsee

Bild 2 Einspeisung und Leistung Windenergie Offshore in der Nordsee (TenneT)
Die errechnete Leistungsäquivalent zeigt zur Zeit einen negativen Trend für die Offshoretechnik in der Nordsee.
 
Bild 3 Leistungsäquivalent  Windenergie Offshore in der Nordsee (TenneT)
Hier zeigt sich, dass die Nordseeanlagen (rote Flächen) bei weitem nicht die von ihnen erwartete Energielieferung erbringen, wie die Anlagen in der OStseee ( blaue Flächen). Woran dies liegt, kann ich nicht beurteilen, da mir die entsprechenden Informationen fehlen. Gleichzeitig erkennt man die Charakteristik der Lücken zwischen den Einspeisungen, die  einer Grundlastfähigkeit nicht entsprechen. ( Stromlückengenerator)

Bild 4:  Leistungsäquivalent Offshoreanlagen Ostsee und Nordsee
Schaut man sich die letzten beiden Monate im Jahr 2014 der Nordseeanlagen näher an, so zeigt sich, dass es Probleme mit einzelnen Anlagen, als auch mit den Gleichrichterstationen zu geben scheint.
Die rote Linie 1 deutet daruf hin dass sich anscheinend komplette Windparks aus der Stromproduktion verabschiedet haben. 
Die rote Linie 2 zeigt, dass einzelne Windmühlen auf Störung gegangen sind. Da diese aber in der stürmischen Nordsee stehen, wird es mehr Zeit in Anspruch nehmen, bis die Störungen von  Wartungspersonal behoben werden können.

Bild 5:  Leistungsäquivalent Offshoreanlagen Nordsee
Legt man zusätzlich die Ganglinie der Onshoreanlagen auf die Offshoranlagen, zeigt sich, daß man Frau Höhn empfehlen sollte, ihre Mathematikkenntnisse aufzufrischen. (Irgendwo weht immer Wind)

Bild 6:  Leistungsäquivalent Offshoreanlagen Ostsee und Nordsee sowie Onshore von TenneT
Zum Schluß mache ich einen Faktencheck der  SRU-Prognose, die wiederum als sehr ambitioniert bezeichnen werden kann.

Tabelle 3:  Auszug aus dem SRU Gutachten 2011


Tabelle 4  Nachrechnungen auf die Tabelle 3 mit Zahlen des Jahres 2014
Fazit:
Man sollte über ein eigenes Stromaggregat nachdenken.




Stromautarkie: Schlangenölverkäufer verführt Versuchskaninchen – Die Mär von der Energie- Unabhängigkeit

Erst wenn man in den Artikel hineinliest stellt man fest, dass es hier nicht etwa um die reine Kombination einer Solaranlage und einer billige gewordenen Pufferbatterie geht, sondern um eine sehr komplexe Installation aus Blockheizkraftwerk, Fotovoltaikanlage, Wechselrichter, Warmwasserspeicher, einer zusätzliche Spitzenlast-Gastherme und jeder Menge komplexer Regeltechnik. Kostenpunkt rund 31.000 €, davon 20.000 für das Blockheizkraftwerk und 6.000 für die Pufferbatterie mit einem Speichervolumen von 4,5 kWh. Dass die Solaranlage nur winzig sein kann, lässt sich aus obigen Zahlen sofort erkennen, denn für die restlichen 5.000 € bekommt man laut Solarrechner.de höchstens ca. 25 qm Kollektorfläche, was für den Ort Kelberg selbst unter optimalen Aufstellbedingungen lediglich einer Leistung von rund 3kWp und einem Jahresertrag von 2.600 kWh entspricht. Es sei denn, an der Story entsprechen neben der Einleitung auch die Preisangaben nicht so ganz hundertprozentig der Wahrheit….
Als Weg zur Energieautarkie mithilfe einer Solaranlage nebst Pufferbatterie – wie das im Artikel auch im weiteren Verlauf als möglich suggeriert wird – ist die Installation der Familie Schmitt völlig ungeeignet. Dies ist in Deutschland wegen der miserablen Nutzungsgrade von Solaranlagen in den Wintermonaten schon allein aus technischen Gründen nicht machbar, wie bereits vor rund einem Jahr in einem Artikel bei EIKE nachgewiesen wurde, siehe Bild 1 [EIKE]. Und trotz des Preissturzes bei Pufferbatterien liegt die hier beschriebene Batterie immer noch bei 1.300 €/kWh und damit um rund 30 % über dem damaligen Rechenansatz. Der ganze Aufsatz ist darauf angelegt, erstmal die Leser mit Schlagworten wie Solar, Batterie und Unabhängigkeit von Stromkonzernen zu locken, aber verkauft wird ihnen dann eine ganz andere Story. Nicht besonders seriös.

Bild 1. Monatliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen im Zeitraum April 2012 bis März 2013 (Daten: [EEX])
In Wirklichkeit geht es um ein Blockheizkraftwerk
Wie schon die Beschreibung der Ausstattung und die Angaben zu den wichtigsten Kostenblöcken erkennen lassen, hat Familie Schmitt als Hauptenergielieferanten für Heizwärme und Strom ein mit Gas betriebenes sogenanntes Blockheizkraftwerk (BHKW) Typ Vaillant EcoPower 1.0 gekauft. Dies ist im Prinzip ein System zur Kraft-Wärme-Kopplung, bei dem die Abwärme des Stromerzeugers für Heizung und Warmwasser genutzt wird. Die nicht sofort benötigte Wärme wird in einem Heißwasser-Pufferwärmespeicher vorgehalten, für kalte Tage sowie bei Systemausfall steht eine zusätzliche Spitzenlast-Gastherme bereit. Der erzeugte Strom wird teils selbst verbraucht, teils dank KWKG Vergütung ins Netz eingespeist. Unter optimalen Bedingungen erzielt ein solches System Wirkungsgrade von um die 90 %.
Prinzipieller Nachteil von Blockheizkraftwerken
Der wichtigste Nachteil von Blockheizkraftwerken ist zunächst der, dass ihr optimaler Wirkungsgrad nur dann zur Geltung kommt, wenn die erzeugte Wärme auch wirklich in vollem Umfang benötigt wird. Die Aggregate haben bei der eigentlichen Stromerzeugung nämlich nur einen vergleichsweise bescheidenen Wirkungsgrad. Optimaler Betrieb ist daher in der Regel nur möglich, wenn das Blockheizkraftwerk so gesteuert wird, dass möglichst die gesamte erzeugte Wärme auch genutzt wird. Der Strom ist daher ein zufallsgesteuertes Nebenprodukt, für dass sich dank KWKG erfreulicherweise ein zwangsbeglückter Abnehmer in Form der Allgemeinheit findet, die diesen Strom zusammen mit dem sonstigen Zappelstrom aus Wind- und Solarkraftwerken abnehmen muss, sie mag ihn brauchen oder nicht. Sobald dieser Zwang durch Änderung des EEG bzw. KWKG entfallen sollte, hat man das Problem, den erzeugten Strom auch loszuwerden. Gelingt dies nicht, ist das BHKW als Wärmeerzeuger gegenüber einer modernen Brennwert-Gastherme sogar im Nachteil, denn diese erreicht rund 90 %, während das BHKW ein weitgehend festes Verhältnis von Wärme- zu Stromleistung aufweist. Eine Untersuchung des Lehrstuhls für Energiewirtschaft und Anwendungstechnik der TU München zeigt, dass ein BHKW etwa 65 % der im Gas enthaltenen Energie als Wärme und 25 % in Form von elektrischem Strom liefert [VDE]. Gegenüber einem modernen Gas-und-Dampf-Kraftwerk mit 60 % Wirkungsgrad also ein eher bescheidenes Ergebnis.
Für Laien weniger geeignet
Entscheidender Nachteil einer BHKW-Installation ist die technische Komplexität und die damit verbundene Störanfälligkeit. Das beginnt schon mit der Auslegung, für die ein Qualifikationsniveau erforderlich ist, das den normalen Architekten bzw. Heizungsplaner in erheblichem Maße überfordert. Fehlberatungen sind daher vorprogrammiert. Hinzu kommt, dass diese Systeme Motoren sowie weitere drehende Komponenten wie den Stromgenerator enthalten, die zwangsläufig verschleißen und daher Wartung benötigen. Auch dieser Aufgabe ist der übliche Heizungsmonteur vor Ort nicht immer gewachsen, man benötigt eher Spezialisten, die das System genau kennen. Wenn man sich entsprechende Foren im Internet anschaut [DAER, ERF1, ERF2, ERF3], so findet man darin nicht wenige Beispiele für Anwender, die mit ihren Kleinst-BHKW krachend gescheitert sind oder zumindest teures Lehrgeld bezahlen mussten. Manche Einträge sind recht drastisch: „wer vom neuen markt noch ein paar mücken übrig hat sollte sich mit dem kauf eines (PIEP) entgültig in den ruin treiben würde gerne 2 (PIEP) verschenken neuwertig aber nur an sado maso anhänger finger weg von den scheiß dingern“.
Auf der anderen Seite gibt es jedoch auch etliche positive Stellungnahmen. Allerdings fällt hierbei auf, dass diese überwiegend von Profis kommen, darunter viele ausgesprochene Technikfreaks mit entsprechendem Hintergrund: Handwerker, Techniker, Ingenieure oder auch mal ein Hausmeister mit handwerklicher Begabung. Diese Nutzer sind imstande, ihre Anlagen selbst zu überwachen, verstopfte Filter zu erkennen und zu reinigen, Dichtungen auszutauschen oder die Einstellungen an den Steuerungen bedarfsgerecht zu verändern. Bei vielen dieser Leute hat man den Eindruck, dass sie die Zuneigung zur elektrischen Eisenbahn ihrer Jugend jetzt auf ihr BHKW übertragen haben.
Noch schwieriger wird es, wenn man das BHKW wie im Beispiel von Familie Schmitt mit weiteren „artfremden“ Anlagen kombiniert. Für solche maßgeschneiderten Kombinationen findet man dann im Prinzip niemanden mehr, der das Gesamtsystem in seinem Zusammenspiel und seinen Wechselwirkungen überblickt und die richtigen Reparatur- oder Einstellungsentscheidungen treffen kann. Für normale Zeitgenossen, die kein gesteigertes Interesse an Technik haben, kann sich ein solches System schnell zum Alptraum entwickeln.
Die Autarkie bleibt Utopie
Zu den besonders fiesen Maschen bei solchen Artikeln gehört es, dass der Eindruck erweckt wird, als könne man sich irgendwann vollständig von der Bindung an einen Stromversorger lösen. Nach dem Motto, wenn wir bereits 87 % geschafft haben, werden wir den Rest irgendwann auch noch hinkriegen. Dabei ist gerade das unmöglich, weil man das öffentliche Netz ja braucht, um Subventionen für den überschüssigen Strom zu erhalten. Ohne diese Nabelschnur zu den Versorgern, denen man die eigene Überproduktion jederzeit ungefragt auf’s Auge drücken kann, würden die Finanzierungsmodelle zusammenklappen. Das Ganze funktioniert nur, indem man die Vorteile eines jederzeit verfügbaren öffentlichen Netzes wahrnimmt, die damit verknüpften Kosten jedoch anderen überlässt. Für die Aufrechterhaltung des Netzes und der ständig zuverlässig abrufbaren Vollversorgung lässt man die „dummen anderen“ zahlen. Wer glaubt, dass dies auf Dauer so weitergehen könnte, muss recht blauäugig sein. In Spanien geht das schon nicht mehr: Wer eine Solaranlage betreibt und selbst nutzt, muss dafür die üblichen Tarife bezahlen, es sei denn, er trennt sich völlig vom Netz. Und genau das geht eben nicht bzw. nur in den allerseltensten Fällen, wenn man auf die ständige Verfügbarkeit der Annehmlichkeiten elektrischen Stroms weiterhin Wert legt. Auch in Deutschland hat der Gesetzgeber schon ähnliche Absichten erkennen lassen.
Im Hintergrund lauert der EE-Kannibalismus
Ein grundsätzliches Problem für Betreiber von BHKW ist der sich abzeichnende „Kannibalismus“ der verschiedenen „erneuerbaren“ Technologien untereinander. An warmen Sommerwochenenden liegt die gesamte Netzlast in Deutschland manchmal bei lediglich 35.000 bis 45.000 MW. Zum Jahresende 2014 waren in Deutschland jedoch bereits folgende „erneuerbare“ Erzeugungskapazitäten am Netz: 35.400 MW Windleistung, 37.200 MW Solarleistung, 6.300 MW Biomasseleistung, 4.500 MW Wasserkraftwerksleistung sowie 1.500 MW Kraftwerksleistung aus Müllverbrennung, zusammen also rund 87.400 MW. Das entspricht in etwa der zu erwartenden Jahreshöchstlast. Da zudem mindestens 28.000 MW an Grundlastkapazität zur Stabilisierung des Netzes ständig mitlaufen müssen, kommt es inzwischen immer häufiger vor, dass das Gesamtaufkommen aus EE-Strom – der ja zwangsläufig abgenommen werden muss – und Grundlaststrom die aktuelle Netzlast übersteigt. Das sind die immer häufigeren Tage, an denen der nicht benötigte deutsche Zufallsstrom ins Ausland verschenkt werden muss und den dortigen Stromerzeugern den Markt ruiniert. Da der Zubau der sogenannten „erneuerbaren“ Energien weiterhin mit mehr als 5.000 MW/ Jahr vorangetrieben wird, wird sich diese Engpasssituation in den nächsten Jahren immer drastischer zuspitzen. Da die „Entsorgung“ überschüssiger Produktion ins Ausland über kurz oder lang auf verstärkten Widerstand stoßen wird, wird der Gesetzgeber innerhalb weniger Jahre genötigt sein, Produktionsbeschränkungen auch für EE-Strom zu dekretieren. Vermutlich werden darunter vor allem solche Branchen zu leiden haben, die nicht so hoch auf der Prioritätenliste der „Energiewende“ stehen. Da Wind und Solarstrom erklärte Schwerpunkte des weiterhin gewünschten massiven EE-Ausbaus sind und Müllverbrennung alternativlos durchgeführt werden muss, dürften kleinere und weniger wichtige Bereiche mit weniger schlagkräftigen Lobbys wie die Wasserkraft und die Kraft-Wärme-Kopplung zu den Verlierern dieses Wettstreits gehören. Selbst auf einen Bestandsschutz für Altanlagen sollte man sich dabei nicht verlassen, denn mit weiter wachsendem Notstand in den Netzen wird der Gesetzgeber auf kleinere Randgruppen vermutlich ebensowenig Rücksicht nehmen wie 2011 auf den Bestandsschutz der Betreiber von Kernkraftwerken.

Bild 2. Entwicklung der installierten Solar- und Windkapazitäten in Deutschland seit 2010 (Daten: [EEX])
Fragwürdiger Journalismus
Der Spiegelonline-Artikel ist symptomatisch für die Art von modernem „Qualitäts“-Journalismus, mit der selbst renommierte Publikationen wie der Spiegel oder das Manager-Magazin heute den Leser fehlinfomieren. In der Online-Ausgabe des Manager-Magazins erschien der Beitrag sogar unter einem noch reißerischerem Titel: „Selbstversorger-Trend Wie Familie Schmitt Deutschlands größten Stromversorger zerschlug“ [MAMA]. Selbst Bildzeitungsjournalisten könnten ob solcher Dreistigkeit vor Neid erblassen. Dabei ist der Reporter in der Redaktion des manager magazin online schwerpunktmäßig für Unternehmen zuständig, besonders für Energiewirtschaft und Mobilität. Schaut man sich seinen Werdegang daraufhin an, was ihn dafür qualifiziert haben mag, so wundert man sich über fast gar nichts mehr. Im Kurzporträt ist zu lesen: „Studium der Politischen Wissenschaft, Geschichte und des Öffentlichen Rechts. Absolvent der Berliner Journalistenschule. Stationen und Mitarbeit unter anderem beim Pinneberger Tageblatt, ZDF-Studio London, RBB Inforadio Wirtschaft und dpa Berlin. Koordination Tagesspiegel-Handelsblatt. Seit April 2008 bei manager magazin online, seit Oktober 2012 Reporter“.
Leider ist zu befürchten, dass solche Schlangenölverkäufer-Artikel den einen oder anderen unbedarften Leser dazu veranlassen werden, sich als Versuchskaninchen für diese Technologie zur Verfügung zu stellen. In diesem Falle würd man sich manchmal wünschen, dass die Geschädigten nach dem Reinfall amerikanisches Recht anwenden könnten, um den unseriösen Journalisten nebst Verlag in die Insolvenz zu klagen.
Fred F. Mueller
Quellen
[DAER] http://www.niedrigenergieforum.de/dachs-heizung-t280.html
[EEX] http://www.transparency.eex.com/de
[EIKE] http://www.eike-klima-energie.eu/climategate-anzeige/energieautarkie-am-beispiel-sonne-wie-ideal-ist-dezentral-nur-wenn-geld-keine-rolle-spielt/
[ERF1] http://www.tga-warmup.de/bhkw.html
[ERF2] http://www.energieportal24.de/forum/topic,809,-erfahrung-bhkw.html
[ERF3] www.heizkosten-online.de
[MAMA] http://ml.managermagazin.de/article.do?id=1010095
[SPIE] http://www.spiegel.de/wirtschaft/service/strom-selber-erzeugen-selbstversorgung-liegt-im-trend-a-1010782.html
[VDE] Praxiserfahrungen mit Mini und Mikro BHKW, Dr.-Ing. Peter Tzscheutschler, Dipl.-Ing. Josef Lipp, IFE Lehrstuhl für Energiewirtschaft und Anwendungstechnik, TU München




Der Monitoringbericht zur Energiewende Ausgabe 2014 : Ein Extrakt

Hiermit wird ein Konzentrat interessanter Informationen aus dem Bericht vorgelegt und auch kommentiert, denn Bewertungen bietet die Schrift verständlicherweise nicht. Schließlich handelt es sich bei beiden Institutionen um Bundesbehörden, die ihre Regierung nicht kritisieren. Aber die Leser können ihre Schlußfolgerungen selbst ziehen.
Zitate aus dem Bericht und Kommentare („Komm.“) sind hier klar getrennt. Für diejenigen, die den Monitoringbericht selbst näher prüfen möchten, sind insbesondere die sehr guten Abbildungen und Tabellen zu empfehlen, die im Text genannt werden. Auch werden die Seitenzahlen, unter denen man die zitierten Informationen in der Langfassung findet, explizit genannt.
1. Stromerzeugung                                                                                                       
Seite 15

    2013, Veränderung gegen 2012                           
    – Kohle:   Braunkohle:   + 7,2 TWh = + 5,1 %
                     Steinkohle:    + 6,0 TWh = + 5,6%
    – Erdgas:……………………..- 8,3 TWh = – 12,4%
    – Kernenergie: ……………- 2,1 TWh = – 2,2%
  Komm.: „Gas sinkt kräftig ab; Kohle kommt. Vorbild Deutschland für den sog. Klimaschutz. “
    – Erneuerbare:……………..+ 8,2 TWh = + 5,9%
       Davon PV:…………………+ 3,5 TWh = +13,3%
Gesamte installierte Leistung der EE-Anlagen: 78,4 GW (Ende 2012 71,7 GW)

Komm.: „Das ist fast so viel wie die gesamte konventionelle Leistung, die hier im Winter benötigt wird.  Von dieser Leistung her betrachtet, haben wir jetzt ein doppelt vorhandenes Stromerzeugungssystem. Die Errichtungs- und Betriebskosten des zusätzlichen EE-Systems übertreffen jedoch die des bisherigen Systems bei weitem. Leider liefert das EE-System nur wenig Strom; schon gar nicht, wenn er gebraucht wird, und sein Beitrag zur Grundlast liegt nahe bei Null.“
Auszahlung an Vergütungen, Markt- und Flexibilitätsprämien:  19.637 Mio Euro        Seite 16
Das sind + 6,2% gegenüber 2012 bezüglich der betr. Strommenge
Und + 6,2% gegenüber 2012 bezüglich der betr. Strommenge von den ÜNB ausgezahlten Fördersumme.

Strompreise für Haushaltskunden  (HH-Kunden)                                                            

Seite 159                                       

bei einem Verbrauch von 3.500 kWh/a
Abb. 71 zeigt die Entwicklung seit 2006
Abb. 76 stellt die „Aufteilung des Einzelhandels-Preisniveaus für Haushaltskunden für den
               Zeitpunkt  1.4.2014“ als Kreisdiagramm dar. Also Energiebeschaffung, Netzkosten,
               Umlagen, Umsatzsteuer etc. …………………………………………………………………….. Seite 167

 Wichtige Aussagen:

1.) Der von den Lieferanten beeinflussbare Anteil am Preis ist 26,6%
2.) Umlagen, Steuern und Abgaben betragen in Summe über
     51 % des durchschnittlichen Elektrizitätspreises für HH-Kunden
Tabelle 42  zeigt die Zusammensetzung  des über alle Vertragskategorien (Seite 168) mengengemittelten Preisniveaus vom 1.4.2014 für Haushaltskunden im Detail                           

                             Nettonetzentgelt:                         5,87 ct/kWh
                             Entgelt für Abrechnung:              0,34
                                 „         „   Messung :                   0,09
                                 „         „   Meßstellenbetrieb:   0,24
                             Energiebeschaffung, Vertrieb,
                             sonstige Kosten und Marge :      7,86
                             Konzessionsabgabe:                     1,60                                             
                             Umlage nach EEG:                        6,24
                                 „         nach KWKG:                    0,18
                                 „     Offshore-Haftung:             0,25
                                 „     f. abschaltbare Lasten:     0,01
                              Stromsteuer:                                2,05
                              Umsatzsteuer:                              4,71              
                                                                    Gesamt: 29,53 ct/kWh

                    

Entwicklung des Preisbestandteils „Energiebeschaffung, Vertrieb,                            

Seite 172
sonstige Kosten und Marge“ für Haushaltskunden
s. Abb.80

„Der Anteil des Gesamtpreises, der unternehmerischen Entscheidungen des Lieferanten zugänglich ist, ist erneut gesunken.
Erstmals seit 2008 ist der Preis wieder unter 8 ct/kWh gefallen und trägt dazu bei, die stetig steigenden staatlich determinierten Preisbestandteile zu kompensieren.“
Aus Abb.80 geht für 2014 ein Wert von 7,86 ct/kWh hervor.

Dieser Anteil lag am 1.4.2013 noch bei 8,34.

Komm.: „Leider wird hier nicht die sehr nahe liegende Frage beantwortet, ob diese Senkung der Erzeugungskosten nicht die logische Folge der durch das EEG bewirkten Vertreibung der teuer produzierenden Erdgaskraftwerke aus der Stromerzeugung ist (s. Ziff.1, Anfang) und ihr Anteil durch Kohlestrom ersetzt wurde.
Damit wird außerdem das Pressemärchen von den gierigen Stromkonzernen, die nur an einer Steigerung ihrer Gewinne interessiert sind, offiziell widerlegt.“

Stromsperrungen bei Haushaltskunden                                                             

Seite 149 u. 150

2013 wurden 344.800 Sperrungen vollzogen – 7,15% mehr als im Vorjahr (321.800).
Sperr-Androhungen:             6,99 Millionen  –  23,2 %   „          „            „        (5,678 Mio)
Kosten für eine Sperrung: 13 – 168 €
Nachtspeicherheizungskunden                                                                                            Seite 21

Bei einem Verbrauch von 7.500 kWh: Mittlerer Strompreis 20,6 Ct/kWh; somit 1.545 €/a.

Entwicklung der installierten Leistung der nach EEG vergütungsfähigen Anlagen 2004-2013.                                              

Seite 47
Abb.14 zeigt diese Entwicklung als Grafik. Der Endpunkt für 2013 ist 78.423 MW.
Als Tabelle werden diese Daten in Tab. 7 (Installierte Leistung) und Tab. 8 (Jahresarbeit) aufgelistet.                                                                                    
Seite 49

EEG- Umlage                                                                                                                              Seite 171

Abb. 79: „Entwicklung EEG-Umlage und Anteil am HH-Kundenpreis
                  2006 – 2014“
                  Diese Grafik endet 2014 bei 6,24 ct/kWh und einem Anteil von 21%.

Netzentgelte                 

Seite 17

Stand 1.4.2014
– Haushaltskunden :  6,47 Cent/kWh     (bei Verbrauch v. 3.500 kWh/a)
– Gewerbe               :  5,65    „                   (  „         „               50 MWh/a    )
–  Industrie              : 1,90      „                  (   „        „               24 GWh/a     )

Europäischer Strompreisvergleich                                                                                    Seite 181

Abb. 84: „Vergleich der durchschnittlichen europäischen Strompreise für private Haushalte
                  im 2. Halbjahr 2013“
„In Deutschland wird von Haushaltskunden der zweithöchste Gesamtpreis aller EU-Mitgliedsstaaten gezahlt. Mit durchschnittlich 29,21 ct/kWh übersteigt dieser um 60% den sich als Durchschnitt für alle 28 EU-Mitgliedsstaaten ergebenden Wert von 18,17 ct/kWh.

Abb.87: „Vergleich der durchschnittlichen europäischen Strompreise für Industrieabnehmer
                 (Verbrauch zwischen 2000 und 20.000 MWh/a) im 2. Halbjahr 2013.“…….Seite 186
              Daten aus dieser Abbildung:
              – Dänemark:          24,58 ct/kWh  (Komm.: „wegen ähnlich hoher Steuern plus viel Windkraftanlagen wie auch in Deutschland“)
              – Zypern:                22,30     „
             –  Italien:                  17,90    „
             –  Deutschland:       16,89    „
             . . . . . . . . . . . . . . . . . . . . . . . . . . .
             –  EU Mittel:             12,57    „
             . . . . . . . . . . . . . . . . . . . . . . . . . . .
             –  Bulgarien:               7,57    „

2. Netze                                           

Seite 16

Von insgesamt 1.887 km EnLAG-Leitungen (Netz-Ausbauplan) sind bisher lediglich
438 km (= 23%) realisiert. Pilotstrecken mit Erdkabeln: Null

Planungen:                                                                                                                                Seite 16

2.800 km an Optimierungs- und Verstärkungsmaßnahmen Onshore.
2.650 km Neubauvorhaben

Aufwendungen:

2013 wurden 1.335 Mio Euro für Investitionen und Aufwendungen in die Netz-Infrastruktur von den Übertragungsnetzbetreibern (ÜNB) aufgebracht.
Redispatch-Maßnahmen (Eingriffe des Netzbetreibers zur Stabilisierung des Netzes):
Seite 16

Redispatch-Eingriffe im Jahr 2013: Gem. §13 Abs.1 EnWG: 
Dauer der Eingriffe: 7.965 Stunden  – das entspricht +11 % gegenüber 2012.
An 232 Tagen des Jahres wurden diese Eingriffe durchgeführt.
Die Mengen der Maßnahmen:  4.390 GWh (2013);      4.690  GWh (2012)
Kosten des nationalen Redispatch (Komm.: „für d. ÜNB – und dann in die Netzentgelte“):  132,6 Mio €

Orte der strombedingten Redispatch-Maßnahmen 2012:                                                                     

Hier: auf den am stärksten betroffenen Netzelementen im Jahr 2012
Tabelle 11:  (2012) Seite 73

Netzelement                                         Regelzone                  Dauer (h)   
Remptendorf-Redwitz                    50Hertz/TenneT               1875
Gebiet Lehrte (Umspannwerk)             TenneT                       1080
Wolmirstadt-Helmstedt                        50Hertz                      470
Umspannwerke Pulgar-Vieselbach     50Hertz                         346

Tabelle 13: Gleiche Tabelle für 2013: Seite 75

Gebiet Lehrte                                           TenneT                        2102
Remptendorf-Redwitz                    50 Hertz/TenneT               1581
Gebiet Mecklar                                        Tennet                          629
Gebiet Conneforde                                 TenneT                         607
Bärwalde-Schmölln                                 50Hertz                        359
Vierraden-Krajnik (Polen)                      50Hertz                        346

Komm.: „Die Redispatch-Maßnahmen haben somit 2013 zugenommen und weitere Netzelemente sind im Bereich der zahlreicheren Eingriffe aufgetreten. Die problematischste Schwachstelle im Höchstspannungsnetz ist die Leitung Remptendorf-Redwitz, die es weiterhin witterungsabhängig (!) verhindert, dass das von der Kernkraft-Stilllegung besonders betroffene Süddeutschland ausreichend Strom aus Nord- und Mitteldeutschland erhält. Auf den Wind-Zappelstrom aus Norddeutschland, der die Netzüberlastungen erzeugt,  könnten Baden-Württemberg und Bayern gerne verzichten, nicht aber auf den Strom aus den west- und mitteldeutschen Braunkohlerevieren. Der Ökostrom der Nord-Windmühlen sorgt somit dafür, dass in den durch ihn selbst verursachten Engpaßsituationen  jeglicher  Strom den Süden Deutschlands trotz verzweifelter Redispatch-Eingriffe kaum oder gar nicht erreichen kann. Dafür belastet der Windstrom die Nachbarländer (s.u.) .
Folge: Stromversorgung Süddeutschlands aus dem Ausland unverzichtbar (s.u.).“
Zitat: Seite 77

„Die Leitung Remptendorf-Redwitz gehört weiterhin zu den besonders stark belasteten Netzelementen. Mit einer wesentlichen Entlastung der Situation ist erst nach Komplettierung der Thüringer Strombrücke (EnLAG-Projekt Nr.4) zu rechnen.“

Abregelungen Seite 17

(Abschaltung von Erzeugern): 12.813 MWh bei den EE-Anlagen     
Die Ausfallarbeit durch Einspeise-Management-Maßnahmen nach $11 EEG (2012) (Komm.: „vornehme Bezeichnung der Abschaltung störender PV- oder Windkraftanlagen WKA“) ist um 44% auf 555 GWh gestiegen (0,44% der ges. Erzeugung)
Entschädigungszahlungen dafür lt. EEG: 43,7 Mio Euro  (2012: 33,1 Mio)
– davon 87% für WKA und 12% für PV.                                 
Komm.:  „Auch das geht natürlich in die EEG-Umlage“.

Stromaustausch mit dem Ausland Seite 18

Netto-Überschuß:   32,5 TWh  (2013)
   „              „               21,7   „      (2012)
   „             „                3,0     „      (2011)    

Komm.: „Damals – 2011 – wurde noch kein Strom unter den Gestehungskosten ins Ausland geliefert;  z.T. umsonst oder sogar mit Zuzahlung“.

Exporterlöse  Seite 18

Im Mittel 36,98 €/MWh = 3,7 Cent/kWh

Komm.: „….man vergleiche das mit den Vergütungszahlungen für die kWh EE-Strom.“

3. Netzstrukturen 2013  

Seite 22 

Netzbetreiber                            4  ÜNB               804   Verteilnetzbetreiber              
Stromkreislänge (km)               34.855                      1.763.083
…davon Höchstspannung        34.631                                 348
…   „       Hochspannung                 224                            96.084
…  „        Mittelspannung                   0                           509.866
…  „        Niederspannung                  0                        1.156.785 

Komm.: Es ist zu beachten, dass sich die derzeitige Hauptaktivität beim EEG-verursachten Netzausbau auf die Höchstspannungsebene konzentriert (Betreiber die ÜNB); dass aber  durch die flächig verteilten Wind- und Solarstrom-Einspeiser ernste Überlastungsprobleme allein in den unteren Netzebenen verursacht werden, die sich bei dem von der Regierung geplanten weiteren Ausbau dieser Erzeuger noch verschlimmern werden. Und diese unteren Netze haben eine Länge von zusammen 1,76 Millionen km – dagegen sind die 34.800 km des Höchstspannungsnetzes nur ein kleiner Teil.  Wenn erst diese 1,76 Mio km in ihrer Transportkapazität und in ihrem Regelungsvermögen entsprechend ausgebaut werden sollen, wird es richtig teuer.“

Verteilnetzbetreiber-Anteil nach ihrer Stromkreislänge in %                                 Seite 22
0 – 250 km   :    39 %             501-1000 km : 17 %            4001-8000 km: 3 %
251- 500 km:    24 %            1001-4000 km: 14 %                   > 8000 km: 4 %            

s. Abb.1 

Markt- und Netzbilanz  Seite 23  

Gesamte el. Nettoleistung (GW) Ende 2013:  188,1 GW
…davon nach EEG vergütungsfähig: 78,4 GW = 41,7 %.

Gesamte Netto-Erzeugungsmenge (TWh): 590,8
…davon EEG-vergütungsfähige Erzeugung: 125,7 = 21,3 %

Komm.: „…und das trotz Vorrangs-Einspeisung. M.a.W.: Jedes teuer installierte Kilowatt an EE-Leistung liefert nur die Hälfte des weitaus billigeren installierten Kilowatts in Kohle-, Gas- oder Kernkraftwerken“.
Eine gute grafische Darstellung bietet Abb.7 „Installierte elektrische Erzeugerleistung 
Oktober 2014“ …………………………………………………………………………………………………auf Seite 37.

Neubauten und Stilllegungen von Kraftwerken                                         

Seiten 39, 43 und 54

Von 107,1 GW Erzeugerleistung („nicht erneuerbare“ = konventionelle) sind
3,6 GW vorläufig stillgelegt: Das sind überwiegend Erdgaskraftwerke.                     Bislang wurden bei der Bundesnetzagentur insgesamt 48 wirksame Stilllegungsanzeigen (geplante vorläufige und geplante endgültige) abgegeben. Stand 12.11.2014). Zusammen genommen weisen diese Kraftwerksblöcke eine Netto-Nennleistung i.H.v. 12.815 MW auf.

– Zur endgültigen Stilllegung wurden 32 Blöcke mit 8.051,4 MW angezeigt.             Seite 55
– Davon wurden seitens der ÜNB 11 Blöcke mit 2.697,4 MW als systemrelevant ausgewiesen.
– Für weitere 6 Blöcke mit 1.895 MW steht die Systemrelevanz-Ausweisung der ÜNB noch aus.
Reservekraftwerke, die nur auf Aufforderung des ÜNB betrieben werden: 2,2 GW.

Gegenüberstellung von Neubauten und Stilllegungen    

Seite 43                                                                                            
Eine sehr informative Darstellung bieten die Abb. 11 und Abb.12 (letztere für Süddeutschland) für die Jahre 2014 – 2018.
Abb.11. „Aufnahme kommerzielle Stromerzeugung / Endgültige Stilllegung von dargebotsunabhängigen (konventionellen) Kraftwerken“

Darin Daten:
– Im Bau 6.523 MW (davon „gerade einmal“ 1.108 MW in Süddeutschland)
– aber 11.747 MW  (davon enorme 6.825 MW in Süddeutschland) planen die
  Kraftwerksbetreiber bis 2018 endgültig stillzulegen !
– Das bedeutet: die „dargebotsunabhängige“ Kraftwerkskapazität sinkt demnach um 5.244 MW.

Komm.: „Diese Schätzungen beruhen auf der wohl kaum berechtigten Annahme, daß die überschuldeten Energiekonzerne E.oN, RWE, EnBW und Vattenfall ihre früher einmal geplanten Neubaupläne auch zu 100% umsetzen werden. M.E. eine Illusion. Die Lücke dürfte tatsächlich noch wesentlich größer ausfallen.
Die Bundesnetzagentur verbietet nun reihenweise die angemeldeten Stilllegungen:
– Bei nicht „systemrelevanten“ Kraftwerken: Weiterbetrieb auf Kosten des Betreibers für ein  Jahr.
– Bei „systemrelevanten“ Kraftwerken, zu denen jetzt alle süddeutschen Kraftwerke gehören,   wird die Stilllegung für 3 Jahre verboten (die B.Netz-A  strebt eine Verlängerung dieses Zeitraums an) und für das erste Jahr gibt es wie oben keine Entschädigung. Für die Folgejahre gibt es eine – nach Verhandlungen.
Angesichts der Situation der Betreiber ist damit zu rechnen, daß einige von ihnen ihre zur Stilllegung gemeldeten Kraftwerke ohne Rücksicht auf Verbotsschreiben der B.-Netz-A. doch stilllegen werden – und sich dann die Betreiber verklagen lassen.  Daß es dann tatsächlich Gerichte gibt, die ein Unternehmen per Strafandrohung zwingen wollen , eine eindeutig Verluste produzierende Anlage unter Hinnahme weiterer Verluste weiter zu betreiben, ist zumindest zweifelhaft.
Es gibt da ein Grundgesetz, in dem etwas über den Schutz des Eigentums steht. Ferner sind die Pflichten eines Vorstands gegenüber den Aktionären gesetzlich geregelt – und die passive Hinnahme extern zugefügter Schäden ist diesen nicht erlaubt. Und auf jeden Fall gäbe es Verfahren, das durch alle Instanzen gehen würden. Und in dieser Zeit stünde das Kraftwerk still.
Das Ergebnis könnte sein, daß das Gesetz, nach dem die B. Netz-A. derzeit handelt, also der §13a EnWG, als gesetzwidrig eingestuft wird“.
Bis Anfang Juli 2014 wurden 5 Kraftwerksblöcke mit 668 MW, die zur endgültigen Stilllegung angemeldet waren, als systemrelevant eingestuft.
Diese sind jetzt in den o.g. 2,2 GW Reservekapazität enthalten – und in der Abb.11 nicht berücksichtigt !
Komm.: „Die geplante Stilllegung beträgt demnach 11.747 MW (s.o.) plus 668 MW = 12.415 MW“.
Es könnte sich bis zum 31. Dez. 2018  (Seite 44)

– bundesweit ein negatives Saldo von – 5.224 MW
– und in Süddeutschland  „    „     „   „   – 5.717 MW ergeben.

  Darin sind 4 Kraftwerksblöcke in Süd-D. mit 992 MW als „systemrelevant“ ausgewiesen, die demnach nicht stillgelegt werden (sollten). 
Die o.e. Abb.12 „Aufnahme kommerzieller Stromeinspeisung / Endgültige Stilllegung von dargebotsunabhängigen Kraftwerken“ ist die Darstellung der Neubau/Stilllegungs-Situation in Süddeutschland (d.h. der Raum südlich der Horizontale Frankfurt/Main).
Dazu gehört die oben angeführte Zahl von minus 5.717 MW bis Ende 2018.

4. Versorgungssicherheit 

Seite 52
Zitat:

„Den stärksten Belastungen ist das Übertragungsnetz während des Winterhalbjahres ausgesetzt, wenn häufig hohe Netzlasten und starker Wind mit entsprechend hoher Leistung aus Windkraftanlagen (WKA) in Kombination auftreten. Die niedrigen Temperaturen und die früh einsetzende Dunkelheit tragen zur relativ hohen Last bei. Kommt es gleichzeitig zu hohen Stromeinspeisungen durch WKA in Norddeutschland und zusätzlich zu ungeplanten Kraftwerksausfällen in Süddeutschland, werden die Stromleitungen stark beansprucht. Würden hierbei die technischen Grenzwerte der zulässigen Leitungsbelastung überschritten, dann würden sich die überlasteten Leitungsbestandteile automatisch abschalten, damit Schäden und Zerstörungen an den betroffenen Leitungen vermieden werden. Durch die Abschaltung eines Leitungsbestandteils bahnt sich der Strom einen Weg über die verbliebenen Leitungsbestandteile und verursacht dort wiederum Leitungsüberlastungen, mit der Folge, dass sich auch die zusätzlichen belasteten Leitungen automatisch abschalten.
In der Konsequenz würden diese Leitungsabschaltungen zu Störungen bzw. Unterbrechungen bei der Stromversorgung führen.“

Ein weiteres Zitat:   (Seite 53)

„Es besteht südlich der kritischen Netzregionen, also dort, wo für die Redispatch-Maßnahme die Einspeiseleistung in das Netz erhöht werden muß, ein Defizit an gesicherter Kraftwerksleistung.  Im Süden Deutschlands ist in besonders kritischen Netzsituationen nicht in ausreichendem Umfang Kraftwerksleistung für die ÜNB zur Durchführung von Redispatchmaßnahmen vorhanden.
Vor diesem Hintergrund müssen die ÜNB bereits seit dem Winter 2011/2012 zusätzliche Reservekraftwerke aus dem südlichen Ausland vertraglich beschaffen.“

Komm.: „Im Norden die „kritischen Netzregionen“,
im Süden zu wenig Kraftwerksleistung für die Sicherstellung der Netzsicherheit in „kritischen Netzsituationen“. 
Damit bescheinigen die Autoren des Berichts – zwei Bundesbehörden – speziell der letzten aber auch der jetzigen Regierung eine planlose und verantwortungslose Energiepolitik. Insbesondere die abrupte und ohne jede Notwendigkeit durchgesetzte Abschaltung mehrerer Kernkraftwerke hat zu den zwangsläufigen und bedrohlichen Engpaßsituationen geführt, gegen die die ÜNB in steigender Häufigkeit und mit der deprimierenden Aussicht auf eine weitere Verschlechterung ankämpfen“.
Zitat Nr.3:  Seite 53

„Für den Zeitraum 2015/2016, in dem spätestens Ende 2015 das KKW Grafenrheinfeld vom Netz geht, beläuft sich der Reserveleistungsbedarf auf 6000 MW. Im Zeitraum 2017/2018, der sich durch die Außerbetriebnahme von Grundremmingen B auszeichnet, die spätestens am 31.12.2017 erfolgt, erhöht sich der Netzreservebedarf auf 7000 MW.“

Komm.: „…man wird sehen, ob dafür genügend ausländische Kraftwerke zur Verfügung stehen“.
Zitat Nr.4:   Seite 54

„Große praktische Bedeutung kommt den ausländischen Kraftwerksbetreibern zu, insbesondere aus Italien, Frankreich und Östereich, ohne deren Anlagen der Reservebedarf nicht gedeckt werden könnte.“

Komm.: „Dazu gehören Kohle-, Öl- und Kernkraftwerke (Frankreich), die die gefährlichen Folgen der deutschen Energiewende für Süddeutschland abwenden sollen.  Man nimmt alles, was hilft. Böse sind ja nur die deutschen Kernkraftwerke.
Die bayerische Landesregierung setzt nach neueren Informationen auf mehr Strom aus Östereich und lehnt angesichts des massiven Widerstands der ostbayerischen Bürgerinitiativen die neuen Nord-Süd-Leitungstrassen ab. Die kämen ohnehin viel zu spät, wenn sie überhaupt kämen, und falls sie tatsächlich Wind-Zappelstrom liefern sollten, wäre es für Bayern vollkommen sinnlos. Die eigenen WKA-Ausbaupläne hat Bayern gerade mit der 10-H-Regel zu Grabe getragen; es kann jetzt keinen weiteren WKA-Ausbau mehr geben.

Fazit: Bayern verabschiedet sich stillschweigend von der Energiewende und orientiert sich nach Süden“.

-Reserveleistungsbedarf f.d. Winterhalbjahr 2014/15: 3,1 GW  

Seite 16

                         –davon 2,2 GW deutsche Reserve-Kraftwerke
                         – und  0,9 GW in Östereich und Italien

– Als systemrelevant festgelegt (Komm.: „beantragte Stilllegung verboten“) :

  9 Kraftwerks- Blöcke mit 1.660 MW       

– Zusätzlicher Bedarf wegen des „Streckbetriebs“ des KKW Grafenrheinfeld:

+ 0,5 GW im 1. Quartal 2015

Netzbelastungen im angrenzenden Ausland  

  Seite 113

Komm.: „Ein kleines Lehrstück über die politisch inkorrekte Physik  und die Folgen“                                                              

Zitate:

„Die Richtung des Stromflusses entspricht nicht immer der Handelsrichtung. Der Strom fließt in Richtung des geringsten Widerstands. So fließt er zum Teil durch die Leitungen angrenzender Nachbarländer. Es sind „ungeplante“ Stromflüsse.
Ausgehend vom Norden Deutschlands treten diese ungeplanten Stromflüsse insbesondere in Erzeugungssituationen mit starker Windeinspeisung auf. Innerdeutsche Nord-Süd-Flüsse sowie Handelsflüsse zwischen Deutschland und Östereich nehmen daher teilweise den Weg über Polen und Tschechien bzw. die Niederlande, Belgien und Frankreich.
Um dem zu begegnen, besteht die Möglichkeit, sog. Phasenschieber (PST) zu errichten, die den Stromfluß auf einer Leitung wie mit einem Ventil begrenzen können.
Die Installation von PST hat bereits gute Ergebnisse bei der physikalischen Begrenzung der Transitflüsse durch Belgien geführt.
Allerdings werden die deutschen Netze vor allem in Nord-Süd-Richtung dadurch noch stärker belastet.“

„Die ersten PST werden voraussichtlich Ende 2015/Anfang 2016 an der deutsch-polnischen Grenze installiert. Parallel dazu hat die 50Hertz Transmission GmbH mit dem tschechischen ÜNB CEPS vereinbart, bis Ende 2016 ebenfalls PST an der deutsch-tschechischen Grenze zu installieren und diese koordiniert zu betreiben.“

Komm.: „Was diskret verschwiegen wurde: Die Einrichtung von Phasenschiebern an der deutsch-polnischen Grenze erfolgt auf massiven Druck aus Warschau. Nun werden an zwei Grenzübergängen PST gebaut, wobei sich Deutschland an der Finanzierung beteiligt und dafür einen gemeinsamen dt.-pol. Betrieb der Anlagen zugestanden erhielt. Mit Tschechien ist offenbar das gleiche Verfahren vereinbart worden. In beiden Fällen muss man annehmen, dass die Polen und Tschechen die ungeregelten Stromspitzen, die ihr Netz massiv störten, nicht mehr hinnehmen wollten und mit einer Sperre des Stromaustauschs drohten.
Der Satz „Allerdings werden die deutschen Netze vor allem in Nord-Süd-Richtung dadurch noch stärker belastet“ beschreibt ehrlich die Strafe, die jetzt den Energiewende-Planern für ihren rücksichtslosen Umgang mit den Nachbarländern droht: Wenn mehrere von ihnen (Frankreich und die Schweiz fehlen noch; Östereich will erst einmal viel mehr Geld sehen) als Müllhalde für deutschen Wind- und PV-Überschußstrom ausfallen, wird die Situation im deutschen Netz sehr viel ernster.
Einziger Ausweg: „Einspeise-Management-Maßnahmen“ nach EEG bzw. „Abregeln“ – m.a.W. Abschalten der lästigen Einspeiser  – und natürlich deren Entschädigung gem. EEG.                

Es wird also noch teurer für die Stromkunden.

….und der WKA- und PV-Ausbau geht weiter; für den Klimaschutz“.

6. Gasmarkt

Seite 197

„Gut 10 % des deutschen Gasverbrauchs werden durch inländische Gasförderung gedeckt.

2013 ging die Erdgasproduktion in Deutschland um 1,0 Mrd m3 auf 9,7 Mrd m3 zurück – das entspricht einem Rückgang von 9,3 % gegenüber 2012. Die stetige Abnahme der inländischen Erdgasreserven sowie der Produktion ist im Wesentlichen auf die zunehmende Erschöpfung und Verwässerung der vorhandenen Lagerstätten zurückzuführen.“ 

„Die statische Reichweite der sicheren und wahrscheinlichen Erdgasreserven………..betrug 9,7 Jahre am 1.1.2014 und verringerte sich gegenüber 1.1.2013 um fast ein Jahr.“

Abb.97: Statische Reichweite der deutschen Erdöl- und Erdgasreserven seit 1991…Seite 207

„Das in den Untergrundspeichern maximal nutzbare Arbeitsgasvolumen beträgt               25,45 Mrd m3.“

„Die Importmenge von Gas nach Deutschland ist von 1535 TWh (2012) auf 1778 TWh (2013) um rund 18,8 % gestiegen.“

„Die wichtigsten Bezugsquellen sind die GUS-Staaten; es folgen Norwegen und die Niederlande.  Letztere als Handelsplatz und Anlandepunkt für Flüssiggas und als Verbindung zu den Erdgasquellen in Norwegen und Großbritannien.

Quelle: Monitoringbericht 2014, Bundeskartellamt und Bundesnetzagentur, 14.11.2014;
http://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Allgemeines/Bundesnetzagentur/Publikationen/Berichte/2013/Monitoringbericht_2014_BF.pdf
Dr.-Ing. Günter Keil
Sankt Augustin
1.1.2015