Das Rätsel der Eiszeiten XIV: Konzepte und Daten

January 30, 2014 by scienceofdoom

In früheren Beiträgen haben wir uns die Ideen über die Gründe für die Auslösung und Beendigung von Eiszeiten angesehen – und sie kritisiert. Als Ursache wurde die Einstrahlung in den hohen nördlichen Breiten ausgemacht. Diese Ideen sind bekannt unter dem Label „Milankovitch-Antriebe“. In der Regel habe ich dieses Konzept veranschaulicht, indem ich die Einstrahlungsdaten in bestimmten Breiten und in der einen oder anderen Form geplottet habe.

Die Einstrahlung auf verschiedenen Breiten hängt ab von Schiefe und Präzession (ebenso wie von der Exzentrizität). Schiefe ist die Neigung der Erdachse – die in Zyklen über etwa 40.000 Jahre variiert. Präzession ist die Verlagerung des Punktes der größten Annäherung (Perihel) und wie diese mit dem Sommer auf der Nordhemisphäre zusammenfällt – dies variiert mit einem Zyklus über etwa 20.000 Jahre. Der Effekt der Präzession wird modifiziert durch die Exzentrizität der Erdachse – die in einem Zyklus über etwa 100.000 Jahre variiert. Falls der Erdorbit ein perfekter Kreis wäre (Exzentrizität = 0), dann hätte die „Präzession“ keinerlei Auswirkungen, weil die Entfernung der Erde von der Sonne konstant wäre. Mit zunehmender Exzentrizität wird die Auswirkung der Präzession größer.

Wie kann man dies noch deutlicher machen? Peter Huybers gibt in seiner Studie 2007 eine gute Erklärung für Schiefe und Präzession zusammen mit einigen sehr interessanten Gedanken, die später in einem weiteren Artikel aufgegriffen werden. Die obere Graphik zeigt die mittleren Werte der Einstrahlung pro Breite und Tag des Jahres (über 2 Millionen Jahre). Die zweite Graphik zeigt die Anomalie im Vergleich mit dem Mittelwert zu Zeiten maximaler Schiefe. Die dritte Graphik zeigt die Anomalie im Vergleich zum Mittel zu Zeiten maximaler Präzession. Die Graphen rechts zeigen das jährliche Mittel dieser Werte:
 
Abbildung 1

Wir erkennen sofort, dass Zeiten maximaler Präzession (untere Graphik) kaum Auswirkungen auf die jährlichen Mittelwerte haben (rechte Seite der Graphik). Dies ist so, weil die Zunahme im Sommer und Herbst durch die korrespondierende Abnahme im Frühjahr kompensiert wird. Wir können aber auch sehen, dass Zeiten maximaler Schiefe (mittlere Graphik) TATSÄCHLICH Auswirkungen auf die jährlichen Mittelwerte haben (rechte Seite der Graphik). Die Gesamtenergie verschiebt sich von den Tropen zu den Polen. Ich habe versucht, jedoch nicht sehr effektiv, einiges hiervon (mit zu vielen Graphiken) im Teil V zu erklären:  Part Five – Obliquity & Precession Changes.

Hier folgt nun eine andere Art und Weise, dieses Konzept zu betrachten. Für die letzten 500.000 Jahre habe ich die Schiefe (blau) und Präzession modifiziert durch Exzentrizität (e sin w) (hellgrün) in der oberen Graphik geplottet und zusätzlich in der unteren Graphik die jährliche Anomalie in Abhängigkeit von Breite und Zeit. WordPress zwingt alles in 500 Pixel weite Graphiken, die nicht allzu hilfreich sind. Also klicke man darauf, um die HD-Version zu bekommen:

Abbildung 2 – click to expand

Man kann leicht erkennen, dass die Schiefe-Zyklen über 40.000 Jahre mit Anomalien in hohen Breiten (Nord und Süd) korrespondieren, was über ziemlich viele Perioden hinweg gutgeht. Wenn die Schiefe (blau) hoch ist, gibt es in den hohen Breiten der Nord- und Südhemisphäre eine Zunahme der jährlichen mittleren Einstrahlung. Falls wir die Präzession (grün) betrachten, sehen wir keine korrespondierende Änderung des jährlichen Mittels (weil die Zunahme in einer Jahreszeit zumeist durch die Abnahme in der anderen Jahreszeit kompensiert wird). Huybers Studie enthält noch viel mehr als das, und ich empfehle ihre Lektüre. Er verfügt über eine globale Proxy-Datenbasis über 2 Millionen Jahre, die nicht abhängig ist von „orbitalem Tuning“ (Anmerkung 1) und eine interessante Erklärung und Demonstration der Schiefe als dem dominanten Faktor bei der „Steuerung“ der Eiszeiten. Wir werden auf seine Darlegungen zurückkommen.

In der Zwischenzeit habe ich verschiedene Datenquellen gesammelt. Eine große Herausforderung bzgl. des Verständnisses von Eiszeiten ist, dass die Graphiken es in den verschiedenen Studien nicht zulassen in die interessierende Zeitperiode hineinzuzoomen. Ich gedachte, dem abzuhelfen, indem ich die Daten zur Verfügung stelle – und die Daten in High Definition vergleiche anstatt in Schnappschüssen von 800.000 Jahren auf einer halben Breite eines Standard-pdf. Es ist ein laufender Prozess. Die obere Graphik (unten) enthält zwei Versionen von Temperatur-Proxys. Eine ist Huybers globale Proxy aus dem Eisvolumen (δ18O) aus Tiefsee-Bohrkernen (olivgrün), während die andere eine lokale Proxy für die Temperatur (δD) aus dem antarktischen Eisbohrkern Dome C (75°S, blau) ist. Diese Örtlichkeit ist allgemein bekannt als EDC, d. h. EPICA Dome C. Die beiden Datensätze werden in den ihnen eigenen Zeitmaßstäben gezeigt (mehr zu Zeitmaßstäben weiter unten):

 

 Abbildung 3 – click to expand

Die mittlere Graphik zeigt CO2 (blau) und CH4 (grün) aus Dome C. Es ist erstaunlich, wie eng CO2 und CH4 mit den Temperatur-Proxys und untereinander zusammenhängen. (Die CO2-Daten stammen von Lüthi et al. 2008 und die CH4-Daten von Loulerge et al. 2008). Die untere Graphik zeigt die Schiefe (rot) und die jährliche Einstrahlungs-Anomalie (blau) im Breitenmittel zwischen 70°S und 90°S. Weil wir hier die jährliche Einstrahlungs-Anomalie betrachten, ist dieser Wert vollständig in Phase mit der Schiefe. Warum sind die beiden Datensätze in der oberen Graphik außer Phase? Noch weiß ich darauf keine vollständige Antwort. Offensichtlich ist die Verzögerung von der Atmosphäre in die Tiefsee ein Teil der Erklärung.

Hier folgt nun ein 500.000 Jahre-Vergleich von LR04 (Lisiecki & Raymo 2005) und Huybers Datensatz – beides Tiefsee-Bohrkerne – aber LR04 verwendet „orbitales Tuning“. Die zweite Graphik enthält Schiefe & Präzession (modifiziert durch Exzentrizität). Die dritte Graphik zeigt EDC aus der Antarktis:

 
  Abbildung 4 – click to expand

Jetzt zoomen wir auf die letzten 150.000 Jahre mit zwei antarktischen Eisbohrkernen in der oberen Graphik und NGRIP (Nordgrönland) in der unteren Graphik:

   Abbildung 5 – click to expand

Und hier nun sehen wir EDML (hochaufgelöster Antarktis-Bohrkern) im Vergleich zu NGRIP (Grönland) während der letzten 150.000 Jahre (NGRIP reicht nur 123.000 Jahre zurück) plus CO2 & CH4 aus EDC – erneut zeigt sich die enge Korrespondenz von CO2 und CH4 mit den Temperaturaufzeichnungen in beiden Polargebieten:


 Abbildung 6 – click to expand

Der Vergleich und der Bezug zu „abrupter Klimaänderung“ in Grönland und der Antarktis wurde von EPICA 2006 thematisiert (man beachte, dass die Zeitskala in entgegen gesetzter Richtung zu den Graphiken oben verläuft).

Bildinschrift: Aufzeichnungen stabiler Isotope in der Antarktis zeigen synchrone tausendjährige Variationen während der letzten Eiszeit, während rapide Variationen in Grönland auftraten. a) EDML  δ18O-Aufzeichnung (violett, Auflösung 0,5 m; Grau: 15 m gleitendes Mittel) nach der Korrektur von Meeresspiegel und stromaufwärts (siehe ergänzende Information) während der letzten 150.000 Jahre. Die Isotopen-Aufzeichnung zeigt Eigenarten ähnlich denen von EDC12 (blau) und Dome F13 (rosa), aber mit feinerer Struktur während MIS3 und MIS4. Wir bemerken, dass EDML und EDC geplottet sind im neuen allgemeinen EDC3-Zeitmaßstab (siehe ergänzende Information) während Dome F geplottet ist in seinem individuellen Zeitmaßstab. Die Temperaturachse auf der rechten Seite zeigt angenäherte Bodentemperaturen bei EDML, wie abgeleitet aus dem räumlichen Gradienten zwischen  δ18O und Temperatur. b) δ18O-Aufzeichnung des NGRIP-Eisbohrkerns (grau). c) Staubaufzeichnung en der Eisbohrkerne EDML (rot) und EDC12 (rosa) in einer Auflösung von 1000 Jahren; diese Staub-Aufzeichnungen wurden benutzt für die zeitliche Synchronisation der Bohrkerne.

aus EPICA 2006
Abbildung 7 – click to expand

Zeitmaßstäbe

Wie die meisten Studien einräumen, ist der Zugang zu Daten der genauesten „hypothesenfreien“ Zeitmaßstäbe der Heilige Gral der Eiszeit-Analyse. Allerdings gibt es keine hypothesefreien Zeitmaßstäbe. Aber es gab inzwischen viele Fortschritte. Huybers Zeitmaßstab basiert primär auf a) Sedimentierungs-Modellen, b) dem Zusammenbinden der verschiedenen identifizierten Zeitpunkte der Anfänge und Beendigungen für jede einzelne Proxy und c) der unabhängig datierten Brunhes-Matuyama-Umkehrung vor 780.000 Jahren. Der Zeitmaßstab von EDC (EPICA Dome C) basiert auf einer Vielfalt von Altersmarkierungen:

●Für die ersten 50.000 Jahre mit der Verbindung der Daten mit Grönland (via hoher Auflösung von CH4 in beiden Aufzeichnungen), die nach Schichten gezählt werden können, infolge viel höheren Niederschlags.

●Vulkanausbrüche

●10Be-Ereignisse (Be10 ist ein kosmisches Isotop, red. Anmerkung), die unabhängig datiert werden können

●Eisfluss-Modelle – wie Eis unter Druck fließt und komprimiert wird

●und schließlich „orbitales Tuning“

EDC2 war der Zeitmaßstab, mit dem die Daten im bahnbrechenden 2004 EPICA-Paper präsentiert worden sind. Diese 2004 Studie zeigte den EDC-Bohrkern zurück bis 800.000 Jahre (davor war der Vostok-Bohrkern am längsten, der 400.000 Jahre zurückreichte). Die EPICA 2006-Studie war dann der Dronning Maud Land Core (EDML), der einen kürzeren Zeitraum abdeckte (150.000 Jahre), jedoch mit höherer Auflösung, was eine bessere Abstimmung zwischen der Antarktis und Grönland ermöglichte. Dies führte schließlich zu dem verbesserten EDC3-Zeitmaßstab.

In einer technischen Studie zur Datierung zeigen Parannin et al. 2007 die Unterschiede zwischen EDC3 und EDC2 und auch zwischen EDC3 und LR04.

 

 Abbildung 8 – Click to Expand

Falls man also Daten hat, muss man den Zeitmaßstab kennen, in dem sie geplottet sind. Ich verfüge über den EDC3-Zeitmaßstab hinsichtlich Eisbohrkern-Tiefe, so dass ich als Nächstes die EDC-Temperatur-Proxy (δD) von EDC2 auf EDC3 bringen werde. Ich habe auch Staubwerte bzw. Eisbohrkern-Tiefen für den EDC-Bohrkern – Staub als eine weitere faszinierende Variable, die zum Höhepunkt von Eiszeiten etwa 25 mal stärker ist im Vergleich zu Zwischeneiszeiten – all dies erfordert die Konversion zum EDC3-Zeitmaßstab. Andere Daten enthalten u. A. noch weitere atmosphärische Komponenten. Dann verfüge ich über die NGRIP-Daten (Nordgrönland), die 123.000 Jahre zurückreichen, allerdings im ursprünglichen Zeitmaßstab von 2004, der dann in den GICC5-Zeitmaßstab übergeführt wurde. Mitte 2013 wurde schließlich ein neuer antarktischer Zeitmaßstab vorgeschlagen – AICC2012 – der alle antarktischen Bohrkerne in einen gemeinsamen Zeitmaßstab zusammenführt. Siehe Referenzen unten.

Conclusion

Dieser Artikel sollte Schiefe und Präzession in einer anderen und hoffentlich nützlicheren Weise beleuchten und am Anfang einige Daten in hoher Auflösung zeigen.

References

Glacial variability over the last two million years: an extended depth-derived agemodel, continuous obliquity pacing, and the Pleistocene progression, Peter Huybers, Quaternary Science Reviews (2007) – free paper

Eight glacial cycles from an Antarctic ice core, EPICA community members, Nature (2004) – free paper

One-to-one coupling of glacial climate variability in Greenland and Antarctica,  EPICA Community Members, Nature (2006) – free paper

High-resolution carbon dioxide concentration record 650,000–800,000 years before present, Lüthi et al, Nature (2008)

Orbital and millennial-scale features of atmospheric CH4 over the past 800,000 years, Loulergue et al, Nature (2008)

A Pliocene-Pleistocene stack of 57 globally distributed benthic D18O records, Lorraine Lisiecki & Maureen E. Raymo, Paleoceanography (2005) – free paper

The EDC3 chronology for the EPICA Dome C ice core, Parennin et al, Climate of the Past (2007) – free paper

An optimized multi-proxy, multi-site Antarctic ice and gas orbital chronology (AICC2012): 120–800 ka, L. Bazin et al, Climate of the Past (2013) – free paper

The Antarctic ice core chronology (AICC2012): an optimized multi-parameter and multi-site dating approach for the last 120 thousand years, D. Veres et al, Climate of the Past (2013) – free paper

Anmerkungen

Anmerkung 1 – See for example Thirteen – Terminator II, under the heading What is the basis for the SPECMAP dating? 

It is important to understand the assumptions built into every ice age database.

Huybers 2007 continues the work of HW04 (Huybers & Wunsch 2004) which attempts to produce a global proxy datbase (a proxy for global ice volume) without any assumptions relating to the “Milankovitch theory”.

Link: http://scienceofdoom.com/2014/01/30/ghosts-of-climates-past-fourteen-concepts-hd-data/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/

Teil XIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiii-terminator-ii/




Offshoretechnik im Vergleich

In diversen Gutachten sind geplante Erzeugungskapazitäten und Jahresenergieproduktion zu finden.
Hier wird beispielhaft auf das SRU-Gutachten von 2011 Bezug genommen.

SRU Sondergutachten Wege zur 100% erneuerbaren Energieversorgung

Sondergutachten Januar 2011

Tabelle 0:  Auszug aus dem SRU Gutachten 2011
Auf den nächsten Seiten, will ich überprüfen, ob dieses angestrebte Ziel auch erreicht wird oder erreicht werden kann.
Seit dem Jahr 2013 werden auch die Ganglinien der in der Ostsee installierten Anlagen veröffentlicht.
(http://www.netztransparenz.de/de/Online_Hochrechnung_Wind_Offshore.htm)
Seit 2011 ist der Windpark Baltic 1 mit 21 Anlagen Siemens SWT-2.3-93  a 2,3MW in Betrieb.  Dieser Windpark ist mittels einer 160kV Drehstromleitung, über das Umspannwerk Pasewalk,  mit dem  Netz von 50Hertz verbunden.
Tabelle 1 zeigt die Einspeisung der Windenergieanlagen in der Ostsee. Die Einspeisung aus Ganglinien ergibt sich aus der Summierung der Stundenwerte aus der Grafik in Bild 01

Jahr

Einspeisung aus Ganglinien

Einspeisung Jahresmeldung §52 EEG

Volllast-stunden

Volllast-stunden-äquivalent

2010

 

 

 

 

2011

 

124.950 MWh

3.529 h/a

40,3%

2012

 

206.492 MWh

4.275 h/a

48,8%

2013

193.091 MWh

192.513 MWh

3.986 h/a

45,5%

2014

193.830 MWh

 

4.137 h/a

47,23%

Tabelle 1:  Jahreszahlen der Windenergie Offshore in der Ostsee
Die Differenzen zwischen Ganglinie und Jahresmeldung sind von mir bewusst eingestellt. 
Das zur Tabelle 1 gehörende Bild 1 zeigt den Verlauf der Einspeisung in der Ostsee. Man erkennt ein sehr starke Fluktuation zwischen voller Einspeiseleistung und einer Einspeisung nahe Null. In Anlehnung an eine Sägezahnspannung nenne ich diese Anlagen Stromlückengeneratoren.
 
Bild 1 Einspeisung Windenergie Offshore in der Ostsee (50Hertz)
Betrachtet man die Situation der Offshoreanlagen in der Nordsee, so zeigt sich ein wesentlicher Unterschied zu der Situation in der Ostsee. Die Windparks in der Nordsee sind über sogenannte HGÜ-Kabel mit dem Festland verbunden. (HGÜ = Hochspannungs-Gleichstrom-Übertragung) Wie man aus der Presse entnehmen konnte, hatte TenneT  Probleme mit HGÜ-Technik eingeräumt. Dies schlägt sich auch in den veröffentlichten Zahlen nieder.

Abweichung Jahresmeldung zu Ganglinie

Jahr

Einspeisung aus Ganglinien

Einspeisung Jahresmeldung §52 EEG

Volllast-stunden

Volllast-stunden-äquivalent Jahresmeldung

Volllast-stunden-äquivalent Ganglinie

3,6%

2010

167.753,08

173.738 MWh

3.173 h/a

36,2%

 

1,4%

2011

437.277,00

443.190 MWh

3.608 h/a

41,2%

 

10,7%

2012

465.224,75

515.158 MWh

2.837 h/a

32,4%

 

0,01%

2013

712.205,25

712.305 MWh

2.007 h/a

22,9%

 

 

2014

1.019.938,75

 

1.761 h/a

 

20,1%

Tabelle 2a:  Jahreszahlen der Windenergie Offshore in der Nordsee
Die Differenzen zwischen Ganglinie und Jahresmeldung sind von mir bewusst eingestellt.

Tabelle 2b  Anzahl und Leistung der Windenergieanlagen in der Nordsee

Bild 2 Einspeisung und Leistung Windenergie Offshore in der Nordsee (TenneT)
Die errechnete Leistungsäquivalent zeigt zur Zeit einen negativen Trend für die Offshoretechnik in der Nordsee.
 
Bild 3 Leistungsäquivalent  Windenergie Offshore in der Nordsee (TenneT)
Hier zeigt sich, dass die Nordseeanlagen (rote Flächen) bei weitem nicht die von ihnen erwartete Energielieferung erbringen, wie die Anlagen in der OStseee ( blaue Flächen). Woran dies liegt, kann ich nicht beurteilen, da mir die entsprechenden Informationen fehlen. Gleichzeitig erkennt man die Charakteristik der Lücken zwischen den Einspeisungen, die  einer Grundlastfähigkeit nicht entsprechen. ( Stromlückengenerator)

Bild 4:  Leistungsäquivalent Offshoreanlagen Ostsee und Nordsee
Schaut man sich die letzten beiden Monate im Jahr 2014 der Nordseeanlagen näher an, so zeigt sich, dass es Probleme mit einzelnen Anlagen, als auch mit den Gleichrichterstationen zu geben scheint.
Die rote Linie 1 deutet daruf hin dass sich anscheinend komplette Windparks aus der Stromproduktion verabschiedet haben. 
Die rote Linie 2 zeigt, dass einzelne Windmühlen auf Störung gegangen sind. Da diese aber in der stürmischen Nordsee stehen, wird es mehr Zeit in Anspruch nehmen, bis die Störungen von  Wartungspersonal behoben werden können.

Bild 5:  Leistungsäquivalent Offshoreanlagen Nordsee
Legt man zusätzlich die Ganglinie der Onshoreanlagen auf die Offshoranlagen, zeigt sich, daß man Frau Höhn empfehlen sollte, ihre Mathematikkenntnisse aufzufrischen. (Irgendwo weht immer Wind)

Bild 6:  Leistungsäquivalent Offshoreanlagen Ostsee und Nordsee sowie Onshore von TenneT
Zum Schluß mache ich einen Faktencheck der  SRU-Prognose, die wiederum als sehr ambitioniert bezeichnen werden kann.

Tabelle 3:  Auszug aus dem SRU Gutachten 2011


Tabelle 4  Nachrechnungen auf die Tabelle 3 mit Zahlen des Jahres 2014
Fazit:
Man sollte über ein eigenes Stromaggregat nachdenken.




Heiße Eisen, kalte Logik

Unter der Annahme, es wird weniger schlimm als die Vier apokalyptischen Reiter, wie ernst wird sich der Klimawandel wirklich auswirken? Wie viel wissen wir über diese Auswirkungen? Welche Implikationen für die Politik ergeben sich daraus?
Es ist an dieser Stelle angebracht, sich daran zu erinnern, dass Klimawandel viel mehr ist als nur unterschiedliche Temperaturen. Er bedeutet auch mehr oder weniger Regen, Schnee, Wind und Wolken an verschiedenen Orten. Er bedeutet unterschiedliche Auswirkungen auf Pflanzen, entweder direkt – weil Pflanzen um Nährstoffe kämpfen – oder indirekt. Er bedeutet Änderungen für Tiere, die diese Pflanzen fressen. Und dies wiederum schließt Änderungen von allem ein, was von diesen Pflanzen und Tieren lebt. Natur, Land- und Forstwirtschaft sowie Gesundheit werden in Zukunft anders sein. Der Meeresspiegel wird steigen, wenn sich das Wasser ausdehnt und Gletschereis schmilzt, was Küstenlinien betrifft sowie alles und jedes, das dort lebt. Die Wasserversorgung wird betroffen durch sich ändernde Verteilungen von Niederschlag, aber der Wasserbedarf wird sich auch verändern infolge sich ändernder Temperaturen. Der Energiebedarf wird sich ebenfalls verändern; möglicherweise braucht man weniger, um im Winter die Häuser zu heizen und vielleicht mehr, um sie im Sommer zu kühlen. Verkehr, das Transportwesen, Gebäude, Freizeit und Tourismus werden ebenfalls alle die Auswirkung eines sich ändernden Klimas verspüren.
Für Einige ist die bloße Existenz dieser Auswirkungen Grund genug für Regierungen, Industrien und Individuen, sich selbst zu verpflichten, Treibhausgas-Emissionen zu reduzieren, um die Änderung zu minimieren. Das ist allerdings eine merkwürdige Logik. Schließlich kann sich Änderung zum Besseren oder zum Schlechteren auswirken, und in jedem Falle ist Änderung unvermeidlich: Es gab noch nie eine längere Periode mit einem statischen Klima.
Genauso wie es keine logische oder wissenschaftliche Grundlage für das Denken gibt, dass Klimawandel etwas Neues ist, gibt es keinen Grund für die Annahme, dass das Klima der Vergangenheit „besser“ war als das Klima der Zukunft. Mit genau der gleichen Unlogik können wir annehmen, dass die Rechte von Frauen, Gesundheitsfürsorge oder Bildung in der Vergangenheit besser waren. Jede derartige Beurteilung widerspricht auch dem Hume’schen Gesetz [hier bei Wikipedia steht, was das ist] und, schlimmer noch vielleicht, basiert auf einem trügerischen Verständnis von Natur in einer sehr verzerrten Sichtweise.
Es gibt keinen Grund für die Annahme, dass irgendein Klima der Vergangenheit besser war als das voraussichtliche zukünftige Klima. Das Klima des 21. Jahrhunderts kann gut und gerne ohne Beispiel in der Historie der menschlichen Zivilisation sein; aber auch die Anzahl der Menschen, die in Ländern mit freien und fairen Wahlen leben, ist ohne Beispiel. Na und? „Beispiellos“ ist doch kein Synonym für „schlecht“!
Andere argumentieren, dass die Auswirkungen des Klimawandels großenteils unbekannt sind, aber katastrophal sein können. Das Vorsorgeprinzip schreibt uns deshalb vor, dass wir hart arbeiten sollten, um nicht zu sagen, wir sollten unser Möglichstes tun, um selbst die geringe Wahrscheinlichkeit einer Katastrophe zu vermeiden. Diese Logik ist für einseitige Risiken sehr angebracht: Wir verbannen Krebs erzeugende Materialien aus Spielzeug, weil wir nicht wollen, dass unsere Kinder Krebs bekommen. Sichere Materialien sind nur wenig teurer, und es ist unwahrscheinlich oder schlicht nicht vorstellbar, dass es „Vorteile“ gibt, wenn Kinder Krebs haben. Bei der Klimapolitik andererseits geht es um das Ausbalancieren von Risiken, und hier gibt es Risiken hinsichtlich der Klimapolitik genauso wie hinsichtlich des Klimawandels. Ein scharfer Anstieg der Energiepreise hat beispielsweise in der Vergangenheit verheerende wirtschaftliche Rezessionen ausgelöst. Billige Energie war Lebenssaft für die industrielle Revolution, und fehlender Zugang zu zuverlässiger Energie ist einer der Faktoren, der wirtschaftliches Wachstum in den meisten Entwicklungsländern behindert. Kurzfristig sind wir von fossilen Treibstoffen abhängig, um uns warm zu halten und unsere Lichter nicht verlöschen zu lassen oder unsere Nahrungsmittel anzubauen und unser Trinkwasser zu klären. Es geht also massiv auf die menschliche Gesundheit, wenn man den Verbrauch fossiler Treibstoffe behindert.
Was bedeutet das? Es bedeutet, dass wir, anstatt das Schlimmste anzunehmen, die Auswirkungen des Klimawandels sorgfältig untersuchen und danach trachten sollten, diese gegen die negativen Auswirkungen der Klimapolitik abzuwägen. Klimatologen und Ökonomen haben dies auch jahrelang getan, aber ihre Bemühungen sind überschattet durch die Hysterie der Grünen und der Linken sowie der subtileren Lobbyarbeit von Unternehmen, die nach den Subventionen für Erneuerbare und andere Darreichungen der Regierung gieren. Besonders wichtig ist eine Objektive für den Ausgleich zwischen möglichen Gefahren und den Kosten der Politik, weil sich die Abschätzung der Klimawandel-Auswirkungen als bemerkenswert schwierig erwiesen hat. Klimawandel der Vergangenheit sind kein guter Maßstab. Das Klima hat sich wahrscheinlich während des vorigen Jahrhunderts viel weniger geändert als es für dieses Jahrhundert projiziert wird, aber die globale mittlere Temperatur hat sich während der letzten zwei Jahrzehnte kaum verändert – und dies ist der Zeitraum mit den besten Daten, in der fast alle Studien zu Auswirkungen des Klimawandels durchgeführt worden waren.
Full post
Link: http://www.thegwpf.com/richard-tol-hot-stuff-cold-logic/
Übersetzt von Chris Frey EIKE




Katholizismus und Umweltaktivismus

Bild rechts: Solarpaneele auf dem Dach der Audienzhalle von Papst Paul VI. Photo vom Dezember 2010. Quelle: CNS photo/Paul Haring
Christlichem Glauben zufolge ist es notwendig, „Respekt für die Integrität der Schöpfung“ zu zeigen (CCC 2415) und die Ressourcen der Erde mit Bedacht zu nutzen, aber dieser Glaube sagt uns nicht, ob spezifische Umweltinitiativen moralisch überzeugend sind.
Umweltaktivismus ist häufig eine Sache von Wissenschaft und Ideologie. Nicht selten, wenn jemand einer von Umweltaktivisten inbrünstig verfochtenen These nicht folgt, wird man als „Wissenschaftsleugner“ gebrandmarkt. Ironischerweise verstehen viele von denen, die ihre Gegner unbekümmert als „Wissenschaftsleugner“ verunglimpfen, selbst nicht die zugrunde liegende Wissenschaft.
Als Ingenieur und Wissenschaftler mit über 30 Jahren Berufserfahrung, der Umweltingenieur-Themen gelehrt hat und der es liebt, Geschichte zu erklären, habe ich meinen Anteil an schlechter Wissenschaft und schlechten Daten gesehen (traurigerweise bin ich selbst hier gelegentlich schuldig geworden). Ich habe verinnerlicht, dass während wir uns auf Daten verlassen müssen, ein ehrlicher Skeptizismus hinsichtlich der Daten ein wichtiger Aspekt der wissenschaftlichen Methode ist. Bei vielen Gelegenheiten haben Wissenschaftler und Experten einen Konsens zu etwas erreicht, das sich im Nachhinein als falsch erwiesen hat. Wie Matt Ridley in einem Artikel im Wall Street Journal im Jahre 2013 geschrieben hat: „In der Wissenschaft geht es um Beweise, nicht um Konsens“. Ich stimme Mr. Ridley zu, mich interessiert kein Konsens, egal wie leidenschaftlich oder moralisch entrüstet. Ich will Daten und Beweise sehen.
Objektive Kriterien, saubere Daten
Hier folgt ein Beispiel. Es gibt Hunderte, wenn nicht Tausende Artikel und Anweisungen, die uns davor warnen, dass unsere Umwelt Angriffen ausgesetzt ist und sich deren Zustand verschlechtert – wie kann da noch irgendjemand behaupten, dass Amerikas Umwelt sauberer ist als seit über 100 Jahren? Ich kann und tue das auch, und zwar mit folgenden Beweisen auf der Grundlage dieser Kriterien: Krankheiten durch Wasserverunreinigungen, Niveau der Verschmutzung von Wasser und Luft, Habitaten, technologischer Innovation und sensorischer Beweise.
Ende des 19. und Anfang des 20. Jahrhunderts sowie noch bis in die zwanziger Jahre desselben sind Tausende in amerikanischen Städten an Typhus erkrankt. Krankheiten infolge verunreinigtem Trinkwasser sind in den USA praktisch ausgerottet, und zwar so sehr, dass die meisten Amerikaner die Unbedenklichkeit ihres Trinkwassers voraussetzen. In einer Zeit, in der wir jetzt Verschmutzer in parts per Billion oder sogar in parts per trillion entdecken und messen können, denken viele, dass wir immer mehr Verschmutzer freisetzen. Im Gegenteil, die Qualität geklärter Abwässer und das Wasser von Flüssen, Seen und Strömen hat sich stetig verbessert, belegt durch Messungen eines signifikant niedrigeren Niveaus von Verschmutzern. Einige Klärwerke lassen Wasser in die Flüsse fließen, das sogar eine noch bessere Qualität hat als der Fluss selbst.
Thema Luftqualität: es gibt effizientere Verbrennungsprozesse, weniger verschmutzende Reste von Verbrennung und eine bessere Technologie zur Luftreinhaltung. Dann gibt es da Habitate für Fische und Wildtiere. In einem Artikel in den Detroit News aus dem Jahr 2010 heißt es: „Von Weißkopfadlern bis zu See-Stören verzeichnen natürliche Flora und Fauna eine dramatische Rückkehr an Stellen, die man für höchst unwahrscheinlich hält: Die Wasser und Ufer des Detroit Rivers… Nach Jahrzehnte langen Bemühungen, die schmutzige Vergangenheit des Detroit River zu bekämpfen, sind inzwischen viele Fisch- und Vogelspezies in das Flussbett zurückgekehrt. Die aufstrebende Fischadler-Population wird begleitet von einer zunehmenden Zahl von Zandern, See-Stören und Renken ebenso wie von Vogelarten wie dem Weißkopf-Seeadler und dem Wanderfalken. Wir reden über Detroit, einst die produzierende Hauptstadt der Welt und immer noch ein bedeutendes Produktionszentrum. All dies geschieht überall in der gesamten Nation.
In einem Artikel im Wall Street Journal aus dem Jahr 2014 mit dem Titel [übersetzt] „Der Verknappungs-Trugschluss“ identifiziert Matt Ridley viele Beispiele, in denen Ökologen das Ende der natürlichen Ressourcen der Welt propagierten, obwohl technologische Innovationen diese Grenzen wieder und immer wieder durchbrochen haben. Gegen die beweise aus der Historie glauben Viele, dass ein Problem, wenn wir es heute nicht lösen können, auch im nächsten Jahr und im nächsten Jahrzehnt noch ein Problem ist. Düstere Vorhersagen basieren oftmals auf diesem Irrglauben [gilt das nicht auch z. B. für den deutschen Atom-„Müll“? Anm. d. Übers.]
Faktum: Wir verfügen über die Technologie, von der Toilette zum Wasserhahn zu gehen, falls die psychologische Barriere bewältigt werden kann*. Von Öl- und Gasreserven, die bereits zur Neige gegangen sein sollten, sagt man jetzt voraus, dass sie noch weit in die Zukunft ausreichen werden infolge von Innovationen hinsichtlich Fracking und Schieferöl. Moderne Technologien erlauben es uns, Infrastruktur zu reparieren oder zu ersetzen mit nur minimalen Störungen der Umwelt. Es gibt auch vielfältig sensorische Beweise, dass sich die Umwelt ständig verbessert hat. Einige können sich noch an jene Tage erinnern, als Flüsse und Seen von Ölfilmen bedeckt waren; als mit Kohle betriebene Heizöfen schwarze Wolken über unseren Städten erzeugt haben; als industrielle Abfälle einfach auf freien Plätzen oder in ungesicherten Deponien abgelagert wurden. Diese Umweltbedrohungen wurden in Amerika nahezu eliminiert. Zu vielen dieser Verbesserungen war es aufgrund der Bemühungen überzeugter Umweltaktivisten gekommen.
[*Redewendung: „go from toilet to tap“. Der ganze Satz lautet im Original: „we have the technology to go from toilet to tap, if the psychological barrier can be surmounted“. Ich habe keine vernünftige Übersetzung gefunden. Anm. d. Übers.]
Der Grund, dass diese auf Wissenschaft beruhenden Einschätzungen wichtig sind lautet, dass eine gute Behandlung der Umwelt nicht moralisch überzeugend sein muss, wenn es in Relation zu anderen – hiermit in Konflikt stehenden – Behandlungen evaluiert wird: Tausende Arbeitsplätze; Produkte, die uns gut ernährt, gesund und sicher halten; Eigentumsrechte oder sogar andere gute, aber sich widersprechende Umweltbehandlungen wie Null-Wasserverbrauch oder der niedrigste Kohlenstoff-Fußabdruck.
Ideologie zurückweisen, Ausgleich finden
Die Ideologie Vieler in der Umweltbewegung gehört auch untersucht. Es gibt ein quasi religöses und besonders bösartiges Element in der Umweltbewegung, für das, wie es das Journal beschreibt, „der Klimawandel zu einer fetischartigen kulturellen Angelegenheit geworden ist wie Abtreibung und Hochzeiten zwischen Gleichgeschlechtlichen… Was zählt ist, dass sie auf der richtigen Seite des kulturellen und politischen Symbolismus‘ stehen“.
Ohne auf das komplexe Thema Klimawandel einzugehen zeige ich, dass der Umweltaktivismus für Viele zu einem moralischen Magneten geworden ist, in dem Fakten, Daten und Beweise von sekundärer Bedeutung sind. Unter diesen lautstarken Aktivisten findet man die Leitmotive dafür, dass die Menschheit – einen nicht nachhaltigen Kohlenstoff-Fußabdruck hinterlassend – eher eine Bedrohung ist als ein transzendentes Geschöpf; dass der Mensch keine größere legale oder ethische Statur als irgendein anderes Tier hat; dass chaotische freie Märkte Umweltbedrohungen sind; dass Staaten oder Regierungsorganisationen mit Leuten, die es besser wissen, eine ökonomische Umwelt- und Energiepolitik etablieren sollten; kurz gesagt, eine materialistische Interpretation der Beziehung zwischen Mensch und Planet. Und damit wir nicht glauben, dass diese Motive auf den radikalen Flügel begrenzt sind, finden einige dieser Grundthesen Eingang in den Mainstream-Umweltaktivismus.
Gäbe man diesen Bewegungs-Aktivisten freie Hand, würde deren Energie- und Industriepolitik uns zurück zu Frieren im Winter und Rösten im Sommer bringen, und Verhungern durch Mangel von Nahrungsmitteln und pharmazeutischen Produkten zur Bekämpfung von Krankheiten wären an der Tagesordnung. Noch wichtiger, das katholische Konzept der Menschheit verursacht mit dieser Ideologie oder Quasi-Religion eine gewalttätige Zerstörung. Die Arbeit des Menschen und seine Würde sollten sich nicht der natürlichen Welt unterordnen, was alles andere heißt als zu sagen, dass der Mensch in der Lage sein sollte, die Natur zu vergewaltigen, um seine Bedürfnisse zu befriedigen. Die richtige Balance wird erreicht, wenn der Mensch an Werte glaubt, so dass er sich verantwortungsbewusst verhält in Beziehung zur Umwelt. Traurigerweise betrachtet das materialistische Dogma, das viele dieser Aktivisten an den Tag legen, Werte und sogar Vernunft als bloße menschliche oder gesellschaftliche Konstrukte.
Es ist wichtig in Erinnerung zu rufen, dass die Katholiken bahnbrechende Arbeiten in den Wissenschaften durchgeführt haben. In einem vor kurzem erschienenen Artikel im Magnificat mit dem Titel „The Church and the Beginning of It All” schreibt Anthony Esolen über den Jesuitenpriester George Lemaitre, der zum ersten Mal die Big Bang-Theorie angesprochen hatte (und damit Einstein überzeugte) und den Mönch Gregor Mendel, der als der Vater der Genetik betrachtet wird. Ich habe mit einem gewissenhaften katholischen Ingenieur mit einer ausgeglichenen Umweltperspektive zusammengearbeitet, der mehr als jeder andere in der Welt weiß zum Thema selbständige Wasser/Abwasserbehandlung. Viele Katholiken scheinen sich der Anzahl hoch geschätzter katholischer Wissenschaftler nicht bewusst zu sein. Ernste und überzeugte Katholiken begrüßen fern von jeder Anti-Wissenschaft ehrliche und ethische wissenschaftliche Untersuchungen, während sie gleichzeitig erkennen, dass die Kompetenz der Wissenschaft sich nicht auf ultimative philosophische Fragen erstreckt.
Mit Sicherheit gibt es heutzutage Umweltthemen, die besorgt machen, selbst in einem saubereren Amerika: invasive Spezies, gelegentliche Ausbrüche von Pathogenen und giftigen Algen in Speichern zur Wasserversorgung, Schäden an Infrastruktur. Aber betrachtet man den von uns zurückgelegten Weg im vorigen Jahrhundert, sind diese Bedrohungen lösbar oder zumindest handhabbar.
Katholiken mit Interesse an der Umwelt sollten versuchen, legitime Wissenschaft von ideologischem Lärm und organisatorischen Selbstinteressen zu trennen; heutzutage keine leichte Aufgabe. Und sie sollten erkennen, dass die Umweltangst des Monats moralisch nicht überzeugend zu sein braucht, aber dieses rationale Vorgehen in Bezug zur Umwelt sollte immer unter dem Vorbehalt stehen, dass dem Menschen die Herrschaft über die Erde gegeben worden ist – Frauen und Männer sind mehr als nur intelligente Tiere – aber man erwartet von uns auch, dass wir gute Verwalter dieser Welt und seiner Ressourcen sind.
Über den Autor:
Thomas M. Doran ist professioneller Ingenieur, außerordentlicher Professor für das Bauingenieurswesen an der Lawrence Technological University und ein Mitglied des College of Fellows der Engineering Society von Detroit. Er ist auch Autor der Beiträge Toward the Gleam, Terrapin und Iota (October 2014), alle veröffentlicht von Ignatius Press.
Link: http://www.catholicworldreport.com/Item/3600/catholicism_and_environmentalism.aspx
Übersetzt von Chris Frey EIKE
Bemerkungen des Übersetzers hierzu: Zwar geht es in diesem Beitrag nicht um Klima oder Energie, sondern um Umwelt. Aber vieles hier Gesagte ist natürlich auch in der Diskussion zu beiden Themen gültig, weshalb ich diesen Beitrag übersetzt habe.
Erst vor Kurzem hat Herr Puls beim EIKE hier zur Haltung der evangelischen Kirche einen ausführlichen und verstörenden Beitrag geschrieben. Hier folgt nun ein Beitrag aus katholischer Sicht. Es war allerdings nicht feststellbar, ob hier eine Einzelmeinung beschrieben wird (wahrscheinlich), oder ob die katholische Kirche etwas bewusster an das Thema Umwelt herangeht.
Nicht einverstanden bin ich jedoch mit der Passage des Autors über die „großen katholischen Wissenschaftler“. Hier hat die katholische Kirche im Mittelalter allergrößte Schuld auf sich geladen, von der sie sich bis heute nicht wirklich distanziert hat. Vor diesem Hintergrund klingen derartige Äußerungen etwas heuchlerisch.
C. F.




Stromautarkie: Schlangenölverkäufer verführt Versuchskaninchen – Die Mär von der Energie- Unabhängigkeit

Erst wenn man in den Artikel hineinliest stellt man fest, dass es hier nicht etwa um die reine Kombination einer Solaranlage und einer billige gewordenen Pufferbatterie geht, sondern um eine sehr komplexe Installation aus Blockheizkraftwerk, Fotovoltaikanlage, Wechselrichter, Warmwasserspeicher, einer zusätzliche Spitzenlast-Gastherme und jeder Menge komplexer Regeltechnik. Kostenpunkt rund 31.000 €, davon 20.000 für das Blockheizkraftwerk und 6.000 für die Pufferbatterie mit einem Speichervolumen von 4,5 kWh. Dass die Solaranlage nur winzig sein kann, lässt sich aus obigen Zahlen sofort erkennen, denn für die restlichen 5.000 € bekommt man laut Solarrechner.de höchstens ca. 25 qm Kollektorfläche, was für den Ort Kelberg selbst unter optimalen Aufstellbedingungen lediglich einer Leistung von rund 3kWp und einem Jahresertrag von 2.600 kWh entspricht. Es sei denn, an der Story entsprechen neben der Einleitung auch die Preisangaben nicht so ganz hundertprozentig der Wahrheit….
Als Weg zur Energieautarkie mithilfe einer Solaranlage nebst Pufferbatterie – wie das im Artikel auch im weiteren Verlauf als möglich suggeriert wird – ist die Installation der Familie Schmitt völlig ungeeignet. Dies ist in Deutschland wegen der miserablen Nutzungsgrade von Solaranlagen in den Wintermonaten schon allein aus technischen Gründen nicht machbar, wie bereits vor rund einem Jahr in einem Artikel bei EIKE nachgewiesen wurde, siehe Bild 1 [EIKE]. Und trotz des Preissturzes bei Pufferbatterien liegt die hier beschriebene Batterie immer noch bei 1.300 €/kWh und damit um rund 30 % über dem damaligen Rechenansatz. Der ganze Aufsatz ist darauf angelegt, erstmal die Leser mit Schlagworten wie Solar, Batterie und Unabhängigkeit von Stromkonzernen zu locken, aber verkauft wird ihnen dann eine ganz andere Story. Nicht besonders seriös.

Bild 1. Monatliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen im Zeitraum April 2012 bis März 2013 (Daten: [EEX])
In Wirklichkeit geht es um ein Blockheizkraftwerk
Wie schon die Beschreibung der Ausstattung und die Angaben zu den wichtigsten Kostenblöcken erkennen lassen, hat Familie Schmitt als Hauptenergielieferanten für Heizwärme und Strom ein mit Gas betriebenes sogenanntes Blockheizkraftwerk (BHKW) Typ Vaillant EcoPower 1.0 gekauft. Dies ist im Prinzip ein System zur Kraft-Wärme-Kopplung, bei dem die Abwärme des Stromerzeugers für Heizung und Warmwasser genutzt wird. Die nicht sofort benötigte Wärme wird in einem Heißwasser-Pufferwärmespeicher vorgehalten, für kalte Tage sowie bei Systemausfall steht eine zusätzliche Spitzenlast-Gastherme bereit. Der erzeugte Strom wird teils selbst verbraucht, teils dank KWKG Vergütung ins Netz eingespeist. Unter optimalen Bedingungen erzielt ein solches System Wirkungsgrade von um die 90 %.
Prinzipieller Nachteil von Blockheizkraftwerken
Der wichtigste Nachteil von Blockheizkraftwerken ist zunächst der, dass ihr optimaler Wirkungsgrad nur dann zur Geltung kommt, wenn die erzeugte Wärme auch wirklich in vollem Umfang benötigt wird. Die Aggregate haben bei der eigentlichen Stromerzeugung nämlich nur einen vergleichsweise bescheidenen Wirkungsgrad. Optimaler Betrieb ist daher in der Regel nur möglich, wenn das Blockheizkraftwerk so gesteuert wird, dass möglichst die gesamte erzeugte Wärme auch genutzt wird. Der Strom ist daher ein zufallsgesteuertes Nebenprodukt, für dass sich dank KWKG erfreulicherweise ein zwangsbeglückter Abnehmer in Form der Allgemeinheit findet, die diesen Strom zusammen mit dem sonstigen Zappelstrom aus Wind- und Solarkraftwerken abnehmen muss, sie mag ihn brauchen oder nicht. Sobald dieser Zwang durch Änderung des EEG bzw. KWKG entfallen sollte, hat man das Problem, den erzeugten Strom auch loszuwerden. Gelingt dies nicht, ist das BHKW als Wärmeerzeuger gegenüber einer modernen Brennwert-Gastherme sogar im Nachteil, denn diese erreicht rund 90 %, während das BHKW ein weitgehend festes Verhältnis von Wärme- zu Stromleistung aufweist. Eine Untersuchung des Lehrstuhls für Energiewirtschaft und Anwendungstechnik der TU München zeigt, dass ein BHKW etwa 65 % der im Gas enthaltenen Energie als Wärme und 25 % in Form von elektrischem Strom liefert [VDE]. Gegenüber einem modernen Gas-und-Dampf-Kraftwerk mit 60 % Wirkungsgrad also ein eher bescheidenes Ergebnis.
Für Laien weniger geeignet
Entscheidender Nachteil einer BHKW-Installation ist die technische Komplexität und die damit verbundene Störanfälligkeit. Das beginnt schon mit der Auslegung, für die ein Qualifikationsniveau erforderlich ist, das den normalen Architekten bzw. Heizungsplaner in erheblichem Maße überfordert. Fehlberatungen sind daher vorprogrammiert. Hinzu kommt, dass diese Systeme Motoren sowie weitere drehende Komponenten wie den Stromgenerator enthalten, die zwangsläufig verschleißen und daher Wartung benötigen. Auch dieser Aufgabe ist der übliche Heizungsmonteur vor Ort nicht immer gewachsen, man benötigt eher Spezialisten, die das System genau kennen. Wenn man sich entsprechende Foren im Internet anschaut [DAER, ERF1, ERF2, ERF3], so findet man darin nicht wenige Beispiele für Anwender, die mit ihren Kleinst-BHKW krachend gescheitert sind oder zumindest teures Lehrgeld bezahlen mussten. Manche Einträge sind recht drastisch: „wer vom neuen markt noch ein paar mücken übrig hat sollte sich mit dem kauf eines (PIEP) entgültig in den ruin treiben würde gerne 2 (PIEP) verschenken neuwertig aber nur an sado maso anhänger finger weg von den scheiß dingern“.
Auf der anderen Seite gibt es jedoch auch etliche positive Stellungnahmen. Allerdings fällt hierbei auf, dass diese überwiegend von Profis kommen, darunter viele ausgesprochene Technikfreaks mit entsprechendem Hintergrund: Handwerker, Techniker, Ingenieure oder auch mal ein Hausmeister mit handwerklicher Begabung. Diese Nutzer sind imstande, ihre Anlagen selbst zu überwachen, verstopfte Filter zu erkennen und zu reinigen, Dichtungen auszutauschen oder die Einstellungen an den Steuerungen bedarfsgerecht zu verändern. Bei vielen dieser Leute hat man den Eindruck, dass sie die Zuneigung zur elektrischen Eisenbahn ihrer Jugend jetzt auf ihr BHKW übertragen haben.
Noch schwieriger wird es, wenn man das BHKW wie im Beispiel von Familie Schmitt mit weiteren „artfremden“ Anlagen kombiniert. Für solche maßgeschneiderten Kombinationen findet man dann im Prinzip niemanden mehr, der das Gesamtsystem in seinem Zusammenspiel und seinen Wechselwirkungen überblickt und die richtigen Reparatur- oder Einstellungsentscheidungen treffen kann. Für normale Zeitgenossen, die kein gesteigertes Interesse an Technik haben, kann sich ein solches System schnell zum Alptraum entwickeln.
Die Autarkie bleibt Utopie
Zu den besonders fiesen Maschen bei solchen Artikeln gehört es, dass der Eindruck erweckt wird, als könne man sich irgendwann vollständig von der Bindung an einen Stromversorger lösen. Nach dem Motto, wenn wir bereits 87 % geschafft haben, werden wir den Rest irgendwann auch noch hinkriegen. Dabei ist gerade das unmöglich, weil man das öffentliche Netz ja braucht, um Subventionen für den überschüssigen Strom zu erhalten. Ohne diese Nabelschnur zu den Versorgern, denen man die eigene Überproduktion jederzeit ungefragt auf’s Auge drücken kann, würden die Finanzierungsmodelle zusammenklappen. Das Ganze funktioniert nur, indem man die Vorteile eines jederzeit verfügbaren öffentlichen Netzes wahrnimmt, die damit verknüpften Kosten jedoch anderen überlässt. Für die Aufrechterhaltung des Netzes und der ständig zuverlässig abrufbaren Vollversorgung lässt man die „dummen anderen“ zahlen. Wer glaubt, dass dies auf Dauer so weitergehen könnte, muss recht blauäugig sein. In Spanien geht das schon nicht mehr: Wer eine Solaranlage betreibt und selbst nutzt, muss dafür die üblichen Tarife bezahlen, es sei denn, er trennt sich völlig vom Netz. Und genau das geht eben nicht bzw. nur in den allerseltensten Fällen, wenn man auf die ständige Verfügbarkeit der Annehmlichkeiten elektrischen Stroms weiterhin Wert legt. Auch in Deutschland hat der Gesetzgeber schon ähnliche Absichten erkennen lassen.
Im Hintergrund lauert der EE-Kannibalismus
Ein grundsätzliches Problem für Betreiber von BHKW ist der sich abzeichnende „Kannibalismus“ der verschiedenen „erneuerbaren“ Technologien untereinander. An warmen Sommerwochenenden liegt die gesamte Netzlast in Deutschland manchmal bei lediglich 35.000 bis 45.000 MW. Zum Jahresende 2014 waren in Deutschland jedoch bereits folgende „erneuerbare“ Erzeugungskapazitäten am Netz: 35.400 MW Windleistung, 37.200 MW Solarleistung, 6.300 MW Biomasseleistung, 4.500 MW Wasserkraftwerksleistung sowie 1.500 MW Kraftwerksleistung aus Müllverbrennung, zusammen also rund 87.400 MW. Das entspricht in etwa der zu erwartenden Jahreshöchstlast. Da zudem mindestens 28.000 MW an Grundlastkapazität zur Stabilisierung des Netzes ständig mitlaufen müssen, kommt es inzwischen immer häufiger vor, dass das Gesamtaufkommen aus EE-Strom – der ja zwangsläufig abgenommen werden muss – und Grundlaststrom die aktuelle Netzlast übersteigt. Das sind die immer häufigeren Tage, an denen der nicht benötigte deutsche Zufallsstrom ins Ausland verschenkt werden muss und den dortigen Stromerzeugern den Markt ruiniert. Da der Zubau der sogenannten „erneuerbaren“ Energien weiterhin mit mehr als 5.000 MW/ Jahr vorangetrieben wird, wird sich diese Engpasssituation in den nächsten Jahren immer drastischer zuspitzen. Da die „Entsorgung“ überschüssiger Produktion ins Ausland über kurz oder lang auf verstärkten Widerstand stoßen wird, wird der Gesetzgeber innerhalb weniger Jahre genötigt sein, Produktionsbeschränkungen auch für EE-Strom zu dekretieren. Vermutlich werden darunter vor allem solche Branchen zu leiden haben, die nicht so hoch auf der Prioritätenliste der „Energiewende“ stehen. Da Wind und Solarstrom erklärte Schwerpunkte des weiterhin gewünschten massiven EE-Ausbaus sind und Müllverbrennung alternativlos durchgeführt werden muss, dürften kleinere und weniger wichtige Bereiche mit weniger schlagkräftigen Lobbys wie die Wasserkraft und die Kraft-Wärme-Kopplung zu den Verlierern dieses Wettstreits gehören. Selbst auf einen Bestandsschutz für Altanlagen sollte man sich dabei nicht verlassen, denn mit weiter wachsendem Notstand in den Netzen wird der Gesetzgeber auf kleinere Randgruppen vermutlich ebensowenig Rücksicht nehmen wie 2011 auf den Bestandsschutz der Betreiber von Kernkraftwerken.

Bild 2. Entwicklung der installierten Solar- und Windkapazitäten in Deutschland seit 2010 (Daten: [EEX])
Fragwürdiger Journalismus
Der Spiegelonline-Artikel ist symptomatisch für die Art von modernem „Qualitäts“-Journalismus, mit der selbst renommierte Publikationen wie der Spiegel oder das Manager-Magazin heute den Leser fehlinfomieren. In der Online-Ausgabe des Manager-Magazins erschien der Beitrag sogar unter einem noch reißerischerem Titel: „Selbstversorger-Trend Wie Familie Schmitt Deutschlands größten Stromversorger zerschlug“ [MAMA]. Selbst Bildzeitungsjournalisten könnten ob solcher Dreistigkeit vor Neid erblassen. Dabei ist der Reporter in der Redaktion des manager magazin online schwerpunktmäßig für Unternehmen zuständig, besonders für Energiewirtschaft und Mobilität. Schaut man sich seinen Werdegang daraufhin an, was ihn dafür qualifiziert haben mag, so wundert man sich über fast gar nichts mehr. Im Kurzporträt ist zu lesen: „Studium der Politischen Wissenschaft, Geschichte und des Öffentlichen Rechts. Absolvent der Berliner Journalistenschule. Stationen und Mitarbeit unter anderem beim Pinneberger Tageblatt, ZDF-Studio London, RBB Inforadio Wirtschaft und dpa Berlin. Koordination Tagesspiegel-Handelsblatt. Seit April 2008 bei manager magazin online, seit Oktober 2012 Reporter“.
Leider ist zu befürchten, dass solche Schlangenölverkäufer-Artikel den einen oder anderen unbedarften Leser dazu veranlassen werden, sich als Versuchskaninchen für diese Technologie zur Verfügung zu stellen. In diesem Falle würd man sich manchmal wünschen, dass die Geschädigten nach dem Reinfall amerikanisches Recht anwenden könnten, um den unseriösen Journalisten nebst Verlag in die Insolvenz zu klagen.
Fred F. Mueller
Quellen
[DAER] http://www.niedrigenergieforum.de/dachs-heizung-t280.html
[EEX] http://www.transparency.eex.com/de
[EIKE] http://www.eike-klima-energie.eu/climategate-anzeige/energieautarkie-am-beispiel-sonne-wie-ideal-ist-dezentral-nur-wenn-geld-keine-rolle-spielt/
[ERF1] http://www.tga-warmup.de/bhkw.html
[ERF2] http://www.energieportal24.de/forum/topic,809,-erfahrung-bhkw.html
[ERF3] www.heizkosten-online.de
[MAMA] http://ml.managermagazin.de/article.do?id=1010095
[SPIE] http://www.spiegel.de/wirtschaft/service/strom-selber-erzeugen-selbstversorgung-liegt-im-trend-a-1010782.html
[VDE] Praxiserfahrungen mit Mini und Mikro BHKW, Dr.-Ing. Peter Tzscheutschler, Dipl.-Ing. Josef Lipp, IFE Lehrstuhl für Energiewirtschaft und Anwendungstechnik, TU München