Den Verstand einschalten!

Vor allem sollten ihm jene Mitmenschen folgen, die der (staatlichen, politischen und medialen) Obrigkeit  unterworfen sind und ihr zu vertrauensvoll folgen. Wem es hier für die Verstandesnutzung an der nötigen Sachkunde fehlt, kann sich diese verschaffen. Im jüngsten Buch des Meteorologen und Geographen Wolfgang Thüne wird sie ihm geboten. Das „sapere aude“ – der Leitspruch der Aufklärung – leitet auch Thüne selbst.

Gehirnwäsche mit Hilfe willfähriger Medien

Alles im Buch rankt sich um die Behauptung, die Menschheit verursache mit ihrem Ausstoß von CO2 eine katastrophale Erwärmung des Erdklimas. Thüne nennt es das „Klimagespenst“, vor dem sich alle fürchten sollen. Er legt nicht nur offen (wie auch schon andere vor und neben ihm), dass die Behauptung ein global angelegter Riesenbetrug ist, sondern erklärt, wann und wie er zustande kam, welche Interessen dahinter stecken, wie den Menschen Angst eingejagt wird, um sie für die geplante Ausbeutung, Reglementierung und Beherrschung gefügig zu machen, warum sie sich das überhaupt gefallen lassen, doch auch, wie sie mit Hilfe willfähriger Medien einer regelrechten Gehirnwäsche unterzogen werden und wie gnadenlos der Kampf um die Gedankenhoheit geführt wird.  Der Physiker Ralf D. Tscheuschner nennt den Betrug in seinem Nachwort zum Buch den „größten, wissenschaftlichen, wirtschaftlichen, politischen und pädagogischen Skandal aller Zeiten“. Thüne selbst sieht in ihm „ein weltpolitisches Werkzeug, mit dem das politische, soziale und wirtschaftliche Klima in der Welt umgestaltet und eine neue Weltordnung errichtet werden soll“.

Das Klima schützen kann der Mensch nicht

Thüne stellt klar, dass nicht das Klima das Wetter macht, sondern das Wetter das Klima, Ursache und Wirkung also vertauscht werden, und dass der Mensch das Klima ebenso wenig zu „schützen“ vermag wie auch das Wetter, sondern dass er sich nur „vor“ dem Wetter schützen kann und nur „vor“ einem Klima wie beispielsweise in den Tropen, indem er sich dort lieber leicht bekleidet und nicht in einen Pelzmantel hüllt.Aber die Akteure der CO2-Verteufelung und der Klimapolitik hätten es verstanden, dass das Wort „Klimaschutz“ allseits als Schutz „des“ Klimas begriffen werde und ein solcher Schutz möglich sei. Meteorologisch jedoch ist Klima, so erfährt der Leser, nichts weiter als das „mittlere Wetter“  an einem Ort während einer festgesetzten Periode von dreißig Jahren, also ein Temperaturdurchschnitt. Nach einem solchen statistischen Durchschnitt richtet sich das Wetter genau so wenig wie sich die Lebensdauer eines einzelnen Menschen nach der statistischen mittleren Lebenserwartung aller Menschen richtet.

Wissenschaftler als Erfüllungsgehilfen und Angstpropduzenten

Das Buch ist dick, bietet viel Stoff, enthält gelehrte Abschweifungen, philosophische Betrachtungen, verlangt folglich vom Leser Durchhaltevermögen, denn Thüne greift weit aus.Man liest vom Menschen als einer Kreatur der Natur, von der Angst als Führungs- und Verführungsinstrument, von Fallstricken menschlicher Erkenntnis, von Zivilisationskrankheit und Bewusstseinsspaltung, vom Beginn der Experimentalphysik mit Galilei, von Ursachen des Klimawandels, die unklar sind, von diffusen und unklaren Klimadefinitionen, von menschlicher Ohnmacht und Macht des Wetters, vom Klimaschutz als Bürgerpflicht, vom immergleichen Theater der Klimagipfelspiele sowie von Wissenschaftlern als Angstproduzenten und aktiven Erfüllungsgehilfen der Klimapolitik.Aber dies sind nur einige Beispiele aus der Fülle des Gebotenen.

Schon die Kinder werden ideologisch manipuliert

Den Klimaschutz sieht Thüne in die religiöse Dimension gehoben.Die Umweltbewegung als neue „Ökoreligion“ mache über die sieben großen Weltreligionen einen Führungsanspruch geltend.„Sie hat den Klimaschutz zum Schöpfungsschutz deklariert, und alle haben untertänig genickt.“ Es gibt einen geologischen Exkurs in die Klimageschichte.Die Medien stehen, wie Thüne zu Recht wahrnimmt,  im Spagat zwischen Information und Manipulation.Tatsächlich ist es schlimmer: Sie unterdrücken Tatsachen und schon die Kinder werden ideologisch manipuliert, indoktriniert und zu Klima-Gutmenschen erzogen. Im Dienst der Klimarettung spielen auch die Nachrichtendienste  ihre Rolle.

Gibt es einen CO2-Treibhauseffekt oder nicht?

In Widerspruch setzt sich Thüne zu anderen heftigen Kritikern der „Klimaschutzpolitik“, wenn es darum geht, ob CO2 ein „Treibhausgas“ ist und auf die Erde einen wärmenden Effekt hat (natürlicher Treibhauseffekt). Für Thüne gibt es solchen Effekt überhaupt nicht: „Der natürliche Treibhauseffekt, den die Klimaexperten zum Glaubenssatz erhoben haben … ist in Wirklichkeit ein intellektuelles Artefakt, das allen physikalischen Erkenntnissen Hohn spricht. Der natürliche Treibhauseffekt ist gänzlich unnatürlich.“ Für die anderen Kritiker ist der Treibhauseffekt des CO2 sogar relativ stark, denn das natürliche CO2 sei (nach dem Wasserdampf) das zweitstärkste Treibhausgas, aber der zusätzliche Treibhauseffekt durch das anthropogene CO2  sei dagegen sehr klein und unbeachtlich.

Aber der anthropogene CO2-Treibhauseffekt ist unbeachtlich

Es geht nämlich nach Ansicht dieser anderen Kritiker der Klimaschutz-Agiteure nicht um den Treibhauseffekt durch das natürlich entstehende CO2 an sich, sondern um den zusätzlichen Treibhauseffekt, den das zunehmende CO2 aus Industrie und Landwirtschaft bewirke. Doch das natürliche CO2 absorbiere bereits so gut wie alles spezifische Infrarot, so dass seine Konzentrationserhöhung durch anthropogenes CO2 daher zur weiteren Erderwärmung nur noch ganz wenig beitrage.  Selbst wenn sich der CO2-Gehalt in der Erdatmosphäre verdoppeln würde, ergebe der zusätzliche Treibhauseffekt nur eine Erwärmung zwischen 0,7 und 1,2 Grad Celsius (Klimasensitivität des CO2). Das sei unbedenklich. Um eine solche Erwärmung überhaupt zu erreichen, müsste man alle fossilen Reserven an Erdöl, Kohle und Gas verbrennen, was kaum geschehen werde. Es sei wie mit einer Pudelmütze: Eine wärme gut, zwei übereinander wärmten auch, aber nicht doppelt so gut. Oder mit anderen Worten: Der anthropogene Treibhauseffekt, wie ihn die Klimaschutz-Agiteure behaupten, ist ganz unbeachtlich.

Wetter und Klima kümmert es nicht, was Menschen tun

Tatsache ist ohnehin: Warm- und Kaltzeiten hat es in unregelmäßigen Zeitabständen in der langen Erdgeschichte schon immer gegeben – ganz ohne anthropogenes Kohledioxid.Was immer also die politisch Herrschenden und anderen Profiteure der „Klimaschutzpolitik“ gegen das als Giftgas hingestellte CO2 und die vorgeblich menschenverursachte Klimaerwärmung tun (mit Gesetzen, Anordnungen, Zwangsdämmungen, Ethanol-Beimischungszwang für Benzin, Stromerzeugung mittels Wind, Sonne und „Biogas“, mit Abgaben, Steuern, CO2-Zertifikatehandel, Preisanstieg und vielen hundert Milliarden unnötigen Kosten), diese Vermessenheit wird gegen das Erdklima nichts, aber auch gar nichts ausrichten. Denn die Klimaverhältnisse auf der Erde werden vom Wetter bestimmt. Und das Wetter ist – mit Thünes Worten – „ein unabwendbares Naturereignis, mit dem der Mensch leben, an das er sich anpassen, dem er sich fügen und unterordnen muss. Am irdischen Wetterverhalten wird sich nichts ändern. Das Wetter wird der Menschheit das bleiben, was es schon immer war, ein Rätsel.“
Dr. K.P. Krause; Das Original des Artikels erschien hier bzw. hier

Dr. Wolfgang Thüne wird auch als Redner auf der kommenden Internationalen Klimakonferenz von EIKE am 15.6.12 in Berlin auftreten. Anmeldung hier

Wolfgang Thüne: Propheten im Kampf um den Klimathron. Wie mit Urängsten um Geld und Macht gekämpft wird.CCS new media. Oppenheim 2011. 591 Seiten. 24,80 Euro. (ISBN 978-3-00-035070-2.)




Update!: Die Energiewende ist schon gescheitert!

Doch damit nicht genug. Die ungebremste Vorrangeinspeisung dieses Strom schlechter Qualität bewirkt, dass dringend benötige Gas-Pufferkraftwerke, wenn sie denn gebaut werden könnten, sich nicht mehr rechnen. Und, wenn sie denn mal stehen sollten, dann hängen sie ohne Gasanschluss herum, weil die Pipelines fehlen, die aber genauso wenig gebaut werden würden, weil auch sie sich nicht rechnen. Ebenso wie die vielen 100.000 km Hoch- Mittel-und Niederspannungsnetze, die aufgrund dieser ideologisch vorangetriebenen, zerstörerischen Planung, erforderlich würden, um den untauglichen Strom zu den Verbrauchern zu transportieren. Wir berichteten u.a. hier darüber. Hinzu kommt, wie die WiWo genüsslich berichtet, dass Windparks geplant und gebaut werden sollen, "die kein Schwein finanzieren kann", weil die Regierung bei der Verschärfung der Bankenregeln, die Umlenkung kurzfristiger Kredite in langfristige Darlehen kräftig erschwert hat.
Das Wort von der Stromsperre, oder Blackout, jahrzehntelang aus unserem Wortschatz verschwunden, gehört inzwischen zum Standardvokabular, nicht nur der Wirtschafts- und sonstigen Fachjournalisten, sondern auch stramm linker Mainstream- Medien im Fernsehen (ARD Panorama- eine kluge Besprechung hier) oder der Presse.

Dr.–Ing. Günter Keil hat die gefährliche Entwicklung, ihre Ursachen  und ihre Folgen in diesem Bericht eingehend analysiert. Seine Bewertung:  Die Regierung zappelt jetzt in den selbst gelegten Fallstricken. Die durch ihre Fehler verursachten Probleme werden noch durch neue und stets planwirtschaftliche Fehlentscheidungen zu verzögern versucht, was nur neue Schäden hervorruft und immer das gleiche Resultat ergibt: Die Risiken steigen weiter und die Stromverbraucher müssen es bezahlen.  

Die Liste der Fehler wird immer länger: 

Man hat die Stromerzeugung zu Lasten der Wärmeerzeugung bevorzugt, dabei auch noch auf unbrauchbare Techniken gesetzt; man hat übersehen, dass die Stromnetze den neuen unnötigen Anforderungen nicht gewachsen sind und Blackouts drohen; man hat erst vor Kurzem begriffen, dass von Anfang an riesige, teure Stromspeicher erforderlich waren, die es aber nicht gibt und auch nicht geben kann. Man hat zu spät begriffen, dass nun – unter Opferung hehrer Klimaschutz-Ziele – viele neue Kohle- und Gaskraftwerke gebaut werden müssten und merkt jetzt, dass auch das durch  die Folgen der gesetzlichen Bevorzugung grünen Stroms nicht funktioniert. Man hat den Widerstand der Bürger unterschätzt. Und man hat den dramatischen Kurswechsel von 2011 ohne jede Vorwarnung und Konsultation der stark betroffenen und geschädigten Nachbarländer exekutiert – eine Rücksichtslosigkeit, die sich rächen wird. 

Die Regierung war schon lange von allen renommierten Fachleuten und Institutionen vorgewarnt. Kein einziges der heute immer größer werdenden Probleme war unvorhersehbar.  Die Frage ist jetzt, wie groß der angerichtete Schaden erst werden muss, wann die Energiewende-Heuchelei aufhört und wie viele Industriebetriebe erst das Land verlassen müssen, bis eine Regierung die Notbremse zieht.  Wir können hier nur einige Auszüge bringen und verweisen auf den vollständigen Beitrag im Anhang (als pdf herunterladbar)

Die Energiewende ist schon gescheitert
von Günter Keil

(erweiterte Fassung April 2012)
Man stelle sich vor, dass einem TV-Sender ein Drehbuch über ein politisches Thema angeboten wird, dessen Inhalt sich in Kurzform etwa wie folgt liest:
„In Japan ereignet sich ein furchtbares  Erdbeben mit einer gewaltigen Tsunamiwelle, die eine  riesige Zahl an Toten zur Folge hat. Auch ein großes Atomkraftwerk an der Küste wird schwer beschädigt.  Im fernen Deutschland  bricht Panik aus, obwohl in diesem Land  die sichersten Reaktoren stehen und weder schwere Erdbeben noch Tsunamis drohen. Die deutsche Regierungschefin – nennen wir sie Frau M. – hat aber eine Idee: Sie will  ihren Gegnern endlich das Atomangst-Argument aus der Hand schlagen, mit dem man sie ständig ärgert. Sie will jetzt die Atomenergie einfach abschaffen und verkündet, dass sie nun plötzlich begriffen hätte, dass Atomreaktoren unsicher sind. Das habe sie vorher nicht gewusst. Frau M. ist übrigens Physikerin. Sofort werden acht Kernkraftwerke abgeschaltet, die übrigen dann später. Weil die   Reaktorsicherheits-Experten leider erklären, dass die Atomkraftwerke doch sicher sind,  beruft Frau M. einen Ethikrat, der gar nicht erst über den Ausstieg diskutieren soll, sondern dem sie gleich die gewünschte Antwort als Frage vorlegt: „Wie kann ich den Ausstieg mit Augenmaß vollziehen…?“ Diesem  Ethikrat gehört kein  Energieexperte an, jedoch 2 Bischöfe.
Dieser Rat gibt die gewünschte Antwort und dann wird ein Ausstiegs-Gesetzespaket beschlossen, das Parlament und Bundesrat anschließend in Rekordzeit verabschieden. Es herrscht große Angst, denn schon morgen können die Reaktoren explodieren. Jedenfalls genau die, die zuerst abgeschaltet wurden. Die übrigen noch nicht. Der jetzt fehlende Strom wird nun zum großen Teil aus den Nachbarländern importiert: Und das ist wieder überwiegend Atomstrom. Das stört jetzt aber niemanden mehr. Deutschland ist noch einmal davon gekommen. Frau M. nennt es die Energiewende.“
Das Drehbuch wird wegen Unglaubwürdigkeit abgelehnt.
Soweit die Fiktion.
Wie man weiß, hat sich das aber tatsächlich im Frühjahr und Frühsommer 2011  zugetragen (14). Jetzt, wo sich die ersten Auswirkungen zeigen und die Fehler im Gesetzeswerk, in den Methoden ihrer  Kaschierung  und in der Argumentation der Regierung deutlich hervortreten und nun auch  Reaktionen aus dem Ausland vorliegen, kann man eine Diagnose der sogenannten Energiewende versuchen (13, 14, 34, 37, 62, 65, 80)….

Wie Deutschland seine Solarstrom-Industrie förderte und zugleich ihre härteste Konkurrenz aufbaute

Das Geld, das die Solarzellen kosten, geht  zu ca. 60% nach China; Tendenz steigend.  Deutschland ist dank seiner übertriebenen Photovoltaik-Zwangsförderung der größte Kunde von Chinas neuen PV-Fabriken. Dort sind die Arbeitsplätze entstanden – mit dem Geld der deutschen Stromverbraucher, die sich keine  eigene PV-Anlage leisten können.
China hat diesen gewaltigen  Geldstrom für den Aufbau seiner Photovoltaik-Produktion eingesetzt – übrigens mit deutschen Produktionsmaschinen (s.u.), nachdem Deutschland China zuvor mit Millionen beim Aufbau dieser Industrie half (s.u.).  – und  ist inzwischen der weltgrößte Hersteller, dessen Solarzellen konkurrenzlos billig sind. 
Deutschland hat China dabei in dreifacher Hinsicht geholfen und gleichzeitig seine eigene Photovoltaik-Industrie in eine aussichtslose Lage gebracht:
·      Mit dem EEG bot sich Deutschland als risikoloses Absatz- und Gewinnparadies für Photovoltaikhersteller an. Jahrelang stellte dieses  sonnenarme Land den weltweit größten Absatzmarkt dar. Diese Chance ließen sich die chinesischen Produzenten nicht entgehen.
·      Die traditionell starken deutschen Maschinen- und Anlagenbauer lieferten China alle benötigten Maschinen zur Massenproduktion der Solarzellen. Damit verfügt China heute über einen nur drei Jahre alten modernen Maschinenpark – und nutzt ihn.  Und nun brechen auch den deutschen Solartechnik-Maschinenbauern die Aufträge weg: Branchenweit ist die Zahl der Aufträge um mehr als die Hälfte zurückgegangen und befindet sich auf dem niedrigsten Niveau seit Mitte 2009 (Wirtschaftswoche). „Man könnte überspitzt sagen, dass die deutschen Maschinenfirmen den deutschen Modulherstellern den Untergang bereitet haben.“ (Heiko Böhmer, GeVestor).
·      Den eigentlichen Grund für Chinas besonders raschen Aufstieg als Solarzellen-Weltmacht deckte Ende Februar der SPIEGEL in seiner Nr. 9/2012 auf: In dem Artikel "Peking päppeln" von Alexander Neubacher wird berichtet, wie die Bundesregierung die chinesische Photovoltaik-Industrie mit Millionenhilfen und günstigen Millionenkrediten mit voller Absicht aufrüstete. Das Startkapital von 9 Millionen Euro kam direkt vom Umweltministerium. Es handelte sich absurderweise um Geld aus dem Verkauf von Verschmutzungszertifikaten an die deutsche Industrie, die damit selbst das Aufpäppeln ihrer Konkurrenz finanzieren durfte.
Das weitere Geld kam aus den Entwicklungshilfeetats der Regierung und ihrer Institutionen: Die Entwicklungsbank der staatlichen KfW Bankengruppe gab China 75 Millionen Euro als zinsgünstiges Darlehen, u.a. an die Solarriesen Yingli, Sunergy oder JA Solar, und die Deutsche Investitions- und Entwicklungsgesellschaft DEG (gleichfalls KfW-Tochter) finanzierte gleichfalls den Branchenriesen Yingli Solar. Diese Kredite laufen noch bis Dezember 2013   bzw. September 2013 weiter (64).
Der Wahnsinn hat Methode: Diese Mittel an China sollten laut Broschüren des Bundesumweltministeriums der Förderung der "globalen Klimagerechtigkeit" dienen – und der damit finanzierte Aufbau einer starken chinesischen Solarindustrie war volle Absicht und ein großer Erfolg – allerdings nicht aus der Sicht der deutschen Solarfirmen.
Minister Röttgen ist inzwischen aufgefallen, dass die chinesische Dumpingpolitik "zu einem ruinösen Wettbewerb auf dem Weltmarkt für Photovoltaikanlagen geführt hat" und dass er "eine Preispolitik sehe, die auf die Verdrängung deutscher Unternehmen gerichtet sei", wie er am 23.2.12 erklärte.
Dass die deutschen Kredite zur Finanzierung dieses Verdrängungswettbewerbs weiter laufen, kann annehmen, denn es handelt sich um Verträge.
Frank Asbeck, der Chef des Bonner Solarkonzerns Solarworld, der soeben zusammen mit US-Solarfirmen eine Klage gegen die Dumpingmethoden Chinas eingereicht hat, sollte ihr vielleicht eine neue  Richtung geben.
·      Wie China im eigenen Land  mit ausländischen Herstellern umgeht, musste der Weltmarktführer in Solar-Wechselrichtern, SMA Solar Technology, erfahren. SMA- Vorstandssprecher Urbon: „In den Ausschreibungsverfahren in China kommt kein internationaler Player zum Stich“.
Die Zahlen sind eindrucksvoll – und spätestens seit Mitte 2010 alarmierend.
Anteile an der Solarzellen-Weltmarktproduktion in den 3 letzten Jahren:
Deutschland:      2009:  15,4%   ;     2010:   9,7%  ;     2011:    6,7%
China:                 2009:  38,1%   ;     2010: 47,8%  ;     2011:  57,3%
Quelle. Bloomberg/FAZ
Das Bonner Marktforschungsunternehmen EuPD Research berichtete im September 2011: „Die Solarzellenproduktion verschiebt sich deutlich nach Asien“, die wichtigsten Länder seien China, Taiwan und Japan.
Besonders rasant verlaufe die Entwicklung in Taiwan: Während dort der Absatzmarkt auf Grund einer Beschränkung des Zubaus auf 70 MW pro Jahr (!) 2011 kaum eine Rolle spielen konnte, zeige die Produktion deutliche Zuwächse. Ein Hauptgrund sei der Eintritt großer Elektronik-Konzerne in den PV-Markt.
Eine bezeichnende Politik: Solarpanels in Massen für den Export produzieren – sie aber im eigenen Land nicht dulden. In Deutschland entsteht durch den Verlust der eigenen Produktion bei weiterhin EEG-geförderten massiven Importen die exakt entgegengesetzte Situation.

Einbrüche  in der Solarindustrie

Der durch immense Subventionen in den westlichen Industrieländern künstlich geschaffene Absatzmarkt mit seinen hohen Gewinnen führte inzwischen  zu einer extremen Überproduktion  und damit zu einem dramatischen Preisverfall, der angesichts der überfüllten Lager noch nicht zu Ende ist: 2006 kostete ein Kilowatt Leistung 5.000 €, heute 2.000 – 2.400 €.

  • Branchenexperten schätzen die weltweite Solarzellen-Nachfrage 2012 auf 21.000 MW;
  • die existierenden Produktionskapazitäten aber auf 40-50.000 MW.

 Man rechnet jetzt mit einer sehr deutlichen Marktbereinigung.
Verluste werden geschrieben, Pleiten und Arbeitsplatzverluste drohen im In- und Ausland. Die Nachrichten vom Winter 2011/Frühjahr 2012:
Der Berliner Solarzellenhersteller SOLON SE ging in die Insolvenz; mitgerissen auch von der Pleite des östereichischen Solarzellenherstellers Blue Chip Energy.
Solar Millenium traf es im Dezember 2011.  
Conergy verbuchte 2011 einen Verlust von 80-85 Mio €. Im September 2011 wurde entschieden, die Zellenfertigung in Frankfurt an der Oder einzustellen.
First Solar (USA, s.u.) prüft für seine Werke in Frankfurt-Oder Kurzarbeit.  
Der Maschinen-Ausrüster für Solarfabriken  Centrotherm, Blaubeuren, erlitt Verluste und kündigt 400 von 1928 Mitarbeitern (weltweit).  80% seiner Umsätze macht das Unternehmen in Asien. Die PV-Hersteller in China, Centhrotherms Kunden, leiden seit 2 Jahren unter Überkapazitäten und streichen ihre Investitionen zusammen.
Q-Cells (Bitterfeld) meldete am 3.4.2011 Insolvenz an. Das Unternehmen wurde bereits in der Ausgabe 35/2011 des AKTIONÄR in dessen „Solar-Todesliste“ aufgenommen. Über die Hälfte des Grundkapitals war Ende 2011 verloren.
Der kanadische PV-Hersteller ARISE meldete für seine deutsche Tochterfirma in Bischofswerda Insolvenz an.  
Schott Solar in Alzenau stellte seine Solarzellen-Produktion ein. 
Die Sunways AG (Konstanz) hat mit 115,4 Mio € ihren Umsatz in 2011 gegenüber 2010 nahezu halbiert. Die chinesische LDK Solar übernahm ein Drittel der Anteile; die spätere volle Übernahme ist vorgesehen.  Auch LDK Solar profitierte von dem Geld, das die Bundesrepublik  mit ihrem Kredit der KfW Entwicklungsbank von 75 Mio € , u.a. an den chinesischen Solarkonzernen gab.  
Die SunConcept Group (Elz, Hessen) stellte für ihre 7 Gesellschaften Insolvenzantrag.  SolarWorld  teilte im  Februar mit, dass ihr Ergebnis vor Steuern und Zinsen (EBIT) von plus 193 Mio € in 2010 auf minus 233 Mio € in 2011 abgestürzt ist. Im TecDax stand die Aktie am 4.4.2011 bei 2,20 €; vor einem Jahr waren es 11,90€. Vor einem Kauf der Aktie wird in Börsenkreisen gewarnt, jedoch seien die meisten Beobachter der Meinung, dass der Konzern gute Chancen hat, auf lange Sicht als einer der Sieger aus der derzeitigen Konsolidierungswelle hervorzugehen.
Die Solarhybrid AG aus dem Sauerland ging Mitte März 2012 in die Insolvenz  (89).  RALOS New Energy AG, Michelstadt, stellte Ende Februar Insolvenzantrag.
Diese Aufzählung endet  Anfang April  2012.
Am 21.2.2012 meldete die Börse, dass der deutsche Technologie-Aktienindex  TecDax davon profitiert, dass von ehemals 9 deutschen Solarunternehmen nur noch 3 im TecDax stünden (83). Nur eins dieser Unternehmen stellt noch selbst  PV-Zellen her, die anderen liefern Produktionsanlagen bzw. Elektronik.
Das Bild ist nicht durchweg düster: Der Marktführer in Solar-Dünnschichtzellen First Solar eröffnete im November 2011 sein zweites deutsches Werk in Frankfurt/Oder. Gut geht es der Firma aus Tempe/Arizona allerdings nicht (s.u.). Die PV-Maschinenbauer werden diversifizieren; sie müssen nicht ausschließlich Produktionsmaschinen für diese eine Produktklasse fertigen. SolarWorld überlebt voraussichtlich (s.o.). Und der Wechselrichter-Hersteller SMA erwartet bessere Zeiten ab 2013.
Sehr drastisch bewertete E.on-Technologie-Vorstand Prof. Klaus-Dieter Maubach – gewiss kein Photovoltaik-Freund – auf dem „Bloomberg New Energy Finance Summit“ in New York die Aussichten der deutschen Solarstrombranche:  Deutschlands Solarindustrie werde in den kommenden 5 Jahren angesichts des Wettbewerbs aus China  „verschwinden“. Nicht ein einziger Arbeitnehmer werde dann noch bei den deutschen Solarunternehmen arbeiten, denn dann seien alle pleite, wird Maubach zitiert (89).
Die wachsenden Probleme der Solarstrombranche sind keineswegs auf Deutschland beschränkt:

Solar-Pleiten in den USA

In den USA häufen sich Solar-Pleiten:
Im September 2011 ging der Solarkonzern Solyndra, den noch vor einem Jahr Präsident Obama besucht und als ein perfektes Beispiel das Wachstum mit sauberen Energien und für neugeschaffene, hochbezahlte Jobs gelobt hatte,  bankrott und entließ alle 1.100 Mitarbeiter. Ein vom Energieministerium DoE garantierter Kredit über 535 Millionen US-$ ist verloren (49).
Die Aktien von Evergreen Solar, die noch 2009 bei 12 US-$ lagen;  sind heute noch 10 Cent wert. Evergreen beantragte im August 2011 die Insolvenz.
Der Marktführer First Solar, der einst einen Marktwert von fast 6 Milliarden Dollar besaß, erlebte seit Januar 2011 einen Kursverlust von 48 %.  Verglichen mit 2008 betrug der Kursverlust über 90 %.
Sunpower, das ebenfalls zu den größeren Unternehmen gehört, erlebte seit 2007 einen Kurssturz von fast 95 %.  Im Herbst 2011 dauerten die Verluste bereits über drei Quartale an. Es existieren langfristige Schulden von mehr als 500 Mio Dollar und Gesamtverbindlichkeiten, die gegen 1 Milliarde Dollar gehen.
Auch die Firmen Spectrawatt, SES und Stirling Energy wurden in den vergangenen Monaten vom Markt gefegt.
Auch die italienische Regierung wurde aktiv: Sie zog den Termin der Beendigung der Förderung von PV-Freiflächenanlagen auf Ende Januar 2012 vor. Eine Ausnahmeregelung betrifft im Bau befindliche Anlagen.
Bis vor einigen Jahren war Spanien noch der grösste Solarmarkt der Welt. 2011 wurden dann nur noch 400 MW an PV-Leistung zugebaut (72). „Was heute ein Energieproblem ist, könnte ein finanzielles Problem werden“, sagte Industrieminister Jose Manuel Soria am 27.1.2012 in Madrid. Die Regierung erließ an diesem Tage ein Dekret, das Subventionen für neue Wind-, Solar-, Co-Feuerungs- und Müllkraftwerke stoppte.  Soria erklärte weiter, dass Wasserkraft-  oder Kernkraftwerke nicht mit neuen Abgaben belastet würden. „Wer wird jetzt noch nach diesem Dekret in den Sektor der erneuerbaren Energien investieren ?“, fragte der Chef der Lobby-Gruppe Fundacion Renovables, Javier Breva.
Selbst die chinesischen Firmen JA Solar und Sunergy werden zur Gruppe gefährdeter Solarunternehmen gerechnet (Bewertung der Schweizer Bank Sarasin).
Deutsche Tageszeitungen meldeten: Anleger flüchteten Ende 2011 „in Scharen aus Papieren der Solarbranche.“

Die grünen Jobs verschwinden wieder

In den westlichen Industrieländern spricht kaum noch jemand von der Solarindustrie als einer Zukunftsindustrie oder Jobmaschine – mit Ausnahme von Bundesumweltminister Röttgen, der anlässlich der Vorstellung der Förderkürzungen am 23.2.2012  wörtlich erklärte: „Die Photovoltaik ist eine Erfolgsgeschichte. Sie könnte zum Exportschlager werden.“
Die tatsächliche Marktentwicklung trifft jetzt diejenigen Arbeitsplätze, die nach grünen Plänen eigentlich an die Stelle der Jobs in der konventionellen Energiewirtschaft treten sollten (29). Die staatlich verkündete Behauptung war stets, dass es sich um hochqualifizierte, sog. Hightech-Arbeitsplätze handeln würde, was nicht den Tatsachen entsprach. Noch wird in deutschen Forschungsinstituten an der Photovoltaik gearbeitet und daran wird sich voraussichtlich nichts ändern.
Aber schon länger wird kritisiert, dass die deutschen Photovoltaikfirmen selbst nicht genügend Geld in die Forschung investiert haben, sondern im Vergleich zu anderen Technik-Branchen sogar besonders wenig. Das beschleunigte ihren Niedergang. Dass Bundesumweltminister Röttgen im Januar betonte, „er wolle ein Überleben der (Photovoltaik-) Technologieführerschaft in Deutschland“, kann sich also nur noch auf die Arbeiten in Forschungsinstituten beziehen, nicht aber auf die Unternehmen, die sein eigenes Ministerium mit der großzügigen Starthilfe für Chinas Solarfirmen dem vorauszusehenden Untergang preisgegeben hat.
Weil die Herstellung der Solarzellen dank der großzügigen deutschen Finanzhilfen  weitgehend nach China abgewandert ist, verbleiben in Deutschland mittelfristig nur noch Jobs in der Produktion von begleitender Elektronik (z.B. Wechselrichter, Netztrenngeräte) und in der Montage.  Diese Elektronik ist jedoch noch leichter zu kopieren, als die Herstellungstechnologie der PV-Zellen; das trübt die Aussichten.
Das ständig wiederholte Argument über die „Erneuerbaren“ als Jobmaschine verliert nicht nur bei der Photovoltaik  seine Glaubwürdigkeit.  Ohne weitere Dauersubventionen hätte nur ein Teil von ihnen Bestand – z.B. in der Bioenergie, bei den Kraft-Wärmekopplungs-Anlagen und der Erdwärmenutzung sowie selbstverständlich bei der Wasserkraft.
Die Photovoltaik ist damit für die Welt keineswegs eine überholte Stromerzeugungstechnik – als eine prosperierende Industriebranche für Deutschland und auch für andere westliche Industrieländer kommt sie aber nicht mehr in Frage.
Technisches Unverständnis und Beratungsresistenz ließ  Politiker  lange an die Illusion von einer blühenden Solarindustrie glauben; dabei hätte man bereits vor 10 Jahren ohne Schwierigkeiten erfahren können, dass diese Technologie niemals in einem Hochlohnland gehalten werden konnte.
Dass dies dermaßen schnell ging, hat die Bundesregierung mit der Aufbauhilfe für Chinas Solarfirmen selbst verursacht. Es ist vermutlich kein Trost für die deutschen Solarfirmen, dass  sie auf dem Altar deutscher regierungsamtlicher Klimaretter geopfert wurden.
Das Rheinisch-Westfälische Institut für Wirtschaftsforschung RWI hat berechnet, dass die gesamten Subventionen für die Photovoltaik mittlerweile die 100-Mrd-Euro-Grenze überschritten haben. Wie man jetzt feststellt, hat dieser enorme Aufwand im Gegensatz zu den politischen Visionen keine nachhaltigen positiven Arbeitsplatzeffekte bewirkt (18)……

…….9. Neue Kohle- und Gaskraftwerke – der Rettungsanker, der nicht greift

Mitte Dezember 2011 berichtete der SPIEGEL dass der für die Energiepolitik zuständige Bundeswirtschaftsminister Philipp Rösler „stärker als bisher geplant in zusätzliche Kohle- und Gaskraftwerke investieren“ wolle. Gemeint war wohl, dass sein liberal geleitetes und früher die Marktwirtschaft hoch haltendes Ministerium  entsprechende Investitionen mit Zuschüssen fördert, wie sie bereits gefordert werden.
Laut SPIEGEL sei in einem BMWi-Papier  von „circa 17 neuen Großkraftwerken bis zum Jahr 2022“ die Rede. Weiter hieße es dort: „Fossile Kraftwerke sind essenziell für eine sichere Energieversorgung“, denn diese müssten die wegfallenden Atomkraftwerke ersetzen und die schwankende Stromerzeugung aus Wind und Sonne ausgleichen.
Dem widersprach sofort der unzuständige aber intensiv mit dem Segen der Kanzlerin Energiepolitik betreibende Bundesumweltminister Norbert Röttgen, der die Existenz von Engpässen in der Erzeugungskapazität bestritt. Bei Kraftwerkskapazitäten gebe es bis 2020 „kein Problem.“ Es dürften nur die bereits beantragten oder im Bau befindlichen Kohlekraftwerke in Betrieb gehen.
Röttgen bezeichnete Warnungen vor einem „Blackout“ ebenso als Horrorszenario wie jene vor explodierenden Strompreisen.
Damit hat man ein halbes Jahr nach Verkündung der Energiewende ein zutreffendes Bild von der Arbeit der Regierung an ihrer Umsetzung.
Der Bundesverband der Energie- und Wasserwirtschaft BDEW ersetzte nun die widersprüchlichen Streitereien aus Berlin durch ein im Oktober  2011 veröffentlichtes  Gutachten (6):
·      Der BDEW schätzt, dass bis 2030 etwa 33.000 MW an fossilen Kraftwerken (Kohle und Gas; Öl ist unwesentlich) vom Netz gehen, weil sich der Betrieb nicht mehr lohnt oder Bestandskraftwerke am Ende ihrer Lebensdauer sind. In diese Zahl sind bereits die bis dahin geplanten Neubauten von 12.000 MW eingerechnet.
Anschließend hatte  die Bundesnetzagentur in ihrem Monitorbericht 2011 (9) eine  Auflistung für den Zu- und Rückbau von Steinkohle-, Braunkohle- und Erdgaskraftwerken präsentiert, soweit es heute sicher bzw. geplant ist:
·      „Bundesweit wird bis 2022 ein Rückbau von ca. 29.500 MW
  dargebotsunabhängiger (d.h. unabhängig von Wind, Wetter, Tageslicht…)
  Erzeugungskapazität erwartet. Hierin sind die bereits 2011 stillgelegten 8 KKW  
  mit  insgesamt 8.400 MW enthalten.
       Neben den derzeit im Bau befindlichen 12.900 MW wird demnach der Zubau von  
       weiteren 16.600 MW Kraftwerksleistung benötigt, um den Rückbau bis 2022  
       auszugleichen. Hierbei ist es wichtig, dass es sich um neue, zusätzliche
       Kraftwerksleistung handelt, die nicht durch den Rückbau stillzulegender
       Kraftwerksblöcke am gleichen Standort reduziert wird.
       Bislang liegt erst für Kraftwerksprojekte mit 1,400 MW eine behördliche
       Genehmigung vor.
       Weitere 10.600 MW befinden sich noch im Genehmigungsverfahren.“
·      Durch die Stilllegung von 5 Kernkraftwerken fehlen in Süddeutschland  etwa 3.000 MW. Erst 2013 und 2014 wird durch die Fertigstellung von 2 Steinkohlekraftwerken ein Zubau um ca. 1.700 MW in Süddeutschland erwartet.
Aber:  „In Süddeutschland übersteigen die erwarteten Rückbauzahlen der Kraftwerke deutlich die aktuellen Plandaten für die Zubauten“.
Die Folge: „Gegenüber der Situation vor dem Kraftwerksmoratorium der Bundesregierung bleibt die Lage in Süddeutschland auch nach Fertigstellung der derzeit im Bau befindlichen größeren Kraftwerksprojekte ernst und risikobehafteter als vorher.
·      „ Wie die Daten zeigen, wird sich die Erzeugungssituation in Süddeutschland 2012 voraussichtlich nicht signifikant verändern. Demnach ist davon auszugehen, dass im Winter 2012/13 eine zum Winter 2011/12 vergleichbare Erzeugungssituation vorliegen wird“.  Die Erzeugungssituation in Süddeutschland bleibe auch nach Fertigstellung zweier Steinkohlekraftwerke angespannt. Siehe auch Kap. 9.
·      „Die im Monitoring 2010 bereits festgestellten Verzögerungen bei 11 größeren Kraftwerksprojekten haben sich 2011 noch einmal vergrößert. Zudem reduzierte sich das Gesamtvolumen von dargebotsunabhängigen  Kraftwerksprojekten innerhalb eines Jahres um 18% bzw. rund 7.300 MW.“
Die Zahlen für Süddeutschland (Kraftwerke Frankfurt am Main und südlicher) aus dem Monitoringbericht::
·      2011: Steinkohle:   keine Änderung
          Erdgas.        + 684 MW
          Kernkraft:    – 4.947 MW;        Saldo 2011. Abnahme um 4.263 MW
·      2012: Steinkohle:  – 293 MW
          Erdgas:       + 92 MW;            Saldo 2012: Abnahme um 201 MW
·      2013: Steinkohle:  + 847 MW
          Erdgas:            0;                    Saldo 2013: Zunahme um 847 MW                   
·      2014: Steinkohle:   +845 MW;  -406 MW
          Erdgas:            0;                     Saldo 2014: Zunahme um 439 MW.
·      2014-2020: Kernkraft:   – 3.961 MW
                  Steinkohle:  – 655  MW
                  Weitere:   –  114  MW;     Saldo 2014-2020: Abnahme um 4.713 MW
·      2021-2022: Kernkraft: – 4.008 MW; Saldo 2021-2022: Abnahme um 4.008 MW
Diese geschätzten Zahlen enthalten ab 2014 die weiteren, noch stillzulegenden Kernkraftwerke in Süddeutschland:
Ø  Grafenrheinfeld –          1.275 MW, zum 31.12.2015
Ø  Grundremmingen B –   1.284 MW, zum 31.12.2017
Ø  Philippsburg 2 –            1.402 MW, zum 31.12.2019
Ø  Grundremmingen C –   1.288 MW,  zum 31.12.2021
Ø  Neckar II –                     1.310 MW, zum 31.12.2022
Ø  Isar 2 –                           1.410 MW, zum 31.12.2022.
Diese Stilllegungen würden ein zusätzliches, heute noch nicht einmal geplantes  Kohlekraftwerks-Neubauprogramm erfordern. Weshalb es bereits heute große Schwierigkeiten beim Erreichen der heutigen Neubaupläne gibt, wird unten erläutert.
Betrachtet man die Art der heute  im Bau befindlichen und derzeit geplanten neuen Kraftwerke, so kann man dem Monitorbericht entnehmen, dass von den im Bau befindlichen Kraftwerken 82% der Kraftwerksleistung durch Kohlekraftwerke und nur 18% durch Erdgaskraftwerke erbracht werden. Ende 2013 sollen  dann insgesamt 73% der Neubaukapazität neue Kohlekraftwerke und 27% Gaskraftwerke sein. Hier musste die Regierung sämtliche Bekenntnisse zum sogenannten Klimaschutz über Bord werfen, denn es ist eine Binsenweisheit der Kraftwerkswirtschaft: Wenn man kaum Wasserkraft hat und dann auch noch seine Kernkraftwerke abschaltet, dann muss man eben Kohlekraftwerke bauen. Es sei denn, man hat sehr billiges Erdgas oder Erdöl. Beides haben wir nicht.
Diese Neubauaktivität und die Neubauplanung fossil gefeuerter Kraftwerke zeigt  deshalb sehr klar – abseits von allen Sonntagsreden –  die Wirklichkeit der Energiewende: Die gesamte stillgelegte Erzeugungskapazität der deutschen Kernkraft muss durch Kohle und Gaskraftwerke ersetzt werden, die allein eine sichere Grundlasterzeugung bieten, wie sie von der Industrie und von den Verbrauchern benötigt wird. – egal, wie viel Wind- oder Solarstromanlagen am Netz hängen. Wenn Wind und Sonne dann Strom liefern, müssen die Kohle- und Gaskraftwerke heruntergefahren, aber natürlich nicht abgeschaltet werden, da sie in kurzer Zeit wieder benötigt werden könnten. Das macht sie unrentabel, weshalb die Investoren mit Recht kein Interesse mehr an Neubauten haben: Ein Teufelskreis.
Die Einsparung von Kohle bzw. Erdgas während dieser Leerlaufperioden ist verständlicherweise gering, weshalb auch der positive Effekt des Wind- und Solarstroms für die Umwelt ebenso gering ist. Dieses System mit vielen Milliarden Euro der Stromverbraucher aufzubauen war daher eine gigantische Fehleinschätzung – eine Mischung aus Unwissenheit und Ideologie.
Die beste Lösung wäre deshalb, einfach alle Wind- und Solarstromanlagen abzuschalten. Aber dann hätte man ja keine Energiewende mehr.
Die Gewissheit, dass die Kernkraftabschaltung exakt die beschriebenen  „fossilen Konsequenzen“  haben musste,  bestand in der Energiewirtschaft von Anfang an – und die hier präsentierte Neubautätigkeit und –Planung zeigt, dass es auch genau so geschieht. Diese Planung geschieht aber nicht etwa hinter dem Rücken der Bundesregierung, diese ist vielmehr die planende und treibende Kraft hinter dieser Entwicklung. Soviel zur Ehrlichkeit in der Energiepolitik. 
Aus dem Monitoringbericht könnte man schließen, dass etwa Ende 2014 das von der Abschaltung der 8 Kernkraftwerke gerissene Versorgungsloch- wenn alles gut geht –  wieder aufgefüllt sein wird.  Wie es dann nach dem Abschalten der übrigen Kernkraftwerke weitergehen soll, wird nicht behandelt. Eine neue große Kohlekraftwerks-Neubauaktion wäre dann fällig.
Aber auch die bis 2014 präsentierten Zahlen täuschen aus drei Gründen:
Grund Nr.1:
Die vorgestellten Planzahlen sind möglicherweise zu optimistisch.     
Die Bundesnetzagentur führt dazu in ihrem Bericht folgendes aus:
„Derzeit befinden sich bundesweit ca. 12.900 MW dargebotsunabhängige (=Kohle-, Gas; Biomasse) Kraftwerkskapazitäten in Bau, die voraussichtlich bis 2014 fertig gestellt sein werden. Hier gibt es jedoch Unwägbarkeiten wie die Kesselproblematik. So führt der Einsatz von Kesseln mit der neuartigen, hochtemperaturbeständigen und druckfesten Stahllegierung T24 (7 CrMo VTiB 10 10) zu techn. Problemen.
Bei mehreren im Bau befindlichen Kohlekraftwerken hat dies bereits zu Verzögerungen bei der geplanten Inbetriebnahme geführt.
Von den insgesamt im Bau befindlichen Kraftwerksprojekten (Anm.: Kohle, Gas) haben 18 Projekte mit insgesamt 12.300 MW eine Kapazität von jeweils mindestens 100 MW. Gegenüber den Daten aus dem Monitoring 2010 lassen sich davon für elf Projekte Verzögerungen bei dem geplanten Zeitpunkt der kommerziellen Inbetriebnahme feststellen. Bei sechs Projekten (5.000 MW) beträgt die Verzögerung ein Jahr, bei vier Projekten (2.900 MW) zwei Jahre und bei einem Projekt (1.100 MW) drei Jahre. Die bereits im Monitoring 2010 festgestellten Verzögerungen  haben sich damit gemäß der Monitoringdaten 2011 noch einmal vergrößert. Zudem ist das Gesamtvolumen der Investitionsvorhaben bei diesen Kraftwerken rückläufig. So reduzierte sich das Gesamtvolumen innerhalb eines Jahres um knapp 18 Prozent bzw. rund 7.300 MW“.
Grund Nr.2:
Die Situation in Süddeutschland (siehe oben).
Grund Nr.3:
Gegen den Bau neuer Kohlekraftwerke gibt es ebenso wie gegen neue Hochspannungstrassen massiven Widerstand durch Umweltverbände (75) und Bürgerinitiativen – siehe unten sowie Kapitel 14.
Dass diese in den Prognosen der Bundesnetzagentur und des BDEW   
ersichtliche bedenkliche Kapazitätslücke künftig entstehen  und auch aus  heutiger Sicht nicht geschlossen werden kann, liegt an dem schon in
zahlreichen Berichten erläuterten sehr plausiblen  Desinteresse der
potenziellen Investoren an neuen Kohle- und Gaskraftwerken.
Auch für dieses Desinteresse gibt es  gute Gründe:
Die stetig ansteigende gesetzlich vorgeschriebene Zwangseinspeisung von stark   schwankendem Wind- und Solarstrom in die Netze zwingt konventionelle Kraftwerke zu immer häufigerem Herauf- und Herunterfahren ihrer Leistung. Eben das wünscht sich die Regierung zum Ausgleich dieser Schwankungen – aber eben das senkt die Betriebsstunden  der Kraftwerke, verhindert ihr gleichmäßiges Fahren mit konstanter Leistung und erhöht den Verschleiß. Es wird weitaus weniger Strom erzeugt und verkauft, als es die Anlagen erlauben: Sie sind dann unrentabel, weshalb es keinen Sinn macht, sie zu bauen.
Dazu schreibt der BDEW in seinem Gutachten „Flexibilisierung“ vom 11.10.11 mit erstaunlicher Offenheit (90):
„…in 2020 werden noch immer 80 % der heutigen konventionellen Kraftwerke benötigt. Diese werden als Back-up-Systeme bei unzureichender Erzeugung von EE-Strom (d.h. Strom aus „Erneuerbaren“) vorgehalten. Sie weisen jedoch eine gegenüber der heutigen Situation um durchschnittlich 40 % geringere Auslastung auf. Ein wirtschaftlicher Betrieb wäre unter den gegebenen Rahmenbedingungen nicht gesichert bzw. benötigt entsprechende Preisspitzen. Ein marktgetriebener inländischer Ausbau der technisch erforderlichen Kraftwerkskapazität zur Gewährleistung der Versorgungssicherheit ist unter den aktuellen Rahmenbedingungen nicht gesichert. Er erfordert langfristig wirksame und marktbasierte Anreize, die von der Politik zugelassen werden müssen“.
Damit ist eine weitere Subventionsaktion angekündigt – und sie wird kommen, wie Minister Röslers Bemerkung bereits andeutet (s.o.) – denn sie passt sich logisch in die verhängnisvolle Kette von Fehlentscheidungen ein, die beginnend mit der grundsätzlichen Fehlentscheidung, die das Erneuerbare Energien-Gesetz darstellt,  in einer immer weiter gehenden Reihe schädlicher und stets teurer
Reparaturmaßnahmen den eingeschlagenen Irrweg ohne Rücksicht auf Verluste fortsetzen.
Selbstverständlich würden auch diese Subventionen – hier liebevoll „Preisspitzen“ und „Anreize“ genannt – wiederum allein den Stromverbrauchern aufgebürdet. 
Weiteres dazu im Kapitel 16 mit der Auflistung der Ursachen für weitere
Strompreis-Steigerungen. Auch im Kap. 12 über die Energie-Planwirtschaft
haben  diese Überlegungen ihren passenden Platz gefunden.
Ein weiterer Grund, die von der Regierung geschätzten – und besonders gut regelbaren – Gaskraftwerke gerade nicht zu bauen, liegt in den sehr hohen Gaspreisen und den langfristigen Lieferverträgen, die diese Preise zementieren. Derartige Investitionen sind daher noch unattraktiver als solche in neue Kohlekraftwerke.
Aber nicht nur Investoren zögern beim Neubau fossiler Kraftwerke: Mindestens ebenso wirksam ist der Widerstand von Umweltverbänden und Bürgerinitiativen: Allein in NRW sind drei Neubauprojekte gestoppt bzw. verzögert: Das EON-Kraftwerk Datteln wurde vom NRW-Oberverwaltungsgericht gestoppt, ebenfalls  das Trianel-Kraftwerk Lühen; für beide fordert der Bund für Umwelt und Naturschutz BUND das Ende. Das Trianel-Steinkohlekraftwerk Krefeld wurde nach heftigen Protesten der Umweltschützer aufgegeben – eventuell wird stattdessen innerhalb von 6 Jahren ein Gaskraftwerk gebaut.  Und der neue Block 10 des STEAG-Kraftwerks Walsum wird wegen technischer Probleme erst drei Jahre später ans Netz gehen.
In Planung befinden sich laut BDEW Kohlekraftwerke mit rund 12.000 MW.
„Projekte mit noch einmal dieser Leistung wurden in den letzten Jahren vor allem wegen öffentlicher Proteste aufgegeben“. Das heißt: „Der notwendige Investitionsbedarf ist bei weitem nicht durch die Planungen gedeckt.“
(M. Hüther, IWKöln, Handelsblatt 16.3.11)…..
…..10. Die Stromnetze werden an die Grenzen ihrer Belastbarkeit getrieben
Bereits vor dem Kernenergie-Moratorium, dem dann die permanente Abschaltung der 7+1 Kernkraftwerke und schließlich noch das Gesetzespaket der Energiewende folgte, hatte die rot-grüne und die schwarz-gelbe Regierung mit dem EEG eine stetig zunehmende Belastung und Destabilisierung des elektrischen Übertragungs- und Versorgungsnetzes verursacht. Mit der KKW-Abschaltung wurde dann dem Versorgungssystem ein besonders schwerer Schlag versetzt, der es an das Limit seiner Leistungsfähigkeit und Stabilität brachte.
Die rechtzeitigen Warnungen der Bundesnetzagentur ließen an Deutlichkeit nichts zu wünschen übrig:
Bereits in ihrem kurz vor der KKW-Abschaltung veröffentlichten  jährlichen Routine-Bericht „Bericht zur Auswertung der Netzzustands- und Netzausbauberichte der deutschen Elektrizitätsübertragungsnetzbetreiber (Anm.:ÜNB)“(4) vom 14.3.201 hatte die Bundesnetzagentur wichtige Informationen zum bereits damals unbefriedigenden Zustand des Netzes veröffentlicht: 
Die Netzagentur warnte darin, dass die deutschen Stromnetze „derzeit am Rande der Belastbarkeit beansprucht“ werden. Dies sei die direkte Folge massiver Verzögerungen beim Bau neuer Stromleitungen, so die Behörde. Nur durch massive Investitionen auf allen Ebenen des Netzausbaus könne das hohe Niveau der Versorgungssicherheit in Deutschland auch weiterhin gewährleistet werden.
„Diese Berichte der ÜNB zeigen einen Investitionsbedarf in ganz erheblichem Umfang auf. Die Gründe …..liegen vor allem in der Integration erneuerbarer Energien – sowohl Wind als auch Photovoltaik -, verbunden mit der gesetzlich vorgegebenen Anschluß- und Abnahmepflicht (EEG).  Die Bundesnetzagentur konstatiert erhebliche Verzögerungen bei der Realisierung von Netzausbauvorhaben der ÜNB.
Gründe hierfür liegen überwiegend in den langwierigen Raumordnungs- und Planfeststellungsverfahren und einer fehlenden Akzeptanz in der Bevölkerung“ (siehe auch Kap. 14).
♦ Die Hälfte von 24 besonders wichtigen Ausbauprojekten, die im August 2009 als vordringlich eingestuft wurden, verzögere sich.  
Der Zeitverzug bei diesen 12 Projekten liege zwischen 1 und 4 Jahren.
♦ Erst 214 km von insgesamt 1807 km seien bislang fertiggestellt.
Dieser Bericht lag somit der Regierung und den Parlamentariern bereits zu Beginn der Kernkraft-Abschaltungsdebatte vor und seine Aussagen wurden durch die folgenden Berichte vom 11.4.2011 und vom 27.5.2011 noch wesentlich verschärft – sämtlich vor dem Kabinettsbeschluss zum Energiewende-Gesetzespaket und natürlich auch vor dem Inkrafttreten dieser Gesetze.
Liest man die „Fortschreibung des Berichts der Bundesnetzagentur zu den Auswirkungen des Kernkraftwerks-Moratoriums auf die Übertragungsnetze und die Versorgungssicherheit“ vom 27. Mai 2011 (2), dann kann man die sträfliche Leichtfertigkeit, mit der die Regierung und dann das Parlament die Gesetze zur Energiewende beschlossen haben, nicht fassen. Bereits der erste Bericht zum Moratorium vom 11.4.2011 (1) enthielt massive Kritik an der Abschaltung der Kernkraftwerke (7+1) und eindrucksvolle Erklärungen zu den unvermeidlichen schädlichen Auswirkungen.
Regierung und Parlamentarier hatten selbst nach der Veröffentlichung des Fortschreibungsberichts (2) noch 4 Wochen Zeit bis zu ihrer überhasteten Vorlage der Gesetzentwürfe an den Bundesrat am 24. Juni.; und dann verblieb immer noch genügend Zeit bis zu dem Tag, an dem der Bundestag diese Gesetze beschloss – das war der 8. Juli 2011.
Niemand kann also behaupten, er hätte die massiven Warnungen der Bundesnetzagentur nicht rechtzeitig gekannt. Die Wahrheit ist daher, dass sowohl Regierung als auch die Abgeordneten diese Berichte kannten – und bewusst dagegen handelten. So wie sie auch den Bericht der Reaktorsicherheitskommission kannten, der den deutschen Kernkraftwerken eine hohe Sicherheit bescheinigte.
Sie folgten stattdessen den Empfehlungen der Ethikkommission.

Man wusste beizeiten, was kommen würde

Die von der Bundesnetzagentur präsentierten Feststellungen und Voraussagen werden hier zusammengefasst:
·      „Die historisch einmalige zeitgleiche Abschaltung von 5.000 MW Leistung und das längerfristige Fehlen von 8.500 MW Leistung bringen die Netze an den Rand ihrer Belastbarkeit.“
·      „Die Übertragungsnetzbetreiber (ÜNB) sind daher gezwungen, das Marktergebnis durch gesteigerten Einsatz ihrer Handlungsinstrumente wie… Eingriffe in den Kraftwerkseinsatz…zu korrigieren. Damit wird das eigentlich anzustrebende, wettbewerblich strukturierte Marktergebnis durch einen mehr oder weniger zentral gesteuerten planerischen Ansatz ersetzt (Anm.: siehe auch Kapitel 4 und 12: Planwirtschaft). Das ist energiewirtschaftlich zweifelhaft, ökonomisch ineffizient und ökologisch schädlich…..
      Das erhebliche netztechnische Problem, das mit dieser Marktkorrektur verbunden
      ist, besteht darin, dass das genannte Maßnahmenpaket eigentlich für
      Ausnahmesituationen wie Ausfälle von Kraftwerken oder Leitungen gedacht ist,
      nunmehr aber oft bereits für den Normalfall eines intakten Netzes nahezu
      vollständig ausgeschöpft wird und damit bei zusätzlichen unerwarteten Notfällen
       nicht mehr zur Verfügung steht. Damit steigt das Risiko der Nichtbeherrschbarkeit
       von Störungsfällen im Netz deutlich an.“
·      „(Weiterhin) gilt die Aussage, dass sich das Risiko im Winterhalbjahr bei der dann typischerweise höheren Netzbelastung durch höhere Stromnachfrage sowohl im Inland wie im Ausland und der signifikant niedrigeren Photovoltaikerzeugung nochmals deutlich erhöht.“
·      „Das Einspeiseverhalten aus Photovoltaik-Anlagen und Windenergie im Zeitraum vom 11.3. bis 8.5.2011 sind in Grafiken dargestellt. Sie verdeutlichen das enorme Potential zur Lastdeckung, das erneuerbare Energien schon heute haben. In der Spitze erreicht dies bis zu 28.000 MW. Die Grafiken verdeutlichen allerdings auch, dass diese Leistung nicht gesichert zur Verfügung steht, sondern regelmäßig auch völlig entfällt.
      Diese Einspeisungsschwankungen sind tatsächlich noch größer: Ende November
      2011 teilte der Leiter Politik und Märkte bei der RWE Innogy Holger Gassner mit,
      dass allein im ersten Halbjahr 2011  enorme Schwankungen der verfügbaren
      Windkraftkapazitäten von 23.000 MW und der Photovoltaikleistung von 13.000
      MW beobachtet wurden.
·      „Der fluktuierenden Einspeisung stehen derzeit und mittelfristig keine auch nur annähernd ausreichenden Speicherkapazitäten gegenüber. Gegenwärtig sind in Deutschland Pumpspeicher mit einer Leistung von etwa 7.000 MW und Entladezeiten von einigen Stunden in Betrieb…Die gesamte verfügbare Speicherkapazität beträgt derzeit etwa 40.000 MWh (Megawatt-Stunden). Zum Vergleich: Im Mai 2011 betrug der Stromverbrauch im Schnitt an einem Tag rund 1.440.000 MWh (Anm.: Also das 36-fache).
·      „Die Erwartung einer stärkeren Belastung durch die Abschaltung der 7+1 Kernkraftwerke der Nord-Süd- und der Ost-West-Trassen in Gestalt verstärkter Lastflüsse im Übertragungsnetz hat sich bestätigt. Insbesondere in Zeiten von Starkwind werden häufiger Sicherheitseingriffe …erforderlich.“
·      „Die veränderte Netzbelastung durch die Abschaltung der 7+1 Kernkraftwerke hat bereits zu Verzögerungen bei geplanten Wartungs- und Instandhaltungsarbeiten im Übertragungsnetz geführt, da viele Arbeiten nur bei wenig oder unbelasteten Netzen durchgeführt werden können. ..Mit weiteren Verzögerungen muss gerechnet werden….
      Bedingt durch die höhere Netzlast ist auch bei Netzausbaumaßnahmen mit
      Verzögerungen zu rechnen. Es ergibt sich die paradoxe Situation, dass durch das
      Moratorium ein Mehr an Transportkapazitäten erforderlich wird und gleichzeitig
      Netzumbau- oder Netzverstärkungsmaßnahmen aufgrund der erhöhten
      Netzbelastung nicht mehr wie geplant durchgeführt werden können.“
·      „Durch das Moratorium entstehen sowohl in der Rhein-Main- und in der Rhein-Neckar-Region als auch im Raum Hamburg große Probleme bei der Spannungshaltung.“
·      „Auch nach wiederholter Analyse besteht sowohl im Sommer 2011 als auch im Winterhalbjahr 2011/2012 in kritischen Last-/Erzeugungssituationen gerade noch ein ausreichendes erzeugungsseitiges Versorgungssicherheitsniveau. Ein etwaiger Puffer für zusätzliche Stilllegung von Kraftwerkskapazitäten besteht nicht.“
·      „Es ist sinnvoll, Kraftwerke aus der Kaltreserve zurückzuholen und wieder in einen kurzfristig einsatzfähigen Zustand zu versetzen.“ (Anm.: Das wären natürlich in erster Linie die hier nicht gemeinten abgeschalteten Kernkraftwerke – technisch problemlos, politisch undenkbar).
·      „Die Übertragungsnetzbetreiber haben bestimmte, besonders risikobehaftete Szenarien… durchgerechnet. Zu diesen Szenarien zählen:
a)    Der Fall eines Starklast-Tages im Sommerhalbjahr, bei dem zusätzlich zum Moratorium eine Vielzahl von Kraftwerken wegen Revision nicht am Netz ist.
b)    Der Fall eines Starklast-/Starkwind-Tages im Winterhalbjahr.
c)    Der Fall eines Starklast-Tages mit sehr geringer EEG-Einspeisung im Winterhalbjahr.
d)    Der Fall eines Starklast-Tages mit sehr geringer Einspeisung im Winterhalbjahr verbunden mit dem Ausfall einer hoch belasteten Nord-Süd-Leitung.
Diese Szenarien sind für das Netz äußerst kritisch. Die Szenarien a) und b) erscheinen …gerade noch beherrschbar. Die Szenarien c) und d) sind nach derzeitiger Kenntnislage die kritischsten und bedürfen daher der intensiven weiteren Prüfung und möglicherweise weitergehender…..Maßnahmen….
Im Falle d) bleibt die Lage riskant, da bei einem möglichen Hinzutreten weiterer Umstände (z.B. Kraftwerksausfall, Ausfall eines weiteren Betriebsmittels) eine Leitungsbelastung von 140 % und mehr aufträte, die wegen des kaskadenartigen automatischen Auslösens der Schutzeinrichtungen nicht mehr beherrschbar wäre.“ (Ende des Zitats).
·      Mehrfach wird auf die Beeinflussung der Netze der Nachbarländer durch die auf deutscher Seite ergriffenen Maßnahmen kritisch eingegangen. Diese Passagen werden im Kapitel 15 zitiert.
Ende November 2011 legte dann die Bundesnetzagentur ihren „Monitorbericht 2011“ vor, der zahlreiche weitere bemerkenswerte Aussagen enthielt (9):
·      „Insgesamt konnte festgestellt werden, dass die derzeitige Situation im Netzbereich zwar beherrschbar ist, jedoch geht sie mit einer erhöhten Eingriffshäufigkeit der Netzbetreiber in den Systembetrieb einher. Nach wie vor ist die Netzinfrastruktur im Elektrizitätsbetrieb jedoch sicher und stabil.“ Anmerkung: Diese Aussage geschah kurz vor den äußerst kritischen Situationen in den darauf folgenden Winterwochen.
·      „Das …hohe Niveau der Versorgungssicherheit mit Elektrizität kann zukünftig nur durch massive Investitionen auf allen Netzebenen gewährleistet werden.“
    „Das Energieleitungsausbaugesetz EnLAG  benennt 24 Projekte, die vorrangig zu realisieren sind. Zwei dieser Projekte wurden fertig gestellt. Bei 12 der 24 EnlAG-Projekte sind deutliche Verzögerungen im Genehmigungs- und Realisierungsplan zu beobachten, so dass die jeweils vorgesehene Inbetriebnahme teilweise um mehrere Jahre überschritten wird.
      Etwa 214 km von 1807 km an neu zu errichtenden Trassen sind bislang fertig
      gestellt“.
       Von 149 insgesamt bis 2014 vorgesehenen Ausbaumaßnahmen (Anm.: an existierenden Trassen) unterläge Mitte 2011 die Hälfte – d.h.73 Projekte –   Verzögerungen. Dementsprechend dokumentierten auch die gemeldeten Investitionsdaten „erneut die erheblich hinter den Planungen zurückbleibende Realisierung von Neu- bzw. Ausbauvorhaben der Übertragungsnetze (Anm.: der Höchstspannungsnetze)“.
·      Gründe für die Verzögerungen seien:
    „Verzögerungen im behördliche Genehmigungsverfahren – beispielsweise auf
     Grund von Widerstand der lokalen Bevölkerung; Klagen gegen  
     Planfeststellungsbeschlüsse; Lieferengpässe, technische Gründe..“.
·      Zu den Verteilernetz-Betreibern: Diese hätten „die Option, auch EEG-Anlagen herunterzuregeln, wenn die Erzeugung aus erneuerbarer Energie vom Netzbetreiber nicht abgenommen werden kann, weil kein konventionelles Kraftwerk mehr zum Ausgleich heruntergeregelt werden kann“. „Im Jahr 2010 ist die durch das Herunterregeln entstandene Ausfallarbeit von EEG-Anlagen im Vergleich zum Jahr 2009 insgesamt um über 70% angewachsen. Dies zeigt die weiter steigenden Herausforderungen, denen die Netze (Anm.: alle Netzebenen) im Hinblick auf den rasanten Zuwachs der erneuerbaren Energien bereits jetzt, insbesondere aber in den nächsten Jahren, ausgesetzt sein werden“.
·      Die Kommentierung der Strompreisentwicklung durch die Bundesnetzagentur wird im Kapitel 16 zitiert.

Die Politik entdeckt das regionale Verbundnetz

Bereits lange vor dem Abschalten der 7+1 KKW hatten sich die Probleme aufgetürmt:
Mit den nicht vom Markt, sondern durch die Zwangssubvention des EEG kräftig  wachsenden Installationen von Windrädern und Photovoltaikanlagen entstanden zwei  Probleme, die  die Große Koalition überhaupt nicht und die Schwarz-Gelbe Regierung erst nach massiven Warnungen der Netzbetreiber ernst nahmen:
Problem Nr.1: Zum einen bemerkte man schließlich, dass der größere Teil der Windstromanlagen in Norddeutschland liegt, wo man aber deren Strom nicht brauchen kann.  Anders in Süddeutschland, wo es nach der Abschaltung mehrerer der dortigen  Kernkraftwerke durchaus einen Bedarf gäbe – wenn es dafür ausreichend  dimensionierte Nord-Süd-Höchstspannungsleitungen gäbe. Was nicht der Fall ist.
Problem Nr.2: Zum anderen bemerkte man bis zum Oktober 2011 nicht, dass es auch noch ein zweites gravierendes Netzproblem gibt: Im weitaus größeren regionalen Verteilungsnetz, das technisch nur für die Versorgung der Abnehmer, keineswegs aber für die stark schwankende Stromaufnahme aus vielen dezentralen  Windparks und Photovoltaikanlagen (s.u.) und die Weiterleitung dieses Stroms in das Höchstspannungsnetz ausgelegt ist (20).
Zum Problem Nr. 1: Für eine bessere Abnahme des Windstroms wünscht die Regierung bereits bis 2020 den Bau von 3000 km neuen Höchstspannungsleitungen von Nord- nach Süddeutschland. Der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 „Eckpunkte für den Stromnetzausbau“ vor:  „Es würden etwa 3.600 km neue Leitungen benötigt."
Die Deutsche Energie-Agentur Dena rechnet jedoch mit erforderlichen 4.450 km an zusätzlichen Höchstspannungsleitungen und die parlamentarische Staatssekretärin im BMU, Katherina Reiche, nannte kürzlich 4200 km. Weil die abgeschalteten Kernkraftwerke zuvor ganz wesentlich zur Stabilisierung des Netzes beigetragen hatten, das mit der schwankenden Ökostromproduktion zu kämpfen hat,  – sie können Leistungsschwankungen am schnellsten von allen Kraftwerken durch massives Gegensteuern ausgleichen (das sog. Lastfolgemanagement) –  mussten zuletzt immer häufiger Windparks zwangsweise abgeschaltet werden. Allein 2010 gingen dadurch ca. 150 Millionen kWh verloren.
 Auch die Anbindung der neuen Offshore-Windparks an das Netz an Land gerät in Turbulenzen: Soeben warnte der Netzbetreiber Tennet, der in Norddeutschland das E.ON-Stromnetz übernahm,  die Bundesregierung in einem Brandbrief vor Engpässen (siehe Kap. 6).
Wie die Bürger auf die Aussicht auf den geplanten massiven Ausbau der Hochspannungstrassen reagieren, wird in Kap. 14 näher beschrieben. Der bremsende Einfluss der vielen Bürgerinitiativen wird von den Netzbetreibern jedenfalls als noch ernster betrachtet, als die langen Genehmigungszeiträume.
Aber auch einer eingespielten Maschinerie für die Illumination des Bildes einer  vollkommen auf „erneuerbaren“ Energiequellen beruhenden Zukunft passiert hin und wieder ein Fehler – bzw. kommt versehentlich ein Stückchen Wahrheit ans Licht:
Das Bundesumweltministerium BMU hat am 3.5.2011 den „Entwurf des  Erfahrungsberichts 2011 zum Erneuerbare-Energien-Gesetz“  veröffentlicht. In diesem stehen auf Seite 38 und 39 bemerkenswerte, fast resignierende  Sätze:
 „Es muss davon ausgegangen werden, dass der Netzausbau auch künftig nicht in dem erforderlichen Maß vorankommen wird.“  (Im o.e. Fortschreibungsbericht der Bundesnetzagentur (2) kann man die Gründe nachlesen.)
Und weiter heißt es:
„Obwohl sich die betroffenen Netzbetreiber bemühten, die bestehenden Netzengpässe im Verteilnetz zu überwinden, stieg die durch das Einspeisemanagement abgeregelte Strommenge (Anm.: Das heißt: die abgelehnte Grünstrom-Aufnahme ins Netz) aus Windenergieanlagen von 2004 bis 2009 auf das 7-fache an. Einzelne Netzausbaumaßnahmen an kritischen Stellen im Netz könnten große Wirkung entfalten und diesen Trend abschwächen. Dennoch dürfte das Einspeisemanagement mit zunehmendem Ausbau der erneuerbaren Energien weiter an Bedeutung gewinnen, weil es zunehmend zu Netzengpässen kommen wird.“
Zum Problem Nr. 2: Wie im Kap.6 „Solarstrom..“ beschrieben, treten Netzprobleme  keineswegs nur im Hochspannungsnetz auf, das mit dem Transport der Windstrom-Schwankungen nicht fertig wird, sondern sie zeigen sich zunehmend auch in den unteren Spannungsebenen. Dafür sind die immer zahlreicher werdenden Photovoltaikanlagen, insbesondere Solarparks, aber auch Windparks im Binnenland verantwortlich, die mit ihren wetterabhängigen Schwankungen das nicht für Tausende von Stromeinspeisern ausgelegte regionale Netz in Schwierigkeiten bringen (20).
Man kämpft jetzt mit dem „50,2 Hertz-Problem“, der abrupten, massenhaften Selbstabschaltung der Photovoltaikanlagen bei Netzüberlastung durch zu hohe Einspeisung. Diese Sicherheitseinrichtung ist vorgeschrieben und sehr vernünftig. Nur hat die Regierung übersehen, dass sie sich damit ein neues Problem einhandelt, wenn eine riesige Anzahl von PV-Anlagen, mit der kein vernünftiger Mensch im sonnenarmen  Deutschland je rechnen konnte,  das gleichzeitig tut.
Die nun notwendige technische Nachrüstung aller PV-Anlagen mit automatischen Meß- und Abschaltgeräten sowie die mit Gewissheit auch hier künftig praktizierte Entschädigung der PV-Betreiber für den nicht gelieferten Strom würde wohl unweigerlich wieder den Stromverbrauchern aufgebürdet werden.
Als  notwendige  Abhilfe gilt deshalb der Ausbau nicht nur der höchsten, sondern auch der unteren Spannungsebenen mit ihren Netzen und der Einsatz von Ortsnetztransformatoren.
Dazu gab es endlich auch eine Zahl – und zwar eine sehr hohe: Katherina Reiche, parlamentarische Staatssekretärin im BMU, erklärte Ende November 2011 auf einem VDI-Kongress, dass das Netz „massiv umgebaut“ werden müsse. „Beim Höchstspannungsnetz seien 4200 km, bei den Verteilnetzen 200.000 km in moderner Netztechnik nötig.“
Sie reagierte damit vermutlich auf eine im Auftrag des Bundesverbandes Windenergie angefertigte Studie der Ecofys Germany GmbH, in der ein folgenschwerer Satz steht (eigene Ergänzungen in Klammern):
„Die Ausfallarbeit durch Abregelung (d.h. Abschalten der Wind- und Solarstrom-Einspeiser) aufgrund von Netzengpässen im Übertragungsnetz (Höchstspannungsnetz mit 380 oder 220 Kilovolt; Länge 35.000 km) ist bislang noch wesentlich kleiner als die Ausfallarbeit aufgrund von Netzengpässen im (1,7 Millionen km großen) regionalen Verbundnetz.“
Das Hauptproblem für die Netzstabilität liegt also bei den sehr viel größeren Verteilnetzen: Diese bestehen aus  dem regionalen Hochspannungsnetz HV (100 oder 60 kV mit 77.000 km); dem  Mittelspannungsnetz MS (30 – 3 kV mit 500.000 km)  und dem Niederspannungsnetz NS (400 oder 230 Volt mit über 1 Million km) – und die zusammen sind in der Tat riesenhaft. (Daten von Verivox).
Ausgerechnet im März 2011, dem Monat des Kernkraftmoratoriums, legte der BDEW ein Gutachten zum „EEG-bedingten Ausbaubedarf des Verteilungsnetzes“ vor (20), in dem sowohl für das Energiekonzept 2020 der Bundesregierung vom 28.9.2010 (23) als auch für das BMU-Leitszenario 2020 (21) die notwendigen Ausbaumaßnahmen behandelt wurden. Erforderlich sei:

  1. Nach dem Energiekonzept 2020:
  • HS: 350 km
  • MS: 55.000 km
  • NS: 140.000 km

…..mit Gesamtkosten zwischen 10 und 13 Mrd. Euro;

  1. Nach dem BMU-Leitszenario 2020:
  • HS: 650 km
  • MS: 140.000 km
  • NS: 240.000 km

…..mit Gesamtkosten zwischen 21 und 27 Mrd. Euro.
Diese Ausbaukosten des Verteilungsnetzes  (MS + NS) kämen somit noch zu den Ausbaukosten des Höchstspannungsnetzes (= Übertragungsnetz) hinzu.
Der Verband kommunaler Unternehmen VKU forderte deshalb in einer Erklärung vom 17.11.2011 die Politik und die Regulierung auf, ihren Blick auf diese 1,7 Mio km der Stromverteilnetze zu richten und nicht nur auf die knapp 35.000 km der Höchstspannungs-Übertragungsnetze, denn mehr als 80% der Anlagen der „Erneuerbaren Energie“ waren 2009 an die unteren Verteilnetze  angeschlossen und haben diesen die Probleme gebracht..
Der VKU rechnet für einen derartigen Ausbau und die Integration der dezentralen Energieversorgung in den Verteilnetzen mit 25 Mrd € bis 2030. Darin seien die Kosten des Umbaus zur vielseitigen Mess- und Steuerbarkeit (Smart Grids) noch nicht einmal enthalten.
Auswirkungen auf den Strompreis sind unausweichlich.
Peinlich für die Regierung: Im neuen Energieleitungsausbau-Gesetz EnLAG sind nur die Höchstspannungs-Trassen des Übertragungsnetzes vorgesehen. Es ging den Gesetzesmachern nur um die Durchleitung des Windstroms von Nord nach Süd. Die Gefährdung der Stabilität des weitaus  größeren  Verteilnetzes durch die vielen unkontrollierten Stromerzeuger hatte man übersehen.

Die Zuverlässigkeit der Stromversorgung verringert sich systematisch

Während die Bundesregierung – im Gegensatz zu ihrer Bundesnetzagentur –  die anwachsende Bedrohung der Netzstabilität herunterspielt – Röttgen bezeichnete solche Warnungen unlängst als Horrorszenario – wächst in der Industrie eben diese Sorge. Nicht aus Freude an Horrorszenarien, sondern aus konkreten Erfahrungen im Jahre der Energiewende 2011.
Das Handelsblatt berichtete am 29.12.2011 über die sinkende Qualität der Stromversorgung: „Mit der beschleunigten Energiewende kommt es bereits heute zu bedenklichen Qualitätsverlusten bei der Stromversorgung“, wird Volker Schwich, der Vorstandsvorsitzende des Verbandes der Industriellen Energie- und Kraftwirtschaft (VIK) zitiert. Die Stabilität komplexer Produktionsprozesse sei bedroht – lange bevor die Allgemeinheit einen Blackout bemerkt. Kurze Unterbrechungen im Millisekundenbereich und Frequenzschwankungen führten jetzt häufiger als früher zu Problemen.
In einem Brandbrief an den Präsidenten der Bundesnetzagentur M. Kurth listet eine Tochterfirma des norwegischen Norsk-Hydro-Konzerns, der als drittgrößter Aluminiumhersteller der Welt in Deutschland an 14 Standorten Unternehmen der Al-Primärproduktion betreibt, die Probleme aus den Instabilitäten auf. Man beobachte „seit Juli 2011 eine beunruhigende Häufung aus Netz- und Frequenzschwankungen.“
In dem Schreiben werden die 5 wesentlichsten Fälle aus den vergangenen Monaten aufgelistet, die zu teuren Schäden geführt hätten. Die steigende Zahl der netzbedingten Produktionsbeeinträchtigungen sei beunruhigend. Eine solche Häufigkeit von Zwischenfällen habe es in den vergangenen Jahrzehnten nicht gegeben.
Die Bundesnetzagentur, die über die Netzstörungen eine Statistik führt, berücksichtigt aber nur ungeplante Unterbrechungen, die länger als 3 Minuten dauern. Der sich daraus ergebende Index (SAIDI) sieht deshalb optisch gut aus.
Er berücksichtigt aber aus der Sicht der Industrie nicht die sich häufenden und wachsende Probleme verursachenden Störungen von weniger als 3 Minuten Dauer.
In der kurzen Debatte um die Energiewende war die Zuverlässigkeit der Stromversorgung ein zentrales Thema. Heinz-Peter Schlüter, der Aufsichtsratsvorsitzende und Eigentümer von Trimet-Aluminium, hatte in den Anhörungen der Ethik-Kommission „Sichere Energieversorgung“ vor den unausweichlich auf die Industrie zukommenden Problemen gewarnt: Mit dem Wegfall einer zuverlässigen Stromversorgung verliere er seine Existenzgrundlage.
„Nur vier Stunden ohne Stromversorgung und die Produktionsanlagen meines Unternehmens wären irreparabel zerstört“, hatte Schlüter gewarnt.
Die Töpfer-Ethik-Kommission beeindruckte das nicht.

Der Winter 2011/2012: Noch einmal Glück gehabt

Die Bundesnetzagentur nannte in ihrem Bericht (2) die Region Hamburg als besonders bedroht. Dort reagierte man:  Im November 2011 bereitete sich Hamburg auf die Möglichkeit eines totalen Stromausfalls im  Winter 2011/2012 vor, wie WELT Online am 21.11.2011 berichtete.
Der Netzbetreiber 50Hertz arbeite an einem Notfallplan und verhandle bereits mit großen Stromverbrauchern über eine Abschaltung. Olivier Felix von 50Hertz: „Eine solche Situation kann eintreten, wenn im Winter bei Hochdrucklagen keine Windenergie erhältlich ist und zusätzlich das KKW Brokdorf unerwartet abgeschaltet werden muss.“ Vor nicht allzu langer Zeit gab es in dieser Region noch die KKW Stade (wird abgerissen), Brunsbüttel und Krümmel (sind stillgelegt). Deren Leistung fehlt nun.
Diese Sorge ist sehr berechtigt, wie die folgenden Meldungen zeigten:
Die Stabilität des deutschen Stromnetzes konnte im Dezember 2010 zum Teil nur dank Nachbarschaftshilfe aus Östereich aufrechterhalten werden. Bereits am 8. und 9. Dezember musste der Netzbetreiber Tennet erstmals auf die von der Bundesnetzagentur für Stromengpässe festgelegte sog. Kaltreserve zurückgreifen. Dafür musste unter anderem ein altes Öl-Kraftwerk bei Graz wieder ans Netz gebracht werden. „Die Netzsituation ist nach wie vor angespannt“, betonte damals ein Sprecher der Bundesnetzagentur.
Wie erwartet, trieb die Eiseskälte zu Beginn des Monats Februar 2012 den Strombedarf in Frankreich enorm in die Höhe – am 7.2. belief er sich auf 100.500 Megawatt. Frankreich war wie in jedem Winter auf Stromimporte aus Deutschland angewiesen, was offenbar auch dieses Mal problemlos funktionierte, denn es gab zunächst nur selbstzufriedene offizielle Kommentare.
Das führte zu triumphierenden Pressemeldungen, nach denen diese Situation ein Beweis dafür wäre, dass die abgeschalteten deutschen Kernkraftwerke sowieso überflüssig gewesen seien. „Bitter für die Atomlobbyisten“ sei das.
Nach Angaben der deutschen Energiekonzerne sei aber auch in Deutschland zu dieser Zeit der Strompreis auf 16 Cent/kWh angestiegen, weil sogar alte und teure Ölkraftwerke Strom produzieren mussten. „Fakt ist, dass man derzeit nur auf Sicht fährt“, kommentierte RWE-Chef Großmann bereits damals.
Es dauerte  5 Wochen, bis die Wahrheit endlich ans Licht kam:
Denn die Bundesnetzagentur veröffentlichte erst Mitte Februar 2012 die wahre Schreckensmeldung: Nur die Notreserven hätten im Zeitraum vom 6. Bis zum 9. Februar das Netz vor dem Blackout gerettet. „Es war sehr, sehr ernst“,  hieß es am 16.2 in der Aufsichtsbehörde (lt. VDI-nachrichten vom 17.2.).
Folgendes war demnach geschehen: Wegen der Rekord-Nachfrage nach Strom von bis zu 100.000 Megawatt in Frankreich und auch eines in Deutschland hohen Verbrauchs bei extremer Kälte schnellte der Börsen-Strompreis am Spotmarkt für kurzfristige Einkäufe in die Höhe; teils zu über 350 € für die Megawattstunde. Der Run auf die knappen Strom-Ressourcen führte dazu, dass Notreserven herangezogen werden mussten – und dieses Anzapfen der Notreserven drohte das Netz in die Nähe des Zusammenbruchs zu bringen. „Das Verlassen auf diese Regelleistung wird in der Politik und der Industrie als riskantes Vabanquespiel bezeichnet“ (T. Federico, GF des Beratungsunternehmens Energy Brainpool).
Inzwischen meldete sich auch der Chef der Industriegewerkschaft Bergbau, Chemie, Energie (IG-BCE) Michael Vassiliades.  Er sagte am 5.2.12: „Wir brauchen einen doppelten Schutz vor Preis- und Frequenz-Schwankungen im Netz, die wirtschaftlich nicht mehr tragbar sind“. Alles andere sei fahrlässig. (Diese Aussagen im Detail s. Kap.8).
Zur Erinnerung: Der  geplante riesenhafte Ausbau des Stromnetzes ist nur eine Folge der Fehlentscheidung, die Windkraft ebenso wie die Photovoltaik so lange übermäßig durch Subventionen zu fördern, bis deren gewaltige Schwankungen und ihr unvorhersehbar auftretender Überschuss zu einer Bedrohung der Netzstabilität wurde. Ohne diese Fehlentscheidung und ohne die Abschaltung der 8 Kernkraftwerke hätte das Netz weiterhin völlig ausgereicht.
Wenn unsere Nachbarländer dem Beispiel Polens, das keinen grünen Spitzenstrom mehr hereinlassen will, folgen sollten, bricht das deutsche Stromnetz durch die selbst verschuldeten Störungen, die dann nicht mehr exportiert werden können, möglicherweise bei jedem Sturmtief zusammen. (Siehe Kap. 16 „Energiewende bedroht die Nachbarländer.“)
Doch die Geldvernichtung im Namen der Umwelt  geht weiter: Die Regierung subventioniert  Wind- und Solarstrom weiterhin mit dem EEG und bekämpft anschließend mit weiteren Milliarden die eben dadurch verschärften Probleme….

….16. Für Industrie und Bürger wird es immer teurer – die "Energiearmut" wächst

Es ist eine eiserne Regel der Marktwirtschaft, die auch für Ideologen, Weltverbesserer oder Zwangsbeglücker gilt: Verstöße gegen die Prinzipien der Wirtschaftlichkeit werden durch Preiserhöhungen bestraft. Die deutsche Energiepolitik insbesondere der letzten und der gegenwärtigen Regierung führt exakt zu diesem Ergebnis.
Das stärkste Werkzeug zum Umwandeln einer Marktwirtschaft in eine Planwirtschaft  ist seit dem Jahre 2000  das Erneuerbare-Energien-Gesetz (EEG).
Es ist nach wie vor in Kraft.
Der durch das EEG bewirkte Zuwachs an Windkraft-, Photovoltaik- und Biogasanlagen, deren Stromerzeugung von den Netzbetreibern vorrangig angenommen und mit den bekannten hohen Einspeisevergütungen bezahlt werden muss, führt zu beständig steigenden Strompreisen, weil diese Kosten auf die Verbraucher abgewälzt werden dürfen. Alle Preissteigerungen für Mineralöl- und Gaslieferungen werden durch die hohen Steuern noch verstärkt. Deutschlands Energiesteuern und –abgaben zählen bekanntlich zu den höchsten in Europa:
–       Die gesetzlich verursachten Belastungen des Strompreises in Form von Abgaben und Steuern stiegen 2011 auf 46%.
–       Die darin enthaltene, stetig ansteigende EEG-Umlage betrug 2011 3,530 Cent/kWh zusätzlich 0,67 Cent/kWh MWSt und lag damit bereits bei 17% Anteil am Haushaltsstrompreis.
–       Bei Industriebetrieben, die die volle EEG-Umlage entrichten müssen, ist der relative Anteil aufgrund des geringeren Preisniveaus für Industriekunden noch höher: Dieser Anteil am Strompreis liegt 2011 für einen mittelspannungsseitig versorgten Industriebetrieb bei 26% (90).

Eine Umverteilung zu Lasten der privaten Haushalte

Wie ernst diese Situation für die energieintensiven Industrien – Chemie, Papierindustrie, Düngemittelindustrie, Glaswerke, Stahlwerke, Baustoffindustrie, Aluminiumhersteller, Metallverarbeitung –  bereits geworden ist, ist der Regierung bereits durch Wirtschaftsverbände und Gewerkschaften klar gemacht worden.
Der SPIEGEL  brachte vor kurzem unter dem Titel „Ofen aus“ einen sehr  kritischen Bericht über die Wirkung der Energie-Preissteigerungen auf die Unternehmen – mit konkreten Beispielen zu Oettingers Vorhersage (63).
Die Reaktion der Regierung war bezeichnend: Der Staat verzichtet keineswegs auf  seine vielfältigen Steuern und Abgaben auf den Strompreis, die ihn hier dermaßen teuer machen. Er verteilt die Lasten einfach um.
Ein Entlastungs-Instrument dafür ist die o.g. am 28.7.2011 geänderte Verordnung (StromNEV), die unauffällig im Konvoi anderer Energiewende-Gesetze  versteckt und die von der Presse erst nach einem Vierteljahr entdeckt wurde.
In dem für Laien praktisch unlesbaren Juristenchinesisch verbirgt sich im §19 ein Goldesel: Unternehmen mit einem hohen Verbrauch werden fast komplett von den Netzgebühren befreit – und auch noch rückwirkend für das laufende Jahr.
Unternehmen, die mindestens 7000 Stunden jährlich am Stromnetz hängen und mehr als 10 Millionen kWh Strom verbrauchen, müssen gar keine Netzgebühren mehr bezahlen.
Bereits ab einem jährlichen Stromverbrauch von 100.000 kWh sinken die Netzkosten deutlich, so dass Tausende Unternehmen nicht den vollen Preis zahlen müssen.
Die dadurch von den Unternehmen gesparten Netzkosten werden voll auf den Strompreis umgelegt – also von den Verbrauchern bezahlt. Geschätzt wird, daß die Strompreise allein durch diese Netzkostenermäßigung um 0,75 bis 1,0 Cent / kWh steigen könnten. Pro Haushalt mit ca. 4000 kWh Jahresverbrauch wären das bis zu 40 Euro mehr.
Und noch eine zweite Entlastung gab es: „Stromintensive Unternehmen des produzierenden Gewerbes mit einem Jahresstromverbrauch von mehr als 100.000 MWh (Megawatt-Stunden) sowie einem Stromkostenanteil an der Bruttowertschöpfung von mehr als 20 Prozent….gelten als privilegierte Letztverbraucher und müssen grundsätzlich nur eine begrenzte EEG-Umlage in Höhe von 0,05 Cent/kWh auf ihren Stromverbrauch entrichten“ (90).
„Die Industrie zu entlasten und allein die Kleinverbraucher die Zeche zahlen zu lassen, ist eine Dreistigkeit, die bisher ohne Beispiel ist,“ zitierte die „Frankfurter Rundschau“  Verbraucherschützer Holger Krawinkel.
Aber das ist das durchgängige Prinzip bei der Energiewende. Sie beruht schließlich ganz wesentlich auf der Schröpfung der Bürger durch ihre Zwangsbeglückung mit zu teurer Energie. Mit dieser fortgesetzten Umverteilung zu Lasten der kleinen Leute  dürften die Warnungen des Energiekommissars vor dem Ende des  sozialen Friedens  Wirklichkeit werden.
Auf die Bürger kommen  aber noch eine Reihe neuer Kosten zu:
 ■ Die Folgen des Erneuerbare-Energien-Gesetzes.
Die folgenden Angaben stammen aus der Veröffentlichung vom 15.10.2010 der 4 Übertragungsnetz-Betreiber (ÜNB), die per Gesetz verpflichtet sind, jeweils am 15.10. eines Kalenderjahres die EEG-Umlage – das sind die durch das EEG verursachten Mehrkosten, die den Endverbrauchern aufgebürdet werden – für das folgende Jahr zu ermitteln:
„Die ÜNB haben…auf Basis von Prognosen unabhängiger Gutachter für 2011 eine EEG-Einspeisevergütung in Höhe von 16,7 Mrd. € ermittelt. (Anm.: Davon gehen unglaubliche 8,38 Mrd. € an die Photovoltaik-Betreiber, die aber nur klägliche 1,9% der deutschen Stromerzeugung beisteuern.)
Der prognostizierte Gegenwert des eingespeisten Stroms liegt bei 4,7 Mrd. €.
Zusätzlicher Differenzbetrag (aus 3 Quartalen von 2010): 1,1 Mrd. €.
Insgesamt werden somit rund 13 Mrd. € über die EEG-Umlage refinanziert.“
Dies ist die Summe, die die Endverbraucher zusätzlich für den grünen Strom aufzubringen haben.
 „Wie die 4 ÜNB mitteilen, bedeutet dies im Jahre 2011 eine Belastung von
3,530 Cent pro kWh.
Für das Jahr 2010 betrug die EEG-Umlage 2,047 Cent pro kWh.“
Das ist eine Steigerung von 73% in nur einem Jahr.
Das bedeutet für einen Haushalt mit einem Jahresverbrauch von 2500 kWh:

  • 88 € Mehrkosten durch das EEG im Jahre 2011
  • gegenüber 51 € im Jahre 2010.

Wesentlich interessanter ist aber die Vorhersage für 2012:
Die Bundeskanzlerin hatte noch im Sommer 2011 erklärt: „Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen. Heute liegt sie bei etwa 3,5 Cent / kWh.“ Umweltminister Röttgen versprach das Gleiche.
Für 2012 hatte die Bundesnetzagentur anschließend angekündigt, dass die EEG-Umlage bei 3,6 Cent / kWh liegen werde.
Nun zeigt die neue Prognose der Netzbetreiber vom 15.10.2011 für das Jahr 2012, „dass die Bandbreite der Ökostrom-Umlage zwischen 3,66 und 4,74 Cent / kWh liegen wird.“
Auch die Deutsche Energie-Agentur Dena widersprach Anfang Dezember: „Es wird nicht gelingen, die EEG-Umlage auf etwa 3,5 Cent pro Kilowattstunde zu begrenzen,“ sagte Dena-Chef Stephan Kohler der „Frankfurter Rundschau“.
Laut Kohler ergeben Dena-Berechnungen, dass die Umlage 2013 bereits knapp unter 4 Cent und 2020 bei 5 bis 5,5 Cent liegen wird. Für einen 3-Personen-Haushalt bedeutet das ca. 210 Euro Mehrkosten.
Im Januar 2012 lagen der Strompreis um 3 % und der Gaspreis mit 6,7 % über dem Preis des Vorjahres, wie das Statistische Bundesamt mitteilte.

■  Die  Mieter trifft die Energiewende doppelt:

 Das Gesetz zur Energieeinsparung in Gebäuden hat sich zu einer ernsten finanziellen Bedrohung für die Mieter entwickelt. Denn zu den ständig steigenden Stromkosten kommt im Falle einer Energiesanierung eines Miethauses eine kräftige Mieterhöhung hinzu. „Mieter zahlen für die Energiewende drauf“, sagte Mieterbundchef Bernhard von Grünberg dem Bonner Generalanzeiger.
Nach geltendem Recht können Vermieter elf Prozent der Modernisierungskosten auf die Jahresmiete aufschlagen. Im Schnitt steigt die Miete nach einer Energiesanierung um 2,40 € pro qm, die Energieersparnis aber beträgt nur 50 Cent. „Die Miete steigt real um 1,90 € pro Quadratmeter,“ rechnet Grünberg vor.
Der NRW-Mieterbund lehnt den Kabinettsentwurf der Mietrechtsreform des Bundes mit der weiterhin enthaltenen 11-Prozent-Kostenumlage auf die Mieten ab.
Die Wohnungsgesellschaft LEG hat in Ratingen festgestellt, dass viele Rentner wegen der gestiegenen Heizkosten ihre Heizung nicht mehr einschalten.
Inzwischen wird die Forderung nach Sozialtarifen für einkommensschwache Verbraucher erhoben und von der Politik – noch – abgelehnt.
■ Weitere Strompreiserhöhungen drohen durch die  2011 beschlossenen Energiewende-Pläne sowie durch die Umsetzung einiger bereits 2010 eingeleiteter Vorhaben :
·      Die Abschaltung von 8 Kernkraftwerken entzog dem europäischen Stromverbund schlagartig 9000 MW Grundlast. Der Strompreis stieg sofort an der Börse. Schätzungen belaufen sich auf +20% – und nicht nur für Deutschland. Die Netzbetreiber – s.o. – konnten das bei ihrer Prognose vom Oktober 2010 noch nicht einbeziehen.
·      Eine große Zahl von energieintensiven Unternehmen hat – unbemerkt bei der Verkündung der Energiewende – von der Regierung eine weitgehende Befreiung von den Netzentgelten zugestanden erhalten. Mit der Überwälzung der dort eingesparten Kosten wieder auf die Endverbraucher. Auch das kommt noch hinzu.
·      Falls der riesenhafte geplante Ausbau des Höchstspannungsnetzes tatsächlich in Gang kommt – vieles spricht dagegen – dann werden alle damit verbundenen Kosten auf den Strompreis draufgepackt.
·      Der Ausbau von Windkraft – speziell die teure Offshore-Windkraft – und von Photovoltaik und Biogaserzeugung geht unvermindert weiter. Nur bei der Photovoltaik voraussichtlich langsamer, aber wegen ihrer hohen Kosten weiterhin preistreibend. Damit steigt die EEG-Umlage weiter.
·      Es ist zu erwarten, dass die Regierung in Anbetracht der Unwilligkeit der Kraftwerksbetreiber, neue Gaskraftwerke zu bauen, dies mit Steuergeldern und Steuerermäßigungen anregt, da sich Gaskraftwerke als einzige fossile Kraftwerke der Sympathie der Regierung erfreuen. Leider ist der von ihnen erzeugte Strom wegen der hohen Gaspreise sehr teuer. Dann zahlen die Bürger wieder mehr.
·      Falls es der Regierung wider Erwarten gelingen sollte, Zugang zu norwegischen Wasserkraftwerken als Speicher für Überschuss-Windstrom zu erlangen, wird Windstrom teurer. Dann steigt die EEG-Umlage.
·      Es ist zu befürchten, dass die weiter zunehmende und in der Fläche verteilte Photovoltaik die bereits sichtbaren Netzprobleme in der regionalen Mittelspannungs-Ebene derart verschärft, dass zusätzlich zu den ohnehin geplanten 3000 oder 4400 km Hochspannungstrassen noch ein starker Ausbau der regionalen Stromleitungen nötig wird. Diese Netze sind nicht auf viele Einspeiser ausgelegt, die Sonnenlicht-abhängig je nach Wetterlage kurzfristig extreme Leistungsspitzen erzeugen können. Die Verbraucher werden das dann ebenfalls zu bezahlen haben.
·      Weil sich lt. BDEW wegen der Außerbetriebnahme älterer fossiler Kraftwerke und der geringen Neubau-Aktivität bis zum Jahr 2030 eine Erzeugungslücke von ca. 33.000 MW auftun wird, wird dort über „neue Mechanismen und ein anderes Marktdesign für die Strompreisfindung“ diskutiert. Eine Option seien „Kapazitätsmechanismen“. Im Klartext: Mit einer zusätzlichen Vergütung sollen Investitionen für die „Vorhaltung von Erzeugungsleistung“ – also den Bau von dann zumeist stillstehenden Kraftwerken, die bei Engpässen einspringen können – angeregt werden. Diese Investitionen unterbleiben heute logischerweise wegen der durch das EEG verursachten zunehmenden wirtschaftlichen Unattraktivität von Kraftwerksneubauten (6).
      In dieselbe Kerbe schlägt die Bundesnetzagentur (9):
      Weil in Süddeutschland, das bereits besonders hart von der Abschaltung von
      Kernkraftwerken betroffen ist,  künftig (bis 2022) sogar mehr Kraftwerke außer
      Betrieb gehen werden, als neue auch nur geplant sind, wird vorgeschlagen, „über
      Allokationsanreize (= vornehme Bezeichnung für Subventionen) für den Neubau
      von Kraftwerksleistung nachzudenken.“
·      Der BDEW scheint auch  in Anbetracht der von ihm  erwarteten Unrentabilität von Kraftwerksneubauten – sie würden zu 40% der Zeit still stehen – die Hoffnung auf ausreichend Neubauten zur Netzstabilisierung aufgegeben zu haben (6): Es schlägt deshalb vor, die am Ende ihrer im Durchschnitt 40-jährigen Lebensdauer stillzulegenden Altkraftwerke unbedingt weiter zu betreiben – natürlich mit umfangreichen Reparaturen, Nachrüstungen und Modernisierungen. Dies könnte „bei entsprechenden ökonomischen Rahmenbedingungen“ – also Subventionen – „einen substanziellen Beitrag zur Deckung des Bedarfs an Kraftwerkskapazität liefern“.  Wer das dann bezahlen darf, ist klar.
·      Eine deutliche Warnung vor den dramatischen Folgen des steigenden Strompreises für Deutschland gab es mehrfach im Jahre 2011 von EU-Energiekommissar Günther Oettinger. Hohe Energiekosten gefährdeten nicht nur den Wirtschaftsstandort,  sondern auch den sozialen Frieden, wenn ein Teil der Menschen die Stromrechnung nicht mehr bezahlen könne. "Ich bin überrascht, wie gedankenlos die Entwicklung der Strompreise hingenommen wird“, sagte Oettinger. Deutschland zähle weltweit zu der Spitzengruppe bei den Strompreisen.
·      Weil der Offshore-Windpark-Netzanbinder in Schwierigkeiten geraten ist, ertönt auch aus dieser Richtung der Ruf nach noch mehr Staatsgeld: Der in Finanzierungsproblemen steckende Netzbetreiber Tennet, der gesetzlich zum Anschluss aller Windräder in der Nordsee verpflichtet ist, hatte eine Idee: In einem Brief an den Bundeswirtschaftsminister schlug er vor, dass es „vor weiteren Aufträgen für den Anschluss von Offshore-Windparks bei der Haftung neue Regelungen geben müsse“. Denn: „Wo Versicherungen nicht mehr einsprängen, müsse eine „Sozialisierung der Schäden“ (!) ermöglicht werden“ (85). Treffender kann man es nicht ausdrücken.
Auch der Energiekonzern E.on, der unter Verweis auf die Verzögerungen durch Tennet dramatisch „Deutschland vor Scheitern der Windkraft“ warnte (86), kritisierte, dass „die finanziellen Anreize für die Netzbetreiber  unzureichend“ seien. Die Regulierungsbehörde müsste daher Investitionen „höher vergüten“.
·      Die Errichter von Offshore-Windparks haben ebenfalls bereits schmerzliche Erfahrungen mit großen Kostensteigerungen und Verzögerungen gemacht. Der Anlagenbauer Bard aus Emden, der den bisher größten Windpark in der Nordsee vor Borkum errichtet, ist in Finanzierungsschwierigkeiten geraten. Sollten derartige Kostensteigerungen  den Unternehmen untragbar erscheinen, genügt vermutlich die Ankündigung, den Bau der Windparks einzustellen, um zusätzliche Steuermittel locker zu machen (87).
·      Die Offshore-Windkraft  bringt auch neue Förderungskandidaten hervor: Birger Nicolai schrieb im Dezember 2011: „Das Rennen um öffentliche Gelder droht aus dem Ruder zu laufen: Selbst Häfen wollen sich den Umbau ihrer Kaianlagen vom Staat bezahlen lassen“ (87).

Energiearmut droht

Der scharfe Preisanstieg für Strom und Gas hat nun zu ernsten Zahlungsschwierigkeiten für mehr und mehr Verbraucher geführt – bis hin zu dunklen Wohnungen. Bereits heute können Hunderttausende Haushalte in Deutschland ihre Energierechnungen nicht mehr bezahlen, wie die WELT am 22.2 2012 berichtete 82).
Wegen unbezahlter Rechnungen sei schätzungsweise 600.000 Haushalten 2010 die Energieversorgung abgeschaltet worden, teilte die Düsseldorfer Verbraucherzentrale NRW mit. Diese Schätzung wurde auf Grund einer Umfrage bei 58 Unternehmen der lokalen Energieversorger im größten Bundesland, von denen drei Viertel antworteten, ermittelt.
"Preisanstiege von rund 15 Prozent für Strom und Gas in den vergangenen zwei Jahren machen Energie für viele Haushalte unbezahlbar", sagte Verbraucherzentrale-Chef Klaus Müller. Die steigende Energie-Armut sei alarmierend. Im Jahre 2010 hatten die befragten Unternehmen allein in NRW drei Millionen Mahnungen wegen unbezahlter Stromrechnungen versandt. Sie drohten
340.000 Stromabschaltungen an  und schalteten 62.000 Haushalten den Strom ab.
Nach Hochrechnungen von Verbraucherschutzgruppen wurde allein in NRW ca. 120.000 Haushalten und bundesweit 600.000 Haushalten die Energie abgeschaltet.
Eine Sprecherin der NRW-Verbraucherzentrale fügte hinzu, dass sich ihre Verbraucherberatung zunehmend auf die Frage konzentriert, wie Verbraucher mit Zahlungsverpflichtungen gegenüber ihren Energieversorgern zurechtkommen können.
Oettingers Prognose bezüglich sozialer Spannungen könnte Wirklichkeit werden, allerdings muss die Zahl der Haushalte ohne Strom erst die politisch wirksame Millionengrenze übersteigen.
Die notwendige Reaktion der Politik auf die beschriebenen Probleme, die durch die seit Jahren systematisch betriebene  Verteuerung der Energie mit ihren  zerstörerische Wirkungen verursacht wurden, wäre eine Rückführung der Energiesteuern und -abgaben auf die Größenordnung, die auch unsere Konkurrenten haben.
Das wäre allerdings nicht der deutsche Weg. Wie man bereits bei der Befreiung der energieintensiven Industrie von den Netzkosten gesehen hat, die nur auf die Verbraucher umverteilt wurden, wird man auch das Problem der wachsenden Energiearmut nicht durch eine kräftige Senkung der hohen Energiesteuern und             -Abgaben lösen. Man wird vielmehr wie bereits bei Hartz-IV–Empfängern Energiekostenzuschüsse erfinden und sie an die von der Energiearmut Bedrohten über die Sozialämter verteilen. Das hat für den reglementierenden Bürokratenstaat den Vorteil, dass Bürger zu Bitt- und Antragsstellern und damit in ihrem vermutlich nicht klimagerechten Energieverbrauch kontrollierbar werden, anstatt ihnen ihr Geld zur eigenmächtigen Verfügung zu belassen.
Die im Kapitel 12 „Die Energie-Planwirtschaft ist Realität“ aufgelisteten staatlichen Eingriffe in den Energiesektor sind ausnahmslos preistreibend, weil gegen den freien Markt gerichtet und stellen deshalb zugleich eine Auflistung der vielen Komponenten dar, die den Bürgern eine nicht enden wollende Kette von Strompreiserhöhungen bescheren werden.
Alle  in  den obigen Ausführungen beschriebenen, den Strompreis kräftig in die Höhe treibenden Handlungen der Regierung werden aber voraussichtlich von einem Ereignis in den Schatten gestellt, das am 1.1.2013 eintritt.
An diesem Tag beginnt die Versteigerung der Emissionszertifikate, die der Industrie bislang zugeteilt wurden. Nach einer Schätzung des Energiefachmanns Dr. Alfred Richmann, Meckenheim, wird  der Strompreis „über Nacht“ um ca. 50% steigen.
Dass diese Zertifikate die Emissionen in der EU um keine einzige Tonne reduzieren können, weil sie nur für die Umverteilung von Emissionen zwischen Ländern und Industrien sorgen, wie schon mehrfach aber erfolglos von Fachleuten bekräftigt wurde,  ist nur eine weitere Absurdität in der Energie- und „Klimaschutz“-Politik der EU – und natürlich auch Deutschlands….

….19. Schäden und Kollateralschäden

Die „aktuelle“ Energiepolitik (Zitat BMU – (91)) besteht aus sechs grundsätzlichen Fehlern, vier Sekundärfehlern sowie einer immer länger werdenden Reihe von weiteren potenziellen Kollateralschäden, mit denen die Schadwirkungen der Grundsatzfehler repariert werden sollen. Wobei diese „Reparaturmaßnahmen“ niemals den Grundübeln zu Leibe rücken, sondern im Gegenteil stets so eingerichtet werden, dass die gefährlich gewordenen primären Schadwirkungen durch neue kostspielige Investitionen, Subventionen und Kostenüberwälzungen auf die Verbraucher zugekleistert werden – womit sie selbst zu neuen Schädigungen von Bürgern und Wirtschaft führen.
Das Prinzip ist: Alte Fehler weiterbestehen lassen, neue Fehler einführen, um die dahinter stehende planwirtschaftliche Ideologie zu schützen.
Die Grundsatz-Fehler sind (siehe auch Kap. 2):
1.    Die Fokussierung des EEG auf die Stromerzeugung. Das ignorierte den Sektor  
      Wärmeversorgung sowohl bezüglich der dort umgesetzten Energiemengen als
auch bezüglich der Importabhängigkeit der dort eingesetzten, überwiegend
  fossilen Energieträger.
2.    Das verfolgte Ziel, bei der Stromerzeugung von fossilen Energieträgern wegzukommen, wurde mit einer falschen Förderungspolitik angegangen: Man wählte bestimmte Techniken dafür aus, anstatt Einsparziele für die Energieträger vorzugeben und die Wahl der dafür geeigneten Techniken bzw. deren Weiterentwicklung dem industriellen Wettbewerb zu überlassen.
3.    Es wurde zwar ein riesiger Ausbau von Wind- und Solarstrom vorangetrieben,  aber dabei wurden die zum Ausgleich von deren großen Leistungsschwankungen notwendigen Stromspeicher schlicht ausgeblendet; möglicherweise sogar vergessen. Die wenigen Pumpspeicherkraftwerke reichen bei weitem nicht aus. Jetzt  hat man das Speicherproblem erkannt, aber gleichzeitig  feststellen müssen,  dass es selbst mittelfristig keinen Weg zur Ausrüstung des Netzes mit ausreichender Speicherkapazität gibt.
4.    Das EEG hatte von Anfang an planwirtschaftliche Tendenzen, die sich mit den extrem zunehmenden Subventionen für die ausgewählten „Erneuerbaren“ zur Umwandlung des ehemals marktwirtschaftlich ausgerichteten Energiesektors in einen von Planwirtschaft gefesselten Sektor auswuchsen.
5.    Der Ausstieg aus der Nutzung der Kernkraft – ohne jegliche sicherheitstechnischen Argumente, auch ohne Rücksicht auf die wirtschaftlichen Auswirkungen, sondern nur als eine Maßnahme zur Besetzung und Entkräftung eines  Themenfeldes der politischen Gegner.
6.    Bereits die älteren Ansätze für den Umbau der deutschen Stromversorgung wurden als nationaler Alleingang verfolgt. Den durch ein Verbundnetz mit Deutschland in der Stromversorgung eng verbundenen Nachbarländern wurde nur das großartige deutsche Vorbild vorgeführt – von der nötigen Kooperation war nichts zu sehen. Diese Haltung erreichte ihren extremen Höhepunkt mit der ohne jegliche Vorwarnung oder gar Konsultation durchgeführten Abschaltung von 7+1 Kernkraftwerken, was schlagartig dem europäischen Stromverbund 8.400 MW an Grundlaststrom entzog. Diese Rücksichtslosigkeit und Arroganz hat in den Nachbarländern große Verstimmung ausgelöst. Dies wird sich nun rächen, wenn Deutschland weiterhin versucht, seine steigenden, unberechenbaren Wind- und Solarstrom-Überschüsse in die Nachbarnetze zu exportieren – siehe Sekundärfehler Nr.13.

Die Sekundärfehler:

7.    Die Grundsatzfehler Nr.1 bis 4 sorgten für einen enormen Ausbau der Windkraft, der logischerweise in Norddeutschland und damit fern von den industriellen Verbrauchszentren im Süden von statten ging. Das bestehende Übertragungsnetz ist nicht für diesen zusätzlichen Stromtransport ausgelegt. Ein riesiger, teurer Ausbau des Höchstspannungs-Übertragungsnetzes wird deshalb geplant.
8.    Bei den Ausbauplänen für das Höchstspannungsnetz  vergaß die Regierung, dass die ebenfalls riesenhaft ausgebaute regional verteilte und deshalb in die Verteilungsnetze einspeisende Photovoltaik sowie die landgestützte Windkraft und die Biostromeinspeisung auch diese Netze überlastet – weshalb man nun auch an deren Ausbau herangehen muss. Der Teil des Verteilungsnetzes, das auszubauenden wäre, ist  70-mal länger als der auszubauende Teil des Höchstspannungsnetzes (s. Kap. 10).
9.    Die grenzwertige aber notwendige Belastung des Übertragungsnetzes  machte Teilstilllegungen unmöglich und behinderte so  notwendige Reparatur- als auch die Ausbaumaßnahmen des Netzes, die eigentlich das Problem Nr. 7 lindern sollten. Damit behindern die Grundsatzfehler sogar teure Maßnahmen zur Verbesserung der durch sie erst geschaffenen ernsten Situation (10).
10. Die Grundsatzfehler Nr. 1 und 2 führten wegen der deutlich höheren bis extremen (PV) Stromgestehungskosten der „Erneuerbaren“ und deren Einspeisungszwang unweigerlich zu stetig ansteigenden Strompreisen. Man erkannte die Bedrohung der energieintensiven Industrie – und entlastete einfach diese Industrie durch Überwälzung von Strom- und Netzkosten auf die privaten Verbraucher, anstatt die außerordentlich hohen staatlichen Steuern und Abgaben auf die Energie zu senken. Eine Folge: Energiearmut – s. Nr. 18.
Die folgenden Kollateralschäden der Energiewende sind noch nicht eingetreten, jedoch  wahrscheinlich und nach der bislang verfolgten Logik des Regierungshandelns werden sie begangen:
11. Der Kernkraftausstieg (Fehler Nr.5) verknappte schlagartig das Grundlast-Stromangebot. Damit  wurde sowohl der Weiterbetrieb von stillzulegenden alten Kohlekraftwerken als auch deren Neubau sehr wichtig. Für beide Maßnahmen fehlt jedoch das Interesse von Investoren, weil sie durch den Vorrang des EEG-bevorzugten Wind- und Solarstroms bis zu 40 % der Zeit stillstehen und deshalb unwirtschaftlich sind. Deshalb werden bereits jetzt finanzielle Anreize (Subventionen, Investitionszuschüsse, Strompreiserhöhungen etc.) gefordert, damit diese Investitionen überhaupt erfolgen (siehe Kap. 9).
12. Eine Variante von Fehler Nr. 5 und dessen Folge Nr.10 stellen Subventionen bzw. finanzielle Hilfen für das „Vorhalten von Erzeugungsleistung“ dar, die in offiziellen Gutachten für die Sanierung und den Weiterbetrieb alter, unrentabler Kohlekraftwerke gefordert werden (Kap.9).
13. Die nicht ausreichenden Nord-Süd-Höchstspannungstrassen haben dazu geführt, dass überschüssiger Windstrom, der nach Süddeutschland transportiert werden soll, nun über Polen und Tschechien geleitet wird – wo er beträchtliche Netzprobleme verursacht. Die Drohung aus Polen, diese Durchleitung zu unterbinden, hat in Berlin große Sorge und einen dringenden Gesprächsbedarf mit den Nachbarn, die man zuvor nicht gefragt hatte,  ausgelöst. Das wird teuer enden, weil unsere Nachbarn nicht das geringste Interesse daran haben, die selbst verursachten deutschen Probleme gratis  zu lösen. Deshalb wird man die Windstromerzeugung nicht etwa drosseln, sondern – alter Fehler führt zu neuem Fehler – das Problem durch Zahlungen behandeln.
14. Das nicht begriffene Speicherproblem – siehe Grundsatzfehler Nr.3 – lockt nun neue  Interessenten an staatlichen Beihilfen hervor: Auf der Energiespeicher-Konferenz IHRES in Berlin wurde ein  EEG-ähnliches Gesetz auch für Energiespeicher  mit Anschlusszwang und Vergütung gefordert. Auch Investitionszuschüsse seien geeignet.
15. Der Netzbetreiber Tennet, der die Offshore-Windparks anschließen soll und erhebliche finanzielle Probleme hat, forderte vor kurzem „neue Regelungen“ bei der Haftung für den Anschluss von Offshore-Windparks. Es müsse „eine Sozialisierung der Schäden“ geben (wörtliches Zitat).
16. Ost- und Nordseehäfen, die ihre Kaianlagen für den Bau und den Anschluss von Offshore-Windparks aus- bzw. umbauen sollen, wollen sich das vom Steuerzahler bezahlen lassen.
17. Die Betreiber von Photovoltaikanlagen leiden unter der strikten Regelung der Netzbetreiber, keine Frequenzerhöhung über 50,2 Hertz zu tolerieren, was bei zu starker Einspeisung passieren kann. Abhilfe können elektronische Zusatzgeräte an den PV-Anlagen schaffen. Sie müssten bezahlt werden. Von wem wohl ?
18. Wenn die sog. Energiearmut wegen nicht mehr verkraftbarer Energiepreise zunimmt, wird es vermutlich Energiekostenzuschüsse auf Antrag geben. Finanzierung dann über die Steuern oder wieder über die Strompreise.
Dies ist eine nach unten offene Liste, die sich noch verlängern dürfte. Interessant sind die Fehler-Rückkopplungseffekte, bei denen selbst die verzweifelten  Reparaturversuche der Fehler und ihrer dazu gehörenden Schäden wiederum durch die Eigenschaften des Originalfehlers  behindert werden – siehe Fehler Nr. 9. Für hochkomplexe technische Systeme, wie es ein nationales Stromversorgungsnetz mit seinen angeschlossenen Erzeugern darstellt, sind derartige Kombinations- und Akkumulationseffekte von Problemen der Normalfall. Unnormal ist einzig der Versuch von Bürokraten, diesen Herausforderungen mit Gesetzesnovellierungen und Paragraphen Herr zu werden.
Bezeichnend auch die Taktik, unerträglich werdende Kosten für die Wirtschaft auf die privaten  Energieverbraucher abzuwälzen – was entsprechend dem bereits begangenen Fehler Nr.10 auch für alle  anstehenden Fehler Nr.11 bis 17 möglich ist.
Die Regierung ist offenbar  entschlossen, an der grundlegenden Fehlentscheidung, die mit dem Erneuerbaren Energie-Gesetz getroffen wurde, um jeden Preis festzuhalten. Als Konsequenz dieser Haltung sind ständig weitere neue Reparatur-Fehlentscheidungen erforderlich, um die unübersehbaren Engpässe und Schäden vorübergehend zuzudecken. Im Ergebnis muss in Deutschland das gesamte System der Stromerzeugung doppelt errichtet werden: Riesige Investitionen in unzuverlässige und teure Wind- und Solarstromanlagen – und dann noch einmal die nahezu gleiche Investition in teilweise stillstehende Kohle- und Gaskraftwerke. Hinzu kommt  ein enormer Ausbau der Übertragungs- und auch der Verteilungsnetze sowie teure Stromspeicher als Ausgleichs- und Reservekapazität für den unberechenbaren und damit mittlerweile wegen seiner enormen Leistung  auch gefährlichen Wind- und Solarstrom. Ferner Ärger mit den Nachbarländern, die durch die deutsche Energiewende geschädigt werden.
Der doppelte Ausbau der deutschen Stromerzeugung ist inzwischen eine scheinbar auch von der Wirtschaft nicht mehr in Frage gestellte Strategie, was kürzlich zur folgenden trockenen Feststellung des Stromhandelsexperten Christian Hewicker des Beratungsunternehmens Kema führte: „ Für erneuerbare Energien ist ein konventionelles back-up mit fast der gleichen Leistung notwendig.“
Was es für die Wettbewerbsfähigkeit und die Arbeitsplätze bedeutet, wenn Deutschland als einziges Land der Welt  seine Stromerzeugung in der Kapazität doppelt, dabei aber in den Kosten sogar mehr als doppelt so teuer ausbaut, kann man sich unschwer vorstellen. Günther Oettinger hat die Konsequenzen bereits genannt.

20 . Wie geht es weiter ?

Die Feststellung, dass buchstäblich alle in den Energiewende-Gesetzen angestrebten Ziele nicht erreichbar sind, bedeutet, dass dieser energiepolitische Kurswechsel bereits jetzt gescheitert ist. In keinem der für die sichere Stromversorgung relevanten Themenfelder bestehen auch nur geringe Erfolgschancen für die Zielerreichung.
Das erklärt das vernichtende Urteil der internationalen Experten, die unbeeinflusst von deutschen Fördermitteln und unbeeindruckt von deutscher Medienpropaganda allein auf der Grundlage ihres Sachverstandes und ihrer Erfahrung ihr Urteil fällten.
Die Frage der Kapitelüberschrift ist leider nicht zu beantworten. Die deutsche Energiepolitik ist dermaßen erratisch, von Tagespolitik bestimmt  und deshalb auch für unsere Nachbarländer unberechenbar und  verantwortungslos geworden, dass jegliche Prognosen, die sich altmodisch auf das Fortschreiben notwendiger, sinnvoller und realistischer Entwicklungen abstützen, unmöglich sind.
Für die Deutschen und ihre Nachbarn sind das keine schönen Aussichten.
Die folgende  Prognose ist jedoch zwingend: Die im Energiesektor ausufernde, die Wirtschaft schwer schädigende  Plan-Misswirtschaft wird nach einigen Jahren  spektakulär scheitern, weil ihre wirtschaftlichen und sozialen Kosten untragbar geworden sind. Die offene Frage ist nur, wie viele Milliarden Euro erst vernichtet werden müssen und wie stark die Arbeitslosigkeit erst steigen muss, bis eine neue Energiepolitik (eine neue Energiewende ?) den Scherbenhaufen zusammenkehrt.
Ein amerikanischer Präsident hat einmal den dauerhaft gültigen Satz gesagt:   
„It´s the economy, stupid !“ Es ist die Wirtschaft, Dummkopf.
Und Professor Helmut Alt von der FH Aachen hat die finale Auswirkung der deutschen Energiepolitik in einem Satz zusammengefasst:
„Die deutsche Politik hat Energie zum Luxusgut erklärt. Die Ärmsten werden es zuerst zu spüren bekommen, aber die haben keine Lobby.“
Dr. Günter keil im April 2012
Sie können den gesamten Beitrag im Anhang (als pdf herunterladbar) finden. Obwohl keine leichte Kost, es lohnt sich!

Related Files




Überdenken der Peak Oil These: Die wirklichen Herausforderungen sind Investition und Nachhaltigkeit, nicht Verfügbarkeit

Bild rechts © Peakoil.com:  Es scheint, als ob die Intensität der Debatte um Peak Oil, obwohl sie niemals ganz verschwindet, mit dem Niveau der Ölpreise korreliert ist.

Hinweis der Redaktion:

Allein im "Green River Formation" Vorkommen (> 3 Billonen Barrel) in den USA steckt mehr Öl, als die derzeitigen gesicherten Weltölreserven ausmachen. "200 Year Supply Of Oil In One Single Shale Formation" Details dazu hier-. In Deutschland allerdings verboten (hier). 

Wieder und immer wieder taucht eine Frage bei der Energiedebatte auf: „Wann wird das Öl alle?“ oder „wann ist Peak Oil erreicht?“ Implizit schwingt hier die Angst mit, dass uns nach diesem kritischen Moment eine Katastrophe ohnegleichen bevorsteht. Nach einigem Zögern wegen der hoch emotionalen Natur vieler Diskussionen über Peak Oil habe ich mich entschlossen, die Herausforderung anzunehmen und meine Ansichten in einer Präsentation vorzustellen, und zwar auf einer gemeinsamen Sitzung mit dem CEO [= dem leitenden Direktor] bei Total, Christophe de Margerie, auf dem jüngsten Welt-Erdöl-Kongress in Doha im Dezember 2011. Diese Präsentation liegt diesem Artikel zugrunde.

Höhepunkte in der Debatte

Bevor ich meine Schlüsselpunkte darlege, möchte ich einige der vorherrschenden Beobachtungen zum Thema Peak Oil beschreiben, die mir aufgefallen sind. Zunächst scheint es, als ob die Intensität der Debatte um Peak Oil, obwohl sie niemals ganz verschwindet, mit dem Niveau der Ölpreise korreliert ist. Sie erreichte ihren jüngsten Höhepunkt, als die Ölpreise in der ersten Hälfte des Jahres 2008 sehr hoch lagen und weiter stiegen, in jenem infamen ‚annus horribilis’ [= lat. Schreckliches Jahr] exzessiver Ölpreisschwankungen. Wagenladungen voller Artikel erschienen mit der Aussage, dass der Welt dieses Mal das Öl ausgehen wird; dass die Preise bald 200 Dollar oder mehr betragen würden, usw. Heute ist die Intensität der Debatte geringer, kocht aber bei fast jeder Energiekonferenz wieder hoch.
Zweitens, historisch lässt sich kaum bestreiten, dass die Vorhersage des Höhepunktes der Ölproduktion seit dem Beginn des Ölzeitalters in den fünfziger Jahren des 19. Jahrhunderts ein stets wiederkehrendes Thema ist, worauf Daniel Yergin und andere hingewiesen haben. Analysten konnten in den Jahren 1948, 1956, 1974, den frühen achtziger Jahren sowie 2007/2008 ‚Höhepunkte’ in der Debatte um Peak Oil ausmachen.
Drittens, die Definition dessen, was da seinen Höhepunkt erreicht oder nicht, macht eine Menge aus. Sprechen wir über die Versorgung aus Nicht-OPEC-Staaten, Rohölförderung oder, noch relevanter, flüssige Treibstoffe einschließlich unkonventionellen Öls (Ölsande, Schweröl, Schieferöl), Erdgasflüssigkeiten (Natural Gas Liquids, NGL), Gasverflüssigung (gas-to-liquid, GTL), Biotreibstoffe? Das macht einen gewaltigen Unterschied. Damit oft in Verbindung stehend (explizit oder implizit) ist die Vermutung, dass dem Höhepunkt der globalen Ölproduktion ein schneller und tiefer Rückgang folgt (entsprechend der Form der berühmten Glockenkurve in einem individuellen Gebiet) nebst allen unerwünschten Implikationen. Allerdings ist unklar, warum wir nach Erreichen des Höhepunktes der globalen Ölproduktion nicht auf einem hohen Niveau während der dem Höhepunkt folgenden Dekaden verbleiben können. Die Implikationen für die Energiepolitik sind in diesem Falle drastisch unterschiedlich.

Die Macht der Technologie

Merkwürdigerweise wird die Macht der Technologie vor allem außerhalb der Ölindustrie erheblich unterschätzt. Die globale Ausbeutungsrate beträgt derzeit 35%, und es ist wohlbekannt, dass nur eine Zunahme um 1% der globalen Ausbeutungsrate schon 2 Jahre Extraölverbrauch mit der gegenwärtigen Rate bietet. Wir wissen, dass Kompanien in einigen wichtigen Bereichen eine Rate von 50% oder mehr aus den Reservoirs herausholen, und zwar durch den Gebrauch neuer Technologien wie erweiterter Ölausbeute (enhanced oil Recovery, EOR) und 3D-Seismik (z. B. Statoil auf dem norwegischen Kontinentalschelf, Saudi Aramco in küstennahen Ölfeldern in Saudi-Arabien). Die wichtige Implikation hiervon ist natürlich außer der Entdeckung neuer Ölvorkommen ein gewaltiges Aufwärtspotential in Ausbeutungsraten, da bereits existierende Technologien immer breiter angewendet und neue Technologien entwickelt werden. Wenn der Ölpreis relativ hoch bleibt, gibt es eine sehr starke Motivation, die Ausbeutungsrate zu erhöhen, selbst in gegenwärtigen Reservoirs, in denen die Ausbeutung teuer ist.
Die Macht der Technologie ist auch dann hoch relevant, wenn es um die Entdeckung neuer Quellen geht: Man denke an Tiefwasserbohrungen offshore (z. B. das pre-salt Reservoir [?] in Brasilien), die Arktis, Gas- und Kohleverflüssigung, Ölsande, Schweröl, Schieferöl und festes Öl [tight oil ?] Hinsichtlich der Geographie wird auch regelmäßig übersehen, dass in großen Gebiete des Nahen und mittleren Ostens (selbst in Ländern wie Saudi-Arabien und Irak) sowie in Afrika immer noch weitgehend unentdeckte Vorkommen lagern. Wir bestaunen derzeit die noch nie da gewesene ‚stille’ Schiefergas-Revolution in den USA mit seinen gewaltigen Auswirkungen auf die globalen Gasmärkte – eine Revolution, die sich sehr gut auch nach Asien und eventuell auch Europa ausbreiten kann (vor allem Osteuropa). Unabhängig von der Tatsache, dass die gewaltigen Vorkommen von Schiefergas faszinierende Möglichkeiten bieten, im Transportsektor Anwendung zu finden (und folglich das Öl ersetzen), könnte eine ähnliche Kombination von Technologien wie Fracking und horizontale Bohrungen sehr gut signifikante Vorkommen von Schiefer- und festem Öl erschließen, wie wir es derzeit im Bakken-Feld im US-Bundesstaat Nord-Dakota erleben. Diese Formation allein erzeugt schon mehr als das OPEC-Land Ecuador. Hier könnten wir weitere Überraschungen erleben, was ein Grund dafür ist, dass einige Industriekapitäne von einer ‚Renaissance für Petroleum’ reden. Wie auch immer dem sei, die unbestreitbare Tatsache lautet, dass die Barrieren der Ölförderung durch eindrucksvolle technologische Entwicklungen in der Ölindustrie immer weiter nach hinten verschoben werden. Auf den Punkt gebracht wird von seriösen Experten kaum bestritten, dass die Menschheit bisher etwa 1 Billion Barrel Öl verbraucht hat, dass es jedoch immer noch konventionelle und unkonventionelle Vorkommen möglicherweise in einer Größenordnung von 3 bis 4 Billionen Barrel gibt.
Es gibt jedoch einen wichtigen Vorbehalt. Obwohl Technologien zur Verfügung stehen, die für die Entwicklung immer neuer Vorkommen zur Verfügung stehen, betrifft es in fast allen diesen Fällen technologisch herausfordernde Projekte, dass sie viel teurer in der Ausbeutung sind, um das Öl auf den Markt bringen. Dies ist zunehmend selbst im Nahen Osten der Fall, welches traditionell ein Gebiet billiger Kosten ist. In vielen Projekten mit einer relativ geringen Ausbeute liegt der Preis über 80 Dollar pro Barrel; in der Folge gibt es den oft gehörten Slogan, dass ‚die Zeit billigen Öls vorbei ist’. Es scheint viel Wahrheit in diesem Einzeiler zu stecken, und offensichtlich hat dies langfristig sehr ernste Konsequenzen für die Ölpreise, da die Kosten geringerer Förderung im Verhältnis zur zunehmenden Nachfrage mit der Zeit eine grundlegende Determinante der langzeitlichen Ölpreise ist. Mehr und mehr lesen wir von ‚schwierig’ oder ‚hart’ zu gewinnendem und damit teurem Öl. In vielen Fällen sind die neuen Ölreserven wie Ölsande und Schieferöl auch eine ernste Herausforderung der Umwelt, die kontrolliert und überwunden werden müssen, was die Kosten ebenfalls nach oben treibt.

Endlich, aber massenhaft

Natürlich ist es unbestritten, dass Öl letztendlich eine endliche Ressource ist, die eines Tages alle sein wird. Allerdings scheint dieser Tag noch sehr weit weg zu sein, tatsächlich sogar weiter weg, als wir noch vor 10 oder 20 Jahren gedacht haben. Das US Geological Survey schätzt, dass sich die ausbeutungswürdigen Ressourcen seit den frühen achtziger Jahren beinahe verdoppelt haben, wobei die Zunahme des Ölverbrauchs nur etwa ein Drittel der neu gefundenen Vorkommen ausmacht. Die Zunahme der Ressourcen ist primär eine Folge technologischer Fortschritte, die es uns erlauben, jetzt existierende Ölvorkommen viel effektiver auszubeuten („die Reserven wachsen“), ein Faktor, der in der öffentlichen Diskussion oft ignoriert wird.
Eher öfter als seltener konzentriert sich die Debatte auf das vermeintliche Fehlen neuer Ölfunde im Vergleich zur gegenwärtigen Ölproduktion. Tatsächlich gab es während der letzten Jahre einen signifikanten Anstieg signifikanter neuer Funde, aber das muss man richtig einordnen, indem man die Schlüsselrolle des Zuwachses der sofort ausbeutbaren Reserven anerkennt. Schauen wir in Gestalt seriöser Agenturen auf die derzeitigen Schätzungen der unmittelbar ausbeutbaren Ressourcen, erkennen wir, dass die meisten davon bei oder nahe einem Allzeithoch liegen.
Allerdings hört man in der öffentlichen Diskussion wegen der fehlenden Bestätigung von dritter Seite immer wieder ernste Zweifel an der Stichhaltigkeit dieser Schätzungen. In vielen Ländern werden die Schätzungen über Reserven und Ressourcen aus verständlichen Gründen streng geheim gehalten. Aber diese Tatsache impliziert keineswegs automatisch, dass deshalb die tatsächlichen Reserven niedriger sind als die offiziellen Zahlen. Das ist unlogisch, aber oftmals entweder explizit oder implizit zu hören.
Theoretisch kann man sich genauso viele Anreize ausdenken, die Reserven zu unterschätzen wie sie zu überschätzen. Die Wahrheit ist, dass alle relevanten internationalen Energieorganisationen wie die International Energy Agency (IEA), OPEC, das International Energy Forum (IEF) und die US Energy Information Administration (EIA) darin übereinstimmen, dass es noch viele Jahrzehnte lang gut ausreichende Ölreserven geben werde. Ihre Szenarien implizieren, dass die Ölproduktion bis zum Jahr 2035 ein Niveau von 96 bis 110 Millionen Barrel pro Tag erreichen kann. Präziser, dies bezieht sich auf eine weit gefasste Definition von Öl, einschließlich aller Arten von Flüssigkeiten neben dem Rohöl. Schaut man nur auf das Rohöl, befinden wir uns den meisten Szenarien zufolge bereits global nahe dem Peak der Rohölförderung.

Und was ist nun mit Peak Oil?

Heißt das alles, was oben gesagt wurde, dass wir keinen Peak der Ölversorgung im weitesten Sinne sehen werden? Nein, heißt es nicht. Wir müssen immer noch berücksichtigen, dass Peak Oil irgendwann in der Zukunft eintritt. Dies könnte einerseits infolge von Rückschlägen bei der Suche und der Ausbeutung ausreichender Ressourcen vor dem Hintergrund steigender Ölnachfrage der Fall sein, oder weil unzureichende Investitionen getätigt werden, um die bestehenden Ressourcen zu entwickeln.

„Sollten die Ölpreise weiterhin so hoch bleiben, gibt es einen starken Anreiz, Energie und Treibstoff immer effizienter zu verbrauchen“. © ZeroHedge.com
Die letzte Möglichkeit könnte ein ernster Faktor sein, der die notwendige Steigerung der Ölproduktion behindert, und zwar die sicherlich bisher nicht da gewesene ökonomische und politische Unsicherheit in der Welt. Die IEA schätzt den Investitionsbedarf in Öl bis zum Jahr 2035 mit einer Größenordnung über 10 Billionen Dollar ein. Etwa 75% dieser Investitionen muss schlicht und einfach dafür aufgewendet werden, den Rückgang der Ölförderung aus bestehenden Vorkommen zu kompensieren. Eine Kürzung dieser Ölinvestitionen könnte in Zukunft die Zunahme der Ölproduktion verhindern, wie es im Deferred Investment Case der IEA illustriert wird [etwa: Eine Rechnung, die zeigt, was bei einer Verringerung der Investitionen passiert. A. d. Übers.]

Die Nachfrage könnte vor der Versorgung die Spitze erreichen

Dass die globale Nachfrage nach Öl noch vor der Versorgung ihren Höhepunkt erreichen kann, wurde unter Anderem von John Browne angesprochen, dem früheren geschäftsführenden Direktor von BP und zuletzt von Ali Al-Naimi, dem Ölminister von Saudi-Arabien, und zwar in einer offiziellen Veröffentlichung des World Petroleum Congress’ in Doha im Dezember 2011. Mit den fortwährend hohen Ölpreisen gibt es einen starken Anreiz, treibstoff- und energieeffizienter zu werden und Ersatzstoffe für Öl zu suchen, besonders in den Nicht-Transport-Bereichen. Schon jetzt gibt es Berichte über sinkende Nachfrage bei bestimmten Anwendungen. Setzt sich dieser Trend fort, würde dies einen signifikanten Rückgang der Nachfrage nach Öl bedeuten, besonders in Ländern, in denen die Verbraucher teilweise von den Auswirkungen hoher Ölpreise infolge von Subventionen verschont bleiben. Diese Länder müssten ihre Haushaltsbelastung reduzieren und sich in Richtung der Weltmarktpreise bewegen.
Im Transportsektor lässt sich Öl nur sehr schwer ersetzen, aber selbst dort können hohe Ölpreise zu einer Förderung von Biotreibstoffen, Hybriden, Elektroautos und Erdgasfahrzeugen führen. Gleichzeitig gibt es noch ein gewaltiges Potential für mehr Energieeffizienz, das zum großen Teil in einer Zeit hoher Ölpreise ausgeschöpft wird. Sollte Öl großenteils auf den Transportsektor begrenzt sein und die Energieeffizienz noch erheblich zunehmen, kann es gut sein, dass wir demnächst in eine Situation kommen, in der das globale Ölangebot größer ist als die Nachfrage.

Dringender Bedarf, die öffentliche Sichtweise zu ändern

Die öffentliche Auffassung von Peak Oil in den meisten Gebieten von Europa und den USA ist gefährlich düster und weit entfernt von den faktenbasierten, oben beschriebenen Verhältnissen. Selbst viele hoch gebildete Menschen glauben, dass das Öl drauf und dran ist zu versiegen, wenn nicht gleich, dann doch in einigen Jahrzehnten. Die Fähigkeit der Technologie bei der Verbesserung der Ausbeutungsrate und des Auffindens neuer Ölfelder wird systematisch unterschätzt (‚es ist die Technologie, Dummkopf!’). Dies ist so trotz der eindrucksvollen Entwicklung der gesamten Ölindustrie seit der Entdeckung von Öl.
Teilweise wird die Konfusion jedoch auch durch eine schlampige Analyse oft komplizierter technischer Konzepte verursacht wie das Verhältnis von Reserven und Produktion [the R/P (reserves-to-production) ratio]. Dies wird oft salopp mit den Worten ‚wir haben noch Öl für vierzig Jahre’ beschrieben, ohne dass man dazusagt, dass dies lediglich eine theoretische, auf der völlig unrealistischen Hypothese beruhende Annahme ist, dass nicht ein einziges zusätzliches Barrel Öl entdeckt und den Reserven hinzugefügt wird. Natürlich wissen wir, dass das R/P-Verhältnis seit Jahrzehnten trotz der stetig steigenden globalen Ölnachfrage nicht signifikant zurückgegangen ist, aber den meisten Menschen außerhalb von Industrien ist das nicht klar. Die Ölindustrie muss zusammen mit Akademien und Politikern einen viel besseren Job machen, die Bevölkerung über die realen Fakten des globalen Öls und deren Herausforderungen zu informieren. Bei diesen Herausforderungen geht es weniger um die physische Verfügbarkeit von Öl, sondern darum, ein geeignetes Umfeld zu schaffen, die Märkte zeitnah mit Öl zu versorgen wie früher schon angedeutet, und natürlich um die Herausforderung, den Umweltfußabdruck des Verbrauchs und der Produktion von Öl signifikant zu reduzieren, einschließlich durch CCS. Investitionen und Nachhaltigkeit sind die wirklichen Herausforderungen hinsichtlich des Öls, nicht die Verfügbarkeit.
Noé van Hulst

About the author

Noé van Hulst is Director of the Energy Academy Europe, based in Groningen, The Netherlands. He is former Secretary-General of the International Energy Forum (IEF) and former Director Long-Term Co-operation and Policy Analysis at the International Energy Agency, as well as former Director General Energy at the Ministry of Economic Affairs in the Netherlands.
Das Original ist zuerst in der European Energy Review erschienen: 
Übersetzt von Chris Frey Eike




Club of Rome will Demokratie abschaffen! Panikmacher mit Angst- und Schreckensszenarien.

Doch niemanden interessiert heute, dass …„zusammen mit den Autoren von Jimmy Carters Katastrophenthriller “Global 2000” – seinerzeit Bibel aller Umweltverängstigten – die Mitglieder der so genannten Denkfabrik Club of Rome in den 1970ern den Weltrekord an prophezeiten, freilich niemals eingetretenen Weltuntergängen hielten. Kein Grund für die Nachfolger der glücklosen Doomsayers, die Klappe zu halten!… wie Stern-Autor Wolfgang Röhl so treffend formuliert.

Dazu ist das Geschäftsmodell viel zu lukrativ. Für den Club of Rome, ebenso wie für seine willigen Unterstützer bei vielen NGO`s, in Politk und Medien. Auch und besonders für den Wissenschaftlichen Beirat Umwelt (WBUG) mit seinem Vorsitzenden Schellnhuber der die Blaupause mit der Forderung „nach der großen Transformation“ dazu lieferte. Begeistert aufgenommen von den Bundesministern Schavan und Röttgen.

Jetzt fordert dieser Elitenverein -gegründet auf Anregung des der Watergate-Lüge überführten amerikanischen Präsidenten Richard Nixon als Kommission innerhalb der NATO und von einigen Industriellen, wie dem damaligen Fiat Boss Aurelio Peccei, hochgepäppelt – die komplette Abschaffung der Demokratie im Westen. Natürlich erst nachdem dieser vorher bezahlt hat.

Und kein Aufschrei  geht deswegen durch dieses Land. Nirgends!

So darf dann der norwegische Wirtschaftswissenschaftler Jørgen Randers, Mitverfasser der Studie des Club of Rome  „A Global Forecast for the Next Forty Year“ in einem Interview der WiWo  ungehindert davon schwafeln, dass China die Gefahr des „drohenden Klimakollapses“ wegen seiner „effizienteren“ Regierung besser entgegen treten kann, als westliche (demokratische) Länder. Weil – so die aberwitzige Begründung dieses „Wissenschaftlers“ … In China der Markt dazu da ist, politische Entscheidungen auszuführen, nicht umgekehrt.. 

Dass wir das alles schon mal hatten und derartige Systeme grandios scheiterten, stört diesen Herrn und seine Genossen nicht im Mindesten. Das Opfern von über 160 Millionen Menschen, die Kommunismus und National Sozialismus forderten, neben der Verarmung hunderter von Millionen,  sind nicht der Rede wert.

Dazu passt hervorragend, dass die ehrwürdige britische Royal Society just am 26.4.12 einen Bericht zum Stand des Planeten vorlegte. Der Titel ist People and the Planet“ (Menschen und der Planet). Auf seinen mehr als hundert, vor Pseudowissenschaft strotzenden, Seiten plädieren die Autoren des Berichts für eine Beendigung des Bevölkerungswachstums und eine drastische Senkung des Verbrauchs in den entwickelten und den aufstrebenden Ländern, alles um das zu erreichen, was sie als eine „nachhaltige Zukunft“ bezeichnen.

Und der notorisch bekannte Dr. Paul Ehrlich von der Universität Stanford, durfte die eigentliche Absicht hinter dem Bericht der Royal Society enthüllen, als er um einen Kommentar zu dem Bericht gebeten wurde. Er lobte die Schrift, und forderte unter der verbrämenden Bezeichnung „Schrumpfung der Bevölkerung“ erneut einen Massenmord, denn er sagte dem Guardian am 26. April:

„Wieviel Menschen man versorgen kann, hängt vom Lebensstil ab. Wir kamen auf etwa 1,5 bis 2 Milliarden, weil man dann aktive Großstädte und Wildnis haben kann. Wenn man eine Legehennen-Welt möchte, in der jeder nur ein Minimum an Raum und Nahrung hat und alle gerade nur so am Leben erhalten werden, dann kann man vielleicht 4 oder 5 Milliarden Menschen langfristig erhalten. Aber es sind schon 7 Milliarden. Wir müssen also so human und so schnell wie möglich zu einer Schrumpfung der Bevölkerung übergehen.“

Dann beschreibt er seine brutalen Überlegungen dazu:

„Die Frage ist: Kann man das bewerkstelligen ohne eine Katastrophe, wie eine weltweite Seuche oder einen Atomkrieg zwischen Indien und Pakistan? Wenn wir so weitermachen wie bisher, wird es Katastrophen verschiedener Art geben. Einige vielleicht in Zeitlupentempo, wie immer mehr hungernde Menschen, oder aber Katastrophenereignisse, denn je mehr Menschen es gibt, desto wahrscheinlicher wird es, dass irgendein seltsames Virus von Tier- auf Menschenpopulationen überspringt; dann könnte es ein ungeheures Massensterben geben.“

Damit schließt er nahtlos an die Tradition des Tiefseetauchers, Umweltaktivisten und Liebling aller Ökoverbände Jacques Cousteau an, der ernsthaft in einer offiziellen UNO-Postille schreiben durfte:

„Um den Planeten zu stabilisieren müssen wir 350.000 Menschen täglich eliminieren. Es ist schrecklich das zu sagen, aber genauso schrecklich, es nicht zu sagen,“ so Jacques Cousteau, im UNESCO Courier, Nov. 1991

Immerhin die Basler Zeitung und FAZ online  setzen sich von diesen selbsternannten Katastrophenpropheten ab: Dia FAZ bezeichnet die Katastrophiker des Club of Rome fälschlich als Denkfabrik, geht aber sachlich mit ihnen ins Gericht: „Club of Rome Die Propheten des Untergangs“ so die Überschrift des Artikels von Phillip Plickert. Zu einer Verurteilung dieser menschenverachtenden Demokratiefeinde mochte sich die Autoren aber auch nicht aufraffen!

Michael Limburg EIKE

Mit Dank an die Leser Erich Richter und Andrea Andromidas für ergänzende Informationen.




Stellvertreter(Proxy-) Methodik führt zu Pseudowissenschaft

Doch es gibt auch andere Wissenschaftler, die sowohl Baumringe, Sedimentschichtarten und -dicken oder das Mischungsverhältnis von verschiedenen atmosphärischen Isotopen zur Proxy-Temperaturbestimmung verwendet haben. Sie wollten weder betrügen, noch haben sie das getan. Ihre Veröffentlichungen sind zahlreich und werden tlw. im folgenden Beitrag von Pat Frank aufgelistet und bewertet. Und zwar nach der entscheidenden Frage bewertet:

Wie gut, bzw.wie genau lässt sich ein Temperaturverlauf aus Poxydaten rekonstruieren?

Wie kann man die Rohdaten kalibrieren? Was hängt wovon ab? Wie hoch ist die nicht zu unterschreitende Fehlermarge?
Um es kurz zu machen: Sein Urteil ist bis auf eine Ausnahme sehr negativ. Lesen Sie warum:

Proxy-Wissenschaft und Proxy-Pseudo-Wissenschaft    

Es ist bekannt, dass die weithin veröffentlichte Proxythermometrie seit 1998 [1] unwissenschaftlichist, und dies ganz besonders, seit Steve McIntyre und Ross McKitrick aufdeckten, dass sie auf absichtsvoller reiner statistischer Numerologie beruht. Vor einiger Zeit diskutierte ich hier auf WUWT mit Michael Tobis über die Unwissenschaftlichkeit der Proxy-Paläothermometrie. Es begann mit Michaels Kommentar hier und meiner Antwort dort. Michael berief sich bald auf seine Autoritäten auf Planet3.org. Wir hatten einen netten Gedankenaustausch, der damit endete, dass der Moderator und Mitstreiter Arthur Smith fälschlicherweise Zensur ausübte, weil er glaubte, eine Beleidigung zu erkennen. (Für starke Nerven: hier ist der Kommentar in voller Länge zu finden)
Immerhin, zwei hiesige Experten in Proxythermometrie kamen Michael zu Hilfe: Kaustubh Thimuralai, graduiert im Fach Proxy-Klimatologie an der Universität von Austin, Texas, und Kevin Anchukaitis, Dendroklimatologe an der Columbia Universität. Kaustubh hat seine Verteidigung auf seinem eigenen Blog veröffentlicht.
Ihre Argumentation hatte eines gemeinsam: eine ausschließliche Berufung auf stabile Isotopen-Temperatur-Proxys – sie sagten kein Wort zur Verteidigung der Baumring-Thermometrie, welche die große Menge der Paläo-Temperatur-Rekonstruktionen darstellt.
Die Unwissenschaftlichkeit der veröffentlichten Paläothermometrie wurde durch die Tatsache belegt, dass sie auf deren Kernbereich mit den Baumringen überhaupt nicht verteidigten; anders gesagt: "Verurteilung durch Verschweigen".
Auch fanden sie kein Wort der Verteidigung dafür, dass die Physik durch Statistik ersetzt wird, was nahezu durchgängig in der Paläothermometrie geschieht.
Aber ihre Berufung auf die Thermometrie mit stabilen Isotopen-Proxys gibt Anlass zu einer Überprüfung. Das möchte ich hier nun tun: eine Analyse der Temperatur-Rekonstruktion aus stabilen Isotopen-Proxys durchführen, anschließend einen kurzen Abriss der Dendrothermometrie geben. 

Soweit die einleitenden Worte von Dr. Pat Frank. Unseren Lesern schon bekannt durch seine Fehlerbetrachtungen der Zeitreihe der globalen Mitteltemperatur (hier) und (hier)
Im (sehr ausführlichen) Aufsatz (hier im Original) erläutert Frank nun im 1. Teil sehr ausführlich die Möglichkeiten und Grenzen der Temperaturbestimmung aus Isotopenverhältnissen mittels bekannter Analysemethoden. Nach gründlicher Prüfung aller anderen Methoden, erkennt Frank dieses Verfahren als einziges an, welches -einigermaßen- eine verlässliche Temperaturbestimmung erlaubt. Allerdings hat auch diese Verfahren seine Grenzen, die sich in breiten Fehlermargen äußern. Es sind eben trotzdem keine Präzisionsthermometer sondern Stellvertreter.
Wer will kann das im anhängenden pdf Beitrag nachlesen. Wir bringen in dieser News nur sein Resumée. Darin wendet Frank die zuvor erarbeiteten Erkenntnisse auf veröffentlichte Berichte und Proxymethoden an. 

Teil II: Pseudo-Wissenschaft: Statistische Thermometrie

Nun zu den veröffentlichten typischen Proxy-Paläotemperatur-Rekonstruktionen. Ich habe mich mit einem repräsentativen Satz von acht hochrenommierten Studien beschäftigt und wissenschaftliche Belege gesucht. Mit Belegen meine ich, ob die Studien sich auf die Theoretische Physik berufen.

Kurzfassung: keine davon kann im Sinne der Theoretischen Physik Gültigkeit beanspruchen. Keine davon zeigt eine Temperatur.

Bevor ich weitermache, ist ein Wort zu „Korrelation und Verursachung“ fällig. Michael Tobis hat darüber geschrieben, “Wenn zwei Signale korreliert sind, dann enthält jedes Signal Information über das andere. Mehr zu behaupten ist einfach nur dumm.”
Davon gibt es eine Menge in der Proxythermometrie. Eine Klarstellung ist Pflicht. John Aldrich beschrieb in einem schönen Papier [16] die Schlacht zwischen Karl Pearson und G. Udny Yule wegen: „Korrelation deutet auf Verursachung hin“. Pearson glaubte das, Yule nicht.
Auf Seite 373 macht Aldrich eine sehr bedeutende Unterscheidung: “Statistische Folgerungen sind Folgerungen aus Stichproben auf die Gesamtbevölkerung. Wissenschaftliche Folgerungen zielen auf Erkenntnisse über die Bevölkerung im Sinne einer theoretischen Struktur.”

Im Klartext: Statistik beschäftigt sich mit Beziehungen zwischen Zahlen. Wissenschaft beschäftigt sich mit Schlussfolgerungen aus falsifizierbaren Theorien.

Wir werden sehen, dass die unten erwähnten Proxy-Studien unzulässigerweise beide Kategorien vermischen. Sie konvertieren richtige Statistik in falsche Wissenschaft.
Um diesen Punkt noch zuzuspitzen, verweise ich auf einige schöne Beispiele von falschen Korrelationen. Und hier sind die Gewinner des Wettbewerbs von 1998 an der Purdue University wegen falscher Korrelationen: Dabei waren [so abwegige] Korrelationen wie die zwischen dem Absatz von Speiseeis und Ertrunkenen, zwischen Ministergehältern und dem Wodkapreis. Pace Michael Tobis sagte dazu, dass jede der Korrelationen “Signale” korrelierte, die offensichtlich Informationen über den dazu in Beziehung gesetzten Sachverhalt enthielten. Mit meiner Ironie hoffe ich, das Thema abschließend behandelt zu haben.
Diaz und Osuna [17] weisen auf den Unterschied “zwischen Alchemie und Wissenschaft hin … , der darin besteht, dass (1) streng getestete Modelle spezifiziert sind, die (2) hinreichend die verfügbaren Daten beschreiben, (3) überlieferte Erkenntnisse berücksichtigen und (4) von wohlbegründeten Theorien abgeleitet sind.“ (Hervorhebung durch den Autor)
Eine verursachende Bedeutung in einer Korrelation kann nur im deduktiven Kontext einer falsifizierbaren Theorie erkannt werden, die die Korrelation erwartet. Statistik (induktives Schlussfolgern) kann niemals alleine eine Verursachung offen legen.
Für die Klimawandel-Paläo-Proxythermometrie wird gezeigt werden, dass die Diaz und Osuna Elemente 1, 3, 4 für wahre Wissenschaft fehlen. Das macht sie zur Alchemie, auch als Pseudo-Wissenschaft bekannt.

Also zunächst zur Klimawandel Paläo-Proxythermometrie:

1. Thomas J. Crowley und Thomas S. Lowery (2000) “How Warm Was the Medieval Warm Period?.” [18]
Fünfzehn Zeitreihen werden benutzt: drei dO-18 (Keigwins Sargasso-See Proxy, GISP 2, und die Dunde Eiskappen-Zeitreihe), acht Baumring-Zeitreihen, die Zeitreihe der Temperatur von Mittelengland (CET), eine Temperatur-Zeitreihe von Island (IT) und zwei Proxies mit Pflanzenwachstum (China Phänologie und Michigan Pollen).
Alle fünfzehn Reihen sind zwischen 0 und 1 skaliert und dann gemittelt. Es besteht eine völlige Vernachlässigung der Bedeutung der fünf physikalisch gültigen Reihen. (3 x dO18, IT und CET). Alle sind auf die gleiche physikalisch bedeutungslose Begrenzung einer Einheit skaliert.
Man bedenke, was das heißt: Crowley und Lowry haben fünf physikalisch bedeutungsvolle Reihen ausgewählt und dann die Physik nicht betrachtet. Nur dadurch konnten die Reihen für die Verwendung in der Klimawandel- Proxythermometrie geeignet gemacht werden.
Es gibt keine physikalische Theorie, um Baumringmessungen in Temperaturen umzusetzen. Angesicht der Nicht-Existenz einer derartigen Theorie bleiben jegliche exakten Beziehungen völlig im Dunkeln.
Wie aber haben Crowley und Lowery ihre auf Einheiten skalierten Proxy-Mittelwerte in Temperaturen konvertiert? Nun denn: “Die beiden Gesamtheiten wurden so skaliert, damit sie mit den Temperaturmessdaten der Nordhalbkugel von Jones et al. übereinstimmten …“. So einfach ist das.
Kurz gesagt, die fünfzehn Reihen wurden numerisch auf eine gemeinsame Skala adjustiert, gemittelt und größenmäßig an die gemessenen Temperaturen angepasst. Schließlich geben Crowley und Lowry noch eine Auflösung von (+/-)0.05 C für ihre Temperaturen an. Messunsicherheiten bei den physikalisch wahren Zeitreihen wurden im Schlussergebnis ignoriert. So sieht Wissenschaftlichkeit in der Klimawandel-Proxythermometrie aus.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalische Erklärung: Keine.
Physikalische Gültigkeit: Keine.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
2. Timothy J. Osborn und Keith R. Briffa (2006) The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years.” [19]
Vierzehn Proxies – elf davon Baumringe, einer dO-18-Eisbohrkern (West-Grönland) – geteilt durch ihre jeweilige Standardabweichung, um eine einheitliche Größenordnung zu erzeugen. Dann werden sie auf die Instrumentenmessdaten skaliert. Die physikalische Bedeutung des dO-18 – Eisbohrkerns ist nicht betrachtet und dessen experimentelle Unsicherheit wird nicht beachtet.
Interessanterweise zeigte der zusammengesetzte Proxy zwischen 1975 und 2000 gegenüber den Instrumentenmessdaten eine Abnahme. Osborn und Briffa verheimlichten den Niedergang nicht, das muss ihnen hoch angerechnet werden. Sie schrieben aber, dass diese Nicht-Bestätigung eine, “Folge des zu erwartenden Rauschens in den Proxy-Aufzeichnungen wäre.”
Ich habe das “Rauschen” abgeschätzt, indem ich die Verfälschung in Bezug auf die Temperaturaufzeichnung verglich, sie beträgt etwa 0.5 C. Es ist auf der grafischen Darstellung von Osborn und Briffa nicht als Unsicherheit dargestellt. Tatsächlich haben beide künstlich die Mittelwerte der Proxy-Reihen von 1856-1995 mit den Oberflächen-Temperatur-Messdaten vermischt, um den Proxy wie eine Temperatur aussehen zu lassen. Die 0,5 C „Rausch“-Abweichung ist unterdrückt und sieht sehr viel kleiner aus, als sie tatsächlich ist. Wären die tatsächlichen 0.5 C “Rausch-” Fehlerbalken auf die Temperaturkurve ihrer abschließenden Grafik skaliert worden, wäre der ganze Versuch auf theatralische Weise geplatzt, abgesehen davon, dass das nichts mit Wissenschaft zu tun hat.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalische Unsicherheit in T: keine.
Physikalischer Wert: keiner.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
3. Michael E. Mann, Zhihua Zhang, Malcolm K. Hughes, Raymond S. Bradley, Sonya K. Miller, Scott Rutherford, und Fenbiao Ni (2008) “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia.” [20]
Eine große Anzahl von Proxies vielfacher unterschiedlicher Längen und Herkunft. Darin: Eisbohrkerne, Speleothem, dO-18 von Korallen. Die Daten sind aber von den Baumringzeitreihen beherrscht.  Mann & Co. korrelieren die Reihen statistisch mit lokaler Temperatur während einer “Kalibrationsperiode”, passen sie auf eine gleiche Standardabweichung an, skalieren sie auf die Messdaten und veröffentlichen das Zusammengemischte mit einer Auflösung von 0.1 C (Figur 3). Auch ihre Methode betrachtet nicht die physikalische Bedeutung der dO-18-Proxys verwirft sie.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja!
Physikalische Unsicherheit bei der Temperatur dargestellt: keine.
Physikalischer Wert: keiner.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
4. Rosanne D’Arrigo, Rob Wilson, Gordon Jacoby (2006) “On the long-term context for late twentieth century warming.” [21]
Drei Baumring-Zeitreihen von 66 Standorten, die Varianz adjustiert, auf die Instrumenten-Messdaten skaliert und mit einer Auflösung von 0.2 C veröffentlicht (Figur 5 C).
Abstützung auf ein physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalisch gültige Temperatur-Unsicherheiten: keine
Physikalische Erklärung der Unterteilungen in 0.2 C: keine.
Physikalische Erklärung der Baumringtemperaturen: keine zu sehen.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
5. Anders Moberg, Dmitry M. Sonechkin, Karin Holmgren, Nina M. Datsenko und Wibjörn Karlén (2005) “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data.” [22]
Achtzehn Proxies: Zwei d-O18-Meeresoberflächen-Temperaturen (Sargasso und Karibik-Foraminifera-d-O18, ein Stalagmiten-d-O18 (Soylegrotta, Norway), sieben Baumring-Zeitreihen. Dazu weitere Zusammenmischungen.
Die Proxy sind mit einer aufregend neuen Wellen-Transformations-Methode behandelt (noch verbesserungsbedürftig), kombiniert, Varianz-adjustiert, stark auf die Messdaten während der Kalibrierungsperiode skaliert, mit einer Auflösung von 0.2 C veröffentlicht (Figur 2 D). Die Autoren folgten der Standardpraxis des Entfernens und Verwerfens der physikalischen Bedeutung der dO-18-Proxies.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalische Unsicherheiten aus den dO18 Proxies in die Schlusszusammenstellung übernommen? Nein.
Physikalische Erklärung der Unterteilungen in 0.2 C: Keine.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
6. B.H. Luckman, K.R. Briffa, P.D. Jones und F.H. Schweingruber (1997) “Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983.” [23]
Dreiundsechzig regionale Baumring-Zeitreihen, dazu 38 Reihen von fossilem Holz; Einsatz der standardmäßigen statistischen (nicht physikalischen) Kalibrations-Verifikationsfunktion für die Konversion von Baumringen in Temperatur, Überlagerung der Zusammenstellung mit den 1961-1990er Mittelwerten der Messdatenreihe, Veröffentlichung des Ergebnisses mit 0.5 C Auflösung (Figur 8). Im Text werden Anomalien angesprochen bis zu einer (+/-)0.01 C Auflösung (z. B. Tables 3 & 4), die mittleren Anomalien mit (+/-)0.001 C. Diese letztere behauptete Genauigkeit ist 10x höher als die typische Einstufung eines zwei-Punkte kalibrierten Platin-Widerstands-Thermometers unter dem Schutz angestrebter moderner kontrollierter Laborbedingungen.
Physikalische Theorie bei der Erklärung herangezogen?: Nein
Rein statistische Ableitung?: Ja
Physikalische Erklärung der Proxies: Keine.
Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.
7. Michael E. Mann, Scott Rutherford, Eugene Wahl, and Caspar Ammann (2005) “Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate.” [24]
Diese Studie ist teilweise ein methodischer Überblick über die Wege zur Erzeugung einer Proxy-Paläo-Temperatur, wie sie von den das Fachgebiet beherrschenden Forschern empfohlen werden:
Methode 1: “Die composite-plus-scale (CPS) Methode. Sie besteht aus “einem Dutzend Proxy-Reihen, wobei von jeder angenommen wird, dass sie eine lineare Kombination von lokalen Temperaturänderungen und zusätzlichem Rauschen darstellt, die zusammengefasst (typischerweise mit dekadischer Auflösung;…) und skaliert werden gegen hemisphärische gemittelte Temperatur-Messdaten-Reihen während eines darüber gelegten „Kalibrierungs-“ Intervalls, um eine hemisphärische Rekonstruktion zu bilden. (Hervorhebung von mir)
Methode 2, Climate Field Reconstruction (CFR): “Unsere Umsetzung des CFR Ansatzes benutzt die „regularized expectation maximization (RegEM)“-Methode (Regulierte Erwartungsmaximierung) von Schneider (2001), die für CFR in vielen jüngeren Studien angewandt wird. Die Methode gleicht den auf der „principal component analysis (PCA)“ beruhenden Ansätzen, sie setzt aber eine iterative Schätzung der Daten-Co-Varianzen ein, um die verfügbare Information besser ausnutzen zu können. Wie schon bei Rutherford et al. (2005) haben wir getestet: (i) die direkte Anwendung der RegEM, (ii) einen Ansatz der “hybrid frequency-domain calibration”, der unterschiedliche Kalibrierungen von Komponenten mit Perioden von hoher Zeitfrequenz (Periode kürzer als 20 Jahre) und solchen mit niedriger Zeitfrequenz (Periode länger als 20 Jahre) der jährlichen Mittelwerte, die anschließend zusammengesetzt werden, um eine einzige Rekonstruktion zu bilden, (iii) eine “schrittweise” Version der RegEM, wobei die Rekonstruktion selbst stärker benutzt wird, um die älteren Segmente nacheinander zu kalibrieren.” (Hervorhebung von mir)

Zur Wiederholung des Offensichtlichen:

CPS: wird als repräsentativ für die Temperatur angenommen; statistische Skalierung auf die Messdatenreihe; Methodische Korrelation = Verursachung. Physikalischer Wert: keiner. Wissenschaftlicher Gehalt: keiner.
CFR: Principal component analysis (PCA): eine numerische Methode unter Vernachlässigung intrinsischer physikalischer Deutungen. Die Hauptkomponenten sind numerisch, nicht physikalisch, orthogonal. Numerische „Principal Components“ sind typischerweise Zusammenstellungen multipler aufgelöster (d.h., partieller) physikalischer Signale von unbekannter Größenordnung. Sie haben keine besondere physikalische Bedeutung. Eine quantitative physikalische Bedeutung kann den Principal Components nicht dadurch beigemessen werden, dass auf subjektive Urteile einer ‘Temperatur-Abhängigkeit’ verwiesen wird.
Was bedeutet die Skalierung der Principal Components in die Temperatur-Zeitreihen? Korrelation = Verursachung!
‘Korrelation = Verursachung’ ist möglicherweise der häufigste naive Fehler in der Wissenschaft. Mann et al. zeigen offen, ohne dabei rot zu werden, dass dieser Fehler der Stützpfeiler des gesamten Bereichs der Baumring-Proxy-Thermometrie ist.
Wissenschaftlicher Gehalt der Mann-Rutherford-Wahl-Ammann Proxy-Methode: null.

Zum Schluss noch etwas Beachtliches:

8. Rob Wilson, Alexander Tudhope, Philip Brohan, Keith Briffa, Timothy Osborn, und Simon Tet (2006), “Two-hundred-fifty years of reconstructed and modeled tropical temperatures.”[25]
Wilson et al. rekonstruierten 250 Jahre Meeresoberflächen-Temperaturen, indem sie nur Reihen von Korallen benutzten, auch dO-18, Strontium/Kalzium-, Uran/Kalzium-,  und Barium/Kalzium-Verhältnisse . Die letzteren drei habe ich nicht eingehend überprüft, aber die Betrachtung ihrer Punktstreuungen allein deutet schon darauf hin, dass keines davon genauere Temperaturen hergibt als dO-18. Dennoch, alle Temperatur-Proxies bei Wilson et al. haben echte physikalische Bedeutung. Was wäre das für eine großartige Gelegenheit gewesen, die Methode zu überprüfen, die Auswirkungen des Salzgehalts und biologischer Ungleichgewichte zu diskutieren, und wie das zu berücksichtigen ist. Zusätzlich könnten andere zentrale Elemente stabiler Meeres-Isotopen-Temperaturen erforscht werden.
Was aber machten diese Forscher? Sie fingen mit etwa 60 Proxy-Reihen an, warfen dann alle hinaus, die nicht mit den lokalen Gitternetz-Temperaturen korrelierten. Sechzehn Proxies verblieben, 15 davon waren dO-18. Warum korrelierten die anderen Proxies nicht mit der Temperatur? Rob Wilson & Co. schwiegen sich aus. Nachdem sie zwei weitere Proxies verworfen hatten, um das Problem des Ausfilterns hoher Frequenzen zu vermeiden, blieben ihnen noch 14 Korallen- Meeresoberflächen-Temperatur-Proxies.
Danach setzten sie standardmäßige statistische Berechnungen an: teile durch die Standardabweichung, mittele die Proxies alle zusammen (Einsatz der “nesting procedure” zum Angleichen unterschiedlicher Proxy-Längen), und skaliere dann auf die Messdatenreihe hoch.
Das Lobenswerte bei der Erwähnung dieser Forscher beruht auf der Tatsache, dass sie nur und allein physikalisch echte Proxies benutzten, leider dann aber die physikalische Bedeutung von allen verwarfen.
Damit sind sie besser als die anderen sieben Beispiel-Vertreter, die Proxies ohne jegliche physikalische Bedeutung einbezogen.
Trotzdem:
Physikalische Theorie bei der Erklärung herangezogen?: Nein
Rein statistische Ableitung?: Ja
Einsatz einer physikalisch gültigen Methode: Nein.
Physikalische Bedeutung der Proxies: existierte, wurde berücksichtigt, dann aber verworfen.
Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

Schlussurteil: Die weithin praktizierte Klimawandel-Paläo-Proxythermometrie besteht aus Zusammenstellungen, die allein auf rein statistischen Ableitungen beruhen und auf numerischen Skalierungen. Sie haben nicht nur keinen wissenschaftlichen Wert, schon die Methodik spricht deutlich gegen den wissenschaftlichen Gehalt.

Statistische Methoden: 100%.

 

 

Physikalische Methoden: nahezu keine (ausgenommen stabile Isotopen, aber deren physikalische Bedeutung wird permanent bei den zusammengesetzten Paläoproxies nicht zur Kenntnis genommen).

Bedeutung der numerisch skalierten Zusammenstellungen für die Temperatur: null.

Die sieben Studien sind typische Vertreter und sie sind repräsentativ für das gesamte Feld der Klimawandel-Paläo-Proxythermometrie. Was da wissenschaftlich praktiziert wird, ist wissenschaftlicher Betrug. Es ist Pseudo-Wissenschaft durch und durch.
Studien über stabile Isotopen sind aber echte Wissenschaft. Dieses Feld köchelt so dahin und die darin tätigen Wissenschaftler konzentrieren sich richtig auf das Detail. Ich nehme sie ausdrücklich von meiner generellen Verurteilung der Klimawandel-Paläo-Proxythermometrie aus.
In den nachfolgend genannten Arbeiten habe ich bereits die Glaubwürdigkeit der drei Richtungen der Klimawandel-Wissenschaft überprüft: Klima-Modelle (GCMs) hier (Berechnungen hier), den Datenbestand der Oberflächen-Lufttemperaturdaten hier (alles als pdf-downloads), und mit diesem Beitrag nun die Proxy-Paläo-Temperatur-Rekonstruktionen.
In allen Forschungsrichtungen werden die systematischen Fehler außer acht gelassen. Diese Vernachlässigung der systematischen Fehler zeigt, dass keine der Methoden – wirklich keine einzige – in der Lage ist, die Temperaturveränderungen der letzten 150 Jahre zu behandeln oder gar zu erklären.
Immerhin, die pandemische Ausbreitung dieser Vernachlässigung ist der zentrale Mechanismus für das Überleben des Klimawandel-Alarmismus. Das geht nun schon seit mindestens 15 Jahren so, bei den Klimamodellen seit 24 Jahren. Unterstellt man Integrität, dann muss man aber erkennen, dass die Wissenschaftler, ihre Fachgutachter und ihre Redakteure alle zusammen inkompetent sind.
Schlussfolgerung: Bei Behauptungen über Etwas-Noch-Nie-Dagewesenes bei den jüngeren globalen Lufttemperaturen weiß niemand, wovon überhaupt gesprochen wird.
Ich bin sicher, dass es Menschen gibt, die meine Schlussfolgerung angreifen werden. Sie werden gebeten, hier her zu kommen und ihre Einwände vorzutragen.
 Pat Frank PhD
Die Übersetzung besorgte in dankenswerter Weise Helmut Jäger EIKE

Über den Autor Pat Frank

Patrick Frank ist promovierter Chemiker und hat über 50 fachbegutachtete Artikel veröffentlicht. Er hat in folgenden Magazinen geschrieben: in „Skeptic“ über den Mythos vom „Edlen Wilden“ geschrieben, in „Theology and Science“ über den Mythos vom „Schöpferuniversum“ sowie in Energy & Environment über Fehler in Globaltemperaturbestimmungen sowie in „Free Inquiry“ zusammen mit Thomas H. Ray über den Mythos „Wissenschaft ist Philosophie“.
Referenzen:
1. Mann, M.E., R.S. Bradley, and M.S. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392(p. 779-787.
2. Dansgaard, W., Stable isotopes in precipitation. Tellus, 1964. 16(4): p. 436-468.
3. McCrea, J.M., On the Isotopic Chemistry of Carbonates and a Paleotemperature Scale. J. Chem. Phys., 1950. 18(6): p. 849-857.
4. Urey, H.C., The thermodynamic properties of isotopic substances. J. Chem. Soc., 1947: p. 562-581.
5. Brand, W.A., High precision Isotope Ratio Monitoring Techniques in Mass Spectrometry. J. Mass. Spectrosc., 1996. 31(3): p. 225-235.
6. Kim, S.-T., et al., Oxygen isotope fractionation between synthetic aragonite and water: Influence of temperature and Mg2+ concentration. Geochimica et Cosmochimica Acta, 2007. 71(19): p. 4704-4715.
7. O’Neil, J.R., R.N. Clayton, and T.K. Mayeda, Oxygen Isotope Fractionation in Divalent Metal Carbonates. J. Chem. Phys., 1969. 51(12): p. 5547-5558.
8. Epstein, S., et al., Revised Carbonate-Water Isotopic Temperature Scale. Geol. Soc. Amer. Bull., 1953. 64(11): p. 1315-1326.
9. Bemis, B.E., et al., Reevaluation of the oxygen isotopic composition of planktonic foraminifera: Experimental results and revised paleotemperature equations. Paleoceanography, 1998. 13(2): p. 150Ð160.
10. Li, X. and W. Liu, Oxygen isotope fractionation in the ostracod Eucypris mareotica: results from a culture experiment and implications for paleoclimate reconstruction. Journal of Paleolimnology, 2010. 43(1): p. 111-120.
11. Friedman, G.M., Temperature and salinity effects on 18O fractionation for rapidly precipitated carbonates: Laboratory experiments with alkaline lake water ÑPerspective. Episodes, 1998. 21(p. 97Ð98
12. Keigwin, L.D., The Little Ice Age and Medieval Warm Period in the Sargasso Sea. Science, 1996. 274(5292): p. 1503-1508; data site: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.
13. Shackleton, N.J., Attainment of isotopic equilibrium between ocean water and the benthonic foraminifera genus Uvigerina: Isotopic changes in the ocean during the last glacial. Colloq. Int. C.N.R.S., 1974. 219(p. 203-209.
14. Shackleton, N.J., The high-precision isotopic analysis of oxygen and carbon in carbon dioxide. J. Sci. Instrum., 1965. 42(9): p. 689-692.
15. Barrera, E., M.J.S. Tevesz, and J.G. Carter, Variations in Oxygen and Carbon Isotopic Compositions and Microstructure of the Shell of Adamussium colbecki (Bivalvia). PALAIOS, 1990. 5(2): p. 149-159.
16. Aldrich, J., Correlations Genuine and Spurious in Pearson and Yule. Statistical Science, 1995. 10(4): p. 364-376.
17. D’az, E. and R. Osuna, Understanding spurious correlation: a rejoinder to Kliman. Journal of Post Keynesian Economics, 2008. 31(2): p. 357-362.
18. Crowley, T.J. and T.S. Lowery, How Warm Was the Medieval Warm Period? AMBIO, 2000. 29(1): p. 51-54.
19. Osborn, T.J. and K.R. Briffa, The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years. Science, 2006. 311(5762): p. 841-844.
20. Mann, M.E., et al., Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. Proc. Natl. Acad. Sci., 2008. 105(36): p. 13252-13257.
21. D’Arrigo, R., R. Wilson, and G. Jacoby, On the long-term context for late twentieth century warming. J. Geophys. Res., 2006. 111(D3): p. D03103.
22. Moberg, A., et al., Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, 2005. 433(7026): p. 613-617.
23. Luckman, B.H., et al., Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983. The Holocene, 1997. 7(4): p. 375-389.
24. Mann, M.E., et al., Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate. J. Climate, 2005. 18(20): p. 4097-4107.
25. Wilson, R., et al., Two-hundred-fifty years of reconstructed and modeled tropical temperatures. J. Geophys. Res., 2006. 111(C10): p. C10007.

Related Files